JPH03167681A - Calculating method for characteristic parameter of object - Google Patents

Calculating method for characteristic parameter of object

Info

Publication number
JPH03167681A
JPH03167681A JP1308263A JP30826389A JPH03167681A JP H03167681 A JPH03167681 A JP H03167681A JP 1308263 A JP1308263 A JP 1308263A JP 30826389 A JP30826389 A JP 30826389A JP H03167681 A JPH03167681 A JP H03167681A
Authority
JP
Japan
Prior art keywords
point
contour
points
contour line
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1308263A
Other languages
Japanese (ja)
Other versions
JPH0670797B2 (en
Inventor
Gohei Iijima
飯島 剛平
Sadahiro Taneda
定博 種子田
Takao Kanamaru
孝夫 金丸
Arata Hiramatsu
平松 新
Kazuki Ogura
小倉 一樹
Yoichi Nakamura
洋一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP1308263A priority Critical patent/JPH0670797B2/en
Publication of JPH03167681A publication Critical patent/JPH03167681A/en
Publication of JPH0670797B2 publication Critical patent/JPH0670797B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To reduce the increase of data despite a complicated object shape and to process an image simply and at a high speed by handling the contour lines as the chain codes, i.e., a 1-dimensional data train when the characteristic parameters of the area, the centroid, etc., showing the characteristics of the object shape are calculated through the image processing. CONSTITUTION:The binary images obtained by photographing an object are stored in an image memory 1 for each picture element, and a processing circuit 2 consisting of a microcomputer, etc., computes the contents stored in the memory 1 to calculate the characteristic parameters. In this case, the contour lines are first tracked for calculation of the basic characteristic parameters, i.e., the moment, area, centroid, attitude angle, and circumscribed rectangle respectively. Then both furthest and nearest points are detected and the directions set from the centroids of both points are calculated. Then the derivative characteristic parameters, i.e., the moment ratio, the area rate, the aspect ratio, etc., are calculated. Furthermore the total area, the total circumferential length, etc., are calculated. A binary image to be stored in the memory 1 consists of the picture elements of logic '0' and '1'.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、画像処理によって物体の形状の特徴を表す面
積や重心などの特徴パラメータを算出する方法に関する
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a method for calculating characteristic parameters such as area and center of gravity representing the characteristics of the shape of an object by image processing.

従来の技術 従来から、物体の2値画像に基づいて、その物体の面積
および重心などの特徴パラメータを算出する場合には、
画像メモリにストアされている画素ごとの論理rQJま
たは論理「1」がX方向(TV画面ラスタ走査方向〉に
連続する画素数すなわちランレングスを、ハードウエア
またはソフトウエアによって、Y方向(ラスタ走査方向
に直行する方向)に順次的に求めておき、このランレン
グス・データをSRIアルゴリズム(連結性解析〉によ
り処理することによって固体分離を行っている. 発明が解決すべき課題 このような先行技術においては、ハードウェアでランレ
ングスを求める場合には短時間で算出はできるが、専用
のハードウエアが必要となり、装置が高価になるという
欠点がある.また、ソフトウエアでランレングスを求め
る場合には、画像データの連結領域を2次元的に探索し
て求める結果、処理時間がかかるという問題がある。
Conventional technology Conventionally, when calculating feature parameters such as the area and center of gravity of an object based on a binary image of the object,
The number of pixels in which logic rQJ or logic "1" for each pixel stored in the image memory is continuous in the X direction (TV screen raster scanning direction), that is, the run length, is determined by hardware or software in the Y direction (raster scanning direction). Solid separation is performed by sequentially obtaining run length data in the direction perpendicular to can be calculated in a short time when calculating the run length using hardware, but has the drawback that it requires special hardware and the equipment is expensive.Also, when calculating the run length using software, , there is a problem in that it takes a long processing time as a result of searching and finding a connected region of image data two-dimensionally.

さらに、ランレングス・データをSRIアルゴリズム(
連結性解析〉で処理する過程に関しては、物体の形状が
複雑になり、物体の個数が多くなるほどランレングス・
データが増加し、この結果、連結性解析で比較処理すべ
きデータの数が指数間数的に飛躍的に増大するために、
処理時間がかかるという問題がある. 本発明の目的は、上記従来技術の欠点を取り除いて物体
の特徴パラメータを短時間で算出する方法を提供するこ
とである. 課題を解決するための手段 本発明は、物体の輪郭線の閉じたループ間の包含関係か
ら個々の物体の固体分離を行い、また、チェーンコード
で表した輪郭線からランレングス・データを求めて特徴
パラメータを算出するようにした物体の特徴パラメータ
算出方法である.作  用 本発明に従えば、輪郭線画像の閉じたループの包含rW
J係を調べるという1次元的な探索処理に基づいて固体
分離を行っているので、物体の形状が複雑になり、個数
が多い場合でも、輪郭線データの数は増加するものの固
体分離に要する処理時間は短くてすむ。
Furthermore, the run length data is processed using the SRI algorithm (
Regarding the process processed by Connectivity Analysis, the more complex the shape of the object and the larger the number of objects, the longer the run length and
As data increases, and as a result, the number of data to be compared and processed in connectivity analysis increases exponentially.
There is a problem with the processing time. An object of the present invention is to provide a method for calculating feature parameters of an object in a short time by eliminating the drawbacks of the above-mentioned conventional techniques. Means for Solving the Problems The present invention performs solid separation of individual objects from the inclusion relationship between closed loops of the contour lines of the objects, and also obtains run length data from the contour lines represented by chain codes. This is a method for calculating feature parameters of objects that calculates feature parameters. Effect According to the present invention, the closed loop inclusion rW of the contour image
Since solid separation is performed based on a one-dimensional search process of examining the J coefficient, even if the shape of the object is complex and the number of objects is large, the processing required for solid separation will increase even though the number of contour data will increase. It only takes a short time.

また、ランレングス・データを求める過程では、輪郭線
上のすべての点についてそれぞれの前後の点のチェーン
コードの値を調べてラン(ラスタ走査方向につながった
一連の連結領域)の開始点と終了点を求め、これよりラ
ンレングスを算出している.この方法は1次元探索であ
り、ソフトウエアで実現しても処理時間が非常に短くて
すみ、かつ特別なハードウエアも不要であり、装置が安
価に実現できるという特長がある。
In addition, in the process of obtaining run length data, the chain code values of the points before and after each point on the contour are checked to determine the start and end points of a run (a series of connected areas connected in the raster scanning direction). The run length is calculated from this. This method is a one-dimensional search, and even when implemented using software, the processing time is very short, and special hardware is not required, so the device can be implemented at low cost.

実施例 第1図は本発明の一実施例の全体のステップを示すフロ
ーチャートであり、第2図はその演算処理を行う構成を
示すブロック図である。画像メモリ1には、物体をたと
えば撮像して得られた画素毎の2値画像がストアされて
おり、マイクロコンビュータなどによって実現される処
理回路2は、この画像メモリ1にストアされている内容
を演算して特徴パラメータを算出する。この特徴パラメ
ータの算出にあたり、第1図のステップ01〜ステップ
n3では、輪郭線の追跡を行い、ステップn4〜n7で
は、基本特徴パラメータ、すなわちモーメント、面積、
重心、姿勢角、外接長方形の各算出を行うとともに、最
遠点および最近点の検出を行い、それらの重心からの方
向の算出を行う.ステップn8では、派生特徴パラメー
タ、すなわちモーメント比率、面積率、アスベクト比な
どを算出し、また対象物の穴に関する集計量の算出を行
い、さらに総面積および総周囲長などの算出を行う. まず、第1番目に、輪郭線の追跡の方法について説明す
る.第3図は画像メモリ1にストアされている暗背景中
の明物体を表す2値画像を示す.この第3図において、
黒丸は、第4図(1)で示されるように、論理「0」の
画素を示し、白丸は第4図〈2)で示されるように論理
「1」の画素を示す.この画像中の物体の輪郭線を、次
の手順(1)〜(5)で探索する. (1)第3図に示される2値画像の左上から右下に向っ
て、すなわちX方向に左方から右方に、かつY方向に上
から下にこの順序で、各画素が論理「0」すなわち暗か
ら論理「1」すなわち明へ変化する点を探索する. (2〉第3図の四角枠30で囲んだ点が、輪郭線上の候
補として検出され、未だ輪郭線が追跡されていなければ
、この点は、マーカと呼ばれる追跡済みの情報をもたず
、輪郭追跡の開始点として決定される.各画素毎には、
上述のように追跡済みであるかどうかを表す情報を併せ
てストアしておく. (3)第5図に示すように、輪郭線上の現在の画素をQ
とし、この画素Qに移動してくる前の画素をPとしたと
き、画素Qから移動する画素の探索を、第5図に従って
処理する。すなわち画素Qの8つの近傍点のうち、画素
P→画素Qの方向上の画素P3と、その方向の左右にあ
る4つの画素PI,P2 ; P5,P4とを、P1→
P5の順に調べ、最初に見付けた論理「1」の画素を選
択する.画素Qが開始点であるときには、画素P1を開
始点の左隣りの画素に選ぶ。もし、この画素P1に探索
済みのマーカがついていれば、この輪郭探索を打ち切る
. (4)このようにして,輪郭線を追跡し、元の開始点に
戻った時点で、輪郭追跡を終了する。第6図はこの追跡
結果を示す.輪郭線の追跡は、左手で画素が論理「1」
の領域をたどる形で行われるので、物体の輪郭線の追跡
は、この実施例では、反時計まわりとなる。第6図にお
いて、輪郭線は参照符31で示す. このような手順は、穴の輪郭線の追跡に関しても同様に
実施される。穴の輪郭線の追跡は、第7図に示されるよ
うに、時計まわりに行なわれ、その穴の輪郭線は参照符
32で示される.第6図および第7図における開始点は
二重丸で示される.(5)このように輪郭線追跡が完了
すると、輪郭線31.32上の画素に、マーカと呼ばれ
る追跡済みの情報が付けられる。したがって再び前述の
ステップく1〉において、輪郭線31.32上の候補点
、たとえば第6図の破線枠33で示される点が検出され
ても、その候補点には追跡済みの情報であるマーカがス
トアされているので、それ以上の追跡は行われない。
Embodiment FIG. 1 is a flowchart showing the overall steps of an embodiment of the present invention, and FIG. 2 is a block diagram showing the configuration for performing the calculation processing. The image memory 1 stores, for example, a binary image for each pixel obtained by imaging an object, and the processing circuit 2 implemented by a microcomputer or the like processes the contents stored in the image memory 1. Compute the feature parameters. In calculating this feature parameter, in steps 01 to n3 of FIG.
In addition to calculating the center of gravity, attitude angle, and circumscribed rectangle, the farthest point and nearest point are detected, and the directions from the center of gravity are calculated. In step n8, derived feature parameters such as moment ratio, area ratio, aspect ratio, etc. are calculated, the total amount of holes in the object is calculated, and the total area, total perimeter, etc. are calculated. First, we will explain the contour tracing method. Figure 3 shows a binary image stored in image memory 1 representing a bright object in a dark background. In this figure 3,
A black circle indicates a logic "0" pixel, as shown in FIG. 4 (1), and a white circle indicates a logic "1" pixel, as shown in FIG. 4 (2). Search for the outline of the object in this image using the following steps (1) to (5). (1) From the upper left to the lower right of the binary image shown in Figure 3, in this order from left to right in the X direction and from top to bottom in the Y direction, each pixel is ”, that is, the point where the logic changes from dark to logical “1”, that is, bright. (2> If the point surrounded by the rectangular frame 30 in Fig. 3 is detected as a candidate on the contour line and the contour line has not been traced yet, this point does not have tracked information called a marker, Determined as the starting point for contour tracking.For each pixel,
As mentioned above, information indicating whether tracking has been completed is also stored. (3) As shown in Figure 5, the current pixel on the contour line is
Assuming that the pixel before moving to this pixel Q is P, the search for a pixel moving from the pixel Q is processed according to FIG. That is, among the eight neighboring points of pixel Q, pixel P3 in the direction of pixel P→pixel Q and four pixels PI, P2; P5, P4 on the left and right in that direction are
Check in the order of P5 and select the first logical "1" pixel found. When pixel Q is the starting point, pixel P1 is selected as the pixel to the left of the starting point. If a searched marker is attached to this pixel P1, this contour search is discontinued. (4) In this way, the contour line is traced, and when the contour line returns to the original starting point, the contour tracing is terminated. Figure 6 shows the tracking results. When tracing the contour line, the pixel on the left hand is logical "1".
In this embodiment, the outline of the object is traced counterclockwise. In FIG. 6, the contour line is indicated by reference numeral 31. Such a procedure is similarly carried out for tracing the contour of the hole. The tracing of the hole contour is done clockwise, as shown in FIG. 7, and the hole contour is indicated by reference numeral 32. The starting point in Figures 6 and 7 is indicated by a double circle. (5) When contour tracing is completed in this manner, traced information called a marker is attached to pixels on the contour lines 31 and 32. Therefore, even if a candidate point on the contour line 31 or 32, for example, the point indicated by the broken line frame 33 in FIG. is stored, so no further tracking is performed.

この輪郭線は、第6図における2重丸で示される開始点
S1と、そこからの移動方向を第8図に示す0〜7の数
字で順次表したチェーンコードによって記録されてスト
アされる。たとえば第6[2Iの開始点S1から開始さ
れる輪郭線31のチェーンコードは、r5456644
6・・・」となる。
This contour line is recorded and stored using a chain code in which the starting point S1 shown by a double circle in FIG. 6 and the direction of movement from there are sequentially represented by numbers 0 to 7 shown in FIG. For example, the chain code of the contour line 31 starting from the starting point S1 of the 6th [2I is r5456644
6..."

このような手順(1)〜く5)による輪郭線の追跡の利
点(a1)〜(a3〉を、列挙すると、次のようになる
Advantages (a1) to (a3) of contour tracing according to steps (1) to 5) are enumerated as follows.

(a1〉輪郭線が物体を表す場合でも穴を表す場合でも
、共通である. (a2〉構造が簡単で、処理が高速である.(a3)輪
郭線追跡では、画像情報を1次元的に(線状に)使用す
るので、物体の大きさく面積〉がN倍になり画素数が増
大しても、追跡に要する時間は、Nの平方根倍にしかな
らない。
(a1> This is common whether the contour represents an object or a hole. (a2> The structure is simple and processing is fast. (a3) In contour tracing, image information is processed in one dimension. Since it is used (linearly), even if the size and area of the object becomes N times larger and the number of pixels increases, the time required for tracking will only be multiplied by the square root of N.

輪郭線の開始点の検出に要する時間の短縮を図るために
、本発明の一実施例では、ハードウエアによって、開始
点の検出を行う.そのために第9図に示される大きさ3
X3画素分のいわばマスクオペレータを採用する。,こ
のマスクオペレータの各画素A〜■は、各画素の能動値
すなわち、論理「0」または論理「1」を表す.次の第
1式または第2式を満たすとき、画素Eに対応する画素
を輪郭線の開始点の候補とし、その画像メモリ上のX−
Y座標系の位置を記憶する。
In order to reduce the time required to detect the starting point of a contour line, in one embodiment of the present invention, the starting point is detected by hardware. Therefore, the size 3 shown in FIG.
A so-called mask operator for X3 pixels is employed. , each pixel A to ■ of this mask operator represents the active value of each pixel, that is, logic "0" or logic "1". When the following first or second equation is satisfied, the pixel corresponding to pixel E is selected as a candidate for the starting point of the contour line, and the X-
Store the position in the Y coordinate system.

A−B・C−D−E = 1 (真理値)      
        ・・・(1)A.B−C−D−E =
 1 (真理値)              ・・・
〈2〉このハードウエアの構成による輪郭線の開始点の
検出では、たとえば第10図に示される四角枠の点が開
始点の候補となる.各候補点について、上述の輪郭線追
跡の手順を行う.各画素について、マーカによって2重
追跡を回避する構成としているので、実際に輪郭線の開
始点となるのは、四角?の各画素のうち、2重丸の候補
点だけになる.この開始点は、物体外周の開始点S1と
穴の輪郭線の開始点S2とが存在する. このような楕戒では、輪郭線の追跡における開始点の検
出をハードウエアの構成によって行うようにしたので、
次に述べるソフトウエアによるコンピュータプログラム
を実行して開始点を検出する2次元探索に比べて、検出
速度を著しく向上することができるという利点がある。
A-B・C-D-E = 1 (truth value)
...(1) A. B-C-D-E=
1 (truth value)...
<2> In detecting the starting point of the contour line using this hardware configuration, for example, the points in the rectangular frame shown in FIG. 10 are candidates for the starting point. For each candidate point, perform the contour tracing procedure described above. Since each pixel is configured to avoid double tracking using a marker, is the actual starting point of the outline a square? Of each pixel in , only the candidate points are double circles. These starting points include a starting point S1 on the outer circumference of the object and a starting point S2 on the outline of the hole. In this type of elliptical command, the starting point for contour tracing is detected by the hardware configuration, so
This method has the advantage that the detection speed can be significantly improved compared to a two-dimensional search in which a starting point is detected by executing a computer program using software, which will be described below.

輪郭線の開始点の検出のために、ハードウエアの構成に
代えて、ソフトウエアによって開始点を検出する手順を
本発明の他の実施例として、述べる,この手順は、いわ
ば、間引き方法であー)で、第11図に示される1画像
のX方向およびY方向に、予め定める間隔m(この実施
例ではたとえばm−4)毎に各画素の論理値を調べる.
論理値が調べられるべき画素は、第11図において四角
枠で示されている.X方向に、第11図の左方から右方
に一定間隔m毎の画素の論理値を調べ、その論理値が、
論理r■,から論理「1」に変化する区間が見つかれば
、この区間内で、論理「0」から論理「1」へ変化する
点を、1画素毎に調べるたとえば画素34が論理「0」
であり、その次の調べられた画素35が論理「1」であ
るときにはX方向に矢符36に沿って、lit素毎に論
理値が画素34の論理値ro』から論理値r1,になっ
たかどうかを調べていく,.この結果、2重丸で示す点
37が、画素34.35間で論理「O」から論理「1」
に変化した最初の点であり、この画素37を開始点の候
補として検出する.その後開始点37から、輪郭線を追
跡する.このようなソフトウエアによって、画素を一定
間隔mで、いわば間引いて、輪郭線の開始点を検出する
ので、検査するvM像データの数が大幅に削減され、処
理の高速化を図ることができる. 上述の輪郭線の追跡の手順の後に、第2番目に、次に述
べるように物体と穴の判別および包含関係の決定を行う
.輪郭線が検出された後、楕戒する画素のうちで、第1
2図に示すように、最も上であって、そのうち、最も左
にある点、すなわち第6I2l、第7図および第10図
における開始点SIS2を探し、その真上の画素を調べ
ることによって、その輪郭線が物体を表すかまたは穴を
表すかを判定することができる。たとえば第6図におい
て、輪郭線31は、開始点S1の真上の画素38が論理
『0」であるので、物体の輪郭線31であるものと判断
する。また第7図の開始点S2は、その真上の画素39
が論理rlJであるので、輪郭線32は穴の輪郭線であ
るものと判別する。物体の輪郭線31をO − L O
 O P ( Object Loop)、後者をH−
LOOP (Hole Loop)  と呼び、ループ
番号を付けて管理する。
In order to detect the starting point of a contour line, a procedure for detecting the starting point using software instead of a hardware configuration will be described as another embodiment of the present invention.This procedure is, so to speak, a thinning method. ), the logical value of each pixel is checked at predetermined intervals m (for example, m-4 in this embodiment) in the X and Y directions of one image shown in FIG.
The pixels whose logical values are to be examined are indicated by square frames in FIG. In the X direction, check the logical values of pixels at regular intervals m from the left to the right in FIG. 11, and find out that the logical values are
If an interval is found where the logic changes from logic "r" to logic "1", check the point at which the logic changes from logic "0" to logic "1" pixel by pixel within this section. For example, if pixel 34 has logic "0"
, and when the next checked pixel 35 is logic "1", the logic value changes from the logic value ro of the pixel 34 to the logic value r1 for each lit element along the arrow 36 in the X direction. I will check whether it is true or not. As a result, point 37 indicated by a double circle changes from logic "O" to logic "1" between pixels 34 and 35.
This is the first point that changes to pixel 37, and this pixel 37 is detected as a candidate for the starting point. After that, the contour line is traced from the starting point 37. Such software detects the starting point of the contour line by thinning out the pixels at regular intervals m, so the number of vM image data to be inspected can be significantly reduced and processing speed can be increased. .. After the contour tracing procedure described above, the second step is to distinguish between objects and holes and determine the inclusion relationship, as described below. After the contour line is detected, the first one of the pixels to be ovalized is
As shown in Fig. 2, by searching for the uppermost and leftmost point, that is, the starting point SIS2 in Figs. 6I2l, 7 and 10, and examining the pixel directly above it, It can be determined whether a contour represents an object or a hole. For example, in FIG. 6, the contour line 31 is determined to be the contour line 31 of an object because the pixel 38 directly above the starting point S1 is logic "0". Furthermore, the starting point S2 in FIG. 7 is the pixel 39 directly above it.
Since the logic rlJ is true, the contour line 32 is determined to be the contour line of a hole. The outline 31 of the object is O - L O
OP (Object Loop), the latter as H-
It is called LOOP (Hole Loop) and is managed by assigning a loop number.

一方、輪郭線は、包含関係まで考慮すると、次のもの(
b1)〜(b4)が考えられる。
On the other hand, if we consider the inclusion relationship, the contour line can be defined as the following (
b1) to (b4) are possible.

(b1)他の輪郭線に属さない物体の輪郭線(Mast
er Object Loop、略称M−0−LOOP
)。
(b1) Contour line of an object that does not belong to other contour lines (Mast
er Object Loop, abbreviation M-0-LOOP
).

(b2)上記輪郭線M−0−LOOPに属する穴の輪郭
線( Master Hole Loop、略称M−H
−Loop>. (b3)上記輪郭線M−H−LOOPに属する物体の輪
郭線( Slave Object Loop、略称S
−OLOOP)  。
(b2) The contour line of the hole belonging to the above contour line M-0-LOOP (Master Hole Loop, abbreviated as M-H
-Loop>. (b3) The contour line of the object belonging to the above contour line M-H-LOOP (Slave Object Loop, abbreviated as S
-OLOOP).

(b4)上記輪郭線S−0−LOOPに属する穴の輪郭
i1 ( Slave Role Loop、略称S−
H−Loop>, 第12図では、このような4つの輪郭線を示している。
(b4) Outline i1 of the hole belonging to the above outline S-0-LOOP (Slave Role Loop, abbreviated as S-
H-Loop>, FIG. 12 shows four such contour lines.

上述の(bl).〜(b4)を、輪郭線、すなわちルー
プの属性と呼ぶことにする.この属性は、次の千順〈6
)〜〈8〉によって決定することができる。
(bl) above. ~(b4) will be called the contour line, that is, the attribute of the loop. This attribute is in the following thousand order <6
) to <8>.

(6)輪郭線に左上に存在するものから順にループ番号
を付ける。
(6) Assign loop numbers to the contour lines in order starting from the one at the top left.

(7)一番左上に存在する輪郭線の属性をM一〇−LO
OPとする. (8)ループ番号の順に、第13図の輪郭線の開始点S
3に着目し、S3から左方に他の輪郭線を捜す.輪郭線
が存在すれば、ループ番号が現在着目している輪郭線の
ものよりも小さいはずであり、すでにその輪郭線の包含
rWt係上の属性が決定している。現在着目している輪
郭線の種類と左方の輪郭線の属性から第1表のように属
性を決定する, ここで、本印の付いた属性は、左方の輪郭線が属する物
体に属するものとする。また、**印の付いた属性は、
左方の輪郭線に属するものとする。
(7) Set the attribute of the contour line at the top left to M10-LO
Mark as OP. (8) Starting point S of the contour line in Figure 13 in order of loop number
Focusing on point 3, search for other contour lines to the left from S3. If the contour line exists, the loop number should be smaller than that of the contour line of current interest, and the attribute of the inclusion rWt relation of the contour line has already been determined. The attributes are determined as shown in Table 1 from the type of contour line currently being focused on and the attributes of the left contour line.Here, attributes with this mark belong to the object to which the left contour line belongs. shall be taken as a thing. Also, attributes marked with ** are
It shall belong to the left contour line.

次に第3番目に、本発明に従ってチェーンコードのラン
レングスデータへの変換手−順を説明する。
Thirdly, a procedure for converting a chain code into run length data according to the present invention will be explained.

本発明では、輪郭線追跡の手順は、従来からのランレン
グスの考え方を全く利用しないので、複雑な形状の物体
の検出が容易であり、輪郭線の情報から、ランレングズ
に相当するデータを直ちに?算して求めることができる
。たとえば第14図では、追跡した輪郭線上の点列を示
したものであり、図中、四角枠の部分がある水平方向、
すなわちX方向におけるランレングスに対応している.
参照符Sは輪郭線の開始点を示す. 今、輪郭線上の任意の3点に着目し、第15図に示すよ
うに、P.−1,P.,P..,とする.点Pl.■l
から点P1へのチェーンコードをdirlとし、点P,
からP.。1へのチェーンコードをdir2とすると、
dirlとdir2との関係から第2表に示すように、
一意的に、点P,のランレングス上の役割(すなわちr
ole)が決定される。
In the present invention, the contour tracing procedure does not use the conventional concept of run length at all, so it is easy to detect objects with complex shapes, and data corresponding to run length can be immediately obtained from contour information. It can be calculated and found. For example, Fig. 14 shows a sequence of points on the traced contour line, and in the figure, the horizontal direction where the square frame part is,
In other words, it corresponds to the run length in the X direction.
Reference mark S indicates the starting point of the contour line. Now, focusing on three arbitrary points on the contour line, as shown in FIG. -1,P. ,P. .. ,. Point Pl. ■l
Let the chain code from to point P1 be dirl, and point P,
From P. . If the chain code to 1 is dir2, then
As shown in Table 2 from the relationship between dirl and dir2,
Uniquely, the role of point P on the run length (i.e., r
ole) is determined.

(以下余白) 第 2 表 dirl ここで、S:ランレングスの開始点 E:ランレングスの終了点 T:ランレングスの開始点かつ終了点 X:ランレングス上の途中点 第16図は、このような任意の点のとり得るランレング
ス上の役割を示し、第16図(1〉〜第l6図(9)の
チェーンコードdirl,dir2とその役割を第3表
に示す. 第 3 表 そこで次に、輪郭線を構成するすべての画素のX−Y座
標を求め、ループ番号(すなわちm a r k ) 
、およびランレングス上の役割(すなわちrole)と
ともに、第17図に示すテーブルを作戒する.たとえば
第14図において、Y座標がyであるライン40上で、
輪郭線上の点をR1,R2とし、そのX座標がxi,x
2としたとき、第17図において輪郭点列情報に、Y座
標に対応して、X座標と、その役割S,Eがストアされ
る,markは閉ループを管理する情報、ro1eはラ
ンの開始終了、その他を表す情報である。
(Margin below) 2nd table dirl Here, S: Start point of run length E: End point of run length T: Start and end point of run length X: Midway point on run length Table 3 shows the roles that any arbitrary point can take on the run length, and the chain codes dirl and dir2 in Figures 16 (1) to 16 (9) and their roles are shown in Table 3. , find the X-Y coordinates of all pixels that make up the contour line, and calculate the loop number (i.e. m a r k )
, and the role on the run length (namely, role), create the table shown in Figure 17. For example, in FIG. 14, on the line 40 whose Y coordinate is y,
The points on the contour line are R1 and R2, and their X coordinates are xi, x
2, in Fig. 17, the X coordinate and its roles S and E are stored in the contour point sequence information corresponding to the Y coordinate, mark is information for managing the closed loop, and ro1e is the start and end of the run. , and other information.

この第17図のテーブルでは、輪郭点列情報を昇順に並
べ、すなわちX座標を小さい値から大きい値に順番に並
べ、後述の演算で利用しやすくする. 第14図におけるY座標yのライン40上のランレング
スnは、次の第3式のとおりとなる.n=x2−xl+
1            ・・・(3〉こうしてラン
レングスnを簡単に求めることができる.第17図のテ
ーブルを、以下の説明では、ランレングステーブル(略
称RLT)と呼ぶことにする. このランレングステーブルを用いることによって、たと
えば第18図に示されるようにY座標yであるライン4
1上で、第17図の輪郭点列情報としては、4つの点4
2〜45のX座標がストアされ、その役割S,Eもまた
ストアされ、こうして物体の輪郭線46のランレングス
na,nbを容易に算出することができる. また、たとえば第19区に示されるように、物体の輪郭
線47と穴の輪郭I148.49が存在し、このときY
座標のライン50では、第17図の輪郭点列情報として
、点51〜56をストアし、これらの点51〜56の役
割S,Eをストアし、このようにして、ランレン・グス
nc,nd,neを算出することができる。
In the table shown in FIG. 17, the contour point sequence information is arranged in ascending order, that is, the X coordinates are arranged in order from the smallest value to the largest value to facilitate use in calculations described later. The run length n on the line 40 of the Y coordinate y in FIG. 14 is given by the following third equation. n=x2−xl+
1...(3> In this way, the run length n can be easily determined. In the following explanation, the table shown in FIG. 17 will be referred to as a run length table (abbreviated as RLT). This run length table is used. For example, as shown in FIG.
1, the contour point sequence information in Fig. 17 is four points 4.
The X coordinates from 2 to 45 are stored, and their roles S, E are also stored, so that the run lengths na, nb of the object contour 46 can be easily calculated. Also, as shown in the 19th section, for example, there are an object outline 47 and a hole outline I148.49, and at this time Y
In the coordinate line 50, points 51 to 56 are stored as contour point sequence information in FIG. 17, and the roles S and E of these points 51 to 56 are stored. , ne can be calculated.

本発明では、このように第18図および第19図に示さ
れる比較的複雑な画像において、ランレングスを簡便に
求めることができるという優れた利点がある。
The present invention has the excellent advantage that the run length can be easily determined in the relatively complicated images shown in FIGS. 18 and 19.

第4番目に、ランレングステーブルを用いて、特徴パラ
メータである重心および姿勢角を算出する手順を述べる
. 一般に、物体の面積、重心を求める場合、論理値が「1
」の画素を数えればよいが、画像情報を2次元的〈面状
)に調べなければならない.また、姿勢角を求めるには
、さらにX座標Y座標の自乗の演算を含む慣性モーメン
トを箪出す.る必要があり、この演算に要する時間は大
きくなる。
Fourth, we will describe the procedure for calculating the center of gravity and attitude angle, which are characteristic parameters, using the run length table. Generally, when determining the area and center of gravity of an object, the logical value is ``1''.
'', but the image information must be examined two-dimensionally (planarly). In addition, to find the attitude angle, we further calculate the moment of inertia, which includes the calculation of the squares of the X and Y coordinates. This calculation requires a large amount of time.

たとえば、第20図の物体の面積を求めるには、各Y座
標毎に値1の画素の数すなわちラインSi(図中破線部
で示すランレングス)を算出し、物体を楕戒するすべて
のSiの総和をとればよいが、2値画像をすべて調べる
ことになる。
For example, to find the area of the object in Figure 20, calculate the number of pixels with a value of 1 for each Y coordinate, that is, the line Si (run length indicated by the dashed line in the figure), and calculate all Si It is sufficient to calculate the sum of the values, but all binary images must be examined.

しかし、前述のランレングステーブルを用いると、St
の両端点のX座標がただちにわかるので、ni =xe
i −xsi + 1          ・・(4)
(xei,xsiは、Siの両端点のX座標)酵=Σn
i               ・・・(5)i によって、面積を容易に求めることができる。
However, using the run length table described above, St
Since we can immediately know the X coordinates of both endpoints, ni = xe
i −xsi + 1 (4)
(xei, xsi are the X coordinates of both end points of Si) Fermentation = Σn
i...(5) The area can be easily determined by i.

同様に、上記物体の原点まわりのモーメント類は、上記
niを用いると次式で表すことができるので、これらも
、ランレングステーブルの情報から求められることにな
る, Y軸についての1次モーメント(幾何モーメント〉は、 Y軸についての2次モーメント (慣性モーメン ト)は、 X軸についての 1次幾何モーメ ントは、 =Σ(ni−xsi+ni (ni−1)/2)1  
            ・ ・・・(8〉 X軸についての2次モーメント (慣性モーメン ト 〉 写(Σxj)2=E (xs i”+(xs i+1)
”+− ・+(xs i+ni−1)21IJ    
   1 =Σ(ni−xsi2+2xsini (nii 1〉/2 +ni(ni 1) (2ni−1)/6) ・・・(9〉 慣性乗積モーメントは、 第6式〜第10式の演算をする と 第20図の 重心G ( g X , g y ) と姿勢角θは、 次のように ?出できる. gx=(第8式の値)/面積            
    ・・・(11〉gy=(第9式の値)/面積 
                ・・・(12〉θ=
−(90−θ1)  A≧OB〈0       ・・
(13)θ=−θ1A≧OB≧0       ・・・
(14)θ一θI     A<O B≧O     
  ・・・(15)θ=90−θI     A<O 
 B<O             ・・(16)ただ
し、 A一(第10式の顧一(第8式の値)×(第6式の■■
■/面積    ・・・〈18〉B−((第9式の勤一
(第7式の値)I X(1−1/面積)      ・
・・(19)tan2−θ1=2A/B       
     − (20)とする。
Similarly, the moments around the origin of the above object can be expressed by the following equations using the above ni, so these are also the first moments about the Y axis ( The geometric moment> is, The second moment of inertia about the Y axis is The first geometric moment about the X axis is =Σ(ni-xsi+ni (ni-1)/2)1
・ ...(8> Quadratic moment about the X axis (moment of inertia) (Σxj)2=E (xs i"+(xs i+1)
”+- ・+(xs i+ni-1)21IJ
1 = Σ(ni-xsi2+2xsini (nii 1〉/2 + ni(ni 1) (2ni-1)/6) ... (9> The product moment of inertia is calculated by the equations 6 to 10. The center of gravity G (g
...(11>gy=(value of formula 9)/area
...(12〉θ=
-(90-θ1) A≧OB〈0...
(13) θ=-θ1A≧OB≧0...
(14) θ - θI A<O B≧O
...(15) θ=90−θI A<O
B<O...(16) However, A1 (value of formula 10 (value of formula 8) x (■■ of formula 6)
■/Area...〈18〉B-((Kinichi of the 9th formula (value of the 7th formula) I X (1-1/Area) ・
...(19) tan2-θ1=2A/B
- (20).

面積は、前述の第5式から求められる.第5番目に、チ
ェーンコードを用いて外接長方形を算出する手順を述べ
る。前述の姿勢角を用いて、物体に外接する長方形を第
21図を参照して述べる.第21図のθは姿勢角を表す
The area can be found from the fifth equation above. Fifth, a procedure for calculating a circumscribed rectangle using a chain code will be described. Using the attitude angles mentioned above, the rectangle circumscribing the object will be described with reference to Figure 21. θ in FIG. 21 represents the attitude angle.

ここでは、外接長方形の長軸方向を物体の姿勢の方向に
一致させて考えるものとする.このとき、座標系x−y
をθ回転させた座標系X−Yにおいては、物体の輪・郭
線を構成する点の存在する範囲〈図中破線部〉が外接長
方形となる。
Here, we assume that the long axis direction of the circumscribed rectangle coincides with the direction of the object's attitude. At this time, the coordinate system x-y
In the coordinate system X-Y, which is rotated by θ, the range (the broken line area in the figure) where the points forming the outline of the object exist is a circumscribed rectangle.

いま、輪郭線を楕戒する点のx−y座標系の座標pi 
(xi,yi>、X−Y座標系の座標をPi (Xi,
Yi)とすると、座標変換式は次のようになる. Xi=xicosθ+yisinθ         
−(21)Yi=−xsinθ+yicosθ    
     ・−<’n>ただし、i=1,n これらの値からAt,Bl.Cl.Diの座標が次のよ
うに算出される. Al  (Xmin,Ymax) Bl  (Xmin,Ymin) CI  (Xmax, Ymi n) DI  (Xmax,Ymax) ただし、 Xmin=min (Xi, , Xn)      
    −−−(23)Xmax=max (Xi ,
 , Xn)          −−− (24)Y
m i n=mi n (Yl, , Yn)    
      ・= (25)Ymax=max (Yl
, , Yn)          − (26)また
、物体の長軸長Zaxisと短軸長saxisは次のよ
うになる。
Now, the coordinate pi in the x-y coordinate system of the point that ellipses the contour line
(xi, yi>, the coordinates of the X-Y coordinate system are Pi (Xi,
Yi), the coordinate transformation formula is as follows. Xi=xicosθ+yisinθ
−(21) Yi=−xsinθ+yicosθ
・-<'n> However, i=1, n From these values, At, Bl. Cl. The coordinates of Di are calculated as follows. Al (Xmin, Ymax) Bl (Xmin, Ymin) CI (Xmax, Ymin) DI (Xmax, Ymax) However, Xmin=min (Xi, , Xn)
---(23)Xmax=max(Xi,
, Xn) --- (24)Y
min=min (Yl, , Yn)
・= (25) Ymax=max (Yl
, , Yn) - (26) Also, the major axis length Zaxis and minor axis length saxis of the object are as follows.

l ax i s=Xmax−Xm i n     
     − (27)saxi s=Ymax−Ym
i n          − (28)一方、輪郭線
上の点は、チェーンコードで表されるので、ある点Pi
 (xi,yi)と次の点Pi+1 (xi+1,yi
+1)は次の関係にある。
lax i s=Xmax-Xmin
- (27) saxi s=Ymax-Ym
i n − (28) On the other hand, since points on the contour are represented by chain codes, a certain point Pi
(xi, yi) and the next point Pi+1 (xi+1, yi
+1) has the following relationship.

xi+ΔX→xi+1              ・
・・(29〉yi+Δy→yi+1         
     ・・・(3o〉ただし、チェーンコードとΔ
X,Δyとの対応は第4表に示されている。
xi+ΔX→xi+1 ・
...(29〉yi+Δy→yi+1
...(3o) However, the chain code and Δ
The correspondence between X and Δy is shown in Table 4.

(以下余白) 第 4 表 したがって、最初の点を第21式と第22式とで求めた
後は、以降の点を次式で順次求めることができ、処理の
高速化を図ることができる.X+.+=Xi+Δxco
sθ+Δysinθ       ...(31)Y.
..=Yi−Δxsinθ+△ycosθ      
 ・(32)第6番目に、チェーンコードを用いて、最
遠点および最近点の算出を行う。
(Leaving space below) Table 4 Therefore, after finding the first point using equations 21 and 22, subsequent points can be found sequentially using the following equations, speeding up the processing. X+. +=Xi+Δxco
sθ+Δysinθ. .. .. (31)Y.
.. .. =Yi−Δxsinθ+Δycosθ
- (32) Sixth, use the chain code to calculate the farthest point and nearest point.

物体の輪郭線上の点で、重心までの距離が最も遠いもの
を最遠点、!kも近いものを最近点と呼ぶ.ここでは、
前述のようにして求めたチェーンコードを用いて、これ
らを求める方法について述べる。
The point on the outline of an object that is farthest from the center of gravity is the farthest point! The point where k is also close is called the nearest point. here,
A method for obtaining these will be described using the chain code obtained as described above.

第22図には、最遠点A2と最近点B2の算出方法の概
念を示す。輪郭線上の任意の点をPi(xi,yi)(
i=1,n)とし、重心G (gxgy)とする.Aと
Bはそれぞれ次式を満たす点である。
FIG. 22 shows the concept of a method for calculating the farthest point A2 and the nearest point B2. Any point on the contour line is defined as Pi(xi, yi)(
i = 1, n), and the center of gravity G (gxgy). A and B are points that each satisfy the following formula.

dmax−min (di, , dn)      
    −(33)dmin=max (di,, d
n)          −(34)ただし di一(xi−gx>”+(yi−gy)2・=(35
)輪郭線上の点すべてについて上記演算を行うのは、処
理時間を要し実用的でないが、輪郭線上の点は、チェー
ンコードで表されることから、以下に述べるような方法
で演算を簡略化できる.いま、輪郭線上のある点pi 
(xi,yi)と次の点p +x ( X Ix , 
3’ t−+ )は次の関係にあることがわかっている
. xi+Δx−+X+u              +
+ (36)yi+Δy→3’ +++       
       ・・・〈37)ただし、チェーンコード
と第36式および第37式におけるΔX,Δyとの対応
は、前述の第4表のとおりである. したがって、最初の点について第38式を計算すれば、
以降の点を第39式で順次求めることができる. di” =(xi−gx>2+(yL−gy)2   
    ・・・(38〉(f++1” = <X+u 
gχ) ” + <yI−+ gy) ”’=X++1
’ 2X++t ・gx+ gx2 +’/ 141’
 2yt−+ ’ g3’ +gy2一(xi+Δx)
2−2(xi+Δx) gx+gx’+(yi+Δy)
”−2(yi+Δy) gy+gy”=x i 2−2
x i − gx+gx2+y i ”−2y i−g
y+gy”+2x i・ΔX+Δx2−2Δx−gx+
2y i・Δy+Δy2−2Δy−gy=di”+2x
− iΔx+2y−iΔy+(Δx2−2Δx−gx−
2Δy’gy+Δy”)・・・(39)また、n=1.
511に対する自乗テーブルを予め計算しておくことに
より、第38式の反復計算の高速化が可能である. 第7番目に、派生特徴パラメータの算出を、前述のよう
にして算出した物体および穴に関する基本特徴パラメー
タに基づいて、算出する.基本特徴パラメータは、面積
、重心、周囲長、慣性モーメント、姿勢角、長軸長、短
軸長、最遠点、最近点などで、派生特徴パラメータは、
物体のモーメント比率、面積比率、アスベクト比などの
比率計算や物体の穴に関する総面積、総周囲長などの集
計計算などである9 発明の効果 以上のように本発明によれば、輪郭線を、1次元のデー
タ列であるチェーンコードとして扱い、したがって物体
の形状が複雑になっても、データの増加量が少く、その
ため特徴パラメータを算出する処理を簡単にすることが
でき、高速化が可能になる.
dmax-min (di, , dn)
−(33) dmin=max (di,, d
n) −(34) However, di−(xi−gx>”+(yi−gy)2・=(35
) Performing the above calculation for all points on the contour line requires processing time and is not practical, but since points on the contour line are represented by chain codes, the calculation can be simplified using the method described below. can. Now, a certain point pi on the contour line
(xi, yi) and the next point p +x (X Ix,
3' t-+ ) is known to have the following relationship. xi+Δx−+X+u+
+ (36) yi+Δy→3' +++
...<37) However, the correspondence between the chain code and ΔX, Δy in Equations 36 and 37 is as shown in Table 4 above. Therefore, if we calculate Equation 38 for the first point, we get
The following points can be found sequentially using Equation 39. di” = (xi-gx>2+(yL-gy)2
...(38>(f++1" = <X+u
gχ) ” + <yI−+ gy) ”'=X++1
'2X++t ・gx+ gx2 +'/ 141'
2yt-+ 'g3' +gy2-(xi+Δx)
2-2(xi+Δx) gx+gx'+(yi+Δy)
"-2(yi+Δy) gy+gy"=x i 2-2
x i - gx+gx2+y i ”-2y i-g
y+gy”+2x i・ΔX+Δx2−2Δx−gx+
2y i・Δy+Δy2−2Δy−gy=di”+2x
− iΔx+2y−iΔy+(Δx2−2Δx−gx−
2Δy'gy+Δy'')...(39) Also, n=1.
By calculating the square table for 511 in advance, it is possible to speed up the iterative calculation of Equation 38. Seventh, the derived feature parameters are calculated based on the basic feature parameters regarding the object and the hole calculated as described above. The basic feature parameters are area, center of gravity, perimeter, moment of inertia, attitude angle, major axis length, minor axis length, farthest point, nearest point, etc., and the derived feature parameters are:
These include ratio calculations such as the moment ratio, area ratio, and aspect ratio of objects, and total calculations such as the total area and total perimeter of holes in objects.9 Effects of the Invention As described above, according to the present invention, the contour line can be It is treated as a chain code, which is a one-dimensional data string, so even if the shape of the object becomes complex, the amount of data increases little, which simplifies the process of calculating feature parameters and speeds it up. Become.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例の手順を示すフローチャート
、第2図は本実施例の一実施例の構成を示すブロック図
、第3図は輪郭線追跡を行う暗背景中の明物体を示す一
画像の図、第4図は画素の論理値を示す図、第5図は探
索する画素を示す図第6区は物体の追跡結果を示す図、
第7図は穴の追跡結果を示す図、第8図はチェーンコー
ドの原理を示す図、第9図はハードウエアの楕戊によっ
て開始点を検出するために用いられるオペレータの図、
第10図はハードウエアの構成による候補点の検出を示
す2値画像を示す図、第11図はソフトウエアによって
開始点を検出するときにおける候補点の検出を示す図、
第12図は輪郭線の属性を示す図、第13図は輪郭線の
rM始点S3に関して説明を行うための図、第14図は
輪郭線上の点列を説明する図、第15図は輪郭線上の3
つの点とチェーンコードとを示す図、第16区は各点の
役割を説明するための図、第177は本発明に従う輪郭
点列テーブルを示す図、第18図は輪郭点列情報を説明
するための図、第19図は他の輪郭点列情報を説明する
ための図、第20図は物体の面積の算出の手順を示す図
、第21図は外接長方形の算出を行う手順を説明するた
めの図、第22図は最遠点A2と最近点B2の算出方法
の概念を示す図である. 1 ・・・画像メモリ 2・・・処理回路、 S 1 S 2 ・・・ 開始点
Fig. 1 is a flowchart showing the procedure of an embodiment of the present invention, Fig. 2 is a block diagram showing the configuration of an embodiment of the present invention, and Fig. 3 shows a bright object in a dark background for contour tracing. Figure 4 is a diagram showing the logical values of pixels, Figure 5 is a diagram showing pixels to be searched, and Section 6 is a diagram showing object tracking results.
FIG. 7 is a diagram showing the hole tracking results, FIG. 8 is a diagram showing the principle of chain code, and FIG. 9 is a diagram of the operator used to detect the starting point by the hardware ellipse.
FIG. 10 is a diagram showing a binary image showing detection of candidate points by the hardware configuration, FIG. 11 is a diagram showing detection of candidate points when detecting a starting point by software,
Fig. 12 is a diagram showing the attributes of the contour line, Fig. 13 is a diagram for explaining the rM starting point S3 of the contour line, Fig. 14 is a diagram explaining the sequence of points on the contour line, and Fig. 15 is a diagram for explaining the rM starting point S3 of the contour line. No. 3
Section 16 is a diagram for explaining the role of each point, Section 177 is a diagram showing a contour point sequence table according to the present invention, and FIG. 18 is a diagram for explaining contour point sequence information. Figure 19 is a diagram for explaining other contour point sequence information, Figure 20 is a diagram showing the procedure for calculating the area of an object, and Figure 21 is a diagram for explaining the procedure for calculating the circumscribed rectangle. FIG. 22 is a diagram showing the concept of the method of calculating the farthest point A2 and the nearest point B2. 1... Image memory 2... Processing circuit, S 1 S 2... Starting point

Claims (1)

【特許請求の範囲】 物体の2値画像において、その輪郭上を追跡して輪郭線
上の点の連結関係をチェーンコードで記録しながら輪郭
線の閉じたループを求め、求めた閉ループの包含関係を
調べて個々の物体を固体分離し、 次に、該輪郭線上のすべての点について、これらの点が
上記2値画像におけるラスタ走査方向につながつた一連
の連結領域(ラン)の開始点か、終了点かそれ以外の点
かを、その前後の点のチェーンコードの関係から判定し
、開始点、終了点の画像上の座標値を求めてこれを昇順
あるいは降順に並び換えた後に、特徴パラメータを演算
するようにした特徴パラメータの算出方法。
[Claims] In a binary image of an object, a closed loop of the contour is determined by tracing the contour and recording the connection relationship of points on the contour using a chain code, and an inclusion relationship of the determined closed loop is determined. Then, for all points on the contour line, determine whether these points are the start or end of a series of connected regions (runs) connected in the raster scanning direction in the binary image. Determine whether the point is a point or any other point from the chain code relationship between the points before and after it, find the coordinate values of the start point and end point on the image, rearrange them in ascending or descending order, and then set the feature parameters. A method for calculating feature parameters using calculations.
JP1308263A 1989-11-28 1989-11-28 Image run length calculation method Expired - Lifetime JPH0670797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1308263A JPH0670797B2 (en) 1989-11-28 1989-11-28 Image run length calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1308263A JPH0670797B2 (en) 1989-11-28 1989-11-28 Image run length calculation method

Publications (2)

Publication Number Publication Date
JPH03167681A true JPH03167681A (en) 1991-07-19
JPH0670797B2 JPH0670797B2 (en) 1994-09-07

Family

ID=17978907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1308263A Expired - Lifetime JPH0670797B2 (en) 1989-11-28 1989-11-28 Image run length calculation method

Country Status (1)

Country Link
JP (1) JPH0670797B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2715599A1 (en) * 1994-01-28 1995-08-04 Thomson Csf A method of servocontrol of a robot in three-dimensional space and robot operating in such a space.
JP2008159051A (en) * 2006-12-22 2008-07-10 Palo Alto Research Center Inc Method for decimation of image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5955583A (en) * 1982-09-22 1984-03-30 Fujitsu Ltd Contour pattern recognizing system
JPH01277976A (en) * 1988-04-28 1989-11-08 Meidensha Corp Image processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5955583A (en) * 1982-09-22 1984-03-30 Fujitsu Ltd Contour pattern recognizing system
JPH01277976A (en) * 1988-04-28 1989-11-08 Meidensha Corp Image processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2715599A1 (en) * 1994-01-28 1995-08-04 Thomson Csf A method of servocontrol of a robot in three-dimensional space and robot operating in such a space.
JP2008159051A (en) * 2006-12-22 2008-07-10 Palo Alto Research Center Inc Method for decimation of image
US8136901B2 (en) 2006-12-22 2012-03-20 Palo Alto Research Center Incorporated Method for decimation of images

Also Published As

Publication number Publication date
JPH0670797B2 (en) 1994-09-07

Similar Documents

Publication Publication Date Title
Yang et al. Scrdet++: Detecting small, cluttered and rotated objects via instance-level feature denoising and rotation loss smoothing
CN109961399B (en) Optimal suture line searching method based on image distance transformation
CN110246168A (en) A kind of feature matching method of mobile crusing robot binocular image splicing
CN112287866A (en) Human body action recognition method and device based on human body key points
CN108986152A (en) A kind of foreign matter detecting method and device based on difference image
CN112287868B (en) Human body action recognition method and device
CN111832659B (en) Laser marking system and method based on feature point extraction algorithm detection
CN104919491A (en) Improvements in or relating to image processing
CN114022554B (en) Massage robot acupoint detection and positioning method based on YOLO
CN107133623A (en) A kind of pointer position accurate detecting method positioned based on background subtraction and the center of circle
CN104318559A (en) Quick feature point detecting method for video image matching
CN113608663A (en) Fingertip tracking method based on deep learning and K-curvature method
CN116883887A (en) Leakage gas detection method for infrared video
CN113781523B (en) Football detection tracking method and device, electronic equipment and storage medium
CN106537451B (en) A kind of blood vessel ridge point extracting method and device based on image gradient vector flow field
CN117557565B (en) Detection method and device for lithium battery pole piece
CN111047614B (en) Feature extraction-based method for extracting target corner of complex scene image
CN111709954A (en) Calibration method of go robot vision system
JPH03167681A (en) Calculating method for characteristic parameter of object
CN111178111A (en) Two-dimensional code detection method, electronic device, storage medium and system
Ye et al. Tiny face detection based on deep learning
CN112381747A (en) Terahertz and visible light image registration method and device based on contour feature points
JPH03290786A (en) Pattern recognizing device for coin or the like
CN115294606B (en) Millimeter wave image dark target enhancement method
Chen et al. EXTRACTION METHOD FOR CENTERLINES OF RICE SEEDLINGS BASED ON FASTSCNN SEMANTIC SEGMENTATION.

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080907

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090907

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 16

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 16