JP2966711B2 - Image contour extraction method and apparatus - Google Patents

Image contour extraction method and apparatus

Info

Publication number
JP2966711B2
JP2966711B2 JP5334874A JP33487493A JP2966711B2 JP 2966711 B2 JP2966711 B2 JP 2966711B2 JP 5334874 A JP5334874 A JP 5334874A JP 33487493 A JP33487493 A JP 33487493A JP 2966711 B2 JP2966711 B2 JP 2966711B2
Authority
JP
Japan
Prior art keywords
data
contour
gradient
processing circuit
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5334874A
Other languages
Japanese (ja)
Other versions
JPH07200841A (en
Inventor
浩次 堀切
昌宏 清川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP5334874A priority Critical patent/JP2966711B2/en
Publication of JPH07200841A publication Critical patent/JPH07200841A/en
Application granted granted Critical
Publication of JP2966711B2 publication Critical patent/JP2966711B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、三次元画像入力装置に
より入力された対象物表面の座標データ及び輝度データ
からなる画像データを利用して、対象物の輪郭を抽出す
る画像輪郭抽出方法及びその装置に関し、例えば、対象
物が機械部品等である場合にその部品を使用した機械装
置のマニュアル等の書籍に挿入するためのイラストデー
タを作成するといった目的を達成するために用いられる
画像輪郭抽出方法及びその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image outline extracting method for extracting an outline of an object using image data consisting of coordinate data and luminance data of the surface of the object input by a three-dimensional image input device. Regarding the apparatus, for example, when the object is a mechanical part or the like, image contour extraction used to achieve the purpose of creating illustration data for insertion into a book such as a manual of a mechanical apparatus using the part A method and an apparatus therefor.

【0002】[0002]

【従来の技術】対象物表面の座標データ及び輝度データ
からなる画像データから輪郭を抽出する場合には、一般
に、各画素毎に座標データ及び輝度データそれぞれの勾
配を演算導出して、その勾配が急峻なところを輪郭とし
て抽出すべく、閾値を設定して2値化していた。即ち、
閾値よりも傾きデータが大きい画素が輪郭として抽出さ
れることになる。ここで、従来、全画素の勾配の平均値
を求めて、その値よりも大きな値または小さな値を閾値
として設定したり、或いは、傾きデータのヒストグラム
をとってデータが二分割されるような値を閾値として設
定していた。
2. Description of the Related Art When contours are extracted from image data consisting of coordinate data and luminance data on the surface of an object, generally, gradients of the coordinate data and luminance data are calculated and derived for each pixel, and the gradients are calculated. In order to extract a steep part as a contour, a threshold is set and binarized. That is,
Pixels having inclination data larger than the threshold value are extracted as contours. Here, conventionally, an average value of gradients of all pixels is obtained, and a value larger or smaller than the average value is set as a threshold value, or a value such that data is divided into two by taking a histogram of inclination data Was set as the threshold.

【0003】[0003]

【発明が解決しようとする課題】しかし、輝度データに
は、座標データで表される形状が寄与する値も含まれて
いる(形状に起因する影響により輝度がことなる場合が
ある)ので、上述した従来技術によれば、対象物の表面
に描かれた模様(平面状に描かれた文字や図形等の他、
凹凸で表された文字や図形等を含む)のみを正確に抽出
するような閾値を設定することが困難であった。例え
ば、対象物の表面に描かれている模様の輪郭を抽出する
場合には、描かれた模様の特徴に応じて閾値を設定する
必要があるが、形状が寄与する値が誤差要因として働き
適切な閾値が設定されないためである。本発明の目的は
上述した従来欠点を解消し、対象物表面の座標データ及
び輝度データからなる画像データから輪郭を正確に抽出
する画像輪郭抽出方法及びその装置を提供する点にあ
る。
However, since the luminance data includes a value to which the shape represented by the coordinate data contributes (the luminance may be different due to the influence due to the shape), According to the prior art described above, the pattern drawn on the surface of the object (in addition to characters and figures drawn in a plane,
It has been difficult to set a threshold value for accurately extracting only characters (including characters and figures represented by irregularities). For example, when extracting the contour of a pattern drawn on the surface of an object, it is necessary to set a threshold value in accordance with the characteristics of the drawn pattern. This is because no appropriate threshold is set. SUMMARY OF THE INVENTION An object of the present invention is to provide an image contour extraction method and an apparatus for accurately extracting a contour from image data composed of coordinate data and luminance data on the surface of an object, while solving the above-mentioned conventional disadvantages.

【0004】[0004]

【課題を解決するための手段】この目的を達成するた
め、本発明による画像輪郭抽出方法の特徴構成は、三次
元画像入力装置により入力された対象物表面の座標デー
タ及び輝度データからなる画像データに対して、各画素
毎に座標データの勾配を演算導出して、該勾配を第一の
閾値で2値化して形状の輪郭データを抽出する第一の段
階と、各画素毎に輝度データの勾配を演算導出して、該
勾配から第一の段階で抽出された形状の輪郭に対応する
部位をマスクした後に、第二の閾値で2値化して模様の
輪郭データを抽出する第二の段階と、第一の段階で抽出
された形状の輪郭データと第二の段階で抽出された模様
の輪郭データとを合成処理して対象物の輪郭データを抽
出する第三の段階とからなる点にある。
In order to achieve this object, a feature of an image contour extracting method according to the present invention is that image data comprising coordinate data and luminance data of a surface of an object inputted by a three-dimensional image input device is provided. A first step of calculating and deriving a gradient of coordinate data for each pixel, binarizing the gradient with a first threshold to extract shape contour data, and a step of extracting luminance data for each pixel. A second step of calculating and deriving a gradient, masking a portion corresponding to the contour of the shape extracted in the first step from the gradient, and then binarizing the pattern with a second threshold to extract pattern contour data And a third step of extracting the contour data of the object by synthesizing the contour data of the shape extracted in the first step and the contour data of the pattern extracted in the second step. is there.

【0005】さらに、本発明による画像輪郭抽出装置の
特徴構成は、三次元画像入力装置により入力された対象
物表面の座標データ及び輝度データからなる画像データ
に対して、各画素毎に座標データの勾配を演算導出し
て、該勾配を第一の閾値で2値化して形状の輪郭データ
を抽出する第一処理回路と、各画素毎に輝度データの勾
配を演算導出して、該勾配から第一処理回路で抽出され
た形状の輪郭に対応する部位をマスクした後に、第二の
閾値で2値化して模様の輪郭データを抽出する第二処理
回路と、第一処理回路で抽出された形状の輪郭データと
第二処理回路で抽出された模様の輪郭データとを合成処
理して対象物の輪郭データを抽出する第三処理回路とか
らなる点にある。
Further, the characteristic configuration of the image contour extracting apparatus according to the present invention is that the image data consisting of the coordinate data and the luminance data of the surface of the object inputted by the three-dimensional image input apparatus is used for each pixel. A first processing circuit for calculating and deriving a gradient, binarizing the gradient with a first threshold to extract contour data of the shape, and calculating and deriving a gradient of luminance data for each pixel, A second processing circuit for masking a portion corresponding to the contour of the shape extracted by the one processing circuit and then binarizing the pattern with a second threshold to extract the contour data of the pattern; and a shape extracted by the first processing circuit. And a third processing circuit for extracting the contour data of the object by synthesizing the contour data of the pattern and the contour data of the pattern extracted by the second processing circuit.

【0006】[0006]

【作用】対象物表面の座標データは形状に関する情報の
みを含む。従って、第一の段階(第一処理回路)で、各
画素毎に座標データの勾配を演算導出して、該勾配を第
一の閾値で2値化すれば形状の輪郭データが正確に抽出
できる。一方、対象物表面の輝度データは、形状に基づ
くものと模様等に基づくものとが含まれる。そこで、第
二の段階(第二処理回路)で、各画素毎に輝度データの
勾配を演算導出して、該勾配から第一の段階(第一処理
回路)で抽出された形状の輪郭に対応する部位をマスク
すれば、輝度データから形状データの影響を除去でき、
形状データの影響が除去された後の勾配を第二の閾値で
2値化すれば、模様の輪郭データが正確に抽出できる。
そこで、第三の段階(第三処理回路)で、第一の段階
(第一処理回路)で抽出された形状の輪郭データと第二
の段階(第二処理回路)で抽出された模様の輪郭データ
とを合成処理すれば、対象物の輪郭抽出データを正確に
抽出できるのである。
The coordinate data of the surface of the object includes only information on the shape. Therefore, in the first stage (first processing circuit), the gradient of coordinate data is computed and derived for each pixel, and the gradient is binarized by the first threshold, whereby the contour data of the shape can be accurately extracted. . On the other hand, the brightness data on the surface of the object includes those based on the shape and those based on the pattern or the like. Therefore, in the second stage (second processing circuit), a gradient of the luminance data is calculated and derived for each pixel, and the gradient corresponding to the contour of the shape extracted in the first stage (first processing circuit) is calculated from the gradient. By masking the parts that do, the influence of the shape data can be removed from the luminance data,
If the gradient after removing the influence of the shape data is binarized with the second threshold value, the contour data of the pattern can be accurately extracted.
Therefore, in the third stage (third processing circuit), the contour data of the shape extracted in the first stage (first processing circuit) and the contour of the pattern extracted in the second stage (second processing circuit) By synthesizing the data, the contour extraction data of the object can be accurately extracted.

【0007】[0007]

【発明の効果】従って、本発明によれば、対象物表面の
座標データ及び輝度データからなる画像データから形状
のみならず模様をも含む輪郭データを正確に抽出する画
像輪郭抽出方法及びその装置を提供することができるよ
うになった。
Thus, according to the present invention, there is provided an image contour extraction method and apparatus for accurately extracting contour data including not only a shape but also a pattern from image data consisting of coordinate data and luminance data of an object surface. Can now be offered.

【0008】[0008]

【実施例】以下実施例について説明する。本発明に使用
する三次元画像入力装置1は、例えば、図3に示すよう
に、X−Y平面上の参照平面2に配置された対象物3へ
測定光線束を照射してその対象物3の表面からの散乱光
線束を検出するもので、レーザでなる光源4と、X軸方
向に沿って配置したCCD一次元イメージセンサでなる
受光素子9とを、走査用ミラー5を挟んで対向配置し
て、光源4からの測定光線束を走査用ミラー5及び固定
ミラー6を介してX軸方向に主走査して対象物3に照射
するとともに、対象物3表面からの散乱光線束を固定ミ
ラー7及び走査用ミラー5、集光レンズ8を介して受光
素子9に導く光学ヘッドをY軸方向へ移動させることに
よりY軸方向への副走査を行い、図4に示すように、参
照平面2からの散乱光線束の集光位置(既知である)X
0 と対象物3の表面からの散乱光線束の集光位置X1
の間の距離X0 1 が、ΔX0 に比例すること、及び、
参照平面2からの対象物3の表面までの距離Z0 が、Z
0 ×θ=Δ0 なる関係を有することから距離Z0 を求め
るとともに、そのときの受光素子9による検出強度から
対象物3の表面の輝度を求めるものである。対象物3の
表面の輝度データと、z座標データで表される奥行きデ
ータとをX−Y平面上の(x,y)座標で表される画素
毎に設定して画像データとするもので、(x,y,z)
座標により対象物3の表面の形状が表されることにな
る。
Embodiments will be described below. The three-dimensional image input device 1 used in the present invention, for example, irradiates a measurement light beam to an object 3 arranged on a reference plane 2 on an XY plane as shown in FIG. A light source 4 composed of a laser and a light receiving element 9 composed of a CCD one-dimensional image sensor arranged along the X-axis direction are opposed to each other with a scanning mirror 5 interposed therebetween. Then, the measurement light beam from the light source 4 is main-scanned in the X-axis direction via the scanning mirror 5 and the fixed mirror 6 to irradiate the object 3 and the scattered light beam from the surface of the object 3 is fixed to the fixed mirror. The sub-scan in the Y-axis direction is performed by moving the optical head leading to the light receiving element 9 through the scanning mirror 5 and the condensing lens 8 in the Y-axis direction, as shown in FIG. (Known position) X of the scattered light beam from
0 and the distance X 0 X 1 between the condensing position X 1 of the scattered light beam from the surface of the object 3, be proportional to [Delta] X 0, and,
The distance Z 0 from the reference plane 2 to the surface of the object 3 is Z
Since the relationship of 0 × θ = Δ 0 is obtained, the distance Z 0 is obtained, and the luminance of the surface of the object 3 is obtained from the intensity detected by the light receiving element 9 at that time. The luminance data of the surface of the object 3 and the depth data represented by the z coordinate data are set for each pixel represented by the (x, y) coordinate on the XY plane to obtain image data. (X, y, z)
The coordinates indicate the shape of the surface of the object 3.

【0009】ここに、上述の光学ヘッドによる主走査で
は、図5(イ)に示すように、測定光線束が対象物3の
影となり測定できない場合があることを考慮して、図5
(ロ)に示すように、光学ヘッドをX軸或いはY軸方向
に、且つ、対象物3が搭載された参照面2をY軸或いは
X軸方向に並行移動させる走査機構10を設けてもよ
い。例えば、モータ11で駆動されるラックとピニオン
機構12を介して参照面2をY軸方向に走査し、同様の
機構で光学ヘッドをX軸方向に往復走査するように構成
することもできる。この場合には、走査用ミラー5を4
5°の角度に固定しておくことが好ましい。
Here, in the above-described main scanning by the optical head, as shown in FIG. 5A, taking into account that the measurement light beam may be a shadow of the object 3 and cannot be measured,
As shown in (b), a scanning mechanism 10 for moving the optical head in the X-axis or Y-axis direction and moving the reference surface 2 on which the object 3 is mounted in parallel in the Y-axis or X-axis direction may be provided. . For example, the reference surface 2 may be scanned in the Y-axis direction via a rack driven by the motor 11 and the pinion mechanism 12, and the optical head may be reciprocally scanned in the X-axis direction by a similar mechanism. In this case, the scanning mirror 5 is
It is preferable to fix the angle at 5 °.

【0010】画像輪郭抽出方法を用いた装置は、図1に
示すように、上述の三次元画像入力装置1により入力さ
れた対象物3の表面の座標データ及び輝度データからな
る画像データに対して、各画素毎に座標データの勾配を
8ビット(00hからFFhの範囲)で演算導出して、
該勾配を第一の閾値で2値化して形状の輪郭データを抽
出する第一処理回路20と、各画素毎に輝度データの勾
配を同じく8ビット(00hからFFhの範囲)で演算
導出して、該勾配から第一の段階で抽出された形状の輪
郭に対応する部位をマスクした後に、第二の閾値で2値
化して模様の輪郭データを抽出する第二処理回路30
と、第一処理回路20で抽出された形状の輪郭データと
第二処理回路30で抽出された模様の輪郭データとを合
成処理して対象物3の輪郭データを抽出する第三処理回
路40とからなる。
As shown in FIG. 1, the apparatus using the image contour extracting method is adapted to process image data consisting of coordinate data and luminance data of the surface of the object 3 input by the three-dimensional image input apparatus 1 described above. , The gradient of the coordinate data for each pixel is calculated and derived in 8 bits (range from 00h to FFh),
A first processing circuit 20 for extracting the contour data of the shape by binarizing the gradient with a first threshold, and calculating and deriving the gradient of the luminance data for each pixel in the same 8 bits (range from 00h to FFh) A second processing circuit 30 for masking a portion corresponding to the contour of the shape extracted in the first stage from the gradient and then binarizing the pattern with a second threshold to extract the contour data of the pattern
A third processing circuit 40 that combines the contour data of the shape extracted by the first processing circuit 20 and the contour data of the pattern extracted by the second processing circuit 30 to extract the contour data of the object 3; Consists of

【0011】図2(イ)に示すように、表面に紅葉の絵
柄が描かれた茶碗を対象物3とする場合について詳述す
る。前記第一処理回路20は、対象物3の表面の座標デ
ータ(x,y,z)及び輝度データからなる画像データ
に対して、各画素(x,y)毎に隣接画素との座標デー
タ(z)の勾配を演算導出する第一差分処理回路21
と、差分処理回路21により得られた勾配を第一の閾値
で2値化して、形状の輪郭データを00h、背景データ
をFFhとして抽出する第一2値化回路22とからな
り、これにより図2(ロ)に示すような茶碗の外観形状
がその輪郭データとして抽出される。ここに、第一の閾
値は、予め対象物3の勾配データのヒストグラムをと
り、勾配が緩急に二分化されるような中間値を設定して
おくか、或いは、抽出すべき輪郭の条件に合わせて適宜
設定しておくことになる。
As shown in FIG. 2A, a case in which a teacup having a pattern of autumn leaves drawn on its surface is used as the object 3 will be described in detail. The first processing circuit 20 converts the coordinate data (x, y, z) of the surface of the object 3 and the image data composed of the luminance data with the coordinate data ( First difference processing circuit 21 for calculating and deriving the gradient of z)
And a first binarization circuit 22 for binarizing the gradient obtained by the difference processing circuit 21 with a first threshold value and extracting the contour data of the shape as 00h and the background data as FFh. The appearance of the bowl as shown in FIG. 2 (b) is extracted as its contour data. Here, as the first threshold value, a histogram of the gradient data of the object 3 is taken in advance, and an intermediate value is set so that the gradient is gradually divided into two parts. It should be set appropriately.

【0012】第二処理回路30は、各画素(x,y)毎
に隣接画素との輝度データの勾配を演算導出する第二差
分処理回路31と、該勾配から第一処理回路20で抽出
された形状の輪郭に対応する部位をマスクする(該勾配
データと、第一処理回路20で抽出された形状の輪郭デ
ータとの論理積をとる)論理回路32と、論理回路32
の出力データを第二の閾値で2値化して模様の輪郭デー
タを00h、背景データをFFhとして抽出する第二2
値化回路33とからなる。前記論理回路32でマスクす
るについては、第一処理回路20で抽出された形状の輪
郭に対応する部位として、輪郭そのものに対応する画素
のみをマスクする他に、輪郭を表す画素を膨張処理して
隣接画素をも含めてマスクして、隣接画素からの影響を
も除去することができる。このようにして、図2(ハ)
に示すような茶碗の表面に描かれた紅葉の絵柄の輪郭が
抽出されるのである。
The second processing circuit 30 calculates and calculates a gradient of luminance data between adjacent pixels for each pixel (x, y), and the second processing circuit 31 extracts the gradient from the gradient in the first processing circuit 20. A logic circuit 32 for masking a portion corresponding to the contour of the shaped shape (logical AND of the gradient data and the contour data of the shape extracted by the first processing circuit 20);
Of the pattern as 00h and the background data as FFh by binarizing the output data of
And a value conversion circuit 33. As for the masking by the logic circuit 32, as a portion corresponding to the contour of the shape extracted by the first processing circuit 20, in addition to masking only pixels corresponding to the contour itself, a pixel representing the contour is expanded and processed. By masking the area including the adjacent pixels, the influence from the adjacent pixels can be removed. In this way, FIG.
The outline of the pattern of the autumn leaves drawn on the surface of the teacup as shown in (1) is extracted.

【0013】第三処理回路40は、第一処理回路20で
抽出された形状の輪郭データと第二処理回路30で抽出
された模様の輪郭データとを合成処理(論理和をとる)
して対象物3の輪郭データを抽出する論理回路で構成し
てあり、このようにして図2(ニ)に示すような輪郭が
得られる。
The third processing circuit 40 synthesizes (constitutes a logical sum) the contour data of the shape extracted by the first processing circuit 20 and the contour data of the pattern extracted by the second processing circuit 30.
Thus, a logic circuit for extracting contour data of the object 3 is obtained, and thus a contour as shown in FIG.

【0014】以下、本発明の別実施例を説明する。三次
元画像入力装置1としては、上述のものに限定するもの
ではなく任意である。例えば、テレビカメラなどの撮像
装置による複数方向からの画像を合成して形状データを
合成するものであってもよい。
Hereinafter, another embodiment of the present invention will be described. The three-dimensional image input device 1 is not limited to the above-described one, but is optional. For example, the shape data may be synthesized by synthesizing images from a plurality of directions by an imaging device such as a television camera.

【0015】第一処理回路20、第二処理回路30、第
三処理回路40のそれぞれはハードウェアで構成するも
のであってもよいし、コンピュータとそれを動作させる
ソフトウェアとで構成するものであってもよい。またそ
れらの具体的構成は、公知の回路処理技術等を用いて適
宜構成できる。
Each of the first processing circuit 20, the second processing circuit 30, and the third processing circuit 40 may be constituted by hardware, or may be constituted by a computer and software for operating the computer. You may. Further, their specific configurations can be appropriately configured using a known circuit processing technique or the like.

【0016】先の実施例では、対象物3の表面の輝度デ
ータと、z座標データで表される奥行きデータとをX−
Y平面上の(x,y)座標で表される画素毎に設定して
画像データとするものについて、z座標方向の値に基づ
いて形状データを抽出するものを説明したが、これに限
定するものではなく、Y−Z平面上の(y,z)座標で
表される画素毎に設定して画像データとするものについ
て、x座標方向の値に基づいて形状の輪郭データを抽出
するとともに、(y,z)座標に対応する輝度を用いて
模様の輪郭データを抽出するものであってもよいし、同
様に、Z−X平面上の(z,x)座標で表される画素毎
に設定して画像データとするものについて、y座標方向
の値に基づいて形状の輪郭データを抽出するとともに、
(z,x)座標に対応する輝度を用いて模様の輪郭デー
タを抽出するものであってもよい。
In the above embodiment, the luminance data of the surface of the object 3 and the depth data represented by the z coordinate data are represented by X-
In the case where the image data is set for each pixel represented by the (x, y) coordinate on the Y plane and the shape data is extracted based on the value in the z-coordinate direction, the description is limited to this. Instead of extracting the shape contour data based on the value in the x-coordinate direction, for the image data set for each pixel represented by the (y, z) coordinate on the YZ plane, The contour data of the pattern may be extracted using the luminance corresponding to the (y, z) coordinates. Similarly, for each pixel represented by the (z, x) coordinates on the ZX plane, With respect to the image data to be set, the contour data of the shape is extracted based on the value in the y coordinate direction,
The contour data of the pattern may be extracted using the luminance corresponding to the (z, x) coordinates.

【0017】尚、特許請求の範囲の項に図面との対照を
便利にする為に符号を記すが、該記入により本発明は添
付図面の構成に限定されるものではない。
In the claims, reference numerals are provided for convenience of comparison with the drawings, but the present invention is not limited to the configuration shown in the attached drawings.

【図面の簡単な説明】[Brief description of the drawings]

【図1】画像輪郭抽出装置のブロック構成図FIG. 1 is a block diagram of an image contour extraction device.

【図2】画像輪郭抽出方法の説明図FIG. 2 is an explanatory diagram of an image contour extraction method.

【図3】三次元画像入力装置のブロック構成図FIG. 3 is a block diagram of a three-dimensional image input device.

【図4】三次元画像入力装置の原理を示す説明図FIG. 4 is an explanatory diagram showing the principle of a three-dimensional image input device.

【図5】別実施例を示す三次元画像入力装置のブロック
構成図
FIG. 5 is a block diagram of a three-dimensional image input device showing another embodiment.

【符号の説明】[Explanation of symbols]

3 対象物 20 第一処理回路 30 第二処理回路 40 第三処理回路 3 Object 20 First processing circuit 30 Second processing circuit 40 Third processing circuit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平6−76075(JP,A) 特開 平5−168334(JP,A) 特開 昭58−219679(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 9/20 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-6-76075 (JP, A) JP-A-5-168334 (JP, A) JP-A-58-219679 (JP, A) (58) Field (Int.Cl. 6 , DB name) G06T 9/20

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 三次元画像入力装置により入力された対
象物表面の座標データ及び輝度データからなる画像デー
タに対して、各画素毎に座標データの勾配を演算導出し
て、該勾配を第一の閾値で2値化して形状の輪郭データ
を抽出する第一の段階と、 各画素毎に輝度データの勾配を演算導出して、該勾配か
ら第一の段階で抽出された形状の輪郭に対応する部位を
マスクした後に、第二の閾値で2値化して模様の輪郭デ
ータを抽出する第二の段階と、 第一の段階で抽出された形状の輪郭データと第二の段階
で抽出された模様の輪郭データとを合成処理して対象物
の輪郭データを抽出する第三の段階とからなる画像輪郭
抽出方法。
1. A gradient of coordinate data for each pixel is calculated and derived for image data composed of coordinate data and luminance data of a surface of an object input by a three-dimensional image input device, and the gradient is defined as a first gradient. A first step of extracting the contour data of the shape by binarizing it with a threshold value, and calculating and deriving a gradient of the luminance data for each pixel, and corresponding to the contour of the shape extracted in the first step from the gradient. After masking the part to be extracted, a second step of binarizing with a second threshold value to extract the contour data of the pattern, and the contour data of the shape extracted in the first step and the contour data extracted in the second step Extracting the contour data of the object by synthesizing the contour data of the pattern with the contour data of the pattern.
【請求項2】 三次元画像入力装置により入力された対
象物(3)表面の座標データ及び輝度データからなる画
像データに対して、各画素毎に座標データの勾配を演算
導出して、該勾配を第一の閾値で2値化して形状の輪郭
データを抽出する第一処理回路(20)と、 各画素毎に輝度データの勾配を演算導出して、該勾配か
ら第一処理回路で抽出された形状の輪郭に対応する部位
をマスクした後に、第二の閾値で2値化して模様の輪郭
データを抽出する第二処理回路(30)と、 第一処理回路(20)で抽出された形状の輪郭データと
第二処理回路(30)で抽出された模様の輪郭データと
を合成処理して対象物(3)の輪郭データを抽出する第
三処理回路(40)とからなる画像輪郭抽出装置。
2. A gradient of coordinate data for each pixel is calculated and derived for image data composed of coordinate data and luminance data of the surface of an object (3) input by a three-dimensional image input device. A first processing circuit (20) for binarizing the data with a first threshold value to extract contour data of the shape, calculating and deriving a gradient of luminance data for each pixel, and extracting the gradient from the gradient in the first processing circuit. A second processing circuit (30) for extracting a contour data of the pattern by masking a portion corresponding to the contour of the formed shape and then binarizing the pattern with a second threshold value, and a shape extracted by the first processing circuit (20) And a third processing circuit (40) for extracting contour data of the object (3) by synthesizing the contour data of the target and the contour data of the pattern extracted by the second processing circuit (30). .
JP5334874A 1993-12-28 1993-12-28 Image contour extraction method and apparatus Expired - Lifetime JP2966711B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5334874A JP2966711B2 (en) 1993-12-28 1993-12-28 Image contour extraction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5334874A JP2966711B2 (en) 1993-12-28 1993-12-28 Image contour extraction method and apparatus

Publications (2)

Publication Number Publication Date
JPH07200841A JPH07200841A (en) 1995-08-04
JP2966711B2 true JP2966711B2 (en) 1999-10-25

Family

ID=18282194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5334874A Expired - Lifetime JP2966711B2 (en) 1993-12-28 1993-12-28 Image contour extraction method and apparatus

Country Status (1)

Country Link
JP (1) JP2966711B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100464253B1 (en) * 1998-03-17 2005-05-03 엘지산전 주식회사 Video boundary value detection device of monitoring device

Also Published As

Publication number Publication date
JPH07200841A (en) 1995-08-04

Similar Documents

Publication Publication Date Title
CN107784669A (en) A kind of method that hot spot extraction and its barycenter determine
JP2002259994A (en) Automatic image pattern detecting method and image processor
JPH0215102B2 (en)
JP2000105829A (en) Method and device for face parts image detection
EP0962745A1 (en) Three-dimensional shape measurement device and three-dimensional engraver using the measurement device
JP3516118B2 (en) Object recognition method and object recognition device
JP2966711B2 (en) Image contour extraction method and apparatus
JP2000185060A (en) Method for extracting margin line of tooth
JP2002117403A (en) Image processor and image processing method
JPH11185039A (en) Image recognition based measuring method and recording medium
JPH1038542A (en) Method and device for object recognition and recording medium
JP2961140B2 (en) Image processing method
JPH11327004A (en) Camera picture background mask system
JP2004145592A (en) Motion vector extraction device, method and program, and its recording medium
JPH0534117A (en) Image processing method
JPH05210736A (en) Method for extracting contour of image
JP3230368B2 (en) Binarization processing method
JP3126462B2 (en) Boundary extraction method and apparatus
JPH0793562A (en) Image contour extracting method
JP2003346165A (en) Detection method of work boundary
US20220237804A1 (en) Method and Apparatus for Detecting Edges in Active Stereo Images
JP2006107018A (en) Method and apparatus for image analysis, method and system for image processing, and operation program therefor
WO2021230249A1 (en) Estimate assisting device, estimate assisting method, and program
JPS61114381A (en) Stereoscopic viewing device
JPH0674714A (en) Substrate position detecting method