JPH07113969B2 - Image processing method - Google Patents

Image processing method

Info

Publication number
JPH07113969B2
JPH07113969B2 JP61046436A JP4643686A JPH07113969B2 JP H07113969 B2 JPH07113969 B2 JP H07113969B2 JP 61046436 A JP61046436 A JP 61046436A JP 4643686 A JP4643686 A JP 4643686A JP H07113969 B2 JPH07113969 B2 JP H07113969B2
Authority
JP
Japan
Prior art keywords
image
edge
hue
data
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61046436A
Other languages
Japanese (ja)
Other versions
JPS62204379A (en
Inventor
剛 小林
裕行 木村
眞 勝間
一宣 漆原
進 松村
宏志 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP61046436A priority Critical patent/JPH07113969B2/en
Publication of JPS62204379A publication Critical patent/JPS62204379A/en
Publication of JPH07113969B2 publication Critical patent/JPH07113969B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は画像処理方法に関し、特に画像処理装置との対
話処理により、画像中の特定画像を切出し可能な画像処
理方法に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method, and more particularly to an image processing method capable of cutting out a specific image from an image by interactive processing with an image processing apparatus.

[従来の技術] 写真画像等から、例えば人物のみの特定画像(以下、被
写体画像という)を切り出して、残りの画像(以下、背
景画像という)を除去する処理は、一般に熟練を要しか
つ処理に多大の時間と人手とを要する。そこで、この種
の画像処理を容易化すべく種々の画像処理装置が提案さ
れている。
[Prior Art] For example, a process of cutting out a specific image of only a person (hereinafter, referred to as a subject image) from a photographic image and removing the remaining image (hereinafter, referred to as a background image) generally requires skill and is a process. Takes a lot of time and labor. Therefore, various image processing apparatuses have been proposed to facilitate this type of image processing.

一つは、電子計算機に画像デイスプレイ装置を接続して
そこに対象画像を表示し、操作者がジヨイステイツク等
の座標入力装置を用いて前記デイスプレイの画像の上に
重ねて表示したカーソルを画像中の被写体画像と背景画
像との境界に沿うように移動させ、計算機に切出し座標
を入力する。計算機はこの座標データを用いて被写体画
像を切り出し、または背景画像を消去する。この装置に
よれば、被写体画像を拡大して切出しができること、ま
た修正容易であること等の利点があるものの、やはり操
作者が被写体画像の輪郭を正確に追跡する必要があるの
でかなりの時間と熟練を要する。
One is to connect an image display device to the electronic computer and display the target image there, and the operator uses a coordinate input device such as a joystick to display the cursor over the image of the display in the image. It is moved along the boundary between the subject image and the background image, and the cutout coordinates are input to the computer. The computer cuts out the subject image or erases the background image using this coordinate data. According to this device, the subject image can be enlarged and cut out, and the correction is easy, but the operator still needs to accurately trace the contour of the subject image, which requires considerable time. Requires skill.

他の一つは、画像全体について各画素強度の空間微分を
行い、微係数の絶対値がある閾値より大きい画素を被写
体画像の境界候補として検出するものである。一般に、
被写体画像と背景画像の境界部分では画素強度に顕著な
変化がある。従つてかかる方法による装置は被写体画像
の自動切出しを可能にするものとして有用である。しか
し、この方法では不連続な境界候補が被写体画像の内側
のみならず背景画像の内部でも検出されるので、不要な
境界候補を取り除く処理が必要になる。しかも従来はこ
の処理を人手と熟練にたよつていた。
The other one is to perform spatial differentiation of pixel intensities for the entire image and detect pixels whose absolute value of the differential coefficient is larger than a certain threshold as boundary candidates of the subject image. In general,
There is a marked change in pixel intensity at the boundary between the subject image and the background image. Therefore, the apparatus according to such a method is useful for enabling automatic extraction of a subject image. However, with this method, discontinuous boundary candidates are detected not only inside the subject image but also inside the background image, and therefore it is necessary to remove unnecessary boundary candidates. Moreover, conventionally, this process has been manually and skillfully referred to.

更に他の一つは、被写体画像と背景画像の濃度差、色彩
差に着目したものであり、画素強度又は色彩の同一性を
検出して被写体画像内部であるか否かを判定するもので
ある。しかし実際問題として、被写体画像内で濃度や色
彩が一様である場合は少ないから、目的の境界が精度よ
く検出されないかつた。
Still another one focuses on the density difference and the color difference between the subject image and the background image, and determines whether or not the subject image is inside by detecting the pixel intensity or the color identity. . However, as a practical matter, the target boundary is not accurately detected because the density and color are rarely uniform in the subject image.

このように、従来装置では被写体画像を抽出するのにか
なりの熟練と労力を要した。
As described above, in the conventional device, considerable skill and labor were required to extract the subject image.

[発明が解決しようとする問題点] 本発明は上述した従来技術の欠点に鑑みて成されたもの
であつて、その目的とする所は、被写体画像の共通性を
よく示す判断要素で当該被写体画像を弁別し、かつオペ
レータ操作の介入を最小限とすることにより、熟練を要
せずして迅速かつ容易に被写体画像を抽出できる画像処
理方法を提供することにある。
[Problems to be Solved by the Invention] The present invention has been made in view of the above-mentioned drawbacks of the related art, and an object of the present invention is to determine the commonality of the subject images by the determination factor An object of the present invention is to provide an image processing method capable of quickly and easily extracting a subject image without requiring skill by discriminating images and minimizing intervention of operator operation.

[問題点を解決するための手段] 本発明は、入力画像データの特定画像部分を抽出する画
像処理方法であつて、 前記入力画像データに応じた画像をデイスプレイ上に表
示し、 前記表示した画像上でオペレータによって指定された抽
出すべき特定画像部分のエッジ部に含まれる複数サンプ
ルデータを参照し、 前記参照した複数サンプルデータに基づいて、前記特定
画像部分のエッジ検出パラメータを決定し、 前記エッジ検出パラメータを用いて前記特定画像部分を
抽出することを特徴とする。
[Means for Solving Problems] The present invention is an image processing method for extracting a specific image portion of input image data, wherein an image corresponding to the input image data is displayed on a display, and the displayed image is displayed. Referring to a plurality of sample data included in the edge portion of the specific image portion to be extracted specified by the operator above, based on the referred to the plurality of sample data, determine the edge detection parameter of the specific image portion, the edge It is characterized in that the specific image portion is extracted using a detection parameter.

[実施例] 以下、添付図面に従つて本発明の実施例を詳細に説明す
る。第1図は実施例の画像処理装置のブロツク構成図で
ある。図において、1はCCDカメラ、ドラムスキヤナー
等の画像入力装置であつて、ここで発生した例えばRGB3
原色デイジタル画像データはセントラルプロセツシング
ユニツト(CPU)2を介して画像メモリ6のRGB画像画像
領域61に収納される。これはオリジナル画像である。オ
リジナル画像61はCPU2によつて色相H(Hue)、明度V
(Value)、彩度S(Saturation)が演算され、その演
算結果はHSV画像画像領域62に格納される。これらは色
相画像H、明度画像V、彩度画像Sである。更にCPU2は
色相画像H、明度画像Vについて夫々微分フイルターに
よりエツジ度dH/ds,dV/dsを求め、その演算結果をdH/ds
画像領域63及びdV/ds画像領域64に格納する。これらは
色相エツジ画像dH/ds、明度エツジ画像dV/dsである。次
にオペレータ操作が介入して、色相エツジ画像dH/ds及
び明度エツジ画像dV/dsの何れがよく被写体画像を弁別
しているかを判断して、好ましくは一方のエツジ画像を
選択し、かつ選択したエツジ画像のうち被写体画像を囲
むようなエツジ上の点を数点指定する。次にCPU2は指定
点のエツジ画素情報に基づいて所定の閾値幅を決定し、
該閾値幅に含まれるエツジ画素とそれ以外のエツジ画素
を分けるように2値化処理を行う。またこれと共に不要
な孤立点の除去処理をする。5は上述したエツジ画像上
の点を指定するための座標を入力する座標入力装置であ
つて、例えばデイジタイザである。4はカラーモニタで
あつて画像メモリ6の各種画像を必要に応じてカラー表
示する。7はプリンタ、フイルムレコーダ等の画像出力
装置であつて、切り出した被写体画像、背景を塗りつぶ
した画像、あるいは被写体画像を切り出すためにし成し
たマスク画像等を出力するのに用いる。また、上述した
一連の処理や制御の機能はセントラルプロセツシングユ
ニツト(CPU)2によつて実現されるものであり、その
ための例えば第2図、第3図に示すような処理プログラ
ムはRAM,ROMから成る主メモリ3に格納されている。8
は各ブロツク間を接続するCPU2の共通バスである。
Embodiments Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. FIG. 1 is a block diagram of the image processing apparatus of the embodiment. In the figure, reference numeral 1 is an image input device such as a CCD camera or a drum scanner.
The primary color digital image data is stored in the RGB image image area 61 of the image memory 6 via the central processing unit (CPU) 2. This is the original image. The original image 61 is based on the CPU2, the hue H (Hue), the brightness V
(Value) and saturation S (Saturation) are calculated, and the calculation result is stored in the HSV image area 62. These are a hue image H, a lightness image V, and a saturation image S. Further, the CPU 2 obtains the edge degrees dH / ds and dV / ds for the hue image H and the lightness image V by differential filters, respectively, and calculates the calculation results as dH / ds.
The image area 63 and the dV / ds image area 64 are stored. These are the hue edge image dH / ds and the lightness edge image dV / ds. Next, an operator operation intervenes to determine which of the hue edge image dH / ds and the lightness edge image dV / ds discriminates the subject image well, and preferably one edge image is selected and selected. In the edge image, several points on the edge that surround the subject image are designated. Next, the CPU 2 determines a predetermined threshold width based on the edge pixel information of the designated point,
The binarization processing is performed so that the edge pixels included in the threshold width and the other edge pixels are separated. At the same time, unnecessary isolated points are removed. Reference numeral 5 is a coordinate input device for inputting coordinates for designating points on the edge image, which is, for example, a digitizer. A color monitor 4 displays various images in the image memory 6 in color as required. An image output device 7 such as a printer or a film recorder is used to output a cut-out subject image, a background-filled image, or a mask image formed to cut out the subject image. The series of processing and control functions described above are realized by the central processing unit (CPU) 2. For this purpose, for example, the processing programs shown in FIGS. 2 and 3 are RAM, It is stored in the main memory 3 composed of a ROM. 8
Is a common bus of CPU2 connecting between blocks.

以下、この装置を用いて被写体画像を切り出す場合を説
明する。
Hereinafter, a case where a subject image is cut out using this device will be described.

第3図は色相H、明度Vの計算処理を示すフローチヤー
トである。ステツプS31では1画素データの各R,G,B値か
ら最大のデータMax(RGB)を抽出してレジスタMに格納
する。ステツプS32では逆に最小のデータMin(RGB)を
抽出してレジスタmに格納する。ステツプS33ではレジ
スタMとレジスタmの内容を加算して2で割り、結果を
明度レジスタBrに格納する。即ち、オリジナル画像の3
原色RGBデータから色相Hを捨象して明度Vのみを抽象
し、結果をHSV画像画像62の明度画像画像Vに格納す
る。これは被写体領内の共通性をよく示す一つの判断材
料である。ステツプS34ではレジスタMとレジスタmの
内容が等しいか否かを判別する。等しければ色相は存在
しないからステツプS41に進み、その旨を“0"で定義す
る。即ち、色相画像画像では色相を有しない画素は“0"
にされる。色相成分のみを抽象するためである。またス
テツプS34で等しくないときはステツプS35でレジスタM
とレジスタRの内容が等しいか否かを判別する。等しけ
れば赤色の成分を多く含むのでステツプS37に進み、色
相レジスタHrに{2+(G−B)/(M−m)}の計算
結果を格納する。該計算式の右辺における定数“2"は後
にステツプS40の処理で掛ける角度60度の倍数を意味
し、赤色の成分を多く含む色相が角度にして120度を中
心に符号化されることを意味する。ステツプS35で等し
くないときはステツプS36でレジスタMとレジスタGの
内容が等しいか否かを判別する。等しければ緑色の成分
を多く含むのでステツプS39に進み、色相レジスタHrに
{4+(B−R)/(M−m)}の計算結果を格納す
る。同じく定数“4"は緑色の成分を多く含む色相が角度
にして240度を中心に符号化されることを意味する。ス
テツプS36で等しくないときは青色の成分を多く含むの
でステツプS38に進み、色相レジスタHrに{(R−G)
/(M−m)}の計算結果を格納する。緑色の成分を多
く含む色相は角度にして0度を中心に符号化されること
を意味する。ステツプS40では色相レジスタHrの内容に
角度60度を掛けて符号化する。この場合に360進法を使
用する。以上により、3原色RGBデータから色相Hのみ
を抽象して結果をHSV画像画像62の色相画像画像Hに格
納する。これは被写体領内の共通性をよく示すもう一つ
の判断材料である。
FIG. 3 is a flow chart showing the calculation process of hue H and lightness V. In step S31, the maximum data Max (RGB) is extracted from each R, G, B value of one pixel data and stored in the register M. Conversely, in step S32, the minimum data Min (RGB) is extracted and stored in the register m. In step S33, the contents of the registers M and m are added and divided by 2, and the result is stored in the brightness register Br. That is, 3 of the original image
The hue H is removed from the primary color RGB data to abstract only the lightness V, and the result is stored in the lightness image image V of the HSV image 62. This is one of the judgment factors that well show the commonality within the subject area. At step S34, it is determined whether or not the contents of the register M and the register m are equal. If they are equal, there is no hue, so the flow advances to step S41, and that fact is defined by "0". That is, in the image, the pixels that have no hue are “0”.
To be This is because only the hue component is abstracted. If not equal in step S34, register M in step S35.
And the contents of the register R are equal to each other. If they are equal to each other, a large amount of red component is included, so the flow advances to step S37 to store the calculation result of {2+ (GB) / (Mm)} in the hue register Hr. The constant "2" on the right side of the formula means a multiple of the angle of 60 degrees to be multiplied later by the process of step S40, and means that the hue including a large amount of red component is encoded around 120 degrees as an angle. To do. When they are not equal in step S35, it is determined in step S36 whether the contents of the register M and the register G are equal. If they are equal to each other, a large amount of green component is included, so the flow advances to step S39 to store the calculation result of {4+ (B−R) / (M−m)} in the hue register Hr. Similarly, the constant "4" means that the hue containing a lot of green component is encoded around 240 degrees in angle. If it is not equal in step S36, a large amount of blue component is contained, so the flow proceeds to step S38, and the hue register Hr is set to {(RG).
The calculation result of / (M-m)} is stored. It means that a hue containing a lot of green component is coded around 0 degree in angle. In step S40, the content of the hue register Hr is multiplied by an angle of 60 degrees and encoded. In this case, the 360 base system is used. As described above, only the hue H is abstracted from the three primary color RGB data, and the result is stored in the hue image image H of the HSV image image 62. This is another way to judge the commonality within the subject area.

尚、本実施例では彩度Sについては使用していない。The saturation S is not used in this embodiment.

第2図は被写体画像の切出し処理を示すフローチヤート
である。ステツプS1ではオリジナルRGB画像データを入
力し、画像メモリ6の領域61にストアする。ステツプS2
では前述した第3図の処理によつてRGB画像データを夫
々色相画像H、彩度画像S、明度画像Vに変換し、画像
メモリ6の領域62にストアする。カラー画像の場合は、
被写体画像の弁別はRGB画像データそのもので扱うより
も色相Hや明度Vのみを夫々抽象して扱つた方が有利で
ある。RGBデータそのままでは色相同一でも明度による
影響を受けるし、また明度同一でも色相による影響を受
けるからである。実施例ではRGBの各8ビツトデータをH
SVの各8ビツトデータに変換し、ステツプS3で色相画像
Hと明度画像Vをカラーモニタ4に表示する。
FIG. 2 is a flow chart showing the clipping process of the subject image. In step S1, the original RGB image data is input and stored in the area 61 of the image memory 6. Step S2
Then, the RGB image data is converted into the hue image H, the saturation image S, and the lightness image V by the processing of FIG. 3 described above, and stored in the area 62 of the image memory 6. For color images,
It is advantageous to discriminate the subject images by treating only the hue H and the lightness V in abstraction rather than the RGB image data themselves. This is because the RGB data itself is affected by the lightness even if the hue is the same, and the hue is affected even if the lightness is the same. In the embodiment, each 8 bit data of RGB is set to H.
The data is converted into 8-bit SV data, and the hue image H and the brightness image V are displayed on the color monitor 4 in step S3.

ステツプS4では色相画像データと明度画像データについ
て夫々微分フイルターをかけて、色相及び明度のエツジ
画像を抽出し、各エツジ画像をカラーモニタ4に表示す
る。
In step S4, the hue image data and the lightness image data are respectively subjected to differential filters to extract edge images of hue and lightness, and each edge image is displayed on the color monitor 4.

第4図は実施例の微分オペレータとの関係において色相
画像または明度画像の画素配列を示す図である。第4図
において、色相画像または明度画像の各画素A〜Iは一
例の3×3の微分フイルターに対応し、例えば次式によ
つてエツジ成分Eが計算される。
FIG. 4 is a diagram showing a pixel array of a hue image or a lightness image in relation to the differential operator of the embodiment. In FIG. 4, each pixel A to I of the hue image or the brightness image corresponds to an example of a 3 × 3 differential filter, and the edge component E is calculated by the following equation, for example.

E={(A+B+C−G−H−I)2+(A+D+G−
C−F−I)21/2 ステツプS5では、オペレータがモニタ4を見て、被写体
画像のエツジ部分が色相エツジ画像によく現われている
か、または明度エツジ画像によく現われているか、また
は双方のエツジ画像共によく又は分散して現われている
かを判断し、後の抽出処理に使用するエツジ画像を決定
する。
E = {(A + B + C-G-H-I) 2 + (A + D + G-
In C-F-I) 2 } 1/2 step S5, the operator looks at the monitor 4 and the edge portion of the subject image is well represented in the hue edge image or the lightness edge image, or both. It is determined whether or not both of the edge images appear well or dispersedly, and the edge image to be used for the subsequent extraction processing is determined.

ステツプS6では、選択したエツジ画像について、被写体
画像を囲むようなエツジ線上の数点を指定する。この指
定方法は、例えばエツジ線上の数点をデイスプレイ上で
ライトペン等で指示(本発明の実施例における任意の画
像デイスプレイ上で観察しながら、画像上の抽出すべき
特定画像部分のエッジ部に含まれる複数サンプルデータ
を指定)する。
In step S6, for the selected edge image, several points on the edge line that surround the subject image are designated. This designating method is performed, for example, by pointing a few points on the edge line with a light pen or the like on the display (while observing on any image display in the embodiment of the present invention, the edge portion of the specific image portion to be extracted on the image is displayed. Specify multiple sample data included).

ステツプS7では指定したエツジ線上の数点の画素データ
を参照し、当該エツジ画像の2値化処理を行う。この2
値化のために使用する初期閾値の幅は前記指定されたエ
ツジ線上の数点の画素データの最小値と最大値の範囲と
され、この範囲内に含まれるエツジ画素データは論理
“1"に2値化し、それ以外のエツジ画素データは論理
“0"に2値化する。
In step S7, the pixel data of several points on the specified edge line are referred to, and the binarization processing of the edge image is performed. This 2
The width of the initial threshold value used for the binarization is set to the range between the minimum value and the maximum value of the pixel data of several points on the specified edge line, and the edge pixel data included in this range becomes a logical "1". It is binarized, and the other edge pixel data is binarized to the logic "0".

第9図(a),(b)は指定した数点について各画素の
エツジ強度を集計したヒストグラムの図である。例えば
このヒストグラムが第9図(a)又は(b)のように分
布しているとすれば、これに対応する初期閾値幅はCPU2
によつてITHに自動設定される。しかし、この初期閾値
幅ITHで行なつた被写体画像抽出の最終結果が満足する
ものでないときは、ステツプS12のオペレータ操作によ
り、例えば第9図(a)のように閾値幅をWTHに広めた
り、または第9図(b)のように閾値幅をNTHにせばめ
たりする。こうして、被写体画像抽出のための最適エツ
ジ線2値化処理を達成することになる。またステツプS1
1のオペレータの判断により点の指定をし直すことも可
能である。ステツプS6におけるエツジ上の数点の指定
は、エツジの濃い部分又は薄い部分にかたよれば2値化
エツジ線幅が細くなり、と切れを生じる場合がある。従
つて、オペレータはエツジ線上の濃い部分と薄い部分を
指定すればよい。即ち、被写体画像を囲むように適当な
間隔で機械的にまんべんなく指定すればよい。
FIGS. 9 (a) and 9 (b) are histogram diagrams in which the edge intensities of the respective pixels are aggregated for several designated points. For example, if this histogram is distributed as shown in FIG. 9 (a) or (b), the corresponding initial threshold width is CPU2
Automatically set to ITH. However, when the final result of the subject image extraction performed with this initial threshold width ITH is not satisfactory, the threshold value width is widened to WTH as shown in FIG. Alternatively, the threshold width is set to NTH as shown in FIG. 9 (b). In this way, the optimum edge line binarization process for subject image extraction is achieved. Also step S1
It is also possible to respecify the points by the judgment of the operator of 1. When a few points on the edge are specified in step S6, the binarized edge line width may be narrowed depending on the dark or thin portion of the edge, which may cause breakage. Therefore, the operator may specify the dark portion and the light portion on the edge line. That is, it is sufficient to mechanically specify at regular intervals so as to surround the subject image.

ステツプS8では孤立点除去処理を行う。ステツプS7の処
理で2値化された画像は多くのノイズを含んでおり、こ
れを取り除くために孤立点の除去処理が必要となる。
In step S8, isolated point removal processing is performed. The image binarized by the processing of step S7 contains a lot of noise, and it is necessary to remove isolated points to remove it.

第5図は孤立点除去を自動化する目的で設けたN×M画
素の孤立点除去ウインドウの図である。尚、図はN×N
の場合を示している。例えば、図のような矩形ウインド
ウの外周22に対応する4×(N−1)個の画素データを
見て、その全ての値をたし合わせた場合に、和の値が
“0"になるときは、この外周22の全画素で囲まれた内側
の{(N−2)×(N−2)}個の画像にある画素クラ
スタが孤立していると判断し、その画素クラスタを除去
する。
FIG. 5 is a view of an isolated point removal window of N × M pixels provided for the purpose of automating isolated point removal. The figure is N × N
Shows the case. For example, when the 4 × (N−1) pixel data corresponding to the outer circumference 22 of the rectangular window as shown in the figure is viewed and all the values are added together, the sum value becomes “0”. In this case, it is determined that the pixel clusters in the {(N-2) × (N-2)} images on the inside surrounded by all the pixels on the outer periphery 22 are isolated, and the pixel clusters are removed. .

第6図(a)〜(e)は孤立点除去ウインドウのサイズ
の決定処理を説明する図である。第6図(a)は最終的
に被写体画像31を囲むようなエツジ線32を想定したもの
である。CPU2はその前に、第6図(b)に示す各指定点
33の間を直線で結ぶような線分を想定し、その中で最短
長を有する線分Aを検出する。これにより、CPU2は第6
図(c)のように線分Aを孤立点除去ウインドウの外周
22の略半径とするようなサイズに初期設定する。CPU2は
この孤立点除去ウインドウで全画面を走査し、孤立点を
除去する。しかし、こうして孤立点を除去したことによ
り、被写体画像のエツジ線の一部が失なわれる場合もあ
る。この場合もステツプS12でオペレータ操作が介入
し、例えば第6図(d)のようにして孤立点除去ウイン
ドウ外周22のサイズをせばめたり、または第6図(e)
のようにして孤立点除去ウインドウ外周22のサイズを広
めたりして、調整できる。
6 (a) to 6 (e) are diagrams for explaining the process of determining the size of the isolated point removal window. FIG. 6 (a) assumes an edge line 32 that finally surrounds the subject image 31. Before that, the CPU2 sets the designated points shown in Fig. 6 (b).
A line segment that connects between 33 with a straight line is assumed, and the line segment A having the shortest length is detected. As a result, CPU2
As shown in FIG. 7C, the line segment A is the outer periphery of the isolated point removal window.
Initialize the size so that it has a radius of approximately 22. The CPU 2 scans the entire screen in this isolated point removal window and removes isolated points. However, by removing the isolated points in this way, some edge lines of the subject image may be lost. Also in this case, the operator operation intervenes at step S12, and the size of the outer periphery 22 of the isolated point removal window is narrowed as shown in FIG. 6 (d), or FIG. 6 (e).
In this way, the size of the outer periphery 22 of the isolated point removal window can be widened and adjusted.

ステツプS9では被写体画像を囲むエツジ線追跡を行い、
被写体画像を囲むように2値化エツジ線を結ぶ。
In step S9, edge line tracking around the subject image is performed,
Binarized edge lines are connected so as to surround the subject image.

第7図はn×m画素の追跡ウインドウ30により2値化エ
ツジ線を結ぶ処理を説明する図である。CPU2は追跡ウイ
ンドウ30を用い、例えば第1番目に指定されたエツジ線
32上の点331からスタートし、第2番目に指定されたエ
ツジ32上の点332に向けたベクトル34を想定し、該ベク
トル34の方向を目安にして、実際の2値化エツジ線32を
追跡してゆく。追跡ウインドウ30のサイズが適当であれ
ば、エツジ線32をはさむ両サイドに常にエツジ線32でな
い画像を含むことができ、追跡ウインドウ30は両サイド
の非エツジ画素量が等しくなるようにして実際の2値化
エツジ線32上を進む。こうして追跡ウインドウ30の中心
が点332に向けて移動すると、その中心点の移動軌跡を
もつて被写体画像を囲むエツジ線となすことができる。
また中心点の微細な変動は例えばベクトル34の方向を加
味してなめらかにすることも可能である。
FIG. 7 is a diagram for explaining the process of connecting the binarized edge lines with the n × m pixel tracking window 30. The CPU 2 uses the tracking window 30 and, for example, the first designated edge line.
Assuming a vector 34 starting from the point 33 1 on the point 32 and pointing to the second designated point 32 2 on the edge 32, using the direction of the vector 34 as a guide, the actual binarized edge line Track 32. If the size of the tracking window 30 is appropriate, both sides sandwiching the edge line 32 can include images that are not always the edge line 32, and the tracking window 30 is configured so that the non-edge pixel amounts on both sides are equal. Proceed on the binary edge line 32. Thus the center of the tracking window 30 moves toward the point 33 2 can be formed as edge line surrounding the object image with the moving locus of the center point.
Further, the fine fluctuation of the center point can be smoothed by adding the direction of the vector 34, for example.

ステツプS10ではオペレータがエツジ抽出の良否を判断
する。例えばオリジナル画像とステツプS9で得たエツジ
線画像をオーバレイ表示して評価する。よければこの被
写体画像をエツジ線に沿うて切り出し、フアイリングす
る。また満足いかなければステツプS11に進み、エツジ
ポイントの指定をやり直すか、パラメータの変更をする
かの判断をオペレータにあおぐ。エツジポイントの指定
をやり直すときはステツプS6に戻る。また、そうでない
ときはステツプS12に進み、必要に応じて2値化処理の
閾値幅、孤立点除去ウインドウ外周22のサイズ、追跡ウ
インドウ30のサイズ等のパラメータを変更してステツプ
S7に戻る。
In step S10, the operator judges whether the edge extraction is good or bad. For example, the original image and the edge line image obtained in step S9 are overlay-displayed and evaluated. If you like, this subject image is cut out along the edge line and then the shooting is performed. If not satisfied, the process proceeds to step S11 to ask the operator whether to re-designate the edge points or change the parameters. To re-specify the edge points, return to step S6. If not, the process proceeds to step S12, and if necessary, the parameters such as the threshold width of the binarization process, the size of the isolated point removal window outer periphery 22 and the size of the tracking window 30 are changed to perform the step.
Return to S7.

第8図(a)〜(c)はステツプS12におけるパラメー
タ変更の一態様を示す図である。2値化処理と孤立点除
去処理をした結果、第8図(b)のように2値化エツジ
線が途中で不連続となり、それ故に最終抽出画像のエツ
ジ線がスムーズに結べていないとオペレータが判断した
場合は、オペレータが2値化エツジを太らすための命令
をする。これにより、CPU2は2値化処理の閾値幅を広
げ、エツジ線を太らせる。またCPU2は同時に孤立点除去
ウインドウのサイズを小さくして除去される孤立点のサ
イズを小さくする。これにより第8図(a)のように2
値化エツジ線が連続することが期待される。逆に第8図
(c)のように2値化エツジ線が太すぎた場合はオペレ
ータがエツジ線を細くする命令をする。これにより、CP
U2は閾値幅をせばめ、孤立点除去ウインドウのサイズを
大きくする。以上のような、オペレータの比較的簡単な
操作の介入により満足のゆく2値化エツジ線の抽出が得
られる。
FIGS. 8 (a) to 8 (c) are views showing one mode of parameter change in step S12. As a result of the binarization process and the isolated point removal process, the binarized edge line becomes discontinuous on the way as shown in FIG. 8 (b), and therefore the edge line of the final extracted image must be smoothly connected to the operator. If the judgment is made, the operator gives an instruction to thicken the binarized edge. As a result, the CPU 2 widens the threshold width of the binarization process and thickens the edge line. At the same time, the CPU 2 reduces the size of the isolated point removal window to reduce the size of the isolated point to be removed. As a result, as shown in FIG.
It is expected that the digitized edge lines will continue. Conversely, when the binarized edge line is too thick as shown in FIG. 8 (c), the operator gives an instruction to thin the edge line. This makes CP
U2 increases the threshold width to increase the size of the isolated point removal window. By the intervention of the relatively simple operation of the operator as described above, a satisfactory extraction of the binarized edge line can be obtained.

尚、上述した被写体画像の切出技術は、その前提となつ
ている画像のエツジ抽出の分野にも応用できる。
The above-described subject image cutting technique can also be applied to the field of image edge extraction, which is a prerequisite for the technique.

また、上述したエツジ追跡処理はリモートセンシングに
おける川、道路の追跡等にも応用できる。
The edge tracking processing described above can also be applied to tracking rivers and roads in remote sensing.

つまり、画像処理におけるエツジ抽出、エツジ追跡の分
野であれば応用可能である。
In other words, it can be applied in the fields of edge extraction and edge tracking in image processing.

[発明の効果] 以上述べた如く本発明によれば、特定画像部分のエッジ
部に含まれるユーザが指定した複数のサンプリング点の
データに応じて、特定画像部分のエッジ検出用のパラメ
ータを決定し、そのエッジ検出用のパラメータを用いて
特定画像部分を抽出するので、抽出する画像部分をすべ
てディスプレイ上で指定する必要がなく操作性が良好、
かつ、ユーザがサンプリング点として1点を指定するも
のと比較して、精度良い特定画像抽出が可能となるとい
う効果を奏する。
EFFECTS OF THE INVENTION As described above, according to the present invention, a parameter for edge detection of a specific image portion is determined according to data of a plurality of user-specified sampling points included in the edge portion of the specific image portion. , Since the specific image part is extracted using the edge detection parameter, it is not necessary to specify all the image parts to be extracted on the display, and the operability is good,
In addition, there is an effect that the specific image can be extracted with high accuracy as compared with the case where the user specifies one point as the sampling point.

【図面の簡単な説明】[Brief description of drawings]

第1図は実施例の画像処理装置のブロツク構成図、 第2図は被写体画像の切出し処理を示すフローチヤー
ト、 第3図は色相及び明度の計算処理を示すフローチヤー
ト、 第4図は微分オペレータとの関係において色相画像また
は明度画像の画素配列を示す図、 第5図は孤立点除去を自動化する目的で設けたn×m画
素の孤立点除去ウインドウの図、 第6図(a)〜(e)は孤立点除去ウインドウのサイズ
の決定処理を説明する図、 第7図はn×m画素の追跡ウインドウによりエツジ線を
結ぶ処理を説明する図、 第8図(a)〜(c)はパラメータ変更の一態様を示す
図、 第9図(a),(b)は指定した数点について各画素の
エツジ強度を集計したヒストグラムの図である。 図中、1…画像入力装置、2…セントラルプロセツシン
グユニツト(CPU)、3…主メモリ、4…カラーモニ
タ、5…座標入力装置、6…画像メモリ、7…画像出力
装置、8…共通バスである。
FIG. 1 is a block configuration diagram of an image processing apparatus according to an embodiment, FIG. 2 is a flow chart showing a cutting process of a subject image, FIG. 3 is a flow chart showing a calculation process of hue and lightness, and FIG. 4 is a differential operator. FIG. 5 is a diagram showing a pixel array of a hue image or a lightness image in relation to FIG. 5, FIG. 5 is a diagram of an n × m pixel isolated point removal window provided for the purpose of automating isolated point removal, and FIGS. e) is a diagram for explaining the process for determining the size of the isolated point removal window, FIG. 7 is a diagram for explaining the process for connecting the edge lines with a tracking window of n × m pixels, and FIGS. 8 (a) to 8 (c) are FIG. 9 (a) and FIG. 9 (b) are diagrams showing one mode of parameter change, and are histograms in which the edge intensities of the respective pixels are aggregated for several designated points. In the figure, 1 ... Image input device, 2 ... Central processing unit (CPU), 3 ... Main memory, 4 ... Color monitor, 5 ... Coordinate input device, 6 ... Image memory, 7 ... Image output device, 8 ... Common It's a bus.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 7459−5L G06F 15/70 335 Z (72)発明者 漆原 一宣 神奈川県川崎市高津区下野毛770番地 キ ヤノン株式会社玉川事業所内 (72)発明者 松村 進 神奈川県川崎市高津区下野毛770番地 キ ヤノン株式会社玉川事業所内 (72)発明者 大村 宏志 神奈川県川崎市高津区下野毛770番地 キ ヤノン株式会社玉川事業所内 (56)参考文献 特開 昭60−169977(JP,A)─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location 7459-5L G06F 15/70 335 Z (72) Inventor Kazunori Urushihara 770 Shimonoge, Takatsu-ku, Kawasaki-shi, Kanagawa Address Canon Inc., Tamagawa Plant (72) Inventor Susumu Matsumura 770 Shimonoge, Takatsu-ku, Kawasaki City, Kanagawa Prefecture Canon Inc., Tamagawa Plant (72) Hiroshi Omura 770 Shimonoge, Takatsu-ku, Kawasaki City, Kanagawa Canon Inc. Company Tamagawa Plant (56) References JP-A-60-169977 (JP, A)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】入力画像データの特定画像部分を抽出する
画像処理方法であって、 前記入力画像データに応じた画像をデイスプレイ上に表
示し、 前記表示した画像上でオペレータによって指定された抽
出すべき特定画像部分のエッジ部に含まれる複数サンプ
ルデータを参照し、 前記参照した複数サンプルデータに基づいて、前記特定
画像部分のエッジ検出パラメータを決定し、 前記エッジ検出パラメータを用いて前記特定画像部分を
抽出することを特徴とする画像処理方法。
1. An image processing method for extracting a specific image portion of input image data, wherein an image corresponding to the input image data is displayed on a display, and an extraction specified by an operator is performed on the displayed image. Referring to a plurality of sample data included in the edge portion of the specific image portion to be, based on the referred to the plurality of sample data, determine the edge detection parameter of the specific image portion, the specific image portion using the edge detection parameter An image processing method comprising:
JP61046436A 1986-03-05 1986-03-05 Image processing method Expired - Fee Related JPH07113969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61046436A JPH07113969B2 (en) 1986-03-05 1986-03-05 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61046436A JPH07113969B2 (en) 1986-03-05 1986-03-05 Image processing method

Publications (2)

Publication Number Publication Date
JPS62204379A JPS62204379A (en) 1987-09-09
JPH07113969B2 true JPH07113969B2 (en) 1995-12-06

Family

ID=12747105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61046436A Expired - Fee Related JPH07113969B2 (en) 1986-03-05 1986-03-05 Image processing method

Country Status (1)

Country Link
JP (1) JPH07113969B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3575551B2 (en) * 1993-05-31 2004-10-13 日本アビオニクス株式会社 Residue inspection method
JP3453205B2 (en) * 1994-12-28 2003-10-06 富士写真フイルム株式会社 Image display apparatus and method for defining area in image
JP3943623B2 (en) * 1996-05-21 2007-07-11 キヤノン株式会社 Image editing apparatus and control method thereof
DE19700318A1 (en) * 1997-01-08 1998-07-09 Heidelberger Druckmasch Ag Method for determining the geometry data of scanning templates
DE19700352A1 (en) * 1997-01-08 1998-07-09 Heidelberger Druckmasch Ag Procedure for determining the geometry data of the relevant image section

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53291B2 (en) * 1973-07-24 1978-01-07
JPS50111941A (en) * 1974-02-12 1975-09-03

Also Published As

Publication number Publication date
JPS62204379A (en) 1987-09-09

Similar Documents

Publication Publication Date Title
US6404936B1 (en) Subject image extraction method and apparatus
KR100371470B1 (en) A New Perceptual Thresholding for Gradient-Based Local Edge Detection
US20050175253A1 (en) Method for producing cloud free and cloud-shadow free images
US4958217A (en) Image processing apparatus and method capable of extracting a particular image area using either hue or brightness
EP0532823A2 (en) Method and apparatus for detecting the contour and separating a given subject from an image
JPH10503307A (en) Image recognition device
CN112801049B (en) Image classification method, device and equipment
EP0831421B1 (en) Method and apparatus for retouching a digital color image
Shafer et al. Recursive region segmentation by analysis of histograms
Crabtree Jr et al. Evaluation of strategies for segmentation of blue-dyed pores in thin sections of reservoir rocks
US6728407B1 (en) Method for automatically determining trackers along contour and storage medium storing program for implementing the same
JPH07113969B2 (en) Image processing method
JPH0792651A (en) Picture clipping device
JPS63205783A (en) Picture tone discriminating device
JP2936599B2 (en) Color image processing equipment
JPH06337936A (en) Method and device for detecting line
Long et al. An Efficient Method For Dark License Plate Detection
JP3163601B2 (en) Image processing apparatus and method
JPH05128224A (en) Color extracting device for color picture and method therefor
JPH08167023A (en) Road white line detecting device
JPS62198968A (en) Image processor
JPH06162180A (en) Area extraction system
JPH07115555A (en) Method for dividing color area and electronic patterning device using the method
JPH087787B2 (en) Color image area extraction method
JP3417621B2 (en) Specific image detection method and specific image detection device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees