JPH06325176A - Image extracting device - Google Patents

Image extracting device

Info

Publication number
JPH06325176A
JPH06325176A JP5132759A JP13275993A JPH06325176A JP H06325176 A JPH06325176 A JP H06325176A JP 5132759 A JP5132759 A JP 5132759A JP 13275993 A JP13275993 A JP 13275993A JP H06325176 A JPH06325176 A JP H06325176A
Authority
JP
Japan
Prior art keywords
contour
outline
line
intersection
contour line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5132759A
Other languages
Japanese (ja)
Inventor
Tadashi Ochiai
忠 落合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu General Ltd
Original Assignee
Fujitsu General Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu General Ltd filed Critical Fujitsu General Ltd
Priority to JP5132759A priority Critical patent/JPH06325176A/en
Publication of JPH06325176A publication Critical patent/JPH06325176A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To shorten the time required for an outline converging process after outline designation, to reduce the influence of manual outline designation, and to prevent convergence on a wrong outline. CONSTITUTION:The image extracting device displays a source image in a source image memory 40 on a display 46, specifies an outline by an outline specifying means, and converges the specified outline on a specific outline by an outline converging means, thereby extracting part of the source image in the converged outline. The outline specifying means detects the intersection of an input segment on a tablet 30 and the outline of the source image on the display 46, stores its intersection information in an intersection information memory 38, and also connects intersections corresponding to the intersection information to generate a polygonal outline, thereby outputting it as a specified outline to the outline converging means. Then the segment crossing the outline of the source image is only inputted on the tablet 30 to automatically determine the intersections forming the specified outline, so that the outline designation can be performed with high accuracy.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、イメージシミュレーシ
ョンシステム、電子カタログ、CM製作機等において用
いられる画像抽出装置に関するものである。さらに詳し
くは、画像入力手段(例えばテレビカメラ)を用いて取
り込んだ元画像(または原画像ともいう)を元画像メモ
リに記憶するとともに画像表示部(例えばCRTディス
プレイ)で表示し、輪郭指定手段によって輪郭を指定
し、輪郭収束手段によって輪郭指定手段が指定した輪郭
を所定の輪郭線に収束し、この収束した輪郭線内に元画
像の一部を抽出するようにした画像抽出装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image extracting device used in an image simulation system, an electronic catalog, a CM production machine and the like. More specifically, an original image (or an original image) captured by using an image input unit (for example, a television camera) is stored in an original image memory and is displayed on an image display unit (for example, a CRT display), and is displayed by a contour designating unit. The present invention relates to an image extracting device which specifies a contour, converges the contour specified by the contour specifying means to a predetermined contour line, and extracts a part of an original image within the converged contour line. .

【0002】[0002]

【従来の技術】一般に、この種の画像抽出装置は、主に
GWS(グラフィックワークステーション)を利用した
システムを用い、半自動化した操作によって元画像(例
えば自然画)の中から一部(特定の人、物など対象物)
を抽出するものであるが、従来の画像抽出装置は、図5
および図6に示すような機能を実現する手段によって構
成されていた。
2. Description of the Related Art Generally, an image extracting apparatus of this type mainly uses a system using a GWS (graphic workstation), and a part (specific image) of an original image (for example, a natural image) is semi-automatically operated. Object such as person or object)
The conventional image extracting apparatus shown in FIG.
And the means for realizing the functions shown in FIG.

【0003】すなわち、図6の(a)に示すような画像
表示部の表示画面10上の元画像12および対応する画
像データに対して、ポインティングデバイスの一例とし
てのタブレット(またはマウス)からの手入力に基づい
て、図6の(b)に示すように元画像12の中から抽出
する対象物(例えば人物)14の輪郭の概略を表す粗輪
郭線16を指定する(または対象物14の外側を包囲す
る外輪郭線(図示省略)を指定する)。
That is, the original image 12 and the corresponding image data on the display screen 10 of the image display unit as shown in FIG. 6 (a) are moved from a tablet (or mouse) as an example of a pointing device. Based on the input, as shown in FIG. 6B, a rough contour line 16 representing the outline of the contour of the target object (for example, a person) 14 to be extracted from the original image 12 is designated (or outside the target object 14). Specify an outer contour line (not shown) that surrounds the.

【0004】すると、画像抽出装置は、タブレットから
入力した概略輪郭情報を対応したメモリに記憶し、閉ル
ープが終了していれば「閉ループ終了か?」が「YE
S」となり、輪郭指定処理が終了する。閉ループが終了
していなければ「閉ループ終了か?」が「NO」とな
り、「閉ループ終了か?」が「YES」となるまでタブ
レットからの概略輪郭指定が繰り返される。
Then, the image extracting device stores the outline information input from the tablet in the corresponding memory, and if the closed loop is completed, "Is closed loop completed?"
S ”, and the contour designation process ends. If the closed loop has not ended, “NO IN CLOSED LOOP?” Becomes “NO”, and outline contour designation from the tablet is repeated until “YES?” In “Ended closed loop?”.

【0005】輪郭指定処理が終了すると、画像抽出装置
は、自動輪郭収束プログラムに基づいたシステムの有す
る輪郭収束機能によって、粗輪郭線16の細線化処理
(または動的輪郭モデル処理(SNAKES))を行な
い、図6の(c)に示すような所定の輪郭線18に収束
し、この収束した輪郭線18内に、図6の(d)に示す
ように、対象物14を抽出する。
When the contour specifying process is completed, the image extracting apparatus performs the thinning process (or the active contour model process (SNAKES)) of the rough contour line 16 by the contour convergence function of the system based on the automatic contour convergence program. 6C, it converges on a predetermined contour line 18 as shown in FIG. 6C, and the object 14 is extracted in this converged contour line 18 as shown in FIG. 6D.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、従来の
画像抽出装置では、タブレットからの手入力によって、
元画像12の中から抽出する対象物14の輪郭の概略を
表す粗輪郭線16を指定したり、元画像12の中から抽
出する対象物14の外輪郭(図示省略)を指定して輪郭
指定を行なっていたので、つぎの(1)、(2)、
(3)に記述するような問題点が有った。
However, in the conventional image extracting device, the manual input from the tablet
A rough contour line 16 representing the outline of the contour of the object 14 to be extracted from the original image 12 is designated, or an outer contour (not shown) of the object 14 to be extracted from the original image 12 is designated to designate the contour. Since I was doing the following, (1), (2),
There was a problem as described in (3).

【0007】(1)タブレットを用いた手入力による粗
輪郭線16の入力時間を短くしようとすると、粗輪郭線
16の中心線と抽出対象物14の輪郭線とのずれが大き
くなり、輪郭指定後の輪郭収束処理に要する時間が長く
なるという問題点があった。 (2)輪郭収束処理として粗輪郭線16の細線化処理を
選んだときには、粗輪郭線16の中心線と抽出対象物1
4の輪郭線とのずれが大きい程、抽出画像の品質に悪影
響を与えるという問題点があった。
(1) If an attempt is made to shorten the input time of the rough contour line 16 by manual input using a tablet, the deviation between the center line of the rough contour line 16 and the contour line of the extraction object 14 becomes large, and the contour is designated. There is a problem that the time required for the subsequent contour convergence processing becomes long. (2) When the thinning processing of the rough contour line 16 is selected as the contour convergence processing, the center line of the rough contour line 16 and the extraction target 1
The larger the deviation from the contour line of No. 4, the more adversely affects the quality of the extracted image.

【0008】(3)輪郭収束処理として動的輪郭モデル
処理(SNAKES)を選んだときには、外輪郭線に接
した輝度の強い背景の線20に引っ張られて、収束した
輪郭線18の一部18aが図6の(c)に実線で示すよ
うに誤った輪郭線(本来は二点鎖線18tで示す輪郭
線)に収束し易く、抽出画像中に図6の(d)に示すよ
うな背景線20の一部20aが表示されてしまうという
問題点があった。
(3) When the dynamic contour model processing (SNAKES) is selected as the contour convergence processing, a part 18a of the converged contour line 18a is pulled by the background line 20 having a high brightness in contact with the outer contour line. Is easily converged to an erroneous contour line (originally, the contour line indicated by the chain double-dashed line 18t) as shown by the solid line in FIG. 6C, and the background line as shown in FIG. There is a problem that a part 20a of 20 is displayed.

【0009】本発明は上述の問題点に鑑みなされたもの
で、概略輪郭指定後の輪郭収束処理に要する時間を短く
することができ、手入力による輪郭指定の影響を少なく
することができ、しかも誤った輪郭線への収束を防止す
ることのできる画像抽出装置を提供することを目的とす
るものである。
The present invention has been made in view of the above problems, and it is possible to shorten the time required for the contour convergence processing after the designation of the rough contour, and to reduce the influence of the contour designation by manual input. It is an object of the present invention to provide an image extraction device capable of preventing convergence to an erroneous contour line.

【0010】[0010]

【課題を解決するための手段】請求項1に記載の発明
は、元画像メモリに記憶した元画像を画像表示部で表示
し、輪郭指定手段によって輪郭を指定し、この指定した
輪郭を輪郭収束手段によって所定の輪郭線に収束し、こ
の収束した輪郭線内に前記元画像の一部を抽出するよう
にした画像抽出装置において、前記輪郭指定手段は、前
記画像表示部上の元画像の輪郭線と交差する線分を入力
するためのポインティングデバイスと、このポインティ
ングデバイスの入力線分と前記元画像の輪郭線との交点
を検出する交点検出手段と、この交点検出手段によって
検出した交点情報を記憶する交点情報メモリと、この交
点情報メモリ内の交点情報に対応する交点を連結する多
角形輪郭線を形成し、指定輪郭として前記輪郭収束手段
に出力する多角形輪郭線形成手段とを具備してなること
を特徴とするものである。
According to a first aspect of the present invention, an original image stored in an original image memory is displayed on an image display unit, a contour is designated by contour designating means, and the designated contour is converged. In the image extracting apparatus, the means for converging to a predetermined contour line by the means, and extracting a part of the original image in the converged contour line, the contour designating means is a contour of the original image on the image display unit. A pointing device for inputting a line segment that intersects with a line, an intersection point detection unit that detects an intersection point between the input line segment of the pointing device and the contour line of the original image, and the intersection point information detected by the intersection point detection unit. A polygon wheel that forms a polygonal contour line connecting the intersection information memory to be stored and the intersection point corresponding to the intersection point information in the intersection point information memory, and outputs the polygonal contour line to the contour converging means as a designated contour. And it is characterized in that formed by and a line forming means.

【0011】請求項2に記載の発明は、前記請求項1の
発明の交点検出手段が、ポインティングデバイスから入
力した元画像の輪郭線にほぼ直交する線分上の画素の輝
度を検出する輝度検出手段と、この輝度検出手段で検出
した輝度の隣接画素間の差分を演算する差分演算手段
と、この差分演算手段で演算した差分が最大値となる画
素の位置を検出して交点情報として出力する最大値検出
手段とを具備してなることを特徴とするものである。
According to a second aspect of the present invention, the intersection point detecting means of the first aspect of the present invention detects the luminance of pixels on a line segment that is substantially orthogonal to the contour line of the original image input from the pointing device. Means, a difference calculating means for calculating a difference between the adjacent pixels of the brightness detected by the brightness detecting means, and a position of the pixel having the maximum difference calculated by the difference calculating means are detected and output as intersection point information. And a maximum value detecting means.

【0012】請求項3に記載の発明は、前記請求項1の
発明の交点検出手段が、ポインティングデバイスから入
力した元画像の輪郭線にほぼ直交する線分上の画素の色
を検出する色検出手段と、この色検出手段で検出した色
の特定の色についての隣接画素間の成分差を検出する成
分差検出手段と、この成分差検出手段で検出した成分差
が最大値となる画素の位置を検出して交点情報として出
力する最大値検出手段とを具備してなることを特徴とす
るものである。
According to a third aspect of the present invention, the intersection point detecting means of the first aspect of the present invention is color detection for detecting the color of a pixel on a line segment that is substantially orthogonal to the contour line of the original image input from the pointing device. Means, a component difference detecting means for detecting a component difference between adjacent pixels for a specific color of the color detected by the color detecting means, and a pixel position where the component difference detected by the component difference detecting means is the maximum value And a maximum value detecting means for detecting and outputting as the intersection point information.

【0013】[0013]

【作用】請求項1の発明による画像抽出装置では、その
輪郭指定手段はつぎのように作用する。すなわち、ポイ
ンティングデバイスによって画像表示部上の元画像の輪
郭線と交差する線分(例えば概略法線)を入力すると、
交点検出手段はポインティングデバイスの入力線分と元
画像の輪郭線との交点を検出し、検出した交点情報は交
点情報メモリに記憶され、多角形輪郭線形成手段は交点
情報メモリ内の交点情報に対応した交点を連結する多角
形輪郭線を形成し、指定輪郭として輪郭収束手段に出力
する。
In the image extracting apparatus according to the first aspect of the invention, the contour designating means operates as follows. That is, when a line segment (for example, a rough normal line) that intersects the contour line of the original image on the image display unit is input by the pointing device,
The intersection detecting means detects the intersection of the input line segment of the pointing device and the contour of the original image, the detected intersection information is stored in the intersection information memory, and the polygon contour forming means stores the intersection information in the intersection information memory. A polygonal contour line connecting the corresponding intersections is formed, and is output to the contour converging means as a designated contour.

【0014】輪郭収束手段は多角形輪郭線形成手段で指
定した輪郭を抽出対象物に対応した所定の輪郭線に収束
する。ついで、装置が本来的に有する画像合成手段など
によって収束した輪郭線内に元画像の一部(すなわち抽
出対象画像)が抽出される。
The contour converging means converges the contour designated by the polygonal contour forming means to a predetermined contour line corresponding to the extraction target. Then, a part of the original image (that is, the extraction target image) is extracted in the contour line converged by the image synthesizing means originally possessed by the apparatus.

【0015】請求項2の発明による画像抽出装置では、
交点検出手段以外は前記請求項1の発明の作用と同様に
作用し、この交点検出手段はつぎのように作用する。す
なわち、輝度検出手段はポインティングデバイスから入
力した元画像の輪郭線にほぼ直交する線分(すなわち概
略法線)上の画素の輝度を検出し、差分演算手段は隣接
画素間の輝度の差分を演算し、最大値検出手段は差分が
最大となる画素の位置を検出し、これを交点情報として
多角形輪郭線形成手段に出力する。
In the image extracting apparatus according to the invention of claim 2,
Except for the intersection detecting means, the same operation as the invention of claim 1 is performed, and the intersection detecting means operates as follows. That is, the brightness detecting means detects the brightness of the pixel on a line segment (that is, a rough normal line) substantially orthogonal to the contour line of the original image input from the pointing device, and the difference calculating means calculates the difference in brightness between adjacent pixels. Then, the maximum value detecting means detects the position of the pixel having the maximum difference, and outputs it as the intersection point information to the polygonal contour line forming means.

【0016】請求項3の発明による画像抽出装置では、
交点検出手段以外は前記請求項1の発明の作用と同様に
作用し、この交点検出手段はつぎのように作用する。す
なわち、色検出手段はポインティングデバイスから入力
した元画像の輪郭線にほぼ直交する線分(すなわち概略
法線)上の画素の色を検出し、成分差検出手段は特定の
色についての隣接画素間の成分差を検出し、最大値検出
手段は成分差が最大となる画素の位置を検出し、これを
交点情報として多角形輪郭線形成手段に出力する。
According to the image extracting apparatus of the third aspect,
Except for the intersection detecting means, the same operation as the invention of claim 1 is performed, and the intersection detecting means operates as follows. That is, the color detection means detects the color of a pixel on a line segment (that is, a rough normal line) that is substantially orthogonal to the contour line of the original image input from the pointing device, and the component difference detection means detects the color difference between adjacent pixels for a specific color. , The maximum value detecting means detects the position of the pixel having the maximum component difference, and outputs this as intersection point information to the polygon contour forming means.

【0017】[0017]

【実施例】以下、本発明による画像抽出装置の一実施例
を図1から図4までを用いて説明する。これらの図にお
いて図6と同一部分は同一符号とする。図1において、
30は画像表示部や計算機に位置情報を入力するための
ポインティングデバイスの一例としてのタブレットで、
このタブレット30はインタフェース32を介してマイ
クロプロセッサ34に結合されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an image extracting device according to the present invention will be described below with reference to FIGS. In these figures, the same parts as those in FIG. 6 are designated by the same reference numerals. In FIG.
Reference numeral 30 denotes a tablet as an example of a pointing device for inputting position information to an image display unit or a computer.
The tablet 30 is coupled to a microprocessor 34 via an interface 32.

【0018】前記マイクロプロセッサ34には、本発明
に特有の輪郭指定処理を行なうためのプログラムや従来
例と同様な輪郭収束処理などを行なうためのプログラム
を格納したROM(リード・オンリ・メモリ)36と、
本発明に特有の交点情報を記憶するための交点情報メモ
リ(例えばRAM)38と、元画像を記憶するための元
画像メモリ(例えばVRAM)40と、輪郭情報を記憶
するための輪郭メモリ(例えばVRAM)42とが結合
し、前記元画像メモリ40および輪郭メモリ42には、
ディスプレイコントローラ44を介して画像表示部の一
例としてのCRTディスプレイ46が結合している。
In the microprocessor 34, a ROM (read only memory) 36 storing a program for performing contour specifying processing peculiar to the present invention and a program for performing contour convergence processing similar to the conventional example. When,
An intersection information memory (for example, RAM) 38 for storing the intersection information peculiar to the present invention, an original image memory (for example, VRAM) 40 for storing the original image, and a contour memory (for example, VRAM) 40 for storing the contour information. VRAM) 42, and the original image memory 40 and the contour memory 42,
A CRT display 46, which is an example of an image display unit, is connected via the display controller 44.

【0019】前記マイクロプロセッサ34は、前記RO
M36内の輪郭指定処理プログラムに基づいて、つぎの
(a)〜(f)に示すような処理を行なうように構成さ
れている。 (a)タブレット30からの線分入力によりCRTディ
スプレイ46上に対応した線分を表示する線分表示機
能。 (b)タブレット30からの入力による線分上(例えば
元画像の輪郭線とほぼ直交する概略法線上)の画素の輝
度を検出する輝度検出機能。
The microprocessor 34 includes the RO
Based on the contour designation processing program in M36, the following processings (a) to (f) are performed. (A) A line segment display function of displaying a corresponding line segment on the CRT display 46 by inputting a line segment from the tablet 30. (B) A brightness detection function for detecting the brightness of pixels on a line segment (for example, on a general normal line that is substantially orthogonal to the contour line of the original image) input from the tablet 30.

【0020】(c)前記(b)の画素輝度検出機能で検
出した輝度についての隣接画素間の輝度の差分を演算す
る差分演算機能。 (d)前記(c)の差分演算機能で求めた差分を比較し
て最大値を与える画素の位置を交点として検出する最大
値検出機能。 (e)前記(d)の交点検出機能で検出した交点情報を
前記交点情報メモリ38に書き込む交点情報書込機能。
(C) A difference calculation function for calculating the difference in brightness between adjacent pixels with respect to the brightness detected by the pixel brightness detection function of (b). (D) A maximum value detection function that compares the differences calculated by the difference calculation function of (c) above and detects the position of the pixel that gives the maximum value as an intersection. (E) A cross point information writing function of writing the cross point information detected by the cross point detection function of (d) into the cross point information memory 38.

【0021】(f)前記(e)で書き込んだ交点情報メ
モリ38内の交点情報に対応した交点を連結して多角形
輪郭線を形成する多角形輪郭線形成機能。 前記(b)の輝度検出機能、前記(c)の差分演算機能
および前記(d)の最大値検出機能は、前記(a)の線
分表示機能による線分と前記元画像12の輪郭線との交
点を検出する交点検出機能を構成している。
(F) A polygon contour line forming function of connecting the intersection points corresponding to the intersection point information in the intersection point information memory 38 written in (e) to form a polygonal contour line. The brightness detection function of (b), the difference calculation function of (c), and the maximum value detection function of (d) are the line segment by the line segment display function of (a) and the contour line of the original image 12. It constitutes an intersection point detection function for detecting the intersection points of.

【0022】つぎに、図1の実施例の作用を図2〜図4
を併用して説明する。 (イ)まず、従来例と同様にして、テレビカメラのよう
な画像入力装置で取り込まれた元画像についての画像デ
ータが元画像メモリ40に記憶されるとともに、ディス
プレイコントローラ44で制御されるCRTディスプレ
イ46の表示画面10上に、図4の(a)に示すような
元画像12が表示される。
Next, the operation of the embodiment of FIG. 1 will be described with reference to FIGS.
Will be described together. (A) First, similarly to the conventional example, a CRT display in which image data of an original image captured by an image input device such as a television camera is stored in the original image memory 40 and is controlled by the display controller 44. An original image 12 as shown in FIG. 4A is displayed on the display screen 10 of 46.

【0023】(ロ)ついで、ROM36内のプログラム
を用いたマイクロプロセッサ34の線分表示機能によっ
て、タブレット30からの入力に基づき、図4の(b)
に示すように、CRTディスプレイ46の表示画面10
の元画像12の中から抽出したい対象物(例えば人物)
14の輪郭線52にほぼ直交する概略法線50、50、
50、…が描かれる。
(B) Next, by the line segment display function of the microprocessor 34 using the program in the ROM 36, based on the input from the tablet 30, (b) of FIG.
As shown in, the display screen 10 of the CRT display 46
Object to be extracted from the original image 12 (for example, a person)
14, the normal lines 50, 50, which are substantially orthogonal to the contour line 52 of
50, ... is drawn.

【0024】前記(ロ)で描かれる概略法線50、5
0、50、…は、交点情報の精度を高くするために輪郭
線52の形状が複雑な部分ほど多く引くことが望まし
く、また、強い背景線20に引っ張られて誤入力となる
のを防止するために、強い背景線20と輪郭線52との
交差部分を避けて引くことが望ましい。
The outline normals 50 and 5 drawn in (b) above
0, 50, ... It is desirable to draw more as the shape of the contour line 52 is more complicated in order to improve the accuracy of the intersection information, and to prevent the background line 20 from being pulled and causing an erroneous input. Therefore, it is desirable to avoid the intersection of the strong background line 20 and the outline 52 and draw the line.

【0025】(ハ)ついで、ROM36内のプログラム
を用いたマイクロプロセッサ34の輝度検出機能によっ
て、概略法線50、50、50、…上の画素の輝度が検
出される。この輝度検出は、例えば、図2の(a)に示
すような元画像の輪郭線52にほぼ直交する概略法線5
0上の画素〜について、同図の(b)に示す棒グラ
フの長さで表わされるような輝度レベルを検出する。
(C) Next, the brightness detection function of the microprocessor 34 using the program in the ROM 36 detects the brightness of the pixels on the approximate normal lines 50, 50, 50, .... This brightness detection is performed by, for example, the rough normal line 5 which is substantially orthogonal to the contour line 52 of the original image as shown in FIG.
For pixels 0 to 0, the brightness level represented by the length of the bar graph shown in FIG.

【0026】なお、図2では、図示の便宜上、輪郭線5
2の太さに対して画素〜の大きさを誇張して表示
し、画素個数を少なめに表示している。また、図2の
(a)においては、輪郭線52の右側の斜線を施した領
域の輝度レベルは、輪郭線52の左側の斜線を施さない
領域の輝度レベルより大きいものとしている。
In FIG. 2, for convenience of illustration, the contour line 5
The size of pixels is exaggerated and displayed with respect to the thickness of 2, and the number of pixels is displayed small. In addition, in FIG. 2A, the luminance level of the shaded area on the right side of the contour line 52 is higher than the luminance level of the non-shaded area on the left side of the contour line 52.

【0027】(ニ)ついで、ROM36内のプログラム
を用いたマイクロプロセッサ34の差分演算機能によっ
て、前記(ハ)で検出した各概略法線50、50、50
上の画素の輝度について、隣接画素間の輝度の差分を演
算する。例えば、図2の(a)に示す概略法線50上の
画素〜について、同図の(b)に示す輝度レベルの
隣接画素間の差分を演算する。
(D) Next, the approximate normal lines 50, 50, 50 detected in (c) above are calculated by the difference calculation function of the microprocessor 34 using the program in the ROM 36.
Regarding the brightness of the upper pixel, the difference in brightness between adjacent pixels is calculated. For example, with respect to the pixels on the schematic normal line 50 shown in FIG. 2A, the difference between the adjacent pixels of the brightness level shown in FIG. 2B is calculated.

【0028】(ホ)ついで、ROM36内のプログラム
を用いたマイクロプロセッサ34の最大値検出機能と交
点情報書込機能とによって、前記(ニ)によって各概略
法線毎に求めた差分を比較し、各概略法線毎に最大値を
検出し、最大値を与える画素の位置を交点とし、その交
点情報を交点情報メモリに書き込むとともに、図4の
(b)に示すように、表示画面上に交点54、54、5
4、…を表示する。例えば、図2の(a)、(b)では
画素についての輝度の差分が最大となり、画素の位
置を交点54と検出する。
(E) Then, the maximum value detecting function and the intersection point information writing function of the microprocessor 34 using the program in the ROM 36 are used to compare the differences obtained for each rough normal line by the above (d), The maximum value is detected for each rough normal, the position of the pixel giving the maximum value is set as an intersection, the intersection information is written in the intersection information memory, and the intersection is displayed on the display screen as shown in FIG. 4B. 54, 54, 5
4, ... is displayed. For example, in FIGS. 2A and 2B, the difference in luminance between pixels is the maximum, and the position of the pixel is detected as the intersection point 54.

【0029】(ヘ)ついで、ROM36内のプログラム
を用いたマイクロプロセッサ34の多角形輪郭線形成機
能によって、前記(ホ)で検出した交点を既検出の交点
(例えば直前に検出した交点)と連結する処理を行な
い、図4の(c)に示すように、多角形輪郭線56が形
成されると、「多角形輪郭線形成?」が「YES」とな
り、交点の追加がなければ、「交点を追加か?」が「N
O」となり、輪郭指令処理が終了する。形成した多角形
輪郭線56と抽出対象物14の輪郭線52とのずれが大
きい場合のように、交点を追加するときは、「交点を追
加か?」が「YES」となり、前記(ロ)に戻る。
(F) Next, the intersection point detected in (e) is connected to the already detected intersection point (for example, the intersection point detected immediately before) by the polygon contour forming function of the microprocessor 34 using the program in the ROM 36. When the polygonal contour line 56 is formed as shown in FIG. 4C, “YES” is displayed in “Formation of polygonal contour line?”. "Add?" Is "N
O ”, and the contour command processing ends. When an intersection is added, as in the case where the formed polygonal outline 56 and the outline 52 of the extraction target 14 are largely displaced, “Are intersection added?” Becomes “YES”, and the above (b) Return to.

【0030】(ト)前記(ヘ)で交点を追加し、その交
点を既に形成されている多角形輪郭線56に組み込むと
きは、追加した交点の両側に隣接する既検出の交点と連
結するか、または連結すべき既検出の交点をタブレット
30によって指示することによって、自動的に組み込ま
れる。
(G) When the intersection is added in the above (f) and the intersection is incorporated into the already formed polygonal contour line 56, is it connected to the already detected intersections adjacent to both sides of the added intersection? , Or an already detected intersection point to be connected is designated by the tablet 30, and is automatically incorporated.

【0031】(チ)前記(ヘ)で輪郭指令処理が終了す
ると、マイクロプロセッサ34がROM36に格納され
ている輪郭収束処理プログラムを実行することによっ
て、図4の(c)に示す多角形輪郭線56が図4の
(d)に示すような所定の輪郭線58に自動的に収束
し、その輪郭線データが輪郭メモリ42に記録される。
(H) When the contour command processing is completed in the above (f), the microprocessor 34 executes the contour convergence processing program stored in the ROM 36, so that the polygonal contour line shown in (c) of FIG. 56 automatically converges on a predetermined contour line 58 as shown in FIG. 4D, and the contour line data is recorded in the contour memory 42.

【0032】(リ)ついで、ディスプレイコントローラ
44が元画像メモリ40内の元画像12の情報と輪郭メ
モリ42内の輪郭線58の情報とを読み出して合成し、
元画像12の中から収束輪郭線58で抽出した、図4の
(e)に示すような抽出画像14を表示する。
(I) Next, the display controller 44 reads out and combines the information of the original image 12 in the original image memory 40 and the information of the contour line 58 in the contour memory 42,
The extracted image 14 as shown in FIG. 4E extracted from the original image 12 with the convergent contour line 58 is displayed.

【0033】前記実施例では、輪郭指定手段中の多角形
輪郭線形成手段は、交点検出手段で交点を検出したら、
その都度検出交点を既検出交点と連結することによって
多角形輪郭線を形成するようにしたが、本発明はこれに
限るものでなく、多角形を形成するのに必要な交点情報
を交点情報メモリに書き込む処理が終了してから、交点
情報メモリ内の交点情報に対応した交点を連結して多角
形輪郭線を形成するようにしてもよい。
In the above embodiment, the polygonal contour line forming means in the contour designating means detects the intersection point by the intersection point detecting means,
Although the polygonal outline is formed by connecting the detected intersection with the detected intersection each time, the present invention is not limited to this, and the intersection information necessary for forming the polygon is stored in the intersection information memory. After the process of writing into the intersection information is completed, the intersection points corresponding to the intersection point information in the intersection point information memory may be connected to form a polygonal contour line.

【0034】前記実施例では、交点検出手段は、タブレ
ット入力による概略法線上の画素の輝度を検出する輝度
検出手段と、この検出した輝度の隣接画素間の差分を演
算する差分演算手段と、この演算した差分が最大値とな
る画素の位置を検出して交点情報として出力する最大値
検出手段とで形成するようにしたが、本発明はこれに限
るものでなく、タブレットによる入力線分と元画像の輪
郭線とが交差する交点を検出するものであればよい。
In the above-mentioned embodiment, the intersection detecting means is a brightness detecting means for detecting the brightness of the pixel on the rough normal line by the tablet input, and a difference calculating means for calculating the difference between the detected brightness and the adjacent pixels. The position of the pixel where the calculated difference has the maximum value is detected and is formed by the maximum value detecting means for outputting as the intersection point information, but the present invention is not limited to this, and the input line segment by the tablet and the original Any method may be used as long as it can detect an intersection where the contour of the image intersects.

【0035】例えば、タブレット入力による概略法線上
の画素の色を検出する色検出手段と、この検出した色の
特定の色についての隣接画素間の成分差を検出する成分
差検出手段と、この検出した成分差が最大値となる画素
の位置を検出して交点情報として出力する最大値検出手
段とで形成するようにしてもよい。
For example, a color detecting means for detecting a color of a pixel on a rough normal line by tablet input, a component difference detecting means for detecting a component difference between adjacent pixels for a specific color of the detected color, and this detection. It may be formed by the maximum value detecting means for detecting the position of the pixel having the maximum component difference and outputting it as the intersection point information.

【0036】前記実施例では、タブレットによる入力線
分は、元画像の輪郭線とほぼ直交する法線(すなわち概
略法線)としたが、本発明はこれに限るものでなく、元
画像の輪郭線と交差して交点を形成するものであればよ
い。
In the above-mentioned embodiment, the input line segment by the tablet is a normal line (that is, a rough normal line) substantially orthogonal to the contour line of the original image, but the present invention is not limited to this, and the contour line of the original image is not limited to this. Any line may be used as long as it intersects the line to form an intersection.

【0037】[0037]

【発明の効果】請求項1の発明による画像抽出装置は、
上記のように、ポインティングデバイスによって元画像
の輪郭線と交差する線分を入力するだけで指定輪郭線を
形成するための交点が自動的に決まるように構成したの
で、従来例の粗輪郭線や外輪郭線のように抽出対象物の
輪郭線にできるだけ近づけて輪郭線を入力する必要がな
く、作業性を向上させることができる。
The image extracting device according to the first aspect of the invention is
As described above, since the intersection point for forming the specified contour line is automatically determined only by inputting the line segment that intersects the contour line of the original image with the pointing device, the rough contour line of the conventional example and the Since it is not necessary to input the contour line as close as possible to the contour line of the extraction target like the outer contour line, workability can be improved.

【0038】しかも、交点検出手段で検出した交点を連
結する多角形輪郭線を、輪郭収束手段への指定輪郭線と
するように構成したので、従来の粗輪郭線や外輪郭線に
よる輪郭指定と比べて精度のよい輪郭指定を行なうこと
ができる。このため、輪郭指定後の輪郭収束処理に要す
る時間を短くすることができ、手入力による輪郭指定の
影響を少なくすることができ、しかも誤った輪郭線への
収束を防止することができる。
Moreover, since the polygonal contour line connecting the intersection points detected by the intersection point detecting means is constituted as the designated contour line to the contour converging means, it is possible to perform the contour designation by the conventional rough contour line or the outer contour line. It is possible to perform contour designation with higher accuracy. Therefore, the time required for the contour convergence processing after the contour designation can be shortened, the influence of the contour designation by the manual input can be reduced, and the convergence to the wrong contour line can be prevented.

【0039】請求項2の発明による画像抽出装置は、前
記請求項1の発明の効果を有する外に、つぎのような効
果を有する。すなわち、輪郭指定手段中の交点検出手段
によって、元画像の輪郭線にほぼ直交する線分(すなわ
ち概略法線)上の画素の輝度が最大となる画素の位置情
報を交点情報として多角形輪郭線形成手段に出力するよ
うに構成したので、交点位置情報の精度をさらに高める
ことができ、手入力による輪郭指定の影響をさらに少な
くすることができ、しかも誤った輪郭線への収束をさら
に防止することができる。
The image extracting apparatus according to the invention of claim 2 has the following effect in addition to the effect of the invention of claim 1. That is, the polygonal contour line is defined by the intersection point detection unit in the contour designation unit as the intersection point information which is the position information of the pixel on the line segment (that is, the approximate normal line) that is substantially orthogonal to the contour line of the original image. Since it is configured to be output to the forming means, it is possible to further improve the accuracy of the intersection point position information, further reduce the influence of the contour designation by manual input, and further prevent the convergence to an incorrect contour line. be able to.

【0040】請求項3の発明による画像抽出装置は、前
記請求項1の発明の効果を有する外に、つぎのような効
果を有する。すなわち、輪郭指定手段中の交点検出手段
によって、元画像の輪郭線にほぼ直交する線分(すなわ
ち概略法線)上の画素の色の特定の色についての成分が
最大となる画素の位置情報を、交点情報として多角形輪
郭線形成手段に出力するように構成したので、交点位置
情報の精度をさらに高めることができ、手入力による輪
郭指定の影響をさらに少なくすることができ、しかも誤
った輪郭線への収束をさらに防止することができる。
The image extracting apparatus according to the invention of claim 3 has the following effect in addition to the effect of the invention of claim 1. That is, the intersection point detecting means in the contour specifying means obtains the position information of the pixel having the maximum component for a specific color of the pixel color on the line segment (that is, the approximate normal line) that is substantially orthogonal to the contour line of the original image. Since the intersection point information is output to the polygonal contour line forming means, the accuracy of the intersection point position information can be further increased, the influence of the contour designation by manual input can be further reduced, and the erroneous contour can be further reduced. The convergence to the line can be further prevented.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による画像抽出装置の一実施例を示す概
略構成図である。
FIG. 1 is a schematic configuration diagram showing an embodiment of an image extraction device according to the present invention.

【図2】図1のマイクロプロセッサによる交点検出機能
を説明する説明図で、(a)は輪郭線とその概略法線が
交差している状態を説明し、(b)は概略法線上の画素
の輝度レベルの大きさを説明する説明図である。
2A and 2B are explanatory diagrams illustrating an intersection point detection function by the microprocessor of FIG. 1, in which FIG. 2A illustrates a state in which a contour line and an outline normal line thereof intersect, and FIG. 2B illustrates pixels on the outline normal line. It is an explanatory view explaining the size of the brightness level of.

【図3】図1の輪郭指令手段の作用を説明するフローチ
ャートである。
3 is a flow chart for explaining the operation of the contour command means of FIG.

【図4】図1の作用をCRTディスプレイ上の表示画像
とともに説明する説明図で、(a)は元画像を表示して
いる状態を説明し、(b)は概略法線と輪郭線との交点
を表示している状態を説明し、(c)は多角形輪郭線を
表示している状態を説明し、(d)は輪郭収束手段によ
って輪郭線を収束した状態を説明し、(e)は抽出画像
を表示している状態を説明する説明図である。
4A and 4B are explanatory views for explaining the operation of FIG. 1 together with a display image on a CRT display, in which FIG. 4A illustrates a state in which an original image is displayed, and FIG. 4B illustrates an outline normal line and a contour line. The state where the intersection is displayed is explained, (c) the state where the polygonal contour line is displayed, (d) the state where the contour line is converged by the contour converging means, and (e). FIG. 7 is an explanatory diagram illustrating a state where an extracted image is displayed.

【図5】従来装置の作用の概略を説明するフローチャー
トである。
FIG. 5 is a flowchart for explaining the outline of the operation of the conventional device.

【図6】従来装置の作用を画像表示部の表示画像ととも
に説明する説明図で、(a)は元画像を表示している状
態を説明し、(b)は粗輪郭線を表示している状態を説
明し、(c)は輪郭収束手段によって輪郭線を収束した
状態を説明し、(d)は抽出画像を表示している状態を
説明する説明図である。
6A and 6B are explanatory diagrams for explaining the operation of the conventional device together with the display image on the image display unit, in which FIG. 6A illustrates a state in which an original image is displayed, and FIG. 6B illustrates a rough contour line. The state will be described, (c) is a state in which the outline is converged by the outline converging unit, and (d) is an explanatory diagram illustrating a state in which the extracted image is displayed.

【符号の説明】[Explanation of symbols]

10…表示画面、 12…元画像、14…抽出対象物
(例えば人物)、30…タブレット(ポインティングデ
バイスの一例)、34…マイクロプロセッサ、 36…
ROM、38…交点情報メモリ、 40…元画像メモ
リ、42…輪郭メモリ、 46…CRTディスプレイ、
50…概略法線(入力線分の一例)、 52…元画像1
2の輪郭線、54…交点、 56…多角形輪郭線、58
…収束輪郭線。
10 ... Display screen, 12 ... Original image, 14 ... Extraction target (for example, person), 30 ... Tablet (an example of pointing device), 34 ... Microprocessor, 36 ...
ROM, 38 ... Intersection information memory, 40 ... Original image memory, 42 ... Contour memory, 46 ... CRT display,
50 ... Outline normal (an example of input line segment), 52 ... Original image 1
2 contour line, 54 ... intersection, 56 ... polygonal contour line, 58
… Convergent contour lines.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】元画像メモリに記憶した元画像を画像表示
部で表示し、輪郭指定手段によって輪郭を指定し、この
指定した輪郭を輪郭収束手段によって所定の輪郭線に収
束し、この収束した輪郭線内に前記元画像の一部を抽出
するようにした画像抽出装置において、前記輪郭指定手
段は、前記画像表示部上の元画像の輪郭線と交差する線
分を入力するためのポインティングデバイスと、このポ
インティングデバイスの入力線分と前記元画像の輪郭線
との交点を検出する交点検出手段と、この交点検出手段
によって検出した交点情報を記憶する交点情報メモリ
と、この交点情報メモリ内の交点情報に対応する交点を
連結する多角形輪郭線を形成し、指定輪郭として前記輪
郭収束手段に出力する多角形輪郭線形成手段とを具備し
てなることを特徴とする画像抽出装置。
1. An original image stored in an original image memory is displayed on an image display unit, a contour is designated by a contour designating means, the designated contour is converged to a predetermined contour line by the contour converging means, and the contour is converged. In the image extracting apparatus configured to extract a part of the original image within the contour line, the contour designating unit is a pointing device for inputting a line segment that intersects the contour line of the original image on the image display unit. An intersection point detecting means for detecting an intersection point between the input line segment of the pointing device and the contour line of the original image, an intersection point information memory for storing the intersection point information detected by the intersection point detecting means, and the intersection point information memory A polygonal contour line forming means for forming a polygonal contour line connecting the intersections corresponding to the intersection point information and outputting the polygonal contour line as the designated contour to the contour converging means. That image extraction apparatus.
【請求項2】交点検出手段は、ポインティングデバイス
から入力した元画像の輪郭線にほぼ直交する線分上の画
素の輝度を検出する輝度検出手段と、この輝度検出手段
で検出した輝度の隣接画素間の差分を演算する差分演算
手段と、この差分演算手段で演算した差分が最大値とな
る画素の位置を検出して交点情報として出力する最大値
検出手段とを具備してなる請求項1記載の画像抽出装
置。
2. The intersection detecting means includes a brightness detecting means for detecting the brightness of a pixel on a line segment substantially orthogonal to the contour line of the original image input from the pointing device, and an adjacent pixel having the brightness detected by the brightness detecting means. The difference calculation means for calculating the difference between the two and the maximum value detection means for detecting the position of the pixel having the maximum difference calculated by the difference calculation means and outputting it as intersection point information. Image extraction device.
【請求項3】交点検出手段は、ポインティングデバイス
から入力した元画像の輪郭線にほぼ直交する線分上の画
素の色を検出する色検出手段と、この色検出手段で検出
した色の特定の色についての隣接画素間の成分差を検出
する成分差検出手段と、この成分差検出手段で検出した
成分差が最大値となる画素の位置を検出して交点情報と
して出力する最大値検出手段とを具備してなる請求項1
記載の画像抽出装置。
3. The intersection detecting means includes a color detecting means for detecting a color of a pixel on a line segment substantially orthogonal to a contour line of an original image inputted from a pointing device, and a specific color of the color detected by the color detecting means. Component difference detecting means for detecting a component difference between adjacent pixels regarding color, and maximum value detecting means for detecting a position of a pixel having the maximum component difference detected by the component difference detecting means and outputting it as intersection information. Claim 1 comprising
The image extraction device described.
JP5132759A 1993-05-11 1993-05-11 Image extracting device Pending JPH06325176A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5132759A JPH06325176A (en) 1993-05-11 1993-05-11 Image extracting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5132759A JPH06325176A (en) 1993-05-11 1993-05-11 Image extracting device

Publications (1)

Publication Number Publication Date
JPH06325176A true JPH06325176A (en) 1994-11-25

Family

ID=15088897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5132759A Pending JPH06325176A (en) 1993-05-11 1993-05-11 Image extracting device

Country Status (1)

Country Link
JP (1) JPH06325176A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8994815B2 (en) 2010-01-22 2015-03-31 Hitachi High—Technologies Corporation Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
US9702695B2 (en) 2010-05-27 2017-07-11 Hitachi High-Technologies Corporation Image processing device, charged particle beam device, charged particle beam device adjustment sample, and manufacturing method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8994815B2 (en) 2010-01-22 2015-03-31 Hitachi High—Technologies Corporation Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
US9702695B2 (en) 2010-05-27 2017-07-11 Hitachi High-Technologies Corporation Image processing device, charged particle beam device, charged particle beam device adjustment sample, and manufacturing method thereof

Similar Documents

Publication Publication Date Title
US5075895A (en) Method and apparatus for recognizing table area formed in binary image of document
JP2591984B2 (en) Pattern recognition device
JP2003271125A (en) Device, method and program for image display
US6271848B1 (en) Image processing device, image processing method and storage medium for storing image processing programs
US5293471A (en) Graphics processing system for deleting one of overlapping line and graphics images
JPH06325176A (en) Image extracting device
JPH03154979A (en) Graphic shaping device
US20200226712A1 (en) Image processing apparatus, control method thereof, recording medium, and information processing system
US6900804B1 (en) Method of forming polygon image and image processing apparatus using the same
JPH1049688A (en) Method for partial erasing method and partial detection method for picture data
US5111532A (en) Method of setting drawing parameters for an xy plotter
JP2569049B2 (en) How to modify characters
JPH04255080A (en) Image input device
JP2773127B2 (en) Image editing method
JPH07121710A (en) Method and device for image segmentation
JP2818066B2 (en) Image layout processing device
JP3620658B2 (en) Mapping processing method
CN114385983A (en) Visualized character deformation method and system
JP3029215B2 (en) How to modify image data
JP2926842B2 (en) Character extraction circuit
JP2721344B2 (en) Image processing method
JPS59148975A (en) Editing device of pattern
JPH0676035A (en) Picture data processing system
JPH07160811A (en) Character recognizing device
JP2805352B2 (en) Picture cutting device