JPS63116568A - Clipped image forming device - Google Patents

Clipped image forming device

Info

Publication number
JPS63116568A
JPS63116568A JP61262426A JP26242686A JPS63116568A JP S63116568 A JPS63116568 A JP S63116568A JP 61262426 A JP61262426 A JP 61262426A JP 26242686 A JP26242686 A JP 26242686A JP S63116568 A JPS63116568 A JP S63116568A
Authority
JP
Japan
Prior art keywords
data
image
line
memory
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61262426A
Other languages
Japanese (ja)
Inventor
Shinichi Miyajima
宮島 慎一
Yoshiaki Kudo
工藤 芳明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP61262426A priority Critical patent/JPS63116568A/en
Publication of JPS63116568A publication Critical patent/JPS63116568A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily retrieve a clipped image by jointing the intersections between border lines available from border line position data and scan lines for outputting and taking them for a clipping line. CONSTITUTION:Fetched image data is stored in a memory 6. It is thinned, retrieved and entirely displayed on a monitor 14. One point of the border line lon the entire display image is specified through a position input means, and a prescribed range is expanded and displayed on the monitor 14 with the specified point as a center. By tracing the border line of the expanded and displayed image, the positions of the border line l are inputted, which are stored as border line data P1-P4 in the memory 6. Then the border line data is read out, and the intersections between the border lines available from the data and the scan lines used at the time of reading image data are obtained. Those intersections are sequentially jointed together, thereby obtaining clipped data. Thus the image data can be easily clipped.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は切抜き画像形成用装置に関する。[Detailed description of the invention] (Industrial application field) The present invention relates to an apparatus for forming cutout images.

(従来技術) スキャナを用いて取込んだ原稿画像データのうち一部だ
けを利用したい場合、例えば人物と背景とからなる画像
データのうち人物のみを取出したい場合がある。
(Prior Art) When it is desired to use only a part of document image data captured using a scanner, for example, there is a case where it is desired to extract only a person from image data consisting of a person and a background.

従来、このような場合は、背景部分を隠蔽するマスクを
形成しておき、このマスクを利用してフィルム露光を行
っている。
Conventionally, in such cases, a mask is formed to hide the background portion, and the film is exposed using this mask.

(発明が解決しようとする問題点) このように画像をフィルム露光するにつきわざわざマス
クを形成し、それをセットしてフィルム露光を行うこと
はかなり煩雑で、熟練を要す仕事であり、マスク等の祠
料費もかかるという問題かあった。
(Problems to be Solved by the Invention) In order to expose an image to film in this way, it is quite complicated to take the trouble to form a mask, set it, and perform film exposure, and it is a task that requires skill. There was also the problem of the shrine fee being charged.

本発明の目的は、」:述の点を考慮してなされたもので
、マスクを用いることなく切抜き画像を容易に取出すこ
とができる装置を提供することをl」的とする。
The object of the present invention has been made in consideration of the above points, and it is an object of the present invention to provide an apparatus that can easily extract a cutout image without using a mask.

(問題点を解決するための手段) 」二部目的達成のため、本発明では、予め取込まれた画
像データをモニタ」二に拡大表示し、この表示画像中の
輪郭線をなぞってその位置データを入力し、この輪郭線
位置データから得られる輪郭線と前記画像を出力するた
めの各走査ラインとの交点を求め、これら交点を連ねて
なる切抜き線を得る装置を提供するものである。
(Means for Solving the Problems) In order to achieve the second objective, the present invention enlarges and displays image data captured in advance on a monitor, and traces the outline in this displayed image to find its position. The present invention provides an apparatus that inputs data, finds intersections between a contour line obtained from this contour line position data and each scanning line for outputting the image, and obtains a cutout line formed by connecting these intersection points.

(作 用) 取込んだ画像データをメモリに格納する。この格納デー
タを間引いて取出しモニタ」二に全体画像表示を行う。
(Function) Stores the captured image data in memory. This stored data is thinned out and taken out and displayed as an entire image on a monitor.

この全体表示画像上の輪郭線の一点を位置入力手段によ
って指定する。この指定された点を中心にして所定範囲
をモニタ上に拡大表示する。この拡大表示画像の輪郭線
を位置入力手段でなぞりつつ輪郭線の位置を入力する。
One point on the contour line on this entire display image is designated by the position input means. A predetermined range is enlarged and displayed on the monitor with this designated point as the center. The position of the contour line is input while tracing the contour line of this enlarged display image with the position input means.

この入力データを輪郭データとしてメモリに格納する。This input data is stored in memory as contour data.

次いで輪郭データを読出しこの輪郭データにより得られ
る輪郭線と画像データを読出ず際の走査線との交点を求
める。これら交点を順次接ぎ合わせていくことにより切
抜きデータが得られる。この切抜きデータをメモリに格
納する。
Next, the contour data is read out, and the intersection point between the contour line obtained from this contour data and the scanning line obtained without reading out the image data is determined. Cutout data is obtained by sequentially joining these intersection points. This cutout data is stored in memory.

これによりメモリには画像データとこの画像データの一
部を取出すための切抜きデータとが格納された訳である
。そこで、この両データを用いることにより画像データ
を切抜くことができる。
As a result, image data and cutout data for extracting a portion of this image data are stored in the memory. Therefore, by using both of these data, it is possible to cut out the image data.

(発明の効果) 画像データと切抜きデータとを適宜組合わせて取出すこ
とにより、例えば人物と背景とからなる画像の場合に人
物のみあるいは背景のみを切抜いて取出すことができ、
従来のようにマスクを用意する等の煩雑な作業を要しな
い。
(Effect of the invention) By appropriately combining and extracting image data and cutout data, for example, in the case of an image consisting of a person and a background, only the person or only the background can be extracted and extracted.
There is no need for complicated work such as preparing masks as in the past.

(実施例) 以下添((1図面を参照して本発明を実施例につき説明
する。
(Examples) The present invention will be described below with reference to the accompanying drawings.

第1図は本発明に係る装置を組込んだレイアウトスキャ
ナの全体構成を示したもので、1はスキャナの走査ドラ
ムであり、周面に原稿が貼付されて画像データが取出さ
れ、色計算回路2により4負債号C,M、 Y、  B
、とされ、さらにAD変換回路3でディジタル化されて
インターフェース4および計算機5を介してメモリ6に
格納される。
FIG. 1 shows the overall configuration of a layout scanner incorporating a device according to the present invention. 1 is a scanning drum of the scanner, a document is attached to the circumferential surface, image data is taken out, and a color calculation circuit is used. 2, 4 debt items C, M, Y, B
, and is further digitized by the AD conversion circuit 3 and stored in the memory 6 via the interface 4 and computer 5.

計算機5にはモニタ14およびマウス15が接続されて
いて、メモリ6の格納画像データを表示し、表示画像の
輪郭を指示することができるようになっており、この輪
郭データをメモリ6に格納することもできる。
A monitor 14 and a mouse 15 are connected to the computer 5 so that the image data stored in the memory 6 can be displayed and the outline of the displayed image can be specified, and this outline data is stored in the memory 6. You can also do that.

また、メモリ6に格納された画像データは、計算機5が
出力インターフェイス7を経て網点発生回路8に与えら
れ網点信号Sが形成される。
Further, the image data stored in the memory 6 is provided by the computer 5 to the halftone dot generation circuit 8 via the output interface 7, so that a halftone dot signal S is formed.

一方、メモリ6に格納されたりんかくデータは計算機5
から線画発生回路9に与えられ網点信号Cおよびマスク
信号が形成される。ここにおいて信号合成回路10には
、網点信号S、網点信号Cおよびマスク信号が与えられ
マスク信号により選一  4 − 択的に網点信号あるいは網点信号Cが露光器ドライブ回
路11に与えらられ露光ドラム12上のフィルムに露光
が行われる。
On the other hand, the link data stored in the memory 6 is stored in the computer 5.
is applied to the line image generating circuit 9 to form a halftone dot signal C and a mask signal. Here, the signal synthesis circuit 10 is supplied with a halftone dot signal S, a halftone dot signal C, and a mask signal, and the halftone dot signal or the halftone dot signal C is selectively given to the exposure device drive circuit 11 according to the mask signal. The film on the exposure drum 12 is exposed to light.

第2図は第1図における信号合成回路コ0の詳細構成の
一例を示したもので、この回路10はこの場合6個のゲ
ート回路10a乃至10fにより構成されている。そし
て、マスク信号MSK  がLの時網点発生回路8から
の網点信号S を露光器ドライブ回路11に与え、M 
S K  がHの時、線画発生回路9からの網点信号C
を露光器ドライブ回路11に与え、スキャナにおける6
本の露光ビームを制御する。このビーム数はスキャナの
機種により異なるがここでは説明の便宜上6本とする。
FIG. 2 shows an example of a detailed configuration of the signal synthesis circuit 0 in FIG. 1, and this circuit 10 is composed of six gate circuits 10a to 10f in this case. Then, when the mask signal MSK is L, the halftone dot signal S from the halftone dot generation circuit 8 is applied to the exposure device drive circuit 11,
When S K is H, the halftone dot signal C from the line drawing generation circuit 9
is applied to the exposure device drive circuit 11, and the 6
Control the book's exposure beam. Although the number of beams varies depending on the type of scanner, it is assumed here that there are six beams for convenience of explanation.

第3図乃至第6図は、具体的な画像データについての切
抜きの処理方法を示すものである。
FIG. 3 to FIG. 6 show a method of cutting out specific image data.

まず第3図はモニタ画面」−の画像を示したもので、説
明の単純化のため輪郭データをp、、p2゜P3および
P4の4点からなるものとしてこれら4点を結ぶ台形を
なす画線を輪郭線とする。ここでは輪郭線が台形画像と
なる例を示している。この輪郭は画像の左下隅を原点と
してP、(X、。
First, Figure 3 shows an image of the monitor screen.For the sake of simplicity, the contour data is assumed to consist of four points p, , p2, P3, and P4, and an image forming a trapezoid connecting these four points is used. Let the line be the outline. Here, an example is shown in which the outline is a trapezoidal image. This contour is defined as P,(X,) with the lower left corner of the image as its origin.

Yl)、P2 (X2.Y2)、P3 (X3゜Y3)
、P4 (X4.Y4)を各頂点とする台形である。そ
して、この画像の各頂点位置情報は原点からX方向、Y
方向に対しての距離(mm)で与えられる。この距離は
後の処理の都合」二、ドツト数に換算する必要があり、
網点当りのドツト数を指示することによってこの換算を
行う。
Yl), P2 (X2.Y2), P3 (X3°Y3)
, P4 (X4.Y4) is a trapezoid with each vertex. Then, each vertex position information of this image is from the origin in the X direction and in the Y direction.
It is given in distance (mm) with respect to the direction. This distance needs to be converted to the number of dots for later processing.
This conversion is done by indicating the number of dots per halftone dot.

いま1つの処理例としてスキャナの出力数が70網点/
 cmであり、ドラム回転方向に対して1網点当り2画
素(1画素6ドツト)駆送りに対して2回転(1回転6
ドツト)で網点を形成するとする。そして、上記4つの
頂点中の2っPl。
As another processing example, the number of scanner outputs is 70 halftone dots/
cm, 2 pixels per halftone dot (6 dots per pixel) in the direction of drum rotation, 2 rotations (6 dots per rotation) in the driving direction.
dots) to form halftone dots. And 2Pl of the above four vertices.

P2につき位置座標をX1=b mm、X2−30+n+n、Y2−40++++aとす
ると、各点P1.P2の露光開始座標は、 となる。ただしに、、に2は円周方向、送り方向に対す
る露光画素密度である。
Assuming that the position coordinates for P2 are X1=b mm, X2-30+n+n, Y2-40++++a, each point P1. The exposure start coordinates of P2 are as follows. However, 2 is the exposure pixel density in the circumferential direction and the feeding direction.

2回転により1網点を形成することがらに一に2=2と
すると、 となる。
If one halftone dot is formed by two rotations and 2=2, then the following equation is obtained.

第4図は」二部絵柄における上記座標により定まる直線
と走査ラインとの位置関係を示している。
FIG. 4 shows the positional relationship between the straight line defined by the above coordinates and the scanning line in the two-part picture.

この直線は−に記2点P1.P2を結んだもので、画像
の輪郭線に相当するものでΩと呼ぶ。そしてこの輪郭線
と交わる走査ラインはスキャナの露光ドラムの走査方向
に相当する。この輪郭線ρと各走査ラインとの各交点は
計算機5で算出されるもので、絵柄の切抜き線に相当す
るものであり、これらの各交点上のドツトが連続して切
抜き線となる。
This straight line is marked with two points P1. It connects P2 and corresponds to the outline of the image, and is called Ω. The scanning line that intersects with this contour line corresponds to the scanning direction of the exposure drum of the scanner. Each intersection between the contour line ρ and each scanning line is calculated by the computer 5 and corresponds to a cutout line of the picture, and the dots on each of these intersections successively form the cutout line.

他の点p3.p4についても上述の演算を行う。Other points p3. The above calculation is also performed for p4.

第5図(a)および(b)は、絵柄ならびに走査ライン
に関する網点信号S、Cおよびマスク信号を示したもの
である。同図(a)において、gは第4図における直線
を指し、この切抜き線Ωと交差する走査ラインを想定し
たとき網点信号S。
FIGS. 5(a) and 5(b) show halftone dot signals S, C and mask signals regarding the picture pattern and scanning line. In FIG. 4(a), g indicates the straight line in FIG. 4, and assuming a scanning line that intersects with this cutout line Ω, the halftone dot signal S is obtained.

Cおよびマスク信号は第5図(b)に示す通りとなる。The C and mask signals are as shown in FIG. 5(b).

すなわち、走査線が絵柄上にある部分に対応してマスク
信号が形成され、このマスク信号がLのとき網点信号S
が取出され、Hのとき網点信号Cが取出される。
That is, a mask signal is formed corresponding to the part where the scanning line is on the pattern, and when this mask signal is L, the halftone dot signal S
is taken out, and when it is H, a halftone dot signal C is taken out.

第6図(a)、  (b)は本発明による処理内容を示
すため網点発生回路の出力に基く画像(同図(a))と
信号合成回路による処理を経たデータに基く画像(同図
(b))とを対比して示したものである。
6(a) and 6(b) show an image based on the output of the halftone dot generation circuit (FIG. 6(a)) and an image based on data processed by the signal synthesis circuit (FIG. 6(a)) to show the processing contents according to the present invention. (b)) is shown in comparison.

いま切抜き線ρか図におけるように左下から右」二に向
けて斜めに延びるものであり、左下方延長上に点P1が
、右上方延長」二に点P2があるとし、破線で示すドツ
トで構成する切抜き線ρの右側の絵柄を再現するものと
する。切抜き線gが絵柄のりんかくをなすことが最も望
ましい。そして、この切抜き線ρの左側にはドツトがな
いようにすることが望ましい。そこで、例えば切抜き線
Ωと重なるドツトは黒とし、切抜き線Ωよりも右側にあ
るドツトも黒とするが、左側にあるドツトは白とする。
The cutout line ρ extends diagonally from the lower left to the right as shown in the figure, and the point P1 is on the lower left extension and the point P2 is on the upper right extension, and the dot shown by the broken line is The pattern on the right side of the constituent cutout line ρ shall be reproduced. It is most desirable that the cutout line g forms a link to the picture. It is desirable that there be no dots on the left side of this cutout line ρ. Therefore, for example, dots that overlap the cutout line Ω are made black, dots on the right side of the cutout line Ω are also made black, but dots on the left side are made white.

この結果第6図(a)と同(b)との対比から明らかな
ように、第6図(a)におけるように切抜き線βからは
み出した部分を有する絵柄が第6図(b)におけるよう
に切抜き線ρからのはみ出し部分を殆んど含まない絵柄
となる。
As a result, as is clear from the comparison between Figure 6(a) and Figure 6(b), the pattern with the part protruding from the cutout line β as in Figure 6(a) is different from the pattern in Figure 6(b). This results in a pattern that contains almost no protruding parts from the cutout line ρ.

このような処理は他のりんかくについても同様に行われ
る。したがって画像のりんかくにっきドラl−1,11
位ではあるが理想に近づけた処理が行われ、切抜き画像
がきれいに仕上りとなる。
Such processing is similarly performed for other links. Therefore, the image link Nikkidora l-1, 11
Although the processing is close to the ideal, the cropped image is finished beautifully.

第7図(a)、  (b)は具体的な画像についての画
像処理操作内容を示すための図であり、同図(a)に原
画像を、同図(b)にその部分拡大による輪郭位置デー
タの入力方法を示したものである。
FIGS. 7(a) and 7(b) are diagrams showing the contents of image processing operations for specific images. FIG. 7(a) shows the original image, and FIG. This shows how to input location data.

予めメモリ6に格納された原画像は、中央に人物、左に
山岳、右に樹木という内容のものであり、このうち人物
像を切抜くとする。切抜き作業前、モニタ14にはメモ
リ6からの画像データを間引いて読出すことにより全体
画像が表示される。この全体画像中の特定点P。をマウ
ス15により指示するとこのりんかく上の一点点Poを
中心にした画像データがメモリ7からモニタ14に対し
間引きなしでつまり画素対応で与えられる。つまりモニ
タ14には第7図(b)のような拡大画像が表示される
The original image stored in the memory 6 in advance has a person in the center, a mountain on the left, and a tree on the right, and it is assumed that the image of the person is to be cut out. Before the cutting operation, the entire image is displayed on the monitor 14 by thinning out and reading out the image data from the memory 6. A specific point P in this entire image. When is specified with the mouse 15, image data centered on one point Po on this link is provided from the memory 7 to the monitor 14 without thinning out, that is, in pixel correspondence. In other words, an enlarged image as shown in FIG. 7(b) is displayed on the monitor 14.

この拡大画像は、この場合人物の右ひじ部分であり、点
P。がひじの曲げ頂点に相当する。この拡大表示画像に
おける画像の輪郭に沿ってマウスを用いることにより黒
丸で示すような位置の入力を行う。
In this case, this enlarged image is the right elbow of the person, and is a point P. corresponds to the bending apex of the elbow. By using the mouse along the outline of this enlarged display image, the position indicated by the black circle is input.

拡大画像は全体画像中の極く一部に過ぎないから、拡大
画像中の位置人力が終了したらその隣接部分の位置入力
を行う。それには拡大画像を表示しているモニタ14の
画像外の何れかの部分を指示して画像を移動さぜる。つ
まり図示の8つの矢印の何れかの方向を選ぶ。これによ
り、次の画像が現われるから同様に位置入力を行う。そ
して輪郭が1つの閉ループとなるまで操作を繰返す。
Since the enlarged image is only a small part of the entire image, when the manual positioning in the enlarged image is completed, the position of the adjacent part is input. To do this, the user moves the image by pointing to any part outside the image on the monitor 14 that is displaying the enlarged image. In other words, choose one of the eight arrow directions shown. As a result, the next image appears, and the position is input in the same way. The operation is then repeated until the contour becomes one closed loop.

閉ループが完結したら、人物の右腕と胴体との間のルー
プ部分についても同様に入力する。
Once the closed loop is completed, input the loop portion between the person's right arm and torso in the same way.

この結果、メモリ6には輪郭の位置データが格納された
ことになる。この輪郭データがあれば第4図に示した手
法により輪郭線か得られ、この輪郭線と同じく第4図に
示した走査ラインとの交点を求めることができる。この
交点の連なりか切抜き線である。したがってこのデータ
を切抜きデータとしてメモリ6に格納する。
As a result, the contour position data is stored in the memory 6. If this contour data is available, a contour line can be obtained by the method shown in FIG. 4, and the intersection of this contour line and the scanning line shown in FIG. 4 can also be found. This series of intersections is a cutout line. Therefore, this data is stored in the memory 6 as cutout data.

第8図は第7図(a)、  (b)により説明した操作
内容をフローチャー1・で示したものである。
FIG. 8 shows the operation contents explained in FIGS. 7(a) and 7(b) in flowchart 1.

操作内容は既に説明済みであるから、繰返すことは避け
、かいつまんで説明する。同図において、一重の線で囲
まれたボックスは装置の動作、二重の線で囲まれたボッ
クスはオペレータによる人為的操作を示している。
Since the operation contents have already been explained, I will avoid repeating them and will briefly explain them. In the figure, a box surrounded by a single line represents the operation of the device, and a box surrounded by a double line represents an operation performed by the operator.

まずステップS1によりメモリ6中のある画像を指定し
、この指定画像の全体画像をモニタ14」二に表示する
(ステップS2)。次いでりんかく上の一点P。を指定
してその部分の拡大画像をモニタ14」二に表示する(
ステップS3→S4)。
First, a certain image in the memory 6 is specified in step S1, and the entire image of this specified image is displayed on the monitor 14 (step S2). Next, one point P on the link. Specify and display an enlarged image of that part on monitor 14'' (
Step S3→S4).

この拡大画像上の輪郭をマウスでなぞりながら位置入力
する(ステップS5)。これを表示画像を移動しながら
全輪郭が終了するまで行う(ステップS7)。これによ
り得られた輪郭データをメモリ6に格納しくステップS
8)、輪郭データから得られれる輪郭線と走査ラインと
の交点を求めて(ステップS9)その結果得られた切抜
きデータをメモリ6に格納する(ステップ5IO)。
A position is input by tracing the outline on this enlarged image with a mouse (step S5). This is performed while moving the displayed image until all contours are completed (step S7). In step S, the contour data obtained by this is stored in the memory 6.
8) Find the intersection between the contour line obtained from the contour data and the scanning line (step S9), and store the resulting cutout data in the memory 6 (step 5IO).

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係る装置を絹込んだレイアウトスキャ
ナの全体構成を示すブロック線図、第2図は第1図の装
置における信号合成回路の詳細構成を示すブロック線図
、第3図は割付台紙上の割(=J画像を示す説明図、第
4図は割付画像を構成する直線と走査ラインとの関係を
示す説明図、第5図(a)および(b)は絵柄ならびに
走査ラインに関する出力画像信号およびマスク信号の説
明図、第6図(a)、  (b)は本発明による処理内
容の説明図、第7図(a)、  (b)は具体的画像を
用いた本発明装置による処理内容の説明図、第8図は同
処理内容のフローチャートである。 6・・・メモリ、14・・・モニタ、15・・・マウス
。 P・・・点、ρ・・・線。 出願人代理人  佐  藤  −雄 第7図 手続補正書 昭和61年12月 8 日
FIG. 1 is a block diagram showing the overall configuration of a layout scanner incorporating the device according to the present invention, FIG. 2 is a block diagram showing the detailed configuration of the signal synthesis circuit in the device of FIG. 1, and FIG. An explanatory diagram showing the split (=J image) on the layout mount, Figure 4 is an explanatory diagram showing the relationship between the straight lines and scanning lines that make up the layout image, and Figures 5 (a) and (b) are the patterns and scanning lines. FIGS. 6(a) and 6(b) are explanatory diagrams of the processing contents according to the present invention, and FIGS. 7(a) and (b) are illustrations of the output image signal and mask signal according to the present invention using specific images. An explanatory diagram of the processing contents by the apparatus, and FIG. 8 is a flowchart of the same processing contents. 6...Memory, 14...Monitor, 15...Mouse. P...Point, ρ...Line. Applicant's agent: Osamu Sato Figure 7 procedural amendment December 8, 1986

Claims (1)

【特許請求の範囲】 処理すべき画像データを含むデータが格納されるメモリ
と、 前記画像データを含むデータが与えられて表示するモニ
タと、 このモニタ上の所望点を指示するよう操作されることに
より前記画像データにおける切抜くべき画像の輪郭デー
タを入力するためおよび操作メニューを指示するための
入力手段と、 前記メモリの格納データを前記モニタを与えること、前
記入力手段からの指示に応じて前記モニタの表示内容を
制御すること、前記モニタ上で前記入力手段により与え
られる輪郭データを前記メモリに与えること、および前
記メモリに格納された輪郭データを用いて輪郭線を求め
この輪郭線と前記画像データを出力するための各走査ラ
インとの交点を求めて前記メモリに与えることを行う装
置とをそなえた切抜き画像形成用装置。
[Scope of Claims] A memory in which data including image data to be processed is stored; a monitor for receiving and displaying data including the image data; and a monitor operable to indicate a desired point on the monitor. an input means for inputting contour data of an image to be cropped in the image data and for instructing an operation menu; supplying data stored in the memory to the monitor; controlling display content on a monitor; providing contour data provided by the input means on the monitor to the memory; determining a contour line using the contour data stored in the memory; and calculating the contour line and the image. A device for forming a cutout image, comprising a device for determining an intersection point with each scanning line for outputting data and providing it to the memory.
JP61262426A 1986-11-04 1986-11-04 Clipped image forming device Pending JPS63116568A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61262426A JPS63116568A (en) 1986-11-04 1986-11-04 Clipped image forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61262426A JPS63116568A (en) 1986-11-04 1986-11-04 Clipped image forming device

Publications (1)

Publication Number Publication Date
JPS63116568A true JPS63116568A (en) 1988-05-20

Family

ID=17375617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61262426A Pending JPS63116568A (en) 1986-11-04 1986-11-04 Clipped image forming device

Country Status (1)

Country Link
JP (1) JPS63116568A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965678A (en) * 1987-03-03 1990-10-23 Canon Kabushiki Kaisha Area designation apparatus in image processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5667475A (en) * 1979-11-06 1981-06-06 Toshiba Corp Picture information editing device
JPS61150573A (en) * 1984-12-25 1986-07-09 Dainippon Screen Mfg Co Ltd Method for copying picture

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5667475A (en) * 1979-11-06 1981-06-06 Toshiba Corp Picture information editing device
JPS61150573A (en) * 1984-12-25 1986-07-09 Dainippon Screen Mfg Co Ltd Method for copying picture

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965678A (en) * 1987-03-03 1990-10-23 Canon Kabushiki Kaisha Area designation apparatus in image processing system

Similar Documents

Publication Publication Date Title
JPH08299630A (en) Embroidery data processor
JPH0640219B2 (en) How to create cutout mask data
JPS63116568A (en) Clipped image forming device
JP2001282870A (en) Excecution drawing preparation support method
JPH0812692B2 (en) Image processing device
JP2779522B2 (en) Polygon input method
JP2525495B2 (en) Original image restoration processing method of image processing system
JPS61264962A (en) Picture input device
JPS63241625A (en) Line drawing input device
JP3384873B2 (en) Image display system and image display method
JP3026093B2 (en) Image correction method and apparatus
JP3828588B2 (en) CAD design equipment
JPH0661089B2 (en) Two-dimensional representation method of three-dimensional object
JP2813818B2 (en) Layouter for flyers and catalogs
JPH10188019A (en) Method and device for processing image
JP3018379B2 (en) Pattern trimming alignment method
JPH1063235A (en) Image processor
JP3075111B2 (en) Image cropping device and layout scanner
JPH02100768A (en) Illustration producing device
JPH0457271B2 (en)
JP2657496B2 (en) Character image processing device
JP2805352B2 (en) Picture cutting device
JPH02127786A (en) Two-dimensional expressing method for three-dimensional object
JPH06301751A (en) Editing and display method for preparing three-dimensional data and device therefor
JPH07230482A (en) Plotting method for cad drawing