JP2577276B2 - Line break detection method - Google Patents
Line break detection methodInfo
- Publication number
- JP2577276B2 JP2577276B2 JP25836090A JP25836090A JP2577276B2 JP 2577276 B2 JP2577276 B2 JP 2577276B2 JP 25836090 A JP25836090 A JP 25836090A JP 25836090 A JP25836090 A JP 25836090A JP 2577276 B2 JP2577276 B2 JP 2577276B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- image
- line
- pixel
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
- Preparing Plates And Mask In Photomechanical Process (AREA)
Description
この発明は、台紙上に作成された版下文字、イラス
ト、ロゴ、図形等を含む画像(以下、「版下画像」と呼
ぶ。)の2値画像データに基づいて、版下画像の線切れ
部を検出する方法に関する。The present invention is based on binary image data of an image (hereinafter, referred to as an "article image") including an underprint character, an illustration, a logo, a graphic, and the like created on a mount, and cuts off a line of the underimage. And a method for detecting a part.
カラー印刷の刷版を作成する製版工程においては、文
字や線画の原画となる版下台紙が作成される。版下台紙
は、写植文字や製造された罫線が最終印刷物と同寸法、
同品質で配置されたものである。版下台紙にはその後の
工程に関する指示も記入されており、製版工程の指示書
としての役割も有している。 多くの場合、画像内の一部の領域を所望の一様な色で
塗りつぶすための処理(平網伏せ)が製版工程で行なわ
れる。近年の画像処理システムでは、これまで手作業で
行なっていた平網伏せを自動的に行なうものである。こ
のようなシステムでは、版下画像の2値画像データを画
像読み取り装置で読み取り、さらに画像処理装置によっ
て版下画像内の所望の閉領域を所望の色で塗りつぶすこ
とにより、平網伏せを行なっている。 このような「閉領域内の塗りつぶし処理」を行なう場
合に、版下画像内で本来閉領域を形成すべき線画が「線
切れ」を起こしている場合がある。「線切れ」の原因
は、原画(版下台紙)上に存在する線切れや、画像読み
取り装置で読み取る際の読み取り不良などである。 従来は、線切れ部の位置をオペレータがCRTに表示さ
れた版下画像内から直接探しだして、切れた線をつなげ
るように版下画像を修正していた。In a plate making process for making a printing plate for color printing, an underlaying board that is an original of characters and line drawings is created. The underlaying board has the same size as the final printed matter, with the typesetting and manufactured ruled lines.
They are arranged with the same quality. Instructions for the subsequent steps are also written on the underlaying sheet, and also serve as instructions for the plate making process. In many cases, a process for filling a part of the area in an image with a desired uniform color (flat screen refining) is performed in the plate making process. In recent image processing systems, flat screen binding, which has been performed manually until now, is automatically performed. In such a system, binary image data of a composition image is read by an image reading device, and a desired closed area in the composition image is filled with a desired color by an image processing device, thereby performing a flat-screening. I have. When such a “painting process in a closed area” is performed, a line drawing that should originally form a closed area in the composition image may have “line breakage”. The cause of the “line break” is a line break existing on the original image (underlaying board), a reading error when reading by the image reading device, and the like. Conventionally, the operator has directly searched for the position of a broken line portion from the composition image displayed on the CRT, and has corrected the composition image so as to connect the broken lines.
しかし、線切れ部の幅は1画素から数画素程度のこと
が多いため、オペレータがCRT上で発見することが困難
であり、また、線切れ部が多数存在する場合には、これ
らをすべて発見して修正するのにかなりの処理時間を要
するという問題があった。 画像内の線切れ部を発見する方法としては、例えば、
特開昭61−139892号公報に開示されているような、2値
画像のベクトル化技術を利用したものも提案されてい
る。 線画を処理するための画像処理装置(以下、「線画処
理装置」と呼ぶ。)は、画素ごとに2値画像データのレ
ベルを切り換えるという比較的単純な画像処理を行なう
が、一方、2値画像のベクトル化を行なうベクトルデー
タ処理は比較的複雑な処理であり、その処理装置も複雑
で比較的高価である。従って、線画処理装置にベクトル
データ処理の機能を付加すると、線画処理装置のコスト
が大幅に増大してしまうという問題が生じる。 また、ベクトル化技術を利用した方法によっても線切
れ部を100%検出できるわけではないので、最終的にオ
ペレータが線切れ部の有無を確認することが多く、全体
の処理時間が必ずしも短縮されないという問題もあっ
た。 この発明は、従来技術における上述の課題を解決する
ためになされたものであり、複雑なベクトル化技術を利
用することなく、画像内の線切れ部を容易に発見できる
線切れ部検出方法を提供することを目的とする。However, since the width of line breaks is often from one pixel to several pixels, it is difficult for the operator to find them on the CRT, and when there are many line breaks, they are all found. There is a problem that it takes a considerable processing time to correct the error. As a method of finding a broken line in an image, for example,
Japanese Patent Application Laid-Open No. 61-139892 discloses a technique using a vectorization technique of a binary image. An image processing apparatus for processing a line image (hereinafter, referred to as a "line image processing apparatus") performs relatively simple image processing in which the level of binary image data is switched for each pixel. Is a relatively complicated process, and its processing device is also complicated and relatively expensive. Therefore, when the function of vector data processing is added to the line drawing processing device, there is a problem that the cost of the line drawing processing device is greatly increased. In addition, since line breaks cannot always be detected 100% by a method using vectorization technology, the operator often checks whether or not there is a line break, and the overall processing time is not necessarily shortened. There were also problems. SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem in the related art, and provides a line break detection method capable of easily finding a line break in an image without using a complicated vectorization technique. The purpose is to do.
上述の課題を解決するため、請求項1に記載した線切
れ部検出方法は、 (a)表示手段に表示された線画画像内において処理対
象領域を指定する工程と、 (b)前記処理対象領域を複数の分割領域に分割する工
程と、 (c)前記複数の分割領域ごとに、各画素に割り当てら
れた画素値に基づいて、異なる画素値の境界線によって
分離された互いに独立した領域部分を認識するととも
に、前記互いに独立した領域部分に異なる色を割当て、
割当てられた色で各領域部分を塗り分けつつ前記処理対
象領域の画像を表示手段に表示する工程と、 (d)前記工程(c)で表示された画像の線画部分であ
って、異なる色で表示された部分を表示することによ
り、線画部分に存在する線切れ部を検出する工程と、 を備える。 前記工程(c)は、 前記処理対象領域を、複数の画素でそれぞれ構成され
る所定形状の画素ブロックに分割し、 各画素ブロック内の代表画素として抽出したい画素の
色の優先度を予め定めておき、 当該優先度に従って、各画素ブロックから代表画素を
抽出し、 抽出された代表画素の集合として表わされる縮小画像
を生成して表示手段に表示する、 工程を含むことが好ましい。 さらに、工程(a)は、 線画画像内の互いに独立した領域部分に異なる色を割
り当てるとともに、割当てられた色で各領域部分を塗り
分けつつ前記線画画像を表示手段に表示し、 閉領域を構成すべき線画要素の内部の色と外部の色と
を比較し、 前記内部の色と外部の色とが同じである線画要素を含
むように処理対象領域を指定する、 工程を含むようにしてもよい。 なお、ここで「線画」とは、一般に均一な濃度の線お
よび面で描かれた画像を意味しており、図形などの画像
とともに文字の画像も含む用語である。In order to solve the above-mentioned problem, a line break detecting method according to claim 1 includes: (a) a step of specifying a processing target area in a line drawing image displayed on a display means; and (b) the processing target area. Is divided into a plurality of divided regions, and (c) for each of the plurality of divided regions, an independent region portion separated by a boundary line of a different pixel value based on a pixel value assigned to each pixel. Recognizing and assigning different colors to the mutually independent areas,
(D) displaying the image of the processing target area on the display means while separately painting each area portion with the assigned color; and (d) a line drawing part of the image displayed in the step (c), which is different in color. Displaying the displayed portion to detect a line break existing in the line drawing portion. In the step (c), the processing target area is divided into pixel blocks each having a predetermined shape composed of a plurality of pixels, and a priority of a color of a pixel to be extracted as a representative pixel in each pixel block is determined in advance. Preferably, the method further includes a step of extracting a representative pixel from each pixel block according to the priority, generating a reduced image represented as a set of the extracted representative pixels, and displaying the reduced image on a display unit. Further, in the step (a), different colors are assigned to mutually independent region portions in the line drawing image, and the line drawing image is displayed on the display means while each of the region portions is painted with the assigned color, thereby forming a closed region. Comparing the internal color and the external color of the line drawing element to be processed, and designating the processing target area so as to include the line drawing element having the same internal color and external color. Here, the term “line drawing” generally means an image drawn with lines and planes of uniform density, and is a term that includes not only images such as figures but also character images.
互いに独立した領域部分に異なる色を割り当てた画像
を表示すれば、線切れ部が存在する線画部分では線切れ
部の前後が異なる色で表示される。従って、異なる色が
付されている線画部分を見いだすだけで、線切れ部を容
易に検出できる。 処理対象領域を種々の色で塗り分けて表示する際に、
縮小画像として表示されることが多い。縮小画像を生成
するために画素ブロック内の代表画素を抽出する方法と
して、色の優先度を予め定めておき、この優先度に従っ
て各画素ブロックの代表画素を抽出すれば、細い線画で
あっても縮小画像上で比較的太い線画として表わされ
る。従って、線画部分の色の変化を見分けやすくするこ
とができ、線切れ部をより容易に検出することができ
る。 また、処理対象領域を指定する前に、線画画像全体に
ついて独立した領域部分を異なる色に塗り分けて表示し
たとき、閉領域を構成すべき線画要素の内部の色と外部
の色とが同じであれば、その線画要素のどこかに線切れ
があることがわかる。従って、その線画要素を含むよう
に処理対象領域を指定すれば、線切れ部を含む領域のみ
を処理の対象として指定することができ、線切れ部検出
処理を効率的に行なうことができる。If an image in which different colors are assigned to mutually independent area portions is displayed, the line drawing portion where the line break exists is displayed in different colors before and after the line break. Therefore, a line break can be easily detected only by finding a line drawing portion having a different color. When displaying the processing target area in different colors,
Often displayed as reduced images. As a method of extracting representative pixels in a pixel block in order to generate a reduced image, priorities of colors are determined in advance, and the representative pixels of each pixel block are extracted according to the priorities. It is represented as a relatively thick line drawing on the reduced image. Accordingly, it is possible to easily recognize a change in the color of the line drawing portion, and it is possible to more easily detect a broken line portion. In addition, before specifying the processing target area, when the independent area portion of the entire line drawing image is displayed in a different color and displayed, the color of the inside of the line drawing element which should form the closed area is the same as the external color. If there is, it is understood that there is a line break somewhere in the line drawing element. Therefore, if the processing target area is specified so as to include the line drawing element, only the area including the line break can be specified as the processing target, and the line break detection processing can be performed efficiently.
A.装置の構成 第1図は、本発明の一実施例を適用して画像の線切れ
部検出処理を行なう画像処理装置の概略構成を示すブロ
ック図である。この画像処理装置は、次のような構成要
素を有している。 (a)画像入力装置1:版下画像を読み取って、その2値
画像を得る装置であり、平面型スキャナなどで構成され
る。 (b)ランレングス圧縮部2:画像入力装置1によって読
み取られた2値画像のデータをランレングス圧縮して、
ランレングスデータを作成する。 (c)画像メモリ31,32:ランレングス圧縮部2や後述す
るCPU部6から与えられる版下画像のランレングスデー
タを記憶するメモリ。第1の画像メモリ31は、版下画像
のランレングスデータを記憶するとともに、最終的に線
切れ部が修正された版下画像のランレングスデータを記
憶する。第2の画像メモリ32は、線切れ部の検出時にお
いて一時的に使用するメモリであり、後述するように、
オペレータによって指定された画像領域のデータを記憶
する。 (d)ランレングス伸長部4:画像メモリ31,32から与え
られるランレングスデータをビットマップデータに展開
する。 (e)カラーモニタ部5:ランレングス圧縮部2やCPU部
6から与えられる画像データを表示するための装置であ
り、次の構成要素を含んでいる。 表示メモリ51:表示する画像のビットマップデータを記
憶するメモリ。 カラーパレット52:表示メモリ51から与えられる画像デ
ータに含まれている色番号(後述する)を、R(レッ
ド),G(グリーン),B(ブルー)の濃度信号に変換す
る。色番号は、版下画像の各画像領域ごとに指定されて
いる。 カラーモニタ53:カラー画像を表示する。 表示制御部54:カラーモニタ53における画像の表示の制
御を行なう。また、カラーパレット52に収納する色情報
(色番号と各3原色の濃度信号の対応を示す情報)を書
き換えるとともに、カラーモニタ53上の表示カーソルの
位置をマウスの動きに対応させるように制御する。 (f)CPU部6:画像処理装置全体の制御および必要な演
算を行なうための装置であり、次の構成要素を有する。 制御演算部61:画像処理装置の各部の制御、および、後
述する画像領域の抜き出し、分割、領域分離、特殊低密
度化処理等の演算を行なう。 補助メモリ62:各種の処理の過程で必要となる一時的な
情報を記憶するためのメモリ。 マウス63:カラーモニタ53に表示された画像上の処理対
象領域等を指定する際に用いられる。 (g)画像出力装置7:線切れ部を修復した画像をフィル
ムなどの記憶媒体に記録する。 B.処理の手順 第21図は、線切れ部の検出処理とつなぎ処理の手順を
示すフローチャートである。 ステップS1では、まず台紙上に文字や図形を配置して
版下を準備する。第3図は、版下BCの例を示す平面図で
ある。この版下BCは、白色の台紙BSの上に正方形と円形
の図形が配置され、これらの図形の下部にA,B,Cなどの
文字が配置されている。これらの図形や文字は黒色で描
かれている。 ステップS2では、版下BCの2値画像データDbを画像入
力装置1で読み取る。この2値画像データDbは、版下画
像内の各画素が黒か白かを示すデータである。 ステップS3では、2値画像データDbが画像入力装置1
からランレングス圧縮部2に送られ、ここで、ランレン
グスデータDrに変換される。 第4A図と第4B図とは、ランレングスデータDrの構成を
示すための説明図である。 第4A図は、版下画像のうち、文字Aの部分のみを拡大
して示している。図において、鉛直方向を主走査方向Y,
水平方向を副走査方向Xと仮定している。また、台紙上
の主走査方向Yの座標範囲は、0から150まであると仮
定している。 第4B図は、この版下画像についての副走査座標xiにお
けるランレングスデータDriの構成を示している。ラン
レングスデータDriは、4つの連続したデータDDi1〜DDi
4(以下、「単位ランレングスデータ」と呼ぶ。)から
構成されている。各単位ランレングスデータDDi1〜DDi4
はそれぞれ32ビットで構成されており、最上位1ビット
はその単位ランレングスデータが黒か白かを示す白黒指
定データDwbであり、次の15ビットは後述するシステム
色の番号を示すシステム色データDsc、下位の16ビット
はその単位ランレングスの開始点の主走査座標を示す座
標データDrcになっている。 第4A図に示すように、副走査座標xiでは、主走査座標
Yが0から99までの区間が白色、100から119までの区間
が黒色、120から150までの区間が白色である。3つの単
位ランレングスデータDDi1〜DDi3は、上記の3つの区間
の開始点の主走査座標と、その区間が白色か黒色かを示
している。また4つめの単位ランレングスデータDDi4の
主走査座標の値は、最大値(=150)となっており、こ
の主走査線に関するランレングスデータが終了したこと
を示している。なお、この時点ではシステム色が決定さ
れていないので、ランレングスデータの中のシステム色
データDscは特に意味のない値となっている。 以上のようにして得られたランレングスデータDrは、
ランレングス圧縮部2から第1の画像メモリ31に供給さ
れ、記憶される。また、このランレングスデータDrに基
づいて、第3図の画像がカラーモニタ53に表示される。
ただし、ここで表示される画像は黒白画像である。 ステップS4では、版下画像全体について領域分離処理
が行なわれる。領域分離処理とは、黒色部と白色部の境
界線によって互いに分離された互いに独立の領域を区別
し、区別された各領域に異なる番号(システム色番号)
Nsを割り当てる処理のことを言う。第3図の例では、矩
形の黒色部と、円形の黒色部と、A,B,Cなどの文字の黒
色部と、矩形や円形の図形の周囲の白色部(台紙の下地
の領域)と、各図形の内部の各白色部と、各文字の内部
の各白色部とに領域分けされる。 なお、各分離領域に割り当てられる番号をシステム色
番号と呼ぶのは、この番号が制御演算部61によって自動
的に与えられる番号であり、色を表わす番号としても使
えるからである。なお、領域分離処理の詳細は、さらに
後述する。 領域分離処理後の画像は、カラーモニタ53に表示され
る。この際、各システム色番号Nsをカラーパレット52で
互いに異なる色に変換し、各分離領域を異なる色で表示
する。 例えば、円図形Cに線切れ部が無ければ、円図形Cの
内部と外部とは、異なる色で表示される。ところが、図
円形Cに線切れ部があると、その内部と外部とが同じ領
域とされるので、同じ色で表示される。従って、オペレ
ータがカラーモニタ53に表示されたカラー画像を観察
し、内部領域の色と外部領域の色とが同じになっている
図形を探すことにより、線切れ部を有する図形を容易に
発見することができる。 ステップS5において、オペレータがカラーモニタ53を
観察した結果、線切れ部がどこかに(例えば図円形C
に)あることが確認されると、ステップS6以降の処理が
行なわれ、線切れ部の位置の検出と、つなぎ処理とが行
なわれる。 まず、ステップS6では、オペレータが線切れ部の検出
処理を行なう領域(以下、「処理対象領域」と呼ぶ。)
PRを版下画像の上で指定し、処理対象領域PRの画像デー
タを第2の画像メモリ32に記憶する。 第5A図に示すように、処理対象領域PRは矩形の領域で
あり、2つの頂点P1,P2のそれぞれから主走査方向Xと
副走査方向Yとにそれぞれ平行に引いた辺を有してい
る。カラーモニタ53に表示された版下画像において、オ
ペレータがマウス63を用いて2つの頂点P1,P2の位置を
指定すると、処理対象領域PR内の画像の画像データが第
1の画像メモリ31から抜き出されて第2の画像メモリ32
に記憶される。なお、第1の画像メモリ31には、もとの
版下画像の画像データがそのまま保存されている。第5A
図には、抜き出された処理対象領域PRの画像を拡大して
いる。 ステップS6ではさらに、オペレータが処理したい線画
要素(第5A図では円図形C)の表示色番号Ndを指定す
る。表示色番号Ndとは、画像をカラーモニタ53に表示す
る際の色を示す番号であり、前述のシステム色番号とは
独立に与えられる番号である。版下画像では、黒色と白
色とが表示色である。例えば、円図形Cの表示色を指定
する際には、表示色番号Ndとして黒色を示す番号(例え
ば5)を指定する。表示色の指定は、例えば表示色のメ
ニューをカラーモニタ53上に表示し、マウス63を用いて
多数の表示色のうちから一色を選ぶことにより行なう。 次のステップS7〜S9は、制御演算部61が自動的に行な
う処理であり、処理対象領域PR内の図円形Cにある線切
れ部を見やすく表示するための処理である。 ステップS7では、処理対象領域PRが副走査方向Xに2
等分される。第5A図には、分割の境界線BLと、分割され
た2つの分割処理領域PR1,PR2を示している。処理対象
領域PRの頂点P1,P2の座標をそれぞれ(X1,Y1),(X2,Y
2)とすれば、分割境界線BLは、次の式で表わされる。 X=(X1+X2)/2 処理対象領域PRはこのように分割する理由については
後述する。 ステップS8では、2つの分割処理領域PR1,PR2のそれ
ぞれについて、前述と同様の領域分離処理が行なわれ
る。第5B図は、このステップの処理で分離された領域R1
〜R6を示している。各分離領域R1〜R6には、システム色
番号Nsが、例えば1〜6まで順番に割り当てられる。 円図形Cに線切れ部が無ければ、各分割処理領域PR1,
PR2の円図形Cの線画部分はそれぞれ1つの分離領域と
区分され、1つのシステム色番号Nsが割り当てられるだ
けである。ところが、第5B図に示すように、円図形Cに
は2つの線切れ部CP1,CP2があるので、各分割処理領域P
R1,PR2内において、円図形Cの線画部分がそれぞれ2つ
の分離領域R2,R3およびR5,R6にそれぞれ分離され、これ
らの分離領域に異なるシステム色番号Nsが割り当てられ
る。 各分離領域R1〜R6に割り当てられたシステム色番号Ns
は、ランレングスデータDr内のシステム色データDsc
(第4B図参照)に書込まれる。そして、そのランレング
スデータDrは、第2の画像メモリ32に記憶される。 この時、第6図に示すように、各システム色番号Nsと
表示色番号Ndとの対応を示すシステム色テーブルSCTが
作成される。システム色テーブルSCTにおいて、線画部
分に相当する分離領域R2,R3,R5,R6には線画部分の表示
色(黒色)を示す表示色番号Nd=5が登録され、台紙の
下地に相当する分離領域R1,R4にはその表示色(白色)
を示す表示色番号Nd=1が登録される。 なお、処理対象領域PRを2つに分割するのは、線切れ
部が1つしか存在しない場合にも、その位置を容易に検
出できるようにするためである。処理対象領域PRを分割
しないで領域分離の処理を行なうと仮定すると、円図形
Cに線切れ部が1つ(例えばCP1のみ)しか存在しない
場合には、円図形C全体が1つの分離領域とされてしま
い、1つのシステム色で表示されるので、線切れ部CP1
をカラーモニタ53上で見つけだすことが困難になる。一
方、上述のように、処理対象領域PRを2つに分割してお
けば、分割境界線BLで円図形Cが2つに分割されている
ので、線切れ部が1つしかない場合にも、線切れ部の前
後の線画部分が互いに異なる領域として区別され、異な
る色で表示されることになる。なお、線切れ部が分割境
界線BL上にある場合の対策は後述する。 ステップS9では、処理対象領域PRの画像(第5B図)の
低密度化を行なう。低密度化とは、一般に、モニタなど
に画像を表示するために、画像内の画素数を減少させて
縮小画像を得る処理をいい、いわゆる間引き処理も低密
度化の一種である。この実施例では、間引き処理が実行
されるものとする。すなわち、例えば2x2の画素ブロッ
クが間引きされて1つの画素にされる。この際、、2x2
画素ブロック内の所定位置の画素(例えば左上の画素)
の表示色番号Ndとシステム色番号Nsとが、間引き後の画
素の表示色番号Ndとシステム色番号Nsとして採用され
る。 低密度化された処理対象領域PRの画像データ(ランレ
ングスデータ)は、制御演算部61から第2の画像メモリ
32に与えられて記憶される。 また、低密度化された画像データはカラーモニタ部5
に供給され、低密度化によって生成された縮小画像(第
5C図参照)が、カラーモニタ53に表示される。この際、
システム色番号Nsに応じて、カラーパレット52が各分離
領域R1〜R6を互いに異なる色に塗り分け、塗り分けられ
た画像がカラーモニタ53に表示される。 ステップS10では、オペレータがカラーモニタ53上の
画像(第5C図)を目視により検査し、分割境界線BLと線
画(円図形C)との交点部分以外のところにおいて、線
画の色が変化している部分(線切れ部)CP1,CP2を検出
する。線切れ部が無ければ、各分割処理領域PR1,PR2内
で円図形Cの線画部分の色が変化することはないので、
上記のように、色が変化している部分を探すだけで円図
形Cの線切れ部CP1,CP2を発見できる。 低密度化した画像では、線切れ部CP1,CP2のすき間部
分を見ることができないことが多いが、上述のように色
が変化していれば、線切れ部が存在する位置を容易に発
見できる。 ステップS11では、オペレータが線切れ部CP1,CP2を取
り囲む領域SR1,SR2をカラーモニタ53上で指定する。こ
の指定は、マウス63を用いて、各領域SR1,SR2の2つの
頂点Q1,Q2およびQ3,Q4の位置をそれぞれ指定することに
よって行なわれる。指定された領域SR1,SR2は、第7図
に示すようにカラーモニタ53上に拡大表示される。この
際、第7図にも示すように、円図形Cの線画部分に相当
する分離領域R2,R3の色を表示色番号Ndに従って(この
場合には黒色で)表示するようにしてもよい。 ステップS12では、オペレータが拡大表示された領域S
R1を見ながら、線切れ部CP1をつなぐ処理を行なう。こ
のつなぎ処理は、オペレータが線切れ部CP1で分離され
た2つの領域R2,R3内において、点PP1,PP2をそれぞれマ
ウス63によって指定し、これら2つの指定点PP1,PP2の
間の画素を、線分SGでつなぐように指示することによっ
て行なわれる。すなわち、このつなぎ処理は、2つの指
定点PP1,PP2の間の画素に、同一の表示色番号Nd(また
は、同一のシステム色番号Ns)を割当て直す処理であ
る。 2つの指定点PP1,PP2の間をつなぐ線分SGの幅を、円
図形Cの幅と同程度にする必要はなく、少なくとも1画
素の幅があればよい。これは、1画素分以上の幅の線分
SGで分離領域R2,R3が確実につながっていれば、平網伏
せの処理を行なう際に、線切れによって円図形Cの内部
と外部とが異なる色に塗られてしまうのを防止できるか
らである。 つなぎ処理が行なわれると、版下画像BCの原点O(第
3図参照)に対する2つの指定点PP1,PP2の座標が制御
演算部61によって求められる。また、制御演算部61は、
第1の画像メモリ31に記憶されている原画像データ(ラ
ンレングスデータ)を修正して、2つの指定点PP1,PP2
が線分SGで繋がれるように、版下画像を表わす画像デー
タを修正する。こうして修正された画像データは第1の
画像メモリ31に記憶される。 修正後の画像データは、さらに、制御演算部61によっ
て平網伏せなどの各種の画像処理が行なわれる。そし
て、オペレータの指令に応じて第1の画像メモリ31から
ランレングス伸長部4を介して画像出力装置7に与えら
れ、フィルムや刷版などの記録媒体上に記録される。 なお、第5C図にも示すように、分割境界線BLと円図形
Cとが交差する部分は必ず異なる色に表示されるので、
分割境界線BLの近傍に線切れ部が存在するか否かをカラ
ーモニタ53上で直接判定するのは困難である。 この問題に対処するためには、例えば次のようないく
つかの方法が考えられる。 第1の方法は、処理対象領域PR(第3図参照)を指定
してステップS6〜S12の処理を一度行なった後、再度、
異なる処理対象領域を指定して同様の処理を行なう方法
である。2回目の処理対象領域は、1回目の処理対象領
域と位置や大きさが異なるように指定すればよい。 第2の方法は、処理対象領域PRの指定は変更せずに、
分割境界線BLの位置を副走査方向Xの左右いずれかにず
らして、ステップS6〜S12を行なう。この場合は、処理
対象領域PRの指定が不要となる。 第3の方法は、第5C図に示すように、分割境界線BLと
円図形Cとの交点近傍の領域SR3,SR4を指定して、ステ
ップS11,S12の処理を行なう方法である。この場合に
は、これらの領域SR3,SR4を拡大した画像において、線
切れ部が発見された場合にのみ、つなぎ処理を行なえば
よい。第3の方法では、円図形Cと分割境界線BLとの交
点近傍の2つの領域SR3,SR4と、線切れ部が存在する2
つの領域SR1,SR2とを拡大し、それぞれの領域について
線切れ部の位置の確認とつなぎ処理とを行なえば、円図
形Cの線切れ部をすべて検出し、修正できる。 このように、上記実施例では、処理対象領域PRを2つ
の分割処理領域PR1,PR2に分割し、それぞれの分割処理
領域PR1,PR2について領域分離処理を行なって、分離さ
れた各領域をそれぞれ異なる色で表示するようにしてい
るので、色が変化する部分に線切れ部が存在することを
容易に発見できるという利点がある。 C.領域分離処理の詳細 領域分離処理は、例えば次のようにして行なう。第8
図は、領域分離処理に用いる処理ウインドウWを示す図
である。斜線を施した画素Paは処理の対象となっている
画素を示し、他の画素Pb〜Peは画素Paの周辺画素であ
る。 この処理ウインドウWを主走査方向Yに沿って副走査
方向Xの小さい方から順次移動させていく。そして、画
素Paが例えば黒色の時、周辺画素Pb〜Peに黒色の画素が
ない場合には、画素Paに新たなシステム色番号Nsを割り
当てる。一方、周辺画素Pb〜Peのいずれかが黒色の画素
である場合には、すでにその黒色の周辺画素に割り当て
られているシステム色番号Nsを、画素Paのシステム色番
号Nsとする。 処理対象の画素Paが白色の場合も同様である。ただ
し、画素Paが白色の場合、斜め方向に隣接する画素Pc,P
eが白色で他の画素Pb,Pdが黒色であるときには、画素P
c,Peと処理対象の画素Paとに異なるシステム色番号Nsを
割り当てる。このようにすることにより、白色の画素が
斜め方向にのみ隣接している場合には、これらの画素が
互いに異なる領域を形成していると認識される。こうす
れば、黒色の独立した領域と白色の独立した領域とが互
いに交差しているような領域分離を避けることができ
る。 このように、処理ウインドウWを移動させ、独立した
各領域に順次異なるシステム色番号Nsを与えていく過程
において、同一の領域に2つ以上のシステム色番号Nsが
与えられる場合がある。第9A図ないし第9D図は、このよ
うな場合の処理の手順を示す説明図である。 まず、版下画像は、第9A図に示すように黒色の領域Ra
と、この領域Raによって互いに分離された3つの白色の
領域Rb,Rc,Rdとで構成されているものとする。 処理ウインドウWを主走査方向Yに沿って副走査方向
Xの小さい方から順次移動させて行くと、第9B図に示す
ように、各領域Ra〜Rdに互いに異なるシステム色番号Ns
が割り当てられていく。 第9B図において、各画素内に書込まれている数字は、
その画素に割り当てられたシステム色番号Nsを示す。ま
た、数字が書込まれていない画素は、まだシステム色番
号Nsが割り当てられていないことを示す。第9B図に示さ
れているように、黒色の領域Raには、システム色番号Ns
=2が割り当てられた画素と、Ns=4が割り当てられた
画素とが存在する。処理ウインドウWが第9B図の位置に
きたとき、処理対象画素Paに隣接する画素のうち、画素
Paのシステム色番号Nsの値は2であり、画素PdとPeのシ
ステム色番号Nsの値は4である。この場合は「Ns=2と
Ns=4とが同一のシステム色を表わすこと」を補助メモ
リ62に一時的に記憶しておき、処理対象画素Paには小さ
い方のシステム色番号Ns=2を割り当てる。これを第9A
図の全画素に対して行なうと、第9C図のシステム色画像
(システム色で塗り分けられた画像)および第10図の同
一システム色テーブルISTが得られる。 同一システム色テーブルISTは、システム色番号Ns=
2とNs=4とが同一のシステム色を表わしており(すな
わち、同一の画像領域に割り当てられており、)、また
Ns=5とNs=6も同一のシステム色を表わしていること
を示している。なお、この同一システム色テーブルIST
は補助メモリ62に収納されている。 次に、制御演算部61は補助メモリ62に記憶されている
同一システム色テーブルISTを参照して、同一の画像領
域内にあるにもかかわらず、異なるシステム色番号が割
り当てられている画素に対して、共通のシステム色番号
(例えば同一システム色番号のなかで最も小さいシステ
ム色番号)を割当て直す処理を、第9C図の画像に対して
行なう。その結果として、第9D図のように、すべての領
域Ra〜Rdに互いに異なるシステム色番号Nsが1つずつ割
り当てられた画像が得られる。 なお、以上の説明は、ピクセル画像に対する処理につ
いて行なったが、第4A図、第4B図のようにランレングス
圧縮された画像データに対しても同様に処理できる。 上記の処理を行なうことにより、第5B図の処理対象領
域PR内の各領域R1〜R6が互いに分離されるとともに、単
一の領域内の画素には、同一のシステム色番号Nsが割り
当てられる。 D.変形例 なお、この発明は上記実施例に限られるものではな
く、その要旨を逸脱しない範囲において種々の態様にお
いて実施することが可能であり、例えば次のような変形
も可能である。 上記実施例では、処理対象領域PRを指定する前に、ス
テップS4,S5において版下画像全体に領域分離処理を行
ない、線切れ部が存在する線画の要素を発見するように
した。しかし、ステップS4を行なわずに、閉領域(閉曲
線)を構成する線画を含む領域を1つずつ指定して、ス
テップS6以降の処理を行なうようにしてもよい。 ただし、上記実施例のように、ステップS4,S5を実施
すれば、線切れ部が存在する線画のみについて線切れ部
の検出とつなぎ処理とを行なうことができるので、版下
画像全体を効率よく処理できるという利点がある。 上記実施例において、処理対象領域PRを2つに分割し
て領域分離処理を行なったが、2分割に限らず、一般に
複数に分割して領域分離処理を行なうようにしてもよ
い。 処理対象領域PRの形状や、拡大画像を表示する領域SR
1〜SR4の形状は、矩形に限らず、任意の形状でよい。例
えば円形でもよく、また、オペレータがこれらの領域の
輪郭線をマウスなどでトレースすることにより、領域の
形状を任意に指定するようにしてもよい。 低密度化処理としては、いわゆる間引き処理に限ら
ず、以下に示すような、特殊低密度化処理を利用しても
よい。 間引き処理では、例えば2x2画素ブロックを1つの画
素に置き換える際に、画素ブロック内の特定位置の画素
を選んでその画素の色を間引き後の画素の色とする。 一方、特殊低密度化処理では、色の優先度を予め決定
しておき、画素ブロック内の各画素の色の中で優先度が
最も高い色を低密度化後の画素の色として選択する。 第11図は、特殊低密度化処理の詳細手順を示すフロー
チャートである。低密度化処理では、一般にMxN画素
(M,Nは整数)を1画素に縮小する。この実施例では、
M=N=2であると仮定している。 特殊低密度化処理が開始されると、まず、変数jおよ
び変数iを値0にクリアする(ステップ810,820)。 続いて、座標(M・i+1,N・j+1)における画像
データD(M・i+1,N・j+1)を起点として、MxN画
素分の画像データを読み出す(ステップ830)。(な
お、以下では各画素の画像データを「画素データ」と呼
ぶ。)ここでは、M=N=2としているので、当初(i
=0,j=0のとき)、画素データD(1,1),D(2,1),D
(1,2),D(2,2)を読み出し、本ステップが実行される
につれて、順次、画素データD(3,1),D(4,1),D(3,
2),D(4,2)と、4画素単位で画素データが読み出され
る。 続いて、ステップ830で読み出した画素データDに関
し、その色コード(表示色番号)を、補助メモリ62に格
納された優先生成コードテーブルTBLの内容と比較する
処理を行なう(ステップ840)。優先生成コードテーブ
ルTBLとは、第12図に示すように、表示色の優先度が登
録されたテーブルである。この実施例では、ステップS6
(第2図)で指定された処理対象領域PRの表示色番号Nd
(=5)に対応する色(黒色)が最も高い優先度に設定
される。 なお、白黒画像の場合に、黒色と白色の一方の色の優
先度が優先生成コードテーブルTBLに設定されている場
合には、他方の優先度は優先生成コードテーブルTBLに
設定されていなくてもよい。 画素ブロック内の4つの画素データDと同一の色を示
す色コードが優先生成コードテーブルTBL内に有ると判
定された場合には、同一の色を示す色コードの中から最
優先される色コードを選択する(ステップ850)。一
方、ステップ840で、同一の色を示す色コードが優先生
成コードテーブルTBL内に無いと判定されると、ステッ
プ830で読み出した画素データDの中から、起点とした
画素データD(M・i+1,N・j+1)を選択する(ス
テップ560)。 第13図に示す画素データの例では、画素データD(1,
1),D(2,1),D(1,2),D(2,2)の中から色2を示す画
素データD(2,2)が選択され、また、画素データD
(3,1),D(4,1),D(3,2),D(4,2)の中から色1を示
す画素データD(2,2)が選択される。 続いて、その選択された画素データDを代表画素デー
タとしてディスプレイ(カラーモニタ53)に出力する
(ステップ870)。 続いて、変数iを値1だけインクリメントし(ステッ
プ880)、主走査方向の縮小率Mと変数iとを掛けた値
が、主走査方向の最大値xmaxより大きいか否かを判定
する(ステップ890)。ここで、大きくないと判定され
ると、処理はステップ830に戻り、ステップ830ないしス
テップ890の処理を繰り返し実行する。 こうしたステップ830ないしステップ890の繰り返し処
理により、MxNの画素ブロック毎に、最優先画素データ
が1つ選択されてカラーモニタ53に出力される。 続いて、変数jを値1だけインクリメントし(ステッ
プ900)、以上のような処理が処理の対象となっている
画像データ全体に対して終了したか否かを判定する(ス
テップ910)。ここで、終了していないと判定される
と、処理はステップ820に戻り、ステップ820ないしステ
ップ910の処理を繰り返し実行する。こうした繰り返し
の処理により、副走査方向にも、MxNの画素ブロック毎
に最優先画素データがカラーモニタ53に出力され、ステ
ップ810で全データ終了と判定されると、本処理は「リ
ターン」に抜けて終了する。 このように、優先生成コードテーブルTBLに登録され
た優先度に従って画素ブロックごとに1つの色が選択さ
れ、選択された色で低密度化された画像(縮小画像)が
塗られている。従って、線画の一部分が欠落することも
なく、見易く、現画像を忠実に再現する縮小画像を生成
することができるという効果を奏する。 また、次に示すように、元の画像が細い線を含むよう
な場合に間引き処理を行なうと、縮小画像上で線が切れ
てしまうことがある。一方、特殊低密度化を行なえば、
縮小画像上でも線が切れてしまうことがなく、また、線
が比較的太く表示されるので、線上での色の変化部分を
検出し安いという利点がある。 第14A図は、細い線Lを含む画像を示す図、第14B図
は、第14A図の画像を特殊低密度化して得られる縮小画
像を示す図である。これらの図に示すように、特殊低密
度化を行なうと、2x2画素ブロック内に1つでも線Lに
含まれる画素が存在すれば縮小画像においてその画素ブ
ロックに対応する画素の色が線Lの色と同じ色になる。
従って、線Lがきわめて細い場合(例えば線Lの幅が1
画素分しか無い場合)にも、縮小画像において、低密度
化処理に起因する線切れが発生することは無い。 第14C図の画像は間引き処理で作成された縮小画像で
あり、第14A図に示す各2x2画像ブロックの左上の画素で
構成された画像である。間引き処理を行なうと、この図
に示すように、間引き処理に起因して線切れが発生して
しまうことがある。 従って、本発明において特殊低密度化処理を行なえ
ば、原画像に存在する線切れだけをカラーモニタ53に表
示するので、線切れ部をより確実に検出できるという利
点がある。 また第14B図と第14C図とを比較すればわかるように、
特殊低密度化によって縮小画像を生成したときには線が
比較的太く表示されるので、線上における色の変化部分
を発見し易く、従って、線切れ部を検出し易いという利
点がある。A. Configuration of Apparatus FIG. 1 is a diagram showing the application of an embodiment of the present invention.
Block diagram showing a schematic configuration of an image processing apparatus for performing a part detection process.
FIG. This image processing apparatus requires the following components.
Element. (A) Image input device 1: Reads the composition image, and its binary
This is a device that obtains images, and is composed of a flat type scanner, etc.
You. (B) Run-length compression unit 2: read by image input device 1
Run length compression of the binary image data
Create run-length data. (C) Image memories 31, 32: run-length compression unit 2 and
Run-length data of the composition image given by the CPU 6
Memory for storing data. The first image memory 31 stores the composition image
The run-length data of the
Record the run-length data of the composition image with the cut part corrected.
Remember The second image memory 32 is used when detecting a line break.
And temporarily used memory.
Stores the image area data specified by the operator
I do. (D) Run-length extension unit 4: provided from image memories 31 and 32
Run-length data into bitmap data
I do. (E) Color monitor section 5: run-length compression section 2 and CPU section
6 for displaying the image data provided from
And includes the following components: Display memory 51: Record bitmap data of the image to be displayed.
Memory to remember. Color palette 52: Image data provided from the display memory 51
The color number (described later) included in the data
), G (green) and B (blue) density signals
You. Color numbers are specified for each image area of the composition image.
I have. Color monitor 53: Displays a color image. Display control unit 54: Control of image display on the color monitor 53
I will do it. The color information stored in the color palette 52
(Information indicating the correspondence between the color number and the density signal of each of the three primary colors)
Change the display cursor on the color monitor 53
Control the position to correspond to the mouse movement. (F) CPU unit 6: Control of the entire image processing apparatus and necessary functions
This is a device for performing a calculation, and has the following components. Control operation unit 61: control of each unit of the image processing apparatus, and
Extraction, division, area separation, special low density
Performs calculations such as grading processing. Auxiliary memory 62: temporary memory required for various processes
Memory for storing information. Mouse 63: processing on image displayed on color monitor 53
It is used when specifying an elephant area or the like. (G) Image output device 7: Fills the image with the broken line
Recorded on a storage medium such as a system. B. Procedure of processing Fig. 21 shows the procedure of line break detection processing and connection processing.
It is a flowchart shown. In step S1, first place characters and figures on the mount
Prepare the composition. Fig. 3 is a plan view showing an example of a composition BC.
is there. This composition BC is a square and a circle on a white mount BS.
Are placed at the bottom of these figures, such as A, B, C, etc.
Characters are placed. These figures and characters are drawn in black
Has been. In step S2, the binary image data Db of the composition BC is input to the image.
Read with force device 1. This binary image data Db
This is data indicating whether each pixel in the image is black or white. In step S3, the binary image data Db is stored in the image input device 1
Is sent to the run-length compression unit 2 where the run-length
It is converted to gus data Dr. FIGS. 4A and 4B show the structure of the run-length data Dr.
It is explanatory drawing for showing. Fig. 4A shows only the character A in the composition image.
Is shown. In the figure, the vertical direction is the main scanning direction Y,
It is assumed that the horizontal direction is the sub-scanning direction X. Also on the mount
Is assumed to be between 0 and 150 in the main scanning direction Y.
I have decided. FIG. 4B shows the sub-scanning coordinates xi for this composition image.
3 shows the configuration of run-length data Dri. run
The length data Dri is composed of four continuous data DDi1 to DDi.
4 (hereinafter referred to as “unit run length data”)
It is configured. Each unit run length data DDi1 to DDi4
Consists of 32 bits each, with the most significant 1 bit
Is a black and white finger indicating whether the unit run-length data is black or white.
This is the constant data Dwb, and the next 15 bits are the system
System color data Dsc indicating color number, lower 16 bits
Indicates the main scanning coordinate of the start point of the unit run length.
The target data is Drc. As shown in FIG. 4A, in the sub-scanning coordinates xi, the main-scanning coordinates
The section where Y is from 0 to 99 is white, the section from 100 to 119
Is black, and the section from 120 to 150 is white. Three simple
The run length data DDi1 to DDi3 are the above three sections
The main scanning coordinates of the starting point of the
doing. The fourth unit run length data DDi4
The value of the main scanning coordinates is the maximum value (= 150).
That the run-length data for the main scan line has been completed
Is shown. At this point, the system colors have been determined.
System colors in the run-length data
The data Dsc has a meaningless value. The run length data Dr obtained as described above is
The image data supplied from the run-length compression unit 2 to the first image memory 31
Is stored. Also, based on this run length data Dr,
3 is displayed on the color monitor 53.
However, the image displayed here is a black-and-white image. In step S4, a region separation process is performed on the entire composition image.
Is performed. Area separation processing is the process of dividing the black and white areas.
Distinct areas separated from each other by a boundary line
And a different number (system color number) for each distinguished area
It refers to the process of assigning Ns. In the example of FIG.
The black part of the shape, the circular black part, and the black of characters such as A, B, C
Color part and white part around rectangular or circular figure (base of mount
Area), each white part inside each figure, and inside each character
Are divided into white areas. The number assigned to each separation area is the system color
The number is used when this number is automatically calculated by the control operation unit 61.
Number, which is also used as a color number.
Because you can. Note that the details of the region separation processing are further described below.
It will be described later. The image after the area separation processing is displayed on the color monitor 53.
You. At this time, each system color number Ns is stored in the color palette 52.
Convert to different colors and display each separation area with different colors
I do. For example, if there is no broken line in the circle C,
The inside and outside are displayed in different colors. However, the figure
If there is a broken line in the circle C, the inside and outside are the same area.
Area, so they are displayed in the same color. Therefore, the operating
Observe the color image displayed on the color monitor 53
And the color of the inner area is the same as the color of the outer area
Easily find figures with broken lines by searching for figures
Can be found. In step S5, the operator turns on the color monitor 53.
As a result of observation, a broken line was found somewhere (for example,
), The processing after step S6 is performed.
The detection of the position of the line break and the joining process are performed.
Be done. First, in step S6, the operator detects a line break.
A region where processing is performed (hereinafter, referred to as a “processing target region”)
Specify the PR on the composition image, and save the image data
Is stored in the second image memory 32. As shown in FIG. 5A, the processing target region PR is a rectangular region.
And the main scanning direction X from each of the two vertices P1 and P2
Have sides drawn in parallel with the sub-scanning direction Y
You. In the composition image displayed on the color monitor 53,
The perlator uses the mouse 63 to determine the positions of the two vertices P1 and P2.
If specified, the image data of the image in the
The second image memory 32 extracted from the first image memory 31
Is stored. The first image memory 31 stores the original
The image data of the composition image is stored as it is. 5A
In the figure, the extracted image of the processing target region PR is enlarged.
I have. In step S6, a line drawing to be processed by the operator is further performed.
Specify the display color number Nd of the element (circle figure C in Fig. 5A)
You. The display color number Nd is used to display an image on the color monitor 53.
This is a number indicating the color when the
It is a number given independently. In the composition image, black and white
Is a display color. For example, specify the display color of circle C
When displaying, a number indicating black as the display color number Nd (for example,
If 5) is specified. The display color can be specified, for example, by
Display on the color monitor 53 and use the mouse 63
This is performed by selecting one color from a large number of display colors. The next steps S7 to S9 are automatically performed by the control operation unit 61.
This is a line cutting process in the circle C in the processing target area PR.
This is a process for displaying the display portion in an easily viewable manner. In step S7, the processing target region PR is
Divided equally. FIG. 5A shows the boundary line BL for division,
2 shows two divided processing regions PR1 and PR2. Processing object
The coordinates of the vertices P1 and P2 of the region PR are (X1, Y1), (X2, Y
Assuming 2), the division boundary line BL is expressed by the following equation. X = (X1 + X2) / 2 The reason for dividing the processing target region PR in this way is as follows.
It will be described later. In step S8, that of the two divided processing regions PR1 and PR2
For each of them, the same region separation processing as described above is performed.
You. FIG. 5B shows the region R1 separated by the process of this step.
To R6. Each separation area R1 to R6 has a system color
Numbers Ns are sequentially assigned, for example, from 1 to 6. If there is no line break in the circle C, each divided processing area PR1,
Each line drawing part of the circle C of PR2 has one separation area.
Are divided and assigned one system color number Ns
It is. However, as shown in FIG.
Has two line breaks CP1 and CP2, so each divided processing area P
In R1 and PR2, there are two line drawing parts of circle C
Are separated into separation regions R2, R3 and R5, R6, respectively.
Different system color numbers Ns are assigned to these separation areas.
You. System color number Ns assigned to each separation area R1 to R6
Is the system color data Dsc in the run length data Dr.
(See Figure 4B). And that run-length
The scan data Dr is stored in the second image memory 32. At this time, as shown in FIG. 6, each system color number Ns and
The system color table SCT indicating the correspondence with the display color number Nd
Created. Line drawing section in system color table SCT
Display of line drawing in separation areas R2, R3, R5, R6 corresponding to minutes
The display color number Nd = 5 indicating the color (black) is registered, and the
Display color (white) in the separation areas R1 and R4 corresponding to the base
Is registered as a display color number Nd = 1. Note that dividing the processing target region PR into two is due to line breaks.
Even if there is only one part, its position can be easily detected.
This is so that you can get out. Divide processing target area PR
Assuming that segmentation processing is performed without
C has only one line break (for example, only CP1)
In this case, the whole circle C is regarded as one separation area.
Is displayed in one system color.
Is difficult to find on the color monitor 53. one
On the other hand, as described above, the processing target region PR is divided into two.
In other words, the circle graphic C is divided into two at the division boundary line BL.
Therefore, even if there is only one line break,
The subsequent line drawing parts are distinguished as different areas,
Will be displayed in different colors. Note that the broken line is
The countermeasures when the vehicle is on the boundary line BL will be described later. In step S9, the image of the processing target region PR (FIG. 5B)
Reduce the density. Low density generally refers to monitors and the like.
Reduce the number of pixels in the image to display the image
The process of obtaining a reduced image.
It is a kind of degree. In this embodiment, the thinning process is executed.
Shall be performed. That is, for example, a 2x2 pixel block
The pixels are decimated into one pixel. At this time, 2x2
A pixel at a predetermined position in the pixel block (for example, an upper left pixel)
Display color number Nd and system color number Ns
Adopted as the primary display color number Nd and system color number Ns
You. The image data (run-level
Data) from the control operation unit 61 to the second image memory.
Given to 32 and stored. The image data of which density has been reduced is transmitted to the color monitor unit 5.
And the reduced image (No.
5C) is displayed on the color monitor 53. On this occasion,
Each color palette 52 is separated according to the system color number Ns
Areas R1 to R6 are painted in different colors from each other,
The displayed image is displayed on the color monitor 53. In step S10, the operator
The image (Fig. 5C) is visually inspected, and the dividing boundary line BL and the line
A line other than the intersection with the image (circle C)
Detects CP1 and CP2 where the color of the image has changed (line breaks)
I do. If there are no line breaks, each divided processing area PR1, PR2
Does not change the color of the line drawing portion of the circle C,
As above, just look for the part where the color is changing
Line breaks CP1 and CP2 of type C can be found. In the low-density image, the gap between the line breaks CP1 and CP2
Often, you can't see the minute, but the color
If there is a change in the
You can see. In step S11, the operator removes line breaks CP1 and CP2.
The surrounding areas SR1 and SR2 are designated on the color monitor 53. This
Is specified using the mouse 63, two regions SR1 and SR2
Specifying the positions of vertices Q1, Q2 and Q3, Q4 respectively
This is done. The designated areas SR1 and SR2 are shown in FIG.
Is displayed on the color monitor 53 in an enlarged manner as shown in FIG. this
In this case, as shown in FIG.
The colors of the separation areas R2 and R3 to be
(In this case, black). In step S12, the operator displays the enlarged area S
A process of connecting the line break CP1 is performed while watching R1. This
In the connection process, the operator is separated at the line break CP1.
In the two regions R2 and R3, the points PP1 and PP2 are
Mouse 63, and these two specified points PP1 and PP2
By instructing the pixels in between to be connected by line segment SG.
It is done. In other words, this connection processing is performed by two fingers.
Pixels between fixed points PP1 and PP2 are assigned the same display color number Nd (or
Is the process of re-assigning the same system color number Ns).
You. The width of the line segment SG connecting the two specified points PP1 and PP2
It is not necessary that the width of the figure C is substantially the same as that of the figure C.
What is necessary is just the elementary width. This is a line segment that is at least one pixel wide
If the separation areas R2 and R3 are securely connected by SG,
When performing the set processing, the inside of the circle
Can be prevented from being painted in a different color from the outside
It is. When the linking process is performed, the origin O (the
The coordinates of two designated points PP1 and PP2 with respect to (see Fig. 3) are controlled.
It is determined by the calculation unit 61. Further, the control calculation unit 61 includes:
The original image data (LAP) stored in the first image memory 31
Length data) and modify the two designated points PP1 and PP2
Image data representing the composition image so that
Modify the data. The image data corrected in this way is the first
It is stored in the image memory 31. The corrected image data is further processed by the control operation unit 61.
Various types of image processing such as flat-screening are performed. Soshi
From the first image memory 31 in response to an operator's command.
The image data is supplied to the image output device 7 via the run-length extension unit 4.
And recorded on a recording medium such as a film or a printing plate. As shown in FIG. 5C, the dividing boundary line BL and the circular figure
The part where C intersects is always displayed in a different color,
It is determined whether there is a line break near the divisional boundary line BL.
-It is difficult to make a direct determination on the monitor 53. To address this issue, for example,
Several methods are conceivable. The first method is to specify the processing target area PR (see Fig. 3)
After performing the processing of steps S6 to S12 once,
Method of performing similar processing by specifying different processing target areas
It is. The second processing target area is the first processing target area.
What is necessary is just to specify so that an area | region and a position and a size may differ. In the second method, the designation of the processing target region PR is not changed,
The position of the division boundary line BL is not on the left or right in the sub-scanning direction X.
Then, steps S6 to S12 are performed. In this case, processing
There is no need to specify the target area PR. In the third method, as shown in FIG.
By specifying the regions SR3 and SR4 near the intersection with the circular figure C,
This is a method of performing the processing of steps S11 and S12. In this case
Are the lines in the enlarged image of these regions SR3 and SR4.
If you perform the splicing process only when a cut is found,
Good. In the third method, the intersection of the circle graphic C and the division boundary line BL
Two regions SR3 and SR4 near the point and a line break 2
Two areas SR1 and SR2, and expand each area
If you check the position of the line break and connect it,
All line breaks in form C can be detected and corrected. Thus, in the above embodiment, two processing target regions PR
Divided into the processing areas PR1 and PR2,
Region separation processing is performed on the regions PR1 and PR2 to
Each area is displayed in a different color
Therefore, make sure that there is a broken line in the part where the color changes.
There is an advantage that it can be easily found. C. Details of Area Separation Processing The area separation processing is performed as follows, for example. 8th
The figure shows the processing window W used for the area separation processing.
It is. Pixels Pa with diagonal lines are subject to processing
Pixels, and the other pixels Pb to Pe are peripheral pixels of the pixel Pa.
You. This processing window W is sub-scanned along the main scanning direction Y.
Move in order from the smaller direction X. And the picture
When the element Pa is black, for example, black pixels exist in the peripheral pixels Pb to Pe.
If not, assign a new system color number Ns to pixel Pa.
Hit it. On the other hand, any of the peripheral pixels Pb to Pe are black pixels
Is already assigned to that black peripheral pixel
The system color number Ns used for the pixel Pa
No. Ns. The same applies to the case where the pixel Pa to be processed is white. However
When the pixel Pa is white, the pixels Pc and P
When e is white and the other pixels Pb and Pd are black, the pixel P
Different system color numbers Ns for c, Pe and pixel Pa to be processed
assign. In this way, the white pixels
If they are adjacent only diagonally, these pixels
It is recognized that they form mutually different regions. Like this
If so, black independent areas and white independent areas
Can avoid area separation like crossing
You. In this way, the processing window W is moved,
The process of sequentially assigning different system color numbers Ns to each area
In the same area, two or more system color numbers Ns
May be given. Figures 9A through 9D show this
It is an explanatory view showing a procedure of processing in such a case. First, the composition image is a black area Ra as shown in FIG. 9A.
And three white areas separated from each other by this area Ra
It is assumed that the region is composed of regions Rb, Rc, and Rd. The processing window W is moved in the sub-scanning direction along the main scanning direction Y.
Moving sequentially from the smaller X, as shown in Fig. 9B
As shown, each region Ra to Rd has a different system color number Ns
Are assigned. In FIG. 9B, the number written in each pixel is
The system color number Ns assigned to the pixel is shown. Ma
Pixels for which no numbers are written are still system color numbers.
No. Ns is not assigned. Shown in Figure 9B
As shown in the figure, the black area Ra has the system color number Ns
= 2 assigned pixels and Ns = 4 assigned
Pixel. Processing window W is in the position shown in Fig. 9B
Of the pixel adjacent to the processing target pixel Pa
The value of the system color number Ns of Pa is 2, and the system color number Ns of the pixels Pd and Pe is
The value of the stem color number Ns is 4. In this case, "Ns = 2
Ns = 4 represents the same system color "
Is temporarily stored in the memory 62, and a small
One system color number Ns = 2 is assigned. This is 9A
When applied to all pixels in the figure, the system color image in Figure 9C
(Images painted in system colors) and Fig. 10
One system color table IST is obtained. The same system color table IST has the system color number Ns =
2 and Ns = 4 represent the same system color.
That is, they are assigned to the same image area, and)
Ns = 5 and Ns = 6 also represent the same system color
Is shown. Note that this same system color table IST
Are stored in the auxiliary memory 62. Next, the control calculation unit 61 is stored in the auxiliary memory 62.
Refer to the same system color table IST and
Different system color numbers even though they are
Common system color numbers for assigned pixels
(For example, the smallest system among the same system color numbers
The process of reassigning the color numbers
Do. As a result, as shown in Figure 9D, all regions
Different system color numbers Ns are assigned to areas Ra to Rd one by one.
An assigned image is obtained. Note that the above description has been made with respect to processing on
4A and 4B.
The same processing can be performed on the compressed image data. By performing the above processing, the processing target area in FIG.
Each region R1 to R6 in the region PR is separated from each other, and
Pixels within one area are assigned the same system color number Ns.
Hit. D. Modifications The present invention is not limited to the above embodiment.
In various forms without departing from the gist of the invention.
It is possible to implement, for example, the following modification
Is also possible. In the above embodiment, before designating the processing target area PR,
In steps S4 and S5, area separation processing is performed on the entire composition image.
No, find elements of line art with broken lines
did. However, without performing step S4, the closed region (closed music
Specify the area containing the line drawing that composes the line) one by one,
The processing after step S6 may be performed. However, steps S4 and S5 are performed as in the above embodiment.
Then, only the line drawing with the line break
Detection and connection processing can be performed.
There is an advantage that the entire image can be efficiently processed. In the above embodiment, the processing target region PR is divided into two.
The area separation process was performed by using
It may be divided into a plurality of areas and the area separation processing may be performed.
No. The shape of the processing target area PR and the area SR for displaying the enlarged image
The shape of 1 to SR4 is not limited to a rectangle, and may be any shape. An example
For example, it may be circular, and the operator
By tracing the outline with a mouse etc.
The shape may be arbitrarily specified. Density reduction processing is limited to so-called thinning processing
Even if special low-density processing is used as shown below,
Good. In the thinning process, for example, a 2x2 pixel block is
When replacing pixels, pixels at specific positions in the pixel block
Is selected, and the color of the pixel is set as the color of the pixel after thinning. On the other hand, in the special low-density processing, the priority of the color is determined in advance.
In addition, the priority among the colors of each pixel in the pixel block is
The highest color is selected as the color of the pixel after density reduction. FIG. 11 is a flowchart showing a detailed procedure of the special low-density processing.
It is a chart. In general, MxN pixels
(M and N are integers) are reduced to one pixel. In this example,
It is assumed that M = N = 2. When the special low-density processing is started, first, the variables j and
And the variable i is cleared to 0 (steps 810 and 820). Then, the image at the coordinates (M · i + 1, N · j + 1)
Starting from data D (M · i + 1, N · j + 1), an MxN image
The original image data is read (step 830). (N
In the following, the image data of each pixel is referred to as “pixel data”.
Huh. Here, since M = N = 2, initially (i
= 0, j = 0), pixel data D (1, 1), D (2, 1), D
Read (1,2), D (2,2) and execute this step
, The pixel data D (3,1), D (4,1), D (3,
2), D (4,2) and pixel data are read out in 4-pixel units
You. Subsequently, the pixel data D read in step 830 is
The color code (display color number) is stored in the auxiliary memory 62.
Compare with the contents of stored priority generated code table TBL
Processing is performed (step 840). Priority generation code table
As shown in Fig. 12, the priority of the display color is
It is a recorded table. In this embodiment, step S6
The display color number Nd of the processing target region PR specified in (FIG. 2)
The color (black) corresponding to (= 5) is set to the highest priority
Is done. In the case of a black-and-white image, the superior color of one of black and white
If the priority is set in the priority generation code table TBL
In the case, the other priority is stored in the priority generation code table TBL.
It does not have to be set. Indicates the same color as the four pixel data D in the pixel block
Color code is found in the priority generation code table TBL.
If specified, the color code that represents the same color
A priority color code is selected (step 850). one
In step 840, a color code indicating the same color has priority.
If it is determined that it is not in the
From the pixel data D read in step 830
Select the pixel data D (M · i + 1, N · j + 1)
Step 560). In the example of pixel data shown in FIG. 13, the pixel data D (1,
Image showing color 2 from 1), D (2,1), D (1,2), D (2,2)
The raw data D (2,2) is selected and the pixel data D
Indicates color 1 from (3,1), D (4,1), D (3,2), D (4,2)
The pixel data D (2,2) is selected. Subsequently, the selected pixel data D is stored in the representative pixel data.
Output to the display (color monitor 53)
(Step 870). Subsequently, the variable i is incremented by the value 1 (step
880), the value obtained by multiplying the reduction rate M in the main scanning direction by the variable i.
Is greater than the maximum value xmax in the main scanning direction
(Step 890). Here, it is determined that it is not large
Then, the processing returns to step 830,
The processing of step 890 is repeatedly executed. Repeat steps 830 to 890
The highest priority pixel data for each MxN pixel block.
Is selected and output to the color monitor 53. Subsequently, the variable j is incremented by the value 1 (step
900), the above processing is the target of processing
It is determined whether the process has been completed for the entire image data (scan
Step 910). Here, it is determined that the process has not been completed
Then, the process returns to step 820.
Step 910 is repeatedly executed. Such repetition
Processing in the sub-scanning direction for each MxN pixel block
The highest priority pixel data is output to the color monitor 53
If it is determined in step 810 that all data has been completed, this processing
Turns and ends. In this way, it is registered in the priority generation code table TBL.
One color per pixel block according to the priority
And the reduced density image (reduced image) of the selected color
Painted. Therefore, part of the line drawing may be missing.
Generate a reduced image that is easy to see and faithfully reproduces the current image
It has the effect that it can be done. Also, make sure the original image contains thin lines, as shown below.
Line is cut on the reduced image
Sometimes. On the other hand, if special low density is achieved,
Lines do not break even on reduced images.
Is displayed relatively thick, so the color change on the line
It has the advantage of being cheap to detect. FIG. 14A shows an image containing a thin line L, FIG. 14B
Is a reduced image obtained by specially reducing the density of the image in Fig.14A.
It is a figure showing an image. As shown in these figures,
, The line L in the 2x2 pixel block
If any pixel is included, the pixel
The color of the pixel corresponding to the lock becomes the same color as the color of the line L.
Therefore, when the line L is extremely thin (for example, the width of the line L is 1).
Low density in the reduced image)
There is no line break due to the conversion process. The image in Fig. 14C is a reduced image created by the thinning process.
Yes, at the upper left pixel of each 2x2 image block shown in FIG. 14A.
It is a composed image. When the thinning process is performed,
As shown in the figure, a line break occurs due to the thinning process.
Sometimes. Therefore, a special low-density treatment can be performed in the present invention.
Display only the line breaks in the original image on the color monitor 53.
This shows that line breaks can be detected more reliably.
There is a point. Also, as can be seen by comparing FIG. 14B and FIG. 14C,
When a reduced image is generated by special low density, the line
Because it is displayed relatively thick, the color change part on the line
Is easy to find, and therefore easy to detect broken lines.
There is a point.
以上説明したように、請求項1に記載した発明によれ
ば、互いに独立した領域部分に異なる色を割り当てた画
像を表示するので、線切れ部が存在する線画部分では線
切れ部の前後が異なる色で表示される。従って、異なる
色が付されている線画部分を見いだすだけで、線切れ部
を容易に検出できるという効果がある。 また。請求項2に記載した発明によれば、表示するた
めの縮小画像を生成するために画素ブロック内の代表画
素を抽出する方法として、色の優先度を予め定めてお
き、この優先度に従って各画素ブロックの代表画素を抽
出するようにすれば、細い線画であっても縮小画像上で
比較的太い線画として表わされる。従って、線画部分の
色の変化を見分けやすくすることができ、線切れ部をよ
り容易に検出することができるという効果がある。 さらに、請求項3に記載した発明によれば、処理対象
領域を指定する前に、線画画像全体について独立した領
域部分を異なる色に塗り分けて表示し、閉領域を構成す
べき線画要素の内部の色と外部の色とが同じとなる線画
要素を含むように処理対象領域を指定するので、閉領域
を構成すべき線画要素について、線切れ部を含む領域の
みを処理の対象として指定することができ、線切れ部検
出処理を効率的に行なうことができるという効果があ
る。As described above, according to the first aspect of the present invention, an image in which different colors are assigned to mutually independent area portions is displayed. Therefore, in a line drawing portion where a line break exists, before and after the line break is different. Displayed in color. Accordingly, there is an effect that a line break can be easily detected only by finding a line drawing portion having a different color. Also. According to the invention described in claim 2, as a method of extracting a representative pixel in a pixel block in order to generate a reduced image to be displayed, priority of a color is determined in advance, and each pixel is determined according to the priority. If the representative pixel of the block is extracted, even a thin line drawing is represented as a relatively thick line drawing on the reduced image. Accordingly, it is possible to easily recognize a change in the color of the line drawing portion, and it is possible to more easily detect a broken line portion. Further, according to the third aspect of the present invention, before designating a processing target region, an independent region portion of the entire line drawing image is displayed in a different color and displayed inside a line drawing element which should constitute a closed region. Since the processing target area is specified so as to include a line drawing element whose color is the same as the external color, only the area including the line break is specified as the processing target for the line drawing element that should constitute the closed area Thus, there is an effect that the line break detection processing can be performed efficiently.
第1図は、本発明の一実施例を適用して画像の線切れ部
検出処理を行なう画像処理装置の概略構成図を示すブロ
ック図、 第2図は、線切れ部の検出処理とつなぎ処理の手順を示
すフローチャート、 第3図は、版下の一例を示す平面図、 第4A図および第4B図は、ランレングスデータの構成を示
す説明図、 第5A図ないし第5C図は、実施例の手順における処理対象
領域の画像を示す図、 第6図は、システム色番号と表示色番号との対応を示す
システム色テーブルを示す図、 第7図は、線切れ部を含む領域の拡大図、 第8図は、領域分離処理に用いる処理ウインドウを示す
図、 第9A図ないし第9D図は、領域分離処理の手順を示す説明
図、 第10図は、同一システム色テーブルを示す図、 第11図は、特殊低密度化処理の詳細手順を示すフローチ
ャート、 第12図は、優先生成コードテーブルを示す図、 第13図は、特殊低密度化処理の対象となる画像の一例を
示す図、 第14A図は、細い線を含む画像の一例を示す図、 第14B図および第14C図は、低密度化によって得られる画
像を示す図である。 BC……版下、C……円図形 CP1,CP2……線切れ部 Ns……システム色番号 PR……処理対象領域 PR1,PR2……分割処理領域 R1〜R6……分離領域 TBL……優先生成コードテーブルFIG. 1 is a block diagram showing a schematic configuration diagram of an image processing apparatus which performs line break detection processing of an image to which an embodiment of the present invention is applied. FIG. 2 is a block diagram showing line break detection processing and connection processing. 3 is a plan view showing an example of the composition, FIGS. 4A and 4B are explanatory diagrams showing the configuration of run-length data, and FIGS. 5A to 5C are examples of the embodiment. FIG. 6 is a diagram showing a system color table showing the correspondence between system color numbers and display color numbers, and FIG. 7 is an enlarged view of a region including a line break. FIG. 8 is a diagram showing a processing window used for the region separation process, FIGS. 9A to 9D are explanatory diagrams showing the procedure of the region separation process, FIG. 10 is a diagram showing the same system color table, FIG. 11 is a flowchart showing a detailed procedure of the special low-density processing, FIG. 12 is a diagram illustrating a priority generation code table, FIG. 13 is a diagram illustrating an example of an image to be subjected to special low-density processing, FIG. 14A is a diagram illustrating an example of an image including a thin line, FIG. 14B and FIG. 14C are diagrams showing images obtained by reducing the density. BC: Intaglio, C: Circle shape CP1, CP2 ... Line break Ns: System color number PR: Processing target area PR1, PR2 ... Split processing area R1-R6: Separation area TBL: Priority Generated code table
Claims (3)
り、線画の線切れ部を検出する方法であって、 (a)表示手段に表示された線画画像内において処理対
象領域を指定する工程と、 (b)前記処理対象領域を複数の分割領域に分割する工
程と、 (c)前記複数の分割領域ごとに、各画素に割り当てら
れた画素値に基づいて、異なる画素値の境界線によって
分離された互いに独立した領域部分を認識するととも
に、前記互いに独立した領域部分に異なる色を割当て、
割当てられた色で各領域部分を塗り分けつつ前記処理対
象領域の画像を表示手段に表示する工程と、 (d)前記工程(c)で表示された画像の線画部分であ
って、異なる色で表示された部分を表示することによ
り、線画部分に存在する線切れ部を検出する工程と、 を備えることを特徴とする線切れ部検出方法。1. A method for detecting a broken line portion of a line drawing by processing image data of the line drawing image, comprising: (a) a step of designating a processing target area in the line drawing image displayed on the display means; (B) dividing the processing target area into a plurality of divided areas; and (c) separating each of the plurality of divided areas by a boundary line of a different pixel value based on a pixel value assigned to each pixel. Recognizing the mutually independent area portions, and assigning different colors to the mutually independent area portions,
(D) displaying the image of the processing target area on the display means while separately painting each area portion with the assigned color; and (d) a line drawing part of the image displayed in the step (c), which is different in color. Detecting a line break existing in the line drawing portion by displaying the displayed portion.
て、 工程(c)は、 前記処理対象領域を、複数の画素でそれぞれ構成される
所定形状の画素ブロックに分割し、 各画素ブロック内の代表画素として抽出したい画素の色
の優先度を予め定めておき、 当該優先度に従って、各画素ブロックから代表画素を抽
出し、 抽出された代表画素の集合として表わされる縮小画像を
生成して表示手段に表示する、工程を含む線切れ部検出
方法。2. The method according to claim 1, wherein in the step (c), the processing target area is divided into pixel blocks each having a predetermined shape composed of a plurality of pixels. The priority of the color of the pixel to be extracted as a representative pixel in the block is determined in advance, the representative pixel is extracted from each pixel block according to the priority, and a reduced image represented as a set of extracted representative pixels is generated. A line break detecting method including a step of displaying on a display means.
であって、 工程(a)は、 線画画像内の互いに独立した領域部分に異なる色を割り
当てるとともに、割当てられた色で各領域部分を塗り分
けつつ前記線画画像を表示手段に表示し、 閉領域を構成すべき線画要素の内部の色と外部の色とを
比較し、 前記内部の色と外部の色とが同じである線画要素を含む
ように処理対象領域を指定する、工程を含む線切れ部検
出方法。3. The line break detecting method according to claim 1, wherein the step (a) comprises: assigning different colors to mutually independent area portions in the line drawing image, and assigning each area with the assigned color. Displaying the line drawing image on the display means while separately painting the portion, comparing the internal color and the external color of the line drawing element which should constitute the closed area, and determining whether the internal color and the external color are the same. A line break detecting method including a step of designating a processing target area so as to include an element.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25836090A JP2577276B2 (en) | 1990-09-26 | 1990-09-26 | Line break detection method |
US07/765,908 US5263095A (en) | 1990-09-26 | 1991-09-23 | Method of and apparatus for processing linework image |
EP91116476A EP0477956B1 (en) | 1990-09-26 | 1991-09-26 | Method of and apparatus for processing linework image |
DE69132020T DE69132020T2 (en) | 1990-09-26 | 1991-09-26 | Method and device for image processing of line borders |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25836090A JP2577276B2 (en) | 1990-09-26 | 1990-09-26 | Line break detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04134574A JPH04134574A (en) | 1992-05-08 |
JP2577276B2 true JP2577276B2 (en) | 1997-01-29 |
Family
ID=17319156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25836090A Expired - Fee Related JP2577276B2 (en) | 1990-09-26 | 1990-09-26 | Line break detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2577276B2 (en) |
-
1990
- 1990-09-26 JP JP25836090A patent/JP2577276B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH04134574A (en) | 1992-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH04192671A (en) | Pin hole delete method | |
JPH11187248A (en) | Area designating method, image processor and image forming device | |
EP0737937B1 (en) | Image processing apparatus | |
JP2639517B2 (en) | Image area color processing method | |
JPH06203153A (en) | Method and device for processing image | |
EP0477904A2 (en) | Method of and apparatus for generating reduced image | |
US5357601A (en) | Apparatus for processing superimposed image information by designating sizes of superimposed and superimposing images | |
JP2577276B2 (en) | Line break detection method | |
US6496198B1 (en) | Color editing system | |
JPH0767136B2 (en) | Image processing device | |
JP2639488B2 (en) | Wire break connection method | |
JPS62269276A (en) | Interactive graphic inputting system | |
JP3107382B2 (en) | Display device of synthetic image and hatching circuit | |
JP3117205B2 (en) | Image processing device | |
JPH03224071A (en) | Line thinning system for binary image | |
JPH09198125A (en) | Method and its device for displaying monitoring device | |
JP2000115522A (en) | Picture processor | |
JPH0764524A (en) | Image display device | |
JPH10215410A (en) | Composite drawing data generation method, and composite drawing device | |
JPH1040313A (en) | Device for preparing format and method for preparing format control program | |
JP2000235651A (en) | Compiling method/device for raster data | |
JPH0464112B2 (en) | ||
JPH0934439A (en) | Device and method for picture element data emphasis processing | |
JPS60231268A (en) | Picture area processor | |
JPS6224374A (en) | Picture converting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |