JP2010020463A - Line drawing processor, line drawing processing method and program - Google Patents

Line drawing processor, line drawing processing method and program Download PDF

Info

Publication number
JP2010020463A
JP2010020463A JP2008179114A JP2008179114A JP2010020463A JP 2010020463 A JP2010020463 A JP 2010020463A JP 2008179114 A JP2008179114 A JP 2008179114A JP 2008179114 A JP2008179114 A JP 2008179114A JP 2010020463 A JP2010020463 A JP 2010020463A
Authority
JP
Japan
Prior art keywords
line
region
protruding
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008179114A
Other languages
Japanese (ja)
Inventor
Itaru Furukawa
至 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP2008179114A priority Critical patent/JP2010020463A/en
Publication of JP2010020463A publication Critical patent/JP2010020463A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology to easily and precisely separate a dotted portion from a line drawing. <P>SOLUTION: A line drawing processor 100 sequentially determines the curvature value of pixels constituting an outline portion along the outline portion of a drawing region DR and quantifies the degree of bending of each pixel position at the outline portion. The line drawing processor 100 detects the pixels bending in the direction to extend the drawing region DR (inflection point P) based on the comparison with a predetermined reference value and separates a projecting region ER projected from the drawing line DL from the drawing region DR by connecting the inflection points P in a predetermined positional relation by a separation line L. The line drawing processor 100 removes the separated projecting region ER from an image by removing a drawing pixel set below a predetermined reference area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、線画から網点を分離する技術に関する。   The present invention relates to a technique for separating halftone dots from line drawings.

マンガ(Manga)は、未彩色線画の代表的なものである。マンガは、一般的に、欧米のコミック(Comic)とは異なり、日本独自の風合いを持つ(モノクロ)線画である。すなわち、マンガでは、階調(色合い)の表現やキャラクターの感情が、スクリーントーン(登録商標)の貼付による網点、ベタ、効果線などの模様や、輪郭線などの描画線で表現されており、カラー表現が多いコミックとは性質が大きく異なっている。   Manga is a typical example of uncolored line drawing. In general, manga is a (monochrome) line drawing with a unique Japanese texture, unlike Western comics (Comic). In other words, in manga, the expression of gradation (color shade) and the emotion of characters are expressed by patterns such as halftone dots, solids, and effect lines by applying Screen Tone (registered trademark), and drawing lines such as contour lines. The character is very different from comics with many color expressions.

従来より、マンガは紙媒体に印刷されて市場に供給されるが、カラー印刷コストがかかりすぎるなどの理由から、雑誌などの巻頭カラーページ以外はモノクロ(未彩色)表現でしか制作されていなかった。   Traditionally, manga is printed on paper media and supplied to the market, but for the reasons such as the cost of color printing being too high, all but the first page of magazines and other color pages were produced only in monochrome (uncolored) representation. .

しかし、携帯電話などの端末装置の通信技術の発達により、デジタル化されたマンガを、通信回線を介して購読できるサイトが急増しており、マンガを液晶モニタなどで鑑賞できる機会が増えている。これに伴い、カラー化(彩色、色付け)されたマンガの需要が大きくなっている。また、日本国外においては、モノクロマンガの文化がないため、マンガビジネスを海外展開する上では、モノクロマンガを彩色する必要がある。   However, with the development of communication technology of terminal devices such as mobile phones, the number of sites where digitalized manga can be subscribed via a communication line has increased rapidly, and the opportunity to view manga on a liquid crystal monitor has increased. Along with this, there is an increasing demand for manga that has been colored (colored and colored). Also, since there is no monochrome manga culture outside Japan, it is necessary to color monochrome manga in order to expand the manga business overseas.

モノクロマンガを彩色するための制作作業には、様々なトーン(網点模様など)を線画から分離する工程や、トーンが分離された線画に対して彩色を行う工程、そして、場合によっては、切り抜いたトーンに色付けして元の線画に反映する工程などが含まれる。   Production work for coloring monochrome manga includes the process of separating various tones (such as halftone dots) from line drawings, the process of coloring lines from which tones are separated, and, in some cases, clipping This includes the process of coloring the tone and reflecting it in the original line drawing.

ここで、マンガ制作においては、一般的に、描画線とトーン部分との間に不自然な隙間を生じさせないため、描画線に沿ってトーンが張りつけられる。したがって、トーン領域を構成するパターン(網点)の一部が描画線と重なった状態となるが、このような描画線に重なった網点についても、元の画像から完全に分離する必要がある。   Here, in manga production, generally, a tone is pasted along a drawing line so as not to create an unnatural gap between the drawing line and the tone portion. Therefore, a part of the pattern (halftone dot) constituting the tone area is overlapped with the drawing line. However, the halftone dot overlapped with the drawing line needs to be completely separated from the original image. .

この描画線上に重なった網点を除去する技術は、例えば特許文献1において提案されている。具体的に、特許文献1では、線画を細線化した後、描画線上に重なった網点によって生じる枝部分を識別し、当該枝部分を選択的に削除する。そして細線を元の線幅に戻すことによって、描画線に重なった網点が分離される。   For example, Patent Document 1 proposes a technique for removing a halftone dot overlapped on the drawing line. Specifically, in Patent Document 1, after thinning a line drawing, a branch portion generated by a halftone dot overlapped on a drawing line is identified, and the branch portion is selectively deleted. Then, by returning the thin line to the original line width, the halftone dots overlapping the drawing line are separated.

特開2005−31818号公報JP-A-2005-31818

ところが、特許文献1に記載の技術では、線画を細線化した際に、描画線と網点とが重なる部分において、描画線由来の細線が網点側に引っ張られて折れ曲がりが生じるという問題があった。したがって、折れ曲がり部分から突出した枝部分を精密に削除することができたとしても、当該描画線由来の細線の折れ曲がりは残存してしまう。そのため、細線を元の太さの線に戻すと、折れ曲がり部分がそのまま残ってしまうという問題があった。   However, the technique described in Patent Document 1 has a problem in that when a line drawing is thinned, a thin line derived from a drawing line is pulled to the halftone dot side and bent in a portion where the drawing line and the halftone dot overlap. It was. Therefore, even if the branch portion protruding from the bent portion can be accurately deleted, the bending of the thin line derived from the drawing line remains. Therefore, there is a problem that when the thin line is returned to the original thickness line, the bent portion remains as it is.

また、特許文献1に記載の技術では、ベクトル形式のデータを取得したり、彩色処理などを行うためにRIP処理を行ったりする必要があり、画像処理上の観点で不便であるという問題もあった。   In addition, the technique described in Patent Document 1 has a problem that it is inconvenient from the viewpoint of image processing because it is necessary to acquire vector format data or perform RIP processing in order to perform coloring processing. It was.

本発明は、上記課題に鑑みなされたものであり、線画から網点部分を精密かつ容易に分離する技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a technique for accurately and easily separating a halftone dot portion from a line drawing.

上記の課題を解決するため、請求項1の発明は、線画から網点を分離する線画処理装置であって、所定方向に延びる描画線に対して外側へ突出する突出領域の突出開始部分と突出終了部分とを、描画領域の輪郭部分に沿って検出する検出手段と、前記突出開始部分と前記突出終了部分との間を分離線で結ぶことによって、前記突出領域を前記描画領域から分離した分離画像を生成する分離手段と、前記分離画像について、前記分離手段により分離した前記突出領域を除去する除去手段とを備えることを特徴とする。   In order to solve the above problems, the invention of claim 1 is a line drawing processing apparatus for separating a halftone dot from a line drawing, and a protruding start portion and a protruding portion of a protruding area protruding outward with respect to a drawing line extending in a predetermined direction. Separation that separates the protruding area from the drawing area by connecting a detection means for detecting the end part along the outline of the drawing area and a separation line between the protruding start part and the protruding end part. Separating means for generating an image, and removing means for removing the protruding region separated by the separating means for the separated image.

また、請求項2の発明は、請求項1の発明に係る線画処理装置であって、前記除去手段は、所定の基準面積以下の描画画素集合を除去することによって、前記分離手段により分離された前記突出領域を除去することを特徴とする。   The invention of claim 2 is the line drawing processing apparatus according to the invention of claim 1, wherein the removing means is separated by the separating means by removing a drawing pixel set having a predetermined reference area or less. The protruding region is removed.

また、請求項3の発明は、請求項1または2の発明に係る線画処理装置であって、所定方向に連続して並ぶ2以上の連続画素に対して連結する連結画素の各位置のそれぞれについて曲率値を定義したとき、前記検出手段は、前記描画領域の輪郭部分を構成する各画素について曲率値を決定する曲率値決定手段と、前記描画領域の輪郭部分を構成する各画素のうち、前記描画領域を拡張させる方向に曲がると判定される曲率値を持つ画素を変曲点として検出する変曲点検出手段、を含み、前記変曲点検出手段により検出された変曲点のうち、所定の位置関係にある変曲点を前記突出開始部分および前記突出終了部分とすることを特徴とする。   The invention according to claim 3 is the line drawing processing apparatus according to claim 1 or 2, wherein each of the positions of the connected pixels connected to two or more continuous pixels continuously arranged in a predetermined direction is provided. When the curvature value is defined, the detecting means includes a curvature value determining means for determining a curvature value for each pixel constituting the outline portion of the drawing area, and among the pixels constituting the outline portion of the drawing area, An inflection point detecting means for detecting, as an inflection point, a pixel having a curvature value determined to bend in a direction in which the drawing area is expanded, and the predetermined inflection points detected by the inflection point detection means The inflection points in the positional relationship are defined as the protrusion start portion and the protrusion end portion.

また、請求項4の発明は、請求項3の発明に係る線画処理装置であって、前記変曲点検出手段は、前記描画領域の輪郭部分の各画素について、当該各画素に近接する所定の範囲内に含まれる複数画素の曲率値の平均値を、当該画素毎に算出するとともに、前記平均値と前記所定の基準値との比較に基づいて、前記描画領域を拡張させる方向に曲がると判定される画素を前記変曲点として検出することを特徴とする。   The invention of claim 4 is the line drawing processing apparatus according to claim 3 of the invention, wherein the inflection point detecting means has a predetermined proximity to each pixel for each pixel of the contour portion of the drawing area. An average value of curvature values of a plurality of pixels included in the range is calculated for each pixel, and based on a comparison between the average value and the predetermined reference value, it is determined that the image is bent in a direction in which the drawing area is expanded. The detected pixel is detected as the inflection point.

また、請求項5の発明は、請求項1ないし4のいずれかの発明に係る線画処理装置であって、所定の操作入力に基づいて、前記線画から網点を除去すべき除去領域を設定する除去領域設定手段、をさらに備え、前記検出手段は、前記除去領域設定手段により設定された前記除去領域内に含まれる前記突出開始部分と前記突出終了部分とを検出することを特徴とする。   The invention according to claim 5 is the line drawing processing apparatus according to any one of claims 1 to 4, wherein a removal area in which halftone dots are to be removed from the line drawing is set based on a predetermined operation input. It further comprises a removal area setting means, wherein the detection means detects the protrusion start part and the protrusion end part included in the removal area set by the removal area setting means.

また、請求項6の発明は、請求項1ないし5のいずれかの発明に係る線画処理装置であって、前記線画を所定の閾値で2値化することによって、2値画像を取得する2値化手段と、前記2値画像に含まれる描画領域を収縮処理することによって収縮画像を生成するとともに、前記2値画像と前記収縮画像との差分から、前記描画領域の輪郭部分を抽出する輪郭抽出手段とをさらに備え、前記検出手段は、前記輪郭抽出手段により抽出された輪郭部分に沿って、前記突出開始部分と突出終了部分とを検出することを特徴とする。   The invention according to claim 6 is the line drawing processing apparatus according to any one of claims 1 to 5, wherein the binary drawing is obtained by binarizing the line drawing with a predetermined threshold value. A contour extraction unit that generates a contracted image by contracting a drawing region included in the binary image, and extracts a contour portion of the drawing region from a difference between the binary image and the contracted image Means for detecting the protrusion start portion and the protrusion end portion along the contour portion extracted by the contour extraction means.

また、請求項7の発明は、線画から網点を分離する線画処理方法であって、所定方向に延びる描画線に対して外側へ突出する突出領域の突出開始部分と突出終了部分とを、描画領域の輪郭部分に沿って検出する検出工程と、前記検出工程にて検出した前記突出開始部分と前記突出終了部分との間を分離線で結ぶことによって、前記突出領域を前記描画領域から分離した分離画像を生成する分離工程と、前記分離工程によって分離した前記突出領域を前記分離画像から除去する除去手段とを備えることを特徴とする。   The invention of claim 7 is a line drawing processing method for separating a halftone dot from a line drawing, wherein a drawing start portion and a protruding end portion of a protruding region protruding outward with respect to a drawing line extending in a predetermined direction are drawn. The projecting region is separated from the drawing region by connecting a detection step for detecting along a contour portion of the region and a separation line between the projecting start portion and the projecting end portion detected in the detecting step. A separation step of generating a separation image, and a removing unit that removes the protruding region separated by the separation step from the separation image.

また、請求項8の発明は、コンピュータが読み取り可能なプログラムであって、前記コンピュータが前記プログラムを読み取り、前記コンピュータのCPUが前記プログラムをメモリにて実行することにより、所定方向に延びる描画線に対して外側へ突出する突出領域の突出開始部分と突出終了部分とを、描画領域の輪郭部分に沿って検出する検出手段と、前記突出開始部分と前記突出終了部分との間を分離線で結ぶことによって、前記突出領域を前記描画領域から分離した分離画像を生成する分離手段と、前記分離画像について、前記分離手段により分離した前記突出領域を除去する除去手段とを備えた線画から網点を分離する線画処理装置として前記コンピュータを機能させることを特徴とする。   The invention according to claim 8 is a computer-readable program, wherein the computer reads the program, and the CPU of the computer executes the program in the memory, thereby drawing lines extending in a predetermined direction. On the other hand, a detection means for detecting the protrusion start portion and the protrusion end portion of the protrusion region protruding outward along the outline portion of the drawing region and the protrusion start portion and the protrusion end portion are connected by a separation line. Thus, a halftone dot is obtained from a line drawing provided with a separating unit that generates a separated image obtained by separating the protruding region from the drawing region, and a removing unit that removes the protruding region separated by the separating unit for the separated image. The computer is caused to function as a line drawing processing device to be separated.

請求項1ないし8に記載の発明によれば、描画領域の突出領域の突出開始部分と突出終了部分とを検出し、これらの間を分離線で結合することによって突出領域を描画領域から分離するため、描画線に結合している網点を容易かつ精密に除去できる。   According to the first to eighth aspects of the present invention, the protruding region is separated from the drawing region by detecting the protruding start portion and the protruding end portion of the protruding region of the drawing region and connecting them with a separation line. Therefore, the halftone dots connected to the drawing line can be easily and precisely removed.

また、請求項2に記載の発明によれば、比較的単純な処理によって、分離した突出領域を容易に除去できる。   According to the second aspect of the present invention, the separated protruding region can be easily removed by a relatively simple process.

また、請求項3に記載の発明によれば、定義された曲率値に基づいて、描画領域の輪郭を構成する各画素の位置における曲がり度合いを数値化することにより、描画領域の突出領域の突出開始部分と突出終了部分を検出できるため、描画線に結合する網点を効果的に除去することが可能となる。   According to the third aspect of the present invention, the degree of bending at the position of each pixel constituting the outline of the drawing area is quantified based on the defined curvature value, so that the protrusion of the protruding area of the drawing area is calculated. Since the start portion and the projecting end portion can be detected, it is possible to effectively remove the halftone dots connected to the drawing line.

また、請求項4に記載の発明によれば、曲率値を平均化することによって、輪郭部分のがたつきを突出領域と判定することを防止できる。したがって、高精度な網点の分離を実現できる。   Further, according to the invention described in claim 4, it is possible to prevent the rattling of the contour portion from being determined as the protruding region by averaging the curvature values. Therefore, it is possible to realize halftone dot separation with high accuracy.

また、請求項5に記載の発明によれば、除去領域設定手段を備えることによって、網点を除去すべき領域を詳細に指定できる。したがって、網点の種類に応じた除去処理を実現できるため、精密に線画から網点を除去できる。   According to the fifth aspect of the present invention, by providing the removal area setting means, it is possible to specify in detail the area where the halftone dots are to be removed. Therefore, since the removal process according to the type of halftone dot can be realized, the halftone dot can be precisely removed from the line drawing.

また、請求項6に記載の発明によれば、所定画素幅の輪郭線を効率的に抽出できる。   According to the invention described in claim 6, a contour line having a predetermined pixel width can be efficiently extracted.

以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings.

<1. 第1の実施の形態>
<1.1. 構成および機能>
[概略構成]
図1は、本発明の第1の実施の形態における線画処理装置100の外観図である。また、図2は、線画処理装置100の構成を示す図である。
<1. First Embodiment>
<1.1. Configuration and Function>
[Schematic configuration]
FIG. 1 is an external view of a line drawing processing apparatus 100 according to the first embodiment of the present invention. FIG. 2 is a diagram illustrating a configuration of the line drawing processing apparatus 100.

線画処理装置100は、主にCPU10、記憶部11、入力部12、表示部13、ディスク読取部14、通信部15およびスキャナ16を備え、一般的なコンピュータとしての機能を備えている。   The line drawing processing apparatus 100 mainly includes a CPU 10, a storage unit 11, an input unit 12, a display unit 13, a disk reading unit 14, a communication unit 15, and a scanner 16, and has a function as a general computer.

CPU10は、記憶部11に記憶されているプログラム2にしたがって動作することによって、各種データの演算や制御信号の生成を実行し、線画処理装置100の各構成を制御する。CPU10によって実現される機能ブロックについては後述する。   The CPU 10 operates according to the program 2 stored in the storage unit 11 to execute various data calculations and control signal generation, and controls each configuration of the line drawing processing apparatus 100. The functional blocks realized by the CPU 10 will be described later.

記憶部11は、CPU10の一時的なワーキングエリアとなるRAM及びハードディスクや、読み取り専用のROMを備えている(図示せず)。記憶部11は、プログラム2や各種データを記憶する記録媒体としての機能を有する。なお、プログラム2は、記録媒体9からディスク読取部14を介して記憶部11に転送されてもよいし、通信部15を介して記憶部11に転送されてもよい。   The storage unit 11 includes a RAM and a hard disk, which serve as a temporary working area for the CPU 10, and a read-only ROM (not shown). The storage unit 11 has a function as a recording medium for storing the program 2 and various data. The program 2 may be transferred from the recording medium 9 to the storage unit 11 via the disk reading unit 14 or may be transferred to the storage unit 11 via the communication unit 15.

入力部12は、線画処理装置100に対してユーザの指示を入力するために使用される。すなわち、入力部12は、線画処理装置100における入力装置として機能する。具体的に入力部12は、例えばキーボードやマウス、ペンタブレット(登録商標)及び各種ボタン類などが該当する。   The input unit 12 is used to input a user instruction to the line drawing processing apparatus 100. That is, the input unit 12 functions as an input device in the line drawing processing apparatus 100. Specifically, the input unit 12 corresponds to, for example, a keyboard, a mouse, a pen tablet (registered trademark), and various buttons.

表示部13は、各種データを画像として画面に表示する。すなわち表示部13は、線画処理装置100における表示装置として機能する。具体的に表示部13は、例えばCRTモニタや液晶ディスプレイなどが該当するが、タッチパネルディスプレイのように、入力部12の機能を一部有しているものでもよい。   The display unit 13 displays various data as images on the screen. That is, the display unit 13 functions as a display device in the line drawing processing apparatus 100. Specifically, the display unit 13 corresponds to, for example, a CRT monitor or a liquid crystal display, but may have a part of the function of the input unit 12 like a touch panel display.

ディスク読取部14は、可搬性の記録媒体9に記憶されているデータを読み取って記憶部11に転送する装置である。すなわち、ディスク読取部14は線画処理装置100におけるデータ入力装置として機能する。   The disk reading unit 14 is a device that reads data stored in the portable recording medium 9 and transfers the data to the storage unit 11. That is, the disk reading unit 14 functions as a data input device in the line drawing processing apparatus 100.

なお、本実施の形態における線画処理装置100は、ディスク読取部14としてCD−ROMドライブを備えている。しかし、ディスク読取部14はこれに限られるものではなく、例えばFDドライブ、DVDドライブ、MO装置などであってもよい。なお、ディスク読取部14が記録媒体9にデータを記録させる機能を有する場合には、ディスク読取部14に記憶部11の機能の一部を代行させることも可能である。   The line drawing processing apparatus 100 according to the present embodiment includes a CD-ROM drive as the disk reading unit 14. However, the disk reading unit 14 is not limited to this, and may be, for example, an FD drive, a DVD drive, or an MO device. If the disk reading unit 14 has a function of recording data on the recording medium 9, the disk reading unit 14 can substitute a part of the function of the storage unit 11.

通信部15は、線画処理装置100と図示しない他の装置群との間でネットワークを介した通信を行うための機能を有する。   The communication unit 15 has a function for performing communication via the network between the line drawing processing device 100 and another device group (not shown).

スキャナ16は、線画を読み取るための読取装置であって、多数のイメージセンサを有しており、紙媒体などに記録された線画をデジタルデータとして取得するための機能を有する。   The scanner 16 is a reading device for reading a line drawing, has a large number of image sensors, and has a function for acquiring a line drawing recorded on a paper medium or the like as digital data.

図3は、線画処理装置100の機能ブロックをデータの流れとともに示す図である。図3に示す画像取得部20、領域設定部21、第1除去部22、輪郭抽出部23、曲率値決定部24、変曲点検出部25、分離部26および第2除去部27は、主にCPU10がプログラム2に従って動作することにより実現される機能ブロックである。   FIG. 3 is a diagram showing functional blocks of the line drawing processing apparatus 100 together with a data flow. The image acquisition unit 20, the region setting unit 21, the first removal unit 22, the contour extraction unit 23, the curvature value determination unit 24, the inflection point detection unit 25, the separation unit 26, and the second removal unit 27 illustrated in FIG. These are functional blocks realized by the CPU 10 operating according to the program 2.

[画像取得部20]
図4は、スキャナ16により読み取られた線画I1の一例を示す図である。図4に示すような、印刷基材(紙など)に印刷された線画(マンガの一部)がスキャナ16で読み取られることによって、線画データDI1が取得され、画像取得部20により記憶部11に格納される。
[Image acquisition unit 20]
FIG. 4 is a diagram illustrating an example of the line drawing I1 read by the scanner 16. As shown in FIG. 4, a line drawing (part of a manga) printed on a printing substrate (paper or the like) is read by the scanner 16, whereby line drawing data DI <b> 1 is acquired, and the image acquisition unit 20 stores it in the storage unit 11. Stored.

なお、線画処理装置100の処理対象となる線画は、紙などに記載されたアナログ画像(原稿)の場合のほか、出版用に過去にデジタル化された画像の場合もあるが、本実施の形態では、白黒の2値レベルの線画(モノクロ画像)を処理する場合について説明する。   The line drawing to be processed by the line drawing processing apparatus 100 may be an analog image (original) written on paper or the like, or may be an image digitized in the past for publication. A case of processing a monochrome binary level line drawing (monochrome image) will be described.

また、本実施の形態では、描画線や網点などの描画画素を構成する画素は、「黒色(8ビット表現では階調値=0、1ビット表現では階調値=0)」の画素で、無地部分の画素は「白色(8ビット表現では階調値=255、1ビット表現では階調値=1)」の画素で構成されているものとして説明するが、これらは説明のために便宜的に定義されるものであり、例えば描画線などを構成する描画画素が「白色」の画素で構成されていてもよい。   In the present embodiment, the pixels constituting the drawing pixels such as drawing lines and halftone dots are pixels of “black (gradation value = 0 in 8-bit representation, gradation value = 0 in 1-bit representation)”. In the following description, it is assumed that the pixels in the plain portion are composed of pixels of “white (gradation value = 255 in 8-bit representation = 1 gradation value in 1-bit representation)”. For example, the drawing pixels constituting the drawing line may be composed of “white” pixels.

図4に示すように、一般的な未彩色の線画には、多数の網点からなる領域(網点領域TR)が存在しており、背景や物の色合いなどが、網点などのパターンを用いて表現されている。本実施の形態における線画処理装置100は、このような網点を線画I1から精密に分離除去する。   As shown in FIG. 4, a general achromatic line drawing has an area composed of a large number of halftone dots (halftone area TR), and the background or the color of an object has a pattern such as a halftone dot. It is expressed using. The line drawing processing apparatus 100 in the present embodiment accurately separates and removes such halftone dots from the line drawing I1.

[領域設定部21]
領域設定部21は、オペレータによる所定の操作入力に基づいて、前記線画から網点を除去すべき除去領域RRを設定する。具体的には、領域設定部21は、線画I1とともに領域設定用画面(図示せず)を表示部13に表示する。そしてオペレータは、表示部13に表示された線画I1を目で確認しながら、網点を除去したい領域を、所定の選択ツールによって選択指定(トリミング)する。オペレータの操作入力により設定された除去領域RRの情報(サイズや位置などの情報)は、領域設定部21により、領域設定データD1として記憶部11に格納される。
[Area setting unit 21]
The area setting unit 21 sets a removal area RR where halftone dots should be removed from the line drawing based on a predetermined operation input by the operator. Specifically, the region setting unit 21 displays a region setting screen (not shown) on the display unit 13 together with the line drawing I1. Then, the operator selects and trims (trims) a region where the halftone dots are to be removed while visually confirming the line drawing I1 displayed on the display unit 13. Information (information such as size and position) of the removal region RR set by the operator's operation input is stored in the storage unit 11 by the region setting unit 21 as region setting data D1.

このように、除去領域RRをオペレータがあらかじめ指定しておくことで、一度に線画I1の全体を処理対象とする場合よりも、細かな条件にて画像処理を行うことができるため、より精密な網点の除去処理を実現できる。   As described above, since the operator designates the removal region RR in advance, the image processing can be performed under finer conditions than the case where the entire line drawing I1 is set as the processing target at a time. Halftone dot removal processing can be realized.

なお、上述の除去領域RRの指定は、例えば、あらかじめ準備された矩形の枠選択ツールを用いてオペレータが領域を指定することで実現される(図4参照)。ただし、選択ツールは、このようなものに限られるものではなく、円形(楕円形を含む)などその他所定形状の枠選択ツールが準備されていてもよい。   The above-described removal region RR is specified by, for example, an operator specifying a region using a rectangular frame selection tool prepared in advance (see FIG. 4). However, the selection tool is not limited to this, and a frame selection tool having another predetermined shape such as a circle (including an ellipse) may be prepared.

また、オペレータが網画像上に描画するためのツール(描画ツール)などを用いてオペレータが領域を指定することで、除去領域RRの設定が実現されてもよい。さらに、領域設定部21は、上述のような構成に限られず、除去領域RRの指定が可能であればどのような構成としてもよい。   The setting of the removal region RR may be realized by the operator specifying the region using a tool (drawing tool) for the operator to draw on the network image. Furthermore, the region setting unit 21 is not limited to the configuration described above, and may have any configuration as long as the removal region RR can be designated.

また、本実施の形態では、領域設定部21は、線画I1に対して除去領域RRを設定するようにしているが、後述の網点がほぼ除去された状態の画像(除去画像I2)に対して、除去領域RRを設定するように構成してもよい。   In the present embodiment, the region setting unit 21 sets the removal region RR for the line drawing I1, but for an image (removed image I2) in which halftone dots to be described later are substantially removed. Thus, the removal region RR may be set.

[第1除去部22]
第1除去部22は、線画データDI1が表現する線画I1から、所定の基準面積以下の描画画素集合部分を除去する。より詳細には、第1除去部22は、スキャナ16などでの読取時にノイズとして発生する微小ドットや、網点領域TR内の網点など、比較的小さい特定ビットの画素集合(ここでは、黒階調を持つ描画画素の集合)を線画I1(詳細には線画I1のうちの除去領域RR内)から除去する。なお、これらドットが除去された画像データ(除去画像データDI2)は、記憶部11に格納される。
[First removal unit 22]
The first removal unit 22 removes a drawing pixel set portion having a predetermined reference area or less from the line drawing I1 represented by the line drawing data DI1. More specifically, the first removal unit 22 has a relatively small pixel set of specific bits (here, black dots) such as minute dots generated as noise during reading by the scanner 16 or the like, or halftone dots in the halftone area TR. A set of gradation-drawing pixels) is removed from the line drawing I1 (specifically, in the removal region RR of the line drawing I1). The image data from which these dots have been removed (removed image data DI2) is stored in the storage unit 11.

なお、ここでの所定の基準面積は、例えば、線画I1に含まれている網点領域TRに含まれる多数の網点の単位当たりの画素面積(または、それよりも若干大きい画素面積)とされる。このように基準を設定することで、線画I1から網点を効率的に除去できる。   The predetermined reference area here is, for example, the pixel area per unit of a large number of halftone dots included in the halftone dot region TR included in the line drawing I1 (or a pixel area slightly larger than that). The By setting the reference in this way, halftone dots can be efficiently removed from the line drawing I1.

図5は、図4に示す線画I1から網点を除去した除去画像I2を示す図である。図5に示すように、除去画像I2では、第1除去部22により、線画I1に含まれていた網点領域TR内の網点はほぼ除去されている。   FIG. 5 is a diagram showing a removed image I2 obtained by removing halftone dots from the line drawing I1 shown in FIG. As shown in FIG. 5, in the removal image I2, the first removal unit 22 substantially removes halftone dots in the halftone area TR included in the line drawing I1.

なお、第1除去部22による網点除去処理では、図5中、破線で囲む領域に示すように、描画線上に重なって存在する網点が除去されず、描画線から突出した形状として残存する。本実施の形態における線画処理装置100では、後述の各処理により、描画線上に残存する網点を除去画像I2から効率的に除去することが可能となっている。   In the halftone dot removal process by the first removal unit 22, as shown in the area surrounded by the broken line in FIG. 5, the halftone dot that overlaps the drawing line is not removed and remains as a shape protruding from the drawing line. . In the line drawing processing apparatus 100 according to the present embodiment, it is possible to efficiently remove halftone dots remaining on the drawing line from the removed image I2 by each process described later.

[輪郭抽出部23]
図3に戻って、輪郭抽出部23は、描画線上に重なった網点からなる突出部分を検出するために、描画領域DRの輪郭部分を抽出する。輪郭抽出部23は、収縮処理部231および差分処理部232を備えており、除去画像I2のうち、領域設定部21により設定された除去領域RRの内部について、所定階調値(ここでは黒の階調値)の画素を含む描画領域DRの輪郭部分を抽出する。
[Outline Extraction Unit 23]
Returning to FIG. 3, the contour extracting unit 23 extracts a contour portion of the drawing region DR in order to detect a protruding portion formed of a halftone dot overlapped on the drawing line. The contour extraction unit 23 includes a contraction processing unit 231 and a difference processing unit 232, and a predetermined gradation value (here, black) is set for the inside of the removal region RR set by the region setting unit 21 in the removal image I2. The contour portion of the drawing region DR including the pixel of (gradation value) is extracted.

図6は、除去画像I2から輪郭線OLを抽出した輪郭抽出画像I4を示す図である。輪郭抽出部23は、除去画像I2の黒の階調値の画素で構成される描画領域DRを、収縮処理部231により1画素分収縮することによって、収縮画像データDI3を生成する。   FIG. 6 is a diagram showing a contour extraction image I4 obtained by extracting the contour line OL from the removal image I2. The contour extracting unit 23 generates contracted image data DI3 by contracting the drawing region DR composed of pixels of the black gradation value of the removed image I2 by one contraction by the contraction processing unit 231.

ここで、収縮処理とは、例えば「黒色」の描画領域DRを収縮させる場合に、2値画像における「黒色」の注目画素の8近傍に、1つでも「白色」の画素があれば、その画素を「白色」の画素に置換する処理をいう。なお、置換条件は、上述のものに限られるものではなく、適宜に設定可能である。また、注目画素の8近傍を識別して収縮処理するものに限られず、例えば4近傍を識別して収縮処理するようにしてもよい。   Here, for example, when the “black” drawing region DR is contracted, if there is at least one “white” pixel in the vicinity of the “black” target pixel in the binary image, A process of replacing a pixel with a “white” pixel. The replacement conditions are not limited to those described above, and can be set as appropriate. Further, the present invention is not limited to identifying the neighborhood of 8 pixels of the pixel of interest and performing the contraction process. For example, the neighborhood of 4 pixels may be identified to perform the contraction process.

収縮画像データDI3を生成すると、輪郭抽出部23は、収縮画像データDI3と元の除去画像データDI2とについて、差分処理部232により差分演算処理(排他的論理和演算)することによって、描画領域DRの輪郭部分(1画素幅の輪郭線OL)を抽出する。   When the contracted image data DI3 is generated, the contour extracting unit 23 performs a difference calculation process (exclusive OR operation) on the contracted image data DI3 and the original removed image data DI2 by the difference processing unit 232, thereby drawing region DR. Are extracted (contour line OL having a width of one pixel).

図6に示すように、除去画像I2では孤立して存在する網点Dot1(図6中、破線で示す)は、第1除去部22により除去されている。このような除去画像I2に対して、上述した収縮処理および差分演算処理することによって、描画領域DR(ここでは、描画線DLと当該描画線に重なった網点Dot1の一部とからなる)の輪郭線OLからなる輪郭抽出画像I4が生成される。なお、生成された輪郭抽出画像I4を表現するデータ(輪郭抽出データDI4)は、輪郭抽出部24により、記憶部11に格納される(図3参照)。   As shown in FIG. 6, halftone dots Dot1 (indicated by broken lines in FIG. 6) that exist in isolation in the removed image I2 are removed by the first removal unit 22. By performing the above-described contraction process and difference calculation process on such a removed image I2, the drawing region DR (here, composed of the drawing line DL and a part of the halftone dot Dot1 overlapping the drawing line). A contour extraction image I4 composed of the contour line OL is generated. Data (contour extraction data DI4) representing the generated contour extraction image I4 is stored in the storage unit 11 by the contour extraction unit 24 (see FIG. 3).

なお、輪郭抽出方法は上述の方法に限られるものではなく、例えば所定のフィルタを用いて除去画像I2からエッジを検出することによって、輪郭を抽出してもよい。   Note that the contour extraction method is not limited to the above-described method. For example, the contour may be extracted by detecting an edge from the removed image I2 using a predetermined filter.

[曲率値決定部24]
図3に戻って、曲率値決定部24は、抽出された輪郭線OLから、所定方向に延びる描画線DLから突出した突出領域ERの突出開始部分と突出終了部分とを検出するために、輪郭線OL上の各画素位置における曲がり度合いを数値化する。
[Curvature value determination unit 24]
Returning to FIG. 3, the curvature value determining unit 24 uses the contour to detect the protrusion start portion and the protrusion end portion of the protrusion region ER protruding from the drawing line DL extending in a predetermined direction from the extracted contour line OL. The degree of bending at each pixel position on the line OL is digitized.

例えば、図6に示す除去画像I2において、描画線DLと網点Dot1が重なった部分の描画領域DRでは、所定方向(ここでは上下方向)に延びる描画線DLから網点Dot1が突出した状態となっており、突出領域ERが形成されている。この突出領域ERが存在するため、輪郭線OLには、描画領域DRを外側へ拡張させる方向へ曲がる突出開始部分(四角で囲む部分)と突出終了部分(三角で囲む部分)とが存在する。   For example, in the removed image I2 shown in FIG. 6, in the drawing region DR where the drawing line DL and the halftone dot Dot1 overlap, the halftone dot Dot1 protrudes from the drawing line DL extending in a predetermined direction (vertical direction here). The protruding region ER is formed. Since the protruding region ER exists, the contour OL has a protruding start portion (a portion surrounded by a square) and a protruding end portion (a portion surrounded by a triangle) that bend in the direction of extending the drawing region DR outward.

本実施の形態では、描画領域DR上の突出領域ERを検出するために、この突出開始部分と突出終了部分とをそれぞれ検出する。そのため、曲率値決定部24は、基準となる連続して並ぶ2以上の連続画素に連結する連結画素の各位置のそれぞれについてあらかじめ定義された曲率値に基づいて、描画領域DRの輪郭線OLを構成する各画素の曲がり度合いを定量化する。曲率値の決定方法については、図7ないし図9を参照しつつ説明する。   In the present embodiment, in order to detect the protruding region ER on the drawing region DR, the protruding start portion and the protruding end portion are detected. Therefore, the curvature value determination unit 24 calculates the contour line OL of the drawing region DR based on the curvature value defined in advance for each position of the connected pixels connected to two or more consecutive pixels that are continuously arranged as a reference. The degree of bending of each pixel constituting is quantified. A method for determining the curvature value will be described with reference to FIGS.

図7は、定義マトリクスF1を示す図である。定義マトリクスF1は、3×3のマス目で構成され、中央において所定方向に沿って並べられた(ここでは、互いに隣接するように連結する)マス目Bおよびマス目Mと、曲率値(ここでは、−3,−2,−1,0,+1,+2,+3)がそれぞれ定義された7個のマス目からなる。   FIG. 7 is a diagram showing the definition matrix F1. The definition matrix F1 is composed of 3 × 3 squares, arranged in a center along a predetermined direction (here, connected to be adjacent to each other) and squares M, and curvature values (here Then, -3, -2, -1, 0, +1, +2, +3) are composed of seven squares defined respectively.

図8は、定義マトリクスF1を用いて曲率値の決定方法を説明するための図である。なお、図8に示す例では、除去画像I2は描画領域DR1,DR2を含んでいる。また、描画領域DR1は、その内側に非描画領域を有し、また、描画領域DR2は、除去画像I2を規定する枠線W部分にまで広がりを有している。   FIG. 8 is a diagram for explaining a method of determining a curvature value using the definition matrix F1. In the example shown in FIG. 8, the removed image I2 includes the drawing areas DR1 and DR2. In addition, the drawing area DR1 has a non-drawing area inside, and the drawing area DR2 extends to the frame line W that defines the removed image I2.

曲率値決定部24は、このような描画領域DR1,DR2から抽出される1画素幅の輪郭線OLに沿って、定義マトリクスF1を参照しつつ、輪郭線OLの画素毎に曲率値を決定する。   The curvature value determination unit 24 determines a curvature value for each pixel of the contour line OL while referring to the definition matrix F1 along the contour line OL having a width of one pixel extracted from the drawing regions DR1 and DR2. .

なお、定義マトリクスF1を用いて曲率値を決定する場合、描画領域DR1の外周側の輪郭線OLについては、曲率値決定部24は、輪郭線OL上を時計回りに進みながら各画素の曲率値を順次決定する。一方、描画領域DR1の内周側の輪郭線OLについては、曲率値決定部24は、輪郭線OL上を反時計回りに進みながら各画素の曲率値を順次決定する。   When the curvature value is determined using the definition matrix F1, for the contour line OL on the outer periphery side of the drawing region DR1, the curvature value determination unit 24 proceeds in the clockwise direction on the contour line OL while the curvature value of each pixel. Are sequentially determined. On the other hand, for the contour line OL on the inner periphery side of the drawing region DR1, the curvature value determination unit 24 sequentially determines the curvature value of each pixel while proceeding counterclockwise on the contour line OL.

また、描画領域DR2の枠線Wと重なる部分については、上述の収縮処理および差分演算処理では、輪郭線OLが抽出されない。そのため、曲率値決定部24は、枠線Wと重なる部分に仮想的な補助線を補完することによって、抽出線OL間を補助線で接続し、描画領域DRの外周部分を構成する補助線OLおよび補助線上を時計回りに進みながら、各画素における曲率値を順次決定する。   In addition, for the portion overlapping the frame line W of the drawing region DR2, the contour line OL is not extracted in the above-described contraction process and difference calculation process. Therefore, the curvature value determining unit 24 complements a virtual auxiliary line to a portion overlapping the frame line W, thereby connecting the extraction lines OL with an auxiliary line, and configuring the auxiliary line OL constituting the outer peripheral portion of the drawing region DR. The curvature value in each pixel is sequentially determined while proceeding clockwise on the auxiliary line.

また、曲率値決定部24は、輪郭線OL上の特定画素およびその前の画素からなる画素(連続画素)対して連結する次の画素(連結画素)の位置に基づいて、定義マトリクスF1を適宜参照することにより、当該その次の連結画素の曲率値を決定する。次に、具体例をあげて、定義マトリクスF1を用いた曲率値の決定方法を説明する。   Further, the curvature value determination unit 24 appropriately defines the definition matrix F1 based on the position of the next pixel (connected pixel) connected to the pixel (continuous pixel) including the specific pixel on the contour line OL and the previous pixel (continuous pixel). By referencing, the curvature value of the next connected pixel is determined. Next, a method for determining a curvature value using the definition matrix F1 will be described with a specific example.

図9は、描画領域DRの輪郭線OLを構成する画素の一例を示す図である。   FIG. 9 is a diagram illustrating an example of pixels constituting the outline OL of the drawing region DR.

なお、図9に示す画素p1〜画素p10は、描画領域DRの外周部分の輪郭線OLの一部を構成する。したがって、曲率値決定部24は、上述のように輪郭線OLに沿って時計回りに曲率値を決定していくため、画素p1,p2,p3・・・の順に各画素の曲率値が決定される。   Note that the pixels p1 to p10 illustrated in FIG. 9 constitute a part of the outline OL of the outer peripheral portion of the drawing region DR. Therefore, since the curvature value determination unit 24 determines the curvature value clockwise along the contour line OL as described above, the curvature value of each pixel is determined in the order of the pixels p1, p2, p3. The

また、図9に示す輪郭線OLは、画素p1〜画素p4では直線を形成しており、また、画素p5,p7,p9では描画領域DRを拡張する方向(描画領域DRの外側方向)に曲がっており、また、画素p6,p8,p10では描画領域DRを収縮させる方向(描画領域DRの内側方向)に曲がっている。   Further, the contour line OL shown in FIG. 9 forms a straight line in the pixels p1 to p4, and bends in the direction in which the drawing region DR is expanded (the outside direction of the drawing region DR) in the pixels p5, p7, and p9. Further, the pixels p6, p8, and p10 are bent in a direction in which the drawing region DR is contracted (inward direction of the drawing region DR).

例えば、画素p2に着目したとき、画素p2およびその前の画素p1の並び方向を、定義マトリクスF1のマス目Mとマス目Bの並び方向に一致させると、次の画素p3の位置は、定義マトリクスF1では、曲率値=0と定義されたマス目に相当する。したがって、次の画素p3の曲率値は0と決定される。   For example, when focusing on the pixel p2, if the arrangement direction of the pixel p2 and the preceding pixel p1 is made to coincide with the arrangement direction of the cell M and the cell B of the definition matrix F1, the position of the next pixel p3 is defined. In the matrix F1, it corresponds to a grid defined as curvature value = 0. Therefore, the curvature value of the next pixel p3 is determined to be 0.

同様にして画素p10までの曲率値を全て決定すると、画素p3,p4での曲率値は0、画素p5,p7,p9での曲率値は+2、画素p6,p8,p10での曲率値は−2となる。すなわち、図9に示す定義マトリクスF1を用いて曲率値を決定した場合には、輪郭線OLが曲がらない部分を構成する画素では曲率値が0、描画領域DRを拡張させる方向に曲がる位置の画素では曲率値が正の値、描画領域DRを収縮させる方向に曲がる位置の画素では曲率値が負の値として決定される。   Similarly, when all the curvature values up to the pixel p10 are determined, the curvature values at the pixels p3 and p4 are 0, the curvature values at the pixels p5, p7, and p9 are +2, and the curvature values at the pixels p6, p8, and p10 are −. 2 That is, when the curvature value is determined using the definition matrix F1 shown in FIG. 9, the curvature value is 0 in the pixels constituting the portion where the contour line OL is not bent, and the pixel is bent at the direction in which the drawing region DR is expanded. Then, the curvature value is determined to be a positive value, and the curvature value is determined to be a negative value in a pixel that is bent in the direction in which the drawing region DR is contracted.

以上のように、曲率値決定部24は、輪郭線OLに沿って定義マトリクスF1を参照しつつ、輪郭線OL上の各画素位置における曲率値を決定し、曲率値データD2を生成する。生成された曲率値データD2は、記憶部11に格納される。   As described above, the curvature value determination unit 24 determines the curvature value at each pixel position on the contour line OL while referring to the definition matrix F1 along the contour line OL, and generates the curvature value data D2. The generated curvature value data D2 is stored in the storage unit 11.

[変曲点検出部25]
一般に、描画領域DRの輪郭線OLには、スキャナ16の読取り誤差などにより、がたつき(本来は直線的に延びる輪郭線OL部分において生じる数画素分の微細な突出や凹み)が存在している。したがって、曲率値データD2には、これらがたつき部分の曲率値が含まれているため、曲率値データD2に基づいて輪郭線OLの曲がりを評価した場合には、直線的に延びる輪郭線OL上に、誤って突出部分があると判定される虞れがある。
[Inflection point detector 25]
In general, the contour line OL of the drawing region DR has rattling (a fine protrusion or dent corresponding to several pixels that occurs in the contour line OL portion that extends linearly) due to a reading error of the scanner 16 or the like. Yes. Therefore, since the curvature value data D2 includes the curvature values of the wobbling portions, when the curvature of the contour line OL is evaluated based on the curvature value data D2, the contour line OL extending linearly. There is a possibility that it is erroneously determined that there is a protruding portion.

そこで、変曲点検出部25は、曲率値データD2から、画素毎に平均曲率値をさらに算出するとともに、所定の基準値を超える平均曲率値を持つ画素を変曲点Pとして検出する。まず、平均曲率値の算出方法について、図10を参照しつつ説明する。   Therefore, the inflection point detection unit 25 further calculates an average curvature value for each pixel from the curvature value data D2, and detects a pixel having an average curvature value exceeding a predetermined reference value as the inflection point P. First, a method for calculating the average curvature value will be described with reference to FIG.

図10は、平均曲率値の算出方法を説明するための図である。変曲点検出部25は、特定画素に近接した所定範囲内における複数画素の曲率値の平均をとることによって、当該特定画素の平均曲率値を算出する。   FIG. 10 is a diagram for explaining a method of calculating the average curvature value. The inflection point detection unit 25 calculates the average curvature value of the specific pixel by taking the average of the curvature values of a plurality of pixels within a predetermined range close to the specific pixel.

輪郭線OLを構成する画素p11〜p16の曲率値が、それぞれ0,0,0,+2,−2および0であるときに、例えば、画素p13の平均階調値を求める場合は、本実施の形態における変曲点検出部25は、画素p13の曲率値とこれを挟んだ前後2画素(画素p11,p12,p14,p15)の曲率値(+2と0,0,0,−2)の平均値を画素p13の平均階調値とする。したがって、画素p13における平均階調値は0となる。これと同様に、画素p14の平均階調値は0として算出される。   When the curvature values of the pixels p11 to p16 constituting the contour line OL are 0, 0, 0, +2, -2, and 0, respectively, for example, when obtaining the average gradation value of the pixel p13, the present embodiment The inflection point detection unit 25 in the embodiment averages the curvature value of the pixel p13 and the curvature values (+2 and 0, 0, 0, -2) of the two pixels before and after the pixel (pixels p11, p12, p14, p15). The value is the average gradation value of the pixel p13. Therefore, the average gradation value in the pixel p13 is 0. Similarly, the average gradation value of the pixel p14 is calculated as 0.

画素p14は、曲率値が決定された段階では、折れ曲がり部分としての曲率値を有する(曲率値=+2)ものの、平均曲率値を算出した場合には、値が0となっている。すなわち、平均曲率値を輪郭線OLの曲がり度合いの評価に用いることによって、画素p11〜p16のようにほぼ直線的に延びる部分で曲がりが生じていると誤判定されることを効果的に抑制できる。   The pixel p14 has a curvature value as a bent portion (curvature value = + 2) at the stage where the curvature value is determined, but the value is 0 when the average curvature value is calculated. That is, by using the average curvature value for the evaluation of the degree of bending of the contour line OL, it is possible to effectively suppress erroneous determination that the bending occurs in a portion extending substantially linearly like the pixels p11 to p16. .

なお、本実施の形態では、平均曲率値を求めたい画素とこれに隣接する前後2画素との計5画素分の曲率値から、平均曲率値を算出するとしているが、もちろんこれに限られるものではなく、平均をとる画素の数は自由に設定することができる。ただし、曲がり度合いを正確に反映した数値を得るために、平均曲率値を算出すべき画素に対してできるだけ近接する範囲内の画素の曲率値が選択されるように構成することが望ましい。   In the present embodiment, the average curvature value is calculated from the curvature values of a total of five pixels, that is, the pixels for which the average curvature value is to be obtained and the two adjacent pixels adjacent to the pixel. However, the present invention is not limited to this. Instead, the number of pixels to be averaged can be set freely. However, in order to obtain a numerical value that accurately reflects the degree of curvature, it is desirable to select a curvature value of a pixel within a range as close as possible to the pixel whose average curvature value is to be calculated.

図11は、図6に示す輪郭抽出画像I4の輪郭線OLを、各画素の平均曲率値とともに示す図である。なお、図11では、輪郭線OLを構成する画素のうち、一部の画素についての平均曲率値を示している。   FIG. 11 is a diagram illustrating the contour line OL of the contour extraction image I4 illustrated in FIG. 6 together with the average curvature value of each pixel. In addition, in FIG. 11, the average curvature value about some pixels is shown among the pixels which comprise the outline OL.

図11に示すように、直線的に延びる輪郭線OL(左側の直線)では、平均曲率値は全て0となっている。したがって、曲がりが生じていないことが数値(ここでは0)で表現されている。一方、描画線上に網点が重なった突出部分を含む輪郭線OL(左側の線)では、描画線DL由来の輪郭部分の平均曲率値は0であるものの、突出領域ERの突出開始部分(四角で囲む部分)や突出終了部分(三角で囲む)における平均曲率値は、+1.3となっている。また、網点Dot1由来の輪郭部分では、平均曲率値は、0〜−0.6の値となっている。   As shown in FIG. 11, the average curvature values are all 0 in the linearly extending contour OL (the left straight line). Therefore, it is expressed by a numerical value (0 in this case) that no bending occurs. On the other hand, in the contour line OL (left side line) including the protruding portion where the halftone dots overlap on the drawing line, the average curvature value of the contour portion derived from the drawing line DL is 0, but the protruding start portion (square) of the protruding region ER. The average curvature value at the portion surrounded by () and the end portion of projection (enclosed with a triangle) is +1.3. In the contour portion derived from the dot Dot1, the average curvature value is a value of 0 to −0.6.

ここで、変曲点検出部25は、所定の基準値以上の平均曲率値を有する画素(変曲点P)を検出する。例えば、所定の基準値を「+1」とし、当該基準値以上の平均曲率値を持つ画素を変曲点Pとした場合、変曲点検出部25は、突出開始部分と突出終了部分と(すなわち、描画領域DRを拡張させる方向へ曲がる部分)を変曲点Pとして検出する。   Here, the inflection point detection unit 25 detects a pixel (inflection point P) having an average curvature value equal to or greater than a predetermined reference value. For example, when a predetermined reference value is “+1” and a pixel having an average curvature value equal to or greater than the reference value is an inflection point P, the inflection point detection unit 25 includes a protrusion start portion and a protrusion end portion (that is, , A portion that bends in the direction of extending the drawing area DR) is detected as an inflection point P.

このように、適切な基準値を設定するとともに、変曲点検出部25が基準値と輪郭線OL上の各画素における平均曲率値とを比較することによって、輪郭線OL上における突出領域ERの突出開始部分および突出終了部分を、変曲点Pとして効率的に検出できる。   In this way, an appropriate reference value is set, and the inflection point detection unit 25 compares the reference value with the average curvature value of each pixel on the contour line OL, so that the protrusion region ER on the contour line OL is detected. The protrusion start portion and the protrusion end portion can be efficiently detected as the inflection point P.

なお、本実施の形態では、曲率値決定部24は、図8にて説明したように、描画領域DRの外周側の輪郭線OLについては、輪郭線OL上を時計回りに進みつつ曲率値を決定し、内周側の輪郭線OLについては、輪郭線OL上を反時計回りに進みつつ曲率値を決定するとしているが、曲率値の決定方法はこれに限られるものではない。   In the present embodiment, as described with reference to FIG. 8, the curvature value determination unit 24 calculates the curvature value while proceeding clockwise on the contour line OL for the contour line OL on the outer periphery side of the drawing region DR. The curvature value is determined for the inner contour line OL while proceeding counterclockwise on the contour line OL, but the method for determining the curvature value is not limited to this.

例えば、曲率値決定部24を、外周側の輪郭線OLについては、反時計回りに曲率値を決定するようにし、内周側の輪郭線については、時計回りに曲率値を決定するように構成してもよい。ただし、この場合において、定義マトリクスF1を用いて曲率値を決定すると、描画領域DRを拡張させる方向に曲がる画素の曲率値は負の値に、描画領域DRを収縮させる方向に曲がる画素の曲率値は正の値となる。したがって、変曲点検出部25により変曲点Pを検出する場合、基準値を負の値とする必要がある。   For example, the curvature value determination unit 24 is configured to determine the curvature value counterclockwise for the outer contour line OL, and to determine the curvature value clockwise for the inner contour line. May be. However, in this case, when the curvature value is determined using the definition matrix F1, the curvature value of the pixel that is bent in the direction in which the drawing region DR is expanded is negative, and the curvature value of the pixel that is bent in the direction in which the drawing region DR is contracted. Is a positive value. Therefore, when the inflection point P is detected by the inflection point detector 25, the reference value needs to be a negative value.

また、曲率値決定部24が、描画領域DRの外周側の輪郭線OLおよび内周側の輪郭線OLのそれぞれについて、定義ファイルF1を同一の回り方向(時計回り(あるいは反時計回り))に曲率値を順次決定するようにしてもよい。この場合には、変曲点検出部25が変曲点Pを検出する条件を、外周側と内周側とで別々の条件に適宜設定すればよい。   Further, the curvature value determining unit 24 sets the definition file F1 in the same direction (clockwise (or counterclockwise)) for each of the outer contour line OL and the inner contour line OL of the drawing region DR. The curvature value may be determined sequentially. In this case, the condition for the inflection point detection unit 25 to detect the inflection point P may be appropriately set to different conditions for the outer peripheral side and the inner peripheral side.

以上の処理によって取得される変曲点検出データD3には、変曲点Pの位置情報が記述されているのみであって、どの変曲点Pが突出領域ERの突出開始部分であるのか、または突出終了部分であるのか不明である。そこで、変曲点検出部25は、所定の位置関係にある変曲点Pを、突出開始部分と突出終了部分として検出する。   In the inflection point detection data D3 acquired by the above processing, only the position information of the inflection point P is described, and which inflection point P is the protrusion start portion of the protrusion region ER. Or it is unknown whether it is a protruding end part. Therefore, the inflection point detection unit 25 detects the inflection point P having a predetermined positional relationship as the protrusion start portion and the protrusion end portion.

2つの変曲点Pの位置が所定の位置関係にあるか否かは、例えば、変曲点P間の距離や変曲点Pの並び方向などに基づいて判定される。ここで、図6に示すように描画線DL上に網点Dot1が重なっている場合、これらの重なり部分の長さ(距離d、図12(a)参照)は、孤立して存在する網点Dot1のサイズよりも小さくなる。そこで、本実施の形態では、変曲点検出部25は、網点Dot1のサイズ以下の距離関係にある2つの変曲点Pを検出することによって、突出開始部分および突出終了部分とする。   Whether or not the positions of the two inflection points P are in a predetermined positional relationship is determined based on, for example, the distance between the inflection points P or the arrangement direction of the inflection points P. Here, as shown in FIG. 6, when the halftone dot Dot1 overlaps the drawing line DL, the length of these overlapping portions (distance d, see FIG. 12A) is the halftone dot that exists in isolation. It becomes smaller than the size of Dot1. Therefore, in the present embodiment, the inflection point detection unit 25 detects the two inflection points P that are in a distance relationship equal to or smaller than the size of the halftone dot Dot1, thereby setting the protrusion start portion and the protrusion end portion.

なお、突出開始部分および突出部終了部分の変曲点Pとして検出された画素の位置情報は、変曲点検出データD3として記憶部11に格納される。   Note that pixel position information detected as the inflection point P at the protrusion start portion and the protrusion end portion is stored in the storage unit 11 as the inflection point detection data D3.

[分離部26]
分離部26は、変曲点検出データD3を参照することによって、突出開始部分および突出終了部分として検出された変曲点Pを分離線Lで結ぶ(接続する)。これにより、元の描画領域DRから突出領域ERが分離される。
[Separator 26]
The separation unit 26 connects (connects) the inflection points P detected as the protrusion start portion and the protrusion end portion by the separation line L by referring to the inflection point detection data D3. Thereby, the protruding region ER is separated from the original drawing region DR.

図12は、分離部26が突出領域ERを分離する様子を説明するための図である。なお、図12(a)は、所定の位置関係にある除去画像I2における変曲点Pの対応位置を示す図である。また、図12(b)は、分離部26が、所定の位置関係にある変曲点P間を、分離線Lを結んだ分離画像I5を示す図である。   FIG. 12 is a diagram for explaining how the separation unit 26 separates the protruding region ER. FIG. 12A is a diagram illustrating the corresponding position of the inflection point P in the removed image I2 having a predetermined positional relationship. FIG. 12B is a diagram illustrating a separated image I5 in which the separation unit 26 connects the inflection points P having a predetermined positional relationship with the separation line L.

変曲点検出データD3を参照することによって、所定の位置関係(ここでは、変曲点P間の距離dが網点Dot1のサイズ以下)にある変曲点Pの除去画像Iにおける対応位置を特定すると、図12(b)に示すように、これらの変曲点P間を描画領域DRの輪郭線OLよりも外側の階調値を持つ所定画素幅の分離線Lにて接続する。   By referring to the inflection point detection data D3, the corresponding position in the removed image I of the inflection point P that is in a predetermined positional relationship (here, the distance d between the inflection points P is equal to or smaller than the size of the halftone dot Dot1). Specifically, as shown in FIG. 12B, these inflection points P are connected by a separation line L having a predetermined pixel width having a gradation value outside the outline OL of the drawing region DR.

ここで、本実施の形態では、輪郭部分の外側の画素の階調値は、白色(無地)の階調値である。したがって、所定の位置関係にある変曲点P間に、白色の分離線Lを引くことによって、描画領域DRから突出領域ERが分離される。すなわち、分離線Lによって、描画線DLと描画線DLに重なった網点Dot1とからなる描画領域DRが、描画線DLと網点Dot1(の一部)とにそれぞれ分離されることとなる。   Here, in the present embodiment, the gradation value of the pixel outside the contour portion is a white (plain) gradation value. Therefore, the protruding region ER is separated from the drawing region DR by drawing the white separation line L between the inflection points P having a predetermined positional relationship. That is, the separation line L separates the drawing area DR including the drawing line DL and the halftone dot Dot1 overlapping the drawing line DL into the drawing line DL and the halftone dot Dot1 (a part thereof).

なお、分離線Lの画素幅は、自由に設定可能であるが、分離線Lによって描画線DLが狭められることを防止するため、1画素幅とすることが好ましい。また、突出領域ERを描画領域DRから完全分離するために、変曲点P間を挟んだ外側の画素同士を分離線Lで結ぶように分離部26を構成してもよい。   Note that the pixel width of the separation line L can be freely set. However, in order to prevent the drawing line DL from being narrowed by the separation line L, the pixel width is preferably set to one pixel width. Further, in order to completely separate the protruding region ER from the drawing region DR, the separation unit 26 may be configured so that the outer pixels sandwiching the inflection points P are connected by a separation line L.

以上のように、除去画像データDI2について、分離線Lが追加された画像データ(分離画像データDI5)は、分離部26により記憶部11に格納される(図3参照)。   As described above, the image data (separated image data DI5) with the separation line L added to the removed image data DI2 is stored in the storage unit 11 by the separation unit 26 (see FIG. 3).

[第2除去部27]
図3に戻って、第2除去部27は、分離部26により分離線Lが追加された分離画像I5について、第2除去部27は、所定の基準面積以下の描画画素集合を検出するとともに、検出された描画画素集合を白色(無地)の画素値に置き換えることによって、描画線DLから分離された網点Dot1の一部を除去する。
[Second removal unit 27]
Returning to FIG. 3, the second removal unit 27 detects a drawing pixel set having a predetermined reference area or less for the separated image I5 to which the separation line L is added by the separation unit 26, and By replacing the detected drawing pixel set with a white (plain) pixel value, a part of the halftone dot Dot1 separated from the drawing line DL is removed.

ここで、描画線DLから分離された網点Dot1(の一部)は、もともと孤立して存在する網点Dot1よりもサイズが小さくなっている。したがって、第2除去部27は、網点Dot1の面積の値(もしくはそれよりも小さい値)を基準面積とすることで、これ以下のサイズの描画画素集合(分離された突出領域ERを含む。)を分離画像I5から除去する。これにより生成される網点除去画像データDI6は、第2除去部27により、記憶部11に格納される。   Here, (a part of) the dot Dot1 separated from the drawing line DL is smaller in size than the dot Dot1 that originally exists in isolation. Therefore, the second removal unit 27 includes a drawing pixel set (separated protruding region ER) having a size smaller than or equal to this by using the value of the area of the dot Dot1 (or a value smaller than that) as the reference area. ) Is removed from the separated image I5. The halftone dot removal image data DI6 generated thereby is stored in the storage unit 11 by the second removal unit 27.

以上が、本実施の形態における線画処理装置100の構成および機能の説明である。次に、線画I1から網点Dot1を除去する際の線画処理装置100の動作について説明する。   The above is the description of the configuration and functions of the line drawing processing apparatus 100 in the present embodiment. Next, the operation of the line drawing processing apparatus 100 when removing the halftone dot DT1 from the line drawing I1 will be described.

<1.2.動作>
図13は、線画処理装置100の動作の流れ図である。
<1.2. Operation>
FIG. 13 is a flowchart of the operation of the line drawing processing apparatus 100.

まず線画処理装置100は、スキャナ16により紙媒体などに記録された線画I1を光電的に読取って、画像取得部20により2値化された線画データDI1を取得する(ステップS1)。取得された線画データDI1は、記憶部11に格納される。なお、線画データDI1の取得方法は、スキャナ16での読取りに限られるものではなく、あらかじめデジタルデータ化された状態で、記憶部11や記録媒体9、あるいはネットワーク上に保存された線画データDI1を適宜取得するようにしてもよい。   First, the line drawing processing apparatus 100 photoelectrically reads the line drawing I1 recorded on a paper medium or the like by the scanner 16, and acquires the line drawing data DI1 binarized by the image acquisition unit 20 (step S1). The acquired line drawing data DI1 is stored in the storage unit 11. Note that the method of acquiring the line drawing data DI1 is not limited to reading by the scanner 16, and the line drawing data DI1 stored on the storage unit 11 or the recording medium 9 or on the network in a digital data state in advance is stored. You may make it acquire suitably.

線画データDI1を取得すると、線画処理装置100は、領域設定部21により、描画線上に重なった網点を除去処理する除去領域RRを設定する(ステップS2)。具体的には、領域設定部21が線画I1と領域設定用画面とを表示部13に表示させるとともに、オペレータがこれに従って網点を除去したい領域を指定することで、除去領域RRが設定される。設定された除去領域RRについての情報(領域の大きさ、位置など)は、領域設定データD1として記憶部11に格納される。   When the line drawing data DI1 is acquired, the line drawing processing apparatus 100 sets the removal region RR for removing halftone dots that overlap the drawing line by the region setting unit 21 (step S2). Specifically, the region setting unit 21 displays the line drawing I1 and the region setting screen on the display unit 13, and the operator designates a region where halftone dots are to be removed according to the display unit 13, thereby setting the removal region RR. . Information about the set removal area RR (area size, position, etc.) is stored in the storage unit 11 as area setting data D1.

領域の設定処理を完了すると、線画処理装置100は、第1除去部22により、所定の基準面積以下の描画画素集合を除去することによって、線画I1(詳細には、線画I1のうちの除去領域RR)から、除去画像データDI2を生成する(ステップS3)。これにより、スキャナ16などでの読取り時にノイズとして発生する微小ドットや、線画I1の網点領域TR内の網点など、比較的小さい特定ビットの画素集合(ここでは、黒階調を持つ画素の集合)が、線画I1から除去される。   When the region setting processing is completed, the line drawing processing apparatus 100 uses the first removal unit 22 to remove the drawing pixel set having a predetermined reference area or less, thereby removing the line drawing I1 (specifically, the removal region of the line drawing I1). The removal image data DI2 is generated from (RR) (step S3). As a result, a relatively small pixel set of specific bits (here, pixels having a black gradation, such as minute dots generated as noise during reading by the scanner 16 and halftone dots in the halftone dot area TR of the line drawing I1). Set) is removed from the line drawing I1.

除去画像データDI2を生成すると、線画処理装置100は、輪郭抽出部23により、除去画像I2の描画領域DRの輪郭部分を抽出する(ステップS4)。具体的には、輪郭抽出部23は、収縮処理部231により、除去画像I2を収縮処理することによって、描画領域DRを1画素幅分収縮させた収縮画像データDI3を取得する。そして、輪郭抽出部23は、差分処理部232により、収縮画像データDI3と除去画像データDI2との差分を取ることによって、描画領域DRの1画素幅の輪郭線OLを除去画像I2から抽出する。   When the removed image data DI2 is generated, the line drawing processing apparatus 100 causes the contour extracting unit 23 to extract the contour portion of the drawing region DR of the removed image I2 (step S4). Specifically, the contour extraction unit 23 performs contraction processing on the removed image I2 by the contraction processing unit 231, thereby acquiring contracted image data DI3 in which the drawing region DR is contracted by one pixel width. Then, the contour extraction unit 23 extracts the contour line OL of one pixel width of the drawing region DR from the removal image I2 by taking the difference between the contracted image data DI3 and the removal image data DI2 by the difference processing unit 232.

描画領域DRの輪郭線OLを抽出すると、線画処理装置100は、輪郭線OL上の各画素位置における曲率値を決定することによって、輪郭線OLの各画素における曲がり度合いを数値化する(ステップS5)。具体的には、図7に示す定義マトリクスF1を使用しつつ、ステップS4にて抽出した輪郭線OLに沿って、所定の回り方向で各画素における曲率値を順次決定する。   When the outline OL of the drawing region DR is extracted, the line drawing processing apparatus 100 determines the curvature value at each pixel position on the outline OL, thereby quantifying the degree of curvature at each pixel of the outline OL (step S5). ). Specifically, while using the definition matrix F1 shown in FIG. 7, the curvature value in each pixel is sequentially determined in a predetermined rotation direction along the contour line OL extracted in step S4.

曲率値を決定すると、線画処理装置100は、変曲点検出部25により輪郭線OL上の画素毎に平均曲率値を算出するとともに、所定の基準値を越える平均曲率値を有する画素を変曲点Pとして検出する(ステップS6)。なお、特定画素の平均曲率値は、当該特定画素に近接する所定範囲内の複数画素の曲率値を平均することにより算出される。   When the curvature value is determined, the line drawing processing apparatus 100 calculates an average curvature value for each pixel on the contour line OL by the inflection point detection unit 25 and also inflections pixels having an average curvature value exceeding a predetermined reference value. A point P is detected (step S6). The average curvature value of a specific pixel is calculated by averaging the curvature values of a plurality of pixels within a predetermined range close to the specific pixel.

なお、平均曲率値の算出については、必ずしも全画素について実行される必要はなく、例えば、輪郭線OLを構成する画素のうち、ステップS5にて決定された曲率値が基準値を超える画素について平均曲率値を算出するように変曲点検出部25を構成してもよい。   Note that the calculation of the average curvature value does not necessarily have to be performed for all the pixels. For example, among the pixels constituting the contour OL, the average curvature value determined in step S5 exceeds the reference value. The inflection point detection unit 25 may be configured to calculate the curvature value.

ステップS6にて変曲点Pの検出が完了すると、線画処理装置100は、変曲点検出部25により検出された変曲点Pのうち、所定の位置関係にある2つの変曲点Pの画素を選択するとともに、分離部26により当該画素の間を分離線Lで結ぶことによって、突出領域ERを描画領域DRから分離する(ステップS7)。なお、分離線Lの追加は、除去画像データDI2に対して実行され、分離画像データDI5が生成される。   When the detection of the inflection point P is completed in step S <b> 6, the line drawing processing apparatus 100 sets two inflection points P having a predetermined positional relationship among the inflection points P detected by the inflection point detection unit 25. While selecting a pixel, the separation part 26 connects the said pixel with the separation line L, and isolate | separates the protrusion area | region ER from the drawing area DR (step S7). Note that the addition of the separation line L is performed on the removal image data DI2, and the separation image data DI5 is generated.

分離線Lにより突出領域ERを描画領域DRから分離すると、線画処理装置100は、第2除去部27により所定の基準面積以下の描画画素集合を分離画像I5から除去する。これにより、描画領域DRの突出領域ER(主に描画線DLに重なった網点Dot1の一部)を除去する(ステップS8)。これにより、元の線画I1から網点Dot1が精密に除去された画像データ(網点除去画像データDI6)が生成される。   When the protruding region ER is separated from the drawing region DR by the separation line L, the line drawing processing apparatus 100 removes a drawing pixel set having a predetermined reference area or less from the separated image I5 by the second removal unit 27. As a result, the protruding area ER (mainly part of the halftone dot Dot1 overlapping the drawing line DL) of the drawing area DR is removed (step S8). As a result, image data (halftone-removed image data DI6) from which the halftone dot Dot1 has been precisely removed from the original line drawing I1 is generated.

以上が、本実施の形態における線画処理装置100の動作の説明である。なお、生成された網点除去画像データDI6は、例えば、彩色処理によりカラー化されたり、あるいは、元の線画データDI1との差分をとることによって、主に網点Dot1からなる画像(すなわち、線画I1から網点領域TRを抽出した画像)の生成に利用されたりする。   The above is description of operation | movement of the line drawing processing apparatus 100 in this Embodiment. The generated halftone dot-removed image data DI6 is, for example, colored by color processing or by taking a difference from the original line drawing data DI1 to obtain an image mainly composed of halftone dots Dot1 (that is, a line drawing). Or an image obtained by extracting a halftone dot region TR from I1).

このように、本実施の形態では、描画領域DRの突出領域ERの突出開始部分と突出終了部分とを検出し、これらの間を分離線Lで結合することによって突出領域ERを描画領域DRから分離するため、描画線DLに結合している網点Dot1を容易かつ精密に除去できる。   As described above, in the present embodiment, the protrusion start portion and the protrusion end portion of the protrusion region ER of the drawing region DR are detected, and the protrusion region ER is separated from the drawing region DR by connecting them with the separation line L. Because of the separation, the halftone dot Dot1 coupled to the drawing line DL can be easily and precisely removed.

また、あらかじめ定義された曲率値に基づいて、描画領域DRの輪郭を構成する各画素の位置における曲がり度合いを定量化することによって、描画領域DRの突出領域ERの突出開始部分と突出終了部分を検出できるため、描画線DLに結合する網点Dot1を容易に除去することが可能となる。   Further, by quantifying the degree of bending at the position of each pixel constituting the contour of the drawing region DR based on a predefined curvature value, the protrusion start portion and the protrusion end portion of the protrusion region ER of the drawing region DR are determined. Since it can be detected, it is possible to easily remove the dot Dot1 coupled to the drawing line DL.

また、曲率値を平均化することによって、描画線DLの輪郭線OLのがたつきを突出領域と判定することを防止できる。したがって、高精度な網点Dot1の分離を実現できる。   Further, by averaging the curvature values, it is possible to prevent the rattling of the contour line OL of the drawing line DL from being determined as the protruding region. Therefore, it is possible to realize the separation of the halftone dot Dot1 with high accuracy.

また、あらかじめ除去領域RRを設定しておくことによって、網点Dot1を除去すべき領域を詳細に指定できる。したがって、様々な網点の種類に応じた除去処理を実現できるため、精密に線画I1から網点Dot1を除去できる。   In addition, by setting the removal area RR in advance, it is possible to specify in detail the area where the dot Dot1 should be removed. Therefore, since removal processing according to various types of halftone dots can be realized, the halftone dot Bot1 can be precisely removed from the line drawing I1.

<2. 第2の実施の形態>
第1の実施の形態では、描画線上に重なった網点を除去する場合について主に説明したが、本発明の適用範囲はもちろんこれに限られるものではない。なお、第1の実施の形態と同様の構成については、適宜同符号を付し説明を省略する。以下の実施の形態においても同様である。
<2. Second Embodiment>
In the first embodiment, the case of removing halftone dots overlapped on the drawing line has been mainly described, but the scope of application of the present invention is not limited to this. In addition, about the structure similar to 1st Embodiment, the same code | symbol is attached | subjected suitably and description is abbreviate | omitted. The same applies to the following embodiments.

図14は、第2の実施の形態における網点Dot2の除去方法を説明するための図である。なお、図14では、
図14(a)=互いの一部が重なっている(連なっている)網点Dot2を含む線画I1a、
図14(b)=分離線Laにより網点Dot2同士を分離した第1分離画像I5a、
図14(c)=第1分離画像I5aから網点Dot2を除去した後に、描画線DLに重なった網点Dot2の一部からなる突出領域ERを分離線Lbにより描画領域DRから分離した第2分離画像I5b、
図14(d)=第1網点除去画像I6aから、描画線に重なった網点をさらに除去した第2網点除去画像I6b、
をそれぞれ示している。
FIG. 14 is a diagram for explaining a method for removing the halftone dot 2 in the second embodiment. In FIG. 14,
FIG. 14 (a) = line drawing I1a including a halftone dot Dot2 in which a part of each other overlaps (continues)
FIG. 14B = first separated image I5a obtained by separating the halftone dots Dot2 by the separation line La,
FIG. 14 (c) = second image obtained by removing the halftone dot Dot2 from the first separated image I5a, and then separating the protruding area ER consisting of a part of the halftone dot Dot2 overlapping the drawing line DL from the drawing area DR by the separation line Lb. Separated image I5b,
FIG. 14 (d) = second halftone dot removal image I6b obtained by further removing halftone dots overlapping the drawing lines from the first halftone dot removal image I6a.
Respectively.

本実施の形態では、図14(a)に示すように、描画線DLおよび網点Dot2が重なる部分と、網点Dot2が互いに重なる部分とが混在する場合について、精密に網点を除去する方法について説明する。   In the present embodiment, as shown in FIG. 14A, a method of accurately removing halftone dots in a case where a portion where drawing line DL and halftone dot Dot2 overlap and a portion where halftone dot Dot2 overlap each other are mixed. Will be described.

まず、第1の実施の形態と同様に、線画処理装置100は、輪郭線OLを抽出した後に、輪郭線OL上の各画素の平均曲率値を算出して、所定の基準値を超える変曲点P(四角と丸で囲む部分)を検出する。そして、本実施の形態では、より精密に網点Dot2を除去するため、線画処理装置100は、分離部26により、分離線La,Lbを段階的に追加する。   First, as in the first embodiment, the line drawing processing apparatus 100 extracts the contour line OL, calculates the average curvature value of each pixel on the contour line OL, and inflections exceeding a predetermined reference value. A point P (a part surrounded by a square and a circle) is detected. In the present embodiment, the line drawing processing apparatus 100 adds the separation lines La and Lb stepwise by the separation unit 26 in order to remove the halftone dot Dot2 more precisely.

すなわち、図14(b)に示すように、分離部26は、網点Dot2の同士の結合を分離するために、図14(a)で検出された変曲点Pのうち、所定方向(ここでは左斜め下方向)かつ所定距離(例えば、網点のサイズ)内にある変曲点P同士を分離線Laで結合する。このような条件設定によって、網点Dot2同士の重なり部分の変曲点P(丸で囲む部分)に分離線Laが引かれる。これにより、網点Dot2同士の結合を分離した第1分離画像I5aが生成される。   That is, as shown in FIG. 14B, the separating unit 26 separates the connection between the halftone dots Dot2 from the inflection points P detected in FIG. Then, inflection points P that are within a predetermined distance (for example, the size of halftone dots) are joined together by a separation line La. With such a condition setting, a separation line La is drawn at an inflection point P (a portion surrounded by a circle) where the halftone dots Dot2 overlap. Thereby, the 1st separated image I5a which isolate | separated the coupling | bonding of halftone dots Bot2 is produced | generated.

次に、線画処理装置100は、第1分離画像I5aについて、第2除去部27により所定の基準面積以下の描画画素集合を除去する。これにより、描画線DLに重なった網点Dot2以外の網点Dot2(互いに連結していた網点Dot2)を除去できる。   Next, the line drawing processing apparatus 100 removes a drawing pixel set having a predetermined reference area or less from the first separated image I5a by the second removal unit 27. As a result, the halftone dot 2 other than the halftone dot Dot2 that overlaps the drawing line DL (the halftone dot Dot2 connected to each other) can be removed.

さらに、線画処理装置100は、変曲点検出部25により所定の距離(例えば、網点のサイズ)内にある変曲点P(四角で囲む部分)を検出し、これらを分離線Lbによって接続することで、描画線DLに重なる網点Dot2を描画線DLから分離した第2分離画像I5bが生成される。   Further, the line drawing processing apparatus 100 detects an inflection point P (a portion surrounded by a square) within a predetermined distance (for example, the size of a halftone dot) by the inflection point detection unit 25 and connects them by a separation line Lb. As a result, the second separated image I5b is generated by separating the halftone dot Dot2 overlapping the drawing line DL from the drawing line DL.

さらに、線画処理装置100は、第2分離画像I5bについて、第2除去部27により所定の基準面積以下の描画画素集合を除去することによって、描画線上に重なった網点(すなわち、描画領域DRの突出領域ER)を除去する。   Furthermore, the line drawing processing apparatus 100 removes a drawing pixel set having a predetermined reference area or less from the second separated image I5b by using the second removal unit 27, so that the halftone dots overlapped on the drawing line (that is, the drawing region DR) are removed. The protruding region ER) is removed.

以上のように、段階的に分離線La,Lbを引くことで、所定の位置関係にある変曲点Pの選択を詳細に設定できるようになる。これにより、連なった状態にある網点Dot2の除去を精密に実行できるようになる。   As described above, the selection of the inflection point P having a predetermined positional relationship can be set in detail by drawing the separation lines La and Lb step by step. As a result, the removal of the halftone dot Dot2 in the connected state can be executed precisely.

<3. 第3の実施の形態>
第1および第2の実施の形態では、画像取得部20により2値化された線画I1を線画処理装置100の画像処理の対象としていたが、もちろん処理対象となる画像は2値化画像に限られるものではない。
<3. Third Embodiment>
In the first and second embodiments, the line drawing I1 binarized by the image acquisition unit 20 is the target of the image processing of the line drawing processing apparatus 100. Of course, the image to be processed is limited to the binarized image. Is not something

図15は、第3の実施の形態における突出領域ERの分離方法を説明するための図である。なお、図15(a)は、低い階調値(低階調)、中間濃度の階調値(中間階調)、高い階調値(高階調)の画素で構成されるグレー画像I1bの描画領域DR(描画線と網点一部とからなる)を示す。また、図15(b)は、(a)に示すグレー画像I1bに対して分離線Lc,Ld,Leを追加した分離画像I5cを示す。   FIG. 15 is a diagram for explaining a method of separating the protruding region ER in the third embodiment. FIG. 15A shows a gray image I1b composed of pixels with low gradation values (low gradation), intermediate density gradation values (intermediate gradation), and high gradation values (high gradation). A region DR (consisting of a drawing line and a halftone dot) is shown. FIG. 15B shows a separated image I5c obtained by adding separation lines Lc, Ld, and Le to the gray image I1b shown in FIG.

線画処理装置100は、図15に示すような多階調表現でのグレー画像I1bに含まれる網点を精密に除去することが可能である。詳細には、本実施の形態における線画処理装置100は、輪郭抽出部23により描画領域DRの輪郭部分を抽出する際に、グレー画像I1bを所定の閾値で2値化する。   The line drawing processing apparatus 100 can precisely remove the halftone dots included in the gray image I1b in the multi-tone representation as shown in FIG. Specifically, the line drawing processing apparatus 100 according to the present embodiment binarizes the gray image I1b with a predetermined threshold when the contour extracting unit 23 extracts the contour portion of the drawing region DR.

ここで、2値化の際の閾値が、低階調と中間階調との間の階調値、中間階調と高階調との間の階調値、高階調と白階調の間の階調値のそれぞれに設定されることで、2値画像がそれぞれ取得される。そしてこれらの2値画像毎に上述の収縮処理および差分演算処理が実行されることで、低階調領域の輪郭線OL、中間階調領域の輪郭線OL、高階調領域の輪郭線OLがそれぞれ抽出される。   Here, the threshold for binarization is a gradation value between a low gradation and an intermediate gradation, a gradation value between an intermediate gradation and a high gradation, and a gradation value between a high gradation and a white gradation. By setting each gradation value, a binary image is acquired. Then, by executing the above-described contraction processing and difference calculation processing for each of these binary images, the contour line OL in the low gradation region, the contour line OL in the intermediate gradation region, and the contour line OL in the high gradation region are respectively obtained. Extracted.

各階調領域毎の輪郭線OLを抽出すると、線画処理装置100は、曲率値決定部24により各輪郭線OLを構成する画素の曲率値を決定し、さらに、変曲点検出部25により各階調領域の輪郭線OL毎に変曲点Pを検出する。そして、線画処理装置100は、分離部26により低階調領域の突出部分を分離する分離線Lc、中間階調領域の突出部分を分離する分離線Ld、高階調領域の突出部分を分離する分離線Leを元のグレー画像I1bに追加した分離画像I5cを作成する。   When the contour line OL for each gradation area is extracted, the line drawing processing apparatus 100 determines the curvature value of the pixels constituting each contour line OL by the curvature value determination unit 24, and further, the inflection point detection unit 25 determines each gradation. An inflection point P is detected for each outline OL of the region. Then, the line drawing processing apparatus 100 separates the separation line Lc for separating the protruding portion of the low gradation region by the separation unit 26, the separation line Ld for separating the protruding portion of the intermediate gradation region, and the protruding portion of the high gradation region. A separated image I5c is created by adding the separation line Le to the original gray image I1b.

この際、各分離線Lc,Ld,Leは、各階調領域の輪郭外側の階調値にて描画される。例えば、分離線Lcであれば、低階調領域の輪郭外側の階調(中間階調、低階調もしくは白階調)の画素で、分離線Ldであれば、中間階調領域の輪郭外側の階調(低階調もしくは白階調)の画素で、分離線Leであれば、高階調領域の輪郭外側の階調(白階調)の画素で構成される。   At this time, the separation lines Lc, Ld, and Le are drawn with gradation values outside the outline of each gradation region. For example, in the case of the separation line Lc, the pixel of the gradation outside the outline of the low gradation area (intermediate gradation, low gradation or white gradation), and in the case of the separation line Ld, outside the outline of the intermediate gradation area. If the separation line Le is a pixel having a gray scale (low gray scale or white gray scale), the pixel is composed of a gray scale (white gray scale) pixel outside the outline of the high gray scale region.

このように分離線Lc,Ld,Leをグレー画像I1bに追加することで、各階調領域の突出領域ERを各階調毎の描画領域DRから分離できる。この分離画像I5cについて、線画処理装置100は、第2除去部27によって、所定の基準面積以下であり、かつ特定の階調値の画素からなる描画画素集合を除去する。これにより、分離された突出領域ERを精密に除去できる。   Thus, by adding the separation lines Lc, Ld, and Le to the gray image I1b, the protruding area ER of each gradation area can be separated from the drawing area DR for each gradation. With respect to the separated image I5c, the line drawing processing apparatus 100 uses the second removal unit 27 to remove a drawing pixel set that is equal to or smaller than a predetermined reference area and includes pixels having a specific gradation value. Thereby, the separated protruding region ER can be accurately removed.

なお、本実施の形態における線画処理装置100は、複数の階調領域毎に変曲点Pを検出するようにしているが、その内の一部の階調領域についてのみ変曲点Pを検出するように構成してもよい。   The line drawing processing apparatus 100 according to the present embodiment detects the inflection point P for each of a plurality of gradation areas, but detects the inflection point P only for a part of the gradation areas. You may comprise.

また、本実施の形態では、分離線Lc,Ld,Leにより突出領域ERを描画領域DRから分離した後、第2除去部27が所定の基準面積以下の描画画素集合(特定の階調を持つ画素の集合)を除去することで突出領域ERを除去すると説明したが、突出領域ERの除去方法はこれに限られるものではなく、以下に説明する複製除去法にて実現されてもよい。   In the present embodiment, after the protruding region ER is separated from the drawing region DR by the separation lines Lc, Ld, and Le, the second removal unit 27 has a drawing pixel set (having a specific gradation) having a predetermined reference area or less. Although it has been described that the protruding region ER is removed by removing a set of pixels), the method of removing the protruding region ER is not limited to this, and may be realized by a duplicate removal method described below.

図16は、突出領域ERを除去する複製除去法を説明するための図である。なお、図16(a)は、分離画像I5dであり、図16(b)は、分離画像I5dから突出領域ERを除去した網点除去画像I6bを示す。ここでは、高階調領域の輪郭部分における2つの変曲点Pを基準に、突出領域ERを除去する場合について説明する。   FIG. 16 is a diagram for explaining a duplicate removal method for removing the protruding region ER. 16A shows the separated image I5d, and FIG. 16B shows the halftone dot removed image I6b obtained by removing the protruding region ER from the separated image I5d. Here, a case will be described in which the protruding region ER is removed with reference to two inflection points P in the contour portion of the high gradation region.

複製除去法では、第2除去部27は、まず、分離線Le上の変曲点Pよりも外側の位置であって、分離線Leに対してほぼ直交する方向に延びる範囲(範囲CR1)を複製する。なお、この方向についての範囲CR1の横幅は、描画線DLの幅と突出領域ER(網点の一部)の幅とを加算した長さよりも長くなるように設定される。また、範囲CR1の縦幅(分離線Leの延びる方向とほぼ平行な方向の長さ)は所定画素幅(例えば、1画素幅)とされる。   In the duplicate removal method, the second removal unit 27 first has a range (range CR1) that is located outside the inflection point P on the separation line Le and extends in a direction substantially orthogonal to the separation line Le. Duplicate. Note that the horizontal width of the range CR1 in this direction is set to be longer than the sum of the width of the drawing line DL and the width of the protruding region ER (part of halftone dots). The vertical width of the range CR1 (the length in the direction substantially parallel to the direction in which the separation line Le extends) is set to a predetermined pixel width (for example, one pixel width).

そして第2除去部27は、範囲CR1の画像を複製し、分離線Leに沿って範囲CR2(図16(a)参照)の位置まで順次貼り付けて行くことによって、分離画像I5cの突出領域ERが除去された網点除去画像I6bを作成する(図16(b)参照)。   Then, the second removal unit 27 duplicates the image of the range CR1 and sequentially pastes the image along the separation line Le to the position of the range CR2 (see FIG. 16A), thereby causing the protruding region ER of the separated image I5c. A halftone dot removed image I6b is created (see FIG. 16B).

単純に基準面積以下の描画画素集合を除去することによって、突出領域ERを除去した場合には、最終的に得られる描画線上の高階調領域および中間階調領域の部分に、低階調領域の突出部分が一部残存するおそれがある。一方、複製除去法は、元の描画線DLの一部(範囲CR1の描画線DL部分)を延長して補間する処理と等価であるため、元の描画線DLの特徴を維持しつつ突出領域ERを除去できる。   When the protruding region ER is removed by simply removing a set of drawing pixels that are equal to or smaller than the reference area, the low gradation region is added to the high gradation region and the intermediate gradation region on the finally obtained drawing line. There is a possibility that a part of the protruding portion remains. On the other hand, the duplicate removal method is equivalent to a process of extending and interpolating a part of the original drawing line DL (the drawing line DL part of the range CR1), so that the protruding region is maintained while maintaining the characteristics of the original drawing line DL. ER can be removed.

なお、図16(a)に示す範囲CR2の画素と、範囲CR1の画素との間で、各画素の階調値が一致しない場合には、第2除去部27が範囲CR1と範囲CR2との間で、階調値が段階的に変化するように補間処理を行いつつ、突出領域ERを除去するように構成してもよい。   In addition, when the gradation value of each pixel does not correspond between the pixel of the range CR2 shown in FIG. 16A and the pixel of the range CR1, the second removal unit 27 sets the range CR1 and the range CR2 to each other. The protruding region ER may be removed while performing an interpolation process so that the gradation value changes stepwise.

<4. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

例えば、上記実施の形態では、変曲点検出部25は、突出開始部分と突出終了部分とする2つの変曲点Pを、変曲点P間の距離や並び方向に基づいて決定すると説明した(距離判定、方向判定)。しかし、判定方法はこれらに限られるものではなく、例えば、変曲点検出部25が、ランダムに選択した変曲点P間に仮想的な分離線Lを予備的に引き、その際に分離される領域の面積を測定し、当該面積が網点の面積よりも小さいと判定される位置関係にある2つの変曲点Pを、突出開始部分と突出終了部分としてもよい(面積判定)。また、変曲点検出部25が、距離判定や方向判定を行って変曲点Pからいくつかの候補を絞り込んだ後、これらの候補の変曲点Pについて面積判定をさらに行って、最終的に突出開始部分、突出終了部分とする2つの変曲点Pを決定してもよい。   For example, in the above embodiment, the inflection point detection unit 25 has been described as determining the two inflection points P as the protrusion start portion and the protrusion end portion based on the distance between the inflection points P and the arrangement direction. (Distance determination, direction determination). However, the determination method is not limited to these. For example, the inflection point detection unit 25 preliminarily draws a virtual separation line L between the inflection points P selected at random, and is separated at that time. It is also possible to measure two areas of inflection points P in a positional relationship in which it is determined that the area is smaller than the area of the halftone dots (area determination). Further, after the inflection point detection unit 25 performs distance determination and direction determination to narrow down some candidates from the inflection points P, the inflection point P of these candidates is further subjected to area determination, and finally The two inflection points P may be determined as the protrusion start portion and the protrusion end portion.

また、上記実施の形態では、第1除去部22は、所定の基準面積以下の描画画素集合を除去すると説明したが、もちろんこれに限られるものではなく、例えば、特開2001−86368号公報に開示されている技術を適用することで、網点Dot1,Dot2の大まかな除去が可能である。すなわち、線画I1中に含まれる網点領域TRの周期性(網点間の縦・横方向の距離など)に基づいて、網点領域TRの範囲を決定し、線画I1中の当該範囲内の描画画素を消去すればよい。   In the above embodiment, the first removal unit 22 has been described as removing a drawing pixel set having a predetermined reference area or less. However, the present invention is not limited to this. For example, Japanese Patent Application Laid-Open No. 2001-86368 discloses. By applying the disclosed technique, it is possible to roughly remove halftone dots Dot1 and Dot2. That is, the range of the halftone dot region TR is determined based on the periodicity of the halftone dot region TR included in the line drawing I1 (vertical and horizontal distances between the halftone dots), and the range within the range in the line drawing I1 is determined. What is necessary is just to erase a drawing pixel.

また、網点領域TRの特徴を、線画I1の画像全体を縮小処理や所定サイズのメディアンフィルタ処理によって、網点Dot1,Dot2を空間的に平滑化したグレースケール画像を生成し、網点Dot1,Dot2が平滑化された部分の階調値を検出することで、元の網点Dot1,Dot2が存在していた網点領域TRの範囲を決定することができる。この決定した範囲に基づいて、線画I1中の対応する範囲内の描画画素を除去することによって、網点Dot1,Dot2を除去してもよい。   Further, the characteristics of the halftone dot region TR are generated by generating a gray scale image in which the halftone dots Dot1 and Dot2 are spatially smoothed by reducing the whole image of the line drawing I1 or by a median filtering process of a predetermined size. By detecting the gradation value of the portion where Bot2 is smoothed, the range of the halftone dot region TR where the original halftone dots Dot1 and Dot2 existed can be determined. The halftone dots Dot1 and Dot2 may be removed by removing the drawing pixels within the corresponding range in the line drawing I1 based on the determined range.

また、上記実施の形態では、収縮処理部231が8近傍を識別して収縮処理を行って、輪郭線OLを抽出する場合について主に説明したが、注目画素の4近傍を識別して収縮処理を行った場合、輪郭線OLの一部で斜め方向に連結する連続画素が出現する。このような輪郭線OLに沿って、各画素の曲率値を決定する場合には、図7に示す定義マトリクスF1のほかに、マス目B,Mを斜め方向に配置した3×3のマス目の定義マトリクスを適宜準備すればよい。   In the above embodiment, the case where the contraction processing unit 231 performs the contraction process by identifying the 8 neighborhoods and extracts the contour line OL has been mainly described. However, the contraction process is performed by identifying the 4 neighborhoods of the target pixel. When the above is performed, continuous pixels connected in an oblique direction appear at a part of the contour line OL. When determining the curvature value of each pixel along such a contour OL, in addition to the definition matrix F1 shown in FIG. 7, 3 × 3 squares in which squares B and M are arranged obliquely. The definition matrix may be prepared as appropriate.

また、上記実施の形態では、輪郭線OLの各画素における曲がり度合いを数値化した後に、突出領域ERの突出開始部分と突出終了部分を検出していたが、これは、輪郭線OLの各画素の配置位置情報に基づいて、描画領域DRを拡張させる方向に曲がる部分を検出することと等価である。したがって、線画処理装置100が、輪郭線OLの曲がり度合いを数値化することなく、輪郭線OL上の画素の並び情報に基づいて突出開始部分と突出終了部分とを検出するようにしてもよい。   Further, in the above embodiment, after the degree of bending in each pixel of the contour line OL is digitized, the protrusion start portion and the protrusion end portion of the protrusion region ER are detected. This is because each pixel of the contour line OL is detected. This is equivalent to detecting a portion that bends in the direction of extending the drawing area DR based on the arrangement position information. Therefore, the line drawing processing apparatus 100 may detect the protrusion start portion and the protrusion end portion based on the pixel arrangement information on the contour line OL without digitizing the degree of bending of the contour line OL.

また、上記実施形態および各変形例で説明した各構成は、相互に矛盾しない限り適宜組み合わせることができる。   Moreover, each structure demonstrated by the said embodiment and each modification can be suitably combined unless it mutually contradicts.

本発明の第1の実施の形態における線画処理装置の外観図である。1 is an external view of a line drawing processing apparatus according to a first embodiment of the present invention. 線画処理装置の構成を示す図である。It is a figure which shows the structure of a line drawing processing apparatus. 線画処理装置の機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block of a line drawing processing apparatus with the flow of data. スキャナにより読取られた線画の一例を示す図である。It is a figure which shows an example of the line drawing read by the scanner. 図4に示す線画から網点を除去した除去画像を示す図である。It is a figure which shows the removal image which removed the halftone dot from the line drawing shown in FIG. 除去画像から輪郭線を抽出した輪郭抽出画像を示す図である。It is a figure which shows the outline extraction image which extracted the outline from the removal image. 定義マトリクスを示す図である。It is a figure which shows a definition matrix. 定義マトリクスを用いて曲率値の決定方法を説明するための図である。It is a figure for demonstrating the determination method of a curvature value using a definition matrix. 描画領域の輪郭線を構成する画素の一例を示す図である。It is a figure which shows an example of the pixel which comprises the outline of a drawing area. 平均曲率値の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of an average curvature value. 図6に示す輪郭抽出画像の輪郭線を、各画素の平均曲率値とともに示す図である。It is a figure which shows the outline of the outline extraction image shown in FIG. 6 with the average curvature value of each pixel. 分離部が突出領域を分離する様子を説明するための図である。It is a figure for demonstrating a mode that a separation part isolate | separates a protrusion area | region. 線画処理装置の動作の流れ図である。It is a flowchart of operation | movement of a line drawing processing apparatus. 第2の実施の形態における網点の除去方法を説明するための図である。It is a figure for demonstrating the removal method of the halftone dot in 2nd Embodiment. 第3の実施の形態における突出領域の分離方法を説明するための図である。It is a figure for demonstrating the isolation | separation method of the protrusion area | region in 3rd Embodiment. 突出領域を除去する複製除去法を説明するための図である。It is a figure for demonstrating the replication removal method which removes a protrusion area | region.

符号の説明Explanation of symbols

100 線画処理装置
2 プログラム
20 画像取得部
21 領域設定部
22 第1除去部
23 輪郭抽出部
231 収縮処理部
232 差分処理部
24 曲率値決定部
25 変曲点検出部
26 分離部
27 第2除去部
CR1,CR2 範囲
D1 領域設定データ
D2 曲率値データ
D3 変曲点検出データ
DI1 線画データ
DI2 除去画像データ
DI3 収縮画像データ
DI4 輪郭抽出データ
DI5 分離画像データ
DI6 網点除去画像データ
DL 描画線
DR 描画領域
Dot1,Dot2 網点
ER 突出領域
F1 定義マトリクス
I1,I1a 線画
I1b グレー画像
I2 除去画像
I4 輪郭抽出画像
I5,I5a,I5b,I5c,I5d 分離画像
I6a,I6b 網点除去画像
L,La,Lb,Lc,Ld,Le 分離線
OL 輪郭線
P 変曲点
RR 除去領域
TR 網点領域
p1〜p15 画素
DESCRIPTION OF SYMBOLS 100 Line drawing processing apparatus 2 Program 20 Image acquisition part 21 Area | region setting part 22 1st removal part 23 Contour extraction part 231 Shrinkage processing part 232 Difference processing part 24 Curvature value determination part 25 Inflection point detection part 26 Separation part 27 2nd removal part CR1, CR2 range D1 area setting data D2 curvature value data D3 inflection point detection data DI1 line drawing data DI2 removal image data DI3 contraction image data DI4 contour extraction data DI5 separation image data DI6 halftone removal image data DL drawing line DR drawing area Dot1 , Dot2 halftone dot ER protruding area F1 definition matrix I1, I1a line drawing I1b gray image I2 removal image I4 contour extraction image I5, I5a, I5b, I5c, I5d separation image I6a, I6b halftone dot removal image L, La, Lb, Lc, Ld, Le Separation line OL Contour line P Inflection point RR removal area TR halftone area p1 to p15 pixels

Claims (8)

線画から網点を分離する線画処理装置であって、
所定方向に延びる描画線に対して外側へ突出する突出領域の突出開始部分と突出終了部分とを、描画領域の輪郭部分に沿って検出する検出手段と、
前記突出開始部分と前記突出終了部分との間を分離線で結ぶことによって、前記突出領域を前記描画領域から分離した分離画像を生成する分離手段と、
前記分離画像について、前記分離手段により分離した前記突出領域を除去する除去手段と、
を備えることを特徴とする線画処理装置。
A line drawing processing device for separating halftone dots from a line drawing,
Detecting means for detecting a protrusion start portion and a protrusion end portion of a protruding region protruding outward with respect to a drawing line extending in a predetermined direction along a contour portion of the drawing region;
Separating means for generating a separated image in which the protruding area is separated from the drawing area by connecting the protruding start part and the protruding end part with a separation line;
Removing means for removing the protruding region separated by the separating means with respect to the separated image;
A line drawing processing apparatus comprising:
請求項1に記載の線画処理装置であって、
前記除去手段は、所定の基準面積以下の描画画素集合を除去することによって、前記分離手段により分離された前記突出領域を除去することを特徴とする線画処理装置。
The line drawing processing apparatus according to claim 1,
The line removal processing apparatus characterized in that the removal means removes the protruding region separated by the separation means by removing a drawing pixel set having a predetermined reference area or less.
請求項1または2に記載の線画処理装置であって、
所定方向に連続して並ぶ2以上の連続画素に対して連結する連結画素の各位置のそれぞれについて曲率値を定義したとき、
前記検出手段は、
前記描画領域の輪郭部分を構成する各画素について曲率値を決定する曲率値決定手段と、
前記描画領域の輪郭部分を構成する各画素のうち、前記描画領域を拡張させる方向に曲がると判定される曲率値を持つ画素を変曲点として検出する変曲点検出手段、
を含み、
前記変曲点検出手段により検出された変曲点のうち、所定の位置関係にある変曲点を前記突出開始部分および前記突出終了部分とすることを特徴とする線画処理装置。
The line drawing processing apparatus according to claim 1 or 2,
When a curvature value is defined for each position of connected pixels connected to two or more continuous pixels arranged continuously in a predetermined direction,
The detection means includes
Curvature value determining means for determining a curvature value for each pixel constituting the contour portion of the drawing area;
An inflection point detecting means for detecting, as an inflection point, a pixel having a curvature value determined to bend in a direction in which the drawing area is expanded, among the pixels constituting the outline portion of the drawing area;
Including
An inflection point having a predetermined positional relationship among the inflection points detected by the inflection point detecting means is defined as the protrusion start portion and the protrusion end portion.
請求項3に記載の線画処理装置であって、
前記変曲点検出手段は、
前記描画領域の輪郭部分の各画素について、当該各画素に近接する所定の範囲内に含まれる複数画素の曲率値の平均値を、当該画素毎に算出するとともに、
前記平均値と前記所定の基準値との比較に基づいて、前記描画領域を拡張させる方向に曲がると判定される画素を前記変曲点として検出することを特徴とする線画処理装置。
The line drawing processing apparatus according to claim 3,
The inflection point detecting means includes
For each pixel of the contour portion of the drawing area, an average value of curvature values of a plurality of pixels included in a predetermined range close to each pixel is calculated for each pixel,
A line drawing processing apparatus that detects, as the inflection point, a pixel that is determined to bend in a direction in which the drawing area is expanded based on a comparison between the average value and the predetermined reference value.
請求項1ないし4のいずれかに記載の線画処理装置であって、
所定の操作入力に基づいて、前記線画から網点を除去すべき除去領域を設定する除去領域設定手段、
をさらに備え、
前記検出手段は、
前記除去領域設定手段により設定された前記除去領域内に含まれる前記突出開始部分と前記突出終了部分とを検出することを特徴とする線画処理装置。
The line drawing processing apparatus according to any one of claims 1 to 4,
A removal region setting means for setting a removal region in which halftone dots are to be removed from the line drawing based on a predetermined operation input;
Further comprising
The detection means includes
A line drawing processing apparatus for detecting the protrusion start portion and the protrusion end portion included in the removal region set by the removal region setting means.
請求項1ないし5のいずれかに記載の線画処理装置であって、
前記線画を所定の閾値で2値化することによって、2値画像を取得する2値化手段と、
前記2値画像に含まれる描画領域を収縮処理することによって収縮画像を生成するとともに、前記2値画像と前記収縮画像との差分から、前記描画領域の輪郭部分を抽出する輪郭抽出手段と、
をさらに備え、
前記検出手段は、前記輪郭抽出手段により抽出された輪郭部分に沿って、前記突出開始部分と突出終了部分とを検出することを特徴とする線画処理装置。
The line drawing processing apparatus according to any one of claims 1 to 5,
Binarization means for acquiring a binary image by binarizing the line drawing with a predetermined threshold;
A contour extracting means for generating a contracted image by contracting a drawing region included in the binary image and extracting a contour portion of the drawing region from a difference between the binary image and the contracted image;
Further comprising
The line drawing processing apparatus characterized in that the detection means detects the protrusion start portion and the protrusion end portion along the contour portion extracted by the contour extraction means.
線画から網点を分離する線画処理方法であって、
所定方向に延びる描画線に対して外側へ突出する突出領域の突出開始部分と突出終了部分とを、描画領域の輪郭部分に沿って検出する検出工程と、
前記検出工程にて検出した前記突出開始部分と前記突出終了部分との間を分離線で結ぶことによって、前記突出領域を前記描画領域から分離した分離画像を生成する分離工程と、
前記分離工程によって分離した前記突出領域を前記分離画像から除去する除去手段と、
を備えることを特徴とする線画処理方法。
A line drawing processing method for separating halftone dots from a line drawing,
A detection step of detecting a protrusion start portion and a protrusion end portion of a protruding region protruding outward with respect to a drawing line extending in a predetermined direction along a contour portion of the drawing region;
A separation step of generating a separated image in which the protruding region is separated from the drawing region by connecting the protruding start portion and the protruding end portion detected in the detection step with a separation line;
Removing means for removing the protruding region separated by the separation step from the separated image;
A line drawing processing method comprising:
コンピュータが読み取り可能なプログラムであって、
前記コンピュータが前記プログラムを読み取り、前記コンピュータのCPUが前記プログラムをメモリにて実行することによって、
所定方向に延びる描画線に対して外側へ突出する突出領域の突出開始部分と突出終了部分とを、描画領域の輪郭部分に沿って検出する検出手段と、
前記突出開始部分と前記突出終了部分との間を分離線で結ぶことによって、前記突出領域を前記描画領域から分離した分離画像を生成する分離手段と、
前記分離画像について、前記分離手段により分離した前記突出領域を除去する除去手段と、
を備える線画処理装置として前記コンピュータを機能させることを特徴とするプログラム。
A computer-readable program,
When the computer reads the program and the CPU of the computer executes the program in a memory,
Detecting means for detecting a protrusion start portion and a protrusion end portion of a protruding region protruding outward with respect to a drawing line extending in a predetermined direction along a contour portion of the drawing region;
Separating means for generating a separated image in which the protruding area is separated from the drawing area by connecting the protruding start part and the protruding end part with a separation line;
Removing means for removing the protruding region separated by the separating means with respect to the separated image;
A program that causes the computer to function as a line drawing processing apparatus.
JP2008179114A 2008-07-09 2008-07-09 Line drawing processor, line drawing processing method and program Pending JP2010020463A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008179114A JP2010020463A (en) 2008-07-09 2008-07-09 Line drawing processor, line drawing processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008179114A JP2010020463A (en) 2008-07-09 2008-07-09 Line drawing processor, line drawing processing method and program

Publications (1)

Publication Number Publication Date
JP2010020463A true JP2010020463A (en) 2010-01-28

Family

ID=41705300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008179114A Pending JP2010020463A (en) 2008-07-09 2008-07-09 Line drawing processor, line drawing processing method and program

Country Status (1)

Country Link
JP (1) JP2010020463A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158167A (en) * 2016-03-01 2017-09-07 共同印刷株式会社 Image processing apparatus, image processing method and program for image processing
CN111685788A (en) * 2020-06-09 2020-09-22 广东明峰医疗科技有限公司 Method for improving signal-to-noise ratio of PET

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03229388A (en) * 1990-02-02 1991-10-11 Matsushita Electric Ind Co Ltd Character recognizing device
JPH06215109A (en) * 1992-08-17 1994-08-05 Oki Electric Ind Co Ltd Picture recognizing method
JP2003067738A (en) * 2001-08-23 2003-03-07 Fujitsu Ltd Method and system for removing net point
JP2005031818A (en) * 2003-07-09 2005-02-03 Celsys:Kk Cartoon line drawing image forming method and device, and computer program therefor
JP2006068373A (en) * 2004-09-03 2006-03-16 Fuji Photo Film Co Ltd Mammilla detector and program thereof
JP2006139374A (en) * 2004-11-10 2006-06-01 Matsushita Electric Ind Co Ltd Abnormality image extraction method and abnormality image extraction device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03229388A (en) * 1990-02-02 1991-10-11 Matsushita Electric Ind Co Ltd Character recognizing device
JPH06215109A (en) * 1992-08-17 1994-08-05 Oki Electric Ind Co Ltd Picture recognizing method
JP2003067738A (en) * 2001-08-23 2003-03-07 Fujitsu Ltd Method and system for removing net point
JP2005031818A (en) * 2003-07-09 2005-02-03 Celsys:Kk Cartoon line drawing image forming method and device, and computer program therefor
JP2006068373A (en) * 2004-09-03 2006-03-16 Fuji Photo Film Co Ltd Mammilla detector and program thereof
JP2006139374A (en) * 2004-11-10 2006-06-01 Matsushita Electric Ind Co Ltd Abnormality image extraction method and abnormality image extraction device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158167A (en) * 2016-03-01 2017-09-07 共同印刷株式会社 Image processing apparatus, image processing method and program for image processing
CN111685788A (en) * 2020-06-09 2020-09-22 广东明峰医疗科技有限公司 Method for improving signal-to-noise ratio of PET
CN111685788B (en) * 2020-06-09 2022-07-29 广东明峰医疗科技有限公司 Method for improving signal-to-noise ratio of PET

Similar Documents

Publication Publication Date Title
JP5387193B2 (en) Image processing system, image processing apparatus, and program
JP4582204B2 (en) Image processing apparatus, image conversion method, and computer program
JP5838984B2 (en) Image processing apparatus and computer program
US8477988B2 (en) Image processing apparatus, image forming apparatus and computer readable medium
JP2006279442A (en) Image processing method, apparatus, and program
JP5335581B2 (en) Image processing apparatus, image processing method, and program
WO2009104325A1 (en) Line drawing processing device, program, and line drawing processing method
JP2010020463A (en) Line drawing processor, line drawing processing method and program
JP2018156274A (en) Image processing apparatus, image processing method, and program
JP4386275B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
JP4910635B2 (en) Image processing apparatus and image processing program
JP2007293829A (en) Image processing method and image processing apparatus
JP5821994B2 (en) Image processing apparatus, image forming apparatus, and program
JP2010199983A (en) Image processor, image reader and image forming apparatus
JP2003046746A (en) Method and apparatus for processing image
JP2008269131A (en) Image processor and image processing program
JP5149034B2 (en) Line drawing processing apparatus, program, and line drawing processing method
JP2001283212A (en) Method of base interpolation by vector transformation
JP4803001B2 (en) Image processing apparatus and image processing program
JP2006279443A (en) Image processing method, apparatus, and program
JP5146199B2 (en) Difference extraction apparatus and difference extraction program
JP2006309622A (en) Image processor, image processing method, image processing program and recording medium
JP6613625B2 (en) Image processing program, image processing apparatus, and image processing method
JP4158696B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2008206037A (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120816