JP2007272457A - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP2007272457A
JP2007272457A JP2006095841A JP2006095841A JP2007272457A JP 2007272457 A JP2007272457 A JP 2007272457A JP 2006095841 A JP2006095841 A JP 2006095841A JP 2006095841 A JP2006095841 A JP 2006095841A JP 2007272457 A JP2007272457 A JP 2007272457A
Authority
JP
Japan
Prior art keywords
image
clip art
edge
art image
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006095841A
Other languages
Japanese (ja)
Other versions
JP4739082B2 (en
JP2007272457A5 (en
Inventor
Xiao Yan Dai
暁艶 戴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006095841A priority Critical patent/JP4739082B2/en
Priority to US11/444,389 priority patent/US7623712B2/en
Publication of JP2007272457A publication Critical patent/JP2007272457A/en
Publication of JP2007272457A5 publication Critical patent/JP2007272457A5/ja
Priority to US12/580,005 priority patent/US7936929B2/en
Application granted granted Critical
Publication of JP4739082B2 publication Critical patent/JP4739082B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method and apparatus capable of performing an appropriate vectorizing process matching the kind of image by determining whether or not a clip art image has features such as edges or gradations. <P>SOLUTION: A document image including a clip art image is input to the image processing apparatus via an input part 11 and vectorized. To do this, the input document image is divided into regions by a region separating part 12 and the clip art image is selected by a clip art image selecting part 13. Then a clip art image kind identifying part 14 identifies the kind of the clip art image according to whether or not there are edges or gradations, and a clip art image region dividing part 15 further divides the clip art image into regions according to the kind of the image identified. Then a clip art image vector converting part 16 converts the divided clip art image into vector data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、紙原稿をスキャンして取得した画像を領域分割して領域毎にベクトル化する画像処理方法及び画像処理装置に関する。   The present invention relates to an image processing method and an image processing apparatus that divide an image obtained by scanning a paper document and vectorize the image for each region.

近年、情報の電子化が進み、紙文書をそのまま保持するのではなく、電子化して保存したり、その電子データを他装置に送信するシステムが普及してきている。また、その電子化の対象となる文書は、白黒二値の画像だけに留まらず、フルカラー(多値)文書のような電子文書へその対象を広げつつある。   In recent years, computerization of information has progressed, and systems that do not hold paper documents as they are, but store them electronically and transmit the electronic data to other devices have become widespread. Further, the documents to be digitized are not limited to black and white binary images, but are expanding to electronic documents such as full-color (multi-value) documents.

さらに、対象となる電子文書は、単に紙上の文書をスキャナ等によりスキャンして画像データにしたものだけに留まっていない。例えば、文書画像の領域を分離して、文字領域に対しては文字認識処理を施して文字コード列に変換し、写真領域に対しては輪郭線のベクトルデータに変換する等、電子文書は、より高度な情報に変換されたデータを含んできている(特許文献1参照。)。   Further, the target electronic document is not limited to a document obtained by scanning a document on paper with a scanner or the like into image data. For example, an electronic document is obtained by separating a region of a document image, performing character recognition processing on a character region and converting it into a character code string, converting a photo region into vector data of a contour line, etc. Data converted into more advanced information is included (see Patent Document 1).

従来、画像のベクトル化処理は、次のように行われる。まず、フルカラーで入力された画像を二値画像に変換し、次いで、二値画像から輪郭線及び中心線を抽出し、得られた線と原画像の色情報をベクトルデータに変換する。
特開2004−265384号公報
Conventionally, image vectorization processing is performed as follows. First, an image input in full color is converted into a binary image, then a contour line and a center line are extracted from the binary image, and color information of the obtained line and the original image is converted into vector data.
JP 2004-265384 A

一方、上述したようなベクトル化された画像の中には、フルカラー画像であっても、イラスト画像や図形作成ソフトウェアで作成された原稿をスキャンしてベクトル化した画像等もある。これらの画像は、写真等の自然画像に比べて物体の輪郭が明瞭であり、出現色も限られている等の特徴を有している。尚、以下では、このような画像を「クリップアート画像」と呼ぶ。このようなクリップアート画像に対しては、クリップアート画像の特徴に応じて、領域分割手法に基づいたベクトル化処理を行うことが有効であると考えられる。   On the other hand, among the vectorized images as described above, there are an image obtained by scanning an original image created by an illustration image or graphic creation software, even if it is a full-color image. These images have features such as clear outlines of objects and limited appearance colors compared to natural images such as photographs. Hereinafter, such an image is referred to as a “clip art image”. For such a clip art image, it is considered effective to perform a vectorization process based on a region division method according to the characteristics of the clip art image.

しかしながら、従来の技術の中には、画像の種類(例えば、縁があるかどうか、グラデーションがあるかどうか)を自動判別してベクトル化処理するものは見受けられない。そのため、例えば、違う種類の画像に対して同じ処理を適用してしまうと、適切なベクトル化の結果が得られず、また処理の無駄が生じてしまう。   However, none of the conventional techniques can perform vectorization processing by automatically determining the type of image (for example, whether there is a border or whether there is a gradation). Therefore, for example, if the same processing is applied to different types of images, an appropriate vectorization result cannot be obtained, and processing is wasted.

本発明は、このような事情を考慮してなされたものであり、クリップアート画像に縁やグラデーション等の特徴があるかどうかを判別し、画像の種類に応じた適切なベクトル化処理を行うことができる画像処理方法及び画像処理装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and determines whether or not a clip art image has features such as edges and gradation, and performs appropriate vectorization processing according to the type of image. An object of the present invention is to provide an image processing method and an image processing apparatus.

上記課題を解決するために、本発明は、クリップアート画像を含む文書画像を入力してベクトル化する画像処理装置における画像処理方法であって、
前記文書画像を領域分割して前記クリップアート画像を選択する選択工程と、
前記クリップアート画像の種類を判別する判別工程と、
判別された画像の種類に応じて前記クリップアート画像をさらに領域分割する領域分割工程と、
領域分割された前記クリップアート画像をベクトルデータに変換する変換工程と
を有することを特徴とする。
In order to solve the above problems, the present invention is an image processing method in an image processing apparatus for inputting and vectorizing a document image including a clip art image,
A selection step of selecting the clipart image by dividing the document image into regions;
A discriminating step for discriminating the type of the clip art image;
An area dividing step of further dividing the clip art image according to the type of the determined image;
A conversion step of converting the segmented clip art image into vector data.

また、上記課題を解決するために、本発明は、クリップアート画像を含む文書画像を入力してベクトル化する画像処理装置であって、
前記文書画像を領域分割して前記クリップアート画像を選択する選択手段と、
前記クリップアート画像の種類を判別する判別手段と、
判別された画像の種類に応じて前記クリップアート画像をさらに領域分割する領域分割手段と、
領域分割された前記クリップアート画像をベクトルデータに変換する変換手段と
を備えることを特徴とする。
In order to solve the above problems, the present invention is an image processing apparatus for inputting and vectorizing a document image including a clip art image,
Selection means for selecting the clipart image by dividing the document image into regions;
Discriminating means for discriminating the type of the clip art image;
Area dividing means for further dividing the clip art image according to the determined type of image;
Converting means for converting the segmented clip art image into vector data.

本発明によれば、クリップアート画像に縁やグラデーション等の特徴があるかどうかを判別し、画像の種類に応じた適切なベクトル化処理を行うことができる。   According to the present invention, it is possible to determine whether or not a clip art image has features such as edges and gradation, and to perform appropriate vectorization processing according to the type of image.

以下、図面を参照して、本発明の一実施形態に係る画像処理装置を用いた画像データのベクトル化処理について、詳細に説明する。   Hereinafter, a vectorization process of image data using an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.

<装置構成>
図1は、本発明の一実施形態に係る領域分割に基づいたベクトル化処理を行う機能を有する画像処理装置の構成を示すブロック図である。図1において、入力部11は、スキャンによって紙情報をカラー文書画像として入力する。また、領域分割部12は、カラー文書画像を写真領域を含む複数種類の領域に分離する。さらに、クリップアート画像選択部13は、分離されたそれぞれの領域からクリップアート画像を選択する。さらにまた、クリップアート画像種類判別部14は、クリップアート画像の種類を判別する。さらにまた、クリップアート画像領域分割部15は、判別された画像の種類に応じてクリップアート画像の領域を分割処理する。さらにまた、クリップアート画像ベクトル変換部16は、クリップアート画像領域分割部15での領域分割結果からクリップアート画像をベクトルデータに変換する。
データに変換する。
<Device configuration>
FIG. 1 is a block diagram showing a configuration of an image processing apparatus having a function of performing vectorization processing based on region division according to an embodiment of the present invention. In FIG. 1, an input unit 11 inputs paper information as a color document image by scanning. The area dividing unit 12 separates the color document image into a plurality of types of areas including a photographic area. Further, the clip art image selection unit 13 selects a clip art image from each of the separated areas. Furthermore, the clip art image type determination unit 14 determines the type of the clip art image. Furthermore, the clip art image area dividing unit 15 divides the clip art image area according to the discriminated image type. Furthermore, the clip art image vector conversion unit 16 converts the clip art image into vector data from the region division result in the clip art image region division unit 15.
Convert to data.

図14は、図1に示す画像処理装置を実現した一実施形態であるディジタル複合機(MFP)の主要部構成を示すブロック図である。尚、本実施形態では、画像処理装置として、スキャナ機能やプリンタ機能を有するディジタル複合機(MFP)を用いているが、汎用のスキャナとパーソナルコンピュータとを接続したシステムを当該画像処理装置として用いてもよい。   FIG. 14 is a block diagram showing a main part configuration of a digital multi-function peripheral (MFP) which is an embodiment realizing the image processing apparatus shown in FIG. In this embodiment, a digital multifunction peripheral (MFP) having a scanner function and a printer function is used as the image processing apparatus. However, a system in which a general-purpose scanner and a personal computer are connected is used as the image processing apparatus. Also good.

図14に示すように、MFPは、画像処理装置として機能するコントローラユニット2000を備えている。当該コントローラユニット2000は、画像入力デバイスであるスキャナ2070や画像出力デバイスであるプリンタ2095を接続する。そして、スキャナ2070で原稿画像から読み取られた画像データをプリンタ2095によって印刷出力するコピー機能を実現するための制御を行う。また、コントローラユニット2000は、LAN1006や公衆回線(WAN)1008を介して他装置との間でパターン画像やデバイス情報等の入出力を行うための制御を行う。   As shown in FIG. 14, the MFP includes a controller unit 2000 that functions as an image processing apparatus. The controller unit 2000 connects a scanner 2070 as an image input device and a printer 2095 as an image output device. Then, control is performed to realize a copy function in which image data read from the original image by the scanner 2070 is printed out by the printer 2095. Further, the controller unit 2000 performs control for inputting / outputting pattern images, device information, and the like to / from other apparatuses via the LAN 1006 and the public line (WAN) 1008.

コントローラユニット2000は、図14に示すように、CPU2001を有している。CPU2001は、ROM2003に格納されているブートプログラムによりオペレーションシステム(OS)を立ち上げる。そして、このOS上でHDD(ハードディスクドライブ)2004に格納されているアプリケーションプログラムを実行することによって各種処理を実行する。このCPU2001の作業領域として、RAM2002が用いられる。RAM2002はまた、CPU2001の作業領域だけでなく、画像データを一時記憶するための画像メモリ領域をも提供する。HDD2004は、上記アプリケーションプログラムとともに、画像データを格納する。   As shown in FIG. 14, the controller unit 2000 has a CPU 2001. The CPU 2001 starts up an operation system (OS) by a boot program stored in the ROM 2003. Various processes are executed by executing application programs stored in an HDD (Hard Disk Drive) 2004 on the OS. A RAM 2002 is used as a work area for the CPU 2001. The RAM 2002 provides not only a work area for the CPU 2001 but also an image memory area for temporarily storing image data. The HDD 2004 stores image data together with the application program.

CPU2001には、システムバス2007を介して、ROM2003やRAM2002が接続されている。さらに、操作部I/F(操作部インタフェース)2006、ネットワークI/F(ネットワークインタフェース)2010、モデム2050及びイメージバスI/F(イメージバスインタフェース)2005が接続されている。   A ROM 2003 and a RAM 2002 are connected to the CPU 2001 via a system bus 2007. Further, an operation unit I / F (operation unit interface) 2006, a network I / F (network interface) 2010, a modem 2050, and an image bus I / F (image bus interface) 2005 are connected.

操作部I/F2006は、タッチパネルを有する操作部2012とのインタフェースであり、操作部2012に表示する画像データを操作部2012に対して出力する。また、操作部I/F2006は、操作部2012においてユーザにより入力された情報をCPU2001に送出する。   An operation unit I / F 2006 is an interface with an operation unit 2012 having a touch panel, and outputs image data to be displayed on the operation unit 2012 to the operation unit 2012. Further, the operation unit I / F 2006 sends information input by the user through the operation unit 2012 to the CPU 2001.

また、ネットワークI/F2010は、LAN1006に接続され、当該LAN1006を介してLAN1006に接続された各装置との間で情報の入出力を行う。モデム2050は、公衆回線1008に接続し、公衆回線1008を介して他装置との間で情報の入出力を行う。   The network I / F 2010 is connected to the LAN 1006 and inputs / outputs information to / from each device connected to the LAN 1006 via the LAN 1006. The modem 2050 is connected to the public line 1008 and inputs / outputs information to / from other devices via the public line 1008.

イメージバスI/F2005は、システムバス2007と画像データを高速で転送する画像バス2008を接続し、データ構造を変換するためのバスブリッジである。画像バス2008は、PCIバス又はIEEE1394から構成される。画像バス2008上には、ラスタイメージプロセッサ(RIP)2060、デバイスI/F2020、スキャナ画像処理部2080、プリンタ画像処理部2090、画像回転部2030、サムネイル作成部2035及び画像圧縮部2040が設けられている。   An image bus I / F 2005 is a bus bridge for connecting a system bus 2007 and an image bus 2008 for transferring image data at high speed and converting a data structure. The image bus 2008 includes a PCI bus or IEEE1394. On the image bus 2008, a raster image processor (RIP) 2060, a device I / F 2020, a scanner image processing unit 2080, a printer image processing unit 2090, an image rotation unit 2030, a thumbnail creation unit 2035, and an image compression unit 2040 are provided. Yes.

RIP2060は、PDLコードをビットマップイメージに展開するプロセッサである。デバイスI/F2020には、スキャナ2070及びプリンタ2095が接続され、画像データの同期系/非同期系の変換を行う。スキャナ画像処理部2080は、入力画像データに対して補正、加工、編集処理を行う。プリンタ画像処理部2090は、プリント出力画像データに対してプリンタの補正、解像度変換等を行う。画像回転部2030は、画像データの回転を行う。画像圧縮部2040は、多値画像データをJPEGデータに、ニ値画像データをJBIG、MMR、MH等のデータに圧縮するとともに、その伸長処理も行う。   The RIP 2060 is a processor that develops a PDL code into a bitmap image. A scanner 2070 and a printer 2095 are connected to the device I / F 2020 and perform synchronous / asynchronous conversion of image data. A scanner image processing unit 2080 performs correction, processing, and editing processing on input image data. A printer image processing unit 2090 performs printer correction, resolution conversion, and the like on print output image data. The image rotation unit 2030 rotates image data. The image compression unit 2040 compresses the multi-value image data into JPEG data and the binary image data into data such as JBIG, MMR, and MH, and also performs decompression processing.

<領域分割に基づいたベクトル化処理の概要>
図2は、本発明の一実施形態におけるクリップアート画像の領域分割に基づいたベクトル化処理についての概略を説明するためのフローチャートである。
<Outline of vectorization processing based on area division>
FIG. 2 is a flowchart for explaining an outline of vectorization processing based on clip art region segmentation according to an embodiment of the present invention.

まず、入力部11において、スキャナより紙情報を入力し、カラー文書画像データを得る(ステップS11)。次に、領域分離部12において、入力されたカラー文書画像を二値画像データに変換し、この二値画像データを文字、写真、表等の複数種類の領域に分離する(ステップS12)。この領域分離処理を実現する一例として、米国特許第5,680,478号公報に記載の領域分割技術を用いることができる。尚、当該公報には、「Method and Apparatus for character recognition (Shin-YwanWang et aI./Canon K.K.)」が記載されている。さらに、クリップアート画像選択部13において、前工程で分離された領域からクリップアート画像を選択する(ステップS13)。   First, paper information is input from the scanner at the input unit 11 to obtain color document image data (step S11). Next, the area separation unit 12 converts the input color document image into binary image data, and the binary image data is separated into a plurality of types of areas such as characters, photographs, and tables (step S12). As an example of realizing this region separation processing, the region division technique described in US Pat. No. 5,680,478 can be used. In this publication, “Method and Apparatus for character recognition (Shin-YwanWang et al./Canon K.K.)” is described. Further, the clip art image selection unit 13 selects a clip art image from the region separated in the previous process (step S13).

次に、クリップアート画像種類判別部14において、クリップアート画像の種類、例えば、縁があるかどうか、グラデーションがあるかどうかを判別する(ステップS14)。尚、このクリップアート画像の種類の判別処理の詳細については後述する。   Next, the clipart image type discriminating unit 14 discriminates the type of the clip art image, for example, whether there is an edge or whether there is a gradation (step S14). The details of the clipart image type discrimination process will be described later.

次に、クリップアート画像領域分割部15では、クリップアート画像の種類の判別結果に基づいて、縁がある/なしで判別された画像に対して領域分割の種類の判定を行う(ステップS15)。その結果、縁なしクリップアート画像と判定された場合(Yes)は、縁なしクリップアート画像の領域分割を行う(ステップS16)。   Next, the clipart image region dividing unit 15 determines the type of region division for an image determined with or without a border based on the determination result of the type of clip art image (step S15). As a result, when it is determined that the clip art image has no border (Yes), the clip art image without border is divided (step S16).

一方、ステップS15において、縁があると判別された場合(No)は、当該クリップアート画像に対して、さらにグラデーションがない画像であるか否かを判別する(ステップS17)。その結果、グラデーションなしと判別された場合(Yes)は、縁ありグラデーションありクリップアート画像の領域分割を行う。この縁なしクリップアート画像の領域分割処理(ステップS16)、縁ありクリップアート画像の領域分割処理(ステップS18)、及びグラデーションありクリップアート画像の領域分割処理(ステップS19)の詳細については後述する。   On the other hand, if it is determined in step S15 that there is an edge (No), it is determined whether or not the clip art image is an image having no further gradation (step S17). As a result, if it is determined that there is no gradation (Yes), the clip art image with a bordered gradation is divided into regions. The details of the area dividing process of the clip art image without borders (step S16), the area dividing process of the clip art image with edges (step S18), and the area dividing process of the clip art image with gradation (step S19) will be described later.

ステップS16、S18、S19の領域分割処理の後、ベクトル化部16において、分割された領域毎に輪郭線と領域内部の色に基づいてベクトルデータに変換する(ステップS20)。このベクトル化処理を実現する技術としては、例えば、特許第2885999号のニ値画像の輪郭線の追跡をし、その座標ベクトルを選択することにより、ベクトル化するものが挙げられる。尚、本実施形態におけるベクトル化処理についても当該技術を利用するものとする。   After the region dividing process in steps S16, S18, and S19, the vectorization unit 16 converts each divided region into vector data based on the outline and the color inside the region (step S20). As a technique for realizing this vectorization processing, for example, there is a technique of vectorizing by tracing the contour line of a binary image of Japanese Patent No. 2885999 and selecting its coordinate vector. Note that this technique is also used for vectorization processing in the present embodiment.

<クリップアート画像の選択例>
図3は、本発明の一実施形態に係る画像処理において文書画像からクリップアート画像を選択した一例を示す図である。図3では、一文書画像から前述した領域分離法を用いて写真領域31、テキスト領域32、及びクリップアート領域33がそれぞれ矩形領域として分離されている様子を示している。
<Clip art image selection example>
FIG. 3 is a diagram showing an example in which a clip art image is selected from a document image in image processing according to an embodiment of the present invention. FIG. 3 shows a state in which a photographic area 31, a text area 32, and a clipart area 33 are separated as rectangular areas from one document image by using the area separation method described above.

<画像種類判別処理>
図4は、図2のステップS14における画像に縁があるかどうかの判別処理の詳細について説明するためのフローチャートである。
<Image type discrimination processing>
FIG. 4 is a flowchart for explaining details of the determination processing for determining whether or not the image has a border in step S14 of FIG.

まず、クリップアート画像からエッジを抽出する(ステップS1401)。そして、エッジ強度のヒストグラム分布を求める(ステップS1402)。本実施形態では、一例として、エッジ強度の閾値が0,40,80,120,160である時にそれぞれ閾値以上のエッジ強度を持つ画素の数を代表値として統計するようにする。そして、ヒストグラムの分布が緩めに減少しているか否かについて判定する(ステップS1403)。その結果、エッジ強度の閾値を高くするにつれて閾値以上のエッジ強度を持つ画素数が緩やかに減少する場合(Yes)は、縁があると判定する(ステップS1404)。一方、急に減少する場合(No)は、縁がないと判定する(ステップS1405)。   First, an edge is extracted from the clip art image (step S1401). Then, a histogram distribution of edge strength is obtained (step S1402). In the present embodiment, as an example, when the threshold value of edge strength is 0, 40, 80, 120, or 160, the number of pixels having edge strengths equal to or higher than the threshold value is statistically represented as a representative value. Then, it is determined whether or not the histogram distribution is gradually decreasing (step S1403). As a result, when the number of pixels having edge strength equal to or higher than the threshold value gradually decreases as the edge strength threshold value is increased (Yes), it is determined that there is an edge (step S1404). On the other hand, when it decreases suddenly (No), it is determined that there is no edge (step S1405).

図5は、図2のステップS14における画像にグラデーションがあるかどうかの判別処理の詳細について説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining the details of the determination processing for determining whether or not there is a gradation in the image in step S14 of FIG.

まず、RGB色空間からHSV色空間への色変換を行う(ステップS1411)。次いで、H値の数を統計し(ステップS1412)、S値の数を統計する(ステップS1413)。そして、H値の数が少なく、S値の数が多いかどうかを判定する(ステップS1414)。その結果、H値の数が少なく、S値の数が多い場合(Yes)は、グラデーションがあると判定する(ステップS1415)。一方、それ以外の場合(No)は、グラデーションがないと判定する(ステップS1416)。   First, color conversion from the RGB color space to the HSV color space is performed (step S1411). Next, the number of H values is statistics (step S1412), and the number of S values is statistics (step S1413). Then, it is determined whether the number of H values is small and the number of S values is large (step S1414). As a result, when the number of H values is small and the number of S values is large (Yes), it is determined that there is a gradation (step S1415). On the other hand, in other cases (No), it is determined that there is no gradation (step S1416).

<縁なしクリップアート画像の領域分割処理>
図6は、図2のステップS16における縁なしクリップアート画像の領域分割処理の詳細について説明するためのフローチャートである。
<Area segmentation processing for borderless clip art images>
FIG. 6 is a flowchart for explaining details of the region dividing process of the borderless clipart image in step S16 of FIG.

まず、画素の色特徴に基づいてクラスタリング処理を行って、画像をクラスタに分割する(ステップS1601)。具体的には、ラスタスキャンしたスタートの画素により、最初のクラスタを生成する。そして、次の画素に対して、全てのクラスタ間との類似を求める。類似度が高いほど、画素とクラスタとの距離が短い、即ち、特徴が近いと考えられる。ここでは、類似の計算にRGB値を用いるが、他のカラー空間の情報、或いは、カラー以外の情報を特徴量としても使える。そして、一番高い類似度とこの類似度に対応したクラスタ番号を記録し、この類似度を事前に設定された閾値とを比較する。その結果、閾値より高ければ、対象画素を記録されたクラスタに属させる。一方、閾値より低ければ、対象画素により新たなクラスタを生成する。以上の処理が全ての画素に対して終われば、領域分割処理を終了する。   First, clustering processing is performed based on the color characteristics of the pixels, and the image is divided into clusters (step S1601). Specifically, the first cluster is generated from the start pixel subjected to raster scanning. Then, the similarity between all the clusters is obtained for the next pixel. The higher the similarity, the shorter the distance between the pixel and the cluster, that is, the closer the feature. Here, RGB values are used for similar calculations, but information on other color spaces or information other than color can also be used as feature amounts. Then, the highest similarity and the cluster number corresponding to this similarity are recorded, and this similarity is compared with a preset threshold. If the result is higher than the threshold value, the target pixel belongs to the recorded cluster. On the other hand, if it is lower than the threshold, a new cluster is generated by the target pixel. When the above processing is completed for all pixels, the region division processing is terminated.

ステップS1602では、ステップS1601で分割されたクラスタを類似度により統合する。具体的には、まず、分離したい領域数の目標値を入力する。この目標値は、本実施形態では何色くらいに分離するかの目安にある。そして、現在のクラスタの数を数えて、領域数の目標値とを比較する。その結果、クラスタ数が目標値より多ければ、クラスタの統合を行う。統合には、各クラスタ間の類似度を計算し、その中から一番類似度の高い二つのクラスタを一つに統合する。本クラスタ統合処理は、クラスタ数が目標値より少なくなるまで実行する。   In step S1602, the clusters divided in step S1601 are integrated based on similarity. Specifically, first, a target value for the number of regions to be separated is input. This target value is a measure of how many colors are separated in this embodiment. Then, the number of current clusters is counted and compared with the target value of the number of regions. As a result, if the number of clusters is greater than the target value, cluster integration is performed. For the integration, the similarity between the clusters is calculated, and the two clusters having the highest similarity are integrated into one. This cluster integration process is executed until the number of clusters becomes smaller than the target value.

そして、ステップS1603では、ノイズ領域を判別するために領域統合の結果をラベリング処理する。そして、ステップS1604では、各ラベル領域の大きさによりノイズ領域であるかどうかを判定する。その結果、ラベル領域がある程度小さければ(Yes)、ノイズ領域と判定してステップS1605に進む。ステップS1605では、ステップS1604で判定されたノイズ領域に含まれたノイズ画素を、隣接する領域間との類似度に基づいて、一番類似度の高い領域に再び割り当てるクラスタリング処理を行い、ステップS1606に進む。一方、ステップS1604でノイズ領域でないと判定された場合(No)はステップS1606に進む。   In step S1603, the result of region integration is labeled to determine the noise region. In step S1604, it is determined whether the area is a noise area based on the size of each label area. As a result, if the label area is small to some extent (Yes), it is determined as a noise area and the process proceeds to step S1605. In step S1605, a clustering process is performed in which the noise pixels included in the noise region determined in step S1604 are reassigned to the region with the highest similarity based on the similarity between adjacent regions, and step S1606 is performed. move on. On the other hand, if it is determined in step S1604 that the region is not a noise region (No), the process proceeds to step S1606.

ステップS1606では、全てのラベル領域に対して処理が終わるかどうかを判定する。そして、処理対象があれば(No)、ステップS1604に戻ってノイズ領域の判定処理とノイズ領域の再処理を繰り返し実行する。一方、処理対象がなければ(Yes)、ノイズ処理を終了する。   In step S1606, it is determined whether or not processing is completed for all label regions. If there is an object to be processed (No), the process returns to step S1604 to repeat the noise area determination process and the noise area reprocessing. On the other hand, if there is no processing target (Yes), the noise processing is terminated.

<ノイズの例>
図7は、本発明の一実施形態に係る画像処理で取り扱うノイズの一例を示す図である。図7において、クラスタ61とクラスタ62は、領域分割処理(ステップS1601)及び領域統合処理(ステップS1602)後のクラスタから、それぞれ代表として選ばれた2つのクラスタ例である。図7に示すこれらのクラスタにあるノイズを、以上のノイズ判定処理とノイズ再処理で対応する。
<Example of noise>
FIG. 7 is a diagram illustrating an example of noise handled in image processing according to an embodiment of the present invention. In FIG. 7, a cluster 61 and a cluster 62 are two examples of clusters selected as representatives from the clusters after the area division process (step S1601) and the area integration process (step S1602). The noise in these clusters shown in FIG. 7 is dealt with by the above noise determination processing and noise reprocessing.

<縁なしクリップアート画像の領域分割に基づいたベクトル化の例>
図8は、本発明の一実施形態における縁なしクリップアート画像に対して領域分割、領域統合、ノイズ領域判定及びノイズ領域再処理の一連の処理によりベクトル化の一例を示す図である。図8において、81は領域分割されるクリップアート画像である。また、82は領域分割結果の一例を示す。すなわち、クリップアート画像81は、前述した領域分割、領域統合、ノイズ判定、ノイズ除去の一連の処理により、例えば、分割したい領域数の目標値が16と設定された場合は、領域分割結果82に示す16個のクラスタから成るクラスタ群に分割される。
<Example of vectorization based on area division of borderless clip art image>
FIG. 8 is a diagram illustrating an example of vectorization by a series of processes of area division, area integration, noise area determination, and noise area reprocessing for a borderless clipart image according to an embodiment of the present invention. In FIG. 8, 81 is a clip art image divided into regions. Reference numeral 82 denotes an example of a region division result. That is, the clip art image 81 is displayed in the region division result 82 when the target value of the number of regions to be divided is set to 16, for example, by the above-described series of processing of region division, region integration, noise determination, and noise removal. The cluster is divided into 16 clusters as shown.

ベクトル化処理に必要なクラスタの輪郭と内部色情報の例としては、図8では、クラスタ83、輪郭線84、及び内部色情報85が示されている。領域分割結果82を上記情報に基づいてベクトルデータに変換された結果がベクトル画像86である。ベクトル画像86のファイルサイズは24Kバイトであり、元のクリップアート画像81のファイルサイズが2739Kバイトであるので、ベクトル化によって1/100以下のサイズに減ることになる。これによりノイズへ対応することができる。また、ベクトル画像86の各クラスタ82を部品として、各クラスタの内部色の塗り潰し等の処理を行うこともできる。   As examples of cluster outlines and internal color information necessary for vectorization processing, FIG. 8 shows a cluster 83, outline 84, and internal color information 85. A result of converting the region division result 82 into vector data based on the above information is a vector image 86. Since the file size of the vector image 86 is 24 Kbytes, and the file size of the original clip art image 81 is 2739 Kbytes, it is reduced to 1/100 or less by vectorization. This can cope with noise. Further, processing such as painting of the internal color of each cluster can be performed using each cluster 82 of the vector image 86 as a component.

<縁ありクリップアート画像の領域分割処理>
図9は、図2のステップS18における縁ありクリップアート画像の領域分割処理の詳細について説明するためのフローチャートである。
<Division processing of clip art image with border>
FIG. 9 is a flowchart for explaining the details of the region dividing process of the clipped image with the border in step S18 of FIG.

まず、縁クリップアート画像からエッジを抽出し(ステップS1801)、次いで、エッジ強度が設定した閾値以上である画素によりエッジクラスタを形成する(ステップS1802)。   First, an edge is extracted from the edge clip art image (step S1801), and then an edge cluster is formed by pixels whose edge strength is equal to or greater than a set threshold value (step S1802).

そして、エッジクラスタ以外の画素に対して、縁なしクリップアート画像の処理と同じように処理を行う。すなわち、領域分割処理(S1601)、領域統合処理(S1602)、ラベリング処理(S1603)、ノイズ領域判定処理(S1604)、ノイズ領域再処理(S1605)の一連の処理を行う。   Then, the pixels other than the edge cluster are processed in the same manner as the processing of the borderless clipart image. That is, a series of processes including an area division process (S1601), an area integration process (S1602), a labeling process (S1603), a noise area determination process (S1604), and a noise area reprocessing (S1605) are performed.

そして、ステップS1803では、最初に形成したエッジクラスタ以外に縁情報を含むクラスタがあるかどうかのエッジクラスタ判定処理を行う。この処理では、最初のエッジクラスタ以外のクラスタに対して、クラスタ毎にエッジ率、即ち、エッジ強度が0ではない画素数とクラスタの画素数の割合を計算する。その結果、エッジ率がある程度高い場合はそのクラスタをエッジクラスタと判定する。ステップS1804では、このクラスタと最初に形成したエッジクラスタとを統合する。   In step S1803, an edge cluster determination process is performed to determine whether there is a cluster including edge information other than the edge cluster formed first. In this process, for each cluster other than the first edge cluster, the edge ratio, that is, the ratio of the number of pixels whose edge intensity is not 0 to the number of pixels in the cluster is calculated for each cluster. As a result, when the edge rate is high to some extent, the cluster is determined as an edge cluster. In step S1804, this cluster and the first formed edge cluster are integrated.

<エッジクラスタの例>
図10は、本発明の一実施形態における分割されたクラスタからエッジクラスタと判定されたエッジクラスタに統合された例を示す図である。図10において、1711はエッジクラスタ形成処理により最初に形成したエッジクラスタであり、1712はエッジクラスタ判定処理でエッジクラスタと判定したクラスタである。また、1713はこれらのエッジクラスタを統合したエッジクラスタの結果である。このように、本実施形態では、縁のある画像に対して、エッジクラスタ形成処理、エッジクラスタ判定処理、また、エッジクラスタ統合処理で対応する。
<Example of edge cluster>
FIG. 10 is a diagram illustrating an example in which a divided cluster is integrated into an edge cluster determined as an edge cluster according to an embodiment of the present invention. In FIG. 10, reference numeral 1711 denotes an edge cluster formed first by the edge cluster formation process, and reference numeral 1712 denotes a cluster determined as an edge cluster by the edge cluster determination process. Reference numeral 1713 denotes an edge cluster result obtained by integrating these edge clusters. As described above, in this embodiment, an edged image is handled by edge cluster formation processing, edge cluster determination processing, and edge cluster integration processing.

<縁ありクリップアート画像の領域分割に基づいたベクトル化の例>
図11は、縁ありクリップアート画像に対してエッジ抽出、エッジクラスタ生成、領域分割、領域統合、ノイズ領域判定、ノイズ領域再処理、エッジクラスタ判定、エッジクラスタ統合の一連の処理によるベクトル化の一例を示す図である。
<Example of vectorization based on segmentation of clipped image with border>
FIG. 11 shows an example of vectorization by a series of processing of edge extraction, edge cluster generation, region division, region integration, noise region determination, noise region reprocessing, edge cluster determination, and edge cluster integration for a clipped image with a border. FIG.

図11において、縁ありクリップアート画像1721は、分割したい領域数の目標値を16と指定した場合、領域分割結果1722に示す各クラスタに分割される。ベクトル画像1723は、領域分割の結果1722をベクトルデータに変換した結果である。ベクトル画像1723のファイルサイズは45Kバイトであり、元のクリップアート画像1721のファイルサイズが2739Kバイトであるので、ベクトル化によって1/50以下のサイズに減ることになる。これにより縁の情報を一つのクラスタに抑えることができる。   In FIG. 11, the clipped image 1721 with a border is divided into clusters shown in the region division result 1722 when the target value of the number of regions to be divided is designated as 16. The vector image 1723 is a result of converting the region division result 1722 into vector data. Since the file size of the vector image 1723 is 45 Kbytes and the file size of the original clip art image 1721 is 2739 Kbytes, the vectorization reduces the size to 1/50 or less. Thereby, the edge information can be suppressed to one cluster.

<グラデーションありクリップアート画像の領域分割処理>
図12は、図2のステップS19におけるグラデーションありクリップアート画像の領域分割処理の詳細について説明するためのフローチャートである。
<Division processing of clip art image with gradation>
FIG. 12 is a flowchart for explaining the details of the region dividing process of the clip art image with gradation in step S19 of FIG.

まず、縁クリップアート画像からエッジを抽出し(ステップS1801)、エッジ強度が設定した閾値以上である画素によりエッジクラスタを形成する(ステップS1802)。   First, an edge is extracted from the edge clip art image (step S1801), and an edge cluster is formed by pixels whose edge strength is equal to or greater than a set threshold value (step S1802).

次いで、RGBカラー空間からHSVカラー空間へ変換し(ステップS1901)、色彩Sにより画像を無彩色部分と有彩色部分に分ける(ステップS1902)。この無彩色部分と有彩色部分の分離処理では、色彩Sの値は0である画素を無彩色部分に属させ、色彩Sの値は0ではない画素を有彩色部分に属させる。   Next, the RGB color space is converted to the HSV color space (step S1901), and the image is divided into an achromatic color portion and a chromatic color portion by the color S (step S1902). In the separation processing of the achromatic color portion and the chromatic color portion, pixels whose color S value is 0 belong to the achromatic color portion, and pixels whose color S value is not 0 belong to the chromatic color portion.

さらに、無彩色部分の領域分割をする(ステップS1903)。この処理は、ステップS1601の領域分割処理と同じであるが、特徴量としては画素の輝度値が用いられ、画素とクラスタ間の距離としては輝度値の差が用いられる。   Further, the region of the achromatic part is divided (step S1903). This processing is the same as the region division processing in step S1601, but the luminance value of the pixel is used as the feature amount, and the difference in luminance value is used as the distance between the pixel and the cluster.

次いで、有彩色部分の領域分割をする(ステップS1904)。この処理では、特徴量としては画素のRGBカラー情報が用いられ、画素とクラスタ間の距離としてはRGBのEuclidean距離が用いられる。   Next, the chromatic color part is divided into regions (step S1904). In this process, RGB color information of a pixel is used as the feature amount, and RGB Euclidian distance is used as the distance between the pixel and the cluster.

次いで、無彩色部分の領域統合をする(ステップS1905)。この処理は、ステップS1602の領域統合処理と同じであるが、特徴量としては画素の輝度値が用いられ、画素とクラスタ間の距離としては輝度値の差が用いられ、統合条件としてはクラスタ間の距離はある閾値以下である。   Next, the achromatic portion is integrated (step S1905). This processing is the same as the region integration processing in step S1602, but the luminance value of the pixel is used as the feature amount, the difference in luminance value is used as the distance between the pixel and the cluster, and the integration condition is between clusters. Is less than a certain threshold.

さらに、有彩色部分の領域統合をする(ステップS1906)。この処理では、特徴量としては画素のRGBカラー情報と色相H情報が用いられ、画素とクラスタ間の距離としてはRGBのEuclidean距離とHの差が用いられる。また、統合条件としてはクラスタ間のRGB距離はRGBの閾値以下であり、H距離はHの閾値以下である。   Further, the chromatic color area is integrated (step S1906). In this process, the RGB color information and hue H information of the pixel are used as the feature amount, and the difference between RGB Euclidian distance and H is used as the distance between the pixel and the cluster. As an integration condition, the RGB distance between clusters is equal to or less than the RGB threshold, and the H distance is equal to or less than the H threshold.

そして、エッジクラスタ以外の画素に対して、縁ありクリップアート画像の処理と同じように以下の処理が行われる。すなわち、ステップS1603のラベリング処理、ステップS1604のノイズ領域判定処理、ステップS1605のノイズ領域再処理、ステップS1803のエッジクラスタ判定処理、ステップS1804のエッジクラスタ統合処理の一連の処理が行われる。以上の処理を経て、領域分割の結果が得られる。   Then, the following processing is performed on the pixels other than the edge cluster in the same manner as the processing of the clipped image with a border. That is, a series of processes of labeling processing in step S1603, noise region determination processing in step S1604, noise region reprocessing in step S1605, edge cluster determination processing in step S1803, and edge cluster integration processing in step S1804 are performed. Through the above processing, the result of area division is obtained.

<グラデーションあり画像の領域分割に基づいたベクトル化の例>
図13は、グラデーションありクリップアート画像に対して各種処理を行うことによるベクトル化の一例を示す図である。各種処理とは、エッジ抽出、エッジクラスタ生成、無彩色部分と有彩色部分の別々の領域分割、無彩色部分と有彩色部分の別々の領域統合、ノイズ領域判定、ノイズ領域再処理、エッジクラスタ判定、エッジクラスタ統合の一連の処理を行う。
<Example of vectorization based on area division of image with gradation>
FIG. 13 is a diagram illustrating an example of vectorization by performing various processes on a clip art image with gradation. Various processes include edge extraction, edge cluster generation, separate area division of achromatic and chromatic parts, integration of separate areas of achromatic and chromatic parts, noise area determination, noise area reprocessing, edge cluster determination A series of processing of edge cluster integration is performed.

図13において、グラデーションありクリップアート画像1801は、分割したい領域数の目標値を10と指定した場合、領域分割結果1802の各クラスタに分割される。ここで、ベクトル画像1803のデータサイズは56Kバイトであり、元のクリップアート画像1801のデータサイズ2739Kバイトであるので、ベクトル化によって1/50以下のサイズに減ることになる。これにより、グラデーション部分を正確に領域分割が出きる。   In FIG. 13, the clip art image 1801 with gradation is divided into each cluster of the region division result 1802 when the target value of the number of regions to be divided is designated as 10. Here, since the data size of the vector image 1803 is 56 Kbytes and the data size of the original clip art image 1801 is 2739 Kbytes, it is reduced to 1/50 or less by vectorization. As a result, the gradation can be accurately divided into regions.

以上説明したように、本実施形態によれば、処理対象画像の種類、即ち、縁があるかどうか、及びグラデーションがあるかどうかを自動判別して、それぞれに応じた処理を行うことにより、効率良くベクトル化をすることができる。   As described above, according to the present embodiment, the type of processing target image, that is, whether there is an edge and whether there is a gradation is automatically determined, and processing is performed according to each, thereby improving efficiency. It can be well vectorized.

<その他の実施形態>
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体(記録媒体)等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other embodiments>
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, storage medium (recording medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給する。そして、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) that realizes the functions of the above-described embodiments is directly or remotely supplied to a system or apparatus. In addition, this includes a case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、以下のようなものがある。フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)。   Examples of the recording medium for supplying the program include the following. Floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) .

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページからハードディスク等の記録媒体にダウンロードすることによっても供給できる。すなわち、ホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをダウンロードする。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, the program can be supplied by downloading it from a homepage on the Internet to a recording medium such as a hard disk using a browser of a client computer. That is, it connects to a homepage and downloads the computer program itself of the present invention or a compressed file including an automatic installation function from the homepage. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布する。そして、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   Further, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, and distributed to users. Then, the user who has cleared the predetermined condition is allowed to download key information for decryption from the homepage via the Internet. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他にも、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, the function of the above-described embodiment can be realized by an OS running on the computer based on an instruction of the program and performing part or all of the actual processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後にも前述した実施形態の機能が実現される。すなわち、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行うことによっても前述した実施形態の機能が実現される。   Further, the functions of the above-described embodiments are realized even after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. That is, the functions of the above-described embodiments are realized by performing a part or all of the actual processing by the CPU or the like provided in the function expansion board or function expansion unit based on the instructions of the program.

本発明の一実施形態に係る領域分割に基づいたベクトル化処理を行う機能を有する画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which has a function which performs the vectorization process based on the area division based on one Embodiment of this invention. 本発明の一実施形態におけるクリップアート画像の領域分割に基づいたベクトル化処理についての概略を説明するためのフローチャートである。It is a flowchart for demonstrating the outline about the vectorization process based on the area | region division of the clip art image in one Embodiment of this invention. 本発明の一実施形態に係る画像処理において文書画像からクリップアート画像を選択した一例を示す図である。It is a figure which shows an example which selected the clip art image from the document image in the image processing which concerns on one Embodiment of this invention. 図2のステップS14における画像に縁があるかどうかの判別処理の詳細について説明するためのフローチャートである。3 is a flowchart for explaining details of a determination process for determining whether or not an image has a border in step S14 of FIG. 2. 図2のステップS14における画像にグラデーションがあるかどうかの判別処理の詳細について説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the discrimination | determination process whether an image has a gradation in step S14 of FIG. 図2のステップS16における縁なしクリップアート画像の領域分割処理の詳細について説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the area | region division process of the borderless clipart image in step S16 of FIG. 本発明の一実施形態に係る画像処理で取り扱うノイズの一例を示す図である。It is a figure which shows an example of the noise handled by the image processing which concerns on one Embodiment of this invention. 本発明の一実施形態における縁なしクリップアート画像に対して領域分割、領域統合、ノイズ領域判定及びノイズ領域再処理の一連の処理によりベクトル化の一例を示す図である。It is a figure which shows an example of vectorization by a series of processes of area | region division, area | region integration, noise area determination, and noise area reprocessing with respect to the borderless clipart image in one Embodiment of this invention. 図2のステップS18における縁ありクリップアート画像の領域分割処理の詳細について説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the area | region division | segmentation process of a clip art image with a border in FIG.2 S18. 本発明の一実施形態における分割されたクラスタからエッジクラスタと判定されたエッジクラスタに統合された例を示す図である。It is a figure which shows the example integrated into the edge cluster determined as the edge cluster from the divided | segmented cluster in one Embodiment of this invention. 縁ありクリップアート画像に対してエッジ抽出、エッジクラスタ生成、領域分割、領域統合、ノイズ領域判定、ノイズ領域再処理、エッジクラスタ判定、エッジクラスタ統合の一連の処理によるベクトル化の一例を示す図である。It is a figure which shows an example of vectorization by a series of processes of edge extraction, edge cluster generation, area division, area integration, noise area determination, noise area reprocessing, edge cluster determination, and edge cluster integration for a clipped image with a border is there. 図2のステップS19におけるグラデーションありクリップアート画像の領域分割処理の詳細について説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the area | region division process of the clip art image with a gradation in step S19 of FIG. グラデーションありクリップアート画像に対して各種処理を行うことによるベクトル化の一例を示す図である。It is a figure which shows an example of vectorization by performing various processes with respect to a clipart image with gradation. 図1に示す画像処理装置を実現した一実施形態であるディジタル複合機(MFP)の主要部構成を示すブロック図である。FIG. 2 is a block diagram illustrating a main part configuration of a digital multifunction peripheral (MFP) that is an embodiment that realizes the image processing apparatus illustrated in FIG. 1.

符号の説明Explanation of symbols

11 入力部
12 領域分離部
13 クリップアート画像選択部
14 クリップアート画像種類判別部
15 クリップアート画像領域分割部
16 クリップアート画像ベクトル変換部
DESCRIPTION OF SYMBOLS 11 Input part 12 Area | region separation part 13 Clip art image selection part 14 Clip art image type discrimination | determination part 15 Clip art image area division part 16 Clip art image vector conversion part

Claims (11)

クリップアート画像を含む文書画像を入力してベクトル化する画像処理装置における画像処理方法であって、
前記文書画像を領域分割して前記クリップアート画像を選択する選択工程と、
前記クリップアート画像の種類を判別する判別工程と、
判別された画像の種類に応じて前記クリップアート画像をさらに領域分割する領域分割工程と、
領域分割された前記クリップアート画像をベクトルデータに変換する変換工程と、
を有することを特徴とする画像処理方法。
An image processing method in an image processing apparatus for inputting and vectorizing a document image including a clip art image,
A selection step of selecting the clipart image by dividing the document image into regions;
A discriminating step for discriminating the type of the clip art image;
An area dividing step of further dividing the clip art image according to the type of the determined image;
A conversion step of converting the segmented clip art image into vector data;
An image processing method comprising:
前記判別工程が、
前記クリップアート画像が縁を有するか否かを判別する縁判別工程と、
該クリップアート画像がグラデーションを有するか否かを判別するグラデーション判別工程と、
を有することを特徴とする請求項1に記載の画像処理方法。
The discrimination step is
An edge determination step for determining whether the clip art image has an edge; and
A gradation determination step for determining whether or not the clip art image has gradation;
The image processing method according to claim 1, further comprising:
前記縁判別工程が、
前記クリップアート画像からエッジを抽出するエッジ抽出工程と、
抽出された前記エッジの強度に基づくヒストグラム分布を求め、該ヒストグラムに基づいて前記クリップアート画像が縁を有するか否かを判定する判定工程と、
を有することを特徴とする請求項2に記載の画像処理方法。
The edge discrimination step includes
An edge extraction step of extracting edges from the clip art image;
Determining a histogram distribution based on the extracted intensity of the edge, and determining whether the clipart image has an edge based on the histogram; and
The image processing method according to claim 2, further comprising:
前記判定工程が、
前記ヒストグラム分布において、エッジ強度の閾値を高くするにつれて該閾値以上のエッジ強度を持つ画素数が緩やかに減少する場合に前記クリップアート画像を縁ありクリップアート画像と判定し、エッジ強度の閾値を高くするにつれて該閾値以上のエッジ強度を持つ画素数が緩やかに減少しない場合に前記クリップアート画像を縁なしクリップアート画像と判定することを特徴とする請求項3に記載の画像処理方法。
The determination step includes
In the histogram distribution, when the number of pixels having an edge strength equal to or higher than the threshold value gradually decreases as the edge strength threshold value is increased, the clip art image is determined to be a clip art image with a border, and the edge strength threshold value is increased. 4. The image processing method according to claim 3, wherein the clip art image is determined to be a borderless clip art image when the number of pixels having an edge strength equal to or greater than the threshold value does not gradually decrease as the clip image increases.
前記グラデーション判別工程が、
前記クリップアート画像をRGB色空間からHSV色空間に変換する色変換工程と、
前記HSV色空間における色相Hと色彩Sの情報により前記クリップアート画像がグラデーションを有するか否かを判定する判定工程と、
を有することを特徴とする請求項2に記載の画像処理方法。
The gradation discrimination step
A color conversion step of converting the clip art image from an RGB color space to an HSV color space;
A determination step of determining whether or not the clip art image has gradation based on information on hue H and color S in the HSV color space;
The image processing method according to claim 2, further comprising:
前記判定工程が、
前記HSV色空間において、色相Hが少なく色彩Sが広い範囲で出現する場合に前記クリップアート画像をグラデーション付きクリップアート画像と判定し、色相Hが少なく色彩Sが広い範囲で出現する場合でない場合に前記クリップアート画像をグラデーションなしクリップアート画像と判定することを特徴とする請求項5に記載の画像処理方法。
The determination step includes
In the HSV color space, when the hue H is small and the color S appears in a wide range, the clip art image is determined as a clipped image with gradation, and when the hue S is small and the color S does not appear in a wide range. 6. The image processing method according to claim 5, wherein the clip art image is determined as a clip image without gradation.
前記判定工程によって、前記クリップアート画像が縁なしクリップアート画像であると判定された場合に、前記領域分割工程が、
前記クリップアート画像を画素の色特徴に基づいて複数のクラスタに分割する工程と、
前記クリップアート画像の領域数の目標数を入力する工程と、
前記複数のクラスタを他のクラスタとの類似度を用いて前記目標数の範囲内で統合する工程と、
統合後の複数のクラスタからノイズ領域を判定する工程と、
ノイズ領域と判定されたクラスタを類似度の高いクラスタに割り当てる工程と、
を有することを特徴とする請求項4に記載の画像処理方法。
When the determination step determines that the clip art image is a borderless clip art image, the region dividing step includes:
Dividing the clip art image into a plurality of clusters based on pixel color features;
Inputting a target number of areas of the clip art image;
Integrating the plurality of clusters within a range of the target number using similarity to other clusters;
Determining a noise region from a plurality of clusters after integration;
Assigning a cluster determined to be a noise region to a cluster having a high degree of similarity;
The image processing method according to claim 4, further comprising:
前記判定工程によって、前記クリップアート画像が縁ありクリップアート画像であると判定された場合に、前記領域分割工程が、
前記クリップアート画像からエッジを抽出する工程と、
抽出された前記エッジの強度に基づいてエッジクラスタを形成する工程と、
前記クリップアート画像内のエッジクラスタ以外の画素の色特徴に基づいて該クリップアート画像を複数のクラスタに分割する工程と、
前記クリップアート画像の領域数の目標数を入力する工程と、
前記複数のクラスタを他のクラスタとの類似度を用いて前記目標数の範囲内で統合する工程と、
統合後の複数のクラスタからノイズ領域を判定する工程と、
ノイズ領域と判定されたクラスタを類似度の高いクラスタに割り当てる工程と、
割り当て後の前記クラスタがエッジクラスタであるか否かを判定する工程と、
エッジクラスタであると判定されたクラスタを前記エッジの強度に基づいて形成された前記エッジクラスタとを統合する工程と、
を有することを特徴とする請求項4に記載の画像処理方法。
When it is determined by the determination step that the clip art image is a clip image with a border, the region dividing step includes:
Extracting an edge from the clip art image;
Forming an edge cluster based on the extracted intensity of the edge;
Dividing the clip art image into a plurality of clusters based on color characteristics of pixels other than edge clusters in the clip art image;
Inputting a target number of areas of the clip art image;
Integrating the plurality of clusters within a range of the target number using similarity to other clusters;
Determining a noise region from a plurality of clusters after integration;
Assigning a cluster determined to be a noise region to a cluster having a high degree of similarity;
Determining whether the cluster after allocation is an edge cluster;
Integrating a cluster determined to be an edge cluster with the edge cluster formed based on the strength of the edge;
The image processing method according to claim 4, further comprising:
前記判定工程によって、前記クリップアート画像がグラデーションありクリップアート画像であると判定された場合に、前記領域分割工程が、
前記クリップアート画像からエッジを抽出する工程と、
抽出された前記エッジの強度に基づいてエッジクラスタを形成する工程と、
前記クリップアート画像をRGB色空間からHSV色空間に変換する工程と、
色彩Sを参照して前記クリップアート画像を無彩色領域と有彩色領域とに分離する工程と、
前記無彩色領域及び前記有彩色領域を領域分割する工程と、
分割されたそれぞれの領域を画素情報を用いて統合する工程と、
前記クリップアート画像内のエッジクラスタ以外の画素の色特徴に基づいて該クリップアート画像を複数のクラスタにラベリングする工程と、
前記複数のクラスタからノイズ領域を判定する工程と、
ノイズ領域と判定されたクラスタを類似度の高いクラスタに割り当てる工程と、
割り当て後の前記クラスタがエッジクラスタであるか否かを判定する工程と、
エッジクラスタであると判定されたクラスタを前記エッジの強度に基づいて形成された前記エッジクラスタとを統合する工程と、
を有することを特徴とする請求項6に記載の画像処理方法。
When the determination step determines that the clip art image is a clip art image with gradation, the region dividing step includes:
Extracting an edge from the clip art image;
Forming an edge cluster based on the extracted intensity of the edge;
Converting the clip art image from an RGB color space to an HSV color space;
Separating the clipart image into an achromatic region and a chromatic region with reference to the color S;
Dividing the achromatic color region and the chromatic color region; and
Integrating each divided region using pixel information;
Labeling the clip art image into a plurality of clusters based on color features of pixels other than the edge clusters in the clip art image;
Determining a noise region from the plurality of clusters;
Assigning a cluster determined to be a noise region to a cluster having a high degree of similarity;
Determining whether the cluster after allocation is an edge cluster;
Integrating a cluster determined to be an edge cluster with the edge cluster formed based on the strength of the edge;
The image processing method according to claim 6, further comprising:
クリップアート画像を含む文書画像を入力してベクトル化する画像処理装置であって、
前記文書画像を領域分割して前記クリップアート画像を選択する選択手段と、
前記クリップアート画像の種類を判別する判別手段と、
判別された画像の種類に応じて前記クリップアート画像をさらに領域分割する領域分割手段と、
領域分割された前記クリップアート画像をベクトルデータに変換する変換手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for inputting and documentizing a document image including a clip art image,
Selection means for selecting the clipart image by dividing the document image into regions;
Discriminating means for discriminating the type of the clip art image;
Area dividing means for further dividing the clip art image according to the determined type of image;
Converting means for converting the clipped art image divided into regions into vector data;
An image processing apparatus comprising:
請求項1に記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 1.
JP2006095841A 2005-06-09 2006-03-30 Image processing method and image processing apparatus Expired - Fee Related JP4739082B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006095841A JP4739082B2 (en) 2006-03-30 2006-03-30 Image processing method and image processing apparatus
US11/444,389 US7623712B2 (en) 2005-06-09 2006-06-01 Image processing method and apparatus
US12/580,005 US7936929B2 (en) 2005-06-09 2009-10-15 Image processing method and apparatus for removing noise from a document image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006095841A JP4739082B2 (en) 2006-03-30 2006-03-30 Image processing method and image processing apparatus

Publications (3)

Publication Number Publication Date
JP2007272457A true JP2007272457A (en) 2007-10-18
JP2007272457A5 JP2007272457A5 (en) 2009-05-07
JP4739082B2 JP4739082B2 (en) 2011-08-03

Family

ID=38675215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006095841A Expired - Fee Related JP4739082B2 (en) 2005-06-09 2006-03-30 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4739082B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232450A (en) * 2008-03-24 2009-10-08 Fujitsu Ltd Image processing method, image processing apparatus, and watermark detection system
JP2010182205A (en) * 2009-02-06 2010-08-19 Canon Inc Image processing method, image processor, and program
JP2010183416A (en) * 2009-02-06 2010-08-19 Ricoh Co Ltd Image processing apparatus and method, program, and recording medium
JP2010182204A (en) * 2009-02-06 2010-08-19 Canon Inc Image processing method, image processor, and program
JP2010186272A (en) * 2009-02-10 2010-08-26 Canon Inc Method, apparatus, and program for processing image
JP2011013900A (en) * 2009-07-01 2011-01-20 Canon Inc Image processing apparatus, image processing method, program, and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067244A (en) * 1998-08-26 2000-03-03 Minolta Co Ltd Area integrating method for color image, and program storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067244A (en) * 1998-08-26 2000-03-03 Minolta Co Ltd Area integrating method for color image, and program storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232450A (en) * 2008-03-24 2009-10-08 Fujitsu Ltd Image processing method, image processing apparatus, and watermark detection system
JP2010182205A (en) * 2009-02-06 2010-08-19 Canon Inc Image processing method, image processor, and program
JP2010183416A (en) * 2009-02-06 2010-08-19 Ricoh Co Ltd Image processing apparatus and method, program, and recording medium
JP2010182204A (en) * 2009-02-06 2010-08-19 Canon Inc Image processing method, image processor, and program
JP2010186272A (en) * 2009-02-10 2010-08-26 Canon Inc Method, apparatus, and program for processing image
JP2011013900A (en) * 2009-07-01 2011-01-20 Canon Inc Image processing apparatus, image processing method, program, and storage medium
US8810877B2 (en) 2009-07-01 2014-08-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for eliminating blurring of scanned image

Also Published As

Publication number Publication date
JP4739082B2 (en) 2011-08-03

Similar Documents

Publication Publication Date Title
JP4766661B2 (en) Image processing method and image processing apparatus
US7623712B2 (en) Image processing method and apparatus
US7903307B2 (en) Image processing method and image processing apparatus
JP5047051B2 (en) Image processing apparatus and image encoding method
JP5302768B2 (en) Image processing apparatus and image processing method
US8396298B2 (en) Image processing apparatus, image processing method, and storage medium with vectorization process for data from graphic areas
US8244035B2 (en) Image processing apparatus and control method thereof
JP4632443B2 (en) Image processing apparatus, image processing method, and program
JP4732315B2 (en) Image processing apparatus and method
JP5219706B2 (en) Image processing apparatus, image processing method, and image processing program
JP4739082B2 (en) Image processing method and image processing apparatus
JP2006025129A (en) System and method for image processing
JP5178490B2 (en) Image processing apparatus, image processing method, and computer program
JP4748789B2 (en) Image processing method and image processing apparatus
US8810877B2 (en) Image processing apparatus, image processing method, and storage medium for eliminating blurring of scanned image
JP2006023944A (en) Image processing system and image processing method
US8515186B2 (en) Image processor, image processing method and storage medium
JP5012551B2 (en) Information processing apparatus and program
JP2010068198A (en) Image forming apparatus
JP2006146500A (en) Image processing device, control method therefor, image processing system and program
JP2009135791A (en) Image processing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110425

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110427

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4739082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees