JP2010199767A - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP2010199767A
JP2010199767A JP2009040151A JP2009040151A JP2010199767A JP 2010199767 A JP2010199767 A JP 2010199767A JP 2009040151 A JP2009040151 A JP 2009040151A JP 2009040151 A JP2009040151 A JP 2009040151A JP 2010199767 A JP2010199767 A JP 2010199767A
Authority
JP
Japan
Prior art keywords
image
classification
pixels
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009040151A
Other languages
Japanese (ja)
Other versions
JP5200993B2 (en
Inventor
Hiroyuki Kono
裕之 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2009040151A priority Critical patent/JP5200993B2/en
Publication of JP2010199767A publication Critical patent/JP2010199767A/en
Application granted granted Critical
Publication of JP5200993B2 publication Critical patent/JP5200993B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device which suppresses influence due to image variation processing for an image subjected to image variation processing, and classifies its pixels. <P>SOLUTION: In the image processing device, a dividing means divides an image into regions, a classification means classifies pixels in the regions divided by the dividing means, and an integration means integrates the classified pixels based on the shapes of pixels classified by the classification means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

画像を印刷等する場合に、その画像の階調表現のためにスクリーン処理に代表される画像変動処理が行われる。その画像変動処理が行われた印刷物をスキャナで読み込んで、その画像の構成を解析することが行われている。   When printing an image or the like, an image variation process typified by a screen process is performed for gradation expression of the image. A printed matter on which the image variation processing has been performed is read by a scanner, and the configuration of the image is analyzed.

これに関連する技術として、例えば、特許文献1には、面倒な切り抜き条件の設定を行うことなく、様々な色や絵柄の組合せでできた模様からなる画像を切り抜ける装置を提供することを目的とし、画像入力手段から入力された画像データはブロック分割手段によって、小ブロック単位に分割されたブロック分割画像データが生成され、また色量子化手段によって類似色ごとにグルーピングされた色量子化画像データが作られ、輪郭ブロック設定手段により表示手段に表示されたブロック分割画像データの中から輪郭部を含む画像ブロックを指示・選択し、輪郭部設定手段では、色量子化された画像データを用いて選択されたブロック画像から輪郭を正確に切り出し、このデータをもとにマスク作成手段によってマスクデータが作成され、このマスクデータに対応した画像データの領域が抽出されることによって、所望の切り抜き画像を得ることが開示されている。   As a technique related to this, for example, Patent Document 1 aims to provide an apparatus that cuts out an image formed of a combination of various colors and patterns without setting troublesome cutting conditions. The image data input from the image input means is divided into small block units by the block dividing means, and the color quantized image data grouped for each similar color by the color quantizing means is generated. The image block including the contour portion is designated and selected from the block-divided image data created and displayed on the display means by the contour block setting means, and the contour portion setting means selects using the color quantized image data. The contour is accurately cut out from the block image, and mask data is created by the mask creation means based on this data. By region of the image data corresponding to the mask data is extracted, it is disclosed that to obtain the desired cut-out image.

また、例えば、特許文献2には、オブジェクトに基づく画像検索のための新たな画像セグメント化アルゴリズムを提供することを課題とし、多次元画像からカラーリージョンを抽出し、すべてのカラーリージョン対の境界の複雑さを計算し、カラーリージョン対の境界複雑さの値が所定の境界複雑さしきい値より大きく、かつ、リージョン対の色距離が所定の距離しきい値より小さい場合に、リージョン対を併合し、階層的クラスタ分析を用いてカラーリージョンを併合した後、境界分析を用いてカラーリージョンを併合し、カラーリージョンが小さく、かつ、別のカラーリージョンによって包囲されているかどうかを判定し、その判定が真である場合、小さいカラーリージョンを、包囲しているカラーリージョンに併合し、最後に、リージョンデータを各カラーリージョンに割り当てることが開示されている。   Further, for example, Patent Document 2 has an object of providing a new image segmentation algorithm for object-based image retrieval, extracts color regions from a multidimensional image, and extracts the boundary of all color region pairs. Compute complexity and merge region pairs when the boundary complexity value of a color region pair is greater than a given boundary complexity threshold and the color distance of the region pair is less than a given distance threshold Merge color regions using hierarchical cluster analysis and then merge color regions using boundary analysis to determine if a color region is small and surrounded by another color region If is true, merge the small color region into the surrounding color region, and finally It is disclosed that assigned to each color region of Ndeta.

また、例えば、特許文献3には、様々な線数の網点に対して、精度よく網点領域を検出することを課題とし、入力画像を変倍し、原画像と変倍画像の両方から網点領域を検出し、変倍画像から検出された網点領域を逆変倍してから、原画像の網点領域と統合し、網点検出結果として出力することが開示されている。   Further, for example, Patent Document 3 has an object of accurately detecting a halftone dot region with respect to halftone dots with various numbers of lines. The input image is scaled to obtain both the original image and the scaled image. It is disclosed that a halftone dot region is detected, the halftone dot region detected from the scaled image is inversely scaled, and then integrated with the halftone dot region of the original image and output as a halftone dot detection result.

また、例えば、特許文献4には、局所的に網点領域/非網点領域の判別が難しい場合であっても、網点部分と文字部分とを正確に分離することができる網点領域検出装置、画像形成装置、プログラム、記憶媒体及び網点領域検出方法を提供することを課題とし、網点分離部を、文字を構成する線状部位を検出する線状検出手段と、網点を構成するドットまたはドット間隙間を検出するドット検出手段と、線状検出手段及びドット検出手段における検出結果に基づいて網点領域を検出する網点領域検出手段とにより構成し、これにより、網点領域の検出の判定材料として極点画素情報及び線状部位情報を用いることにより、局所的に網点領域/非網点領域の判別が難しい場合であっても、網点部分と文字部分とを正確に分離できることが開示されている。   Further, for example, Patent Document 4 discloses a halftone dot region detection that can accurately separate a halftone dot portion and a character portion even when it is difficult to locally distinguish a halftone dot region / non-halftone dot region. An object is to provide an apparatus, an image forming apparatus, a program, a storage medium, and a halftone dot region detection method, and a halftone dot separation unit, a linear detection unit that detects a linear part constituting a character, and a halftone dot Dot detection means for detecting a dot or a gap between dots, and a halftone dot area detection means for detecting a halftone dot area based on the detection result in the linear detection means and the dot detection means. By using the pole pixel information and the linear part information as the judgment material for detection, it is possible to accurately identify the halftone dot portion and the character portion even when it is difficult to distinguish the halftone dot region / non-halftone dot region locally. It is disclosed that it can be separated To have.

また、例えば、特許文献5には、画像データ中の万線で構成された部分を判定することを課題とし、原稿を読取った画像データについて、注目画素を中心に5×5の画素について、その5×5の画素の各列の5つの画素値を加算して加算値を列単位画素値加算部で求め、減算・比較回路は加算値を互いに減算して基準値th1と比較することで、加算値が示す画像濃度の凹凸パターンを判定し、AND判定部でANDをとることで、特定の万線パターンに該当するか否かを判定することが開示されている。   In addition, for example, Patent Document 5 has a problem of determining a part composed of lines in image data. For image data obtained by reading a document, about 5 × 5 pixels centering on a pixel of interest, By adding the five pixel values of each column of 5 × 5 pixels and obtaining the addition value by the column unit pixel value addition unit, the subtraction / comparison circuit subtracts the addition values from each other and compares them with the reference value th1, It is disclosed that a concave / convex pattern having an image density indicated by an addition value is determined and AND is performed by an AND determination unit to determine whether the pattern corresponds to a specific line pattern.

また、例えば、特許文献6には、読み取られた画像データが、文字領域、写真領域または網点領域のいずれの領域に存在するかを高精度に識別することができる画像処理装置およびそれを用いた画像形成装置、画像処理方法、ならびに記憶媒体を提供することを課題とし、領域分離処理部では、第1ブロックメモリに第1注目画素とその近傍の複数画素とから成る局所ブロックの画像信号が格納され、エッジ検出回路によって、第1ブロックメモリに格納されている画像信号から第1注目画素がエッジであるか否かの判定信号を出力し、第2ブロックメモリには、前記エッジ検出回路から入力されたエッジ判定信号が格納され、識別回路は、第2ブロックメモリに格納されているエッジ判定信号を用いて、前記第2ブロックメモリの第2注目画素あるいは第2の注目画素を中心とした局所ブロックが網点領域に存在するか否かを識別することが開示されている。   Further, for example, Patent Document 6 uses an image processing apparatus that can identify with high accuracy whether the read image data exists in a character area, a photographic area, or a halftone dot area. An image forming apparatus, an image processing method, and a storage medium are provided. In the region separation processing unit, an image signal of a local block composed of a first pixel of interest and a plurality of neighboring pixels is stored in the first block memory. The edge detection circuit outputs a determination signal as to whether or not the first pixel of interest is an edge from the image signal stored in the first block memory by the edge detection circuit. The input edge determination signal is stored, and the identification circuit uses the edge determination signal stored in the second block memory to perform the second attention of the second block memory. The element or local block around the second noticed pixel to identify whether in a halftone dot area is disclosed.

また、例えば、特許文献7には、画像データ中の万線領域を精度よく特定することによって、万線領域に最適な画像処理を行うことができる画像処理装置、画像形成装置、万線領域特定方法、原稿種別判別方法、コンピュータプログラム及び記録媒体を提供することを課題とし、画像処理装置の領域分離処理部は、入力階調補正部から与えられた画像データから注目画素を含む7×7の大きさの領域を抽出し、0°、90°、45°及び135°の4つの方向について、隣接する画素間での濃度の差の絶対値の総和を算出し、算出した総和に方向依存性が存在する場合、注目画素が万線領域に含まれる画素であると判定し、この判定を画像データの全画素について行うことで、万線領域を特定することが開示されている。   Further, for example, Patent Document 7 discloses an image processing apparatus, an image forming apparatus, and a line area identification that can perform image processing optimal for a line area by accurately identifying a line area in image data. An object of the present invention is to provide a method, a document type determination method, a computer program, and a recording medium. An area separation processing unit of an image processing apparatus includes a 7 × 7 pixel including a pixel of interest from image data provided from an input tone correction unit. The size area is extracted, and the sum of absolute values of density differences between adjacent pixels is calculated in four directions of 0 °, 90 °, 45 °, and 135 °, and the calculated sum is direction-dependent. Is present, it is determined that the pixel of interest is a pixel included in the line region, and this determination is performed for all the pixels of the image data, thereby specifying the line region.

特開平05−216993号公報JP 05-216993 A 特開2007−149139号公報JP 2007-149139 A 特開2000−333002号公報JP 2000-33002 A 特開2002−300387号公報JP 2002-300387 A 特開2002−300388号公報JP 2002-300388 A 特開2002−305654号公報JP 2002-305654 A 特開2008−104139号公報JP 2008-104139 A

本発明は、画像変動処理が行われた画像に対して、その画像変動処理による影響を抑制して画素を分類するようにした画像処理装置及び画像処理プログラムを提供することを目的としている。   An object of the present invention is to provide an image processing apparatus and an image processing program that classify pixels of an image that has undergone image variation processing while suppressing the influence of the image variation processing.

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、画像を領域に分割する分割手段と、前記分割手段によって分割された領域内の画素を分類する分類手段と、前記分類手段によって分類された画素群の形状に基づいて、分類間の画素を統合する統合手段を具備することを特徴とする画像処理装置である。
The gist of the present invention for achieving the object lies in the inventions of the following items.
The invention of claim 1 is based on a dividing unit that divides an image into regions, a classification unit that classifies pixels in the region divided by the dividing unit, and a shape of a pixel group classified by the classification unit, An image processing apparatus comprising an integration unit that integrates pixels between classifications.

請求項2の発明は、前記統合手段は、前記統合した画素に基づいて、さらに、前記分割手段によって分割された領域間の画素を統合することを特徴とする請求項1に記載の画像処理装置である。   The invention according to claim 2 is the image processing apparatus according to claim 1, wherein the integrating unit further integrates pixels between regions divided by the dividing unit based on the integrated pixels. It is.

請求項3の発明は、前記統合手段は、前記分類手段によって分類された画素群の外接矩形の面積に基づいて、該分類された画素群を分割した後に、画素を統合することを特徴とする請求項1又は2に記載の画像処理装置である。   The invention according to claim 3 is characterized in that the integration unit integrates the pixels after dividing the classified pixel group based on an area of a circumscribed rectangle of the pixel group classified by the classification unit. An image processing apparatus according to claim 1.

請求項4の発明は、前記統合手段による統合結果に基づいて、前記画像の構成を生成する構成生成手段を具備することを特徴とする請求項1から3のいずれか一項に記載の画像処理装置である。   According to a fourth aspect of the present invention, the image processing according to any one of the first to third aspects further includes a configuration generation unit configured to generate a configuration of the image based on a result of integration by the integration unit. Device.

請求項5の発明は、コンピュータを、画像を領域に分割する分割手段と、前記分割手段によって分割された領域内の画素を分類する分類手段と、前記分類手段によって分類された画素群の形状に基づいて、分類間の画素を統合する統合手段として機能させることを特徴とする画像処理プログラムである。   According to a fifth aspect of the invention, the computer is divided into a shape of a pixel group classified by the classifying unit, a classifying unit for classifying the pixels in the region divided by the dividing unit, and a classifying unit for dividing the image into regions. An image processing program that functions as an integration unit that integrates pixels between classifications based on the image processing program.

請求項1の画像処理装置によれば、本構成を有していない場合に比較して、画像変動処理が行われた画像に対して、その画像変動処理による影響を抑制して画素を分類できる。   According to the image processing apparatus of the first aspect, it is possible to classify the pixels while suppressing the influence of the image variation processing on the image subjected to the image variation processing as compared with the case where the present configuration is not provided. .

請求項2の画像処理装置によれば、本構成を有していない場合に比較して、複数の領域間において画素を分類できる。   According to the image processing apparatus of the second aspect, it is possible to classify the pixels between the plurality of regions as compared with the case where the present configuration is not provided.

請求項3の画像処理装置によれば、本構成を有していない場合に比較して、領域内の分類において、より精密な分類ができる。   According to the image processing apparatus of the third aspect, compared with the case where the present configuration is not provided, more precise classification can be performed in the classification within the region.

請求項4の画像処理装置によれば、本構成を有していない場合に比較して、画像変動処理による影響を抑制した上で、画像の構成を解析することができるようになる。   According to the image processing apparatus of the fourth aspect, it is possible to analyze the configuration of the image while suppressing the influence of the image variation processing as compared with the case where the present configuration is not provided.

請求項5の画像処理プログラムによれば、本構成を有していない場合に比較して、画像変動処理が行われた画像に対して、その画像変動処理による影響を抑制して画素を分類できる。   According to the image processing program of claim 5, it is possible to classify the pixels while suppressing the influence of the image variation processing on the image subjected to the image variation processing as compared with the case where the present configuration is not provided. .

本実施の形態の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of this Embodiment. 本実施の形態による処理例を示すフローチャートである。It is a flowchart which shows the process example by this Embodiment. 本実施の形態による処理例を示すフローチャートである。It is a flowchart which shows the process example by this Embodiment. 対象ブロックの例を示す説明図である。It is explanatory drawing which shows the example of an object block. 画素分類モジュールによる処理例を示す説明図である。It is explanatory drawing which shows the process example by a pixel classification module. 分類結果統合モジュールによる処理例を示す説明図である。It is explanatory drawing which shows the process example by a classification result integration module. 分類結果統合モジュールによる処理例を示すフローチャートである。It is a flowchart which shows the process example by a classification result integration module. 対象ブロックの例を示す説明図である。It is explanatory drawing which shows the example of an object block. 画素分類モジュールによる処理例を示す説明図である。It is explanatory drawing which shows the process example by a pixel classification module. 外接矩形生成の処理例を示す説明図である。It is explanatory drawing which shows the process example of circumscribed rectangle production | generation. 分類した領域を分割する処理例を示す説明図である。It is explanatory drawing which shows the process example which divides | segments the classified area | region. 分類結果統合モジュールによる処理例を示す説明図である。It is explanatory drawing which shows the process example by a classification result integration module. 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the computer which implement | achieves this Embodiment.

以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、コンピュータ・プログラム、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するの意である。また、モジュールは機能にほぼ一対一に対応しているが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)の場合にも用いる。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じて定まることの意を含めて用いる。
Hereinafter, an example of a preferred embodiment for realizing the present invention will be described with reference to the drawings.
FIG. 1 shows a conceptual module configuration diagram of a configuration example of the present embodiment.
The module generally refers to components such as software (computer program) and hardware that can be logically separated. Therefore, the module in the present embodiment indicates not only a module in a computer program but also a module in a hardware configuration. Therefore, the present embodiment also serves as an explanation of a computer program, a system, and a method. However, for the sake of explanation, the words “store”, “store”, and equivalents thereof are used. However, when the embodiment is a computer program, these words are stored in a storage device or stored in memory. It is the control to be stored in the device. In addition, the modules correspond almost one-to-one with the functions. However, in mounting, one module may be composed of one program, or a plurality of modules may be composed of one program. A plurality of programs may be used. The plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers in a distributed or parallel environment. Note that one module may include other modules. Hereinafter, “connection” is used not only for physical connection but also for logical connection (data exchange, instruction, reference relationship between data, etc.).
In addition, the system or device is configured by connecting a plurality of computers, hardware, devices, and the like by communication means such as a network (including one-to-one correspondence communication connection), etc., and one computer, hardware, device. The case where it implement | achieves by etc. is included. “Apparatus” and “system” are used as synonymous terms. “Predetermined” means that the process is determined before the target process, and not only before the process according to this embodiment starts but also after the process according to this embodiment starts. In addition, if it is before the target processing, it is used in accordance with the situation / state at that time or with the intention to be decided according to the situation / state up to that point.

以下、画像変動処理として、スクリーン処理を主に例示して説明する。スクリーン処理は、印刷等の出力において、中間調を再現するために用いられるものであり、スクリーン上のラインの密度(線数)によって網点の密度も変化する。スクリーン処理された画像をスキャナ等の画像読取装置で読み取ると、疑似階調等が生じる場合がある。
本実施の形態である画像処理装置は、スクリーン処理された画像の構成を生成するものであって、図1に示すように、ブロック分割モジュール110、画素分類モジュール120、分類結果統合モジュール130、データ変換モジュール140を有している。
Hereinafter, screen processing will be mainly exemplified and described as the image variation processing. Screen processing is used to reproduce halftones in output such as printing, and the density of halftone dots also changes depending on the density (number of lines) of lines on the screen. When a screen-processed image is read by an image reading device such as a scanner, pseudo gradation or the like may occur.
The image processing apparatus according to the present embodiment generates a screen-processed image configuration. As shown in FIG. 1, a block division module 110, a pixel classification module 120, a classification result integration module 130, data A conversion module 140 is included.

ブロック分割モジュール110は、画素分類モジュール120と接続されている。画像を受け付けて、その画像を領域に分割する。そして、その領域分けした画像を画素分類モジュール120に渡す。
ここで、画像を受け付けるとは、例えば、スキャナ、カメラ等で画像を読み込むこと、ファックス等で通信回線を介して外部機器から画像を受信すること、ハードディスク(コンピュータに内蔵されているものの他に、ネットワークを介して接続されているもの等を含む)等に記憶されている画像を読み出すこと等が含まれる。画像は、2値画像、多値画像(カラー画像を含む)であってもよい。受け付ける画像は、1枚であってもよいし、複数枚であってもよい。また、画像の内容として、ビジネスに用いられる文書、広告宣伝用のパンフレット等であってもよい。
The block division module 110 is connected to the pixel classification module 120. Accept an image and divide the image into regions. Then, the divided image is transferred to the pixel classification module 120.
Here, accepting an image means, for example, reading an image with a scanner, a camera, etc., receiving an image from an external device via a communication line by fax or the like, a hard disk (in addition to what is built in a computer, For example, reading out an image stored in a network (including those connected via a network). The image may be a binary image or a multi-value image (including a color image). One image may be received or a plurality of images may be received. Further, the contents of the image may be a document used for business, a pamphlet for advertisement, or the like.

また、領域に分割するとは、例えば、矩形の領域、その他の形状の領域であってもよく、以下、領域として正方形(例えば、8画素×8画素)のブロックを例示して説明する。なお、スクリーン処理による線が複数本含まれるようにブロックの大きさを決定してもよい。より具体的な例として、画像の解像度及びスクリーン処理の線数に応じて、ブロックの大きさを決定するようにしてもよい。   Moreover, dividing into areas may be, for example, a rectangular area or an area having another shape. Hereinafter, a square (for example, 8 pixels × 8 pixels) block will be described as an example. Note that the block size may be determined so that a plurality of lines by screen processing are included. As a more specific example, the block size may be determined according to the resolution of the image and the number of lines of screen processing.

画素分類モジュール120は、ブロック分割モジュール110、分類結果統合モジュール130と接続されている。ブロック分割モジュール110によって分割されたブロック内の画素を分類する。そして、その分類結果を分類結果統合モジュール130に渡す。
画素分類モジュール120は、例えば、ブロック内の各画素を相互の画素値距離に応じて分類する。各画素の画素値をクラスタリングの手法を用いて、グルーピングしてもよいし、画素値が予め定められた閾値以内にある画素をグルーピングしてもよいし、他の既存の手法を用いてもよい。
The pixel classification module 120 is connected to the block division module 110 and the classification result integration module 130. The pixels in the block divided by the block division module 110 are classified. Then, the classification result is passed to the classification result integration module 130.
For example, the pixel classification module 120 classifies each pixel in the block according to the mutual pixel value distance. The pixel values of each pixel may be grouped using a clustering method, pixels whose pixel values are within a predetermined threshold may be grouped, or other existing methods may be used. .

分類結果統合モジュール130は、画素分類モジュール120、データ変換モジュール140と接続されている。画素分類モジュール120によって分類された画素群の形状に基づいて、分類間の画素を統合する。そして、その統合結果をデータ変換モジュール140に渡す。分類結果統合モジュール130は、同一のカテゴリーに分類された画素の当該ブロック内の画素群の形状に応じて、各ブロックの分類結果を統合するか否かを決定する。画素群の形状として、例えば、その画素群がブロック内で複数に分裂しているか否かがある。複数に分裂している場合は、その分類の画素群と他に分類されている画素群とを統合する。統合する画素群として、他の分類に属しており、対象の分類の画素群と接していることを条件としてもよい。また、さらに、対象の分類の画素群と同等の形状をしている画素群を選択するようにしてもよい。
また、画素群の形状として、ブロック内に限られず、当該ブロック内と周辺ブロックにおける同一のカテゴリーに分類された画素を含めた上での形状としてもよい。
The classification result integration module 130 is connected to the pixel classification module 120 and the data conversion module 140. Based on the shape of the pixel group classified by the pixel classification module 120, the pixels between the classifications are integrated. Then, the integration result is passed to the data conversion module 140. The classification result integration module 130 determines whether or not to integrate the classification results of the respective blocks according to the shape of the pixel group in the block of the pixels classified into the same category. As the shape of the pixel group, for example, there is whether or not the pixel group is divided into a plurality of parts in the block. When the pixel group is divided into a plurality of pixels, the pixel group of the classification and the pixel group classified into others are integrated. The pixel group to be integrated may belong to another classification and may be in a condition that it is in contact with the pixel group of the target classification. Further, a pixel group having the same shape as the target classification pixel group may be selected.
Further, the shape of the pixel group is not limited to within a block, and may be a shape after including pixels classified into the same category in the block and in the peripheral block.

また、分類結果統合モジュール130は、統合した画素に基づいて、さらに、ブロック分割モジュール110によって分割されたブロック間の画素を統合するようにしてもよい。つまり、ブロック内の統合を行った後に、複数のブロック間の統合を行うものである。これによって、画像全体の画素の分類を行うようにしてもよい。例えば、各ブロック内の分類結果(ここでの分類結果とは、ブロック内の分類を統合した後の分類結果である)を、その分類における平均画素値の距離(2つの分類における平均画素値の差)と接触関係に基づいて統合して、画像全体の分類結果として統合する。つまり、平均画素値の距離が予め定められた閾値以内であって、その分類がブロックをまたいで接している場合は、統合を行う。   The classification result integration module 130 may further integrate pixels between blocks divided by the block division module 110 based on the integrated pixels. That is, after integration within a block, integration between a plurality of blocks is performed. Thereby, the pixels of the entire image may be classified. For example, the classification result in each block (the classification result here is the classification result after integrating the classifications in the block) and the distance of the average pixel value in the classification (the average pixel value in the two classifications) Are integrated based on the difference) and the contact relationship, and integrated as a classification result of the entire image. That is, if the distance of the average pixel value is within a predetermined threshold and the classification touches across blocks, integration is performed.

また、分類結果統合モジュール130は、画素分類モジュール120によって分類された画素群の外接矩形の面積に基づいて、その分類された画素群を分割した後に、画素を統合するようにしてもよい。この処理については、図7の例に示すフローチャート、図8から図12に示す処理例を用いて後述する。   Further, the classification result integration module 130 may integrate the pixels after dividing the classified pixel group based on the circumscribed rectangle area of the pixel group classified by the pixel classification module 120. This processing will be described later using the flowchart shown in the example of FIG. 7 and the processing examples shown in FIGS.

データ変換モジュール140は、分類結果統合モジュール130と接続されている。分類結果統合モジュール130による統合結果に基づいて、画像の構成を生成する。そして、その生成した構成を出力する。画像の構成としては、例えば、その画像内の色の分布等が該当する。より具体的な例として、ある画素値範囲内にある画素群(ある色の画素群)の、画像内における位置(X座標、Y座標)、大きさ(幅、高さ)、輪郭等を、その画像の構成として生成する。
そして、その出力された画像の構成を、例えば、画像データベース等にその画像とともに検索用の属性として格納するようにしてもよい。また、その出力された画像の構成を検索キーとして、その画像データベースから画像を検索するようにしてもよい。
The data conversion module 140 is connected to the classification result integration module 130. Based on the result of the integration by the classification result integration module 130, an image configuration is generated. Then, the generated configuration is output. For example, a color distribution in the image corresponds to the image configuration. As a more specific example, the position (X coordinate, Y coordinate), size (width, height), contour, etc. of the pixel group (pixel group of a certain color) within a certain pixel value range, It is generated as a configuration of the image.
The configuration of the output image may be stored as a search attribute together with the image in an image database, for example. Alternatively, an image may be searched from the image database using the configuration of the output image as a search key.

図2、図3は、本実施の形態による処理例を示すフローチャートである。
ステップS202では、ブロック分割モジュール110が、受け付けた画像をブロックに分割する。
図4は、対象ブロックの例を示す説明図である。対象とするブロックは、図4の例に示すブロック400のように、スクリーン処理された部分がある。ブロック400は、3色からなるブロックであり、色彩A401、色彩B402、色彩A403、色彩B404、色彩A405、色彩C406を有している。例えば、色彩Aはピンク色、色彩Bは赤色、色彩Cは黒色である。
2 and 3 are flowcharts showing an example of processing according to the present embodiment.
In step S202, the block division module 110 divides the received image into blocks.
FIG. 4 is an explanatory diagram illustrating an example of the target block. The target block has a screen-processed portion like a block 400 shown in the example of FIG. The block 400 is a block composed of three colors, and includes a color A401, a color B402, a color A403, a color B404, a color A405, and a color C406. For example, the color A is pink, the color B is red, and the color C is black.

ステップS204では、画素分類モジュール120が、各ブロック内の画素をその画素値に基づいて分類する。図5は、図4の例に示したブロック400に対する画素分類モジュール120による処理例を示す説明図である。画素値から3つに分類している。図5(a)の例に示す分類C506は、色彩C406の部分を1つの分類としたものであり、図5(b)の例に示す分類A501、503、505は、色彩A401、403、405の部分を1つの分類としたものであり、図5(c)の例に示す分類B502、504は、色彩B402、404の部分を1つの分類としたものである。   In step S204, the pixel classification module 120 classifies the pixels in each block based on the pixel values. FIG. 5 is an explanatory diagram showing a processing example by the pixel classification module 120 for the block 400 shown in the example of FIG. The pixel values are classified into three. The classification C506 shown in the example of FIG. 5A is a classification of the color C406 portion, and the classifications A501, 503, and 505 shown in the example of FIG. 5B are colors A401, 403, and 405. Is classified into one classification, and classifications B502 and 504 shown in the example of FIG. 5C are obtained by classifying the color B402 and 404 parts into one classification.

ステップS206では、分類結果統合モジュール130が、同じ分類内で領域が分裂しているか否かを判断する。分裂している場合はステップS208へ進み、それ以外の場合はステップS212へ進む。分裂しているか否かは、例えば、同じ分類であると判断された部分に対してラベル付けを行い、その結果、複数のラベルとなったか否かによって判断してもよい。この結果、図5(a)に示す例は分裂していないと判断され、図5(b)、図5(c)に示す例は分裂していると判断される。   In step S206, the classification result integration module 130 determines whether or not the area is divided within the same classification. If it is split, the process proceeds to step S208. Otherwise, the process proceeds to step S212. Whether or not there is a division may be determined, for example, by labeling the portions determined to be the same classification, and as a result of determining whether or not there are a plurality of labels. As a result, it is determined that the example shown in FIG. 5A is not split, and the examples shown in FIGS. 5B and 5C are determined to be split.

ステップS208では、分類結果統合モジュール130が、その分類と接している分類は、その同じ分類内で領域が分裂しているか否かを判断する。分裂している場合はステップS210へ進み、それ以外の場合はステップS212へ進む。接しているか否かは、例えば、互いの分類の領域が共通の境界を有しているか否かによって判断してもよい。図5(b)の例に示す分類Aに接している分類は、分類C(図5(a))と分類B(図5(c))であるが、分類Cは分裂していないのでステップS212へ進み、分類Bは分裂しているのでステップS210へ進む。なお、ステップS208からステップS212の処理は、対象としている分類と接している分類の数だけ繰り返して行う。   In step S <b> 208, the classification result integration module 130 determines whether or not the area that is in contact with the classification is divided in the same classification. If it is split, the process proceeds to step S210. Otherwise, the process proceeds to step S212. Whether or not they are in contact with each other may be determined, for example, based on whether or not the areas of the classifications have a common boundary. The classifications that are in contact with the classification A shown in the example of FIG. 5B are the classification C (FIG. 5A) and the classification B (FIG. 5C). Proceeding to S212, classification B is split, and so the process proceeds to step S210. Note that the processing from step S208 to step S212 is repeated as many times as the number of categories in contact with the target category.

ステップS210では、分類結果統合モジュール130が、両者の分類を統合する。例えば、図5(b)の例に示す分類Aと図5(c)の例に示す分類Bを統合する。
ステップS212では、分類結果統合モジュール130が、ステップS206でNo又はステップS208でNoと判断された場合、その分類は統合の対象としない。例えば、図5(a)の例に示す分類Cは、統合させない。
ステップS214では、分類結果統合モジュール130が、対象としているブロック内の分類について、ステップS206からステップS212までの処理を繰り返す。
図6は、分類結果統合モジュール130による処理例を示す説明図である。図4の例に示したブロック400は、図6の例に示す統合領域601と統合領域602に分類、統合される。
ステップS216では、分類結果統合モジュール130が、対象としている画像内のブロックについて、ステップS206からステップS214までの処理を繰り返す。
In step S210, the classification result integration module 130 integrates both classifications. For example, classification A shown in the example of FIG. 5B and classification B shown in the example of FIG.
In step S212, if the classification result integration module 130 determines No in step S206 or No in step S208, the classification is not targeted for integration. For example, the classification C shown in the example of FIG. 5A is not integrated.
In step S214, the classification result integration module 130 repeats the processing from step S206 to step S212 for the classification in the target block.
FIG. 6 is an explanatory diagram illustrating an example of processing performed by the classification result integration module 130. The block 400 shown in the example of FIG. 4 is classified and integrated into the integrated area 601 and the integrated area 602 shown in the example of FIG.
In step S216, the classification result integration module 130 repeats the processing from step S206 to step S214 for the block in the target image.

ステップS218では、分類結果統合モジュール130が、各ブロックにおける統合結果をさらに統合する。つまり、ブロック間で分類の統合を行う。これによって、画像全体において、同等の画素値を有する領域に分けることとなる。
ステップS220では、データ変換モジュール140が、ステップS218による統合結果を、他のシステムにおいても利用できるようなデータに変換する。例えば、同等の画素値(色の名称等であってもよい)を有する領域の位置、大きさ、輪郭等のデータに変換する。
ステップS222では、データ変換モジュール140が、そのデータを出力する。
In step S218, the classification result integration module 130 further integrates the integration results in each block. That is, classification is integrated between blocks. As a result, the entire image is divided into regions having equivalent pixel values.
In step S220, the data conversion module 140 converts the integration result obtained in step S218 into data that can be used in other systems. For example, the data is converted into data such as the position, size, contour, and the like of a region having an equivalent pixel value (may be a color name or the like).
In step S222, the data conversion module 140 outputs the data.

図7は、分類結果統合モジュール130による処理例を示すフローチャートである。図2のフローチャート例に示すステップS210で行うようにしてもよい。図8から図12を用いて、具体的な例を示して説明する。
図8は、対象ブロックの例を示す説明図である。対象とするブロックは、図8の例に示すブロック800のように、スクリーン処理された部分であり、ブロック800は、3色からなるブロックであり、色彩D801、色彩E802、色彩D803、色彩E804、色彩D805、色彩F806、色彩F807を有している。例えば、色彩Dはピンク色、色彩Eは赤色、色彩Fは緑色である。
図9は、図8の例に示したブロック800に対する画素分類モジュール120による処理例を示す説明図である。画素値から3つに分類している。図9(a)の例に示す分類D901、903、905は、色彩D801、803、805の部分を1つの分類としたものであり、図9(b)の例に示す分類E902、904は、色彩E802、804の部分を1つの分類としたものであり、図9(c)の例に示す分類F906、907は、色彩F806、807の部分を1つの分類としたものである。
FIG. 7 is a flowchart illustrating an example of processing performed by the classification result integration module 130. You may make it carry out by step S210 shown in the flowchart example of FIG. A specific example will be described with reference to FIGS.
FIG. 8 is an explanatory diagram illustrating an example of a target block. The target block is a screen-processed portion like the block 800 shown in the example of FIG. 8, and the block 800 is a block composed of three colors, which are a color D801, a color E802, a color D803, a color E804, A color D805, a color F806, and a color F807 are included. For example, the color D is pink, the color E is red, and the color F is green.
FIG. 9 is an explanatory diagram showing a processing example by the pixel classification module 120 for the block 800 shown in the example of FIG. The pixel values are classified into three. The classifications D901, 903, and 905 shown in the example of FIG. 9A are obtained by making the portions of the colors D801, 803, and 805 into one classification, and the classifications E902 and 904 shown in the example of FIG. The portions of the colors E802 and 804 are classified into one category, and the categories F906 and 907 shown in the example of FIG. 9C are obtained by classifying the portions of the colors F806 and 807 into one category.

ステップS702では、その分類の外接矩形の面積と接している他の分類の外接矩形の面積の差は予め定められた値以上か否かを判断する。まず、対象としている分類の外接矩形、その分類に接している分類の外接矩形を生成する。例えば、図9(a)の例に示す分類Dの外接矩形は1つのブロック全体(図10の例に示す外接矩形1000)となる。図9(b)の例に示す分類Eの外接矩形は図10の例に示す外接矩形1001となる。この両者の面積の差を算出し、その差が予め定められた値以上であるか否かを判断する。この例では、予め定められた値以上であるとする。なお、ここでの比較の対象となる分類は、図2に示すフローチャート例のステップS206でYesとなった分類である。   In step S702, it is determined whether or not the difference between the areas of the circumscribed rectangles in the other categories that are in contact with the area of the circumscribed rectangles in that category is greater than or equal to a predetermined value. First, a circumscribed rectangle of the target classification and a circumscribed rectangle of the classification in contact with the classification are generated. For example, the circumscribed rectangle of the classification D shown in the example of FIG. 9A is one whole block (the circumscribed rectangle 1000 shown in the example of FIG. 10). The circumscribed rectangle of classification E shown in the example of FIG. 9B is a circumscribed rectangle 1001 shown in the example of FIG. The difference between the two areas is calculated, and it is determined whether the difference is equal to or greater than a predetermined value. In this example, it is assumed that the value is equal to or greater than a predetermined value. Note that the category to be compared here is the category that is Yes in step S206 in the flowchart example shown in FIG.

ステップS704では、外接矩形が大きい面積である分類を分割する。図9に示す例では、図9(a)の例に示す分類Dの外接矩形が大きい面積であるので、分割の対象となる。分類Dの領域が、分類Eと接触している部分が最大となるように分割する。つまり、図11の例に示すように、分類D901は分類G1101と分類H1104に分割され、分類D903は分類G1102と分類H1105に分割され、分類D905は分類G1103と分類H1106に分割される。   In step S704, the classification in which the circumscribed rectangle has a large area is divided. In the example shown in FIG. 9, since the circumscribed rectangle of the classification D shown in the example of FIG. The area of classification D is divided so that the portion in contact with classification E is maximized. That is, as shown in the example of FIG. 11, the classification D901 is divided into a classification G1101 and a classification H1104, the classification D903 is divided into a classification G1102 and a classification H1105, and the classification D905 is divided into a classification G1103 and a classification H1106.

ステップS706では、接している分類を統合する。図9に示す例では、図9(b)の例に示す分類E(902、904)と分類D(901、903、905)を分割した図11(a)の例に示す分類G(1101、1102、1103)とが接しているので、この両者を統合する。同様に、図9(c)の例に示す分類F(906、907)と分類D(901、903、905)を分割した図11(b)の例に示す分類H(1104、1105、1106)とが接しているので、この両者を統合する。この結果が、図12の例に示すようになる。つまり、図8の例に示したブロック800は、図12の例に示す統合領域1201と統合領域1202の2つの領域に分類、統合される。
ステップS708では、図2のフローチャート例に示すステップS210と同等の処理を行う。
In step S706, the classifications in contact are integrated. In the example shown in FIG. 9, the classification G (1101, 904) shown in the example of FIG. 11A obtained by dividing the classification E (902, 904) and the classification D (901, 903, 905) shown in the example of FIG. 1102 and 1103) are in contact with each other. Similarly, the classification H (1104, 1105, 1106) shown in the example of FIG. 11B obtained by dividing the classification F (906, 907) and the classification D (901, 903, 905) shown in the example of FIG. 9C. Since both are in contact with each other, they are integrated. The result is as shown in the example of FIG. That is, the block 800 shown in the example of FIG. 8 is classified and integrated into two areas, that is, the integrated area 1201 and the integrated area 1202 shown in the example of FIG.
In step S708, processing equivalent to that in step S210 shown in the flowchart example of FIG. 2 is performed.

図13を参照して、本実施の形態の画像処理装置のハードウェア構成例について説明する。図13に示す構成は、例えばパーソナルコンピュータ(PC)などによって構成されるものであり、スキャナ等のデータ読み取り部1317と、プリンタなどのデータ出力部1318を備えたハードウェア構成例を示している。   A hardware configuration example of the image processing apparatus according to the present embodiment will be described with reference to FIG. The configuration shown in FIG. 13 is configured by a personal computer (PC), for example, and shows a hardware configuration example including a data reading unit 1317 such as a scanner and a data output unit 1318 such as a printer.

CPU(Central Processing Unit)1301は、前述の実施の形態において説明した各種のモジュール、すなわち、ブロック分割モジュール110、画素分類モジュール120、分類結果統合モジュール130、データ変換モジュール140等の各モジュールの実行シーケンスを記述したコンピュータ・プログラムにしたがった処理を実行する制御部である。   A CPU (Central Processing Unit) 1301 is an execution sequence of each module such as the block division module 110, the pixel classification module 120, the classification result integration module 130, and the data conversion module 140 described in the above embodiment. It is a control part which performs processing according to a computer program which described.

ROM(Read Only Memory)1302は、CPU1301が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)1303は、CPU1301の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバスなどから構成されるホストバス1304により相互に接続されている。   A ROM (Read Only Memory) 1302 stores programs used by the CPU 1301, calculation parameters, and the like. A RAM (Random Access Memory) 1303 stores programs used in the execution of the CPU 1301, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 1304 including a CPU bus.

ホストバス1304は、ブリッジ1305を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス1306に接続されている。   The host bus 1304 is connected to an external bus 1306 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 1305.

キーボード1308、マウス等のポインティングデバイス1309は、操作者により操作される入力デバイスである。ディスプレイ1310は、液晶表示装置又はCRT(Cathode Ray Tube)などがあり、各種情報をテキストやイメージ情報として表示する。   A keyboard 1308 and a pointing device 1309 such as a mouse are input devices operated by an operator. The display 1310 includes a liquid crystal display device or a CRT (Cathode Ray Tube), and displays various types of information as text or image information.

HDD(Hard Disk Drive)1311は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU1301によって実行するプログラムや情報を記録又は再生させる。ハードディスクには、受け付けた画像やデータ変換モジュール140の結果データなどが格納される。さらに、その他の各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納される。   An HDD (Hard Disk Drive) 1311 has a built-in hard disk, drives the hard disk, and records or reproduces a program executed by the CPU 1301 and information. The hard disk stores received images, result data of the data conversion module 140, and the like. Further, various computer programs such as various other data processing programs are stored.

ドライブ1312は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体1313に記録されているデータ又はプログラムを読み出して、そのデータ又はプログラムを、インタフェース1307、外部バス1306、ブリッジ1305、及びホストバス1304を介して接続されているRAM1303に供給する。リムーバブル記録媒体1313も、ハードディスクと同様のデータ記録領域として利用可能である。   The drive 1312 reads data or a program recorded on a removable recording medium 1313 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and reads the data or program into an interface 1307 and an external bus 1306. , The bridge 1305, and the RAM 1303 connected via the host bus 1304. The removable recording medium 1313 can also be used as a data recording area similar to a hard disk.

接続ポート1314は、外部接続機器1315を接続するポートであり、USB、IEEE1394等の接続部を持つ。接続ポート1314は、インタフェース1307、及び外部バス1306、ブリッジ1305、ホストバス1304等を介してCPU1301等に接続されている。通信部1316は、ネットワークに接続され、外部とのデータ通信処理を実行する。データ読み取り部1317は、例えばスキャナであり、ドキュメントの読み取り処理を実行する。データ出力部1318は、例えばプリンタであり、ドキュメントデータの出力処理を実行する。   The connection port 1314 is a port for connecting the external connection device 1315 and has a connection unit such as USB and IEEE1394. The connection port 1314 is connected to the CPU 1301 and the like via the interface 1307, the external bus 1306, the bridge 1305, the host bus 1304, and the like. A communication unit 1316 is connected to a network and executes data communication processing with the outside. The data reading unit 1317 is, for example, a scanner, and executes document reading processing. The data output unit 1318 is, for example, a printer, and executes document data output processing.

なお、図13に示す画像処理装置のハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図13に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図13に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、複写機、ファックス、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファックス等のいずれか2つ以上の機能を有している画像処理装置)などに組み込まれていてもよい。   Note that the hardware configuration of the image processing apparatus illustrated in FIG. 13 shows one configuration example, and the present embodiment is not limited to the configuration illustrated in FIG. 13, and the modules described in the present embodiment are executed. Any configuration is possible. For example, some modules may be configured with dedicated hardware (for example, Application Specific Integrated Circuit (ASIC), etc.), and some modules are in an external system and connected via a communication line Alternatively, a plurality of systems shown in FIG. 13 may be connected to each other via communication lines so as to cooperate with each other. Further, it may be incorporated in a copying machine, a fax machine, a scanner, a printer, a multifunction machine (an image processing apparatus having any two or more functions of a scanner, a printer, a copying machine, a fax machine, etc.).

なお、前述の実施の形態では、分類結果統合モジュール130は、分類された画素群の形状に基づいて、分類間の画素を統合するようにしているが、その形状の他に、さらに分類の画素値に基づいて統合するようにしてもよい。例えば、統合対象の分類内の平均画素値を算出し、分類内で画素群が分裂した状態であり、かつ、その平均画素値の距離が予め定められた閾値以内である場合に統合を行うようにしてもよい。また、その形状の他に、さらに分類の外接矩形が重なりあっていることを統合の条件としてもよい。また、その形状の他に、両者の形状が類似していることを統合の条件としてもよい。類似しているとは、例えば、両者の画素群を重ね合わせた場合に、その差分が画素群の面積に対して予め定められた値以下である等の状況をいう。この4つの条件(画素群の形状(分裂していること)、画素値、外接矩形の重複、形状が類似していること)の組み合わせであってもよい。
また、前記実施の形態の説明において、予め定められた値との比較において、「以上」、「以下」、「より大きい」、「より小さい(未満)」としたものは、その組み合わせに矛盾が生じない限り、それぞれ「より大きい」、「より小さい(未満)」、「以上」、「以下」としてもよい。
In the above-described embodiment, the classification result integration module 130 integrates pixels between classifications based on the shape of the classified pixel group. In addition to the shape, the classification pixel is further classified. You may make it integrate based on a value. For example, the average pixel value in the classification to be integrated is calculated, and the integration is performed when the pixel group is divided in the classification and the distance of the average pixel value is within a predetermined threshold. It may be. Further, in addition to the shape, the circumscribed rectangles of the classification may be overlapped as the integration condition. Moreover, it is good also as conditions for integration that both shapes other than the shape are similar. “Similar” means, for example, a situation in which, when the two pixel groups are overlapped, the difference is not more than a predetermined value with respect to the area of the pixel group. A combination of these four conditions (pixel group shape (split), pixel value, circumscribed rectangle overlap, and shape similar) may be used.
Further, in the description of the embodiment, in the comparison with a predetermined value, “more than”, “less than”, “greater than”, “less than (less than)” is inconsistent in the combination. As long as it does not occur, “larger”, “smaller (less than)”, “more”, and “less” may be used.

なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通などのために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray Disc(登録商標))、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、あるいは無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、あるいは別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して
記録されていてもよい。また、圧縮や暗号化など、復元可能であればどのような態様で記録されていてもよい。
The program described above may be provided by being stored in a recording medium, or the program may be provided by communication means. In that case, for example, the above-described program may be regarded as an invention of a “computer-readable recording medium recording the program”.
The “computer-readable recording medium on which a program is recorded” refers to a computer-readable recording medium on which a program is recorded, which is used for program installation, execution, program distribution, and the like.
The recording medium is, for example, a digital versatile disc (DVD), which is a standard established by the DVD Forum, such as “DVD-R, DVD-RW, DVD-RAM,” and DVD + RW. Standard “DVD + R, DVD + RW, etc.”, compact disc (CD), read-only memory (CD-ROM), CD recordable (CD-R), CD rewritable (CD-RW), Blu-ray disc ( Blu-ray Disc (registered trademark), magneto-optical disk (MO), flexible disk (FD), magnetic tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EEPROM), flash Includes memory, random access memory (RAM), etc. .
The program or a part of the program may be recorded on the recording medium for storage or distribution. Also, by communication, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), a wired network used for the Internet, an intranet, an extranet, etc., or wireless communication It may be transmitted using a transmission medium such as a network or a combination of these, or may be carried on a carrier wave.
Furthermore, the program may be a part of another program, or may be recorded on a recording medium together with a separate program. Moreover, it may be divided and recorded on a plurality of recording media. Further, it may be recorded in any manner as long as it can be restored, such as compression or encryption.

110…ブロック分割モジュール
120…画素分類モジュール
130…分類結果統合モジュール
140…データ変換モジュール
110: Block division module 120 ... Pixel classification module 130 ... Classification result integration module 140 ... Data conversion module

Claims (5)

画像を領域に分割する分割手段と、
前記分割手段によって分割された領域内の画素を分類する分類手段と、
前記分類手段によって分類された画素群の形状に基づいて、分類間の画素を統合する統合手段
を具備することを特徴とする画像処理装置。
A dividing means for dividing the image into regions;
Classification means for classifying pixels in the area divided by the dividing means;
An image processing apparatus comprising: an integration unit that integrates pixels between classifications based on a shape of a pixel group classified by the classification unit.
前記統合手段は、前記統合した画素に基づいて、さらに、前記分割手段によって分割された領域間の画素を統合する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the integrating unit further integrates pixels between regions divided by the dividing unit based on the integrated pixels.
前記統合手段は、前記分類手段によって分類された画素群の外接矩形の面積に基づいて、該分類された画素群を分割した後に、画素を統合する
ことを特徴とする請求項1又は2に記載の画像処理装置。
3. The integration unit according to claim 1, wherein the integration unit divides the classified pixel group based on an area of a circumscribed rectangle of the pixel group classified by the classification unit, and then integrates the pixels. Image processing apparatus.
前記統合手段による統合結果に基づいて、前記画像の構成を生成する構成生成手段
を具備することを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising: a configuration generation unit configured to generate a configuration of the image based on a result of integration by the integration unit.
コンピュータを、
画像を領域に分割する分割手段と、
前記分割手段によって分割された領域内の画素を分類する分類手段と、
前記分類手段によって分類された画素群の形状に基づいて、分類間の画素を統合する統合手段
として機能させることを特徴とする画像処理プログラム。
Computer
A dividing means for dividing the image into regions;
Classification means for classifying pixels in the area divided by the dividing means;
An image processing program that functions as an integration unit that integrates pixels between classifications based on the shape of a pixel group classified by the classification unit.
JP2009040151A 2009-02-24 2009-02-24 Image processing apparatus and image processing program Expired - Fee Related JP5200993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009040151A JP5200993B2 (en) 2009-02-24 2009-02-24 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009040151A JP5200993B2 (en) 2009-02-24 2009-02-24 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2010199767A true JP2010199767A (en) 2010-09-09
JP5200993B2 JP5200993B2 (en) 2013-06-05

Family

ID=42824061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009040151A Expired - Fee Related JP5200993B2 (en) 2009-02-24 2009-02-24 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5200993B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531867A (en) * 2014-10-01 2017-10-26 リリカル ラブズ ビデオ コンプレッション テクノロジー、エルエルシー Method and system for unsupervised image segmentation using trained quality measures

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188176A (en) * 2006-01-11 2007-07-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for specifying content information, program, and computer readable recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188176A (en) * 2006-01-11 2007-07-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for specifying content information, program, and computer readable recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531867A (en) * 2014-10-01 2017-10-26 リリカル ラブズ ビデオ コンプレッション テクノロジー、エルエルシー Method and system for unsupervised image segmentation using trained quality measures

Also Published As

Publication number Publication date
JP5200993B2 (en) 2013-06-05

Similar Documents

Publication Publication Date Title
US8768052B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP5206503B2 (en) Image processing apparatus and image processing program
US8059896B2 (en) Character recognition processing system and computer readable medium storing program for character recognition processing
JP4577421B2 (en) Image processing apparatus and image processing program
JP5337563B2 (en) Form recognition method and apparatus
KR101248449B1 (en) Information processor, information processing method, and computer readable medium
JP2008054147A (en) Image processor and image processing program
JP5200993B2 (en) Image processing apparatus and image processing program
US8977044B2 (en) Image processing apparatus for area separation of images, image processing method, and computer readable medium
US20100189307A1 (en) Image processing apparatus, image processing method and computer readable medium
JP5742283B2 (en) Image processing apparatus and image processing program
JP5742367B2 (en) Image processing apparatus and image processing program
JP5262778B2 (en) Image processing apparatus and image processing program
JP5489894B2 (en) Image processing apparatus and image processing program
JP4894664B2 (en) Image processing system and image processing program
JP4840388B2 (en) Image processing apparatus and image processing program
JP5407582B2 (en) Image processing apparatus and image processing program
JP4872780B2 (en) Image processing system and image processing program
JP6003375B2 (en) Image processing apparatus and image processing program
JP5062076B2 (en) Information processing apparatus and information processing program
JP4770863B2 (en) Image processing apparatus and image processing program
JP6409423B2 (en) Image processing apparatus and image processing program
JP2010049336A (en) Image processor and image processing program
JP4973536B2 (en) Image processing apparatus and image processing program
JP2000020714A (en) Image processing method, its device and recording medium storing image processing function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130128

R150 Certificate of patent or registration of utility model

Ref document number: 5200993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees