JP2015179552A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2015179552A
JP2015179552A JP2015135873A JP2015135873A JP2015179552A JP 2015179552 A JP2015179552 A JP 2015179552A JP 2015135873 A JP2015135873 A JP 2015135873A JP 2015135873 A JP2015135873 A JP 2015135873A JP 2015179552 A JP2015179552 A JP 2015179552A
Authority
JP
Japan
Prior art keywords
image
pixels
area
pixel
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015135873A
Other languages
Japanese (ja)
Other versions
JP6024795B2 (en
Inventor
近藤 真樹
Maki Kondo
真樹 近藤
良平 小澤
Ryohei Ozawa
良平 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015135873A priority Critical patent/JP6024795B2/en
Publication of JP2015179552A publication Critical patent/JP2015179552A/en
Application granted granted Critical
Publication of JP6024795B2 publication Critical patent/JP6024795B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide technology for determining with a high degree of accuracy whether or not a target area is a character area.SOLUTION: An image processing apparatus comprises: a classification part for using image data showing an image to classify multiple pixels constituting a target area in the image into object pixels constituting an object and background pixels constituting a background excluding the object; a first determination part for determining whether or not to satisfy a first condition for a relationship between the object pixels and the background pixels; a second determination part for determining whether or not to satisfy a second condition for pixel values of the pixels; and an attribute identification part for using a result of the determination by the first determination part and a result of the determination by the second determination part to identify whether or not the target area is a character area.

Description

本発明は、対象領域の特徴を判定する技術に関する。   The present invention relates to a technique for determining characteristics of a target area.

画像を表す画像データに基づいて、画像内の対象領域の特徴を判定する技術が知られている。対象領域の特徴を正しく判定できれば、特徴に応じた画像処理を施すことができる等のメリットがある。例えば、画像を複数のブロックに分割し、ブロックごとにコントラストを算出する。そして、各ブロックのコントラストに基づいて、各ブロックを写真、文字等に分類する技術が知られている(例えば、特許文献1)。   A technique for determining the characteristics of a target area in an image based on image data representing the image is known. If the feature of the target area can be correctly determined, there is an advantage that image processing corresponding to the feature can be performed. For example, the image is divided into a plurality of blocks, and the contrast is calculated for each block. And the technique which classifies each block into a photograph, a character, etc. based on the contrast of each block is known (for example, patent document 1).

特開平5−225378号公報JP-A-5-225378

しかしながら、対象領域が文字であるか否かをより高い精度で判定する技術が求められていた。   However, a technique for determining whether or not the target region is a character with higher accuracy has been demanded.

本発明の主な利点は、対象領域が文字であるか否かをより高い精度で判定する技術を提供することである。   The main advantage of the present invention is to provide a technique for determining whether or not the target area is a character with higher accuracy.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following application examples.

[適用例1]画像を表す画像データを用いて、前記画像内の対象領域を構成する複数の画素を、オブジェクトを構成するオブジェクト画素と、前記オブジェクトを除いた背景を構成する背景画素と、に分類する分類部と、前記対象領域が、前記オブジェクト画素と前記背景画素との関係に関する第1の条件を満たすか否かを判定する第1の判定部と、前記対象領域が、前記複数の画素の画素値に関する第2の条件を満たすか否かを判定する第2の判定部と、前記第1の判定部による判定結果と前記第2の判定部による判定結果とを用いて、前記対象領域が、文字を表す文字領域であるか否かを特定する属性特定部と、を備える、画像処理装置。 Application Example 1 Using image data representing an image, a plurality of pixels constituting a target area in the image are changed into an object pixel constituting an object and a background pixel constituting a background excluding the object. A classification unit that classifies, a first determination unit that determines whether the target region satisfies a first condition regarding a relationship between the object pixel and the background pixel, and the target region includes the plurality of pixels The target region using a second determination unit that determines whether or not a second condition regarding the pixel value of the first pixel value is satisfied, a determination result by the first determination unit, and a determination result by the second determination unit And an attribute specifying unit that specifies whether or not the character area represents a character.

上記構成によれば、対象領域を構成する複数の画素を、オブジェクト画素と背景画素とに分類する。複数の画素の画素値に関する第2の条件を満たすか否かに加えて、オブジェクト画素と背景画素との関係に関する第1の条件を満たすか否かを判定する。そして、これらの判定結果を用いて、対象領域が文字領域であるか否かを精度良く特定できる。   According to the above configuration, the plurality of pixels constituting the target area are classified into object pixels and background pixels. In addition to whether or not the second condition regarding the pixel values of the plurality of pixels is satisfied, it is determined whether or not the first condition regarding the relationship between the object pixel and the background pixel is satisfied. Then, using these determination results, it can be accurately determined whether or not the target area is a character area.

[適用例2]画像を表す画像データを用いて、前記画像内の対象領域と、前記対象領域の周囲に位置する周囲領域と、を特定する領域特定部と、前記周囲領域を構成する画素の画素値を用いて、前記対象領域を構成する複数の画素を、オブジェクトを表すオブジェクト画素と、前記オブジェクトを除いた背景を表す背景画素と、に分類する分類部と、前記オブジェクト画素の数と前記背景画素の数との比率に応じた特徴値を算出する特徴値算出部と、前記対象領域が前記特徴値に関する条件を満たすか否かに基づいて、前記対象領域が文字を表す文字領域であるか否かを特定する属性特定部と、を備える画像処理装置。 Application Example 2 Using image data representing an image, an area specifying unit that specifies a target area in the image and a peripheral area located around the target area, and pixels of the peripheral area Using a pixel value, a classification unit that classifies a plurality of pixels constituting the target region into an object pixel representing an object and a background pixel representing a background excluding the object, the number of the object pixels, and the A feature value calculation unit that calculates a feature value according to a ratio to the number of background pixels, and the target region is a character region that represents a character based on whether or not the target region satisfies a condition related to the feature value. And an attribute specifying unit that specifies whether or not.

上記構成によれば、対象領域を構成する複数の画素を、周囲領域を構成する画素の画素値を用いて、オブジェクト画素と背景画素とに分類し、オブジェクト画素の数と背景画素の数との比率に応じた特徴値に関する条件を満たすか否かを判定する。そして、判定結果を用いて、対象領域が文字領域であるか否かを精度良く特定することができる。   According to the above configuration, the plurality of pixels constituting the target area are classified into object pixels and background pixels using the pixel values of the pixels constituting the surrounding area, and the number of object pixels and the number of background pixels are calculated. It is determined whether or not a condition relating to the feature value according to the ratio is satisfied. Then, using the determination result, it can be accurately determined whether or not the target region is a character region.

なお、本発明は、種々の形態で実現することが可能であり、例えば、画像処理サーバ、画像処理システム、画像処理方法、これらの機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、等の形態で実現することができる。   The present invention can be realized in various forms, for example, an image processing server, an image processing system, an image processing method, a computer program for realizing these functions, and a recording in which the computer program is recorded. It can be realized in the form of a medium.

実施例における画像処理装置としての複合機200の構成を示すブロック図。1 is a block diagram illustrating a configuration of a multifunction machine 200 as an image processing apparatus in an embodiment. 画像処理の処理ステップを示すフローチャート。The flowchart which shows the process step of an image process. 対象画像Gおよびエッジ画像Eの一例を示す図。The figure which shows an example of the target image G and the edge image E. 判定画像BGの一例を示す図。The figure which shows an example of the determination image BG. 領域判定処理の処理ステップを示すフローチャート。The flowchart which shows the process step of an area | region determination process. 輝度分布を表すヒストグラムの一例を示す図。The figure which shows an example of the histogram showing luminance distribution. 判定テーブル292の一例を示す図。The figure which shows an example of the determination table 292. 属性が「文字」である画像領域の典型例について説明する図。The figure explaining the typical example of the image area | region whose attribute is "character". 属性が「描画」である画像領域の典型例について説明する図。The figure explaining the typical example of the image area | region whose attribute is "drawing". 属性が「写真」である画像領域の典型例について説明する図。The figure explaining the typical example of the image area | region whose attribute is "photograph."

A.実施例:
A−1.複合機の構成:
次に、本発明の実施の形態を実施例に基づき説明する。図1は、実施例における画像処理装置としての複合機200の構成を示すブロック図である。
A. Example:
A-1. Multi-function machine configuration:
Next, embodiments of the present invention will be described based on examples. FIG. 1 is a block diagram illustrating a configuration of a multifunction machine 200 as an image processing apparatus according to an embodiment.

複合機200は、CPU210と、ROMとRAMとを含む内部記憶装置240と、所定の方式(例えば、インクジェット、レーザー)で画像を印刷するプリンタ部250と、光電変換素子(例えば、CCD、CMOS)を用いて原稿を読み取るスキャナ部260と、タッチパネルなどの操作部270と、デジタルカメラ300やパーソナルコンピュータ400やUSBメモリ(図示省略)などの外部装置とデータ通信を行うための通信部280と、ハードディスクドライブやEEPROMなどの外部記憶装置290と、を備えている。   The multi-function device 200 includes a CPU 210, an internal storage device 240 including a ROM and a RAM, a printer unit 250 that prints an image by a predetermined method (for example, inkjet or laser), and a photoelectric conversion element (for example, CCD or CMOS). A scanner unit 260 for reading a document using a computer, an operation unit 270 such as a touch panel, a communication unit 280 for data communication with an external device such as the digital camera 300, personal computer 400, USB memory (not shown), and hard disk. And an external storage device 290 such as a drive or an EEPROM.

内部記憶装置240には、CPU210が処理を行う際に生成される種々の中間データを一時的に格納するバッファ領域241が設けられている。外部記憶装置290は、複合機200を制御するための種々のコンピュータプログラム291と、後述する画像処理において参照される判定テーブル292と、後述する画像処理の対象となる画像データ293を格納している。コンピュータプログラム291は、コンピュータ読み取り可能な記録媒体に記録された形態で提供され得る。ここでいう記録媒体は、CD−ROM、USBストレージなどの着脱可能な記録媒体、ROMやRAMなどの計算機の内部記憶装置、ハードディスクドライブなどの計算機に接続される外部記憶装置を含む。画像データ293は、スキャナ部260を用いて原稿を読み取ることによって生成された画像データを含んでも良く、外部装置から通信部280を介して取得された画像データを含んでも良い。例えば、画像データ293は、デジタルカメラ300によって生成された画像データや、パーソナルコンピュータ400にインストールされた文書作成や画像作成のためのアプリケー
ションプログラムによって生成された画像データを含んでも良い。
The internal storage device 240 is provided with a buffer area 241 for temporarily storing various intermediate data generated when the CPU 210 performs processing. The external storage device 290 stores various computer programs 291 for controlling the multifunction device 200, a determination table 292 that is referred to in image processing described later, and image data 293 that is a target of image processing described later. . The computer program 291 can be provided in a form recorded on a computer-readable recording medium. The recording medium here includes a removable recording medium such as a CD-ROM and a USB storage, an internal storage device of a computer such as a ROM and a RAM, and an external storage device connected to the computer such as a hard disk drive. The image data 293 may include image data generated by reading a document using the scanner unit 260, or may include image data acquired from an external device via the communication unit 280. For example, the image data 293 may include image data generated by the digital camera 300 or image data generated by an application program for document creation or image creation installed in the personal computer 400.

CPU210は、コンピュータプログラム291を実行することにより、後述する画像処理を実行する画像処理部M100として機能する。画像処理部M100は、領域特定部M110と、エッジ強度算出部M120と、領域判定部M130とを備えている。領域判定部M130は、二値化処理部M131と、画素密度算出部M132と、色分布算出部M133と、画素密度判定部M134と、色分布判定部M135と、属性特定部M136とを備えている。これらの各機能部が実行する処理については後述する。   The CPU 210 functions as an image processing unit M100 that executes image processing to be described later by executing the computer program 291. The image processing unit M100 includes a region specifying unit M110, an edge strength calculating unit M120, and a region determining unit M130. The area determination unit M130 includes a binarization processing unit M131, a pixel density calculation unit M132, a color distribution calculation unit M133, a pixel density determination unit M134, a color distribution determination unit M135, and an attribute specifying unit M136. Yes. Processing executed by each of these functional units will be described later.

A−2.画像処理:
画像処理部M100は、画像データを用いて、画像データが表す画像の内容を判定する一連の処理を実行する。図2は、画像処理の処理ステップを示すフローチャートである。
A-2. Image processing:
The image processing unit M100 executes a series of processes for determining the content of the image represented by the image data using the image data. FIG. 2 is a flowchart showing processing steps of image processing.

ステップS100では、画像処理部M100は、処理対象とする画像データ(対象画像データ)を選択する。例えば、画像処理部M100は、対象画像データを指定する指定指示を操作部270を介してユーザから受け付け、指定指示において指定された対象画像データを、外部記憶装置290に格納された複数の画像データ293の中から選択する。   In step S100, the image processing unit M100 selects image data to be processed (target image data). For example, the image processing unit M100 receives a designation instruction for designating target image data from the user via the operation unit 270, and a plurality of image data stored in the external storage device 290 for the target image data designated in the designation instruction. Select from 293.

図3は、対象画像データが表す対象画像G(図3(a))、および、エッジ画像データが表すエッジ画像E(図3(b))の一例を示す図である。この対象画像Gは、背景画像Bg1と、文字を表すオブジェクトである第1の文字オブジェクトOb2および第2の文字オブジェクトOb4と、写真を表すオブジェクトである写真オブジェクトOb3と、描画を表すオブジェクトである描画オブジェクトOb5とを含んでいる。ここで、描画は、イラスト、表、線図、模様などを含む。以下では、対象画像データは、RGB画素データによって構成されたビットマップデータであるものとして説明する。RGB画素データは、レッド(R)、グリーン(G)、ブルー(B)の3つの成分値(各成分値は、例えば、256階調の階調値)を含む画素データである。なお、画素データの成分値を画素値とも呼ぶ。対象画像データが他のデータ形式である場合には、画像処理部M100は、対象画像データを上述したビットマップデータに変換した後に、以下の処理を行う。   FIG. 3 is a diagram illustrating an example of the target image G (FIG. 3A) represented by the target image data and the edge image E (FIG. 3B) represented by the edge image data. The target image G includes a background image Bg1, a first character object Ob2 and a second character object Ob4 that are objects representing characters, a photo object Ob3 that is an object representing a photo, and a drawing that is an object representing drawing. Object Ob5. Here, the drawing includes illustrations, tables, diagrams, patterns, and the like. In the following description, it is assumed that the target image data is bitmap data composed of RGB pixel data. The RGB pixel data is pixel data including three component values of red (R), green (G), and blue (B) (each component value is, for example, a gradation value of 256 gradations). In addition, the component value of pixel data is also called a pixel value. When the target image data is in another data format, the image processing unit M100 performs the following processing after converting the target image data into the bitmap data described above.

ステップS200では、画像処理部M100の領域特定部M110は、対象画像データを用いて、エッジ画像を表すエッジ画像データを作成する。エッジ画像データは、対象画像データを構成する複数のRGB画素データの各成分値に対して、sobelフィルタを適用して得られる。エッジ画像データは、対象画像を構成する複数の画素にそれぞれ対応する複数のRGB画素データによって構成される。このRGB画素データは、対象画像の対応する画素のエッジ強度をR、G、Bの各成分値についてそれぞれ表した画素データである。具体的には、エッジ画像における画素位置(x,y)の画素の所定の成分値S(x、y)は、対象画像における9つの画素の成分値Sに対応するそれぞれの成分値Pを用いて、以下の式(1)によって算出される。
...式(1)
ここで、上記式(1)に示すように、9つの画素は、エッジ画像における画素位置(x,y)に対応する対象画像における画素位置(x,y)を中心とした上下左右の9つの位置の画素である。上記式(1)の第1項および第2項は、9つの位置の画素の画素値に、対応する係数をそれぞれ乗じた値の和の絶対値である。上記式(1)から解るように、エッジ画像の画素データ(画素のエッジ強度)は、対象画像において、互いに近接する第1の画素の成分値(画素値)と、第2の画素の成分値との差を用いて算出される。なお、エッジ画像の作成には、Sobelフィルタに限らず、Prewittフィルタ、Robertsフィルタなど種々のエッジ検出用フィルタが利用できる。
In step S200, the area specifying unit M110 of the image processing unit M100 creates edge image data representing the edge image using the target image data. The edge image data is obtained by applying a sobel filter to each component value of a plurality of RGB pixel data constituting the target image data. The edge image data is constituted by a plurality of RGB pixel data respectively corresponding to a plurality of pixels constituting the target image. The RGB pixel data is pixel data that represents the edge intensity of the corresponding pixel of the target image for each of the R, G, and B component values. Specifically, as the predetermined component value S (x, y) of the pixel at the pixel position (x, y) in the edge image, each component value P corresponding to the component value S of nine pixels in the target image is used. And calculated by the following equation (1).
... Formula (1)
Here, as shown in the above formula (1), the nine pixels are the top, bottom, left, and right nines centered on the pixel position (x, y) in the target image corresponding to the pixel position (x, y) in the edge image. It is the pixel at the position. The first term and the second term of the above formula (1) are absolute values of the sum of values obtained by multiplying the pixel values of the pixels at nine positions by the corresponding coefficients. As understood from the above equation (1), the pixel data of the edge image (pixel edge strength) includes the component value (pixel value) of the first pixel and the component value of the second pixel that are close to each other in the target image. It is calculated using the difference between. The creation of the edge image is not limited to the Sobel filter, and various edge detection filters such as a Prewitt filter and a Roberts filter can be used.

図3(b)には、図3(a)に示す対象画像Gに基づくエッジ画像Eが示されている。なお、図3(b)では、図を見やすくするために、エッジ強度が小さい画素を白で、エッジ強度が大きい画素を黒で示している。エッジ画像Eには、対象画像Gの各オブジェクトOb2〜Ob5のエッジEg2〜Eg5が含まれていることが解る。   FIG. 3B shows an edge image E based on the target image G shown in FIG. Note that in FIG. 3B, in order to make the drawing easier to see, pixels with low edge strength are shown in white and pixels with high edge strength are shown in black. It can be seen that the edge image E includes the edges Eg2 to Eg5 of the objects Ob2 to Ob5 of the target image G.

ステップS300では、領域特定部M110は、エッジ画像Eに対して複数の単位ブロックB(図3(b))を設定する。単位ブロックBは、エッジ画像Eに対して格子状に配置されたブロックである。1つの単位ブロックBは、例えば、エッジ画像Eの画素を1単位として、その1単位の画素をN行×N列(Nは所定の自然数)に並べた大きさを有する。単位ブロックBは、後述するように、対象画像における領域を特定する際の最小の単位である単位領域である。Nの大きさは、任意の設計値とされるが、例えば、10〜50程度に設定される。エッジ画像Eと対象画像Gと同じサイズ(縦および横の画素数)であるので、単位ブロックBは対象画像Gに対して設定されていると言うこともできる。領域特定部M110は、単位ブロックの設定に対応して、判定画像BGを設定する。   In step S300, the area specifying unit M110 sets a plurality of unit blocks B (FIG. 3B) for the edge image E. The unit block B is a block arranged in a grid pattern with respect to the edge image E. One unit block B has a size in which, for example, the pixels of the edge image E are set as one unit, and the one unit of pixels is arranged in N rows × N columns (N is a predetermined natural number). As will be described later, the unit block B is a unit area that is the minimum unit for specifying an area in the target image. The magnitude of N is an arbitrary design value, but is set to about 10 to 50, for example. Since the edge image E and the target image G have the same size (vertical and horizontal pixels), it can be said that the unit block B is set for the target image G. The area specifying unit M110 sets the determination image BG corresponding to the setting of the unit block.

図4は、判定画像BGの一例を示す図である。判定画像BGを構成する各画素(判定画素)BPは、上述した複数の単位ブロックBのそれぞれに対応している。判定画像BGの各画素の画素値は、対応する単位ブロックBに関する各種の情報(例えば、後述する領域識別情報)を表す値が用いられる。判定画像BGが設定された段階では、判定画像BGの全ての画素の画素値が0にされる(初期化される)。   FIG. 4 is a diagram illustrating an example of the determination image BG. Each pixel (determination pixel) BP constituting the determination image BG corresponds to each of the plurality of unit blocks B described above. As the pixel value of each pixel of the determination image BG, values representing various types of information (for example, area identification information described later) regarding the corresponding unit block B are used. At the stage where the determination image BG is set, the pixel values of all the pixels of the determination image BG are set to 0 (initialized).

ステップS400では、領域特定部M110は、所定の選択順序に従って、複数の単位ブロックBの中から処理対象の判定ブロックを選択する。ここで、本実施例では、1つの判定ブロックは、2行×2列の4つの単位ブロックから構成される。選択順序の一例を説明する。エッジ画像Eおける左上端の判定ブロックU11が最初に選択される(図3(b))。そして、1つの単位ブロックBだけ右方向にずれた判定ブロックU12、さらに、1つの単位ブロックBだけ右方向にずれた判定ブロックU13が順次に選択される(図3(b))。そして、順次に右方向に1つの単位ブロックBずつずれたグループが選択された結果、エッジ画像Eおける右上端の判定ブロックU1nが選択されると、次に、判定ブロックU11より1つの単位ブロックBだけ下方向にずれた判定ブロックU21が選択される(図3(b))。そして、順次に右方向に1つの単位ブロックBずつずれた判定ブロックが選択される。これを繰り返して右下端の判定ブロックUnn(図3(b))まで順次に選択される。この選択方式では、1つの単位ブロックBが複数の判定ブロックに含まれるので、1つの単位ブロックBは、複数回に亘って選択され得る。例えば、図3(b)においてハッチングで示した上端から2ブロック目で左端から2ブロック目の単位ブロックBは、4回に亘って選択される。   In step S400, the area specifying unit M110 selects a processing target determination block from the plurality of unit blocks B according to a predetermined selection order. Here, in this embodiment, one determination block is composed of four unit blocks of 2 rows × 2 columns. An example of the selection order will be described. The determination block U11 at the upper left corner in the edge image E is first selected (FIG. 3B). Then, a determination block U12 shifted rightward by one unit block B and a determination block U13 shifted rightward by one unit block B are sequentially selected (FIG. 3B). Then, as a result of selecting groups shifted sequentially by one unit block B in the right direction, when the determination block U1n at the upper right end in the edge image E is selected, next, one unit block B from the determination block U11. Thus, the determination block U21 shifted downward is selected (FIG. 3B). Then, determination blocks that are sequentially shifted by one unit block B in the right direction are selected. This process is repeated until the determination block Unn at the lower right corner (FIG. 3B) is sequentially selected. In this selection method, since one unit block B is included in a plurality of determination blocks, one unit block B can be selected a plurality of times. For example, the unit block B in the second block from the upper end and the second block from the left end shown by hatching in FIG. 3B is selected four times.

ステップS500では、画像処理部M100のエッジ強度算出部M120は、処理対象の判定ブロックのエッジ強度(領域エッジ強度)を算出する。具体的には、エッジ強度算出部M120は、本実施例では、領域エッジ強度を示す特徴値として、判定ブロック(4
つの単位ブロックB)内の全てのエッジ画像Eの画素について、各成分値(R、G、B)の平均値(ERave、EGave、EBave)を算出する。ここで、領域エッジ強度を示す特徴値として、上記各成分値の平均値に代えて、各成分値の中間値や最頻値を用いても良く、少なくとも一つの成分値が所定のしきい値より大きい画素の数などを用いても良い。
In step S500, the edge strength calculation unit M120 of the image processing unit M100 calculates the edge strength (region edge strength) of the determination block to be processed. Specifically, in this embodiment, the edge strength calculation unit M120 uses the determination block (4) as the feature value indicating the region edge strength.
The average values (ERave, EGave, EBave) of the component values (R, G, B) are calculated for all the pixels of the edge image E in one unit block B). Here, as the feature value indicating the region edge strength, instead of the average value of each component value, an intermediate value or mode value of each component value may be used, and at least one component value has a predetermined threshold value. A larger number of pixels may be used.

ステップS600では、領域特定部M110は、処理対象の判定ブロック(4つの単位ブロックB)が均一ブロックであるか否かを判定する。均一ブロックは、領域エッジ強度が所定基準より小さい領域である。実施例では、領域特定部M110は、処理対象の判定ブロックの上述した領域エッジ強度を示す3つの特徴値(ERave、EGave、EBave)を、それぞれの特徴値について定められた基準値(ETr、ETg、ETb)と比較する。この比較の結果、ERave<ETr、かつ、EGave<ETg、かつ、EBave<ETbが成立する場合には、領域特定部M110は、処理対象の判定ブロック(4つの単位ブロックB)は、均一ブロックであると判定する。逆に、ERave≧ETr、および、EGave≧ETg、および、EBave≧ETbのうちの少なくとも一つが成立する場合には、領域特定部M110は、処理対象の判定ブロック(4つの単位ブロックB)を均一ブロックであるとは判定しない。画像処理部M100は、処理対象の判定ブロックが均一ブロックであると判定した場合には(ステップS600:YES)、ステップS700に処理を移行し、処理対象の判定ブロックが均一ブロックであると判定しない場合には(ステップS600:NO)、ステップ700の処理を省略し、ステップ800に処理を以降する。   In step S600, the area specifying unit M110 determines whether the processing target determination block (four unit blocks B) is a uniform block. A uniform block is a region whose region edge strength is smaller than a predetermined reference. In the embodiment, the region specifying unit M110 uses three characteristic values (ERave, EGave, EBave) indicating the above-described region edge strength of the determination block to be processed as reference values (ETr, ETg) determined for the respective characteristic values. , ETb). As a result of this comparison, when ERave <ETr, EGave <ETg, and EBave <ETb are satisfied, the area specifying unit M110 determines that the processing target determination block (four unit blocks B) is a uniform block. Judge that there is. On the other hand, if at least one of ERave ≧ ETr, EGave ≧ ETg, and EBave ≧ ETb is satisfied, the region specifying unit M110 uniformly determines the determination block (four unit blocks B) to be processed. It is not determined to be a block. If the image processing unit M100 determines that the determination block to be processed is a uniform block (step S600: YES), the image processing unit M100 proceeds to step S700 and does not determine that the determination block to be processed is a uniform block. In this case (step S600: NO), the process of step 700 is omitted, and the process proceeds to step 800.

ステップS700では、領域特定部M110は、ステップS600における判定結果に基づいて、判定画像BGの画素値を更新する。具体的には、領域特定部M110は、判定画像BGにおいて、均一ブロックであると判定された単位ブロックBに対応する画素の画素値を「1」にする。   In step S700, region specifying unit M110 updates the pixel value of determination image BG based on the determination result in step S600. Specifically, the region specifying unit M110 sets the pixel value of the pixel corresponding to the unit block B determined to be a uniform block in the determination image BG to “1”.

ステップS800では、領域特定部M110は、全ての判定ブロックを選択したか否かを判定する。全ての判定ブロックを選択していない場合には(ステップS800:NO)、領域特定部M110は、ステップS400に戻って、新たな処理対象の判定ブロックを選択する。全ての処理対象とすべき判定ブロックを選択した場合には(ステップS800:YES)、領域特定部M110は、ステップS900に処理を移行する。   In step S800, the area specifying unit M110 determines whether all the determination blocks have been selected. If all the determination blocks have not been selected (step S800: NO), the area specifying unit M110 returns to step S400 and selects a new determination block to be processed. When all the determination blocks to be processed are selected (step S800: YES), the area specifying unit M110 moves the process to step S900.

図4(a)には、ステップS900に移行する段階での判定画像BGの一例を示している。1つの単位ブロックBが、複数の判定ブロックに属するので、領域特定部M110は、1つの単位ブロックBについて複数回の判定(ステップS600)を行い得る。一度でも均一ブロックであると判定された単位ブロックBは、最終的に均一ブロックに分類され、一度も均一ブロックであると判定されない単位ブロックBは、最終的に非均一ブロックに分類される。ステップS900に移行する段階では、判定画像BGの各画素の画素値は、「0」、および、「1」のいずれかの値となっている。画素値「0」は、その画素に対応する単位ブロックBが非均一ブロックに分類されたことを示している。画素値「1」は、その画素に対応する単位ブロックBが均一ブロックに分類されたことを示している   FIG. 4A shows an example of the determination image BG at the stage of shifting to step S900. Since one unit block B belongs to a plurality of determination blocks, the area specifying unit M110 can make a plurality of determinations (step S600) for one unit block B. The unit block B determined to be a uniform block even once is finally classified as a uniform block, and the unit block B not determined to be a uniform block is finally classified as a non-uniform block. At the stage of shifting to step S900, the pixel value of each pixel of the determination image BG is either “0” or “1”. The pixel value “0” indicates that the unit block B corresponding to the pixel is classified as a non-uniform block. The pixel value “1” indicates that the unit block B corresponding to the pixel is classified as a uniform block.

ステップS900では、領域特定部M110は、単位ブロックBを複数のグループに分類して、グループごとに識別子を付すラベリング処理を実行する。具体的には、領域特定部M110は、判定画像BGにおいて、画素値が「0」であり互いに隣接する複数の画素を同じグループとし、画素値が「1」であり互いに隣接する複数の画素を同じグループとする。そして、領域特定部M110は、同じグループに属する画素は同じ画素値を有し、異なるグループに属する画素は異なる画素値を有するように、判定画像BGの画素値を更新する。この結果、判定画像BGにおいて、同じ画素値を有する画素で構成される画像領
域が特定される。
In step S900, the area specifying unit M110 classifies the unit blocks B into a plurality of groups, and executes a labeling process for attaching an identifier for each group. Specifically, in the determination image BG, the region specifying unit M110 sets a plurality of pixels that have a pixel value “0” and are adjacent to each other, and sets a plurality of pixels that have a pixel value “1” and are adjacent to each other. Same group. Then, the area specifying unit M110 updates the pixel value of the determination image BG so that pixels belonging to the same group have the same pixel value and pixels belonging to different groups have different pixel values. As a result, an image region composed of pixels having the same pixel value is specified in the determination image BG.

図4(b)には、ラベリング処理後の判定画像BGの一例が図示されている。図4(b)の例では、5つの画像領域PG1〜PG5が特定されていることが解る。このように、判定画像BGにおいて特定された画像領域に対応して、単位ブロックBを最小単位とする画像領域が、対象画像Gにおいて特定される。以上の説明から解るように、ラベリング処理後の判定画像BGの画素値は、対象画像Gにおいて特定された画像領域を識別する領域識別子と言うことができる。   FIG. 4B shows an example of the determination image BG after the labeling process. In the example of FIG. 4B, it can be seen that five image regions PG1 to PG5 are specified. As described above, an image area having the unit block B as a minimum unit is specified in the target image G in correspondence with the image area specified in the determination image BG. As can be understood from the above description, the pixel value of the determination image BG after the labeling process can be said to be an area identifier for identifying the image area specified in the target image G.

図3、図4に示す例では、判定画像BGの画像領域PG1〜PG5(図4(b))にそれぞれ対応する対象画像Gの画像領域として、背景画像Bg1、第1の文字オブジェクトOb2、写真オブジェクトOb3、第2の文字オブジェクトOb4、描画オブジェクトOb5に対応する領域A1〜A5(図3(a))が特定されている。なお、対象画像Gにおいて特定される画像領域は、非均一領域と均一領域とのうちのいずれかである。非均一領域は、非均一ブロックに分類された単位ブロックBに対応する領域である。均一領域は、均一ブロックに分類された単位ブロックBに対応する領域である。図3(a)の例では、背景画像Bg1に対応する画像領域A1は、均一領域であり、各オブジェクトOb2〜Ob5に対応する画像領域A2〜A5は、非均一領域である。上述したように互いに隣接する非均一ブロックは、1つの画像領域(非均一領域)として特定されるために、非均一領域は基本的に均一領域に囲まれている。   In the example shown in FIGS. 3 and 4, as the image areas of the target image G corresponding to the image areas PG1 to PG5 (FIG. 4B) of the determination image BG, the background image Bg1, the first character object Ob2, the photograph Regions A1 to A5 (FIG. 3A) corresponding to the object Ob3, the second character object Ob4, and the drawing object Ob5 are specified. Note that the image area specified in the target image G is either a non-uniform area or a uniform area. The non-uniform region is a region corresponding to the unit block B classified as a non-uniform block. The uniform region is a region corresponding to the unit block B classified as a uniform block. In the example of FIG. 3A, the image area A1 corresponding to the background image Bg1 is a uniform area, and the image areas A2 to A5 corresponding to the objects Ob2 to Ob5 are non-uniform areas. As described above, non-uniform blocks adjacent to each other are specified as one image region (non-uniform region), and thus the non-uniform region is basically surrounded by the uniform region.

以上の説明から解るように、上述したステップS200〜ステップS900までの処理は、対象画像Gにおいて、非均一領域と、非均一領域の周囲に位置する(隣接する)均一領域とを特定する領域特定処理である。   As can be understood from the above description, the above-described processing from step S200 to step S900 performs region specification for specifying a non-uniform region and a uniform region positioned around (adjacent to) the non-uniform region in the target image G. It is processing.

ステップS1000では、画像処理部M100は、対象画像Gにおいて特定された非均一領域(画像領域A2〜A5)の中から1つの非均一領域を、対象領域として選択する。ステップS1100では、画像処理部M100の領域判定部M130は、対象領域として選択された非均一領域の属性を判定する領域判定処理を実行する。   In step S1000, the image processing unit M100 selects one non-uniform area from the non-uniform areas (image areas A2 to A5) specified in the target image G as the target area. In step S1100, the region determination unit M130 of the image processing unit M100 executes region determination processing for determining the attribute of the non-uniform region selected as the target region.

図5は、領域判定処理の処理ステップを示すフローチャートである。ステップS1110では、領域判定部M130は、対象領域である非均一領域の周囲に位置する均一領域(以下、単に周囲領域とも呼ぶ。)を特定する。例えば、対象領域である非均一領域が画像領域A2(図3(a))である場合には、領域判定部M130は、背景画像Bg1に対応する画像領域A1の全体を周囲領域として特定する。これに代えて、領域判定部M130は、画像領域A1のうちの一部の領域、例えば、対象領域である画像領域A2の近傍の一部の領域を周囲領域として特定しても良い。例えば、図4(b)の判定画像BGにおいて符号RG2で示す領域に対応する画像領域、すなわち、背景画像Bg1に対応する画像領域A1のうち、対象領域の周囲を囲む所定幅(例えば、1つの単位ブロックB分の幅)の環状の領域を周囲領域としても良い。   FIG. 5 is a flowchart showing the process steps of the area determination process. In step S1110, the region determination unit M130 identifies a uniform region (hereinafter also simply referred to as a peripheral region) located around the non-uniform region that is the target region. For example, when the non-uniform area that is the target area is the image area A2 (FIG. 3A), the area determination unit M130 specifies the entire image area A1 corresponding to the background image Bg1 as the surrounding area. Instead, the area determination unit M130 may specify a part of the image area A1, for example, a part of the area near the image area A2, which is the target area, as the surrounding area. For example, in the determination image BG in FIG. 4B, a predetermined width (for example, one image area corresponding to the area indicated by the symbol RG <b> 2, i.e., the image area A <b> 1 corresponding to the background image Bg <b> 1 surrounds the target area. An annular region having a width corresponding to the unit block B may be used as the surrounding region.

ステップS1120では、領域判定部M130は、対象画像Gにおいて特定した周囲領域の色の平均値(ARave、AGave、ABave)を算出する。すなわち、領域判定部M130は、周囲領域を構成する全画素について、RGB画素データの各成分値(画素値)の平均値を算出する。平均値に代えて、最頻値や、中間値などを採用しても良い。   In step S1120, the area determination unit M130 calculates the average value (ARave, AGave, ABave) of the color of the surrounding area specified in the target image G. That is, the region determination unit M130 calculates the average value of the component values (pixel values) of the RGB pixel data for all the pixels constituting the surrounding region. Instead of the average value, a mode value or an intermediate value may be adopted.

ステップS1130では、領域判定部M130の二値化処理部M131は、平均値(ARave、AGave、ABave)を用いて、対象領域の二値化を行う。すなわち、二値化処理部M131は、対象領域を構成する各画素を「0」および「1」のいずれかに二値化することによって、対象領域を構成する各画素を、「1」に対応するオブジェクト画
素と、「0」に対応する背景画素とに分類する。具体的には、対象領域を構成する画素iのRGB画素データの成分値(Ri、Gi、Bi)が、以下の式(2)〜式(4)を全て満たす場合には、画素iの画素値は「0」とされ、式(2)〜式(4)のいずれかを満たさない場合には、画素iの画素値は「1」にされる。
ARave−Th1<Ri<ARave+Th1 ...(2)
AGave−Th1<Gi<AGave+Th1 ...(3)
ABave−Th1<Bi<ABave+Th1 ...(4)
In step S1130, the binarization processing unit M131 of the region determination unit M130 performs binarization of the target region using the average value (ARave, AGave, ABave). In other words, the binarization processing unit M131 binarizes each pixel constituting the target area into either “0” or “1”, so that each pixel constituting the target area corresponds to “1”. And the background pixel corresponding to “0”. Specifically, when the component values (Ri, Gi, Bi) of the RGB pixel data of the pixel i constituting the target region satisfy all the following expressions (2) to (4), the pixel of the pixel i The value is set to “0”, and when any of the expressions (2) to (4) is not satisfied, the pixel value of the pixel i is set to “1”.
ARave−Th1 <Ri <ARave + Th1 (2)
AGave−Th1 <Gi <AGave + Th1 (3)
ABave−Th1 <Bi <ABave + Th1 (4)

式(2)〜式(4)から解るように、周囲領域の色の平均値(平均画素値)と、画素iの成分値(画素値)との差の絶対値が、基準値Th1より小さい場合に、画素iは、背景画素に分類される。そして、周囲領域の色の平均値(平均画素値)と、画素iの成分値(画素値)との差の絶対値が、基準値Th1以上である場合に、画素iは、オブジェクト画素に分類される。   As understood from the equations (2) to (4), the absolute value of the difference between the average value (average pixel value) of the color of the surrounding area and the component value (pixel value) of the pixel i is smaller than the reference value Th1. In this case, the pixel i is classified as a background pixel. If the absolute value of the difference between the average color value (average pixel value) of the surrounding area and the component value (pixel value) of the pixel i is equal to or greater than the reference value Th1, the pixel i is classified as an object pixel. Is done.

ステップS1140では、領域判定部M130の画素密度算出部M132は、オブジェクト画素の画素密度Dを算出する。画素密度Dは、対象領域に占めるオブジェクト画素の割合を示す値である。画素密度Dは、以下の式(5)で表される。
D=No/Na=No/(No+Nb) ...(5)
ここで、Noは、オブジェクト画素の数、Naは、対象領域を構成する全ての画素の数(対象領域の画素の総数)、Nbは、背景画素の数、をそれぞれ表す。画素密度Dは、1/{1+(Nb/No)}と表すことができることから明らかなように、オブジェクト画素の数Noと背景画素の数Nbとの比率に応じた特徴値と言うことができる。
In step S1140, the pixel density calculation unit M132 of the region determination unit M130 calculates the pixel density D of the object pixel. The pixel density D is a value indicating the proportion of object pixels in the target area. The pixel density D is expressed by the following formula (5).
D = No / Na = No / (No + Nb) (5)
Here, No represents the number of object pixels, Na represents the number of all pixels constituting the target area (total number of pixels in the target area), and Nb represents the number of background pixels. As apparent from the fact that the pixel density D can be expressed as 1 / {1+ (Nb / No)}, it can be said to be a feature value corresponding to the ratio between the number No of object pixels and the number Nb of background pixels. .

ステップS1150では、領域判定部M130の色分布算出部M133は、対象領域を構成する画素の輝度分布を算出する。本実施例では、色分布算出部M133は、対象領域を構成する画素のうち、オブジェクト画素についての輝度分布を算出する。   In step S1150, the color distribution calculation unit M133 of the region determination unit M130 calculates the luminance distribution of the pixels constituting the target region. In the present embodiment, the color distribution calculation unit M133 calculates the luminance distribution for the object pixel among the pixels constituting the target region.

図6は、輝度分布を表すヒストグラムの一例を示す図である。図6(a)のヒストグラムは、横軸に輝度値Y(256階調)を取り、各輝度値を有する画素の数を縦軸にプロットして得られる。色分布算出部M133は、図6(a)に示すようなヒストグラムで表される輝度分布データを生成する。すなわち、色分布算出部M133は、全てのオブジェクト画素の輝度値Yを算出し、輝度値Yが取り得る階調(例えば、256階調)ごとに、その輝度値Yを有する画素の数をカウントする。対象領域を構成する画素の輝度値Yは、RGB画素データ(R、G、B)を用いて、例えば、以下の式(6)によって算出される。輝度値Y=((0.298912×R)+(0.586611×G)+(0.114478×B)) ...(6)   FIG. 6 is a diagram illustrating an example of a histogram representing the luminance distribution. The histogram of FIG. 6A is obtained by taking the luminance value Y (256 gradations) on the horizontal axis and plotting the number of pixels having each luminance value on the vertical axis. The color distribution calculation unit M133 generates luminance distribution data represented by a histogram as shown in FIG. That is, the color distribution calculation unit M133 calculates the luminance value Y of all the object pixels, and counts the number of pixels having the luminance value Y for each gradation (for example, 256 gradations) that the luminance value Y can take. To do. The luminance value Y of the pixels constituting the target region is calculated by, for example, the following equation (6) using RGB pixel data (R, G, B). Luminance value Y = ((0.298912 × R) + (0.586611 × G) + (0.114478 × B)) (6)

ステップS1160では、色分布算出部M133は、算出した輝度分布(輝度分布データ)を用いて、分布幅Wを算出する。分布幅Wは、本実施例では、基準値Th2よりも多くの画素が有する輝度値Yのうちの最大値と、基準値Th2よりも多くの画素が有する輝度値Yのうちの最小値との差である(図6(a))。分布幅Wは、輝度値の分布の特徴を表す特徴値であって、輝度値の分布範囲の広さを示す特徴値であると言える。   In step S1160, the color distribution calculation unit M133 calculates the distribution width W using the calculated luminance distribution (luminance distribution data). In the present embodiment, the distribution width W is a maximum value among the luminance values Y of the pixels having more pixels than the reference value Th2, and a minimum value of the luminance values Y of the pixels having more pixels than the reference value Th2. It is a difference (FIG. 6A). It can be said that the distribution width W is a feature value representing the feature of the luminance value distribution and a feature value indicating the width of the luminance value distribution range.

ステップS1170では、色分布算出部M133は、算出した輝度分布を用いて、色数Cを算出する。色数Cは、図6(a)に示すように、本実施例では、基準値Th2より多くの画素が有する輝度値Yの数である。輝度値Yが異なれば、その画素の色が異なるので、異なる輝度値Yの数(輝度値Yの種類の数)は、異なる色の数(色の種類の数)を表している。すなわち、色数Cは、異なる輝度値Yの数を示す特徴値であると言える。   In step S1170, the color distribution calculation unit M133 calculates the number of colors C using the calculated luminance distribution. As shown in FIG. 6A, the number of colors C is the number of luminance values Y that more pixels have than the reference value Th2 in this embodiment. If the luminance value Y is different, the color of the pixel is different. Therefore, the number of different luminance values Y (number of types of luminance values Y) represents the number of different colors (number of types of colors). That is, it can be said that the number of colors C is a feature value indicating the number of different luminance values Y.

ステップS1180では、領域判定部M130は、上述した画素密度Dと、分布幅Wと、色数Cとに基づいて、対象領域の属性を特定する。例えば、領域判定部M130は、上
述した画素密度D、分布幅W、色数Cのそれぞれが、所定の条件を満たすか否かを判定する。具体的には、領域判定部M130の画素密度判定部M134は、対象領域のオブジェクト画素の画素密度Dが、画素密度基準値Dth以上であるか否かを判定する。そして、領域判定部M130の色分布判定部M135は、上述した分布幅Wが、分布幅基準値Wth以上であるか否かを判定する。また、色分布判定部M135は、上述した色数Cが、色数基準値Cth以上であるか否かを判定する。そして、領域判定部M130の属性特定部M136は、画素密度判定部M134による画素密度Dに関する判定結果と、色分布判定部M135による分布幅Wに関する判定結果および色数Cに関する判定結果と、を用いて、対象領域の属性を特定する。
In step S1180, the region determination unit M130 specifies the attribute of the target region based on the pixel density D, the distribution width W, and the number of colors C described above. For example, the region determination unit M130 determines whether each of the pixel density D, the distribution width W, and the number of colors C described above satisfies a predetermined condition. Specifically, the pixel density determination unit M134 of the region determination unit M130 determines whether the pixel density D of the object pixels in the target region is equal to or higher than the pixel density reference value Dth. Then, the color distribution determination unit M135 of the region determination unit M130 determines whether or not the above-described distribution width W is equal to or greater than the distribution width reference value Wth. Further, the color distribution determination unit M135 determines whether or not the above-described number of colors C is equal to or greater than the number of colors reference value Cth. The attribute specifying unit M136 of the region determination unit M130 uses the determination result regarding the pixel density D by the pixel density determination unit M134, the determination result regarding the distribution width W and the determination result regarding the number of colors C by the color distribution determination unit M135. Then, the attribute of the target area is specified.

図7は、判定テーブル292の一例を示す図である。属性特定部M136は、対象領域の属性を特定する際に、外部記憶装置290に格納された判定テーブル292(図1)を参照する。図7に示すように、判定テーブル292には、画素密度Dに関する条件の判定結果と、分布幅Wに関する条件の判定結果と、色数Cに関する条件の判定結果との組み合わせに対して、対象領域の属性として特定されるべき特定結果が対応付けられている。判定テーブル292に従って、対象領域の属性を判定すると、領域判定部M130は、領域判定処理を終了する。   FIG. 7 is a diagram illustrating an example of the determination table 292. The attribute specifying unit M136 refers to the determination table 292 (FIG. 1) stored in the external storage device 290 when specifying the attribute of the target area. As illustrated in FIG. 7, the determination table 292 includes a target region for a combination of a determination result of a condition regarding the pixel density D, a determination result of a condition regarding the distribution width W, and a determination result of the condition regarding the number of colors C. The specific result to be specified as the attribute of is associated. When the attribute of the target area is determined according to the determination table 292, the area determination unit M130 ends the area determination process.

図2:ステップS1200では、領域判定部M130は、全ての非均一領域を対象領域として選択したか否かを判断する。選択されていない非均一領域がある場合には(ステップS1200:YES)、領域判定部M130は、ステップS1000に戻る。全ての非均一領域が選択済みである場合には(ステップS1200:No)、画像処理部M100は、画像処理を終了する。この画像処理の後には、例えば、属性が特定された画像領域ごとに、属性に応じた画質調整処理が施される。例えば、「写真」と特定された画像領域には、ホワイトバランス、明るさなどを調整する処理が施され、「文字」と特定された画像領域には、シャープネス、コントラストを強くする処理が施され得る。   FIG. 2: In step S1200, the region determination unit M130 determines whether all non-uniform regions have been selected as target regions. If there is a non-uniform region that has not been selected (step S1200: YES), the region determination unit M130 returns to step S1000. When all the non-uniform regions have been selected (step S1200: No), the image processing unit M100 ends the image processing. After this image processing, for example, image quality adjustment processing corresponding to the attribute is performed for each image region for which the attribute is specified. For example, the image area specified as “photo” is subjected to processing for adjusting white balance, brightness, etc., and the image area specified as “character” is subjected to processing for increasing sharpness and contrast. obtain.

ここで、属性が「文字」「描画」「写真」である各画像領域の典型例について説明する。図8は、属性が「文字」である画像領域の典型例について説明する図である。図8(a)は、対象画像Gにおける第2の文字オブジェクトOb4を含む画像領域A4を示している。図8(b)は、画像領域A4を二値化した二値画像BV4を示している。図8(c)は、画像領域A4のオブジェクト画素OPの輝度分布を示すヒストグラムを示している。   Here, a typical example of each image area having attributes of “character”, “drawing”, and “photo” will be described. FIG. 8 is a diagram for explaining a typical example of an image region whose attribute is “character”. FIG. 8A shows an image area A4 including the second character object Ob4 in the target image G. FIG. 8B shows a binary image BV4 obtained by binarizing the image area A4. FIG. 8C shows a histogram showing the luminance distribution of the object pixel OP in the image area A4.

画像領域A4には、3色の文字を含んでいる(図8(a))。画像領域A4のヒストグラムは、3色のそれぞれに対応する3種類の輝度値の画素のみが存在することを示している(図8(c))。このように、文字は少ない種類の色で表現される場合が多いために、属性が「文字」である画像は、後述する属性が「写真」である画像と比較して、色数Cが少なくなる傾向がある。また、図8(b)に示す例では、オブジェクト画素OPの領域の面積は、背景画素BPの領域の面積より小さい。このように、文字は、線によって構成されることが多く、塗りつぶされた領域を含むことは少ないために、属性が「文字」である画像は、領域全体の面積に占めるオブジェクトの面積の割合が比較的小さく、後述する属性が「写真」や「描画」である画像と比較して、オブジェクト画素OPの画素密度Dが小さくなる傾向がある。   The image area A4 includes characters of three colors (FIG. 8A). The histogram of the image area A4 indicates that there are only three types of luminance value pixels corresponding to the three colors (FIG. 8C). As described above, since characters are often expressed by a small number of colors, an image having an attribute of “character” has a smaller number of colors C than an image having an attribute of “photo”, which will be described later. Tend to be. In the example shown in FIG. 8B, the area of the object pixel OP is smaller than the area of the background pixel BP. In this way, since characters are often composed of lines and rarely include a filled area, an image having an attribute of “character” has a proportion of the area of the object in the area of the entire area. The pixel density D of the object pixel OP tends to be smaller than that of an image that is relatively small and has an attribute “photograph” or “drawing”, which will be described later.

また、属性が「文字」である画像は、読みやすさの点から、背景画素BPの色と、オブジェクト画素OPの色との輝度の差が大きくされやすい。例えば、背景画素BPの色の輝度が大きい(例えば、白色などの薄い色)場合には、文字のオブジェクト画素OPの色の輝度は小さい(例えば、黒色などの濃い色)ことが多い。逆に、背景画素BPの色の輝度が小さい場合には、文字のオブジェクト画素OPの色の輝度は大きいことが多い。この結果、属性が「文字」である画像の分布幅Wは比較的小さいことが多い(図8(c))。   In addition, in an image having the attribute “character”, the difference in luminance between the color of the background pixel BP and the color of the object pixel OP is easily increased from the viewpoint of readability. For example, when the luminance of the color of the background pixel BP is large (for example, a light color such as white), the luminance of the color of the object pixel OP of the character is often small (for example, a dark color such as black). Conversely, when the luminance of the color of the background pixel BP is low, the luminance of the color of the character object pixel OP is often high. As a result, the distribution width W of an image having the attribute “character” is often relatively small (FIG. 8C).

図9は、属性が「描画」である画像領域の典型例について説明する図である。図9(a)は、対象画像Gにおける描画オブジェクトOb5を含む画像領域A5を示している。図9(b)は、画像領域A5を二値化した二値画像BV5を示している。図9(c)は、画像領域A5のオブジェクト画素OPの輝度分布を示すヒストグラムを示している。   FIG. 9 is a diagram for explaining a typical example of an image region whose attribute is “drawing”. FIG. 9A shows an image area A5 including the drawing object Ob5 in the target image G. FIG. 9B shows a binary image BV5 obtained by binarizing the image area A5. FIG. 9C shows a histogram showing the luminance distribution of the object pixel OP in the image area A5.

画像領域A5には、4色の文字を含んでいる(図9(a))。画像領域A5のヒストグラムは、4色のそれぞれに対応する4種類の輝度値の画素のみが存在することを示している(図9(c))。このように、属性が「描画」である画像は、後述する属性が「写真」である画像と比較して、色数Cが少なくなる傾向がある。また、図9(b)に示す例では、オブジェクト画素OPの領域の面積は、背景画素BPの領域の面積より大きい。このように、描画は、線だけでなく、塗りつぶされた領域を含むことが多いために、属性が「描画」である画像は、上述した属性が「文字」である画像と比較して、オブジェクト画素OPの画素密度Dが大きくなる傾向がある。   The image area A5 includes four-color characters (FIG. 9A). The histogram of the image area A5 indicates that there are only four types of luminance value pixels corresponding to the four colors (FIG. 9C). As described above, an image having an attribute “drawing” tends to have a smaller number of colors C than an image having an attribute “photograph” to be described later. In the example shown in FIG. 9B, the area of the object pixel OP is larger than the area of the background pixel BP. Thus, since drawing often includes not only a line but also a filled area, an image having an attribute “drawing” is compared with an image having an attribute “character” as described above. The pixel density D of the pixel OP tends to increase.

図10は、属性が「写真」である画像領域の典型例について説明する図である。図10(a)は、対象画像Gにおける写真オブジェクトOb3を含む画像領域A3を示している。図10(b)は、画像領域A3を二値化した二値画像BV3を示している。図10(c)は、画像領域A3のオブジェクト画素OPの輝度分布を示すヒストグラムを示している。   FIG. 10 is a diagram for explaining a typical example of an image area whose attribute is “photograph”. FIG. 10A shows an image area A3 including the photographic object Ob3 in the target image G. FIG. 10B shows a binary image BV3 obtained by binarizing the image area A3. FIG. 10C shows a histogram showing the luminance distribution of the object pixel OP in the image area A3.

画像領域A3は、階調性に富み、多数の色を含んでいる(図10(a))。このために、画像領域A3のヒストグラムは、広い輝度値の範囲に亘る他種類の輝度値の画素が存在することを示すものとなる(図10(c))。このように、属性が「写真」である画像は、上述した属性が「文字」や「描画」である画像と比較して、色数Cが多く、分布幅Wが大きくなる傾向がある。また、図10(b)に示す例では、オブジェクト画素OPの領域の面積は、背景画素BPの領域の面積より大きい。このように、写真の領域は多様な色の画素で埋められることが多いために、属性が「写真」である画像は、上述した属性が「文字」である画像と比較して、オブジェクト画素OPの画素密度Dが大きくなる傾向がある。   The image area A3 is rich in gradation and includes a large number of colors (FIG. 10A). For this reason, the histogram of the image area A3 indicates that there are pixels of other types of luminance values over a wide range of luminance values (FIG. 10C). As described above, an image having the attribute “photo” tends to have a larger number of colors C and a larger distribution width W than the above-described image having the attribute “character” or “drawing”. In the example shown in FIG. 10B, the area of the object pixel OP is larger than the area of the background pixel BP. As described above, since the region of the photograph is often filled with pixels of various colors, an image having the attribute “photo” is compared with the image having the attribute “character” in the object pixel OP. The pixel density D tends to increase.

判定テーブル292から解るように、対象領域の属性が「文字」であると判定される場合は、以下の2つである。
(1−1)色数C<Cth、かつ、画素密度D<Dth
(1−2)分布幅W<Wth、かつ、色数C≧Cth、かつ、画素密度D<Dth
また、対象領域の属性が「描画」であると判定される場合は、以下の1つである。
(2−1)色数C<Cth、かつ、画素密度D≧Dth
また、対象領域の属性が「写真」であると判定される場合は、以下の2つである。
(3−1)分布幅W≧Wth、かつ、色数C≧Cth
(3−2)分布幅W<Wth、かつ、色数C≧Cth、かつ、画素密度D≧Dth
As can be seen from the determination table 292, when the attribute of the target area is determined to be "character", there are the following two.
(1-1) Number of colors C <Cth and pixel density D <Dth
(1-2) Distribution width W <Wth, number of colors C ≧ Cth, and pixel density D <Dth
Further, when it is determined that the attribute of the target area is “drawing”, it is one of the following.
(2-1) Number of colors C <Cth and pixel density D ≧ Dth
When it is determined that the attribute of the target area is “photograph”, there are the following two.
(3-1) Distribution width W ≧ Wth and the number of colors C ≧ Cth
(3-2) Distribution width W <Wth, number of colors C ≧ Cth, and pixel density D ≧ Dth

本実施例では、(1−1)に示す場合に、対象領域の属性を「文字」であると判定するので、上述した色数Cが比較的少なく、画素密度Dが比較的小さいという、典型的な文字の特徴を有する画像領域(図8参照)の属性を、正しく特定することができる。   In this embodiment, in the case shown in (1-1), since the attribute of the target area is determined to be “character”, the above-described number of colors C is relatively small and the pixel density D is relatively small. The attribute of the image area (see FIG. 8) having typical character characteristics can be correctly specified.

本実施例では、(2−1)に示す場合に、対象領域の属性を「描画」であると判定するので、上述した色数Cが比較的少なく、画素密度Dが比較的大きいという、典型的な描画の特徴を有する画像領域(図9参照)の属性を、正しく特定することができる。   In this embodiment, in the case shown in (2-1), since the attribute of the target region is determined to be “drawing”, the above-described typical case where the number of colors C is relatively small and the pixel density D is relatively large. The attributes of the image area (see FIG. 9) having typical drawing characteristics can be correctly specified.

本実施例では、(3−1)に示す場合に、対象領域の属性を「写真」であると判定する
ので、上述した分布幅Wが比較的大きく、色数Cが比較的多いという、典型的な写真の特徴を有する画像領域(図10参照)の属性を、正しく特定することができる。
In the present embodiment, in the case of (3-1), since the attribute of the target region is determined to be “photograph”, the above-described distribution width W is relatively large and the number of colors C is relatively large. The attribute of the image area (see FIG. 10) having typical photographic characteristics can be correctly specified.

次に、分布幅Wは比較的小さいが、色数Cは比較的多い場合には、色数Cが比較的多い点で「文字」「描画」の典型的な特徴を備えるとは言えず、分布幅Wが比較的小さい点で「写真」の典型的な特徴を備えるとは言えない。このような典型的でない場合について説明する。   Next, when the distribution width W is relatively small, but the number of colors C is relatively large, it cannot be said that the typical characteristics of “character” and “drawing” are provided in that the number of colors C is relatively large. It cannot be said that the typical feature of “photograph” is provided in that the distribution width W is relatively small. Such a non-typical case will be described.

分布幅Wが比較的小さく、かつ、色数Cが比較的多く、かつ、画素密度Dが比較的小さい場合には、分布幅Wが比較的小さい点、画素密度Dが比較的小さい点の2点で、「文字」の特徴に合致している。一方、「写真」の特徴に合致している点は、色数Cが比較的多い点だけであり、「描画」の特徴に合致している点は、見られない。本実施例では、上述した(1−2)の場合には、対象領域の属性は、「文字」であると判定するので、典型的ではないものの、特徴の合致点の多さに基づいて、精度良く対象領域の属性を特定することができる。   When the distribution width W is relatively small, the number of colors C is relatively large, and the pixel density D is relatively small, the distribution width W is relatively small and the pixel density D is relatively small 2 In point, it matches the characteristics of “character”. On the other hand, the point that matches the feature of “photo” is only the point where the number of colors C is relatively large, and the point that matches the feature of “draw” is not seen. In the present embodiment, in the case of (1-2) described above, since the attribute of the target region is determined to be “character”, it is not typical, but based on the number of feature matching points, The attribute of the target area can be specified with high accuracy.

分布幅Wが比較的小さく、かつ、色数Cが比較的多く、かつ、画素密度Dが比較的大きい場合には、色数Cは比較的多い点、画素密度Dが比較的大きい点の2点で、「写真」の特徴に合致している。「写真」である場合には、例えば、露出アンダーである暗い写真や、露出オーバーである明るい写真のように、輝度の分布幅Wが比較的小さい場合も想定できる。一方、「文字」の特徴に合致している点は、分布幅Wが比較的小さい点だけであり、「描画」の特徴に合致している点は、画素密度Dが比較的大きい点だけである。本実施例では、上述した(3−2)の場合には、対象領域の属性は、「写真」であると判定するので、典型的ではないものの、特徴の合致点の多さなどに基づいて、精度良く対象領域の属性を特定することができる。   When the distribution width W is relatively small, the number of colors C is relatively large, and the pixel density D is relatively large, the number of colors C is relatively large and the pixel density D is relatively large 2 In point, it matches the characteristics of “photograph”. In the case of “photograph”, it can be assumed that the luminance distribution width W is relatively small, for example, a dark photo that is underexposed or a bright photo that is overexposed. On the other hand, the point that matches the feature of “character” is only the point that the distribution width W is relatively small, and the point that matches the feature of “draw” is only the point that the pixel density D is relatively large. is there. In the present embodiment, in the case of (3-2) described above, since the attribute of the target region is determined to be “photograph”, it is not typical, but based on the number of feature matching points and the like. The attribute of the target area can be specified with high accuracy.

以上の説明から解るように、本実施例の画像処理部M100は、分布幅Wおよび色数Cなどのオブジェクト画素の画素値に関する条件を満たすか否かに加えて、オブジェクト画素の画素密度Dに関する条件を満たすか否かを判定する。画像処理部M100は、これらの判定結果を用いて、対象画像の属性を精度良く特定することができる。具体的には、上述したように、色数Cが比較的少ない場合には、色数Cに関する条件だけでは、対象領域の属性が「文字」であるか「描画」であるかを特定することは困難である場合があるが、さらに、画素密度Dに関する条件を判定することによって、精度良く、対象領域の属性が「文字」であるか「描画」であるかを判定することができる。また、分布幅Wが比較的小さく、かつ、色数Cが比較的多い場合には、分布幅Wと色数Cに関する条件だけでは、対象領域の属性を特定することが困難であるが、さらに、画素密度Dに関する条件を判定することによって、精度良く、対象領域の属性が「文字」であるか「写真」であるかを判定することができる。   As can be understood from the above description, the image processing unit M100 according to the present embodiment relates to the pixel density D of the object pixels in addition to whether or not the conditions regarding the pixel values of the object pixels such as the distribution width W and the number of colors C are satisfied. Determine whether the condition is met. The image processing unit M100 can specify the attribute of the target image with high accuracy using these determination results. Specifically, as described above, when the number of colors C is relatively small, it is specified whether the attribute of the target area is “character” or “drawing” only by the condition relating to the number of colors C. However, it is possible to accurately determine whether the attribute of the target area is “character” or “drawing” by determining the condition regarding the pixel density D. Further, when the distribution width W is relatively small and the number of colors C is relatively large, it is difficult to specify the attributes of the target region only with the conditions relating to the distribution width W and the number of colors C. By determining the conditions regarding the pixel density D, it is possible to accurately determine whether the attribute of the target area is “character” or “photo”.

さらに、画像処理部M100の領域特定部M110は、対象領域としての非均一領域と、対象領域の周囲に位置する周囲領域としての均一領域とを特定する。そして、画像処理部M100の二値化処理部M131は、周囲領域を構成する画素の画素値を用いて、対象領域を構成する複数の画素をオブジェクト画素と背景画素とに分類する。したがって、周囲画像の画素値を用いて、対象領域の複数の画素を、オブジェクト画素と背景画素とに、正しく分類することができる。   Further, the region specifying unit M110 of the image processing unit M100 specifies a non-uniform region as a target region and a uniform region as a peripheral region located around the target region. Then, the binarization processing unit M131 of the image processing unit M100 classifies the plurality of pixels configuring the target region into object pixels and background pixels using the pixel values of the pixels configuring the surrounding region. Therefore, it is possible to correctly classify a plurality of pixels in the target region into object pixels and background pixels using the pixel values of the surrounding image.

より具体的には、領域判定部M130は、周囲画像を構成する複数の画素の平均画素値、すなわち、周囲領域の色の平均値(ARave、AGave、ABave)を算出する。そして、二値化処理部M131は、周囲領域の色の平均値と、対象領域を構成する画素iのRGB画素データの成分値(Ri、Gi、Bi)との差の絶対値が、基準値Th1よ
り小さい場合に、その画素iを背景画素に分類する。そして、二値化処理部M131は、背景画素に分類された画素以外の画素を、オブジェクト画素に分類する。この結果、周囲領域の色(画素値)から背景画素の色(画素値)を予測することができ、その予測に基づいて、対象領域を構成する複数の画素を、背景画素とオブジェクト画素とに分類する。この結果、例えば、背景画素とオブジェクト画素との差が小さい場合であっても、対象領域を構成する複数の画素を、正しく背景画素とオブジェクト画素とに分類することができる。
More specifically, the area determination unit M130 calculates an average pixel value of a plurality of pixels constituting the surrounding image, that is, an average value (ARave, AGave, ABave) of the color of the surrounding area. Then, the binarization processing unit M131 determines that the absolute value of the difference between the average value of the color of the surrounding area and the component value (Ri, Gi, Bi) of the RGB pixel data of the pixel i constituting the target area is the reference value. If it is smaller than Th1, the pixel i is classified as a background pixel. Then, the binarization processing unit M131 classifies pixels other than the pixels classified as background pixels as object pixels. As a result, the color (pixel value) of the background pixel can be predicted from the color (pixel value) of the surrounding area. Based on the prediction, a plurality of pixels constituting the target area can be converted into the background pixel and the object pixel. Classify. As a result, for example, even when the difference between the background pixel and the object pixel is small, the plurality of pixels constituting the target region can be correctly classified into the background pixel and the object pixel.

また、画像処理部M100は、処理対象の単位ブロックBを構成する複数の画素の間の画素値の差をエッジ抽出フィルタによって抽出して、処理対象の単位ブロックBのエッジ強度(ERave、EGave、EBave))を算出している。そして、エッジ強度算出部M120は、エッジ強度(ERave、EGave、EBave)と、基準値(ETr、ETg、ETb)との比較によって、処理対象の単位ブロックBが均一ブロックであるか否かを判定している。この結果、対象領域としての非均一領域と、周囲領域としての均一領域とを、適切に特定することができる。   Further, the image processing unit M100 extracts a difference in pixel values between a plurality of pixels constituting the processing target unit block B using an edge extraction filter, and the edge strength (ERave, EGave, EBave)) is calculated. Then, the edge strength calculation unit M120 determines whether or not the unit block B to be processed is a uniform block by comparing the edge strength (ERave, EGave, EBave) with the reference values (ETr, ETg, ETb). doing. As a result, the non-uniform region as the target region and the uniform region as the surrounding region can be appropriately identified.

さらに、複合機200は、画素密度Dに関する条件による判定結果と、色数Cおよび分布幅Wに関する条件による判定結果と、属性の特定結果(「文字」「描画」「写真」のいずれであるか)と、が対応付けられた判定テーブル292を格納する外部記憶装置290を備える。そして、領域判定部M130の属性特定部M136は、判定テーブル292を用いて、容易に対象領域が文字領域であるか否かを特定することができる。   Further, the multifunction device 200 is one of the determination result based on the condition regarding the pixel density D, the determination result based on the condition regarding the number of colors C and the distribution width W, and the attribute specification result (“character”, “draw”, “photo”) ) And an external storage device 290 that stores a determination table 292 associated with each other. Then, the attribute specifying unit M136 of the region determining unit M130 can easily specify whether or not the target region is a character region using the determination table 292.

領域判定部M130は、分布幅Wに関する条件と、色数Cに関する条件とを用いて、対象領域の属性を精度良く特定することができる。上述したように、画素密度Dが比較的大きい場合には、画素密度Dに関する条件だけでは、対象領域の属性が「描画」であるか「写真」であるかを特定することは困難である。本実施例の領域判定部M130は、分布幅Wと色数Cの条件を加えて判定することで、正しく対象領域の属性を判定することができる。また、領域判定部M130は、画素密度Dが画素密度基準値Dthより小さいである場合には、基本的には、領域判定部M130は、対象領域の属性が「文字」であると判断している。しかしながら、領域判定部M130は、分布幅Wが分布幅基準値Wth以上であり、かつ、色数Cが色数基準値Cth以上である場合には、画素密度Dの値に拘わらず、対象領域の属性が「写真」であると判断している。このように領域判定部M130は、分布幅Wおよび色数Cに関する条件を用いて、対象領域の属性を精度良く特定することができる。   The area determination unit M130 can specify the attribute of the target area with high accuracy using the condition regarding the distribution width W and the condition regarding the number of colors C. As described above, when the pixel density D is relatively large, it is difficult to specify whether the attribute of the target region is “drawing” or “photograph” only by the condition relating to the pixel density D. The area determination unit M130 of the present embodiment can correctly determine the attribute of the target area by making a determination by adding the conditions of the distribution width W and the number of colors C. When the pixel density D is smaller than the pixel density reference value Dth, the area determination unit M130 basically determines that the attribute of the target area is “character”. Yes. However, if the distribution width W is equal to or greater than the distribution width reference value Wth and the color number C is equal to or greater than the color number reference value Cth, the region determination unit M130 does not depend on the value of the pixel density D but the target region. Is attributed to “photo”. As described above, the region determination unit M130 can specify the attribute of the target region with high accuracy using the conditions regarding the distribution width W and the number of colors C.

本実施例における二値化処理部M131は、請求項における分類部の例であり、本実施例における画素密度判定部M134は、請求項における第1の判定部の例であり、本実施例における色分布判定部M135は、請求項における第2の判定部の例である。本実施例における画素密度算出部M132は、請求項における第1の特徴値算出部の例である本実施例における色分布算出部M133は、請求項における第2の特徴値算出部の例である。   The binarization processing unit M131 in this embodiment is an example of a classification unit in the claims, and the pixel density determination unit M134 in this embodiment is an example of the first determination unit in the claims. The color distribution determination unit M135 is an example of a second determination unit in the claims. The pixel density calculation unit M132 in the present embodiment is an example of the first feature value calculation unit in the claims. The color distribution calculation unit M133 in the present embodiment is an example of the second feature value calculation unit in the claims. .

B.変形例:
この発明は上記実施例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
B. Variation:
The present invention is not limited to the above-described embodiments, and can be implemented in various modes without departing from the scope of the invention.

(1)上記実施例では、色分布算出部M133は、図6(a)に示すようなヒストグラムで表される輝度分布データを生成しているが、これに代えて、図6(b)に示すようなヒストグラムで表される輝度分布データを生成しても良い。この例では、輝度値Yが取り得る階調(例えば、256階調)を、所定数、具体的には、例えば、20の輝度クラスに割り当てている。1つの輝度クラスには、12または13階調の連続する輝度値Yが割り当
てられる。そして、クラス番号が小さいほど、小さな輝度値Yが割り当てられ、クラス番号が大きいほど、大きな輝度値Yが割り当てられる。例えば、クラス番号が「1」の輝度クラスには、輝度値0〜12、クラス番号が「2」の輝度クラスには、輝度値13〜25、クラス番号が「20」の輝度クラスには、輝度値244〜255がそれぞれ割り当てられる。そして、色分布算出部M133は、輝度クラスごとに、その輝度クラスに属する輝度値Yを有する画素の数をカウントして、輝度分布データを生成する。
(1) In the above embodiment, the color distribution calculation unit M133 generates luminance distribution data represented by a histogram as shown in FIG. 6A, but instead of this, FIG. Luminance distribution data represented by a histogram as shown may be generated. In this example, the gradation (for example, 256 gradations) that the luminance value Y can take is assigned to a predetermined number, specifically, for example, 20 luminance classes. One luminance class is assigned a continuous luminance value Y of 12 or 13 gradations. A smaller luminance value Y is assigned as the class number is smaller, and a larger luminance value Y is assigned as the class number is larger. For example, for a luminance class with a class number “1”, a luminance value 0-12, a luminance class with a class number “2”, a luminance value 13-25, and a luminance class with a class number “20” Luminance values 244 to 255 are respectively assigned. Then, for each luminance class, the color distribution calculation unit M133 counts the number of pixels having the luminance value Y belonging to the luminance class, and generates luminance distribution data.

この場合には、分布幅Wは、図6(b)に示すように、有効最小クラスから有効最大クラスまでの幅を輝度クラスの数を用いて表した値であっても良い。ここで、有効最大クラスは、基準値Th5よりも多くの画素が属する輝度クラス(有効輝度クラスとも呼ぶ。)のうち、最も大きい輝度値Yが割り当てられている輝度クラスである。有効最小クラスは、基準値Th5よりも多くの画素が属する輝度クラスのうち、最も小さい輝度値Yが割り当てられている輝度クラスである。具体的には、分布幅Wは、有効最大クラスのクラス番号Wmaxと、有効最小クラスのクラス番号Wminを用いて、W=Wmax−Wmin+1と表されても良い。この場合、図6(b)に示す例では、分布幅Wは、19−1+1=19である。また、色数Cは、有効輝度クラスの数で表されても良い。この場合、図6(b)に示す例では、色数Cは、15である。このように、分布幅Wは、輝度値Yの分布の特徴を表す特徴値であって、輝度値の分布範囲の広さと相関を有する特徴値であることが好ましい。また、分布幅Wは、輝度値の分布範囲の広さを評価できる評価値であることが好ましいと言うこともできる。同様に、色数Cは、輝度値Yの分布の特徴を表す特徴値であって、異なる輝度値の数(種類の数)と相関を有する特徴値であることが好ましい。また、色数Cは、異なる輝度値の数を評価できる評価値であることが好ましい。このような場合には、分布幅Wおよび色数Cの取りうる値に応じた適切な分布幅基準値Wthおよび色数基準値Cthを設定することによって、実施例のように、対象画像の属性を適切に特定することができる。   In this case, as shown in FIG. 6B, the distribution width W may be a value representing the width from the effective minimum class to the effective maximum class using the number of luminance classes. Here, the effective maximum class is a luminance class to which the largest luminance value Y is assigned among luminance classes to which more pixels than the reference value Th5 belong (also referred to as an effective luminance class). The effective minimum class is a luminance class to which the smallest luminance value Y is assigned among luminance classes to which more pixels than the reference value Th5 belong. Specifically, the distribution width W may be expressed as W = Wmax−Wmin + 1 using the class number Wmax of the effective maximum class and the class number Wmin of the effective minimum class. In this case, in the example shown in FIG. 6B, the distribution width W is 19−1 + 1 = 19. Further, the number of colors C may be represented by the number of effective luminance classes. In this case, the number of colors C is 15 in the example shown in FIG. Thus, the distribution width W is a feature value that represents the feature of the distribution of the luminance value Y, and is preferably a feature value that has a correlation with the width of the distribution range of the luminance value. It can also be said that the distribution width W is preferably an evaluation value that can evaluate the width of the distribution range of the luminance values. Similarly, the color number C is a feature value that represents a feature of the distribution of the luminance value Y, and is preferably a feature value that has a correlation with the number of different luminance values (number of types). The number of colors C is preferably an evaluation value that can evaluate the number of different luminance values. In such a case, by setting an appropriate distribution width reference value Wth and color number reference value Cth according to possible values of the distribution width W and the number of colors C, as in the embodiment, the attributes of the target image are set. Can be identified appropriately.

なお、分布幅W、色数Cは、輝度値Yについての特徴値に限られず、画素データの成分値(R、G、B)についての特徴値であっても良いし、HSB色空間などの明度についての特徴値であっても良い。すなわち、画素の画素値または画素値を変換して得られる値に基づいて得られる様々な値についての特徴値が用いられ得る。一般的には、分布幅W、色数Cは、画素の画素値の分布の特徴を表す特徴値であることが好ましい。   The distribution width W and the number of colors C are not limited to the feature values for the luminance value Y, but may be feature values for the component values (R, G, B) of the pixel data, and may be an HSB color space or the like. It may be a feature value for brightness. That is, feature values for various values obtained based on pixel values of pixels or values obtained by converting pixel values can be used. In general, the distribution width W and the number of colors C are preferably feature values representing the characteristics of the pixel value distribution of the pixels.

(2)なお、上記実施例におけるオブジェクト画素の画素密度Dに代えて、背景画素の画素密度BDを採用しても良い。オブジェクト画素の画素密度Dと背景画素の画素密度BDは、D=1−BDの関係にあるので、画素密度基準値Dthの値および判定条件の不等号を適切に設定すれば、背景画素の画素密度BDを用いて、実施例と実質的に同一の判定を行うことができる。同様に、オブジェクト画素の数を背景画素の数で割った値や背景画素の数をオブジェクト画素の数で割った値を用いても、実施例と実質的に同一の判定を行うことができる。一般的には、オブジェクト画素の数と背景画素の数との比率に応じた特徴値を採用することが好ましい。 (2) Instead of the pixel density D of the object pixel in the above embodiment, the pixel density BD of the background pixel may be adopted. Since the pixel density D of the object pixel and the pixel density BD of the background pixel are in a relationship of D = 1−BD, if the value of the pixel density reference value Dth and the inequality sign of the determination condition are appropriately set, the pixel density of the background pixel The BD can be used to make substantially the same determination as in the embodiment. Similarly, substantially the same determination as in the embodiment can be performed using a value obtained by dividing the number of object pixels by the number of background pixels or a value obtained by dividing the number of background pixels by the number of object pixels. In general, it is preferable to employ a feature value corresponding to the ratio between the number of object pixels and the number of background pixels.

さらには、属性を特定するための判定条件には、画素密度Dに関する条件のような、オブジェクト画素の数と背景画素の数との比率に関する条件に限らず、オブジェクト画素と背景画素との関係に関する様々な条件が用いられ得る。例えば、対象領域におけるオブジェクト画素と背景画素との位置関係、例えば、オブジェクト画素と背景画素とが、ある方向に沿って交互に存在しているか否かなどが採用され得る。   Furthermore, the determination condition for specifying the attribute is not limited to the condition relating to the ratio between the number of object pixels and the number of background pixels, such as the condition relating to the pixel density D, but relating to the relationship between the object pixel and the background pixel. Various conditions can be used. For example, the positional relationship between the object pixel and the background pixel in the target region, for example, whether or not the object pixel and the background pixel are alternately present along a certain direction can be employed.

(3)領域判定部M130は、色数Cおよび分布幅Wを用いることなく、画素密度Dのみを用いて、対象画像の属性が「文字」であるか否かを特定しても良い。上述したように、画素密度Dが比較的小さい場合には、対象画像の属性が「文字」である可能性が高いので
、画素密度Dを用いて、精度よく対象画像の属性が「文字」であるか否かを特定することができる。
(3) The area determination unit M130 may specify whether the attribute of the target image is “character” using only the pixel density D without using the number of colors C and the distribution width W. As described above, when the pixel density D is relatively small, there is a high possibility that the attribute of the target image is “character”. Therefore, using the pixel density D, the attribute of the target image is “character” with high accuracy. Whether or not there is can be specified.

(4)上記実施例では、周囲領域の色の平均値を用いて、対象領域を構成する画素の分類(二値化)することにより分類精度を向上させているが、周囲領域を用いることなく、かかる分類を行っても良い。この場合には、周囲領域を特定することなく、低い計算負荷で対象領域を構成する画素の分類を行うことができる。また、周囲領域が存在しない場合、例えば、画像全体を対象領域として対象領域の属性を特定する場合であっても、対象領域の属性を特定することができる。 (4) In the above embodiment, the classification accuracy is improved by classifying (binarizing) the pixels constituting the target area using the average value of the color of the surrounding area, but without using the surrounding area. Such classification may be performed. In this case, it is possible to classify the pixels constituting the target area with a low calculation load without specifying the surrounding area. Further, when there is no surrounding area, for example, even when the attribute of the target area is specified with the entire image as the target area, the attribute of the target area can be specified.

(5)上記実施例では、対象画像を構成する画素を、オブジェクト画素と背景画素とに分類しているが、ここで、オブジェクト画素は、対象画像において属性の判定対象となるべきオブジェクトを構成する画素であり、背景画素はそれ以外の画素である。例えば、青色のオブジェクトのみを属性の判定対象とする場合には、対象画像を構成する画素を、青色のオブジェクトを構成する画素を、オブジェクト画素として分類し、それ以外の画素、例えば、他の色のオブジェクトを構成する画素、背景を構成する画素、ノイズ成分などを背景画素に分類しても良い。 (5) In the above embodiment, the pixels constituting the target image are classified into object pixels and background pixels. Here, the object pixel constitutes an object that is to be an attribute determination target in the target image. Pixels, and background pixels are other pixels. For example, in the case where only a blue object is an attribute determination target, the pixels constituting the target image are classified as object pixels, and the pixels constituting the blue object are classified as object pixels. Pixels constituting the object, pixels constituting the background, noise components, and the like may be classified as background pixels.

(6)上記実施例では、領域判定部M130は、周囲領域として均一領域を特定しているが、均一領域に限らず、例えば、均一、非均一に拘わらず、対象領域の外縁に沿って存在している任意の大きさの領域を周囲領域として特定しても良い。また、領域特定部M110は、対象領域の特定(非均一領域の特定)や、均一領域であるか非均一領域であるかの判定を、領域のエッジ強度を用いて行っているが、これに限られない。例えば、対象領域の特定、周囲領域の特定は、例えば、ユーザからの領域指定指示を、操作部270を介して受け付けることによって行われても良い。また、均一領域であるか非均一否かの判定も、同様に、ユーザが黙視によって判定した判定結果を、操作部270を介して受け付けることによって行われても良い。 (6) In the above-described embodiment, the region determination unit M130 specifies a uniform region as the surrounding region. However, the region determination unit M130 is not limited to the uniform region, and exists along the outer edge of the target region regardless of whether the region is uniform or non-uniform. A region having an arbitrary size may be specified as the surrounding region. In addition, the area specifying unit M110 uses the edge strength of the area to specify the target area (specify the non-uniform area) and determine whether the area is a uniform area or a non-uniform area. Not limited. For example, the target area and the surrounding area may be specified by, for example, receiving an area designation instruction from the user via the operation unit 270. Similarly, the determination of whether the region is uniform or non-uniform may be performed by accepting the determination result determined by the user through the operation unit 270 in the same manner.

(7)判定テーブル292はテーブル形式に限定されず、領域判定部M130が参照することのできる判定情報であれば良い。また、判定テーブル292のような判定情報を外部記憶装置290に格納することに代えて、例えば、判定情報を外部のサーバ等にアクセスして取得することとしても良い。 (7) The determination table 292 is not limited to a table format, and may be determination information that can be referred to by the area determination unit M130. Further, instead of storing determination information such as the determination table 292 in the external storage device 290, for example, the determination information may be obtained by accessing an external server or the like.

(8)画像処理部M100の機能を実現する装置は、複合機200に限らず、様々な装置、例えば、プリンタ、デジタルカメラ、スキャナなどの画像関連機器の内部のコンピュータ、あるいは、汎用のパーソナルコンピュータ、サーバなどの計算機であっても良い。また、1つの筐体の装置に限らず、複数の筐体内にそれぞれ配置された複数の計算機を含む計算機システム(例えば、いわゆるクラウドコンピューティングを実現する分散型の計算機システム)によって、画像処理部M100の機能が実現されても良い。この場合には、画像処理部M100の機能を実現する計算機システムの全体が、請求項における画像処理装置に対応する。 (8) The device that realizes the function of the image processing unit M100 is not limited to the multifunction device 200, and various devices such as computers inside image-related devices such as printers, digital cameras, and scanners, or general-purpose personal computers. Or a computer such as a server. In addition, the image processing unit M100 is not limited to a single casing device, but may be a computer system including a plurality of computers arranged in a plurality of casings (for example, a distributed computer system that realizes so-called cloud computing). The function may be realized. In this case, the entire computer system that realizes the function of the image processing unit M100 corresponds to the image processing apparatus in the claims.

(9)上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。 (9) In the above embodiment, a part of the configuration realized by hardware may be replaced with software, and conversely, a part of the configuration realized by software may be replaced by hardware. Also good.

200...複合機、210...CPU、240...内部記憶装置、250...プリンタ部、260...スキャナ部、270...操作部、280...通信部、290...外部記憶装置、291...コンピュータプログラム、292...判定テーブル、M100...画像処理部、M
110...領域特定部、M120...エッジ強度算出部、M130...領域判定部、M13
1...二値化処理部、M132...画素密度算出部、M133...色分布算出部、M134...画素密度判定部、M135...色分布判定部、M136...属性特定部画像領域
200 ... MFP, 210 ... CPU, 240 ... Internal storage device, 250 ... Printer part, 260 ... Scanner part, 270 ... Operation part, 280 ... Communication part, 290 ... external storage device, 291 ... computer program, 292 ... determination table, M100 ... image processing unit, M
110 ... Area specifying unit, M120 ... Edge strength calculating unit, M130 ... Area determining unit, M13
DESCRIPTION OF SYMBOLS 1 ... Binarization process part, M132 ... Pixel density calculation part, M133 ... Color distribution calculation part, M134 ... Pixel density determination part, M135 ... Color distribution determination part, M136 ... Attribute specific part image area

しかしながら、対象領域が文字であるか否かをより高い精度で判定する技術が求められていた。また、対象領域の属性を精度よく特定する技術が求められていた。
However, a technique for determining whether or not the target region is a character with higher accuracy has been demanded. In addition, there is a need for a technique for accurately specifying the attributes of the target area.

本発明の主な利点は、対象領域が文字であるか否かをより高い精度で判定する技術を提供することである。本発明の他の利点は、対象領域の属性を精度よく特定する技術を提供することである。
The main advantage of the present invention is to provide a technique for determining whether or not the target area is a character with higher accuracy. Another advantage of the present invention is to provide a technique for accurately specifying attributes of a target area.

上記構成によれば、対象領域を構成する複数の画素を、周囲領域を構成する画素の画素値を用いて、オブジェクト画素と背景画素とに分類し、オブジェクト画素の数と背景画素の数との比率に応じた特徴値に関する条件を満たすか否かを判定する。そして、判定結果を用いて、対象領域が文字領域であるか否かを精度良く特定することができる。
[適用例3]画像を表す画像データを用いて、前記画像内の対象領域を構成する複数の画素を、オブジェクトを構成するオブジェクト画素と、前記オブジェクトを除いた背景を構成する背景画素と、に分類する分類部と、前記オブジェクト画素の数と前記背景画素の数との比率に応じた第1の特徴値を算出する第1の特徴値算出部と、画素値の分布範囲の広さに関する第2の特徴値を算出する第2の特徴値算出部と、第1の基準値より多くの画素が有する階調値の数に関する第3の特徴値を算出する第3の特徴値算出部と、前記対象領域が、前記第1の特徴値に関する第1の条件を満たすか否かを判定する第1の判定部と、前記対象領域が、前記第2の特徴値に関する第2の条件を満たすか否かを判定する第2の判定部と、前記対象領域が、前記第3の特徴値に関する第3の条件を満たすか否かを判定する第3の判定部と、前記第1の条件による第1の判定結果と、前記第2の条件による第2の判定結果と、前記第3の条件による第3の判定結果と、の組み合わせに対して、前記対象領域の属性として特定されるべき特定結果が対応付けられている判定情報を格納する判定情報格納部と、前記第1の判定結果と、前記第2の判定結果と、前記第3の判定結果と、前記判定情報と、を用いて、前記対象領域が、前記文字領域であるか否か、写真領域であるか否か、描画領域であるか否か、の少なくとも一つを特定する属性特定部と、を備える、画像処理装置。
According to the above configuration, the plurality of pixels constituting the target area are classified into object pixels and background pixels using the pixel values of the pixels constituting the surrounding area, and the number of object pixels and the number of background pixels are calculated. It is determined whether or not a condition relating to the feature value according to the ratio is satisfied. Then, using the determination result, it can be accurately determined whether or not the target region is a character region.
Application Example 3 Using image data representing an image, a plurality of pixels constituting a target area in the image are changed into an object pixel constituting an object and a background pixel constituting a background excluding the object. A classifying unit for classifying, a first feature value calculating unit for calculating a first feature value corresponding to a ratio between the number of the object pixels and the number of the background pixels; A second feature value calculation unit that calculates a feature value of 2, a third feature value calculation unit that calculates a third feature value relating to the number of gradation values that more pixels have than the first reference value, A first determination unit that determines whether or not the target region satisfies a first condition related to the first feature value; and whether or not the target region satisfies a second condition related to the second feature value A second determination unit that determines whether or not the target region is A third determination unit that determines whether or not the third condition value relating to the third feature value is satisfied, a first determination result based on the first condition, and a second determination result based on the second condition And a determination information storage unit that stores determination information in which a specific result to be specified as an attribute of the target region is associated with a combination of the third determination result according to the third condition, Using the first determination result, the second determination result, the third determination result, and the determination information, whether or not the target area is the character area, An image processing apparatus comprising: an attribute specifying unit that specifies at least one of whether or not there is a drawing area.

Claims (4)

画像を表す画像データを用いて、前記画像内の対象領域を構成する複数の画素を、オブジェクトを構成するオブジェクト画素と、前記オブジェクトを除いた背景を構成する背景画素と、に分類する分類部と、
前記対象領域が、前記オブジェクト画素と前記背景画素との関係に関する第1の条件を満たすか否かを判定する第1の判定部と、
前記対象領域が、前記複数の画素の画素値に関する第2の条件を満たすか否かを判定する第2の判定部と、
前記第1の判定部による判定結果と前記第2の判定部による判定結果とを用いて、前記対象領域が、文字を表す文字領域であるか否かを特定する属性特定部と、
を備える、画像処理装置。
A classification unit that classifies a plurality of pixels constituting a target area in the image into object pixels constituting an object and background pixels constituting a background excluding the object, using image data representing the image; ,
A first determination unit that determines whether or not the target region satisfies a first condition regarding a relationship between the object pixel and the background pixel;
A second determination unit that determines whether or not the target region satisfies a second condition regarding pixel values of the plurality of pixels;
Using the determination result by the first determination unit and the determination result by the second determination unit, an attribute specifying unit for specifying whether or not the target region is a character region representing a character;
An image processing apparatus comprising:
画像を表す画像データを用いて、前記画像内の対象領域と、前記対象領域の周囲に位置する周囲領域と、を特定する領域特定部と、
前記周囲領域を構成する画素の画素値を用いて、前記対象領域を構成する複数の画素を、オブジェクトを表すオブジェクト画素と、前記オブジェクトを除いた背景を表す背景画素と、に分類する分類部と、
前記オブジェクト画素の数と前記背景画素の数との比率に応じた特徴値を算出する特徴値算出部と、
前記対象領域が前記特徴値に関する条件を満たすか否かに基づいて、前記対象領域が文字を表す文字領域であるか否かを特定する属性特定部と、
を備える画像処理装置。
An area specifying unit for specifying a target area in the image and a peripheral area located around the target area using image data representing an image;
A classification unit that classifies a plurality of pixels constituting the target region into object pixels representing an object and background pixels representing a background excluding the object, using pixel values of pixels constituting the surrounding region. ,
A feature value calculation unit that calculates a feature value according to a ratio between the number of the object pixels and the number of the background pixels;
An attribute specifying unit that specifies whether or not the target area is a character area representing a character, based on whether or not the target area satisfies a condition regarding the feature value;
An image processing apparatus comprising:
画像を表す画像データを用いて、前記画像内の対象領域を構成する複数の画素を、オブジェクトを構成するオブジェクト画素と、前記オブジェクトを除いた背景を構成する背景画素と、に分類する分類機能と、
前記対象領域が、前記オブジェクト画素と前記背景画素との関係に関する第1の条件を満たすか否かを判定する第1の判定機能と、
前記対象領域が、前記複数の画素の画素値に関する第2の条件を満たすか否かを判定する第2の判定機能と、
前記第1の判定部による判定結果と前記第2の判定部による判定結果とを用いて、前記対象領域が、文字を表す文字領域であるか否かを特定する属性特定機能と、
をコンピュータに実現させる、画像処理プログラム。
A classification function for classifying a plurality of pixels constituting a target area in the image into object pixels constituting an object and background pixels constituting a background excluding the object, using image data representing the image; ,
A first determination function for determining whether or not the target region satisfies a first condition relating to a relationship between the object pixel and the background pixel;
A second determination function for determining whether or not the target region satisfies a second condition regarding pixel values of the plurality of pixels;
Using the determination result by the first determination unit and the determination result by the second determination unit, an attribute specifying function for specifying whether the target region is a character region representing a character;
An image processing program that causes a computer to realize the above.
画像を表す画像データを用いて、前記画像内の対象領域と、前記対象領域の周囲に位置する周囲領域と、を特定する領域特定機能と、
前記周囲領域を構成する画素の画素値を用いて、前記対象領域を構成する複数の画素を、オブジェクトを表すオブジェクト画素と、前記オブジェクトを除いた背景を表す背景画素と、に分類する分類機能と、
前記オブジェクト画素の数と前記背景画素の数との比率に応じた特徴値を算出する特徴値算出機能と、
前記対象領域が前記特徴値に関する条件を満たすか否かに基づいて、前記対象領域が文字を表す文字領域であるか否かを特定する属性特定機能と、
をコンピュータに実現させる画像処理プログラム。
An area specifying function for specifying a target area in the image and a peripheral area located around the target area using image data representing an image;
A classification function for classifying a plurality of pixels constituting the target area into object pixels representing an object and background pixels representing a background excluding the object, using pixel values of pixels constituting the surrounding area; ,
A feature value calculation function for calculating a feature value according to a ratio between the number of the object pixels and the number of the background pixels;
An attribute specifying function for specifying whether or not the target area is a character area representing a character based on whether or not the target area satisfies a condition regarding the feature value;
An image processing program for realizing a computer.
JP2015135873A 2015-07-07 2015-07-07 Image processing device, image processing program Active JP6024795B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015135873A JP6024795B2 (en) 2015-07-07 2015-07-07 Image processing device, image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015135873A JP6024795B2 (en) 2015-07-07 2015-07-07 Image processing device, image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011167177A Division JP5776419B2 (en) 2011-07-29 2011-07-29 Image processing device, image processing program

Publications (2)

Publication Number Publication Date
JP2015179552A true JP2015179552A (en) 2015-10-08
JP6024795B2 JP6024795B2 (en) 2016-11-16

Family

ID=54263492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015135873A Active JP6024795B2 (en) 2015-07-07 2015-07-07 Image processing device, image processing program

Country Status (1)

Country Link
JP (1) JP6024795B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017175600A (en) * 2016-03-18 2017-09-28 株式会社リコー Image processing device, image processing method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004137A (en) * 2008-06-18 2010-01-07 Konica Minolta Business Technologies Inc Image processor and image processing method
JP2010199984A (en) * 2009-02-25 2010-09-09 Fuji Xerox Co Ltd Image processor, image reader, and image formation device
JP2011142469A (en) * 2010-01-06 2011-07-21 Canon Inc Image processing apparatus and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004137A (en) * 2008-06-18 2010-01-07 Konica Minolta Business Technologies Inc Image processor and image processing method
JP2010199984A (en) * 2009-02-25 2010-09-09 Fuji Xerox Co Ltd Image processor, image reader, and image formation device
JP2011142469A (en) * 2010-01-06 2011-07-21 Canon Inc Image processing apparatus and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017175600A (en) * 2016-03-18 2017-09-28 株式会社リコー Image processing device, image processing method and program

Also Published As

Publication number Publication date
JP6024795B2 (en) 2016-11-16

Similar Documents

Publication Publication Date Title
JP5776419B2 (en) Image processing device, image processing program
JP5958023B2 (en) Image processing apparatus and image processing program
JP5935454B2 (en) Image processing apparatus and image processing program
US9088754B2 (en) Image processing device determining characteristic quantity relating to number of colors
JP5853470B2 (en) Image processing device, image processing program
US9253368B2 (en) Image processing device setting binary value without using dither matrix when prescribed condition is satisfied
US8929663B2 (en) Image processing device identifying region in image as one of uniform region and nonuniform region
US9235773B2 (en) Image processing device capable of determining types of images accurately
JP5796392B2 (en) Image processing apparatus and computer program
JP6024795B2 (en) Image processing device, image processing program
US20230316697A1 (en) Association method, association system, and non-transitory computer-readable storage medium
JP6031921B2 (en) Image processing apparatus and program
US9424488B2 (en) Applying a segmentation engine to different mappings of a digital image
JP2009301090A (en) Image processor and image processing program
JP2015012491A (en) Image processor
JP5884605B2 (en) Image processing apparatus and program
JP2021145239A (en) Image processing device and program
JP6641982B2 (en) Image processing apparatus, image processing method, and program
JP5949399B2 (en) Image processing apparatus and program
JP6145983B2 (en) Image processing apparatus and computer program
JP6372409B2 (en) Image processing program, image processing apparatus, and image processing method
JP5846011B2 (en) Image processing apparatus and program
JP2022032548A (en) Information processing device
JP2009246437A (en) Video converting device, video converting method, and video converting program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R150 Certificate of patent or registration of utility model

Ref document number: 6024795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150