JP5687560B2 - Image processing apparatus and program, and image forming apparatus - Google Patents

Image processing apparatus and program, and image forming apparatus Download PDF

Info

Publication number
JP5687560B2
JP5687560B2 JP2011111601A JP2011111601A JP5687560B2 JP 5687560 B2 JP5687560 B2 JP 5687560B2 JP 2011111601 A JP2011111601 A JP 2011111601A JP 2011111601 A JP2011111601 A JP 2011111601A JP 5687560 B2 JP5687560 B2 JP 5687560B2
Authority
JP
Japan
Prior art keywords
area
image
weighting factor
character
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011111601A
Other languages
Japanese (ja)
Other versions
JP2012244355A (en
Inventor
貴良 岩本
貴良 岩本
Original Assignee
株式会社沖データ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社沖データ filed Critical 株式会社沖データ
Priority to JP2011111601A priority Critical patent/JP5687560B2/en
Publication of JP2012244355A publication Critical patent/JP2012244355A/en
Application granted granted Critical
Publication of JP5687560B2 publication Critical patent/JP5687560B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)

Description

画像処理装置及びプログラム、並びに、画像形成装置に関し、例えば、複数の色成分(例えば、RGBの3色の色成分)で表現される画像(以下、「カラー画像」又は「多色画像」ともいう)から、単一の色成分で表現される画像(以下、「モノクロ画像」又は「単色画像」ともいう)を生成する画像処理に適用することができる。   The image processing apparatus, the program, and the image forming apparatus, for example, are also referred to as an image (hereinafter referred to as “color image” or “multicolor image”) expressed by a plurality of color components (for example, three color components of RGB). ) To image processing that generates an image represented by a single color component (hereinafter also referred to as “monochrome image” or “monochromatic image”).

従来、カラー画像からモノクロ画像を形成する画像処理装置として、特許文献1の記載技術がある。   Conventionally, there is a technique described in Patent Document 1 as an image processing apparatus that forms a monochrome image from a color image.

特許文献1の記載技術では、予めモノクロの形式で表わした画素のパターンを複数用意しておき、処理対象であるカラー画像の各画素について、当該画素の色成分値の組み合わせに対応するパターンを選択し、モノクロ画像を形成する方式であった。   In the technique described in Patent Document 1, a plurality of pixel patterns expressed in a monochrome format are prepared in advance, and for each pixel of a color image to be processed, a pattern corresponding to a combination of color component values of the pixel is selected. However, this was a method for forming a monochrome image.

特開平11−136208号公報JP-A-11-136208

しかしながら、特許文献1に記載された画像処理装置では、処理対象となるカラー画像を構成する各画素について、共通の変換方式を用いている。そのため、特許文献1に記載の画像処理装置で処理したモノクロ画像では、明るい色(例えば、黄色等)の文字が消えてしまい、文字として識別できない場合がある。また、特許文献1に記載の画像処理装置において、明るい色の文字も識別できるように、濃度の濃い画素のパターンを適用したとしても、変換後のモノクロ画像で、色の違いや階調性が失われてしまうことになる。その結果、特許文献1に記載の画像処理装置で処理したモノクロ画像では、文字以外のイメージの画像の内容について識別性が低下し、識別される情報が欠落する場合があった。   However, the image processing apparatus described in Patent Document 1 uses a common conversion method for each pixel constituting a color image to be processed. For this reason, in a monochrome image processed by the image processing apparatus described in Patent Literature 1, a bright color (for example, yellow) character disappears and may not be identified as a character. In addition, in the image processing apparatus described in Patent Document 1, even if a dark pixel pattern is applied so that a bright-colored character can be identified, the converted monochrome image has a difference in color and gradation. It will be lost. As a result, in the monochrome image processed by the image processing apparatus described in Patent Document 1, the discriminability of the image content other than the characters is lowered, and the identified information may be lost.

そのため、カラー画像(多色画像)をモノクロ画像(単色画像)に変換した場合に、変換後のモノクロ画像の識別性を向上させることができる画像処理装置及びプログラム、並びに、画像形成装置が望まれている。   Therefore, when a color image (multicolor image) is converted into a monochrome image (single color image), an image processing apparatus and program that can improve the discrimination of the converted monochrome image, and an image forming apparatus are desired. ing.

第1の本発明の画像処理装置は、(1)複数の色成分値によって表現される多色画像を、少なくとも文字領域とイメージ領域を含む複数種類のオブジェクト領域に分割する領域分割手段と、(2)それぞれのオブジェクト領域について、当該オブジェクト領域を構成する画素の輝度値算出に用いる重み係数を、当該オブジェクト領域の種類に応じた方式で導出する重み係数導出手段と、(3)オブジェクト領域毎に、前記重み係数導出手段で導出した重み係数を用いて、当該オブジェクト領域を構成する画素のそれぞれの輝度値を算出する輝度値算出手段と、(4)前記輝度値算出手段が算出した各画素の輝度値に基づいて、1つの色成分値によって表現することが可能な単色画像を生成する単色画像生成手段とを有し、(5)前記領域分割手段は、文字領域について、さらに、文字領域のエッジ部分を構成する文字エッジ領域と、文字エッジ領域に囲まれた文字内部領域とに分け、それぞれ異なる種類のオブジェクト領域として分割し、(6)前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、より識別性が高くなるような重み係数を導出し、(7)文字エッジ領域のオブジェクト領域のそれぞれについて、主たる色成分に係る色情報を取得する色情報取得手段をさらに有し、(8)前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、前記色情報取得手段が取得した色情報に示される色を構成する色成分の重みを下げた重み係数を導出し、(9)前記色情報取得手段は、文字エッジのオブジェクト領域について、当該オブジェクト領域を構成する各画素の色相を求め、最も出現頻度の高い色相の色を、色情報として取得することを特徴とする。 An image processing apparatus according to a first aspect of the present invention includes: (1) an area dividing unit that divides a multicolor image represented by a plurality of color component values into a plurality of types of object areas including at least a character area and an image area; 2) For each object area, weight coefficient deriving means for deriving the weight coefficient used for calculating the luminance value of the pixels constituting the object area by a method according to the type of the object area; and (3) for each object area Using a weighting factor derived by the weighting factor deriving unit, a luminance value calculating unit that calculates a luminance value of each pixel constituting the object area, and (4) each pixel calculated by the luminance value calculating unit. based on the luminance value, and a single-color image generating means for generating a monochrome image that can be represented by a single color component values, (5) the area division The stage further divides the character area into a character edge area constituting an edge portion of the character area and a character internal area surrounded by the character edge area, and divides the character area into different types of object areas, (6) The weighting factor deriving means derives a weighting factor that makes the discrimination property higher for the object region of the character edge region, and (7) obtains color information relating to the main color component for each of the object regions of the character edge region (8) the weighting factor deriving unit calculates the weight of the color component constituting the color indicated by the color information acquired by the color information acquiring unit for the object area of the character edge region. A lowered weighting factor is derived, and (9) the color information acquisition means is configured to determine the object area for the object area of the character edge. It determined the hue of each pixel constituting the color of the most frequency hue, and acquires the color information.

第2の本発明の画像処理プログラムは、コンピュータを、(1)複数の色成分値によって表現される多色画像を、少なくとも文字領域とイメージ領域を含む複数種類のオブジェクト領域に分割する領域分割手段と、(2)それぞれのオブジェクト領域について、当該オブジェクト領域を構成する画素の輝度値算出に用いる重み係数を、当該オブジェクト領域の種類に応じた方式で導出する重み係数導出手段と、(3)オブジェクト領域毎に、前記重み係数導出手段で導出した重み係数を用いて、当該オブジェクト領域を構成する画素のそれぞれの輝度値を算出する輝度値算出手段と、(4)前記輝度値算出手段が算出した各画素の輝度値に基づいて、1つの色成分値によって表現することが可能な単色画像を生成する単色画像生成手段として機能させ、(5)前記領域分割手段は、文字領域について、さらに、文字領域のエッジ部分を構成する文字エッジ領域と、文字エッジ領域に囲まれた文字内部領域とに分け、それぞれ異なる種類のオブジェクト領域として分割し、(6)前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、より識別性が高くなるような重み係数を導出し、(7)前記コンピュータを文字エッジ領域のオブジェクト領域のそれぞれについて、主たる色成分に係る色情報を取得する色情報取得手段としてさらに機能させ、(8)前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、前記色情報取得手段が取得した色情報に示される色を構成する色成分の重みを下げた重み係数を導出し、(9)前記色情報取得手段は、文字エッジのオブジェクト領域について、当該オブジェクト領域を構成する各画素の色相を求め、最も出現頻度の高い色相の色を、色情報として取得することを特徴とする。
An image processing program according to a second aspect of the present invention provides a computer, (1) region dividing means for dividing a multicolor image expressed by a plurality of color component values into a plurality of types of object regions including at least a character region and an image region. (2) for each object region, weighting factor deriving means for deriving a weighting factor used for calculating the luminance value of the pixels constituting the object region by a method according to the type of the object region; and (3) an object For each region, using the weighting factor derived by the weighting factor deriving unit, a luminance value calculating unit that calculates the luminance value of each pixel constituting the object region, and (4) calculated by the luminance value calculating unit As monochromatic image generation means for generating a monochromatic image that can be expressed by one color component value based on the luminance value of each pixel Is ability, (5) the area dividing means, the character region, further, a text edge region constituting an edge portion of the character area, divided into a text edge region character inside area surrounded by the different types of the respective object (6) The weighting factor deriving means derives a weighting factor that makes the distinction of the object region of the character edge region higher. (7) The computer is divided into the object region of the character edge region. For each, it further functions as color information acquisition means for acquiring color information relating to the main color component, and (8) the weight coefficient derivation means is the color information acquired by the color information acquisition means for the object area of the character edge area. (9) The color information acquisition unit is configured to derive a weighting factor obtained by lowering the weight of the color component constituting the color indicated by Object region of Tsu di obtains the hue of each pixel constituting the object area, the color of the most frequency hue, and acquires the color information.

第3の本発明は、画像処理装置と、前記画像処理装置を用いて処理された画像を記録媒体に形成する画像形成部とを備える画像形成装置において、第1の本発明の画像処理装置を適用したことを特徴とする。   According to a third aspect of the present invention, there is provided an image forming apparatus comprising: an image processing apparatus; and an image forming unit that forms an image processed by using the image processing apparatus on a recording medium. It is characterized by having applied.

本発明によれば、多色画像を単色画像に変換した場合に、変換後の単色画像の識別性を向上させることができる   According to the present invention, when a multicolor image is converted into a single color image, the distinguishability of the converted single color image can be improved.

第1の実施形態に係るプリンタの機能的構成について示したブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the printer according to the first embodiment. 第1の実施形態に係るプリンタのハードウェア的構成について示したブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of the printer according to the first embodiment. 第1の実施形態に係る領域分割部が行う分割処理について示した説明図である。It is explanatory drawing shown about the division process which the area | region division part which concerns on 1st Embodiment performs. 第1の実施形態に係るプリンタ全体の動作について示したフローチャートである。3 is a flowchart illustrating an operation of the entire printer according to the first embodiment. 第1の実施形態に係る重み係数導出部の動作について示したフローチャートである。It is the flowchart shown about operation | movement of the weighting coefficient derivation | leading-out part which concerns on 1st Embodiment. 第1の実施形態に係るプリンタが行う画像処理の例について示した説明図である。It is explanatory drawing shown about the example of the image processing which the printer which concerns on 1st Embodiment performs. 第2の実施形態に係るプリンタの機能的構成について示したブロック図である。It is the block diagram shown about the functional structure of the printer which concerns on 2nd Embodiment. 第2の実施形態に係るプリンタ全体の動作について示したフローチャートである。10 is a flowchart illustrating an operation of the entire printer according to the second embodiment. 第2の実施形態に係る色情報取得部の動作について示したフローチャートである。It is the flowchart shown about operation | movement of the color information acquisition part which concerns on 2nd Embodiment. 第2の実施形態に係る重み係数導出部の動作について示したフローチャートである。It is the flowchart shown about operation | movement of the weighting coefficient derivation | leading-out part which concerns on 2nd Embodiment. 第2の実施形態に係る重み係数導出部が用いる重み係数テーブルの例について示した説明図である。It is explanatory drawing shown about the example of the weighting coefficient table which the weighting coefficient derivation part concerning a 2nd embodiment uses.

(A)第1の実施形態
以下、本発明による画像処理装置及びプログラム、並びに、画像形成装置の第1の実施形態を、図面を参照しながら詳述する。なお、第1の実施形態では、本発明の画像形成装置を、プリンタに適用した例について説明する。
(A) First Embodiment Hereinafter, an image processing apparatus, a program, and an image forming apparatus according to a first embodiment of the present invention will be described in detail with reference to the drawings. In the first embodiment, an example in which the image forming apparatus of the present invention is applied to a printer will be described.

(A−1)第1の実施形態の構成
図2は、第1の実施形態のプリンタ100のハードウェア的構成例について示したブロック図である。
(A-1) Configuration of the First Embodiment FIG. 2 is a block diagram illustrating a hardware configuration example of the printer 100 according to the first embodiment.

図1は、第1の実施形態のプリンタ100の機能的構成について示したブロック図である。   FIG. 1 is a block diagram illustrating a functional configuration of the printer 100 according to the first embodiment.

本発明の画像形成装置としてのプリンタ100は、ハードウェア的には、入力I/F101、HDD106、出力部107、及び制御部102を有している。   The printer 100 as the image forming apparatus of the present invention includes an input I / F 101, an HDD 106, an output unit 107, and a control unit 102 in terms of hardware.

入力I/F101は、外部のPC110と接続するためのインタフェースであり、PC110から送信された、画素毎に3色のRGB色成分値によって表現されるカラー画像データを取得する。   The input I / F 101 is an interface for connecting to an external PC 110, and obtains color image data represented by three RGB color component values for each pixel transmitted from the PC 110.

制御部102は、揮発性メモリであるRAM103、読み込み専用のメモリであるROM104、CPU105等のプログラムの実施構成を備えている。すなわち、プリンタ100では、制御部102のCPU105が、RAM103をワーキングメモリとしてROM104に格納された処理プログラムを実行する。言い換えると、プリンタ100の機能は、制御部102が実施形態の画像処理プログラム等を実行することにより実現される。そして、プリンタ100の機能的構成は、上述の図1のように表わすことができる。なお、CPU105が実行するプログラムの格納場所は、限定されないものであり、ROM104ではなくHDD106に格納するようにしても良い。また、CPU105は、ワーキングメモリとして、RAM103だけでなくHDD106を併用するようにしても良い。   The control unit 102 includes an implementation configuration of programs such as a RAM 103 that is a volatile memory, a ROM 104 that is a read-only memory, and a CPU 105. That is, in the printer 100, the CPU 105 of the control unit 102 executes a processing program stored in the ROM 104 using the RAM 103 as a working memory. In other words, the function of the printer 100 is realized by the control unit 102 executing the image processing program of the embodiment. The functional configuration of the printer 100 can be expressed as shown in FIG. The storage location of the program executed by the CPU 105 is not limited, and may be stored in the HDD 106 instead of the ROM 104. Further, the CPU 105 may use not only the RAM 103 but also the HDD 106 as a working memory.

プリンタ100のハードウェア的な構成については、既存のプリンタと同様のものを適用することができるので、図2では、既存のプリンタの一般的なハードウェア構成に基づいて図示している。プリンタ100では、上述の画像処理部21が行う画像処理に特徴があり、ハードウェア的構成については、図2の構成に限定されず、他の種々の構成を適用することができる。   Since the hardware configuration of the printer 100 can be the same as that of an existing printer, FIG. 2 is illustrated based on the general hardware configuration of the existing printer. The printer 100 is characterized by the image processing performed by the image processing unit 21 described above, and the hardware configuration is not limited to the configuration in FIG. 2, and other various configurations can be applied.

HDD106は読み込みおよび書き込みが可能な記憶装置であり、画像データや設定項目等の保存に用いられる。   The HDD 106 is a readable / writable storage device, and is used for storing image data, setting items, and the like.

出力部107は、画像データが供給されると、その画像データの画像を出力するものである。出力部107が供給された画像データを出力する形式については限定されないものである。出力部107としては、例えば、既存のレーザプリンタの出力部と同様のものを適用することができる。具体的には、出力部107は、1又は複数のトナー色材を用いて記録媒体(例えば、紙葉類)に画像を形成(印刷)することが可能な構成を備えているものとする。そして、出力部107は、トナー色材で表現可能なハーフトーン処理を施した2値画像データが供給されると、記録媒体にトナー像を形成するものとする。   When the image data is supplied, the output unit 107 outputs an image of the image data. A format for outputting the supplied image data by the output unit 107 is not limited. As the output unit 107, for example, the same output unit as that of an existing laser printer can be applied. Specifically, the output unit 107 has a configuration capable of forming (printing) an image on a recording medium (for example, a paper sheet) using one or a plurality of toner color materials. The output unit 107 forms a toner image on a recording medium when supplied with binary image data subjected to halftone processing that can be expressed by a toner color material.

次に、プリンタ100の機能的構成について説明する。   Next, the functional configuration of the printer 100 will be described.

プリンタ100は、機能的には、図1に示すように画像処理部21、及び画像形成部22を有している。そして、画像処理部21は、画像取得部211、領域分割手段としての領域分割部212、重み係数導出手段としての重み係数導出部213、輝度値算出手段としての輝度値算出部214、及び、単色画像生成手段としてのモノクロ画像生成部215を有している。なお、図1に示す画像処理部21を構成する各機能ブロック(構成要素)は、図2に示す制御部102を用いて実現することができる。また、図1に示す画像生成部215は、図2に示す制御部102及び出力部107を用いて実現することができる。   Functionally, the printer 100 includes an image processing unit 21 and an image forming unit 22 as shown in FIG. The image processing unit 21 includes an image acquisition unit 211, an area dividing unit 212 as an area dividing unit, a weight coefficient deriving unit 213 as a weight coefficient deriving unit, a luminance value calculating unit 214 as a luminance value calculating unit, and a single color A monochrome image generation unit 215 is provided as image generation means. Each functional block (component) constituting the image processing unit 21 shown in FIG. 1 can be realized by using the control unit 102 shown in FIG. Also, the image generation unit 215 illustrated in FIG. 1 can be realized using the control unit 102 and the output unit 107 illustrated in FIG.

画像処理部21は、プリンタ100において、本発明の画像処理装置として機能する部分である。そして、画像処理部21を実現するためのプログラムが実施形態の画像処理プログラムとなる。言い換えると、本発明の画像形成装置としてのプリンタ100は、本発明の画像処理装置としての画像処理部21を搭載している。   The image processing unit 21 is a part that functions as the image processing apparatus of the present invention in the printer 100. A program for realizing the image processing unit 21 is the image processing program of the embodiment. In other words, the printer 100 as the image forming apparatus of the present invention is equipped with the image processing unit 21 as the image processing apparatus of the present invention.

画像取得部211は、入力I/F101を通してPC110から送信された、処理対象のRGB形式で表現されたカラー画像のデータ(以下、「RGB画像データ」という)を取得する。なお、第1の実施形態において、画像取得部211は、入力I/F101を通してPC110から送信されたRGB画像データを取得するが、例えば、スキャナやデジタルカメラを接続してRGB画像データを取得してもよい。すなわち、画像取得部211が、RGB画像データを保持する方式は限定されないものである。RGB画像データは、画像を構成する画素ごとの各成分(RGBの各成分)のデータが含まれていれば、その具体的な形式は限定されないものである。RGB画像データの具体的な形式としては、例えば、ビットマップ形式(BMP形式)のデータを適用することができる。また、画像取得部211は、取得したRGB画像データを、RAM103に保存し、領域分割部212に引き渡す。   The image acquisition unit 211 acquires color image data (hereinafter referred to as “RGB image data”) that is transmitted from the PC 110 through the input I / F 101 and expressed in the RGB format to be processed. In the first embodiment, the image acquisition unit 211 acquires RGB image data transmitted from the PC 110 through the input I / F 101. For example, the image acquisition unit 211 acquires RGB image data by connecting a scanner or a digital camera. Also good. That is, the method by which the image acquisition unit 211 holds RGB image data is not limited. As long as the RGB image data includes data of each component (each RGB component) for each pixel constituting the image, the specific format is not limited. As a specific format of RGB image data, for example, bitmap format (BMP format) data can be applied. The image acquisition unit 211 stores the acquired RGB image data in the RAM 103 and delivers it to the region division unit 212.

領域分割部212は、画像取得部211が取得したRGB画像データに対し、少なくとも、文字領域とイメージ領域の2種類のオブジェクト領域に分割する処理を行う。「文字領域」とは、RGB画像データにより示される画像上で、文字の画像を示す領域である。また、「イメージ領域」とは、文字領域以外のイメージ画像を示す領域である。   The area dividing unit 212 performs a process of dividing the RGB image data acquired by the image acquiring unit 211 into at least two types of object areas: a character area and an image area. The “character area” is an area indicating a character image on the image indicated by the RGB image data. The “image area” is an area indicating an image image other than the character area.

なお、領域分割部212により分割された、各オブジェクト領域のそれぞれには識別ID(以下、「オブジェクトID」と呼ぶ)が付与されるものとする。ここでは、領域分割部212により分割された、オブジェクト領域の数が、I個だった場合には、各オブジェクト領域には、1、2、3、…、IのいずれかのオブジェクトIDが付与されるものとして説明する。   It should be noted that an identification ID (hereinafter referred to as “object ID”) is assigned to each object area divided by the area dividing unit 212. Here, when the number of object areas divided by the area dividing unit 212 is I, each object area is assigned an object ID of 1, 2, 3,. It will be described as a thing.

領域分割部212が、RGB画像データが示す画像について、文字領域とイメージ領域とを区別して認識する方法は限定されないものであるが、ここでは、例として、画像中の文字エッジに相当する画素を文字エッジ領域として検出し、文字エッジ領域と、文字エッジ領域に囲まれた領域(以下、「文字内部領域」と呼ぶ)およびその他の領域(以下、「イメージ領域」と呼ぶ)として認識する方法を用いることとして説明する。画像中の文字エッジ領域を検出する手法としては、例えば参考文献1(特開2002−354241号公報)の記載技術を利用するようにしても良い。参考文献1に記載されている画像処理装置では、処理対象となる画像を走査し、画素の無彩色/有彩色の判定をし、その無彩色/有彩色の判定に基づきエッジ判定閥値を切り替えて設定し、注目画素の濃度値と隣接画素の濃度値の差分がエッジ判定閥値を超える場合に文字エッジ画素と判定することにより、黒文字や色文字の文字エッジ領域を抽出している。ここでは、領域分割部212は、RGB画像データが示す画像から、上述の参考文献1の記載技術を用いて文字エッジ領域を抽出し、文字エッジ領域と文字内部領域を合わせて文字領域として認識し、その他の領域をイメージ領域として認識するものとする。   The method of distinguishing and recognizing the character area and the image area for the image indicated by the RGB image data by the area dividing unit 212 is not limited, but here, as an example, the pixel corresponding to the character edge in the image is selected. A method of detecting as a character edge region and recognizing it as a character edge region, a region surrounded by the character edge region (hereinafter referred to as “character internal region”) and other regions (hereinafter referred to as “image region”). It will be described as being used. As a technique for detecting a character edge region in an image, for example, the technique described in Reference 1 (Japanese Patent Laid-Open No. 2002-354241) may be used. The image processing apparatus described in Reference 1 scans an image to be processed, determines an achromatic / chromatic color of a pixel, and switches an edge determination threshold based on the determination of the achromatic / chromatic color. When the difference between the density value of the target pixel and the density value of the adjacent pixel exceeds the edge determination threshold value, it is determined as a character edge pixel, thereby extracting a character edge region of a black character or a color character. Here, the region dividing unit 212 extracts a character edge region from the image indicated by the RGB image data using the technique described in Reference 1 described above, and recognizes the character edge region and the character internal region together as a character region. Other areas are recognized as image areas.

図3は、領域分割部212により、画像を文字領域とイメージ領域とに分割する具体例について示した説明図である。   FIG. 3 is an explanatory diagram showing a specific example in which the area dividing unit 212 divides an image into a character area and an image area.

図3(a)は、領域分割部212が、分割処理を行う対象となる画像の例について示している。図3(a)に示される画像には、「The」という文字が表わされている。   FIG. 3A illustrates an example of an image that is a target for which the region dividing unit 212 performs a division process. In the image shown in FIG. 3A, the characters “The” are represented.

そして、図3(b)では、領域分割部212が図3(a)の画像について分割処理を行う過程について示している。なお、図3(b)では、説明を容易にするため、文字領域のうち、文字エッジ領域と、文字内部領域とを区別して図示している。領域分割部212は、まず、分割処理の対象となる画像(図3(a)の画像)の文字エッジ領域を抽出行う。その結果、領域分割部212は、図3(b)に示すように「T」、「h」、「e」のそれぞれの文字について文字エッジ領域を抽出することができる。図3(b)では、文字「T」の文字エッジ領域を領域A101、文字「h」の文字エッジ領域を領域A102、文字「e」の文字エッジ領域を領域A103と表わしている。また、図3(b)では、文字「T」の文字内部領域を領域A104、文字「h」の文字内部領域を領域A105、文字「e」の文字内部領域を領域A106と表わしている。   FIG. 3B shows a process in which the region dividing unit 212 performs the dividing process on the image of FIG. In FIG. 3B, for ease of explanation, the character edge area and the character internal area are distinguished from each other in the character area. The area dividing unit 212 first extracts a character edge area of an image to be divided (image in FIG. 3A). As a result, the region dividing unit 212 can extract the character edge region for each of the characters “T”, “h”, and “e” as shown in FIG. In FIG. 3B, the character edge region of the character “T” is represented as a region A101, the character edge region of the character “h” is represented as a region A102, and the character edge region of the character “e” is represented as a region A103. Further, in FIG. 3B, the character internal area of the character “T” is indicated as area A104, the character internal area of the character “h” is indicated as area A105, and the character internal area of the character “e” is indicated as area A106.

領域分割部212は、文字「T」を示す文字エッジ領域A102及び文字内部領域A104を併せて、一つのオブジェクト領域と認識する。また、領域分割部212は、文字「h」を示す文字エッジ領域A103及び文字内部領域A105を併せて、一つのオブジェクト領域と認識する。さらに、領域分割部212は、文字「e」を示す文字エッジ領域A104及び文字内部領域A106を併せて、一つのオブジェクト領域と認識する(ただし、中抜きとなっている領域A107の部分は文字領域には含まれない)。さらにまた、領域分割部212は、文字領域認識できなかった領域A107、A108については、イメージ領域と認識する。このように、第1の実施形態の領域分割部212で、図3(a)の画像を分割処理すると、3つの文字領域オブジェクトと、2つのイメージ領域オブジェクトに分割されることになる。   The area dividing unit 212 recognizes the character edge area A102 indicating the character “T” and the character internal area A104 together as one object area. The area dividing unit 212 recognizes the character edge area A103 indicating the character “h” and the character internal area A105 together as one object area. Further, the region dividing unit 212 recognizes the character edge region A104 indicating the character “e” and the character internal region A106 as one object region (however, the portion of the region A107 that is outlined is a character region). Not included). Furthermore, the region dividing unit 212 recognizes the regions A107 and A108 that could not be recognized as character regions as image regions. As described above, when the region dividing unit 212 of the first embodiment performs the division processing of the image in FIG. 3A, the image is divided into three character region objects and two image region objects.

以上のように、領域分割部212は、RGB画像データの画像をオブジェクト領域単位に分割する。   As described above, the area dividing unit 212 divides an image of RGB image data into object area units.

そして、領域分割部212は、RGB画像データから分割したオブジェクト領域を表わしたデータについて、RAM103に記憶し、重み係数導出部213に引き渡す。各オブジェクト領域を表わしたデータの具体的な形式については限定されないものである。領域分割部212は、例えば、RGB画像データの画像を構成する画素データのそれぞれに、当該画素が所属するオブジェクト領域のオブジェクトID、及び当該オブジェクト領域の種類を示すフラグ情報を対応付けて記憶するようにしても良い。オブジェクト領域の種類を示すフラグ情報の内容については限定されないものであるが、例えば、文字領域を示す場合には「1」、「イメージ領域」を示す場合には「2」のように表すことができる。   Then, the area dividing unit 212 stores the data representing the object area divided from the RGB image data in the RAM 103 and delivers it to the weight coefficient deriving unit 213. The specific format of data representing each object area is not limited. For example, the region dividing unit 212 stores the object ID of the object region to which the pixel belongs and flag information indicating the type of the object region in association with each piece of pixel data constituting the image of the RGB image data. Anyway. The content of the flag information indicating the type of the object area is not limited. For example, it may be expressed as “1” when indicating a character area and “2” when indicating an “image area”. it can.

重み係数導出部213は、領域分割部212にて認識した各オブジェクト領域に対し、後述する輝度値算出部214の輝度算出で用いるパラメータとして「重み係数」を求める。この実施形態において、重み係数とは、後述する輝度値算出部214において、RGBの各色成分値からモノクロの輝度値Yを導出するためのRGB各色成分値にかける重み係数である。重み係数導出部213による処理の詳細については、後述する動作説明の項で説明する。   The weighting factor deriving unit 213 obtains a “weighting factor” for each object region recognized by the region dividing unit 212 as a parameter used in luminance calculation of the luminance value calculating unit 214 described later. In this embodiment, the weighting factor is a weighting factor applied to each RGB color component value for deriving a monochrome luminance value Y from each RGB color component value in the luminance value calculation unit 214 described later. Details of the processing by the weighting factor deriving unit 213 will be described in the section of the operation description described later.

輝度値算出部214は、RGBデータの画像を構成する各画素について、上述の重み係数導出部213が導出した重み係数を利用し、輝度値を算出する。輝度値算出部214による処理の詳細については、後述する動作説明の項で説明する。   The luminance value calculation unit 214 calculates a luminance value for each pixel constituting the RGB data image using the weighting factor derived by the weighting factor deriving unit 213 described above. Details of the processing by the luminance value calculation unit 214 will be described in the section of operation description to be described later.

モノクロ画像生成部215は、輝度値算出部214で導出した各画素の輝度値に従い、モノクロ画像を生成する。モノクロ画像生成部215は、例えば、輝度値算出部214により算出された輝度値の高い画素ほど、濃度の低い色となるようなモノクロ画像を生成するようにしても良い。例えば、モノクロ画像生成部215は、輝度値が最大値の画素について白色で表現し、輝度値が最小値の画素について黒色で表現し、それ以外の輝度値の画素については当該輝度値に応じた階調(濃度)の灰色で表現するようにしても良い。また、モノクロ画像生成部215は、各画素についてグレースケールで表現した画像を、モノクロ画像として生成するようにしても良い。   The monochrome image generation unit 215 generates a monochrome image according to the luminance value of each pixel derived by the luminance value calculation unit 214. For example, the monochrome image generation unit 215 may generate a monochrome image such that a pixel having a higher luminance value calculated by the luminance value calculation unit 214 has a color with lower density. For example, the monochrome image generation unit 215 expresses the pixel having the maximum luminance value in white, expresses the pixel having the minimum luminance value in black, and other pixels having the luminance value according to the luminance value. It may be expressed in gray of gradation (density). The monochrome image generation unit 215 may generate an image expressed in gray scale for each pixel as a monochrome image.

また、モノクロ画像生成部215は、単に各画素を輝度値で表したデータをモノクロ画像データとして出力するようにしても良い。この場合、輝度値算出部214により算出された輝度値の高い画素ほど、濃度の低い色となるような画像形成が、画像形成部22側で行われる必要がある。   Further, the monochrome image generation unit 215 may simply output data in which each pixel is represented by a luminance value as monochrome image data. In this case, it is necessary to perform image formation on the image forming unit 22 side such that a pixel having a higher luminance value calculated by the luminance value calculating unit 214 has a color with a lower density.

画像形成部22は、モノクロ画像生成部215で生成したモノクロ画像を、出力部107で出力可能な形式に変換し、出力部107により出力させるものである。   The image forming unit 22 converts the monochrome image generated by the monochrome image generating unit 215 into a format that can be output by the output unit 107, and causes the output unit 107 to output it.

ここでは、画像形成部22は、モノクロ画像生成部215で生成したモノクロ画像を変換して、1色のトナー色材(CMYK4色のトナー色材のうちの1色(例えば、K))で表現可能な処理(例えば、ハーフトーン処理)を施した2値画像データ(以下、「モノクロ2値画像データ」と呼ぶ)を形成し、出力部107に供給するものとする。モノクロ画像から、モノクロ2値画像データへ変換する処理方式については限定されないものであるが、例えば、既存のレーザプリンタにおいて、供給された画像データを、トナー色材で表現可能な形式に変換する処理と同様の処理を適用するようにしても良い。   Here, the image forming unit 22 converts the monochrome image generated by the monochrome image generating unit 215 and expresses it with one color toner color material (one color (for example, K) of the four color toner colors CMYK). It is assumed that binary image data (hereinafter referred to as “monochrome binary image data”) subjected to possible processing (for example, halftone processing) is formed and supplied to the output unit 107. The processing method for converting from a monochrome image to monochrome binary image data is not limited. For example, in an existing laser printer, the supplied image data is converted into a format that can be expressed by a toner color material. The same processing may be applied.

(A−2)第1の実施形態の動作
次に、以上のような構成を有する第1の実施形態のプリンタ100の動作を説明する。
(A-2) Operation of the First Embodiment Next, the operation of the printer 100 of the first embodiment having the above configuration will be described.

図4は、プリンタ100による画像処理の概要について示したフローチャートである。   FIG. 4 is a flowchart showing an outline of image processing by the printer 100.

まず、画像取得部211により、入力I/F101を介して、RGB画像データが取得され、RAM103へ格納されたものとする(S101)。   First, it is assumed that RGB image data is acquired by the image acquisition unit 211 via the input I / F 101 and stored in the RAM 103 (S101).

次に、領域分割部212の領域分割処理により、上述のステップS101で取得したRGB画像データの画像が、文字領域とイメージ領域の2種類のオブジェクト領域に分割される(S102)。   Next, the image of the RGB image data acquired in step S101 described above is divided into two types of object areas, ie, a character area and an image area, by the area dividing process of the area dividing unit 212 (S102).

次に、重み係数導出部213により、領域分割部212で分割されたオブジェクト領域のそれぞれについて、モノクロ輝度値Yを算出するための重み係数WR、WG、WB(RGBの各色成分に乗ずる重み係数)が算出される(S103)。   Next, weighting factors WR, WG, WB (weighting factors multiplied by RGB color components) for calculating the monochrome luminance value Y for each of the object regions divided by the region dividing unit 212 by the weighting factor deriving unit 213. Is calculated (S103).

図5は、重み係数導出部213が行う処理について示したフローチャートである。   FIG. 5 is a flowchart showing the processing performed by the weighting factor deriving unit 213.

図5のフローチャートにおいて、i(1≦i≦I)は、繰り返し処理に用いる変数である。なお、iの初期値は1であるものとする。なお、以下では、オブジェクトIDがiとなるオブジェクト領域を、「オブジェクト領域i」と表わすものとする。また、以下では、オブジェクト領域iに対する、R成分の重み係数をWR、G成分の重み係数をWG、B成分の重み係数をWBとそれぞれ表わすものとする。 In the flowchart of FIG. 5, i (1 ≦ i ≦ I) is a variable used for the iterative process. Note that the initial value of i is 1. In the following, an object area with an object ID i is represented as “object area i”. In the following, for the object region i, the R component weighting coefficient is represented as WR i , the G component weighting coefficient is represented as WG i , and the B component weighting coefficient is represented as WB i .

まず、重み係数導出部213は、オブジェクト領域iのデータをRAM103から抽出して読み込み(S201)、オブジェクト領域iの種類を判定する(S202)。   First, the weighting factor deriving unit 213 extracts and reads the data of the object area i from the RAM 103 (S201), and determines the type of the object area i (S202).

上述のステップS202において、オブジェクト領域iの種類が文字領域と判定された場合には、後述するステップS203に移行し、そうでない場合(オブジェクト領域iの種類がイメージ領域の場合)には、後述するステップS204の処理に移行する。   If it is determined in step S202 that the type of the object area i is a character area, the process proceeds to step S203, which will be described later. Otherwise (if the type of the object area i is an image area), the process will be described later. The process proceeds to step S204.

上述のステップS202において、オブジェクト領域iの種類が文字領域と判定された場合には、重み係数導出部213は、オブジェクト領域iの重み係数WR、WG.WBを、文字領域に適した割合に決定する。そして、重み係数導出部213は、決定した重み係数(WR、WG.WB)を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S203)。 If the type of the object region i is determined to be a character region in step S202 described above, the weighting factor deriving unit 213 determines the weighting factors WR i , WG i . WB i is determined to a ratio suitable for the character area. Then, the weighting factor deriving unit 213 records the determined weighting factors (WR i , WG i .WB i ) in the RAM 103 as data corresponding to the object area i (S203).

重み係数導出部213が、文字領域のオブジェクト領域について適用する重み係数の内容は限定されないものであるが、ここでは、例として、どの波長域の色でも判別しやすい割合を適用するものとする。言い換えると、重み係数導出部213は、文字領域等、識別性を重視する種類のオブジェクト領域に対しては、どの波長域の色でも判別しやすい割合の重み係数を適用することが望ましい。具体的には、重み係数導出部213は、文字領域のオブジェクト領域について、3成分の重みの比を約1:1:1(例えば、WR=0.33、WG=0.34、WB=0.33)にするものとする。 The content of the weighting factor applied to the object region of the character region by the weighting factor deriving unit 213 is not limited, but here, as an example, a ratio that is easy to discriminate in any wavelength range is applied. In other words, it is desirable that the weighting factor deriving unit 213 applies a weighting factor with a ratio that can be easily discriminated in any wavelength region to an object region of a type that emphasizes discrimination, such as a character region. Specifically, the weighting factor deriving unit 213 sets the ratio of the weights of the three components to about 1: 1: 1 (for example, WR i = 0.33, WG i = 0.34, WB) for the object area of the character area. i = 0.33).

上述のステップS202において、オブジェクト領域iの種類がイメージ領域と判定された場合には、重み係数導出部213は、オブジェクト領域iの重み係数WR、WG、WBを、イメージ領域に適した割合に決定する。そして、重み係数導出部213は、決定した重み係数(WR、WG.WB)を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S204)。 If it is determined in step S202 described above that the type of the object area i is an image area, the weight coefficient derivation unit 213 sets the weight coefficients WR i , WG i , and WB i of the object area i to be suitable for the image area. Decide on a percentage. Then, the weighting factor deriving unit 213 records the determined weighting factors (WR i , WG i .WB i ) in the RAM 103 as data corresponding to the object area i (S204).

重み係数導出部213が、イメージ領域のオブジェクト領域について適用する重み係数の内容は限定されないものであるが、ここでは、例として、人が光の強さに対する感度に近い割合を適用するものとする。人の視覚の光に対する感度がGreenの波長域で最も高く、Blueの波長域では低い特性がある。そこで、重み係数導出部213は、イメージ領域等、色の違いや階調性を重視する種類のオブジェクト領域に対して、WGの割合を上げ、WBの割合を下げた重み係数を適用することが望ましい。具体的には、重み係数導出部213は、3成分の重みの比を約3:6:1(例えば、WR=0.30、WG=0.59、WB=0.11)にするものとする。 The content of the weighting factor applied to the object region of the image region by the weighting factor deriving unit 213 is not limited, but here, as an example, it is assumed that a ratio of a person close to the sensitivity to the light intensity is applied. . The sensitivity to human visual light is highest in the Green wavelength range and low in the Blue wavelength range. Therefore, the weighting factor deriving unit 213 applies a weighting factor that increases the ratio of WG i and decreases the ratio of WB i to an object region that emphasizes color difference and gradation, such as an image region. It is desirable. Specifically, the weight coefficient deriving unit 213 sets the ratio of the three component weights to about 3: 6: 1 (for example, WR i = 0.30, WG i = 0.59, WB i = 0.11). It shall be.

上述のステップS203又はS204により、オブジェクト領域iの重み係数が決定され記録されると、重み係数導出部213は、全てのオブジェクト領域について重み係数を導出したか否か(i=Iであるか否か)を判定する(S205)。   When the weighting coefficient of the object area i is determined and recorded in the above-described step S203 or S204, the weighting coefficient deriving unit 213 determines whether the weighting coefficient has been derived for all the object areas (whether i = I). (S205).

上述のステップS205で、重み係数導出部213により、全てのオブジェクト領域について重み係数を導出したと判定された場合(すなわち、i=Iの場合)には、重み係数導出部213は、当該RGB画像データに関する処理を終了する。一方、上述のステップS205で、重み係数導出部213により、まだ重み係数の導出がされていないオブジェクト領域が残っている場合(すなわち、i<Iの場合)には、重み係数導出部213は、変数iをインクリメント(i=i+1)し(S206)、上述ステップS202から動作する。   If the weighting factor deriving unit 213 determines in step S205 described above that the weighting factors have been derived for all object regions (that is, i = I), the weighting factor deriving unit 213 determines that the RGB image Terminates processing related to data. On the other hand, in the above-described step S205, when the object region for which the weighting factor is not yet derived by the weighting factor deriving unit 213 remains (that is, when i <I), the weighting factor deriving unit 213 The variable i is incremented (i = i + 1) (S206), and the operation starts from step S202 described above.

以上のように、重み係数導出部213では、RGB画像データを構成する各オブジェクト領域について重み係数が導出される。   As described above, the weighting factor deriving unit 213 derives a weighting factor for each object region constituting the RGB image data.

次に、輝度値算出部214にて、上述のステップS103で導出した重み係数に基づき、各画素の輝度値Yが算出される(S104)。輝度値算出部214は、各画素の輝度値Yについて、以下の式(1)に従い、各画素のRGB色成分値に、各画素が属するオブジェクト領域iの重み係数WR、WG、WBを乗ずることで得るものとする。 Next, the luminance value calculation unit 214 calculates the luminance value Y of each pixel based on the weighting factor derived in step S103 described above (S104). For the luminance value Y of each pixel, the luminance value calculating unit 214 follows the following equation (1) and assigns the weighting factors WR i , WG i , WB i of the object region i to which each pixel belongs to the RGB color component value of each pixel. It is obtained by multiplying.

Y=WR×R+WG×G+WB×B …(1)
次に、モノクロ画像生成部215にて、上述のステップS104で算出した各画素の輝度値Yにより、入力カラー画像のRGB色成分値を輝度値Yに変換したモノクロ画像データが生成される(S105)。
Y = WR i × R + WG i × G + WB i × B (1)
Next, the monochrome image generation unit 215 generates monochrome image data obtained by converting the RGB color component value of the input color image into the luminance value Y based on the luminance value Y of each pixel calculated in step S104 described above (S105). ).

次に、画像形成部22により、ステップS105で生成されたモノクロ画像データが取得される。そして、画像形成部22により、モノクロ画像データについて、CMYK4色のトナー色材のうちの1色(例えばK)で表現可能なハーフトーン処理を施したモノクロ2値画像データに変換される。そして、画像形成部22により、出力部107が制御され、変換したモノクロ2値画像に基づいて記録媒体(例えば、紙葉類等)にトナー像が形成される(S106)。   Next, the image forming unit 22 acquires the monochrome image data generated in step S105. Then, the image forming unit 22 converts the monochrome image data into monochrome binary image data that has been subjected to halftone processing that can be expressed by one color (for example, K) of the CMYK four color toner color materials. Then, the output unit 107 is controlled by the image forming unit 22, and a toner image is formed on a recording medium (for example, a paper sheet) based on the converted monochrome binary image (S106).

次に、上述のフローチャートの処理に従って、プリンタ100がRGB画像データを処理した場合の結果の例について説明する。   Next, an example of a result when the printer 100 processes RGB image data according to the processing of the above-described flowchart will be described.

図6は、画像処理部21がRGB画像データを処理した場合の結果の例について示して説明図である。なお、第1の実施形態において、画像処理部21が出力するのは、RGB画像データから形成したモノクロ画像データであるが、図6では、図示の都合上、ハーフトーン処理を施したモノクロ2値画像を用いて説明している。   FIG. 6 is an explanatory diagram illustrating an example of a result when the image processing unit 21 processes RGB image data. In the first embodiment, the image processing unit 21 outputs monochrome image data formed from RGB image data. In FIG. 6, for the convenience of illustration, monochrome binary data subjected to halftone processing is output. This is explained using images.

図6(a)は、画像処理部21が処理したモノクロ画像に基づくモノクロ2値画像の例について示している。   FIG. 6A shows an example of a monochrome binary image based on the monochrome image processed by the image processing unit 21.

図6(a)の画像では、「旬の野菜」という文字列(以下では、この文字列を構成する文字領域を「領域A201」と呼ぶものとする)と、「こちらまで→XXXX」という文字列(以下では、この文字列を構成する文字領域を「領域A202」と呼ぶものとする)が表わされている。また、領域A201の各文字は、処理前のRGB画像データでは、緑色で表わされていたものである。さらに、領域A202の各文字は、処理前のRGB画像データでは、黄色で表わされていたものである。   In the image of FIG. 6A, a character string “seasonal vegetable” (hereinafter, a character area constituting this character string is referred to as “area A201”) and a character “to here → XXXX”. A string (hereinafter, a character area constituting the character string is referred to as “area A202”) is shown. Each character in the region A201 is represented in green in the RGB image data before processing. Further, each character in the area A202 is represented in yellow in the RGB image data before processing.

図6(a)の画像では、レタスのイメージ(以下、このイメージの領域を「領域A203」と呼ぶものとする)と、レモンのイメージ(以下では、このイメージの領域を「領域A204」と呼ぶものとする)が表わされている。また、領域A203のイメージは、処理前のRGB画像データでは、主に緑色を用いて表わされていたものである。さらに、領域A204のイメージは、処理前のRGB画像データでは、主に黄色で表わされていたものである。   In the image of FIG. 6A, a lettuce image (hereinafter, this image region is referred to as “region A203”) and a lemon image (hereinafter, this image region is referred to as “region A204”). Suppose). In addition, the image of the area A203 is mainly represented using green in the RGB image data before processing. Further, the image of the area A204 is mainly represented in yellow in the RGB image data before processing.

図6(b)〜図6(d)は、それぞれ異なる条件でモノクロ2値画像データを形成した場合における領域A201〜A204の一部を拡大表示した拡大画像(LG11〜LG13、LG21〜LG23、LG31〜LG33、LG41〜LG43)を示している。   6B to 6D are enlarged images (LG11 to LG13, LG21 to LG23, LG31) in which a part of the areas A201 to A204 is enlarged when monochrome binary image data is formed under different conditions. To LG33, LG41 to LG43).

図6(b)では、処理前の画像を構成する全ての画素について、重み係数をWR:WG:WB=3:6:1とした場合に形成されるモノクロ2値画像を現している。図6(c)では、処理前の画像を構成する全ての画素について、重み係数をWR:WG:WB=1:1:1とした場合に形成されるモノクロ2値画像を表わしている。図6(d)では、処理前の画像の文字領域について重み係数をWR:WG:WB=1:1:1とし、さらに、処理前の画像のイメージ領域について重み係数をWR:WG:WB=3:6:1とした場合に形成されるモノクロ2値画像を表わしている。   FIG. 6B shows a monochrome binary image formed when the weighting factors are set to WR: WG: WB = 3: 6: 1 for all pixels constituting the image before processing. FIG. 6C shows a monochrome binary image formed when the weighting factors are set to WR: WG: WB = 1: 1: 1 for all the pixels constituting the image before processing. In FIG. 6D, the weighting factor is set to WR: WG: WB = 1: 1: 1 for the character region of the image before processing, and the weighting factor is set to WR: WG: WB = for the image region of the image before processing. It represents a monochrome binary image formed when 3: 6: 1.

図6(b)〜図6(d)において、拡大画像LG11〜LG13は、領域A201の一部を拡大した拡大画像である。また、図6(b)〜図6(d)において、拡大画像LG21〜LG23は、領域A202の一部を拡大した拡大画像である。さらに、図6(b)〜図6(d)において、拡大画像LG31〜LG33は、領域A203の一部を拡大した拡大画像である。さらにまた、図6(b)〜図6(d)において、拡大画像LG41〜LG43は、領域A204の一部を拡大した拡大画像である。   6B to 6D, enlarged images LG11 to LG13 are enlarged images obtained by enlarging a part of the region A201. In FIGS. 6B to 6D, enlarged images LG21 to LG23 are enlarged images obtained by enlarging a part of the region A202. Further, in FIGS. 6B to 6D, enlarged images LG31 to LG33 are enlarged images obtained by enlarging a part of the region A203. Furthermore, in FIGS. 6B to 6D, enlarged images LG41 to LG43 are enlarged images obtained by enlarging a part of the region A204.

図6(b)の場合(画像内の全ての画素の重み係数をWR:WG:WB=3:6:1とした場合)、緑の文字領域(LG11)と黄色の文字領域(LG21)の色の違いは濃度の違いとしてはっきりしている。また、図6(b)の場合、緑のイメージ領域(LG31)と黄色のイメージ領域(LG41)の色の違いも、濃度の違いとしてはっきりしている。しかし、図6(b)の場合、黄色の文字領域(LG21)はかなり薄く判別しにくい。   In the case of FIG. 6B (when the weighting coefficients of all the pixels in the image are set to WR: WG: WB = 3: 6: 1), the green character region (LG11) and the yellow character region (LG21) The difference in color is obvious as the difference in density. In the case of FIG. 6B, the difference in color between the green image region (LG31) and the yellow image region (LG41) is also clear as a difference in density. However, in the case of FIG. 6B, the yellow character region (LG21) is very thin and difficult to distinguish.

また、図6(c)の場合(画像内の全ての画素の重み係数をWR:WG:WB=1:1:1とした場合)、黄色の文字領域LG22は、図6(b)の場合と比較して濃度が上がり判別しやすくなる。しかし、図6(c)の場合、緑の文字領域LG12や、緑色のイメージ領域(LG32)はやや薄くなり、黄色の文字領域(LG12)や、黄色のイメージ領域(LG42)との差が少なくなるため、特にイメージ領域の印象が元の画像と変わってしまう。   In the case of FIG. 6C (when the weighting coefficients of all the pixels in the image are set to WR: WG: WB = 1: 1: 1), the yellow character region LG22 is the case of FIG. 6B. Compared to the above, the density increases and it becomes easier to distinguish. However, in the case of FIG. 6C, the green character region LG12 and the green image region (LG32) are slightly thinner, and the difference from the yellow character region (LG12) and the yellow image region (LG42) is small. Therefore, the impression of the image area in particular changes from the original image.

次に、図6(d)の場合(第1の実施形態の画像処理部21を用いて処理した場合)には、緑色の文字領域(LG13)と、黄色の文字領域(LG23)は濃度もあり識別しやすく、かつ緑色のイメージ領域(LG33)と黄色のイメージ領域(LG43)との色の差は濃度差に反映されているため、文字の識別性の高さとイメージの色の違いという必要な情報を保つことができる。   Next, in the case of FIG. 6D (when processing is performed using the image processing unit 21 of the first embodiment), the green character region (LG13) and the yellow character region (LG23) also have densities. It is easy to identify, and the difference in color between the green image region (LG33) and the yellow image region (LG43) is reflected in the density difference, so it is necessary to have high character discrimination and a difference in image color Can keep a lot of information.

(A−3)第1の実施形態の効果
第1の実施形態によれば、以下のような効果を奏することができる。
(A-3) Effects of First Embodiment According to the first embodiment, the following effects can be achieved.

第1の実施形態の画像処理部21では、文字領域とイメージ領域で、異なる重み係数を用いて輝度値を算出し、さらに、その輝度値に基づいたモノクロ画像を生成している。これにより、第1の実施形態の画像処理部21では、生成したモノクロ画像の文字領域やイメージ領域の内容の識別性を高め、必要な情報の欠落を防ぐことができる。   In the image processing unit 21 of the first embodiment, the luminance value is calculated using different weighting factors for the character area and the image area, and a monochrome image based on the luminance value is generated. Thereby, in the image processing unit 21 of the first embodiment, it is possible to improve the distinguishability of the content of the generated monochrome image and the content of the image region, and prevent the loss of necessary information.

(B)第2の実施形態
以下、本発明による画像処理装置及びプログラム、並びに、画像形成装置の第2の実施形態を、図面を参照しながら詳述する。なお、第2の実施形態では、本発明の画像形成装置を、プリンタに適用した例について説明する。
(B) Second Embodiment Hereinafter, an image processing apparatus, a program, and an image forming apparatus according to a second embodiment of the present invention will be described in detail with reference to the drawings. In the second embodiment, an example in which the image forming apparatus of the present invention is applied to a printer will be described.

(B−1)第2の実施形態の構成
以下、第2の実施形態のプリンタ100Aについて、第1の実施形態との差異について説明する。
(B-1) Configuration of Second Embodiment Hereinafter, a difference between the printer 100A of the second embodiment and the first embodiment will be described.

第2の実施形態のプリンタ100Aのハードウェア的構成については、上述の図2で示すことができる。   The hardware configuration of the printer 100A of the second embodiment can be shown in FIG.

次に、第2の実施形態のプリンタ100Aの機能的構成について説明する。   Next, a functional configuration of the printer 100A according to the second embodiment will be described.

図7は、第2の実施形態のプリンタ100Aの機能的構成を示すブロック図であり、上述した図1との同一、対応部分には同一、対応符号を付して示している。   FIG. 7 is a block diagram illustrating a functional configuration of the printer 100A according to the second embodiment. The same and corresponding parts as those in FIG. 1 are denoted by the same reference numerals.

第2の実施形態のプリンタ100Aでは、画像処理部21が画像処理部21Aに置き換わっている点で第1の実施形態と異なっている。また、第2の実施形態の画像処理部21Aでは、領域分割部212及び重み係数導出部213が、領域分割部212A及び重み係数導出部213Aに置き換わっている点で、第1の実施形態と異なっている。また、第2の実施形態の画像処理部21Aでは、色情報取得手段としての色情報取得部216が追加されている点で、第1の実施形態と異なっている。その他の構成については、第1の実施形態と同様であるため詳しい説明は省略する。   The printer 100A according to the second embodiment is different from the first embodiment in that the image processing unit 21 is replaced with the image processing unit 21A. Further, the image processing unit 21A of the second embodiment differs from the first embodiment in that the region dividing unit 212 and the weighting factor deriving unit 213 are replaced with the region dividing unit 212A and the weighting factor deriving unit 213A. ing. Further, the image processing unit 21A of the second embodiment is different from the first embodiment in that a color information acquisition unit 216 as a color information acquisition unit is added. Since other configurations are the same as those of the first embodiment, detailed description thereof is omitted.

第1の実施形態の領域分割部212は、RGB画像データの画像から、文字領域及びイメージ領域を認識し、認識したそれぞれの領域をオブジェクト領域として分割する処理を行っていた。これに対して、第2の実施形態の領域分割部212Aは、文字領域について、文字エッジ領域と、文字エッジ領域により囲まれた文字内部領域とを、別のオブジェクト領域として処理する。すなわち、第2の実施形態の領域分割部212Aは、RGB画像データの画像から、文字エッジ領域、文字内部領域、及びイメージ領域の3種類の領域を認識し、認識したそれぞれの領域をオブジェクト領域として分割する処理を行う。   The area dividing unit 212 of the first embodiment recognizes a character area and an image area from an image of RGB image data, and performs a process of dividing each recognized area as an object area. On the other hand, the area dividing unit 212A according to the second embodiment processes the character edge area and the character internal area surrounded by the character edge area as separate object areas for the character area. That is, the area dividing unit 212A according to the second embodiment recognizes three types of areas, that is, a character edge area, a character internal area, and an image area, from the image of RGB image data, and sets each recognized area as an object area. Process to divide.

領域分割部212Aが、RGB画像データの画像から、文字エッジ領域、文字内部領域、及びイメージ領域の3種類の領域を認識する方式については限定されないものである。第2の実施形態でも、領域分割部212Aの領域分割処理には、上述の参考文献1の記載技術を用いることができる。参考文献1の記載技術では、上述の通り、文字領域が抽出される過程で、文字エッジ領域と、文字内部領域が抽出される。したがって、領域分割部212Aでは、上述の参考文献1の記載技術を用いることにより、RGB画像データの画像から、文字エッジ領域、文字内部領域、及びイメージ領域の3種類の領域を認識することができる。   The method in which the region dividing unit 212A recognizes three types of regions, that is, a character edge region, a character internal region, and an image region, from an image of RGB image data is not limited. Also in the second embodiment, the technique described in Reference 1 described above can be used for the area dividing process of the area dividing unit 212A. In the technique described in Reference 1, as described above, the character edge region and the character internal region are extracted in the process of extracting the character region. Therefore, the region dividing unit 212A can recognize three types of regions, that is, a character edge region, a character internal region, and an image region, from the image of the RGB image data by using the technique described in Reference Document 1 described above. .

次に、領域分割部212Aが行う分割処理について、上述の図3(b)の例を用いて説明する。第1の実施形態の領域分割部212では、領域A101と領域A104を併せて一つの文字領域のオブジェクト領域と認識していた。しかし、第2の実施形態の領域分割部212Aでは、領域A101を文字エッジ領域のオブジェクト領域、領域A104を文字内部領域のオブジェクト領域と、それぞれ別のオブジェクト領域として分割することになる。   Next, the dividing process performed by the area dividing unit 212A will be described using the example of FIG. In the area dividing unit 212 of the first embodiment, the area A101 and the area A104 are recognized as an object area of one character area. However, in the area dividing unit 212A according to the second embodiment, the area A101 is divided into a character edge area object area, and the area A104 is divided into a character internal area object area and a separate object area.

色情報取得部216は、領域分割部212Aにて分割したオブジェクト領域のうち、少なくとも文字エッジ領域のオブジェクト領域について、当該オブジェクト領域で主成分となる色を判定する。そして、色情報取得部216は、その判定結果を色情報として取得する。ここで「色情報」とは、各オブジェクト領域の主成分となる色を示す情報であり、Red、Yellow、Green、Cyan、Blue、Magenta、Grayの7色の何れかで表わされるものとする。言い換えると、色情報取得部216は、当該オブジェクト領域で主成分となる色が、上述の7色のいずれに該当するのかを判定する。ここでは、色情報は、上述の7色で示されるものとして説明するが、その色数は限定されないものである。   The color information acquisition unit 216 determines a color that is a main component in the object region of at least the character edge region among the object regions divided by the region dividing unit 212A. Then, the color information acquisition unit 216 acquires the determination result as color information. Here, the “color information” is information indicating a color that is a main component of each object area, and is represented by any one of seven colors of Red, Yellow, Green, Cyan, Blue, Magenta, and Gray. In other words, the color information acquisition unit 216 determines which of the above seven colors corresponds to the color that is the main component in the object region. Here, the color information is described as being represented by the above seven colors, but the number of colors is not limited.

重み係数導出部213Aは、領域分割部212Aにて分割したオブジェクト領域に対し、色情報取得部216で取得した領域内の色情報に基づき、オブジェクト領域毎に異なる重み係数を導出する。   The weighting factor deriving unit 213A derives a different weighting factor for each object region based on the color information in the region acquired by the color information acquiring unit 216 for the object region divided by the region dividing unit 212A.

ここでは、重み係数導出部213Aは、色情報ごとの重み係数を登録したテーブル(以下、「重み係数テーブル」という)を備えているものとする。そして、重み係数導出部213Aは、それぞれのオブジェクト領域について、当該オブジェクト領域の色情報に対応する重み係数を、重み係数テーブルから求める。   Here, it is assumed that the weighting factor deriving unit 213A includes a table in which weighting factors for each color information are registered (hereinafter referred to as “weighting factor table”). Then, the weighting factor deriving unit 213A obtains, for each object region, a weighting factor corresponding to the color information of the object region from the weighting factor table.

図11は、重み係数テーブルの内容例について示した説明図である。   FIG. 11 is an explanatory diagram showing an example of the contents of the weighting coefficient table.

重み係数テーブルには、図11に示すように、色情報の色(上述の7色)ごとに対応する重み係数(WR、WG、WB)が登録されている。   In the weighting coefficient table, as shown in FIG. 11, weighting coefficients (WR, WG, WB) corresponding to each color of the color information (the above-mentioned seven colors) are registered.

図11に示すように、重み係数テーブルの各重み係数は、色情報の各色についての捕色フィルターとして働く係数となっている。図11に示す重み係数テーブルでは、第1の実施形態と比較して、文字エッジ領域に対して算出される輝度値が低め(モノクロ画像での濃度が高め)になるように設定されている。   As shown in FIG. 11, each weight coefficient in the weight coefficient table is a coefficient that functions as a color catching filter for each color of the color information. In the weighting coefficient table shown in FIG. 11, the brightness value calculated for the character edge region is set lower (higher density in a monochrome image) than in the first embodiment.

例えば、図11では、色情報がREDの重み係数は、WR=0.00、WG=0.50、WB=0.50としている。色情報取得部216により、当該文字エッジ領域の主たる色成分がREDと判定されたということは、当該文字エッジ領域の各画素はRGBのうちRの成分を多く含んでいることを意味する。したがって、当該文字エッジ領域に適用する重み係数のうち、重み係数WRの比率を下げれば、当該文字エッジ領域の輝度値が低め(モノクロ画像での濃度が高め)になる。そのため、図11では、色情報がREDの重み係数において、WRの重みを0.00に下げている。同様に、色情報がGreenに対応する重み係数では、WGの重みを下げている。また、色情報Blueに対応する重み係数では、WBの重みを下げている。さらに、色情報Yellowに対応する重み係数では、Yellowを示す成分の重み(WR及びWG)を下げている。さらにまた、色情報Cyanに対応する重み係数では、Cyanを示す成分の重み(WG及びWB)を下げている。また、色情報Magentaに対応する重み係数では、Magentaを示す成分の重み(WR及びWB)を下げている。色情報Grayは無彩色であるので、図11では、WR、WG、WBが同じ重みとなるように設定している。   For example, in FIG. 11, the weighting factors for the color information RED are WR = 0.00, WG = 0.50, and WB = 0.50. When the color information acquisition unit 216 determines that the main color component of the character edge region is RED, it means that each pixel of the character edge region includes a large amount of R component of RGB. Therefore, if the ratio of the weighting factor WR among the weighting factors applied to the character edge region is lowered, the luminance value of the character edge region is lowered (the density in the monochrome image is increased). For this reason, in FIG. 11, the WR weight is reduced to 0.00 in the weight coefficient of the color information RED. Similarly, the weight of the WG is lowered in the weight coefficient corresponding to the color information Green. In addition, the weight of the WB is lowered in the weight coefficient corresponding to the color information Blue. Furthermore, in the weighting coefficient corresponding to the color information Yellow, the weights (WR and WG) of the components indicating Yellow are lowered. Furthermore, in the weighting coefficient corresponding to the color information Cyan, the weights of the components indicating Cyan (WG and WB) are lowered. Further, in the weighting coefficient corresponding to the color information Magenta, the weights (WR and WB) of the components indicating Magenta are lowered. Since the color information Gray is an achromatic color, WR, WG, and WB are set to have the same weight in FIG.

なお、文字エッジ領域に対して算出される輝度値が、第1の実施形態と比較して低めになるような重み係数であれば、重み係数テーブルの内容は、上述の図11の内容に限定されないものである。   If the luminance value calculated for the character edge region is a weighting factor that is lower than that of the first embodiment, the content of the weighting factor table is limited to the content of FIG. 11 described above. Is not.

(B−2)第2の実施形態の動作
次に、以上のような構成を有する第2の実施形態のプリンタ100Aの動作を説明する。
(B-2) Operation of Second Embodiment Next, the operation of the printer 100A of the second embodiment having the above configuration will be described.

図8は、プリンタ100Aの動作の概要について示したフローチャートである。   FIG. 8 is a flowchart showing an outline of the operation of the printer 100A.

まず、画像取得部211により、入力I/F101を介して、RGB画像データが取得され、RAM103又はHDD106へ格納されたものとする(S301)。ステップS302の処理は、第1の実施形態(上述のステップS101)と同様であるため詳しい説明を省略する。   First, it is assumed that RGB image data is acquired by the image acquisition unit 211 via the input I / F 101 and stored in the RAM 103 or the HDD 106 (S301). Since the process of step S302 is the same as that of the first embodiment (the above-described step S101), detailed description thereof is omitted.

次に、領域分割部212の領域分割処理により、上述のステップS301で取得したRGB画像データの画像が、文字エッジ領域、文字内部領域、及びイメージ領域の3種類のオブジェクト領域に分割される(S302)。   Next, by the region dividing process of the region dividing unit 212, the image of the RGB image data acquired in step S301 described above is divided into three types of object regions: a character edge region, a character internal region, and an image region (S302). ).

そして、色情報取得部216にて、上述のステップS302で分割したオブジェクト領域毎に、当該領域内の色情報を取得する(S303)。第2の実施形態では、各オブジェクト領域で主成分となる色の属性を判定する。そして、色情報取得部216は、その判定結果を、当該オブジェクト領域の色情報として取得する。具体的には、色情報取得部216は、当該オブジェクト領域内のそれぞれの画素の色成分値(RGBの各成分の値)に基づいて、それぞれの画素がRed、Yellow、Green、Cyan、Blue、Magenta、Grayの7つに分類される色情報のうちいずれに属するかを判定する。そして、色情報取得部216は、当該領域内で最も多くの画素の情報をその領域の色情報とするものとする。   Then, the color information acquisition unit 216 acquires color information in the area for each object area divided in step S302 (S303). In the second embodiment, the attribute of the color that is the main component in each object region is determined. Then, the color information acquisition unit 216 acquires the determination result as color information of the object area. Specifically, the color information acquisition unit 216 determines that each pixel is red, yellow, green, cyan, blue, based on the color component value (value of each component of RGB) of each pixel in the object region. It is determined which of the seven types of color information classified into Magenta and Gray belongs. Then, the color information acquisition unit 216 assumes that the information on the most pixels in the area is the color information of the area.

図9は、色情報取得部216の具体的処理の例について示したフローチャートである。   FIG. 9 is a flowchart illustrating an example of specific processing of the color information acquisition unit 216.

なお、図9のフローチャートにおいて、i(1≦i≦I)、j(1≦j≦J)は、繰り返し処理に用いる変数である。また、iの初期値は1であり、以下では、オブジェクトIDがiとなるオブジェクト領域を、「オブジェクト領域i」と表わすものとする。さらに、以下では、オブジェクト領域iを構成する画素の総数をJと表すものとする。さらにまた、jの初期値は1であり、以下では、オブジェクト領域iを構成するj番目の画素を「画素j」と表すものとする。また、以下では、オブジェクト領域iの色情報を「C」と表し、画素jの色情報を「Ci−j」と表すものとする。 In the flowchart of FIG. 9, i (1 ≦ i ≦ I) and j (1 ≦ j ≦ J) are variables used for the iterative process. In addition, the initial value of i is 1, and in the following, an object area with an object ID i is represented as “object area i”. Further, in the following, it is assumed that the total number of pixels constituting the object area i is represented as J. Furthermore, the initial value of j is 1, and hereinafter, the j-th pixel constituting the object area i is represented as “pixel j”. Hereinafter, the color information of the object region i is represented as “C i ”, and the color information of the pixel j is represented as “C i−j ”.

まず、色情報取得部216は、RGB画像データから、オブジェクト領域iを構成する各画素のデータを抽出する(S401)。   First, the color information acquisition unit 216 extracts data of each pixel constituting the object area i from the RGB image data (S401).

次に、色情報取得部216は、オブジェクト領域iを構成する画素jのデータを抽出する(S402)。   Next, the color information acquisition unit 216 extracts data of the pixel j constituting the object area i (S402).

次に、色情報取得部216は、RGB形式で示された画素jについて、HSV(Hue Saturation Value)色空間における色相値Hを得る(S403)。   Next, the color information acquisition unit 216 obtains a hue value H in an HSV (Hue Saturation Value) color space for the pixel j indicated in the RGB format (S403).

RGB形式で示された画素jについて、HSV色空間における式相値Hを求める方法は限定されないものであるが、ここでは以下の(2)式〜(6)式を用いて変換するものとして説明する。   The method of obtaining the formula phase value H in the HSV color space for the pixel j shown in the RGB format is not limited, but here it is assumed that conversion is performed using the following formulas (2) to (6). To do.

まず、色情報取得部216は、以下の(2)、(3)式を用いて、画素jのR、G、B値のうちの最大値(MAX)と最小値(MIN)を求める。   First, the color information acquisition unit 216 obtains the maximum value (MAX) and the minimum value (MIN) among the R, G, and B values of the pixel j using the following equations (2) and (3).

そして、色情報取得部216は、MAX=MINでない場合には、以下の(4)、(5)式により、画素jの色相値Hを求める。以下の(4)、(5)式では、Red、Yellow、Green、Cyan、Blue、Magenta、Redの順に、色相値が0〜359の値で表されている。一方、MAX=MINの場合、画素jは無彩色(Gray)であるため、色情報取得部216は、以下の(6)式に示すように、色相値Hとして、色相未確定を示す値(NULL)を得る。

Figure 0005687560
Then, when MAX = MIN is not satisfied, the color information acquisition unit 216 obtains the hue value H of the pixel j using the following equations (4) and (5). In the following formulas (4) and (5), hue values are represented by values of 0 to 359 in the order of Red, Yellow, Green, Cyan, Blue, Magenta, and Red. On the other hand, when MAX = MIN, since the pixel j is an achromatic color (Gray), the color information acquisition unit 216 has a value indicating the hue indefinite as the hue value H as shown in the following equation (6) ( NULL).
Figure 0005687560

次に、色情報取得部216は、上述のステップS403で求めた色相値Hに基づき、画素jの色情報Ci−jを以下の式(7)により決定する(S404)。

Figure 0005687560
Then, the color information acquiring unit 216, based on the hue value H obtained in step S403 described above, it is determined by Equation (7) below the color information C i-j of the pixel j (S404).
Figure 0005687560

次に、色情報取得部216は、オブジェクト領域i内の全ての画素の色情報を決定したか否か(すなわち、j=Jであるか否か)を判定する(S405)。オブジェクト領域i内の全ての画素の色情報を決定した場合(すなわちj=Jの場合)には、色情報取得部216は、jを初期化(j=1)して、後述するステップS407の処理から動作する。一方、まだオブジェクト領域i内で色情報を決定していない画素が残っている場合(すなわちj<Jの場合)には、色情報取得部216は、jをインクリメント(j=j+1)し(S406)、上述のステップS402の処理に戻って動作する。   Next, the color information acquisition unit 216 determines whether the color information of all the pixels in the object region i has been determined (that is, whether j = J) (S405). When the color information of all the pixels in the object area i is determined (that is, when j = J), the color information acquisition unit 216 initializes j (j = 1) and performs step S407 to be described later. Work from processing. On the other hand, when there are still pixels for which color information is not determined in the object area i (that is, when j <J), the color information acquisition unit 216 increments j (j = j + 1) (S406). ), The operation returns to the process of step S402 described above.

一方、上述のステップS405で、オブジェクト領域i内の全ての画素の色情報を決定したと判定された場合(すなわちj=Jの場合)には、色情報取得部216は、オブジェクト領域i内の全ての画素の色情報(Ci−1〜Ci−j)で、最も数の多い色情報を、オブジェクト領域iの色情報Cと決定する。 On the other hand, if it is determined in step S405 described above that the color information of all the pixels in the object area i has been determined (that is, if j = J), the color information acquisition unit 216 Among the color information (C i−1 to C i−j ) of all the pixels, the most numerous color information is determined as the color information C i of the object area i.

次に、色情報取得部216は、RGB画像データを構成する全てのオブジェクト領域について色情報を決定したか否か(すなわちi=Iであるか否か)を確認する(S407)。RGB画像データを構成する全てのオブジェクト領域について色情報を決定した場合(すなわちi=Iの場合)には、色情報取得部216は、処理を終了する。一方、RGB画像データで色情報を決定していないオブジェクト領域が残っている場合(すなわちi<Iの場合)には、色情報取得部216は、iをインクリメント(i=i+1)し(S409)、上述のステップS401の処理に戻って動作する。   Next, the color information acquisition unit 216 confirms whether or not the color information has been determined for all the object areas constituting the RGB image data (that is, whether i = I) (S407). When the color information is determined for all the object areas constituting the RGB image data (that is, when i = I), the color information acquisition unit 216 ends the process. On the other hand, if there is an object area for which color information is not determined in the RGB image data (that is, if i <I), the color information acquisition unit 216 increments i (i = i + 1) (S409). Then, the operation returns to the above-described step S401.

以上のように、色情報取得部216は、RGB画像データを構成する各オブジェクト領域内での主たる色を、一次色(Red、Green、Blue)、二次色(Yellow、Cyan、Magenta)または無彩色(Gray)で分類した結果を領域毎の色情報として得る。   As described above, the color information acquisition unit 216 selects a primary color (Red, Green, Blue), a secondary color (Yellow, Cyan, Magenta) or none as the main color in each object area constituting the RGB image data. A result classified by coloring (Gray) is obtained as color information for each region.

なお、図9では、全てのオブジェクト領域について色情報を求める処理を行っているが、文字エッジ領域のオブジェクト領域についてだけ求めるようにしても良い。例えば、色情報取得部216は、文字エッジ領域以外のオブジェクト領域については、色情報の取得をスキップするようにしても良い。   In FIG. 9, the color information is obtained for all the object areas, but it may be obtained only for the object area of the character edge area. For example, the color information acquisition unit 216 may skip the acquisition of color information for an object area other than a character edge area.

次に、重み係数導出部213Aは、上述のステップS303で取得したオブジェクト領域毎に、モノクロ輝度値Yを算出するための重み係数WR、WG、WBを導出する。   Next, the weighting factor deriving unit 213A derives the weighting factors WR, WG, and WB for calculating the monochrome luminance value Y for each object region acquired in step S303 described above.

図10は、重み係数導出部213Aの動作例について示したフローチャートである。   FIG. 10 is a flowchart illustrating an operation example of the weighting factor deriving unit 213A.

図10のフローチャートにおいて、i(1≦i≦I)は、繰り返し処理に用いる変数である。また、iの初期値は1であり、オブジェクトIDがiとなるオブジェクト領域を、「オブジェクト領域i」と表わすものとする。また、以下では、オブジェクト領域iに対する、R成分の重み係数をWR、G成分の重み係数をWG、B成分の重み係数をWBとそれぞれ表わすものとする。 In the flowchart of FIG. 10, i (1 ≦ i ≦ I) is a variable used for the iterative process. The initial value of i is 1, and an object area with an object ID i is represented as “object area i”. In the following, for the object region i, the R component weighting coefficient is represented as WR i , the G component weighting coefficient is represented as WG i , and the B component weighting coefficient is represented as WB i .

まず、重み係数導出部213Aは、オブジェクト領域iのデータを、RAM103から抽出し(S501)、オブジェクト領域iの種類が文字エッジ領域であるか否かを判定する(S502)。   First, the weighting factor deriving unit 213A extracts the data of the object area i from the RAM 103 (S501), and determines whether the type of the object area i is a character edge area (S502).

上述のステップS502において、オブジェクト領域iの種類が文字エッジ領域と判定された場合には、重み係数導出部213Aは、後述するステップS503に移行し、そうでない場合(オブジェクト領域iの種類が、文字内部領域又はイメージ領域の場合)には、後述するステップS505の処理に移行する。   If it is determined in step S502 described above that the type of the object area i is a character edge area, the weighting factor deriving unit 213A proceeds to step S503 described later, and otherwise (the type of the object area i is a character edge In the case of an internal area or an image area), the process proceeds to step S505 described later.

上述のステップS502において、オブジェクト領域iの種類が文字エッジ領域と判定された場合には、重み係数導出部213Aは、オブジェクト領域iの色情報をRAM103から参照して取得する(S503)。   If it is determined in step S502 described above that the type of the object area i is a character edge area, the weight coefficient deriving unit 213A obtains the color information of the object area i by referring to the RAM 103 (S503).

次に、重み係数導出部213Aは、重み係数テーブルを参照して、オブジェクト領域iの色情報に対応する重み係数を取得する。そして、重み係数導出部213Aは、取得した重み係数を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S504)。   Next, the weighting factor deriving unit 213A refers to the weighting factor table and acquires a weighting factor corresponding to the color information of the object area i. Then, the weighting factor deriving unit 213A records the acquired weighting factor in the RAM 103 as data corresponding to the object area i (S504).

一方、上述のステップS502において、オブジェクト領域iの種類が文字エッジ領域と判定されなかった場合には、重み係数導出部213Aは、オブジェクト領域iの種類が文字内部領域であるか否かを判定する(S505)。   On the other hand, if the type of the object area i is not determined to be the character edge area in step S502 described above, the weighting factor deriving unit 213A determines whether the type of the object area i is the character internal area. (S505).

上述のステップS505において、オブジェクト領域iの種類が文字内部領域と判定された場合には、重み係数導出部213Aは、後述するステップS506に移行し、そうでない場合(オブジェクト領域iの種類が、イメージ領域の場合)には、後述するステップS507の処理に移行する。   If it is determined in step S505 described above that the type of the object area i is a character internal area, the weighting factor deriving unit 213A proceeds to step S506 described below, and otherwise (the type of the object area i is an image. In the case of an area), the process proceeds to step S507 described later.

上述のステップS502において、オブジェクト領域iの種類が文字内部領域と判定された場合には、重み係数導出部213Aは、オブジェクト領域iの重み係数(WR、WG.WB)を、文字領域に適した割合(例えば、WR=0.33、WG=0.34、WB=0.33)に決定する。そして、重み係数導出部213Aは、決定した重み係数を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S506)。 If it is determined in step S502 that the type of the object area i is a character internal area, the weight coefficient deriving unit 213A determines the weight coefficient (WR i , WG i .WB i ) of the object area i as the character area. (For example, WR i = 0.33, WG i = 0.34, WB i = 0.33). Then, the weighting factor deriving unit 213A records the determined weighting factor in the RAM 103 as data corresponding to the object area i (S506).

上述のステップS502において、オブジェクト領域iの種類がイメージ領域と判定された場合には、重み係数導出部213Aは、オブジェクト領域iの重み係数(WR、WG、WB)を、イメージ領域に適した割合(例えば、WR=0.30、WG=0.59、WB=0.11)に決定する。そして、重み係数導出部213Aは、決定した重み係数を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S504)。 When it is determined in step S502 that the type of the object area i is an image area, the weight coefficient deriving unit 213A uses the weight coefficients (WR i , WG i , WB i ) of the object area i as image areas. A suitable ratio (for example, WR i = 0.30, WG i = 0.59, WB i = 0.11) is determined. Then, the weighting factor deriving unit 213A records the determined weighting factor in the RAM 103 as data corresponding to the object area i (S504).

上述のステップS504、S506、S507のいずれかにより、オブジェクト領域iの重み係数が決定されると、重み係数導出部213Aは、全てのオブジェクト領域について重み係数を導出したか否か(すなわちi=Iであるか否か)を判定する(S508)。   When the weighting coefficient of the object area i is determined by any of the above-described steps S504, S506, and S507, the weighting coefficient deriving unit 213A determines whether or not the weighting coefficient has been derived for all the object areas (that is, i = I (S508).

上述のステップS508で、全てのオブジェクト領域について重み係数を導出したと判定された場合(すなわち、i=Iの場合)には、重み係数導出部213Aは、当該RGB画像データに関する処理を終了する。一方、上述のステップS508で、まだ重み係数の導出がされていないオブジェクト領域が残っている場合(すなわち、i<Iの場合)には、重み係数導出部213Aは、変数iをインクリメント(i=i+1)し(S509)、上述のステップS501の処理に移行する。   When it is determined in step S508 described above that weighting factors have been derived for all object regions (that is, i = I), the weighting factor deriving unit 213A ends the processing relating to the RGB image data. On the other hand, in the above-described step S508, when an object region for which the weighting factor has not yet been derived remains (that is, when i <I), the weighting factor deriving unit 213A increments the variable i (i = i + 1) (S509), the process proceeds to step S501 described above.

以上のように、重み係数導出部213Aでは、RGB画像データを構成する各オブジェクト領域について重み係数が導出される。   As described above, the weighting factor deriving unit 213A derives a weighting factor for each object region constituting the RGB image data.

次に、輝度値算出部214にて、上述のステップS304で導出した重み係数に基づき、各画素の輝度値Yが算出される(S305)。ステップS305の処理は、第1の実施形態のステップS104の処理と同様であるので詳しい説明は省略する。   Next, the luminance value calculation unit 214 calculates the luminance value Y of each pixel based on the weighting factor derived in step S304 described above (S305). Since the process of step S305 is the same as the process of step S104 of the first embodiment, detailed description thereof is omitted.

次に、モノクロ画像生成部215にて、上述のステップS305で算出した各画素の輝度値Yにより、入力カラー画像のRGB色成分値を輝度値Yに変換したモノクロ画像データが生成される(S306)。そして、画像形成部22は、ステップS306で生成したモノクロ画像データを、モノクロ2値画像データに変換し、記録媒体にトナー像を形成する(S307)。なお、ステップS306、S307の処理は、第1の実施形態のステップS105、S106と同様の処理であるので詳しい説明は省略する。   Next, the monochrome image generation unit 215 generates monochrome image data in which the RGB color component value of the input color image is converted into the luminance value Y based on the luminance value Y of each pixel calculated in step S305 described above (S306). ). Then, the image forming unit 22 converts the monochrome image data generated in step S306 into monochrome binary image data, and forms a toner image on the recording medium (S307). Note that the processes in steps S306 and S307 are the same as those in steps S105 and S106 of the first embodiment, and thus detailed description thereof is omitted.

(B−3)第2の実施形態の効果
第2の実施形態によれば、以下のような効果を奏することができる。
(B-3) Effects of Second Embodiment According to the second embodiment, the following effects can be achieved.

第2の実施形態の画像処理部21Aでは、文字エッジ領域に適用する重み係数を調整することにより、文字エッジ領域を構成する画素の濃度を高めている。これにより、第2の実施形態の画像処理部21Aでは、第1の実施形態と比較して、より文字の識別性の高いモノクロ画像を生成することができる。   In the image processing unit 21A of the second embodiment, the density of the pixels constituting the character edge region is increased by adjusting the weighting coefficient applied to the character edge region. Thereby, in the image processing unit 21A of the second embodiment, it is possible to generate a monochrome image with higher character discrimination as compared with the first embodiment.

(C)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(C) Other Embodiments The present invention is not limited to the above-described embodiments, and may include modified embodiments as exemplified below.

(C−1)上記の各実施形態において、本発明の画像形成装置としてのプリンタは、外部のPCやスキャナ等からRGB画像データの供給を受けて、そのRGB画像データをモノクロ画像に変換する処理を行っていた。しかし、本発明の画像形成装置において、処理対象となるRGB画像データを保持する方法は限定されないものである。例えば、本発明の画像形成装置を、スキャナを内蔵した複写機、ファクシミリ、複合機等に適用するようにしても良い。 (C-1) In each of the above embodiments, the printer as the image forming apparatus of the present invention receives RGB image data supplied from an external PC, scanner, or the like, and converts the RGB image data into a monochrome image. Had gone. However, in the image forming apparatus of the present invention, the method for holding the RGB image data to be processed is not limited. For example, the image forming apparatus according to the present invention may be applied to a copying machine, a facsimile machine, a multifunction machine, or the like that incorporates a scanner.

(C−2)上記の各実施形態において、本発明の画像形成装置をプリンタに適用した例について説明したが、本発明の画像形成装置が生成したモノクロ画像を形成する方式は限定されないものである。例えば、本発明の画像形成装置が生成したモノクロ画像を、ディスプレイ等に表示出力させたりするようにしても良い。 (C-2) In each of the above embodiments, the example in which the image forming apparatus of the present invention is applied to a printer has been described. However, the method of forming a monochrome image generated by the image forming apparatus of the present invention is not limited. . For example, a monochrome image generated by the image forming apparatus of the present invention may be displayed on a display or the like.

(C−3)上記の各実施形態では、本発明の画像処理装置をプリンタに搭載する例について説明したが、画像処理装置を単独の装置として構築するようにしても良い。例えば、パソコン等の情報処理装置に、本発明の画像処理プログラムをインストールして画像処理装置を構築し、その画像処理装置を用いて、RGB画像データからモノクロ画像データを生成して出力するようにしても良い。また、本発明の画像処理装置がモノクロ画像データを出力する形式については限定されないものであり、例えば、HDDやCD−ROM等の記憶媒体に記憶させたり、通信により他のコンピュータに送信するようにしても良い。 (C-3) In each of the above embodiments, the example in which the image processing apparatus of the present invention is mounted on a printer has been described. However, the image processing apparatus may be constructed as a single apparatus. For example, the image processing program of the present invention is installed in an information processing apparatus such as a personal computer to construct an image processing apparatus, and the image processing apparatus is used to generate and output monochrome image data from RGB image data. May be. Further, the format in which the image processing apparatus of the present invention outputs monochrome image data is not limited. For example, the image processing apparatus may be stored in a storage medium such as an HDD or a CD-ROM, or may be transmitted to another computer by communication. May be.

また、上記の各実施形態では、画像処理部をプリンタ側に搭載する例について説明したが、図2に示すPC側に搭載(すなわち、PCに画像処理プログラムをインストール)するようにしても良い。   In each of the above embodiments, the example in which the image processing unit is mounted on the printer side has been described. However, the image processing unit may be mounted on the PC side illustrated in FIG. 2 (that is, an image processing program is installed in the PC).

(C−4)上記の各実施形態において、画像処理部は、RGB画像データから生成したモノクロ画像データを出力しているが、モノクロ2値画像データの変換までを行うようにしても良い。すなわち、画像処理部が行う画像処理に、画像形成部が行う内容まで含めるようにしても良い。 (C-4) In each of the above embodiments, the image processing unit outputs monochrome image data generated from RGB image data. However, the image processing unit may perform conversion up to monochrome binary image data. That is, the image processing performed by the image processing unit may include the content performed by the image forming unit.

(C−5)上記の各実施形態では、本発明の画像処理プログラムをROMに記憶しておく例について説明したが、画像処理プログラムを記憶する媒体は限定されないものである。例えば、本発明の画像処理プログラムを、上述の図2に示すHDDに記憶するようにしても良い。 (C-5) In each of the above embodiments, the example in which the image processing program of the present invention is stored in the ROM has been described. However, the medium for storing the image processing program is not limited. For example, the image processing program of the present invention may be stored in the HDD shown in FIG.

(C−6)上記の各実施形態では、プリンタが形成(印刷)する画像は、全て、画像処理部が処理した画像であるものとして説明したが、例えば、ユーザからの操作に応じて画像処理部の処理を停止し、RGB画像データをそのまま画像形成部に引き渡すようにしても良い。プリンタがユーザからの操作を受付ける構成については限定されないものであるが、例えば、PCを介して入力I/Fから受付けるようにしても良いし、プリンタ自体に別途操作用のスイッチを設けるようにしても良い。 (C-6) In each of the above embodiments, it has been described that all images formed (printed) by the printer are images processed by the image processing unit. For example, image processing is performed according to an operation from the user. It is also possible to stop the processing of the image forming unit and pass the RGB image data as it is to the image forming unit. The configuration in which the printer accepts an operation from the user is not limited. For example, the printer may accept an operation from the input I / F via a PC, or a separate operation switch may be provided on the printer itself. Also good.

(C−7)上記の各実施形態の画像処理部では、イメージ領域に対しては、全て共通の重み係数を適用しているが、イメージ領域の一部の領域について適用する重み係数を変更するようにしても良い。例えば、画像処理部が、ユーザの操作により選択された領域について、文字領域と同様の方式で導出された重み係数を適用するようにしても良い。画像処理部が、ユーザにイメージ領域の一部を選択させる方式については限定されないものであるが、例えば、PCに搭載された図示しないディスプレイにRGB画像データを表示させ、図示しない入力装置(例えば、マウス等)を用いて選択させるようにしても良い。 (C-7) In the image processing unit of each of the above embodiments, a common weighting factor is applied to all image regions, but the weighting factor applied to a part of the image region is changed. You may do it. For example, the image processing unit may apply a weighting factor derived by a method similar to that for a character region to a region selected by a user operation. The method by which the image processing unit allows the user to select a part of the image area is not limited. For example, RGB image data is displayed on a display (not shown) mounted on the PC, and an input device (not shown) (for example, You may make it select using a mouse | mouth etc.).

(C−8)第2の実施形態の画像処理部では、重み係数テーブル(図11参照)を用いて、文字エッジ領域の輝度値が低くなるように重み係数を調節しているが、文字エッジ領域の輝度値そのものを調節するようにしても良い。例えば、輝度値算出部において、算出された輝度値を、文字エッジ領域についてだけ、低く調整(例えば、一定値減じる調整)を行うようにしても良い。また、例えば、輝度値算出部において、文字エッジ領域についてだけ、輝度値の算出処理を行わずに、予め設定した固定値(色情報に応じた値としても良い)を適用するようにしても良い。 (C-8) In the image processing unit of the second embodiment, the weighting factor is adjusted using the weighting factor table (see FIG. 11) so that the luminance value of the character edge region is lowered. The luminance value itself of the area may be adjusted. For example, the luminance value calculation unit may adjust the calculated luminance value to be lower only for the character edge region (for example, adjustment to reduce the constant value). In addition, for example, the luminance value calculation unit may apply a preset fixed value (which may be a value according to color information) without performing the luminance value calculation process only for the character edge region. .

100…プリンタ(画像形成装置)、110…PC、101…入力I/F、106…HDD、107…出力部、102…制御部、103…RAM、104…ROM、105…CPU、21…画像処理部(画像処理装置)、211…画像取得部、212…領域分割部、213…重み係数導出部、214…輝度値算出部、215…モノクロ画像生成部、22…画像形成部。   DESCRIPTION OF SYMBOLS 100 ... Printer (image forming apparatus), 110 ... PC, 101 ... Input I / F, 106 ... HDD, 107 ... Output part, 102 ... Control part, 103 ... RAM, 104 ... ROM, 105 ... CPU, 21 ... Image processing Reference numeral 211 (image processing device), 211... Image acquisition unit, 212... Region dividing unit, 213.

Claims (5)

複数の色成分値によって表現される多色画像を、少なくとも文字領域とイメージ領域を含む複数種類のオブジェクト領域に分割する領域分割手段と、
それぞれのオブジェクト領域について、当該オブジェクト領域を構成する画素の輝度値算出に用いる重み係数を、当該オブジェクト領域の種類に応じた方式で導出する重み係数導出手段と、
オブジェクト領域毎に、前記重み係数導出手段で導出した重み係数を用いて、当該オブジェクト領域を構成する画素のそれぞれの輝度値を算出する輝度値算出手段と、
前記輝度値算出手段が算出した各画素の輝度値に基づいて、1つの色成分値によって表現することが可能な単色画像を生成する単色画像生成手段とを有し、
前記領域分割手段は、文字領域について、さらに、文字領域のエッジ部分を構成する文字エッジ領域と、文字エッジ領域に囲まれた文字内部領域とに分け、それぞれ異なる種類のオブジェクト領域として分割し、
前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、より識別性が高くなるような重み係数を導出し、
文字エッジ領域のオブジェクト領域のそれぞれについて、主たる色成分に係る色情報を取得する色情報取得手段をさらに有し、
前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、前記色情報取得手段が取得した色情報に示される色を構成する色成分の重みを下げた重み係数を導出し、
前記色情報取得手段は、文字エッジのオブジェクト領域について、当該オブジェクト領域を構成する各画素の色相を求め、最も出現頻度の高い色相の色を、色情報として取得する
ことを特徴とする画像処理装置。
Area dividing means for dividing a multicolor image represented by a plurality of color component values into a plurality of types of object areas including at least a character area and an image area;
For each object region, weighting factor deriving means for deriving a weighting factor used for calculating the luminance value of the pixels constituting the object region by a method according to the type of the object region;
For each object region, using the weighting factor derived by the weighting factor deriving unit, a luminance value calculating unit that calculates the luminance value of each pixel constituting the object region;
Monochrome image generation means for generating a monochrome image that can be expressed by one color component value based on the brightness value of each pixel calculated by the brightness value calculation means ;
The area dividing means further divides the character area into a character edge area that constitutes an edge portion of the character area and a character internal area surrounded by the character edge area, and divides them into different types of object areas,
The weighting factor deriving means derives a weighting factor that is more discriminating for the object region of the character edge region,
For each of the object regions of the character edge region, further comprising color information acquisition means for acquiring color information relating to the main color component,
The weighting factor deriving unit derives a weighting factor obtained by reducing the weight of the color component constituting the color indicated by the color information acquired by the color information acquiring unit for the object region of the character edge region,
The color information acquisition means obtains the hue of each pixel constituting the object area of the character edge object area, and acquires the color of the hue with the highest appearance frequency as color information. .
前記重み係数導出手段は、識別性を重視する種類のオブジェクト領域には、各色成分値を均等に重み付けする重み係数を導出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the weighting factor deriving unit derives a weighting factor that equally weights each color component value for an object region of a type that emphasizes discrimination. 前記重み係数導出手段は、色の違い及び又は階調性を重視する種類のオブジェクト領域には、各色成分値を人の視覚感度に即した比率で重み付けする重み係数を導出することを特徴とする請求項1又は2に記載の画像処理装置。   The weighting factor deriving means derives a weighting factor that weights each color component value with a ratio in accordance with human visual sensitivity for an object region of a type that emphasizes color difference and / or gradation. The image processing apparatus according to claim 1. コンピュータを、
複数の色成分値によって表現される多色画像を、少なくとも文字領域とイメージ領域を含む複数種類のオブジェクト領域に分割する領域分割手段と、
それぞれのオブジェクト領域について、当該オブジェクト領域を構成する画素の輝度値算出に用いる重み係数を、当該オブジェクト領域の種類に応じた方式で導出する重み係数導出手段と、
オブジェクト領域毎に、前記重み係数導出手段で導出した重み係数を用いて、当該オブジェクト領域を構成する画素のそれぞれの輝度値を算出する輝度値算出手段と、
前記輝度値算出手段が算出した各画素の輝度値に基づいて、1つの色成分値によって表現することが可能な単色画像を生成する単色画像生成手段として機能させ、
前記領域分割手段は、文字領域について、さらに、文字領域のエッジ部分を構成する文字エッジ領域と、文字エッジ領域に囲まれた文字内部領域とに分け、それぞれ異なる種類のオブジェクト領域として分割し、
前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、より識別性が高くなるような重み係数を導出し
前記コンピュータを文字エッジ領域のオブジェクト領域のそれぞれについて、主たる色成分に係る色情報を取得する色情報取得手段としてさらに機能させ、
前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、前記色情報取得手段が取得した色情報に示される色を構成する色成分の重みを下げた重み係数を導出し、
前記色情報取得手段は、文字エッジのオブジェクト領域について、当該オブジェクト領域を構成する各画素の色相を求め、最も出現頻度の高い色相の色を、色情報として取得する
ことを特徴とする画像処理プログラム。
Computer
Area dividing means for dividing a multicolor image represented by a plurality of color component values into a plurality of types of object areas including at least a character area and an image area;
For each object region, weighting factor deriving means for deriving a weighting factor used for calculating the luminance value of the pixels constituting the object region by a method according to the type of the object region;
For each object region, using the weighting factor derived by the weighting factor deriving unit, a luminance value calculating unit that calculates the luminance value of each pixel constituting the object region;
Based on the luminance value of each pixel and the brightness value calculation means has calculated, to function as a single-color image generating means for generating a monochrome image that can be represented by a single color component values,
The area dividing means further divides the character area into a character edge area that constitutes an edge portion of the character area and a character internal area surrounded by the character edge area, and divides them into different types of object areas,
The weighting factor deriving means derives a weighting factor that makes the object region of the character edge region more distinctive.
Further causing the computer to function as color information acquisition means for acquiring color information related to the main color component for each of the object areas of the character edge area,
The weighting factor deriving unit derives a weighting factor obtained by reducing the weight of the color component constituting the color indicated by the color information acquired by the color information acquiring unit for the object region of the character edge region,
The color information acquisition means obtains the hue of each pixel constituting the object area of the object area of the character edge, and acquires the color of the hue with the highest appearance frequency as color information. Image processing program.
画像処理装置と、前記画像処理装置を用いて処理された画像を記録媒体に形成する画像形成部とを備える画像形成装置において、
前記画像処理装置として、請求項1〜のいずれかに記載の画像処理装置を適用したこと
を特徴とする画像形成装置。
An image forming apparatus comprising: an image processing apparatus; and an image forming unit that forms an image processed using the image processing apparatus on a recording medium.
Wherein the image processing apparatus, an image forming apparatus, characterized in that the application of the image processing apparatus according to any one of claims 1-3.
JP2011111601A 2011-05-18 2011-05-18 Image processing apparatus and program, and image forming apparatus Expired - Fee Related JP5687560B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011111601A JP5687560B2 (en) 2011-05-18 2011-05-18 Image processing apparatus and program, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011111601A JP5687560B2 (en) 2011-05-18 2011-05-18 Image processing apparatus and program, and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2012244355A JP2012244355A (en) 2012-12-10
JP5687560B2 true JP5687560B2 (en) 2015-03-18

Family

ID=47465606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011111601A Expired - Fee Related JP5687560B2 (en) 2011-05-18 2011-05-18 Image processing apparatus and program, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP5687560B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6749504B2 (en) * 2017-11-06 2020-09-02 Eizo株式会社 Image processing apparatus, image processing method, and image processing program
CN113076954B (en) * 2021-03-26 2022-06-21 广西科技大学 Contour detection method based on rod cell dark adaptation
CN117560826B (en) * 2024-01-10 2024-03-29 西安南洋迪克整装智能家居有限公司 Automatic lighting device of intelligent cabinet

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3109421B2 (en) * 1995-09-08 2000-11-13 富士ゼロックス株式会社 Chart processing equipment
JP2000245700A (en) * 1999-03-01 2000-09-12 Nidek Co Ltd Instrument for measuring eyeground and recording medium for recording measurement program
US7190486B2 (en) * 2002-01-25 2007-03-13 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
US20060082833A1 (en) * 2004-10-20 2006-04-20 Kabushiki Kaisha Toshiba Image forming device, image processing device and image producing program
JP2007067908A (en) * 2005-08-31 2007-03-15 Kyocera Mita Corp Image processor, image forming apparatus, image processing method, and image processing program
JP2007096391A (en) * 2005-09-27 2007-04-12 Kyocera Mita Corp Image processor
JP2007129447A (en) * 2005-11-02 2007-05-24 Canon Inc Image processor, image processing method, program implementing image processing method, and storage medium

Also Published As

Publication number Publication date
JP2012244355A (en) 2012-12-10

Similar Documents

Publication Publication Date Title
JP5230705B2 (en) Image processing device
JP4840495B2 (en) Image processing apparatus and computer program
JP5685895B2 (en) Image processing apparatus, image processing method, and program
US8224084B2 (en) Image processing method, image processing apparatus, and color image generating system
JP6349707B2 (en) Color conversion apparatus, lookup table generation method, and lookup table generation apparatus
US9253368B2 (en) Image processing device setting binary value without using dither matrix when prescribed condition is satisfied
US8982411B2 (en) Image processing apparatus and method
JP4803122B2 (en) Color processing apparatus and program
JP5645612B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5687560B2 (en) Image processing apparatus and program, and image forming apparatus
JP2010016661A (en) Image processing device
Pedersen et al. Attributes of a new image quality model for color prints
JP6349708B2 (en) Lookup table generation method and lookup table generation apparatus
EP2009900B1 (en) Image-printing device
JP5863723B2 (en) Image processing apparatus and image forming apparatus
JP6486082B2 (en) Image processing apparatus, image processing method, and program
US8320669B2 (en) Image processing method, image processing apparatus, image data compression device, and computer program
JP2009100312A (en) Image forming apparatus, color image output method and control program
JP2009206572A (en) Image processor, program, and image processing method
JP2010062921A (en) Image processing apparatus and method, program, and recording medium
JP2016225724A (en) Image processing apparatus and image forming system
JP2011130105A (en) Image processing apparatus
JP2009284214A (en) Image processing device, image processing method, program and recoding medium
JP4582242B2 (en) Image processing apparatus, method, and program
JP2014060681A (en) Image processor, program, and image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141201

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150122

R150 Certificate of patent or registration of utility model

Ref document number: 5687560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees