JP5687560B2 - Image processing apparatus and program, and image forming apparatus - Google Patents
Image processing apparatus and program, and image forming apparatus Download PDFInfo
- Publication number
- JP5687560B2 JP5687560B2 JP2011111601A JP2011111601A JP5687560B2 JP 5687560 B2 JP5687560 B2 JP 5687560B2 JP 2011111601 A JP2011111601 A JP 2011111601A JP 2011111601 A JP2011111601 A JP 2011111601A JP 5687560 B2 JP5687560 B2 JP 5687560B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- weighting factor
- character
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
Description
画像処理装置及びプログラム、並びに、画像形成装置に関し、例えば、複数の色成分(例えば、RGBの3色の色成分)で表現される画像(以下、「カラー画像」又は「多色画像」ともいう)から、単一の色成分で表現される画像(以下、「モノクロ画像」又は「単色画像」ともいう)を生成する画像処理に適用することができる。 The image processing apparatus, the program, and the image forming apparatus, for example, are also referred to as an image (hereinafter referred to as “color image” or “multicolor image”) expressed by a plurality of color components (for example, three color components of RGB). ) To image processing that generates an image represented by a single color component (hereinafter also referred to as “monochrome image” or “monochromatic image”).
従来、カラー画像からモノクロ画像を形成する画像処理装置として、特許文献1の記載技術がある。
Conventionally, there is a technique described in
特許文献1の記載技術では、予めモノクロの形式で表わした画素のパターンを複数用意しておき、処理対象であるカラー画像の各画素について、当該画素の色成分値の組み合わせに対応するパターンを選択し、モノクロ画像を形成する方式であった。
In the technique described in
しかしながら、特許文献1に記載された画像処理装置では、処理対象となるカラー画像を構成する各画素について、共通の変換方式を用いている。そのため、特許文献1に記載の画像処理装置で処理したモノクロ画像では、明るい色(例えば、黄色等)の文字が消えてしまい、文字として識別できない場合がある。また、特許文献1に記載の画像処理装置において、明るい色の文字も識別できるように、濃度の濃い画素のパターンを適用したとしても、変換後のモノクロ画像で、色の違いや階調性が失われてしまうことになる。その結果、特許文献1に記載の画像処理装置で処理したモノクロ画像では、文字以外のイメージの画像の内容について識別性が低下し、識別される情報が欠落する場合があった。
However, the image processing apparatus described in
そのため、カラー画像(多色画像)をモノクロ画像(単色画像)に変換した場合に、変換後のモノクロ画像の識別性を向上させることができる画像処理装置及びプログラム、並びに、画像形成装置が望まれている。 Therefore, when a color image (multicolor image) is converted into a monochrome image (single color image), an image processing apparatus and program that can improve the discrimination of the converted monochrome image, and an image forming apparatus are desired. ing.
第1の本発明の画像処理装置は、(1)複数の色成分値によって表現される多色画像を、少なくとも文字領域とイメージ領域を含む複数種類のオブジェクト領域に分割する領域分割手段と、(2)それぞれのオブジェクト領域について、当該オブジェクト領域を構成する画素の輝度値算出に用いる重み係数を、当該オブジェクト領域の種類に応じた方式で導出する重み係数導出手段と、(3)オブジェクト領域毎に、前記重み係数導出手段で導出した重み係数を用いて、当該オブジェクト領域を構成する画素のそれぞれの輝度値を算出する輝度値算出手段と、(4)前記輝度値算出手段が算出した各画素の輝度値に基づいて、1つの色成分値によって表現することが可能な単色画像を生成する単色画像生成手段とを有し、(5)前記領域分割手段は、文字領域について、さらに、文字領域のエッジ部分を構成する文字エッジ領域と、文字エッジ領域に囲まれた文字内部領域とに分け、それぞれ異なる種類のオブジェクト領域として分割し、(6)前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、より識別性が高くなるような重み係数を導出し、(7)文字エッジ領域のオブジェクト領域のそれぞれについて、主たる色成分に係る色情報を取得する色情報取得手段をさらに有し、(8)前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、前記色情報取得手段が取得した色情報に示される色を構成する色成分の重みを下げた重み係数を導出し、(9)前記色情報取得手段は、文字エッジのオブジェクト領域について、当該オブジェクト領域を構成する各画素の色相を求め、最も出現頻度の高い色相の色を、色情報として取得することを特徴とする。 An image processing apparatus according to a first aspect of the present invention includes: (1) an area dividing unit that divides a multicolor image represented by a plurality of color component values into a plurality of types of object areas including at least a character area and an image area; 2) For each object area, weight coefficient deriving means for deriving the weight coefficient used for calculating the luminance value of the pixels constituting the object area by a method according to the type of the object area; and (3) for each object area Using a weighting factor derived by the weighting factor deriving unit, a luminance value calculating unit that calculates a luminance value of each pixel constituting the object area, and (4) each pixel calculated by the luminance value calculating unit. based on the luminance value, and a single-color image generating means for generating a monochrome image that can be represented by a single color component values, (5) the area division The stage further divides the character area into a character edge area constituting an edge portion of the character area and a character internal area surrounded by the character edge area, and divides the character area into different types of object areas, (6) The weighting factor deriving means derives a weighting factor that makes the discrimination property higher for the object region of the character edge region, and (7) obtains color information relating to the main color component for each of the object regions of the character edge region (8) the weighting factor deriving unit calculates the weight of the color component constituting the color indicated by the color information acquired by the color information acquiring unit for the object area of the character edge region. A lowered weighting factor is derived, and (9) the color information acquisition means is configured to determine the object area for the object area of the character edge. It determined the hue of each pixel constituting the color of the most frequency hue, and acquires the color information.
第2の本発明の画像処理プログラムは、コンピュータを、(1)複数の色成分値によって表現される多色画像を、少なくとも文字領域とイメージ領域を含む複数種類のオブジェクト領域に分割する領域分割手段と、(2)それぞれのオブジェクト領域について、当該オブジェクト領域を構成する画素の輝度値算出に用いる重み係数を、当該オブジェクト領域の種類に応じた方式で導出する重み係数導出手段と、(3)オブジェクト領域毎に、前記重み係数導出手段で導出した重み係数を用いて、当該オブジェクト領域を構成する画素のそれぞれの輝度値を算出する輝度値算出手段と、(4)前記輝度値算出手段が算出した各画素の輝度値に基づいて、1つの色成分値によって表現することが可能な単色画像を生成する単色画像生成手段として機能させ、(5)前記領域分割手段は、文字領域について、さらに、文字領域のエッジ部分を構成する文字エッジ領域と、文字エッジ領域に囲まれた文字内部領域とに分け、それぞれ異なる種類のオブジェクト領域として分割し、(6)前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、より識別性が高くなるような重み係数を導出し、(7)前記コンピュータを文字エッジ領域のオブジェクト領域のそれぞれについて、主たる色成分に係る色情報を取得する色情報取得手段としてさらに機能させ、(8)前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、前記色情報取得手段が取得した色情報に示される色を構成する色成分の重みを下げた重み係数を導出し、(9)前記色情報取得手段は、文字エッジのオブジェクト領域について、当該オブジェクト領域を構成する各画素の色相を求め、最も出現頻度の高い色相の色を、色情報として取得することを特徴とする。
An image processing program according to a second aspect of the present invention provides a computer, (1) region dividing means for dividing a multicolor image expressed by a plurality of color component values into a plurality of types of object regions including at least a character region and an image region. (2) for each object region, weighting factor deriving means for deriving a weighting factor used for calculating the luminance value of the pixels constituting the object region by a method according to the type of the object region; and (3) an object For each region, using the weighting factor derived by the weighting factor deriving unit, a luminance value calculating unit that calculates the luminance value of each pixel constituting the object region, and (4) calculated by the luminance value calculating unit As monochromatic image generation means for generating a monochromatic image that can be expressed by one color component value based on the luminance value of each pixel Is ability, (5) the area dividing means, the character region, further, a text edge region constituting an edge portion of the character area, divided into a text edge region character inside area surrounded by the different types of the respective object (6) The weighting factor deriving means derives a weighting factor that makes the distinction of the object region of the character edge region higher. (7) The computer is divided into the object region of the character edge region. For each, it further functions as color information acquisition means for acquiring color information relating to the main color component, and (8) the weight coefficient derivation means is the color information acquired by the color information acquisition means for the object area of the character edge area. (9) The color information acquisition unit is configured to derive a weighting factor obtained by lowering the weight of the color component constituting the color indicated by Object region of Tsu di obtains the hue of each pixel constituting the object area, the color of the most frequency hue, and acquires the color information.
第3の本発明は、画像処理装置と、前記画像処理装置を用いて処理された画像を記録媒体に形成する画像形成部とを備える画像形成装置において、第1の本発明の画像処理装置を適用したことを特徴とする。 According to a third aspect of the present invention, there is provided an image forming apparatus comprising: an image processing apparatus; and an image forming unit that forms an image processed by using the image processing apparatus on a recording medium. It is characterized by having applied.
本発明によれば、多色画像を単色画像に変換した場合に、変換後の単色画像の識別性を向上させることができる According to the present invention, when a multicolor image is converted into a single color image, the distinguishability of the converted single color image can be improved.
(A)第1の実施形態
以下、本発明による画像処理装置及びプログラム、並びに、画像形成装置の第1の実施形態を、図面を参照しながら詳述する。なお、第1の実施形態では、本発明の画像形成装置を、プリンタに適用した例について説明する。
(A) First Embodiment Hereinafter, an image processing apparatus, a program, and an image forming apparatus according to a first embodiment of the present invention will be described in detail with reference to the drawings. In the first embodiment, an example in which the image forming apparatus of the present invention is applied to a printer will be described.
(A−1)第1の実施形態の構成
図2は、第1の実施形態のプリンタ100のハードウェア的構成例について示したブロック図である。
(A-1) Configuration of the First Embodiment FIG. 2 is a block diagram illustrating a hardware configuration example of the
図1は、第1の実施形態のプリンタ100の機能的構成について示したブロック図である。
FIG. 1 is a block diagram illustrating a functional configuration of the
本発明の画像形成装置としてのプリンタ100は、ハードウェア的には、入力I/F101、HDD106、出力部107、及び制御部102を有している。
The
入力I/F101は、外部のPC110と接続するためのインタフェースであり、PC110から送信された、画素毎に3色のRGB色成分値によって表現されるカラー画像データを取得する。
The input I /
制御部102は、揮発性メモリであるRAM103、読み込み専用のメモリであるROM104、CPU105等のプログラムの実施構成を備えている。すなわち、プリンタ100では、制御部102のCPU105が、RAM103をワーキングメモリとしてROM104に格納された処理プログラムを実行する。言い換えると、プリンタ100の機能は、制御部102が実施形態の画像処理プログラム等を実行することにより実現される。そして、プリンタ100の機能的構成は、上述の図1のように表わすことができる。なお、CPU105が実行するプログラムの格納場所は、限定されないものであり、ROM104ではなくHDD106に格納するようにしても良い。また、CPU105は、ワーキングメモリとして、RAM103だけでなくHDD106を併用するようにしても良い。
The
プリンタ100のハードウェア的な構成については、既存のプリンタと同様のものを適用することができるので、図2では、既存のプリンタの一般的なハードウェア構成に基づいて図示している。プリンタ100では、上述の画像処理部21が行う画像処理に特徴があり、ハードウェア的構成については、図2の構成に限定されず、他の種々の構成を適用することができる。
Since the hardware configuration of the
HDD106は読み込みおよび書き込みが可能な記憶装置であり、画像データや設定項目等の保存に用いられる。 The HDD 106 is a readable / writable storage device, and is used for storing image data, setting items, and the like.
出力部107は、画像データが供給されると、その画像データの画像を出力するものである。出力部107が供給された画像データを出力する形式については限定されないものである。出力部107としては、例えば、既存のレーザプリンタの出力部と同様のものを適用することができる。具体的には、出力部107は、1又は複数のトナー色材を用いて記録媒体(例えば、紙葉類)に画像を形成(印刷)することが可能な構成を備えているものとする。そして、出力部107は、トナー色材で表現可能なハーフトーン処理を施した2値画像データが供給されると、記録媒体にトナー像を形成するものとする。
When the image data is supplied, the
次に、プリンタ100の機能的構成について説明する。
Next, the functional configuration of the
プリンタ100は、機能的には、図1に示すように画像処理部21、及び画像形成部22を有している。そして、画像処理部21は、画像取得部211、領域分割手段としての領域分割部212、重み係数導出手段としての重み係数導出部213、輝度値算出手段としての輝度値算出部214、及び、単色画像生成手段としてのモノクロ画像生成部215を有している。なお、図1に示す画像処理部21を構成する各機能ブロック(構成要素)は、図2に示す制御部102を用いて実現することができる。また、図1に示す画像生成部215は、図2に示す制御部102及び出力部107を用いて実現することができる。
Functionally, the
画像処理部21は、プリンタ100において、本発明の画像処理装置として機能する部分である。そして、画像処理部21を実現するためのプログラムが実施形態の画像処理プログラムとなる。言い換えると、本発明の画像形成装置としてのプリンタ100は、本発明の画像処理装置としての画像処理部21を搭載している。
The
画像取得部211は、入力I/F101を通してPC110から送信された、処理対象のRGB形式で表現されたカラー画像のデータ(以下、「RGB画像データ」という)を取得する。なお、第1の実施形態において、画像取得部211は、入力I/F101を通してPC110から送信されたRGB画像データを取得するが、例えば、スキャナやデジタルカメラを接続してRGB画像データを取得してもよい。すなわち、画像取得部211が、RGB画像データを保持する方式は限定されないものである。RGB画像データは、画像を構成する画素ごとの各成分(RGBの各成分)のデータが含まれていれば、その具体的な形式は限定されないものである。RGB画像データの具体的な形式としては、例えば、ビットマップ形式(BMP形式)のデータを適用することができる。また、画像取得部211は、取得したRGB画像データを、RAM103に保存し、領域分割部212に引き渡す。
The
領域分割部212は、画像取得部211が取得したRGB画像データに対し、少なくとも、文字領域とイメージ領域の2種類のオブジェクト領域に分割する処理を行う。「文字領域」とは、RGB画像データにより示される画像上で、文字の画像を示す領域である。また、「イメージ領域」とは、文字領域以外のイメージ画像を示す領域である。
The
なお、領域分割部212により分割された、各オブジェクト領域のそれぞれには識別ID(以下、「オブジェクトID」と呼ぶ)が付与されるものとする。ここでは、領域分割部212により分割された、オブジェクト領域の数が、I個だった場合には、各オブジェクト領域には、1、2、3、…、IのいずれかのオブジェクトIDが付与されるものとして説明する。
It should be noted that an identification ID (hereinafter referred to as “object ID”) is assigned to each object area divided by the
領域分割部212が、RGB画像データが示す画像について、文字領域とイメージ領域とを区別して認識する方法は限定されないものであるが、ここでは、例として、画像中の文字エッジに相当する画素を文字エッジ領域として検出し、文字エッジ領域と、文字エッジ領域に囲まれた領域(以下、「文字内部領域」と呼ぶ)およびその他の領域(以下、「イメージ領域」と呼ぶ)として認識する方法を用いることとして説明する。画像中の文字エッジ領域を検出する手法としては、例えば参考文献1(特開2002−354241号公報)の記載技術を利用するようにしても良い。参考文献1に記載されている画像処理装置では、処理対象となる画像を走査し、画素の無彩色/有彩色の判定をし、その無彩色/有彩色の判定に基づきエッジ判定閥値を切り替えて設定し、注目画素の濃度値と隣接画素の濃度値の差分がエッジ判定閥値を超える場合に文字エッジ画素と判定することにより、黒文字や色文字の文字エッジ領域を抽出している。ここでは、領域分割部212は、RGB画像データが示す画像から、上述の参考文献1の記載技術を用いて文字エッジ領域を抽出し、文字エッジ領域と文字内部領域を合わせて文字領域として認識し、その他の領域をイメージ領域として認識するものとする。
The method of distinguishing and recognizing the character area and the image area for the image indicated by the RGB image data by the
図3は、領域分割部212により、画像を文字領域とイメージ領域とに分割する具体例について示した説明図である。
FIG. 3 is an explanatory diagram showing a specific example in which the
図3(a)は、領域分割部212が、分割処理を行う対象となる画像の例について示している。図3(a)に示される画像には、「The」という文字が表わされている。
FIG. 3A illustrates an example of an image that is a target for which the
そして、図3(b)では、領域分割部212が図3(a)の画像について分割処理を行う過程について示している。なお、図3(b)では、説明を容易にするため、文字領域のうち、文字エッジ領域と、文字内部領域とを区別して図示している。領域分割部212は、まず、分割処理の対象となる画像(図3(a)の画像)の文字エッジ領域を抽出行う。その結果、領域分割部212は、図3(b)に示すように「T」、「h」、「e」のそれぞれの文字について文字エッジ領域を抽出することができる。図3(b)では、文字「T」の文字エッジ領域を領域A101、文字「h」の文字エッジ領域を領域A102、文字「e」の文字エッジ領域を領域A103と表わしている。また、図3(b)では、文字「T」の文字内部領域を領域A104、文字「h」の文字内部領域を領域A105、文字「e」の文字内部領域を領域A106と表わしている。
FIG. 3B shows a process in which the
領域分割部212は、文字「T」を示す文字エッジ領域A102及び文字内部領域A104を併せて、一つのオブジェクト領域と認識する。また、領域分割部212は、文字「h」を示す文字エッジ領域A103及び文字内部領域A105を併せて、一つのオブジェクト領域と認識する。さらに、領域分割部212は、文字「e」を示す文字エッジ領域A104及び文字内部領域A106を併せて、一つのオブジェクト領域と認識する(ただし、中抜きとなっている領域A107の部分は文字領域には含まれない)。さらにまた、領域分割部212は、文字領域認識できなかった領域A107、A108については、イメージ領域と認識する。このように、第1の実施形態の領域分割部212で、図3(a)の画像を分割処理すると、3つの文字領域オブジェクトと、2つのイメージ領域オブジェクトに分割されることになる。
The
以上のように、領域分割部212は、RGB画像データの画像をオブジェクト領域単位に分割する。
As described above, the
そして、領域分割部212は、RGB画像データから分割したオブジェクト領域を表わしたデータについて、RAM103に記憶し、重み係数導出部213に引き渡す。各オブジェクト領域を表わしたデータの具体的な形式については限定されないものである。領域分割部212は、例えば、RGB画像データの画像を構成する画素データのそれぞれに、当該画素が所属するオブジェクト領域のオブジェクトID、及び当該オブジェクト領域の種類を示すフラグ情報を対応付けて記憶するようにしても良い。オブジェクト領域の種類を示すフラグ情報の内容については限定されないものであるが、例えば、文字領域を示す場合には「1」、「イメージ領域」を示す場合には「2」のように表すことができる。
Then, the
重み係数導出部213は、領域分割部212にて認識した各オブジェクト領域に対し、後述する輝度値算出部214の輝度算出で用いるパラメータとして「重み係数」を求める。この実施形態において、重み係数とは、後述する輝度値算出部214において、RGBの各色成分値からモノクロの輝度値Yを導出するためのRGB各色成分値にかける重み係数である。重み係数導出部213による処理の詳細については、後述する動作説明の項で説明する。
The weighting factor deriving unit 213 obtains a “weighting factor” for each object region recognized by the
輝度値算出部214は、RGBデータの画像を構成する各画素について、上述の重み係数導出部213が導出した重み係数を利用し、輝度値を算出する。輝度値算出部214による処理の詳細については、後述する動作説明の項で説明する。
The luminance
モノクロ画像生成部215は、輝度値算出部214で導出した各画素の輝度値に従い、モノクロ画像を生成する。モノクロ画像生成部215は、例えば、輝度値算出部214により算出された輝度値の高い画素ほど、濃度の低い色となるようなモノクロ画像を生成するようにしても良い。例えば、モノクロ画像生成部215は、輝度値が最大値の画素について白色で表現し、輝度値が最小値の画素について黒色で表現し、それ以外の輝度値の画素については当該輝度値に応じた階調(濃度)の灰色で表現するようにしても良い。また、モノクロ画像生成部215は、各画素についてグレースケールで表現した画像を、モノクロ画像として生成するようにしても良い。
The monochrome
また、モノクロ画像生成部215は、単に各画素を輝度値で表したデータをモノクロ画像データとして出力するようにしても良い。この場合、輝度値算出部214により算出された輝度値の高い画素ほど、濃度の低い色となるような画像形成が、画像形成部22側で行われる必要がある。
Further, the monochrome
画像形成部22は、モノクロ画像生成部215で生成したモノクロ画像を、出力部107で出力可能な形式に変換し、出力部107により出力させるものである。
The
ここでは、画像形成部22は、モノクロ画像生成部215で生成したモノクロ画像を変換して、1色のトナー色材(CMYK4色のトナー色材のうちの1色(例えば、K))で表現可能な処理(例えば、ハーフトーン処理)を施した2値画像データ(以下、「モノクロ2値画像データ」と呼ぶ)を形成し、出力部107に供給するものとする。モノクロ画像から、モノクロ2値画像データへ変換する処理方式については限定されないものであるが、例えば、既存のレーザプリンタにおいて、供給された画像データを、トナー色材で表現可能な形式に変換する処理と同様の処理を適用するようにしても良い。
Here, the
(A−2)第1の実施形態の動作
次に、以上のような構成を有する第1の実施形態のプリンタ100の動作を説明する。
(A-2) Operation of the First Embodiment Next, the operation of the
図4は、プリンタ100による画像処理の概要について示したフローチャートである。
FIG. 4 is a flowchart showing an outline of image processing by the
まず、画像取得部211により、入力I/F101を介して、RGB画像データが取得され、RAM103へ格納されたものとする(S101)。
First, it is assumed that RGB image data is acquired by the
次に、領域分割部212の領域分割処理により、上述のステップS101で取得したRGB画像データの画像が、文字領域とイメージ領域の2種類のオブジェクト領域に分割される(S102)。 Next, the image of the RGB image data acquired in step S101 described above is divided into two types of object areas, ie, a character area and an image area, by the area dividing process of the area dividing unit 212 (S102).
次に、重み係数導出部213により、領域分割部212で分割されたオブジェクト領域のそれぞれについて、モノクロ輝度値Yを算出するための重み係数WR、WG、WB(RGBの各色成分に乗ずる重み係数)が算出される(S103)。
Next, weighting factors WR, WG, WB (weighting factors multiplied by RGB color components) for calculating the monochrome luminance value Y for each of the object regions divided by the
図5は、重み係数導出部213が行う処理について示したフローチャートである。 FIG. 5 is a flowchart showing the processing performed by the weighting factor deriving unit 213.
図5のフローチャートにおいて、i(1≦i≦I)は、繰り返し処理に用いる変数である。なお、iの初期値は1であるものとする。なお、以下では、オブジェクトIDがiとなるオブジェクト領域を、「オブジェクト領域i」と表わすものとする。また、以下では、オブジェクト領域iに対する、R成分の重み係数をWRi、G成分の重み係数をWGi、B成分の重み係数をWBiとそれぞれ表わすものとする。 In the flowchart of FIG. 5, i (1 ≦ i ≦ I) is a variable used for the iterative process. Note that the initial value of i is 1. In the following, an object area with an object ID i is represented as “object area i”. In the following, for the object region i, the R component weighting coefficient is represented as WR i , the G component weighting coefficient is represented as WG i , and the B component weighting coefficient is represented as WB i .
まず、重み係数導出部213は、オブジェクト領域iのデータをRAM103から抽出して読み込み(S201)、オブジェクト領域iの種類を判定する(S202)。 First, the weighting factor deriving unit 213 extracts and reads the data of the object area i from the RAM 103 (S201), and determines the type of the object area i (S202).
上述のステップS202において、オブジェクト領域iの種類が文字領域と判定された場合には、後述するステップS203に移行し、そうでない場合(オブジェクト領域iの種類がイメージ領域の場合)には、後述するステップS204の処理に移行する。 If it is determined in step S202 that the type of the object area i is a character area, the process proceeds to step S203, which will be described later. Otherwise (if the type of the object area i is an image area), the process will be described later. The process proceeds to step S204.
上述のステップS202において、オブジェクト領域iの種類が文字領域と判定された場合には、重み係数導出部213は、オブジェクト領域iの重み係数WRi、WGi.WBiを、文字領域に適した割合に決定する。そして、重み係数導出部213は、決定した重み係数(WRi、WGi.WBi)を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S203)。
If the type of the object region i is determined to be a character region in step S202 described above, the weighting factor deriving unit 213 determines the weighting factors WR i , WG i . WB i is determined to a ratio suitable for the character area. Then, the weighting factor deriving unit 213 records the determined weighting factors (WR i , WG i .WB i ) in the
重み係数導出部213が、文字領域のオブジェクト領域について適用する重み係数の内容は限定されないものであるが、ここでは、例として、どの波長域の色でも判別しやすい割合を適用するものとする。言い換えると、重み係数導出部213は、文字領域等、識別性を重視する種類のオブジェクト領域に対しては、どの波長域の色でも判別しやすい割合の重み係数を適用することが望ましい。具体的には、重み係数導出部213は、文字領域のオブジェクト領域について、3成分の重みの比を約1:1:1(例えば、WRi=0.33、WGi=0.34、WBi=0.33)にするものとする。 The content of the weighting factor applied to the object region of the character region by the weighting factor deriving unit 213 is not limited, but here, as an example, a ratio that is easy to discriminate in any wavelength range is applied. In other words, it is desirable that the weighting factor deriving unit 213 applies a weighting factor with a ratio that can be easily discriminated in any wavelength region to an object region of a type that emphasizes discrimination, such as a character region. Specifically, the weighting factor deriving unit 213 sets the ratio of the weights of the three components to about 1: 1: 1 (for example, WR i = 0.33, WG i = 0.34, WB) for the object area of the character area. i = 0.33).
上述のステップS202において、オブジェクト領域iの種類がイメージ領域と判定された場合には、重み係数導出部213は、オブジェクト領域iの重み係数WRi、WGi、WBiを、イメージ領域に適した割合に決定する。そして、重み係数導出部213は、決定した重み係数(WRi、WGi.WBi)を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S204)。
If it is determined in step S202 described above that the type of the object area i is an image area, the weight coefficient derivation unit 213 sets the weight coefficients WR i , WG i , and WB i of the object area i to be suitable for the image area. Decide on a percentage. Then, the weighting factor deriving unit 213 records the determined weighting factors (WR i , WG i .WB i ) in the
重み係数導出部213が、イメージ領域のオブジェクト領域について適用する重み係数の内容は限定されないものであるが、ここでは、例として、人が光の強さに対する感度に近い割合を適用するものとする。人の視覚の光に対する感度がGreenの波長域で最も高く、Blueの波長域では低い特性がある。そこで、重み係数導出部213は、イメージ領域等、色の違いや階調性を重視する種類のオブジェクト領域に対して、WGiの割合を上げ、WBiの割合を下げた重み係数を適用することが望ましい。具体的には、重み係数導出部213は、3成分の重みの比を約3:6:1(例えば、WRi=0.30、WGi=0.59、WBi=0.11)にするものとする。 The content of the weighting factor applied to the object region of the image region by the weighting factor deriving unit 213 is not limited, but here, as an example, it is assumed that a ratio of a person close to the sensitivity to the light intensity is applied. . The sensitivity to human visual light is highest in the Green wavelength range and low in the Blue wavelength range. Therefore, the weighting factor deriving unit 213 applies a weighting factor that increases the ratio of WG i and decreases the ratio of WB i to an object region that emphasizes color difference and gradation, such as an image region. It is desirable. Specifically, the weight coefficient deriving unit 213 sets the ratio of the three component weights to about 3: 6: 1 (for example, WR i = 0.30, WG i = 0.59, WB i = 0.11). It shall be.
上述のステップS203又はS204により、オブジェクト領域iの重み係数が決定され記録されると、重み係数導出部213は、全てのオブジェクト領域について重み係数を導出したか否か(i=Iであるか否か)を判定する(S205)。 When the weighting coefficient of the object area i is determined and recorded in the above-described step S203 or S204, the weighting coefficient deriving unit 213 determines whether the weighting coefficient has been derived for all the object areas (whether i = I). (S205).
上述のステップS205で、重み係数導出部213により、全てのオブジェクト領域について重み係数を導出したと判定された場合(すなわち、i=Iの場合)には、重み係数導出部213は、当該RGB画像データに関する処理を終了する。一方、上述のステップS205で、重み係数導出部213により、まだ重み係数の導出がされていないオブジェクト領域が残っている場合(すなわち、i<Iの場合)には、重み係数導出部213は、変数iをインクリメント(i=i+1)し(S206)、上述ステップS202から動作する。 If the weighting factor deriving unit 213 determines in step S205 described above that the weighting factors have been derived for all object regions (that is, i = I), the weighting factor deriving unit 213 determines that the RGB image Terminates processing related to data. On the other hand, in the above-described step S205, when the object region for which the weighting factor is not yet derived by the weighting factor deriving unit 213 remains (that is, when i <I), the weighting factor deriving unit 213 The variable i is incremented (i = i + 1) (S206), and the operation starts from step S202 described above.
以上のように、重み係数導出部213では、RGB画像データを構成する各オブジェクト領域について重み係数が導出される。 As described above, the weighting factor deriving unit 213 derives a weighting factor for each object region constituting the RGB image data.
次に、輝度値算出部214にて、上述のステップS103で導出した重み係数に基づき、各画素の輝度値Yが算出される(S104)。輝度値算出部214は、各画素の輝度値Yについて、以下の式(1)に従い、各画素のRGB色成分値に、各画素が属するオブジェクト領域iの重み係数WRi、WGi、WBiを乗ずることで得るものとする。
Next, the luminance
Y=WRi×R+WGi×G+WBi×B …(1)
次に、モノクロ画像生成部215にて、上述のステップS104で算出した各画素の輝度値Yにより、入力カラー画像のRGB色成分値を輝度値Yに変換したモノクロ画像データが生成される(S105)。
Y = WR i × R + WG i × G + WB i × B (1)
Next, the monochrome
次に、画像形成部22により、ステップS105で生成されたモノクロ画像データが取得される。そして、画像形成部22により、モノクロ画像データについて、CMYK4色のトナー色材のうちの1色(例えばK)で表現可能なハーフトーン処理を施したモノクロ2値画像データに変換される。そして、画像形成部22により、出力部107が制御され、変換したモノクロ2値画像に基づいて記録媒体(例えば、紙葉類等)にトナー像が形成される(S106)。
Next, the
次に、上述のフローチャートの処理に従って、プリンタ100がRGB画像データを処理した場合の結果の例について説明する。
Next, an example of a result when the
図6は、画像処理部21がRGB画像データを処理した場合の結果の例について示して説明図である。なお、第1の実施形態において、画像処理部21が出力するのは、RGB画像データから形成したモノクロ画像データであるが、図6では、図示の都合上、ハーフトーン処理を施したモノクロ2値画像を用いて説明している。
FIG. 6 is an explanatory diagram illustrating an example of a result when the
図6(a)は、画像処理部21が処理したモノクロ画像に基づくモノクロ2値画像の例について示している。
FIG. 6A shows an example of a monochrome binary image based on the monochrome image processed by the
図6(a)の画像では、「旬の野菜」という文字列(以下では、この文字列を構成する文字領域を「領域A201」と呼ぶものとする)と、「こちらまで→XXXX」という文字列(以下では、この文字列を構成する文字領域を「領域A202」と呼ぶものとする)が表わされている。また、領域A201の各文字は、処理前のRGB画像データでは、緑色で表わされていたものである。さらに、領域A202の各文字は、処理前のRGB画像データでは、黄色で表わされていたものである。 In the image of FIG. 6A, a character string “seasonal vegetable” (hereinafter, a character area constituting this character string is referred to as “area A201”) and a character “to here → XXXX”. A string (hereinafter, a character area constituting the character string is referred to as “area A202”) is shown. Each character in the region A201 is represented in green in the RGB image data before processing. Further, each character in the area A202 is represented in yellow in the RGB image data before processing.
図6(a)の画像では、レタスのイメージ(以下、このイメージの領域を「領域A203」と呼ぶものとする)と、レモンのイメージ(以下では、このイメージの領域を「領域A204」と呼ぶものとする)が表わされている。また、領域A203のイメージは、処理前のRGB画像データでは、主に緑色を用いて表わされていたものである。さらに、領域A204のイメージは、処理前のRGB画像データでは、主に黄色で表わされていたものである。 In the image of FIG. 6A, a lettuce image (hereinafter, this image region is referred to as “region A203”) and a lemon image (hereinafter, this image region is referred to as “region A204”). Suppose). In addition, the image of the area A203 is mainly represented using green in the RGB image data before processing. Further, the image of the area A204 is mainly represented in yellow in the RGB image data before processing.
図6(b)〜図6(d)は、それぞれ異なる条件でモノクロ2値画像データを形成した場合における領域A201〜A204の一部を拡大表示した拡大画像(LG11〜LG13、LG21〜LG23、LG31〜LG33、LG41〜LG43)を示している。 6B to 6D are enlarged images (LG11 to LG13, LG21 to LG23, LG31) in which a part of the areas A201 to A204 is enlarged when monochrome binary image data is formed under different conditions. To LG33, LG41 to LG43).
図6(b)では、処理前の画像を構成する全ての画素について、重み係数をWR:WG:WB=3:6:1とした場合に形成されるモノクロ2値画像を現している。図6(c)では、処理前の画像を構成する全ての画素について、重み係数をWR:WG:WB=1:1:1とした場合に形成されるモノクロ2値画像を表わしている。図6(d)では、処理前の画像の文字領域について重み係数をWR:WG:WB=1:1:1とし、さらに、処理前の画像のイメージ領域について重み係数をWR:WG:WB=3:6:1とした場合に形成されるモノクロ2値画像を表わしている。 FIG. 6B shows a monochrome binary image formed when the weighting factors are set to WR: WG: WB = 3: 6: 1 for all pixels constituting the image before processing. FIG. 6C shows a monochrome binary image formed when the weighting factors are set to WR: WG: WB = 1: 1: 1 for all the pixels constituting the image before processing. In FIG. 6D, the weighting factor is set to WR: WG: WB = 1: 1: 1 for the character region of the image before processing, and the weighting factor is set to WR: WG: WB = for the image region of the image before processing. It represents a monochrome binary image formed when 3: 6: 1.
図6(b)〜図6(d)において、拡大画像LG11〜LG13は、領域A201の一部を拡大した拡大画像である。また、図6(b)〜図6(d)において、拡大画像LG21〜LG23は、領域A202の一部を拡大した拡大画像である。さらに、図6(b)〜図6(d)において、拡大画像LG31〜LG33は、領域A203の一部を拡大した拡大画像である。さらにまた、図6(b)〜図6(d)において、拡大画像LG41〜LG43は、領域A204の一部を拡大した拡大画像である。 6B to 6D, enlarged images LG11 to LG13 are enlarged images obtained by enlarging a part of the region A201. In FIGS. 6B to 6D, enlarged images LG21 to LG23 are enlarged images obtained by enlarging a part of the region A202. Further, in FIGS. 6B to 6D, enlarged images LG31 to LG33 are enlarged images obtained by enlarging a part of the region A203. Furthermore, in FIGS. 6B to 6D, enlarged images LG41 to LG43 are enlarged images obtained by enlarging a part of the region A204.
図6(b)の場合(画像内の全ての画素の重み係数をWR:WG:WB=3:6:1とした場合)、緑の文字領域(LG11)と黄色の文字領域(LG21)の色の違いは濃度の違いとしてはっきりしている。また、図6(b)の場合、緑のイメージ領域(LG31)と黄色のイメージ領域(LG41)の色の違いも、濃度の違いとしてはっきりしている。しかし、図6(b)の場合、黄色の文字領域(LG21)はかなり薄く判別しにくい。 In the case of FIG. 6B (when the weighting coefficients of all the pixels in the image are set to WR: WG: WB = 3: 6: 1), the green character region (LG11) and the yellow character region (LG21) The difference in color is obvious as the difference in density. In the case of FIG. 6B, the difference in color between the green image region (LG31) and the yellow image region (LG41) is also clear as a difference in density. However, in the case of FIG. 6B, the yellow character region (LG21) is very thin and difficult to distinguish.
また、図6(c)の場合(画像内の全ての画素の重み係数をWR:WG:WB=1:1:1とした場合)、黄色の文字領域LG22は、図6(b)の場合と比較して濃度が上がり判別しやすくなる。しかし、図6(c)の場合、緑の文字領域LG12や、緑色のイメージ領域(LG32)はやや薄くなり、黄色の文字領域(LG12)や、黄色のイメージ領域(LG42)との差が少なくなるため、特にイメージ領域の印象が元の画像と変わってしまう。 In the case of FIG. 6C (when the weighting coefficients of all the pixels in the image are set to WR: WG: WB = 1: 1: 1), the yellow character region LG22 is the case of FIG. 6B. Compared to the above, the density increases and it becomes easier to distinguish. However, in the case of FIG. 6C, the green character region LG12 and the green image region (LG32) are slightly thinner, and the difference from the yellow character region (LG12) and the yellow image region (LG42) is small. Therefore, the impression of the image area in particular changes from the original image.
次に、図6(d)の場合(第1の実施形態の画像処理部21を用いて処理した場合)には、緑色の文字領域(LG13)と、黄色の文字領域(LG23)は濃度もあり識別しやすく、かつ緑色のイメージ領域(LG33)と黄色のイメージ領域(LG43)との色の差は濃度差に反映されているため、文字の識別性の高さとイメージの色の違いという必要な情報を保つことができる。
Next, in the case of FIG. 6D (when processing is performed using the
(A−3)第1の実施形態の効果
第1の実施形態によれば、以下のような効果を奏することができる。
(A-3) Effects of First Embodiment According to the first embodiment, the following effects can be achieved.
第1の実施形態の画像処理部21では、文字領域とイメージ領域で、異なる重み係数を用いて輝度値を算出し、さらに、その輝度値に基づいたモノクロ画像を生成している。これにより、第1の実施形態の画像処理部21では、生成したモノクロ画像の文字領域やイメージ領域の内容の識別性を高め、必要な情報の欠落を防ぐことができる。
In the
(B)第2の実施形態
以下、本発明による画像処理装置及びプログラム、並びに、画像形成装置の第2の実施形態を、図面を参照しながら詳述する。なお、第2の実施形態では、本発明の画像形成装置を、プリンタに適用した例について説明する。
(B) Second Embodiment Hereinafter, an image processing apparatus, a program, and an image forming apparatus according to a second embodiment of the present invention will be described in detail with reference to the drawings. In the second embodiment, an example in which the image forming apparatus of the present invention is applied to a printer will be described.
(B−1)第2の実施形態の構成
以下、第2の実施形態のプリンタ100Aについて、第1の実施形態との差異について説明する。
(B-1) Configuration of Second Embodiment Hereinafter, a difference between the
第2の実施形態のプリンタ100Aのハードウェア的構成については、上述の図2で示すことができる。
The hardware configuration of the
次に、第2の実施形態のプリンタ100Aの機能的構成について説明する。
Next, a functional configuration of the
図7は、第2の実施形態のプリンタ100Aの機能的構成を示すブロック図であり、上述した図1との同一、対応部分には同一、対応符号を付して示している。
FIG. 7 is a block diagram illustrating a functional configuration of the
第2の実施形態のプリンタ100Aでは、画像処理部21が画像処理部21Aに置き換わっている点で第1の実施形態と異なっている。また、第2の実施形態の画像処理部21Aでは、領域分割部212及び重み係数導出部213が、領域分割部212A及び重み係数導出部213Aに置き換わっている点で、第1の実施形態と異なっている。また、第2の実施形態の画像処理部21Aでは、色情報取得手段としての色情報取得部216が追加されている点で、第1の実施形態と異なっている。その他の構成については、第1の実施形態と同様であるため詳しい説明は省略する。
The
第1の実施形態の領域分割部212は、RGB画像データの画像から、文字領域及びイメージ領域を認識し、認識したそれぞれの領域をオブジェクト領域として分割する処理を行っていた。これに対して、第2の実施形態の領域分割部212Aは、文字領域について、文字エッジ領域と、文字エッジ領域により囲まれた文字内部領域とを、別のオブジェクト領域として処理する。すなわち、第2の実施形態の領域分割部212Aは、RGB画像データの画像から、文字エッジ領域、文字内部領域、及びイメージ領域の3種類の領域を認識し、認識したそれぞれの領域をオブジェクト領域として分割する処理を行う。
The
領域分割部212Aが、RGB画像データの画像から、文字エッジ領域、文字内部領域、及びイメージ領域の3種類の領域を認識する方式については限定されないものである。第2の実施形態でも、領域分割部212Aの領域分割処理には、上述の参考文献1の記載技術を用いることができる。参考文献1の記載技術では、上述の通り、文字領域が抽出される過程で、文字エッジ領域と、文字内部領域が抽出される。したがって、領域分割部212Aでは、上述の参考文献1の記載技術を用いることにより、RGB画像データの画像から、文字エッジ領域、文字内部領域、及びイメージ領域の3種類の領域を認識することができる。
The method in which the
次に、領域分割部212Aが行う分割処理について、上述の図3(b)の例を用いて説明する。第1の実施形態の領域分割部212では、領域A101と領域A104を併せて一つの文字領域のオブジェクト領域と認識していた。しかし、第2の実施形態の領域分割部212Aでは、領域A101を文字エッジ領域のオブジェクト領域、領域A104を文字内部領域のオブジェクト領域と、それぞれ別のオブジェクト領域として分割することになる。
Next, the dividing process performed by the
色情報取得部216は、領域分割部212Aにて分割したオブジェクト領域のうち、少なくとも文字エッジ領域のオブジェクト領域について、当該オブジェクト領域で主成分となる色を判定する。そして、色情報取得部216は、その判定結果を色情報として取得する。ここで「色情報」とは、各オブジェクト領域の主成分となる色を示す情報であり、Red、Yellow、Green、Cyan、Blue、Magenta、Grayの7色の何れかで表わされるものとする。言い換えると、色情報取得部216は、当該オブジェクト領域で主成分となる色が、上述の7色のいずれに該当するのかを判定する。ここでは、色情報は、上述の7色で示されるものとして説明するが、その色数は限定されないものである。
The color
重み係数導出部213Aは、領域分割部212Aにて分割したオブジェクト領域に対し、色情報取得部216で取得した領域内の色情報に基づき、オブジェクト領域毎に異なる重み係数を導出する。
The weighting
ここでは、重み係数導出部213Aは、色情報ごとの重み係数を登録したテーブル(以下、「重み係数テーブル」という)を備えているものとする。そして、重み係数導出部213Aは、それぞれのオブジェクト領域について、当該オブジェクト領域の色情報に対応する重み係数を、重み係数テーブルから求める。
Here, it is assumed that the weighting
図11は、重み係数テーブルの内容例について示した説明図である。 FIG. 11 is an explanatory diagram showing an example of the contents of the weighting coefficient table.
重み係数テーブルには、図11に示すように、色情報の色(上述の7色)ごとに対応する重み係数(WR、WG、WB)が登録されている。 In the weighting coefficient table, as shown in FIG. 11, weighting coefficients (WR, WG, WB) corresponding to each color of the color information (the above-mentioned seven colors) are registered.
図11に示すように、重み係数テーブルの各重み係数は、色情報の各色についての捕色フィルターとして働く係数となっている。図11に示す重み係数テーブルでは、第1の実施形態と比較して、文字エッジ領域に対して算出される輝度値が低め(モノクロ画像での濃度が高め)になるように設定されている。 As shown in FIG. 11, each weight coefficient in the weight coefficient table is a coefficient that functions as a color catching filter for each color of the color information. In the weighting coefficient table shown in FIG. 11, the brightness value calculated for the character edge region is set lower (higher density in a monochrome image) than in the first embodiment.
例えば、図11では、色情報がREDの重み係数は、WR=0.00、WG=0.50、WB=0.50としている。色情報取得部216により、当該文字エッジ領域の主たる色成分がREDと判定されたということは、当該文字エッジ領域の各画素はRGBのうちRの成分を多く含んでいることを意味する。したがって、当該文字エッジ領域に適用する重み係数のうち、重み係数WRの比率を下げれば、当該文字エッジ領域の輝度値が低め(モノクロ画像での濃度が高め)になる。そのため、図11では、色情報がREDの重み係数において、WRの重みを0.00に下げている。同様に、色情報がGreenに対応する重み係数では、WGの重みを下げている。また、色情報Blueに対応する重み係数では、WBの重みを下げている。さらに、色情報Yellowに対応する重み係数では、Yellowを示す成分の重み(WR及びWG)を下げている。さらにまた、色情報Cyanに対応する重み係数では、Cyanを示す成分の重み(WG及びWB)を下げている。また、色情報Magentaに対応する重み係数では、Magentaを示す成分の重み(WR及びWB)を下げている。色情報Grayは無彩色であるので、図11では、WR、WG、WBが同じ重みとなるように設定している。
For example, in FIG. 11, the weighting factors for the color information RED are WR = 0.00, WG = 0.50, and WB = 0.50. When the color
なお、文字エッジ領域に対して算出される輝度値が、第1の実施形態と比較して低めになるような重み係数であれば、重み係数テーブルの内容は、上述の図11の内容に限定されないものである。 If the luminance value calculated for the character edge region is a weighting factor that is lower than that of the first embodiment, the content of the weighting factor table is limited to the content of FIG. 11 described above. Is not.
(B−2)第2の実施形態の動作
次に、以上のような構成を有する第2の実施形態のプリンタ100Aの動作を説明する。
(B-2) Operation of Second Embodiment Next, the operation of the
図8は、プリンタ100Aの動作の概要について示したフローチャートである。
FIG. 8 is a flowchart showing an outline of the operation of the
まず、画像取得部211により、入力I/F101を介して、RGB画像データが取得され、RAM103又はHDD106へ格納されたものとする(S301)。ステップS302の処理は、第1の実施形態(上述のステップS101)と同様であるため詳しい説明を省略する。
First, it is assumed that RGB image data is acquired by the
次に、領域分割部212の領域分割処理により、上述のステップS301で取得したRGB画像データの画像が、文字エッジ領域、文字内部領域、及びイメージ領域の3種類のオブジェクト領域に分割される(S302)。
Next, by the region dividing process of the
そして、色情報取得部216にて、上述のステップS302で分割したオブジェクト領域毎に、当該領域内の色情報を取得する(S303)。第2の実施形態では、各オブジェクト領域で主成分となる色の属性を判定する。そして、色情報取得部216は、その判定結果を、当該オブジェクト領域の色情報として取得する。具体的には、色情報取得部216は、当該オブジェクト領域内のそれぞれの画素の色成分値(RGBの各成分の値)に基づいて、それぞれの画素がRed、Yellow、Green、Cyan、Blue、Magenta、Grayの7つに分類される色情報のうちいずれに属するかを判定する。そして、色情報取得部216は、当該領域内で最も多くの画素の情報をその領域の色情報とするものとする。
Then, the color
図9は、色情報取得部216の具体的処理の例について示したフローチャートである。
FIG. 9 is a flowchart illustrating an example of specific processing of the color
なお、図9のフローチャートにおいて、i(1≦i≦I)、j(1≦j≦J)は、繰り返し処理に用いる変数である。また、iの初期値は1であり、以下では、オブジェクトIDがiとなるオブジェクト領域を、「オブジェクト領域i」と表わすものとする。さらに、以下では、オブジェクト領域iを構成する画素の総数をJと表すものとする。さらにまた、jの初期値は1であり、以下では、オブジェクト領域iを構成するj番目の画素を「画素j」と表すものとする。また、以下では、オブジェクト領域iの色情報を「Ci」と表し、画素jの色情報を「Ci−j」と表すものとする。 In the flowchart of FIG. 9, i (1 ≦ i ≦ I) and j (1 ≦ j ≦ J) are variables used for the iterative process. In addition, the initial value of i is 1, and in the following, an object area with an object ID i is represented as “object area i”. Further, in the following, it is assumed that the total number of pixels constituting the object area i is represented as J. Furthermore, the initial value of j is 1, and hereinafter, the j-th pixel constituting the object area i is represented as “pixel j”. Hereinafter, the color information of the object region i is represented as “C i ”, and the color information of the pixel j is represented as “C i−j ”.
まず、色情報取得部216は、RGB画像データから、オブジェクト領域iを構成する各画素のデータを抽出する(S401)。
First, the color
次に、色情報取得部216は、オブジェクト領域iを構成する画素jのデータを抽出する(S402)。
Next, the color
次に、色情報取得部216は、RGB形式で示された画素jについて、HSV(Hue Saturation Value)色空間における色相値Hを得る(S403)。
Next, the color
RGB形式で示された画素jについて、HSV色空間における式相値Hを求める方法は限定されないものであるが、ここでは以下の(2)式〜(6)式を用いて変換するものとして説明する。 The method of obtaining the formula phase value H in the HSV color space for the pixel j shown in the RGB format is not limited, but here it is assumed that conversion is performed using the following formulas (2) to (6). To do.
まず、色情報取得部216は、以下の(2)、(3)式を用いて、画素jのR、G、B値のうちの最大値(MAX)と最小値(MIN)を求める。
First, the color
そして、色情報取得部216は、MAX=MINでない場合には、以下の(4)、(5)式により、画素jの色相値Hを求める。以下の(4)、(5)式では、Red、Yellow、Green、Cyan、Blue、Magenta、Redの順に、色相値が0〜359の値で表されている。一方、MAX=MINの場合、画素jは無彩色(Gray)であるため、色情報取得部216は、以下の(6)式に示すように、色相値Hとして、色相未確定を示す値(NULL)を得る。
次に、色情報取得部216は、上述のステップS403で求めた色相値Hに基づき、画素jの色情報Ci−jを以下の式(7)により決定する(S404)。
次に、色情報取得部216は、オブジェクト領域i内の全ての画素の色情報を決定したか否か(すなわち、j=Jであるか否か)を判定する(S405)。オブジェクト領域i内の全ての画素の色情報を決定した場合(すなわちj=Jの場合)には、色情報取得部216は、jを初期化(j=1)して、後述するステップS407の処理から動作する。一方、まだオブジェクト領域i内で色情報を決定していない画素が残っている場合(すなわちj<Jの場合)には、色情報取得部216は、jをインクリメント(j=j+1)し(S406)、上述のステップS402の処理に戻って動作する。
Next, the color
一方、上述のステップS405で、オブジェクト領域i内の全ての画素の色情報を決定したと判定された場合(すなわちj=Jの場合)には、色情報取得部216は、オブジェクト領域i内の全ての画素の色情報(Ci−1〜Ci−j)で、最も数の多い色情報を、オブジェクト領域iの色情報Ciと決定する。
On the other hand, if it is determined in step S405 described above that the color information of all the pixels in the object area i has been determined (that is, if j = J), the color
次に、色情報取得部216は、RGB画像データを構成する全てのオブジェクト領域について色情報を決定したか否か(すなわちi=Iであるか否か)を確認する(S407)。RGB画像データを構成する全てのオブジェクト領域について色情報を決定した場合(すなわちi=Iの場合)には、色情報取得部216は、処理を終了する。一方、RGB画像データで色情報を決定していないオブジェクト領域が残っている場合(すなわちi<Iの場合)には、色情報取得部216は、iをインクリメント(i=i+1)し(S409)、上述のステップS401の処理に戻って動作する。
Next, the color
以上のように、色情報取得部216は、RGB画像データを構成する各オブジェクト領域内での主たる色を、一次色(Red、Green、Blue)、二次色(Yellow、Cyan、Magenta)または無彩色(Gray)で分類した結果を領域毎の色情報として得る。
As described above, the color
なお、図9では、全てのオブジェクト領域について色情報を求める処理を行っているが、文字エッジ領域のオブジェクト領域についてだけ求めるようにしても良い。例えば、色情報取得部216は、文字エッジ領域以外のオブジェクト領域については、色情報の取得をスキップするようにしても良い。
In FIG. 9, the color information is obtained for all the object areas, but it may be obtained only for the object area of the character edge area. For example, the color
次に、重み係数導出部213Aは、上述のステップS303で取得したオブジェクト領域毎に、モノクロ輝度値Yを算出するための重み係数WR、WG、WBを導出する。
Next, the weighting
図10は、重み係数導出部213Aの動作例について示したフローチャートである。
FIG. 10 is a flowchart illustrating an operation example of the weighting
図10のフローチャートにおいて、i(1≦i≦I)は、繰り返し処理に用いる変数である。また、iの初期値は1であり、オブジェクトIDがiとなるオブジェクト領域を、「オブジェクト領域i」と表わすものとする。また、以下では、オブジェクト領域iに対する、R成分の重み係数をWRi、G成分の重み係数をWGi、B成分の重み係数をWBiとそれぞれ表わすものとする。 In the flowchart of FIG. 10, i (1 ≦ i ≦ I) is a variable used for the iterative process. The initial value of i is 1, and an object area with an object ID i is represented as “object area i”. In the following, for the object region i, the R component weighting coefficient is represented as WR i , the G component weighting coefficient is represented as WG i , and the B component weighting coefficient is represented as WB i .
まず、重み係数導出部213Aは、オブジェクト領域iのデータを、RAM103から抽出し(S501)、オブジェクト領域iの種類が文字エッジ領域であるか否かを判定する(S502)。
First, the weighting
上述のステップS502において、オブジェクト領域iの種類が文字エッジ領域と判定された場合には、重み係数導出部213Aは、後述するステップS503に移行し、そうでない場合(オブジェクト領域iの種類が、文字内部領域又はイメージ領域の場合)には、後述するステップS505の処理に移行する。
If it is determined in step S502 described above that the type of the object area i is a character edge area, the weighting
上述のステップS502において、オブジェクト領域iの種類が文字エッジ領域と判定された場合には、重み係数導出部213Aは、オブジェクト領域iの色情報をRAM103から参照して取得する(S503)。
If it is determined in step S502 described above that the type of the object area i is a character edge area, the weight
次に、重み係数導出部213Aは、重み係数テーブルを参照して、オブジェクト領域iの色情報に対応する重み係数を取得する。そして、重み係数導出部213Aは、取得した重み係数を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S504)。
Next, the weighting
一方、上述のステップS502において、オブジェクト領域iの種類が文字エッジ領域と判定されなかった場合には、重み係数導出部213Aは、オブジェクト領域iの種類が文字内部領域であるか否かを判定する(S505)。
On the other hand, if the type of the object area i is not determined to be the character edge area in step S502 described above, the weighting
上述のステップS505において、オブジェクト領域iの種類が文字内部領域と判定された場合には、重み係数導出部213Aは、後述するステップS506に移行し、そうでない場合(オブジェクト領域iの種類が、イメージ領域の場合)には、後述するステップS507の処理に移行する。
If it is determined in step S505 described above that the type of the object area i is a character internal area, the weighting
上述のステップS502において、オブジェクト領域iの種類が文字内部領域と判定された場合には、重み係数導出部213Aは、オブジェクト領域iの重み係数(WRi、WGi.WBi)を、文字領域に適した割合(例えば、WRi=0.33、WGi=0.34、WBi=0.33)に決定する。そして、重み係数導出部213Aは、決定した重み係数を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S506)。
If it is determined in step S502 that the type of the object area i is a character internal area, the weight
上述のステップS502において、オブジェクト領域iの種類がイメージ領域と判定された場合には、重み係数導出部213Aは、オブジェクト領域iの重み係数(WRi、WGi、WBi)を、イメージ領域に適した割合(例えば、WRi=0.30、WGi=0.59、WBi=0.11)に決定する。そして、重み係数導出部213Aは、決定した重み係数を、オブジェクト領域iに対応するデータとしてRAM103に記録する(S504)。
When it is determined in step S502 that the type of the object area i is an image area, the weight
上述のステップS504、S506、S507のいずれかにより、オブジェクト領域iの重み係数が決定されると、重み係数導出部213Aは、全てのオブジェクト領域について重み係数を導出したか否か(すなわちi=Iであるか否か)を判定する(S508)。
When the weighting coefficient of the object area i is determined by any of the above-described steps S504, S506, and S507, the weighting
上述のステップS508で、全てのオブジェクト領域について重み係数を導出したと判定された場合(すなわち、i=Iの場合)には、重み係数導出部213Aは、当該RGB画像データに関する処理を終了する。一方、上述のステップS508で、まだ重み係数の導出がされていないオブジェクト領域が残っている場合(すなわち、i<Iの場合)には、重み係数導出部213Aは、変数iをインクリメント(i=i+1)し(S509)、上述のステップS501の処理に移行する。
When it is determined in step S508 described above that weighting factors have been derived for all object regions (that is, i = I), the weighting
以上のように、重み係数導出部213Aでは、RGB画像データを構成する各オブジェクト領域について重み係数が導出される。
As described above, the weighting
次に、輝度値算出部214にて、上述のステップS304で導出した重み係数に基づき、各画素の輝度値Yが算出される(S305)。ステップS305の処理は、第1の実施形態のステップS104の処理と同様であるので詳しい説明は省略する。
Next, the luminance
次に、モノクロ画像生成部215にて、上述のステップS305で算出した各画素の輝度値Yにより、入力カラー画像のRGB色成分値を輝度値Yに変換したモノクロ画像データが生成される(S306)。そして、画像形成部22は、ステップS306で生成したモノクロ画像データを、モノクロ2値画像データに変換し、記録媒体にトナー像を形成する(S307)。なお、ステップS306、S307の処理は、第1の実施形態のステップS105、S106と同様の処理であるので詳しい説明は省略する。
Next, the monochrome
(B−3)第2の実施形態の効果
第2の実施形態によれば、以下のような効果を奏することができる。
(B-3) Effects of Second Embodiment According to the second embodiment, the following effects can be achieved.
第2の実施形態の画像処理部21Aでは、文字エッジ領域に適用する重み係数を調整することにより、文字エッジ領域を構成する画素の濃度を高めている。これにより、第2の実施形態の画像処理部21Aでは、第1の実施形態と比較して、より文字の識別性の高いモノクロ画像を生成することができる。
In the
(C)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(C) Other Embodiments The present invention is not limited to the above-described embodiments, and may include modified embodiments as exemplified below.
(C−1)上記の各実施形態において、本発明の画像形成装置としてのプリンタは、外部のPCやスキャナ等からRGB画像データの供給を受けて、そのRGB画像データをモノクロ画像に変換する処理を行っていた。しかし、本発明の画像形成装置において、処理対象となるRGB画像データを保持する方法は限定されないものである。例えば、本発明の画像形成装置を、スキャナを内蔵した複写機、ファクシミリ、複合機等に適用するようにしても良い。 (C-1) In each of the above embodiments, the printer as the image forming apparatus of the present invention receives RGB image data supplied from an external PC, scanner, or the like, and converts the RGB image data into a monochrome image. Had gone. However, in the image forming apparatus of the present invention, the method for holding the RGB image data to be processed is not limited. For example, the image forming apparatus according to the present invention may be applied to a copying machine, a facsimile machine, a multifunction machine, or the like that incorporates a scanner.
(C−2)上記の各実施形態において、本発明の画像形成装置をプリンタに適用した例について説明したが、本発明の画像形成装置が生成したモノクロ画像を形成する方式は限定されないものである。例えば、本発明の画像形成装置が生成したモノクロ画像を、ディスプレイ等に表示出力させたりするようにしても良い。 (C-2) In each of the above embodiments, the example in which the image forming apparatus of the present invention is applied to a printer has been described. However, the method of forming a monochrome image generated by the image forming apparatus of the present invention is not limited. . For example, a monochrome image generated by the image forming apparatus of the present invention may be displayed on a display or the like.
(C−3)上記の各実施形態では、本発明の画像処理装置をプリンタに搭載する例について説明したが、画像処理装置を単独の装置として構築するようにしても良い。例えば、パソコン等の情報処理装置に、本発明の画像処理プログラムをインストールして画像処理装置を構築し、その画像処理装置を用いて、RGB画像データからモノクロ画像データを生成して出力するようにしても良い。また、本発明の画像処理装置がモノクロ画像データを出力する形式については限定されないものであり、例えば、HDDやCD−ROM等の記憶媒体に記憶させたり、通信により他のコンピュータに送信するようにしても良い。 (C-3) In each of the above embodiments, the example in which the image processing apparatus of the present invention is mounted on a printer has been described. However, the image processing apparatus may be constructed as a single apparatus. For example, the image processing program of the present invention is installed in an information processing apparatus such as a personal computer to construct an image processing apparatus, and the image processing apparatus is used to generate and output monochrome image data from RGB image data. May be. Further, the format in which the image processing apparatus of the present invention outputs monochrome image data is not limited. For example, the image processing apparatus may be stored in a storage medium such as an HDD or a CD-ROM, or may be transmitted to another computer by communication. May be.
また、上記の各実施形態では、画像処理部をプリンタ側に搭載する例について説明したが、図2に示すPC側に搭載(すなわち、PCに画像処理プログラムをインストール)するようにしても良い。 In each of the above embodiments, the example in which the image processing unit is mounted on the printer side has been described. However, the image processing unit may be mounted on the PC side illustrated in FIG. 2 (that is, an image processing program is installed in the PC).
(C−4)上記の各実施形態において、画像処理部は、RGB画像データから生成したモノクロ画像データを出力しているが、モノクロ2値画像データの変換までを行うようにしても良い。すなわち、画像処理部が行う画像処理に、画像形成部が行う内容まで含めるようにしても良い。 (C-4) In each of the above embodiments, the image processing unit outputs monochrome image data generated from RGB image data. However, the image processing unit may perform conversion up to monochrome binary image data. That is, the image processing performed by the image processing unit may include the content performed by the image forming unit.
(C−5)上記の各実施形態では、本発明の画像処理プログラムをROMに記憶しておく例について説明したが、画像処理プログラムを記憶する媒体は限定されないものである。例えば、本発明の画像処理プログラムを、上述の図2に示すHDDに記憶するようにしても良い。 (C-5) In each of the above embodiments, the example in which the image processing program of the present invention is stored in the ROM has been described. However, the medium for storing the image processing program is not limited. For example, the image processing program of the present invention may be stored in the HDD shown in FIG.
(C−6)上記の各実施形態では、プリンタが形成(印刷)する画像は、全て、画像処理部が処理した画像であるものとして説明したが、例えば、ユーザからの操作に応じて画像処理部の処理を停止し、RGB画像データをそのまま画像形成部に引き渡すようにしても良い。プリンタがユーザからの操作を受付ける構成については限定されないものであるが、例えば、PCを介して入力I/Fから受付けるようにしても良いし、プリンタ自体に別途操作用のスイッチを設けるようにしても良い。 (C-6) In each of the above embodiments, it has been described that all images formed (printed) by the printer are images processed by the image processing unit. For example, image processing is performed according to an operation from the user. It is also possible to stop the processing of the image forming unit and pass the RGB image data as it is to the image forming unit. The configuration in which the printer accepts an operation from the user is not limited. For example, the printer may accept an operation from the input I / F via a PC, or a separate operation switch may be provided on the printer itself. Also good.
(C−7)上記の各実施形態の画像処理部では、イメージ領域に対しては、全て共通の重み係数を適用しているが、イメージ領域の一部の領域について適用する重み係数を変更するようにしても良い。例えば、画像処理部が、ユーザの操作により選択された領域について、文字領域と同様の方式で導出された重み係数を適用するようにしても良い。画像処理部が、ユーザにイメージ領域の一部を選択させる方式については限定されないものであるが、例えば、PCに搭載された図示しないディスプレイにRGB画像データを表示させ、図示しない入力装置(例えば、マウス等)を用いて選択させるようにしても良い。 (C-7) In the image processing unit of each of the above embodiments, a common weighting factor is applied to all image regions, but the weighting factor applied to a part of the image region is changed. You may do it. For example, the image processing unit may apply a weighting factor derived by a method similar to that for a character region to a region selected by a user operation. The method by which the image processing unit allows the user to select a part of the image area is not limited. For example, RGB image data is displayed on a display (not shown) mounted on the PC, and an input device (not shown) (for example, You may make it select using a mouse | mouth etc.).
(C−8)第2の実施形態の画像処理部では、重み係数テーブル(図11参照)を用いて、文字エッジ領域の輝度値が低くなるように重み係数を調節しているが、文字エッジ領域の輝度値そのものを調節するようにしても良い。例えば、輝度値算出部において、算出された輝度値を、文字エッジ領域についてだけ、低く調整(例えば、一定値減じる調整)を行うようにしても良い。また、例えば、輝度値算出部において、文字エッジ領域についてだけ、輝度値の算出処理を行わずに、予め設定した固定値(色情報に応じた値としても良い)を適用するようにしても良い。 (C-8) In the image processing unit of the second embodiment, the weighting factor is adjusted using the weighting factor table (see FIG. 11) so that the luminance value of the character edge region is lowered. The luminance value itself of the area may be adjusted. For example, the luminance value calculation unit may adjust the calculated luminance value to be lower only for the character edge region (for example, adjustment to reduce the constant value). In addition, for example, the luminance value calculation unit may apply a preset fixed value (which may be a value according to color information) without performing the luminance value calculation process only for the character edge region. .
100…プリンタ(画像形成装置)、110…PC、101…入力I/F、106…HDD、107…出力部、102…制御部、103…RAM、104…ROM、105…CPU、21…画像処理部(画像処理装置)、211…画像取得部、212…領域分割部、213…重み係数導出部、214…輝度値算出部、215…モノクロ画像生成部、22…画像形成部。
DESCRIPTION OF
Claims (5)
それぞれのオブジェクト領域について、当該オブジェクト領域を構成する画素の輝度値算出に用いる重み係数を、当該オブジェクト領域の種類に応じた方式で導出する重み係数導出手段と、
オブジェクト領域毎に、前記重み係数導出手段で導出した重み係数を用いて、当該オブジェクト領域を構成する画素のそれぞれの輝度値を算出する輝度値算出手段と、
前記輝度値算出手段が算出した各画素の輝度値に基づいて、1つの色成分値によって表現することが可能な単色画像を生成する単色画像生成手段とを有し、
前記領域分割手段は、文字領域について、さらに、文字領域のエッジ部分を構成する文字エッジ領域と、文字エッジ領域に囲まれた文字内部領域とに分け、それぞれ異なる種類のオブジェクト領域として分割し、
前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、より識別性が高くなるような重み係数を導出し、
文字エッジ領域のオブジェクト領域のそれぞれについて、主たる色成分に係る色情報を取得する色情報取得手段をさらに有し、
前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、前記色情報取得手段が取得した色情報に示される色を構成する色成分の重みを下げた重み係数を導出し、
前記色情報取得手段は、文字エッジのオブジェクト領域について、当該オブジェクト領域を構成する各画素の色相を求め、最も出現頻度の高い色相の色を、色情報として取得する
ことを特徴とする画像処理装置。 Area dividing means for dividing a multicolor image represented by a plurality of color component values into a plurality of types of object areas including at least a character area and an image area;
For each object region, weighting factor deriving means for deriving a weighting factor used for calculating the luminance value of the pixels constituting the object region by a method according to the type of the object region;
For each object region, using the weighting factor derived by the weighting factor deriving unit, a luminance value calculating unit that calculates the luminance value of each pixel constituting the object region;
Monochrome image generation means for generating a monochrome image that can be expressed by one color component value based on the brightness value of each pixel calculated by the brightness value calculation means ;
The area dividing means further divides the character area into a character edge area that constitutes an edge portion of the character area and a character internal area surrounded by the character edge area, and divides them into different types of object areas,
The weighting factor deriving means derives a weighting factor that is more discriminating for the object region of the character edge region,
For each of the object regions of the character edge region, further comprising color information acquisition means for acquiring color information relating to the main color component,
The weighting factor deriving unit derives a weighting factor obtained by reducing the weight of the color component constituting the color indicated by the color information acquired by the color information acquiring unit for the object region of the character edge region,
The color information acquisition means obtains the hue of each pixel constituting the object area of the character edge object area, and acquires the color of the hue with the highest appearance frequency as color information. .
複数の色成分値によって表現される多色画像を、少なくとも文字領域とイメージ領域を含む複数種類のオブジェクト領域に分割する領域分割手段と、
それぞれのオブジェクト領域について、当該オブジェクト領域を構成する画素の輝度値算出に用いる重み係数を、当該オブジェクト領域の種類に応じた方式で導出する重み係数導出手段と、
オブジェクト領域毎に、前記重み係数導出手段で導出した重み係数を用いて、当該オブジェクト領域を構成する画素のそれぞれの輝度値を算出する輝度値算出手段と、
前記輝度値算出手段が算出した各画素の輝度値に基づいて、1つの色成分値によって表現することが可能な単色画像を生成する単色画像生成手段として機能させ、
前記領域分割手段は、文字領域について、さらに、文字領域のエッジ部分を構成する文字エッジ領域と、文字エッジ領域に囲まれた文字内部領域とに分け、それぞれ異なる種類のオブジェクト領域として分割し、
前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、より識別性が高くなるような重み係数を導出し
前記コンピュータを文字エッジ領域のオブジェクト領域のそれぞれについて、主たる色成分に係る色情報を取得する色情報取得手段としてさらに機能させ、
前記重み係数導出手段は、文字エッジ領域のオブジェクト領域について、前記色情報取得手段が取得した色情報に示される色を構成する色成分の重みを下げた重み係数を導出し、
前記色情報取得手段は、文字エッジのオブジェクト領域について、当該オブジェクト領域を構成する各画素の色相を求め、最も出現頻度の高い色相の色を、色情報として取得する
ことを特徴とする画像処理プログラム。 Computer
Area dividing means for dividing a multicolor image represented by a plurality of color component values into a plurality of types of object areas including at least a character area and an image area;
For each object region, weighting factor deriving means for deriving a weighting factor used for calculating the luminance value of the pixels constituting the object region by a method according to the type of the object region;
For each object region, using the weighting factor derived by the weighting factor deriving unit, a luminance value calculating unit that calculates the luminance value of each pixel constituting the object region;
Based on the luminance value of each pixel and the brightness value calculation means has calculated, to function as a single-color image generating means for generating a monochrome image that can be represented by a single color component values,
The area dividing means further divides the character area into a character edge area that constitutes an edge portion of the character area and a character internal area surrounded by the character edge area, and divides them into different types of object areas,
The weighting factor deriving means derives a weighting factor that makes the object region of the character edge region more distinctive.
Further causing the computer to function as color information acquisition means for acquiring color information related to the main color component for each of the object areas of the character edge area,
The weighting factor deriving unit derives a weighting factor obtained by reducing the weight of the color component constituting the color indicated by the color information acquired by the color information acquiring unit for the object region of the character edge region,
The color information acquisition means obtains the hue of each pixel constituting the object area of the object area of the character edge, and acquires the color of the hue with the highest appearance frequency as color information. Image processing program.
前記画像処理装置として、請求項1〜3のいずれかに記載の画像処理装置を適用したこと
を特徴とする画像形成装置。 An image forming apparatus comprising: an image processing apparatus; and an image forming unit that forms an image processed using the image processing apparatus on a recording medium.
Wherein the image processing apparatus, an image forming apparatus, characterized in that the application of the image processing apparatus according to any one of claims 1-3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011111601A JP5687560B2 (en) | 2011-05-18 | 2011-05-18 | Image processing apparatus and program, and image forming apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011111601A JP5687560B2 (en) | 2011-05-18 | 2011-05-18 | Image processing apparatus and program, and image forming apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012244355A JP2012244355A (en) | 2012-12-10 |
JP5687560B2 true JP5687560B2 (en) | 2015-03-18 |
Family
ID=47465606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011111601A Expired - Fee Related JP5687560B2 (en) | 2011-05-18 | 2011-05-18 | Image processing apparatus and program, and image forming apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5687560B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6749504B2 (en) * | 2017-11-06 | 2020-09-02 | Eizo株式会社 | Image processing apparatus, image processing method, and image processing program |
CN113076954B (en) * | 2021-03-26 | 2022-06-21 | 广西科技大学 | Contour detection method based on rod cell dark adaptation |
CN117560826B (en) * | 2024-01-10 | 2024-03-29 | 西安南洋迪克整装智能家居有限公司 | Automatic lighting device of intelligent cabinet |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3109421B2 (en) * | 1995-09-08 | 2000-11-13 | 富士ゼロックス株式会社 | Chart processing equipment |
JP2000245700A (en) * | 1999-03-01 | 2000-09-12 | Nidek Co Ltd | Instrument for measuring eyeground and recording medium for recording measurement program |
US7190486B2 (en) * | 2002-01-25 | 2007-03-13 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method |
US20060082833A1 (en) * | 2004-10-20 | 2006-04-20 | Kabushiki Kaisha Toshiba | Image forming device, image processing device and image producing program |
JP2007067908A (en) * | 2005-08-31 | 2007-03-15 | Kyocera Mita Corp | Image processor, image forming apparatus, image processing method, and image processing program |
JP2007096391A (en) * | 2005-09-27 | 2007-04-12 | Kyocera Mita Corp | Image processor |
JP2007129447A (en) * | 2005-11-02 | 2007-05-24 | Canon Inc | Image processor, image processing method, program implementing image processing method, and storage medium |
-
2011
- 2011-05-18 JP JP2011111601A patent/JP5687560B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012244355A (en) | 2012-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5230705B2 (en) | Image processing device | |
JP4840495B2 (en) | Image processing apparatus and computer program | |
JP5685895B2 (en) | Image processing apparatus, image processing method, and program | |
US8224084B2 (en) | Image processing method, image processing apparatus, and color image generating system | |
JP6349707B2 (en) | Color conversion apparatus, lookup table generation method, and lookup table generation apparatus | |
US9253368B2 (en) | Image processing device setting binary value without using dither matrix when prescribed condition is satisfied | |
US8982411B2 (en) | Image processing apparatus and method | |
JP4803122B2 (en) | Color processing apparatus and program | |
JP5645612B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP5687560B2 (en) | Image processing apparatus and program, and image forming apparatus | |
JP2010016661A (en) | Image processing device | |
Pedersen et al. | Attributes of a new image quality model for color prints | |
JP6349708B2 (en) | Lookup table generation method and lookup table generation apparatus | |
EP2009900B1 (en) | Image-printing device | |
JP5863723B2 (en) | Image processing apparatus and image forming apparatus | |
JP6486082B2 (en) | Image processing apparatus, image processing method, and program | |
US8320669B2 (en) | Image processing method, image processing apparatus, image data compression device, and computer program | |
JP2009100312A (en) | Image forming apparatus, color image output method and control program | |
JP2009206572A (en) | Image processor, program, and image processing method | |
JP2010062921A (en) | Image processing apparatus and method, program, and recording medium | |
JP2016225724A (en) | Image processing apparatus and image forming system | |
JP2011130105A (en) | Image processing apparatus | |
JP2009284214A (en) | Image processing device, image processing method, program and recoding medium | |
JP4582242B2 (en) | Image processing apparatus, method, and program | |
JP2014060681A (en) | Image processor, program, and image forming apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140930 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141201 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20141201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5687560 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |