JP2915503B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2915503B2
JP2915503B2 JP2159951A JP15995190A JP2915503B2 JP 2915503 B2 JP2915503 B2 JP 2915503B2 JP 2159951 A JP2159951 A JP 2159951A JP 15995190 A JP15995190 A JP 15995190A JP 2915503 B2 JP2915503 B2 JP 2915503B2
Authority
JP
Japan
Prior art keywords
image
color
signal
image data
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2159951A
Other languages
Japanese (ja)
Other versions
JPH0451263A (en
Inventor
圭三 伊勢村
弘幸 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2159951A priority Critical patent/JP2915503B2/en
Publication of JPH0451263A publication Critical patent/JPH0451263A/en
Application granted granted Critical
Publication of JP2915503B2 publication Critical patent/JP2915503B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Color Electrophotography (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Dot-Matrix Printers And Others (AREA)
  • Color, Gradation (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION 【産業上の利用分野】[Industrial applications]

本発明は画像処理装置に関するものである。 The present invention relates to an image processing device.

【従来の技術】[Prior art]

従来の例えばデイジタル複写機における画像処理にお
いては、複写すべき原稿をハロゲンランプ等で照射し、
その反射光をCCD等の電荷結合素子を用い光電変換した
後、デイジタル信号に変換して、所定の画像処理を行な
つていた。そしてこの画像処理した画像データをレーザ
ービームプリンタ、液晶プリンタ、サーマルプリンタ、
インクジエツトプリンタ等の記録装置を用い可視像化し
ていた。 このような複写装置に於ては、複写原稿のカラー化等
に伴ない情報量の多いアウトプツトが求められており、
近年複数色の現像器を有し、部分的に色を換えて複写す
る複写装置が開発されている。
In conventional image processing in, for example, a digital copying machine, a document to be copied is irradiated with a halogen lamp or the like,
The reflected light is photoelectrically converted using a charge-coupled device such as a CCD, and then converted into a digital signal, and predetermined image processing is performed. Then, the image data after the image processing is converted into a laser beam printer, a liquid crystal printer, a thermal printer,
Visualization was performed using a recording device such as an ink jet printer. In such a copying apparatus, there is a demand for an output having a large amount of information due to colorization of a copy original.
2. Description of the Related Art In recent years, a copying apparatus having a plurality of color developing devices and performing copying by partially changing colors has been developed.

【発明が解決しようとしてる課題】[Problems to be solved by the invention]

しかしながら、複数色の現像器をもち、部分的に色を
変えて画像を形成する複写装置に於ては、多くの現像器
を有するため機構が複雑となり、かつ画像の位置精度も
高いものが要求される。このため、高価なものとなつて
いる。 又、従来の複写装置に於ては、感光体の感度特性によ
り(デイジタル複写装置では他に画像を読み取る受光素
子の感度特性により)、原稿の特定色、例えば黄色等を
再現する事がほとんど不可能であつた。
However, in a copying apparatus that has a plurality of color developing devices and forms an image by partially changing colors, it is required that the mechanism be complicated due to having many developing devices and that the image position accuracy be high. Is done. For this reason, it is expensive. Further, in a conventional copying apparatus, it is almost impossible to reproduce a specific color of a document, for example, yellow, due to the sensitivity characteristic of a photoreceptor (in a digital copying apparatus, the sensitivity characteristic of a light receiving element for reading an image). It was possible.

【課題を解決するための手段】[Means for Solving the Problems]

本発明は上述した課題を解決することを目的として成
されたもので、係る目的を達成する一手段として以下の
構成を備える。 即ち、複数色成分の原色のカラー画像データを入力す
る入力手段と、 前記入力された複数色成分の原色のカラー画像データか
ら1成分の画像データを得る信号処理手段と、前記信号
処理手段により得られる画像データに応じた画像を形成
すべく前記画像データを単色画像記録手段に出力する出
力手段とを備え、前記信号処理手段で得る1成分の画像
データを前記複数成分の原色のカラー画像データの最小
値とすることを特徴とする。 そして例えば、更に前記複数成分の原色のカラー画像
データから、特定色相を検出する検出手段を備え、前記
出力手段は、前記画像データのうち、前記検出手段によ
り検出された特定色相の周辺部に対しては縁取りを行な
った後に前記単色画像記録手段に出力することを特徴と
する。
The present invention has been made for the purpose of solving the problems described above, and has the following configuration as one means for achieving the object. That is, input means for inputting color image data of primary colors of a plurality of color components, signal processing means for obtaining one-component image data from the input color image data of primary colors of a plurality of color components, and signal processing means. Output means for outputting the image data to a single-color image recording means in order to form an image corresponding to the obtained image data, wherein the one-component image data obtained by the signal processing means is converted into the color image data of the plurality of primary colors. It is characterized by the minimum value. And, for example, further comprising a detecting means for detecting a specific hue from the color image data of the primary colors of the plurality of components, wherein the output means includes, for the peripheral part of the specific hue detected by the detecting means in the image data. And outputting to the single-color image recording means after edge trimming.

【実施例1】 以下、図面を参照して本発明に係る一実施例を詳細に
説明する。 以下の説明では、本実施例の画像処理装置を以下の複
写装置に適用した場合を例に説明する。 即ち、フルカラーの原稿を、ハロゲンランプや蛍光灯
等の照明源で露光し、反射カラー像をCCD等のカラーイ
メージセンサで撮像し、得られたアナログ画像信号をA/
D変換器等でデジタル化し、デジタル化されたフルカラ
ー画像信号を処理、加工し、熱転写型プリンター、イン
クジエツトプリンター、レーザービームプリンター等の
プリント手段に出力し画像を得る複写装置に適用する。
しかし、本実施例装置は以上の装置への適用に限定され
るものではなく、画像を処理する装置であれは表示装置
であつても、画像情報の記録媒体への記録装置であつて
も、種々適用可能である。 上述の複写装置においては、原稿Aは、まず露光ラン
プ100により照射され、反射光はカラー読み取りセンサ
であるCCDセンサ102により画像ごとに色分解されて読み
取られ、増幅回路103で所定レベルに増幅される。ここ
で、CCDセンサ102の駆動のための必要な駆動パルスは、
システムパルスジエネレータ101で生成されている。 第2図にCCDセンサ102の詳細構成及び、該CCDセンサ1
02の駆動パルスを示す。 第2図(a)は本実施例例で使用されるCCDセンサ102
であり、主走査方向を5分割して読み取るべく63.5μm
を1画素として{400ドツト/インチ(以下「dpi」とい
う)で}、1024画素、(図の如く1画素を主走査方向に
G,B,Rで3分割しているので、トータル1024x3=3072画
素)の有効画素数を有している。 一方、各チツプ58〜62は、同一セラミツクス基板上に
形成され、センサの1,3,5番目(58a,60a,62a)は同一ラ
インLA上に、2,4番目はLAとは4ライン分(63.5μmx4=
254μm)だけ離れたラインLB上に配置され、原稿読み
取り時は、矢印AL方向に走査する。 各5つのCCDチツプ58〜62のうち1,3,5番目は駆動パル
ス群ODRV118aにより、2,4番目はEDRV119aにより、それ
ぞれ独立にかつ同期して駆動される。ODRV118aに含まれ
るO01A,O02A,ORSとEDRV119aに含まれるE01A,E02A,ERSは
それぞれ各センサ内での電荷転送クロツク、電荷リセツ
トパルスであり、1,3,5番目のチツプと2,4番目のチツプ
との相互干渉やノイズ制限のため、お互いにジツタにな
いように全く同期して生成される。このため、これらパ
ルスはシステムパルスジエネレータ101中の1つの基準
発振源OSCから生成される。 第3図(a)はシステムパルスジエネレータ101中のO
DRV118a,EDRV119aを生成する回路ブロツク、第3図
(b)はそのタイミングチヤートを示している。 システムパルスジエネレータ101に含まれる単一のOSC
558aより発生される源クロツクCLK0を分周回路63aで分
周したクロツクK0135aは、ODRVとEDRVの発生タイミング
を決める基準信号SYNC2,SYNC3を生成するクロツクであ
り、SYNC2,SYNC3はCPUバスに接続された信号線22により
設定されるプリセツタブルカウンタ64a及びプリセツタ
ブルカウンタ65aの設定値に応じて出力タイミングが決
定さる。このSYNC2及びSYNC3は、分周器66a,67aおよび
駆動パルス生成部68a,69aを初期化する。即ち、本ブロ
ツクに入力されるHSYNC118を基準とし、全て1つの発振
源のOSC558aより出力されるCLK0および全て同期して発
生している分周クロツクにより生成されているので、OD
RV118aとEDRV119aのそれぞれのパルス群は又くジツタの
ない同期した信号として得られ、センサ間の干渉による
信号の乱れを防止できる。 ここで、お互いに同期して得られたセンサ駆動パルス
ODRV118aは1,3,5番目のセンサ58a,60a,62aに、EDRV119a
は2,4番目のセンサ59a,61aに供給され、各センサ58a,59
a,60a,61a,62aからは駆動パルスに同期してビデオ信号V
1〜V5が独立に出力される。 このビデオ信号V1〜V5は、増幅回路103にOOS129aのタ
イミングでV1,V3,V5が、EOS134aのタイミングでV2,V4F
がそれぞれ送られ、各チヤンネル毎に独立して所定の電
圧値に増幅される。増幅されたカラー画像信号は、サン
プルホールド回路S/H104に送られ、G(グリーン),B
(ブルー),R(レツド)の3色に分離される。従つてS/
Hされたのちは3x5=15系統の信号処理される。 S/H回路104により、各色R,G,B毎にサンプルホールド
されたアナログカラー画像信号は、次段A/D変換回路105
で各1〜5チヤンネルごとでデジタル化され、各1〜5
チヤンネル独立に並列で、次段に出力される。 本実施例では、前述したように4ライン分(63.5μmx
4=254μm)の間隔を副走査方向に持ち、かつ主走査方
向に5領域に分割した5つの千鳥状センサで原稿読み取
りを行つている。このため、先行走査しているチヤンネ
ル2,4と、残るチヤンネル1,3,5では読み取る位置がズレ
ている。このため、デジタル化されたカラー画像信号
は、複数ライン分のメモリを備えたズレ補正回路106に
送られ、正しくつなぐためのズレ補正を行なう。そして
黒補正/白補正回路107に送られる。 次に、第4図(a)、第4図(b)を用いて黒補正/
白補正回路107における黒補正動作をまず説明する。 第4図(b)に示す様に、チヤンネル1〜5の黒レベ
ル出力は、CCDセンサ102に入力する光量が微小の時、チ
ツプ間、画素間のバラツキが大きい。これをそのまま出
力し、画像を出力すると、画像のデータ部にスジやムラ
が生じてしまう。このため、この黒部の出力バラツキを
補正する必要が有る。そこで本実施例では第4図(a)
に示す回路でこの補正を行う。 原稿読取り動作に先立ち、原稿走査ユニツトを原稿台
先端部の非画像領域に配置された均一濃度を有する黒色
板の位置へ移動し、ハロゲンを転送し黒レベル画像信号
を本回路に入力する。これらの構成については公知であ
るため詳細説明は省略する。 ブルー信号Binに関しては、この画像データの1ライ
ン分を黒レベルRAM78aに格納すべく、セレクタ82aで
(信号により)Aを選択し、(信号により)ゲート
80aを閉じ、ゲート81aを開く。これにより、データ信号
線は151a→152a→153aと接続される。 一方、RAM78aのアドレス入力155aは▲▼で
初期化され、VCLKをカウントするアドレスカウンタ84a
の出力154aが入力されるべくセレクタ83aに対するが
出力される。 このため、結果として1ライン分の黒レベル信号がRA
M78aの中に格納されることになる。 なお、以上の制御を「黒基準値取込みモード」と呼
ぶ。 画像読み込み時には、RAM78aはデータ読み出しモード
となり、データ線153→157aの経路で減算器79aのB入力
へライン毎、1画素毎に読み出されて入力される。即
ち、この時、ゲート81aは(信号により)閉じ、80aは
(信号により)開く。また、セレクタ86aはA出力と
なる。 従つて、黒補正回路出力156aは、黒レベルデータDK
(i)に対し、例えばブルー信号の場合Bin(i)−DK
(i)=Bout(i)として得られる。なお、以上の制御
を「黒補正モード」と呼ぶ。 グリーンGin,レツドRinにおいても、77aG,77aRによる
同様の制御が行われる。 また、本制御のための各セレクタゲートの制御線,
,,,は、第1図に示す本実施例全体の制御を
司るCPU22のI/Oとして割り当てられたラツチ85aによりC
PU制御で行われる。 なお、セレクタ82a,83a,86aをB側選択することによ
り、CPU22によりRAM78aをアクセス可能となる。 次に、第5図を参照して黒補正/白補正回路107の白
補正(シエーデイング補正)動作について説明する。 白レベル補正は、原稿走査ユニツトを均一な白色板の
位置に移動して照射した時の白色データに基づき、照明
系、光学系やセンサの感度バラツキの補正を行う。基本
的な回路構成は第4図(a)と同一であるが、黒補正で
は減算器79aにて補正を行つていたのに対し、白補正で
は乗算器79′aを用いる点が異なるのみであるので同一
部分の説明は省く。 色補正時に、原稿を読み取るためのCCDセンサ102が均
一白色板の読み取り位置(ホームポジシヨン)にある
時、即ち、複写動作または読み取り動作に先立ち、第1
図に示す露光ランプ100を点灯させ、均一白レベルの画
像データを1ライン分の補正RAM78′aに格納する。 例えば、主走査方向A4長手方向の幅を有するとすれ
ば、少なくとも補正RAMの容量は16pel/mmで16x297mm=4
752画素分の容量、即ち、少なくとも4752バイトを備え
ており、第5図(b)のごとく、“i"画素目の白色板デ
ータWi(i=1〜4752)とすると、RAM787aには第5図
(c)のごとく、各画素毎の白色板に対するデータが格
納される。 一方、Wiに対し、“i"番目の画素の通常画像の読み取
り値Diに対しては、補正後のデータDO=DixFFH/Wiとな
るべきである。 そこで、本実施例ではCPU22により、ラツチ85′a
′,′,′,′に対しゲート80′a,86′aを開
き、さらにセレクタ82′a,83′a,86′aにてBが選択さ
れるよう出力し、RAM78′aをCPUアクセス可能とする。 次に、CPU22は、第6図に示す手順で先頭画素WOに対
しFFH/WOの演算処理、W1に対しFF/W1の演算処理、…、
と順次演算してデータの置換を行う。このようにしてSt
epBに示す色成分画像のブルー成分に対する処理が終了
すると、続いて同様にしてStepGに示すグリーン成分の
置換、次のStepRに示すレツド成分の置換を順次行う。
このようにして、以後、入力される原画像データDiに対
して、DO=DixFFH/Wiが出力されるように、′信号に
よりゲート80′aを開、′信号により81′aを閉と
し、セレクタ83′a,86′aのAを選択するよう制御し、
RAM78′aから読み出された係数データFFH/Wiが信号線1
53a→157aを通り、一方から入力された原画像データ151
aとの乗算がとられ出力されるようにする。 以上説明した様に、黒補正/白補正回路107では、画
像入力系の黒レベル感度、CCDセンサ102の暗電流のバラ
ツキ、CCDセンサ102の各センサチツプ間の感度のバラツ
キ、光学系の光量のバラツキや白レベル感度等種々の要
因に基づく、黒レベル、白レベルの補正を行う。これに
より、主走査方向にわたつて、白、黒とも各色ごとに均
一に補正された画像データBout121,Gout122,Rout123が
得られる。 白補正、黒補正されたR,G,Bの各8ビツトの画像デー
タは、次に、第1図の輝度信号生成部108、及び色検出
部109に入力される。 まず、輝度信号生成部108について説明する。 輝度信号生成部108は、CCDセンサ102で読み取られて
色分解された画像イメージデータから、色分解されてな
い全波長領域にわたるイメージ、即ち、白黒のイメージ
を作り出している。これは本実施例の出力手段としての
プリンタが、単色の出力手段しか有しないためである。 本実施例の輝度信号生成部108では、このために次式
の演算により、入力されるR,G,Bの各データに対する平
均値を算出して輝度信号を生成している。 本実施例では、加算器及び乗算器を用いてこの演算を
行なつている。算出された輝度信号は、後述するセレク
ター116へ出力される。 輝度信号生成部108への入力データは、同時に色検出
部109にも入力される。この色検出部109では、本実施例
における画像処理を行なうための原稿上の色成分を検出
するためのものである。 この色検出部109の詳細構成を第7図に示す。 本実施例では、色検出部109での色検出方法に色相信
号を用いている。これは、同一色でも、その彩やかさ及
び明るさが異なる場合に於ても、正確な判定を行なえる
ようにするためである(正確には、通常表わされる色相
とは、異なるが、以下の説明では「色相」として説明す
る)。 まず始めに色検出方法の概略について説明する。 入力されるR,G,Bの各データは各8ビツトのデータで
あり、計224色の情報を有している。このため、この様
な膨大な情報をそのまま用いる事は、その回路規模から
も高価なものとなつてしまう。本実施例では、以下の点
に考慮して、先述の色相を用いて以下の処理を行なう。 入力されるR,G,Bデータは、まずその大小判別を行な
うmax/mid/min検出部201に入力される。これは、各入力
データをコンパレータを用いて比較することにより、ma
x値(最大値)、mid値(中間値)、min値(最小値)を
求め、各値を出力する。又、コンパレータの各出力値を
順位信号として同時に出力している。 色空間は、マンセルの立体等で知られている様に、彩
度、明度、色相で表わされることが知られている。そし
て、まずR,G,Bの各データを平面、即ち、2次元のデー
タに変換する必要がある。本実施例では、R,G,Bの共通
部、即ち、R,G,Bの最小値であるmin(R,G,B)は、無彩
色成分であることを利用して、min(R,G,B)を各R,G,B
データより減算し、残つた情報を有彩色成分として用い
ることとしている。これにより、簡単な構成で、3次元
の入力色空間を2次元の色空間に変換することを達成し
ている。 このようにして変換された平面は、第8図に示す様に
0゜〜360゜までを6つに分け、入力されるR,G,Bの大き
さの順番、即ち、R>G>B、R>B>G、G>B>
R、G>R>B、B>G>R、B>R>Gの各情報とし
ている。 本実施例では、以上の変換処理のため、出力されたma
x値、mid値から減算器202及び203により無彩色成分を減
ずるために、max値及びmid値より最小値であるmin値を
減算し、色相検出部204に順位信号と共に入力してい
る。色相検出部204は、RAMあるいはROM等のランダムア
クセスの可能な記憶素子で構成することが望ましく、本
実施例ではROMを用いたルツクアツプテーブルで構成し
ている。 このROMで構成されたルツクアツプテーブルである色
相検出部204には、予め第8図に示す平面の角度に対応
する値が記憶されており、入力される順位信号と、(ma
x−min)値、(mid−min)値とにより、対応する色相値
が出力される。 これにより、入力されるR,G,Bの大きさの順番と、入
力されるR,G,Bの内の最大値、中間値に基いて、LUT(ル
ツクアツプテーブル)等を用いるという簡単な構成で、
3次元の入力色空間を2次元の色空間に変換し、対応す
る色相を求めている。 このようにして出力された色相値は、次にウインドウ
コンパレータ205,206に入力される。このコンパレータ2
05,206への基準比較値の設定はCPU22により行なわれ
る。この基準値は、不図示のデータ入力手段等により、
本来パターン化したい色データを入力し、その色に合つ
た色相データ値をCPU22によつて所望のオフセツトを持
たせた後、コンパレータにセツトされる。 コンパレータ205は、設定基準値がa1とすると、入力
される色相データに対し、 (入力色相データ)<(a1) の時に“1"を出力する。 同様にコンパレータ206は、設定基準値がa2とする
と、入力される色相データに対し、 (入力色相データ)>(a2) の時に“1"を出力される様構成されている。 従つて、後段のANDゲート208により、 (a−)<(入力色相データ)<(a2) の時、色検出部109から“1"が出力される。なお、以上
の説明では、ウインドウコンパレータは1組のみの例に
ついて行なつたが、これを複数組みにすれば、検出色も
複数色になる事はいうまでもない。 このようにして色検出部109で判定された判定信号
は、第1図のANDゲート110とセレクタ116に入力され
る。 ANDゲート110は後述するパターン発生部111から発生
されるパターン信号に対するゲート処理を行なつてい
る。セレクタ116には、輝度信号生成部108よりの輝度信
号と、後述するフチどりされたmin(R,G,B)信号とが入
力されており、色検出部109よりの検出結果に基づき、
両信号の切り換え処理を行なつている。 次にANDゲート110にパターン信号を出力するパターン
発生部111、及びパターン発生部111の出力パターンの選
択を行なうアドレス制御部112について説明する。 第9図はパターン発生部111、及びパターンアドレス
制御部112の詳細構成を示す図である。 第9図に示す様に、パターン発生部111は実質的には
パターン用ドツトデータが記憶されたROMで構成されて
いる。本実施例のパターン発生部111は、第10図に示す
様な上位、下位アドレスに対応するアドレスに“1",
“0"のデータが書き込まれた構成である。この値はそれ
ぞれ1絵素のオン/オフに対応しており、実際のパター
ン化にあたつては第10図(b)の如くにあらわされるこ
とになる。 アドレス制御部112は、第9図に示す様にパターン発
生部111のアドレス信号を画素クロツクVCLK及び走査基
準信号HSYNCに同期した主走査カウンタ701、副走査カウ
ンタ703で生成している。 基準信号であるITOP信号、HSYNC信号、及びVCLK信号
の出力タイミングチヤートを第11図に示す。 第11図において、ITOP信号は画先を示す信号であり、
スキヤナ部で画像を読み取つている間、ローレベルとな
る。 主走査カウンタ701はHSYNC信号に同期してVCLK信号を
カウントしている。又、副走査カウンタ703は、ITOP信
号に同期してHSYNC信号をカウントしている。そしてこ
の両カウンタ701,703により、パターン発生部111のアド
レスを生成している。 色検出部109からの判定結果により、ANDゲート110で
ゲート処理を行なわれたパターン信号は、次に乗算器11
3で、色相検出部109よりの読取られたR,G,Bの色分解さ
れたビデオ信号の中の最小値を示す信号、即ち、最も暗
い信号であるmin(R,G,B)のビデオ信号との乗算が行な
われる。min(R,G,B)の信号を用いたのは、輝度信号生
成部108で生成される信号が、色によつてその信号レベ
ルが異なり、例えば黄色等の色に対しては、その信号レ
ベルが白に近づき、原稿の画像データが欠落してしまう
ためである。 min(R,G,B)の信号は、他に輪郭抽出部114にも入力
され、ここで、読取り画像画像等の輪郭が抽出される。
この輪郭の抽出処理は、一般に知られているラプラシア
ンフイルタにより行なうことができる。輪郭抽出部114
で抽出された輪郭信号は、加算器115に送られ、上述し
た乗算器113から出力されるパターン化されたmin(R,G,
B)信号に加算される。 即ち、第12図(a)に示す輪郭抽出部114で抽出され
た輪郭信号と、第12図(b)に示す乗算器113から出力
されるパターン化されたmin(R,G,B)信号との加算が行
なわれ、第12図(c)に示す様な縁取りされたmin(R,
G,B)信号が得られる。加算器115から出力される信号
は、セレクタ116に入力される。セレクタ116では、前述
の様に色検出部109からの検出結果に基づき、輝度信号
と縁取りされたmin(R,G,B)信号とのいずれかを切り換
えて出力する。 セレクタ116で選択されたいずれかの信号は、次に輝
度信号を対応する濃度信号に変換するLOG変換部117に入
力され、対応する濃度信号に変換された後出力される。 以上説明した様に本実施例によれば、パターン化され
た画像信号に輪郭信号を付加することにより、元々の入
力画像に縁取りがしてある第13図(a)に示す原稿に対
しては第13図(b)に示す良好な再生画像を得ることが
できる。更に、第14図(a)に示す様な縁取りが成され
ていない見にくい原稿に対しては輪郭信号を附加するこ
とにより第14図(b)に示すような非常に見易い再生画
像を得ることができる。このように本実施例ではあらゆ
る原稿画像に対して、画像を見にくくする事なく再生す
ることができる。 以上説明した様に本実施例によれば、従来の画像処理
装置に於て、感光体の感度特性、デイジタル複写装置で
の画像を読み取る受光素子の感度特性により原稿の特性
色(例えば黄色等)を再現することが不可能であつたも
のが、本実施例によつて特定色も再現することが可能
な、かつ原稿の色情報を失うこともない安価な画像処理
装置が提供できる効果がある。 なお、入力信号は、R,G,Bではなく、Y,I,Q,L,a,b
等の信号であつてもよい。これらの信号の場合には、
I,Q成分、a,b成分のみで色相判定が行えるので便
利である。 また、第7図のウインドウコンパレータの組を複数設
けることにより、複数色を指定して色情報をパターン化
でき、その際、色に応じてパターンを変更してもよい。 また、プリンタ部には、レーザビームプリンタ、熱転
写プリンタ、インクジエツトプリンタ、ドツトプリンタ
等を用いることができる。
Embodiment 1 Hereinafter, an embodiment according to the present invention will be described in detail with reference to the drawings. In the following description, an example in which the image processing apparatus of the present embodiment is applied to the following copying apparatus will be described. That is, a full-color original is exposed by an illumination source such as a halogen lamp or a fluorescent lamp, a reflected color image is captured by a color image sensor such as a CCD, and the obtained analog image signal is subjected to A / A.
It is digitized by a D converter or the like, and the digitized full-color image signal is processed, processed, and output to a printing means such as a thermal transfer printer, an ink jet printer, a laser beam printer, etc., and is applied to a copying apparatus for obtaining an image.
However, the device of the present embodiment is not limited to the application to the above-described devices.Either a device that processes images or a display device, a device that records image information on a recording medium, Various applications are possible. In the above-described copying apparatus, the original A is first irradiated by the exposure lamp 100, and the reflected light is read out by color separation for each image by a CCD sensor 102 which is a color reading sensor, and is amplified to a predetermined level by an amplifier circuit 103. You. Here, the driving pulse required for driving the CCD sensor 102 is
It is generated by the system pulse generator 101. FIG. 2 shows a detailed configuration of the CCD sensor 102 and the CCD sensor 1.
02 shows a drive pulse. FIG. 2A shows a CCD sensor 102 used in this embodiment.
63.5 μm in order to divide the main scanning direction into 5
1, 1024 pixels (400 pixels / inch (hereinafter referred to as “dpi”)) assuming one pixel in the main scanning direction
Since the image is divided into three by G, B, and R, the total number of effective pixels is 1024 × 3 = 3072 pixels). On the other hand, the chips 58 to 62 are formed on the same ceramic substrate, and the first, third and fifth (58a, 60a, 62a) of the sensor are on the same line LA, and the second and fourth sensors are four lines from the LA. (63.5μmx4 =
254 .mu.m), and scans in the direction of arrow AL when reading a document. Of the five CCD chips 58 to 62, the first, third and fifth are driven independently by the drive pulse group ODRV 118a, and the second and fourth are driven by the EDRV 119a independently and synchronously. O01A, O02A, ORS included in ODRV118a and E01A, E02A, ERS included in EDRV119a are charge transfer clock and charge reset pulse in each sensor, respectively, and are the first, third, fifth and second and fourth chips. Due to mutual interference with chips and noise limitations, they are generated completely synchronously so that they are not in jitter with each other. Therefore, these pulses are generated from one reference oscillation source OSC in the system pulse generator 101. FIG. 3A shows O in the system pulse generator 101.
A circuit block for generating the DRV 118a and the EDRV 119a is shown in FIG. 3 (b). Single OSC included in system pulse generator 101
A clock K0135a obtained by dividing the source clock CLK0 generated from the 558a by the frequency dividing circuit 63a is a clock for generating reference signals SYNC2 and SYNC3 for determining the generation timing of ODRV and EDRV, and SYNC2 and SYNC3 are connected to the CPU bus. The output timing is determined according to the set values of the presettable counter 64a and the presettable counter 65a set by the signal line 22 that has been set. The SYNC2 and SYNC3 initialize the frequency dividers 66a and 67a and the drive pulse generators 68a and 69a. That is, based on the HSYNC 118 input to this block as a reference, it is generated by the CLK0 output from the OSC 558a of one oscillation source and the frequency-divided clock generated in synchronization with each other.
Each pulse group of the RV118a and the EDRV119a is obtained as a synchronized signal without straddling, and signal disturbance due to interference between sensors can be prevented. Here, the sensor drive pulses obtained in synchronization with each other
ODRV118a is connected to the first, third and fifth sensors 58a, 60a and 62a, and the EDRV119a
Is supplied to the second and fourth sensors 59a and 61a, and the respective sensors 58a and 59a
a, 60a, 61a, 62a
1 to V5 are output independently. The video signals V1 to V5 are supplied to the amplifier 103 at the timings of OOS 129a, V1, V3, and V5, and at the timing of EOS134a, V2, V4F.
, And are amplified independently to a predetermined voltage value for each channel. The amplified color image signal is sent to the sample / hold circuit S / H104, where G (green), B
(Blue) and R (red). Therefore, S /
After H, 3x5 = 15 signal processing is performed. The analog color image signal sampled and held for each color R, G, B by the S / H circuit 104 is converted into a next-stage A / D conversion circuit 105.
Is digitized for each 1-5 channel, and each 1-5
The signals are output to the next stage in parallel independently of the channels. In this embodiment, as described above, four lines (63.5 μmx
4 = 254 μm) in the sub-scanning direction, and the original is read by five staggered sensors divided into five regions in the main scanning direction. For this reason, the reading positions of the channels 2 and 4 that are being pre-scanned are different from the reading positions of the remaining channels 1, 3 and 5. For this reason, the digitized color image signal is sent to a shift correction circuit 106 having a memory for a plurality of lines, and performs a shift correction for connecting correctly. Then, it is sent to the black correction / white correction circuit 107. Next, using FIG. 4 (a) and FIG. 4 (b),
First, the black correction operation in the white correction circuit 107 will be described. As shown in FIG. 4B, the black level outputs of the channels 1 to 5 have large variations between chips and pixels when the amount of light input to the CCD sensor 102 is very small. If this is output as it is and an image is output, streaks and unevenness will occur in the data portion of the image. Therefore, it is necessary to correct the output variation of the black portion. Therefore, in this embodiment, FIG.
This correction is performed by the circuit shown in FIG. Prior to the original reading operation, the original scanning unit is moved to a position of a black plate having a uniform density arranged in the non-image area at the leading end of the original platen, and halogen is transferred to input a black level image signal to this circuit. Since these configurations are known, their detailed description is omitted. For the blue signal B in, in order to store one line of the image data to the black level RAM 78a, (the signal) by the selector 82a selects the A, (the signal) gate
Close 80a and open gate 81a. Thereby, the data signal lines are connected in the order of 151a → 152a → 153a. On the other hand, the address input 155a of the RAM 78a is initialized by ▲ ▼, and the address counter 84a counting VCLK is used.
Is output to the selector 83a so that the output 154a is input. As a result, the black level signal for one line is RA
It will be stored in M78a. The above control is referred to as a “black reference value capture mode”. At the time of image reading, the RAM 78a is in the data reading mode, and is read and input for each line and one pixel to the B input of the subtractor 79a along the data line 153 → 157a. That is, at this time, the gate 81a is closed (by a signal) and the gate 80a is opened (by a signal). The selector 86a has an A output. Therefore, the output 156a of the black correction circuit is the black level data DK
(I), for example, in the case of a blue signal, Bin (i) -DK
(I) = B out (i). The above control is called "black correction mode". Similar control by 77aG and 77aR is performed also in green G in and red R in . In addition, control lines for each selector gate for this control,
,,, Are controlled by a latch 85a assigned as an I / O of the CPU 22, which controls the overall operation of the present embodiment shown in FIG.
Performed by PU control. By selecting the selectors 82a, 83a, 86a on the B side, the CPU 78 can access the RAM 78a. Next, the white correction (shading correction) operation of the black correction / white correction circuit 107 will be described with reference to FIG. In the white level correction, the sensitivity variation of the illumination system, the optical system, and the sensor is corrected based on the white data when the original scanning unit is moved to the position of the uniform white plate and irradiated. The basic circuit configuration is the same as that of FIG. 4 (a), except that the correction is performed by the subtractor 79a in the black correction, but the multiplier 79'a is used in the white correction. Therefore, the description of the same part is omitted. At the time of color correction, when the CCD sensor 102 for reading the original is at the reading position (home position) of the uniform white plate, that is, before the copying operation or the reading operation, the first
The exposure lamp 100 shown in the figure is turned on, and the image data of the uniform white level is stored in the correction RAM 78'a for one line. For example, if it has a width in the longitudinal direction of the main scanning direction A4, at least the capacity of the correction RAM is 16 pel / mm and 16 × 297 mm = 4
It has a capacity for 752 pixels, that is, at least 4752 bytes, and assuming that white plate data Wi (i = 1 to 4752) for the “i” th pixel as shown in FIG. As shown in FIG. 3C, data on a white plate for each pixel is stored. On the other hand, for Wi, the corrected data D O = DixFF H / Wi should be obtained for the read value Di of the normal image of the “i” -th pixel. Therefore, in this embodiment, the latch 85'a
Gates 80'a, 86'a are opened for ',', ',' and the selectors 82'a, 83'a, 86'a output so that B is selected, and the RAM 78'a is accessed by the CPU. Make it possible. Then, CPU 22 is operation processing of FF H / W O to the head pixel W O in the procedure shown in FIG. 6, W 1 to calculation of FF / W 1, ...,
And sequentially replace the data. In this way St
When the processing for the blue component of the color component image indicated by epB is completed, the replacement of the green component shown in Step G and the replacement of the red component shown in the next Step R are sequentially performed in the same manner.
In this manner, the gate 80'a is opened by the signal and the gate 81'a is closed by the signal so that D O = DixFF H / Wi is output for the input original image data Di. And control to select A of the selectors 83'a and 86'a,
The coefficient data FF H / Wi read from the RAM 78'a is the signal line 1
53a → 157a, original image data 151 input from one side
Multiplied by a and output. As described above, in the black correction / white correction circuit 107, the black level sensitivity of the image input system, the variation of the dark current of the CCD sensor 102, the variation of the sensitivity between the sensor chips of the CCD sensor 102, and the variation of the light amount of the optical system. The black level and the white level are corrected based on various factors such as the white level sensitivity and the like. As a result, image data B out 121, G out 122, and R out 123 that are uniformly corrected for each color in white and black over the main scanning direction are obtained. Next, the R, G, and B 8-bit image data subjected to white correction and black correction are input to the luminance signal generation unit 108 and the color detection unit 109 in FIG. First, the luminance signal generator 108 will be described. The luminance signal generation unit 108 generates an image over the entire wavelength region that has not been color-separated, that is, a black-and-white image, from the image image data read and color-separated by the CCD sensor 102. This is because the printer as the output unit of this embodiment has only a single-color output unit. For this purpose, the luminance signal generation unit 108 of the present embodiment calculates the average value of the input R, G, and B data to calculate the luminance signal by the following equation. In this embodiment, this operation is performed using an adder and a multiplier. The calculated luminance signal is output to selector 116 described later. The input data to the luminance signal generation unit 108 is also input to the color detection unit 109 at the same time. The color detection unit 109 detects a color component on a document for performing image processing in the present embodiment. FIG. 7 shows the detailed configuration of the color detection unit 109. In the present embodiment, a hue signal is used for a color detection method in the color detection unit 109. This is to make it possible to make an accurate determination even in the case of the same color even when the chromaticness and brightness are different (exactly, the hue is different from the normally expressed hue, In the description, it is described as “hue”). First, an outline of the color detection method will be described. The input R, G, is the data data for each 8 bits of B, and a total of 2 24 colors information. For this reason, using such enormous information as it is becomes expensive in view of its circuit scale. In the present embodiment, the following processing is performed using the above-described hue in consideration of the following points. The input R, G, B data is first input to a max / mid / min detection unit 201 that determines the magnitude. This is done by comparing each input data using a comparator,
x value (maximum value), mid value (intermediate value), min value (minimum value) are obtained, and each value is output. Further, each output value of the comparator is simultaneously output as a rank signal. It is known that a color space is represented by saturation, lightness, and hue, as is known in a Munsell solid or the like. Then, first, it is necessary to convert each data of R, G, B into a plane, that is, two-dimensional data. In the present embodiment, the common part of R, G, and B, that is, min (R, G, and B), which is the minimum value of R, G, and B, is an achromatic component, and the min (R , G, B) for each R, G, B
The data is subtracted from the data, and the remaining information is used as a chromatic component. This achieves conversion of a three-dimensional input color space into a two-dimensional color space with a simple configuration. The plane converted in this way is divided into six from 0 ° to 360 ° as shown in FIG. 8, and the order of the sizes of the input R, G, B, ie, R>G> B , R>B> G, G>B>
R, G>R> B, B>G> R, and B>R> G. In the present embodiment, the output ma
In order to subtract the achromatic component from the x value and the mid value by the subtracters 202 and 203, the minimum value min is subtracted from the max value and the mid value, and the subtracted value is input to the hue detection unit 204 together with the rank signal. The hue detection unit 204 is desirably constituted by a random access memory element such as a RAM or a ROM. In this embodiment, the hue detection unit 204 is constituted by a look-up table using a ROM. The hue detection unit 204, which is a look-up table constituted by the ROM, previously stores a value corresponding to the angle of the plane shown in FIG.
The corresponding hue value is output based on the (x-min) value and the (mid-min) value. Accordingly, a simple LUT (lookup table) or the like is used based on the order of the sizes of the input R, G, and B, and the maximum and intermediate values of the input R, G, and B. With the configuration,
The three-dimensional input color space is converted into a two-dimensional color space, and a corresponding hue is obtained. The hue values output in this manner are then input to window comparators 205 and 206. This comparator 2
The CPU 22 sets the reference comparison values to 05 and 206. This reference value is obtained by data input means (not shown) or the like.
After inputting color data to be originally patterned and giving a desired offset to a hue data value corresponding to the color by the CPU 22, the data is set to a comparator. The comparator 205 sets the reference value When a 1, relative hue data inputted, outputs "1" when the (input hue data) <(a 1). Similarly the comparator 206, the set reference value and a 2, to color data input, and is configured such that the output "1" when the (input hue data)> (a 2). Therefore, when (a− 1 ) <(input hue data) <(a 2 ), “1” is output from the color detection unit 109 by the subsequent AND gate 208. In the above description, only one set of window comparators is used. However, if a plurality of sets of window comparators are used, it goes without saying that a plurality of colors are detected. The determination signal determined by the color detection unit 109 in this manner is input to the AND gate 110 and the selector 116 in FIG. The AND gate 110 performs a gate process on a pattern signal generated from a pattern generation unit 111 described later. The selector 116 receives a luminance signal from the luminance signal generator 108 and a margined min (R, G, B) signal, which will be described later, based on a detection result from the color detector 109.
Switching processing of both signals is performed. Next, the pattern generator 111 that outputs a pattern signal to the AND gate 110 and the address controller 112 that selects the output pattern of the pattern generator 111 will be described. FIG. 9 is a diagram showing a detailed configuration of the pattern generation unit 111 and the pattern address control unit 112. As shown in FIG. 9, the pattern generating section 111 is substantially constituted by a ROM in which dot data for pattern is stored. The pattern generation unit 111 of this embodiment stores “1”, “1” in the address corresponding to the upper and lower addresses as shown in FIG.
In this configuration, data “0” is written. These values correspond to ON / OFF of one picture element, respectively, and actual patterning is represented as shown in FIG. 10 (b). The address control unit 112 generates the address signal of the pattern generation unit 111 by the main scanning counter 701 and the sub-scanning counter 703 synchronized with the pixel clock VCLK and the scanning reference signal HSYNC as shown in FIG. FIG. 11 shows output timing charts of the reference signals, ie, the ITOP signal, the HSYNC signal, and the VCLK signal. In FIG. 11, the ITOP signal is a signal indicating an image destination,
While the image is being read by the scanner unit, the level is low. The main scanning counter 701 counts the VCLK signal in synchronization with the HSYNC signal. The sub-scanning counter 703 counts the HSYNC signal in synchronization with the ITOP signal. The addresses of the pattern generator 111 are generated by the two counters 701 and 703. According to the determination result from the color detection unit 109, the pattern signal that has been subjected to the gate processing by the AND gate 110 is then output to the multiplier 11
In step 3, the signal indicating the minimum value among the R, G, and B color-separated video signals read from the hue detection unit 109, that is, the video of the darkest signal min (R, G, B) Multiplication with the signal is performed. The reason why the signal of min (R, G, B) is used is that the signal generated by the luminance signal generation unit 108 has a different signal level depending on the color. This is because the level approaches white and the image data of the document is lost. The signal of min (R, G, B) is also input to the contour extraction unit 114, where the contour of a read image or the like is extracted.
This contour extraction processing can be performed by a generally known Laplacian filter. Contour extraction unit 114
Is sent to the adder 115, and the pattern min (R, G,
B) Added to the signal. That is, the contour signal extracted by the contour extraction unit 114 shown in FIG. 12 (a) and the patterned min (R, G, B) signal output from the multiplier 113 shown in FIG. 12 (b). Is added, and the min (R, R,
G, B) signal is obtained. The signal output from the adder 115 is input to the selector 116. As described above, the selector 116 switches and outputs either the luminance signal or the framed min (R, G, B) signal based on the detection result from the color detection unit 109. One of the signals selected by the selector 116 is input to a LOG conversion unit 117 that converts a luminance signal into a corresponding density signal, and is output after being converted into a corresponding density signal. As described above, according to this embodiment, by adding an outline signal to a patterned image signal, the original input image shown in FIG. A good reproduced image shown in FIG. 13 (b) can be obtained. Further, for a document which is difficult to see without a border as shown in FIG. 14 (a), a very easy-to-view reproduced image as shown in FIG. 14 (b) can be obtained by adding a contour signal. it can. As described above, in this embodiment, any original image can be reproduced without making the image difficult to view. As described above, according to the present embodiment, in the conventional image processing apparatus, the characteristic color (for example, yellow) of the original is determined by the sensitivity characteristic of the photosensitive member and the sensitivity characteristic of the light receiving element that reads an image in the digital copying apparatus. However, according to the present embodiment, it is possible to provide an inexpensive image processing apparatus which can reproduce a specific color and does not lose color information of a document. . The input signals are not R, G, B, but Y, I, Q, L * , a * , b
It may be a signal such as * . For these signals,
This is convenient because the hue can be determined only with the I and Q components and the a * and b * components. Further, by providing a plurality of sets of window comparators in FIG. 7, a plurality of colors can be designated to pattern the color information, and the pattern may be changed according to the colors. Further, a laser beam printer, a thermal transfer printer, an ink jet printer, a dot printer, or the like can be used for the printer section.

【発明の効果】【The invention's effect】

以上説明したように本発明によれば、複数の原色のカ
ラー画像データから1成分の画像データを得る信号処理
手段と、前記信号処理手段により得られる画像データに
応じた画像を形成すべく前記画像データを単色画像記録
手段に出力する出力手段とを有するので、装置規模を削
減した画像形成が可能となる。 また、単色画像記録手段に出力される画像データは、
前記複数成分の原色のカラー画像データの最小値である
ので、例えば原色の平均値を用いた場合、再現性の悪い
イエロー等の再現性を向上できる。
As described above, according to the present invention, signal processing means for obtaining one-component image data from color image data of a plurality of primary colors, and the image processing means for forming an image corresponding to the image data obtained by the signal processing means Since there is an output unit for outputting data to the monochromatic image recording unit, it is possible to form an image with a reduced device scale. The image data output to the monochrome image recording means is
Since this is the minimum value of the color image data of the primary colors of the plurality of components, the reproducibility of yellow or the like having poor reproducibility can be improved when an average value of the primary colors is used, for example.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明に係る一実施例のブロツク図、 第2図(a)は本実施例のCCDセンサの詳細構成図、 第2図(b)は本実施例のCCDセンサ駆動タイミングチ
ヤート、 第3図(a)は本実施例のCCDセンサ駆動パルス発生回
路の詳細構成図、 第3図(b)は本実施例のCCDセンサ駆動パルス発生回
路の動作タイミングチヤート、 第4図(a)は本実施例の黒補正回路図、 第4図(b)は本実施例の黒補正の概念を示す図、 第5図(a)は本実施例の白補正回路図、 第5図(b)は本実施例の白補正の概念を示す図、 第5図(c)は本実施例の白色板に対するデータを示す
図、 第6図は本実施例の白補正の手順を示す図、 第7図は本実施例の色検出部の詳細ブロツク図、 第8図は色認識を説明するための色相面を示す図、 第9図は本実施例のパターン発生部及びアドレス制御部
の詳細回路図、 第10図(a)はパターン発生部のアドレスとデータとの
関係を示す図、 第10図(b)はパターン発生部の発生パターンを示す
図、 第11図はアドレス制御部に入力される基準制御信号のタ
イミングチヤート、 第12図(a)は輪郭画像を示す図、 第12図(b)はパターン化された画像を示す図、 第12図(c)は第12図(a)の輪郭画像と第12図(b)
のパターン化された画像を元に縁取りをした画像の例を
示す図、 第13図(a)は縁取りがしてある画像の例を示す図 第13図(b)は第13図(a)の入力画像を本実施例で再
生した場合の画像例を示す図、 第14図(a)は縁取りが成されていない画像の例を示す
図、 第14図(b)は第14図(a)の入力画像を本実施例で再
生した場合の画像例を示す図である。 図中、22……CPU、100……露光ランプ、102……CCDセン
サ、104……S/H回路、105……A/D変換回路、106……ズ
レ補正回路、107……黒補正/白補正回路、108……輝度
信号生成部、109……色検出部、111……パターン発生
部、112……アドレス制御部、114……輪郭抽出部、116
……セレクタ、117……LOG変換部、201……max/mid/min
検出部、204……色相検出部、205,206……コンパレー
タ、701……主走査カウンタ、703……副走査カウンタで
ある。
FIG. 1 is a block diagram of one embodiment according to the present invention, FIG. 2 (a) is a detailed configuration diagram of a CCD sensor of this embodiment, FIG. 2 (b) is a CCD sensor driving timing chart of this embodiment, FIG. 3 (a) is a detailed configuration diagram of the CCD sensor drive pulse generation circuit of the present embodiment, FIG. 3 (b) is an operation timing chart of the CCD sensor drive pulse generation circuit of the embodiment, FIG. 4 (a) Fig. 4 (b) is a diagram showing the concept of black correction of this embodiment, Fig. 5 (a) is a white correction circuit diagram of this embodiment, Fig. 5 (b) ) Is a diagram showing the concept of white correction of this embodiment, FIG. 5C is a diagram showing data for a white plate of this embodiment, FIG. 6 is a diagram showing a procedure of white correction of this embodiment, FIG. FIG. 7 is a detailed block diagram of the color detector of this embodiment, FIG. 8 is a diagram showing a hue plane for explaining color recognition, and FIG. 9 is a pattern diagram of this embodiment. FIG. 10 (a) is a diagram showing the relationship between the address and data of the pattern generator, and FIG. 10 (b) is a diagram showing the generation pattern of the pattern generator. FIG. 11 is a timing chart of a reference control signal input to the address control unit, FIG. 12 (a) is a diagram showing a contour image, FIG. 12 (b) is a diagram showing a patterned image, FIG. FIG. 12 (c) shows the outline image of FIG. 12 (a) and FIG. 12 (b)
13 (a) shows an example of a framed image based on the patterned image of FIG. 13 (a). FIG. 13 (b) shows an example of a framed image. FIG. 14 (a) is a diagram showing an example of an image without borders, and FIG. 14 (b) is a diagram showing an example of an image when the input image of FIG. FIG. 4 is a diagram illustrating an example of an image when the input image of FIG. In the figure, 22 CPU CPU, 100 exposure lamp, 102 CCD sensor, 104 S / H circuit, 105 A / D conversion circuit, 106 misalignment correction circuit, 107 black correction / White correction circuit, 108: luminance signal generation unit, 109: color detection unit, 111: pattern generation unit, 112: address control unit, 114: contour extraction unit, 116
…… Selector, 117 …… LOG converter, 201 …… max / mid / min
Detecting unit, 204: Hue detecting unit, 205, 206: Comparator, 701: Main scanning counter, 703: Sub-scanning counter.

フロントページの続き (56)参考文献 特開 昭61−157074(JP,A) 特開 平2−54283(JP,A) 特開 平2−122768(JP,A) 特開 平1−234889(JP,A) 特開 昭63−24291(JP,A) (58)調査した分野(Int.Cl.6,DB名) B41J 2/525 H04N 1/40 H04N 1/46 Continuation of the front page (56) References JP-A-61-157074 (JP, A) JP-A-2-54283 (JP, A) JP-A-2-122768 (JP, A) JP-A-1-234889 (JP) , A) JP-A-63-24291 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) B41J 2/525 H04N 1/40 H04N 1/46

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数色成分の原色のカラー画像データを入
力する入力手段と、 前記入力された複数色成分の原色のカラー画像データか
ら1成分の画像データを得る信号処理手段と、 前記信号処理手段により得られる画像データに応じた画
像を形成すべく前記画像データを単色画像記録手段に出
力する出力手段とを備え、 前記信号処理手段で得る1成分の画像データを前記複数
成分の原色のカラー画像データの最小値とすることを特
徴とする画像処理装置。
An input unit for inputting color image data of primary colors of a plurality of color components; a signal processing unit for obtaining one-component image data from the input color image data of primary colors of the plurality of color components; Output means for outputting the image data to a single-color image recording means in order to form an image corresponding to the image data obtained by the means, wherein the one-component image data obtained by the signal processing means is converted into the color of the plurality of primary colors. An image processing apparatus, wherein a minimum value of image data is set.
【請求項2】更に前記複数成分の原色のカラー画像デー
タから、特定色相を検出する検出手段を備え、 前記出力手段は、前記画像データのうち、前記検出手段
により検出された特定色相の周辺部に対しては縁取りを
行なった後に前記単色画像記録手段に出力することを特
徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, further comprising detecting means for detecting a specific hue from the color image data of the primary colors of the plurality of components, wherein the output means includes a peripheral part of the specific hue detected by the detecting means in the image data. 2. The image processing apparatus according to claim 1, wherein the image is output to the single-color image recording unit after performing a border.
JP2159951A 1990-06-20 1990-06-20 Image processing device Expired - Fee Related JP2915503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2159951A JP2915503B2 (en) 1990-06-20 1990-06-20 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2159951A JP2915503B2 (en) 1990-06-20 1990-06-20 Image processing device

Publications (2)

Publication Number Publication Date
JPH0451263A JPH0451263A (en) 1992-02-19
JP2915503B2 true JP2915503B2 (en) 1999-07-05

Family

ID=15704730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2159951A Expired - Fee Related JP2915503B2 (en) 1990-06-20 1990-06-20 Image processing device

Country Status (1)

Country Link
JP (1) JP2915503B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006326280A (en) * 2005-04-25 2006-12-07 Takeshi Kuroda Knocked-down flower vase

Also Published As

Publication number Publication date
JPH0451263A (en) 1992-02-19

Similar Documents

Publication Publication Date Title
JP3048158B2 (en) Color image processing equipment
US5784180A (en) Image memory apparatus
US5459589A (en) Color image processing apparatus
JP3178541B2 (en) Image processing method and apparatus
EP0711068B1 (en) Image processing method and apparatus
US5631983A (en) Image forming system for synthesizing color image data with binary image data which has been colored with a predetermined color during the synthesizing operation
JP4280404B2 (en) Image processing apparatus and method
JP3176101B2 (en) Image reading device
US5253083A (en) Image reading apparatus having improved shading correction
US5602655A (en) Image forming system for single bit image data
JPH10210311A (en) Image-processing method and device therefor
JP2915503B2 (en) Image processing device
EP0559470A1 (en) Method of histogram analysis of colour tints
JP3226224B2 (en) Image processing device
JP3042911B2 (en) Image processing apparatus and image processing method
JP2815962B2 (en) Image processing apparatus and image processing method
JPH0622159A (en) Picture reader
JP3206932B2 (en) Image processing method and apparatus
JP3200090B2 (en) Image processing method and apparatus
JP2971522B2 (en) Image reading device
JP2911489B2 (en) Color image processing equipment
JP3554012B2 (en) Image processing apparatus and image processing method
JP3359045B2 (en) Image processing apparatus and image processing method
JP2941852B2 (en) Image processing method
JP3302010B2 (en) Control method of electronic equipment

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees