JP3844276B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3844276B2
JP3844276B2 JP2722699A JP2722699A JP3844276B2 JP 3844276 B2 JP3844276 B2 JP 3844276B2 JP 2722699 A JP2722699 A JP 2722699A JP 2722699 A JP2722699 A JP 2722699A JP 3844276 B2 JP3844276 B2 JP 3844276B2
Authority
JP
Japan
Prior art keywords
image
data
scanning position
compression
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2722699A
Other languages
Japanese (ja)
Other versions
JP2000224424A (en
Inventor
辰巳 渡辺
康浩 桑原
章夫 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2722699A priority Critical patent/JP3844276B2/en
Publication of JP2000224424A publication Critical patent/JP2000224424A/en
Application granted granted Critical
Publication of JP3844276B2 publication Critical patent/JP3844276B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ハンドタイプのスキャナによって読み取られた画像データを画像記憶メモリに格納するための画像処理装置に関するものである。
【0002】
【従来の技術】
従来、手動によって原稿上を自由走査して原稿画像を読み取るハンドタイプのスキャナにおいては、読み取りセンサの原稿上の走査位置を逐次検出し、検出された走査位置に基づいて画像データを画像記憶メモリに格納している。
【0003】
このような画像処理装置としては、例えば本願出願人による特開平8−107479号公報に記載のものがある。
【0004】
図14は上記従来の画像処理装置のブロック図を示すものである。イメージセンサ100での光電変換によって得られた画像データはライン読み取り手段1020でディジタル処理されるようになっている。ここで得られたディジタルの画像データはシーディング補正手段1030でシーディング補正された後、画像バッファ1050を介して写像手段に入力される。
【0005】
一方、走査位置検出手段1090は上記読み取られた画像データに対応する走査位置を検出し、該走査位置データを座標導出手段1110に入力する。この座標導出手段1110では、上記位置データに基づいて原稿上の座標を算出し、該座標データを写像手段1070に入力する。写像手段1070では上記のようにして得られた座標データを写像用メモリ1120上の所定アドレスに変換するとともに、該アドレスに対応する画像データが写像されるように処理をして、写像メモリ1120に格納する。
【0006】
尚、走査位置を検出する際に基準位置が印刷されたシートやタブレット等の補助装置を用いると精度よく読み取り位置を得ることができるが、その反面コストが高くなる。他方図14に示すように、イメージセンサ100と一体移動する車輪に取り付けられ、該車輪の回転にともなってパスルを発生するエンコーダ101a,101bを用いる場合には、車輪の滑り等によって大きな累積誤差を生じてしまうおそれがある。
【0007】
そこで、画像位置補正手段1080を設け、同じ位置を重複して走査した際の重なり領域内に、該当する入力画像データと対応する写像メモリ1120上に既に格納された画像データの間の相関に基づいて、上記座標導出手段1110で得られた位置の補正を行うようにし、写像手段1070で該補正された位置を用いて写像メモリ1120上の所定のアドレスに格納することで、走査位置の位置誤差によってよって生じる画像の接続ズレを防止している。
【0008】
このように、写像用メモリ1120に記憶された画像データは外部のコンピュータ等のメモリに記憶され、画面表示されたりあるいは印刷されたりする。
【0009】
【発明が解決しようとする課題】
ところで、今後、ハンドタイプのスキャナ入力ができる画像処理装置に望まれる機能として、ポータビリティへの要望が大きくなると考えられ、その際、電話回線等を使った通信機能により、離れた先への画像データ通信が望まれると思われる。
【0010】
しかしながら、上記従来の画像処理装置では、原稿から読み込んだ画像をリアルタイムでパソコン等の外部コンピュータで取り込むことを前提としており、前記画像バッファ1050の記憶容量が小さいことから、画像処理装置で得られた画像データを一度保持して、モデム等を介して離れた場所にある外部コンピュータに送信したり、帰ってからこの画像処理装置に外部コンピュータ等を接続して読み込んだ画像データを取り出すというようなオフラインでの使用ができないという問題点がある。
【0011】
上記画像バッファ1050の記憶容量を増大させればこの問題は解決するが、画像処理装置の製造コストが上がるという別の問題を招来する。
【0012】
本発明は叙上の如き実状に対処し、読み込んだ画像データを圧縮することにより、外部メモリなしで既存の内部メモリに画像データを記憶させるとともに、この画像データのオフラインでの処理を可能にすることを目的とするものである。
【0013】
【課題を解決するための手段】
本発明は上記問題を解決するために以下の手段を採用している。
【0014】
まず、本発明は画像読み取り手段により原稿上を走査してその原稿上の画像を読み取る一方、走査位置検出手段により検出した、読み取られた上記画像に対応する走査位置に基づいて、上記画像を読み取って得た画像データに対応した上記原稿上の座標を座標導出手段で導出し、写像手段により上記座標に基づいて上記画像データを写像用メモリの所定のアドレスに写像する画像処理装置を前提としている。
【0015】
上記のような画像処理装置において、図1に示すように、上記読み取り手段から得られた画像データを画像圧縮手段04で圧縮し、該圧縮された画像データを圧縮画像記憶メモリ105に記憶するようにする。また、走査位置検出手段109で検出した上記走査位置を走査位置記憶メモリ110に記憶する。
【0016】
この状態でユーザよりの指示があると、上記画像伸長手段106で上記圧縮画像記憶メモリ105から上記圧縮された画像データを読み出して元の画像データに伸長するとともに、該伸長された画像データを上記写像手段107に入力するとともに、走査位置記憶メモリ110より走査位置を入力する構成とした。
【0017】
これによって、一旦目的とする原稿の画像データを全部圧縮画像メモリ105に記憶しておき、後に必要なときになってから該画像データを伸長して取り出すことができる。従って、携帯に便利な画像処理装置を得ることができる。
【0018】
上記に加えて、図5に示すように上記画像圧縮手段501の前段に、上記読み取られた画像データがカラーかモノクロかを判定するモノクロ判定手段500を備え、このモノクロ判定手段500が画像データをモノクロと判定した場合に、上記画像圧縮手段501がRGBの任意の1つのカラーデータのみを有効として圧縮を行い、上記圧縮画像記憶メモリ105がこのカラーデータを記憶するとともに上記画像伸長手段106が伸長して、上記写像手段107が残る2つのカラーデータをこの伸長されたカラーデータと同じ値として生成し上記写像用メモリに写像する構成とすることもできる。これによって、モノクロ、特に白黒2値の画像データの圧縮をより少ないメモリ容量で行うことができるとともに、処理の高速化が可能となる。
【0019】
更に、図7に示すように上記画像圧縮手段104の前段に、該画像圧縮手段104の圧縮形式に対応するように上記画像データの変換処理を行うデータ前処理手段701を備えるとともに、上記画像伸長手段701の後段に、上記データ前処理手段701で変換処理した画像データを元の形式に逆変換するデータ後処理手段702を備えた構成とすることもできる。
【0020】
これによって、圧縮・伸長の方式に対応した処理をすることが可能であり、更に、複数種の圧縮・伸長方式の中の1つを選択手段700で選択する構成とすることによって、ユーザの希望する任意の方法を採用することができる。
【0021】
さらに、図11に示すように、上記走査位置検出手段109で検出した走査位置を、圧縮する走査位置圧縮手段1100と、上記圧縮された走査位置を保持する圧縮走査位置記憶メモリ1101と、この圧縮走査位置記憶メモリ1101から走査位置の圧縮データを読み出し伸長する走査位置伸長手段1102とを備えた構成とすることも可能である。これによって、走査位置の圧縮も可能となり、メモリ容量を少なくすることが可能となる。
【0022】
【発明の実施の形態】
以下、さらに添付図面を参照して、本発明の実施の形態を説明する。
【0023】
図1は本発明の実施の形態1の画像処理装置を示す構成図、図2は同実施の形態の画像圧縮手段を示す構成図、図3は同実施の形態の画像伸長手段を示す構成図、図4は同実施の形態の量子化テーブルの例を表す図である。
【0024】
なお、各図において同一部材には同一符号を付しており、また、これ以降で座標値および移動量の単位には全て画素単位が用いられることとする。
【0025】
(実施の形態1)
まず、本発明の実施の形態1の画像処理装置について説明する。
【0026】
上記実施の形態1の画像処理装置は、図1に示すように、画像読み取り手段として、レッド、グリーン、ブルーの各カラー画像データをそれぞれ読み取るラインセンサを持つイメージセンサユニット100と、このイメージセンサユニット100を介してレッド、グリーン、ブルーの色データを読み取るライン読み取り手段102とを備えている。
【0027】
上記ライン読み取り手段102は、イメージセンサ100で読み取られたカラー画像データを増幅するアンプ115と、増幅されたカラー画像データをディジタル信号に変換するA/D 変換回路116とにより構成されている。
【0028】
また、上記画像読み取り手段は、上記イメージセンサユニット100と一体的に設置され、イメージセンサユニット100の移動距離を検出するためのパルスを送出するエンコーダ101a,101bを備えている。
【0029】
上記画像読み取り手段により読み取られた画像データは、シェーディング補正手段103によって、光源の光量むらやセンサの出力のばらつき等により生じる各色データ出力レベル差が補正される。
【0030】
そして、この補正された画像データは、画像圧縮手段104に転送される。この画像圧縮手段104は、予め設定された所定数、nライン分のカラー画像データが得られるごとに、符号化によりそれらの圧縮処理を行うようになっている。
【0031】
上記画像圧縮手段104で圧縮され符号化された圧縮画像データは、圧縮画像記憶メモリ105に順次記憶される。この記憶された圧縮画像データは、ユーザより画像再生信号検知手段114に入力される画像再生信号を受けて、画像伸長手段106により順番に読み出され、その伸長作業が行われる。
【0032】
上記画像伸長手段106により伸長された画像データは、写像手段107によって、前記エンコーダ101a、101bで得られた読み取り画像の写像用メモリ112で占める座標(または後述する画像位置補正手段108で位置補正された座標)に写像される。
【0033】
上記画像位置補正手段108は、前述の特開平8−107479号公報に詳述されるものであり、上記エンコーダ101a、101bより導出された座標値を、写像用メモリ空間における重なり領域データを用いることで位置補正を実行するものである。
【0034】
上記画像位置補正手段108は、入力画像ライン上にある画像データと写像用メモリ112に既に格納済みの画像データ間の相関データより構成される画像相関テーブル117と、この画像相関テーブル117から最も相関の高い座標を求め、求められた座標位置と現時点の画素位置の間の位置ずれ量と、ラインセンサの回転角度を補正するオフセット量とを累積誤差として保持する累積誤差記憶メモリ118と,この累積誤差記憶メモリ118で保持された値をもとにエンコーダ101a,101bより得られた座標の補正値を決定する補正量決定手段119と,前記座標導出手段111で得られた座標値に上記補正量決定手段119で得られた補正量を加えて座標補正を行う座標補正手段120とによって構成されている。
【0035】
一方、走査位置検出手段109は、エンコーダ101a及び101bからのパルスを受けてラインセンサの先頭走査位置と終端走査位置を検出し、走査位置記憶メモリ110は、上記走査位置検出手段109で得られたラインセンサの先頭走査位置と終端走査位置を一時保持するようになっている。
【0036】
座標導出手段111は、ユーザより画像再生信号検知手段114に入力される画像再生信号を受けて、走査位置記憶メモリ110で保持されたセンサの先頭走査位置と終端走査位置をもとに読み取られたレッドデータ、グリーンデータ、ブルーデータの写像用メモリ112上の座標を計算し、上記写像用メモリ112は、上記読み取られた各カラー画像データをその占める位置に配置し保持するようになっている。
【0037】
上記写像用メモリ112に保持された画像データは、モニター等の外部表示手段113に表示される。また、この写像用メモリ112に保持された画像データは、モデム等を介して離れた場所の外部コンピュータに送信されたり、持ち帰った先等でこの画像処理装置に外部コンピュータ等を接続して取り出される。
【0038】
以上のように構成された実施の形態1の画像処理装置の動作について説明する。
【0039】
まずイメージセンサユニット100が、カラー原稿上のR,G,Bの各ラインセンサのある位置のレッド、グリーン、ブルーの各カラー画像データを読み取り、読み取った各カラー画像データをライン読み取り手段102に入力する。ライン読み取り手段102では、アンプ115、A/D 変換回路116介して、ディジタル変換され、シェーディング補正手段103に転送される。
【0040】
シェーディング補正手段103では、得られたラー画像データごとに光源の光量むらやセンサの出力のばらつき等により生じる各色データの出力レベル差が補正され、画像圧縮手段104に入力される。
【0041】
画像圧縮手段104では、このカラー画像データの圧縮処理を行う。その際、に使用する圧縮方法としてはどのような方法を用いてもよいが、この実施の形態では画像を8×8画素からなるブロックに分割し、各ブロックの画素を公知の2次元離散コサイン変換(DCT; Discrete Cosine Transform 、以下、DCT変換という) により空間周波数分布の係数に変換し、視覚に適応した閾値で量子化し、求まった量子化係数を統計的に求めたハフマンテーブルにより符号化する公知のJPEG方式を適用した。
【0042】
図2および図3はこの方式に基づいて構成された画像圧縮手段104および画像伸長手段106をそれぞれ示している。なお、この手法はインターネットのウェブブラウザで使用されるカラー静止画像符号化標準方式に準ずるものである。
【0043】
図2に示すように、上記画像圧縮手段104では、シェーディング補正手段103で得られたラインごとのカラー画像データ10が予め設定されたnライン分揃った時点で処理を開始する。この際、特定のラインuにおける一方端からv番目の画素より得られるカラー画像データはレッドデータR(u,v)、グリーンデータG(u,v) 、ブルーデータB(u,v) の3つである。これをごとに上記8×8のブロックの集合(MCU;Minimum Coded Unit)に分ける。このことから、処理を開始するライン数nは8の倍数になるように設定する方が処理する際に扱いやすいので、本実施例ではn=8を選ぶ。
【0044】
DCT変換手段200では、各ブロックに対して、サイズ8×8の2次元DCT変換が施され、ここでで得られた64個のDCT係数は、量子化手段201で各係数ごとに異なる量子化ステップQ(i,j)(i=1,2,...8、j= 1,2,...8 ) を用いた線形量子化が施される。各係数ごとの量子化ステップQ(i,j) をマトリクス状にしたものを量子化テーブル202と称し、本実施の形態では、図4のように示される量子化テーブル202をレッドデータ、グリーンデータ、ブルーデータの各々より得られた上記MCUに適用することとした。
【0045】
図4の量子化テーブル202は、JPEG規格でよく使用される濃度による表色系を輝度・色差による表色系(RGB系をYCrCb系)に変換した際のY(輝度)信号から得られたDCT係数の量子化に使用されるものである。本実施の形態はRGB系のままDCTを用いた圧縮を行う例であるが、この場合、R( レッド) 、G (グリーン)、B (ブルー)の量子化の差異はつけにくいと考え、同じ量子化テーブル202を各色に適用することとした。しかし、RGBにおけるカラー特性評価をもとに各カラーデータより得られたDCT係数を量子化するテーブルを各色で異ならせた値をとるテーブルとしてもよいことはもちろんである。
【0046】
次に、エントロピー符号化手段203では、量子化処理で得られたDCT成分値のエントロピー符号化を行う。ここでは、まずDCT変換係数の不変(DC)成分と変化(AC)成分が分離され、次に以下のように別々な処理が加えられる。
【0047】
(1) 画像データ10のDC成分は、差分パルス符号変調(DPCM; Differential Pulse Code Modulation) による処理の後に、エントロピー符号化テーブル204を使ってハフマン符号化データ11に変換される。上記差分パルス符号変調は、前ブロックと現ブロックで対応するDC成分の差分を取ることであり、前ブロックと現ブロックのDC成分が似た値を持つことから、それにより行われるエントロピー符号化の効果を高める。なお、これらの処理または変換は公知の手段である。
【0048】
(2) AC成分は、ジグザグスキャンの後、零ラン長を考慮して二次元ハフマン符号化データに変換される。なお。ジグザグスキャンは、空間周波数での高域に位置するAC成分値がほとんど零値を持つことから、この零の長さが連続して続く零ラン長が長くなるように工夫された公知のスキャン法であり、これにより2次元エントロピー符号化の効果を高めている。
【0049】
なお、これらの画像圧縮処理は、画像読み取りが完了するまでに、読み取られたライン数が前記所定値nになるごとに行われる。
【0050】
一方、画像圧縮処理と並列してエンコーダ101a及び101bで得られたパルスが走査位置検出手段109でラインセンサの先頭走査位置と終端走査位置に換算され、走査位置記憶メモリ110に順番に保持される。このように先頭位置と終端位置のみを保持し、中間の各画素の位置を省略するのは、対象とする原稿上の画像の全ての読み込みが終了し、ユーザによる画像再生信号の入力に伴い圧縮記憶された画像データの表示が開始されるような場面を想定しているために、データ量を少なくする必要があるためである。
【0051】
このような場面の例としては、圧縮画像データを記憶した圧縮画像記憶メモリ105とこの走査位置記憶メモリ110とを、上記実施の形態の画像処理装置に付加されたモデム等で使用される通信用のアナログ回線やISDN等のディジタル回線モデム、赤外線通信等を使っての別の場所へのデータ送信が考えられ、このことから上記画像圧縮処理は実施の形態の画像処理装置の携帯性に不可欠な技術となっている。
【0052】
他方、画像再生信号検知手段114は、ユーザからの画像再生信号の入力があった場合に、その信号を受けて画像伸長手段106及び座標導出手段111に各処理の開始を指示する。
【0053】
上記画像伸長手段106では、図2で説明した画像圧縮に対応して公知の図3に示す処理がなされる。すなわち、まず圧縮画像記憶メモリ105より圧縮後の符号化画像データ11を順次読み出し、エントロピー復号化手段300でエントロピー符号化テーブル204に従いDCT係数のAC、DC成分に復号する。そして、得られた64個のDCT係数に量子化テーブル202で対応するQ(i,j) を乗算することにより、DCT変換で得られた係数を推定する。そして、最後にこの値をI DCT変換手段302で逆DCT変換することで、圧縮する前の1MCU分(64個)のレッド、グリーン、ブルー各データに復元することで画像伸長処理を行う。
【0054】
これに対し、上記座標導出手段111は、走査位置記憶メモリ110で記憶されたラインセンサの先頭走査位置と終端走査位置から、センサ上の各画素の写像用メモリ112(後述)上で占める座標を計算する。そして、画像位置補正手段108はこの座標値の補正を行う。上記画像位置補正手段108では、スキャナが重複して走査する重なり領域内の、画像伸長手段106より得られる入力画像データと既に写像用メモリ112へ格納済みの画像データから両者の最も一致する画素の並び状態(画像の相関)を求め、走査位置より導出された走査座標位置のずれを逐次自動補正する。すなわち、これから写像しようとする画像データと既に写像用メモリに書き込まれた画像データとの間に位置ずれがあると、写像される画像に連続性が保たれないので、この画像位置補正がなされる。この画像位置補正に関しては例えば特開平8−107479号公報に詳しく記載されているので、ここでは詳しい説明を省略する。
【0055】
上記写像手段107では、上記画像位置補正手段108で補正された座標位置に基づいて写像用メモリ112のアドレスを算出し、この写像用メモリ112上に画像伸長手段106で順に伸長された画像データを格納する。
【0056】
そして、外部表示手段113は本実施の形態の画像処理装置に接続されたモニターであり、これを使って写像用メモリ112に格納された画像データを再生すると、読み取られた画像データが表示され、歪みがないかを確認することができる。
【0057】
以上のように、本実施の形態によれば、従来の画像処理装置のように原稿から読み込んだ画像をリアルタイムでパソコン等の外部コンピュータで取り込む必要はなく、画像読み取り手段で読み取った画像データを圧縮画像記憶メモリに一度保持した状態とし、必要が生じたときに、モデム等を介して離れた場所にある外部コンピュータに送信したり、あるいは、外出先でコピー処理をして一旦持ち帰るなど別の場所に移動した後に該画像処理装置にコンピュータ等を接続して読み込みデータを取り出すことが可能となり、携帯性に適した画像処理装置となっている。
【0058】
なお、本実施の形態の圧縮方式では、非可逆方式(DCT変換と逆変換の乗算で生じる演算のまるめ誤差が一致しない、また、量子化ステップで空間周波数が高い領域では係数が零となる)のため復元画像データと元の画像データは一致しない。しかし、RGB系のまま圧縮することでその差は視覚的に判断できるほど大きいものではない。
【0059】
(実施の形態2)
次に、本発明の実施の形態2の画像処理装置について説明する。
【0060】
図5は本発明の実施の形態2の画像処理装置を示す構成図であり、この実施の形態2の画像処理装置においては、先の実施の形態1の構成に加えてモノクロ判定手段500を設けるとともに、先の画像圧縮手段104に代えて新たな画像圧縮手段501を設けている。
【0061】
上記モノクロ判定手段500は、シェーディング補正手段103を介して得られた読み取り画像データがカラーかモノクロかを判定するものであり、上記画像圧縮手段501は図6に示すように、圧縮対象成分である画像データ10が圧縮処理として有効であるかどうかを判断し、有効の成分に対してのみ画像圧縮処理を行うようになっている。
【0062】
これらモノクロ判定手段500および画像圧縮手段501を設けた理由は以下に述べる通りである。
【0063】
すなわち、カラー画像データの場合には8×8の画素より構成されるMCUは各色に対応して3つ存在するため、DCT変換、量子化、エントロピー符号化の一連処理を3度繰り返し行う必要がある。しかし、モノクロの場合には、8×8の画素より構成されるMCUは1つであるため、DCT変換、量子化、エントロピー符号化の一連処理は1度であることに理由がある。処理を開始するライン数nは第1実施例の画像処理装置と同様にn=8を選ぶ。
【0064】
以上のように構成された実施の形態2の画像処理装置の動作について説明する。
【0065】
前記実施の形態1の画像処理装置と同様に、イメージセンサ100、ライン読み取り手段102、シェーディング補正手段103を介して、イメージセンサユニットの特定の原稿位置の画像データを順次取得する。また、走査位置検出手段109では、エンコーダ101a及び101bで得られたパルスをもとにラインセンサの先頭の走査位置と終端の走査位置が検出される。通常、イメージセンサ100、ライン読み取り手段102を経て得られる画像データはカラー画像データを想定している。そのため、特定の読み取りラインu 上の一方端からv 番目の画素からはレッドR(u,v) 、グリーンG(u,v) 、ブルーB(u,v) の3種のデータが得られる。
【0066】
上記モノクロ判定手段500では、所定数m(例えばm≧2)ラインだけの画像データのレッドR(u,v) 、グリーンG(u,v) 、ブルーB(u,v) からNライン分のレッドとグリーンの差の絶対値DRG(u,v) =|R(u,v) −G(u, v ) |とブルーとグリーンの差の絶対値DBG(u,v) =|B(u,v) −G(u, v ) |を計算する。次いで、DRG(u,v) <TH_RかつDBG(u,v) <TH_G(TH_R,TH_Gは所定のしきい値)を満たす画素数をZNUM、1ラインセンサ上の画素数をS_LENとすると、下記数式1を満足する場合には、読み込み対象原稿がモノクロ原稿であると判定する。
【0067】
【数1】

Figure 0003844276
【0068】
ZNUM/(S_LEN×m×n)≧TH_MONO
これは、ある領域内における3色の各1ラインの画素のなかで同じ濃度値を取る画素数がほぼ同じ画素数となる場合には、モノクロ画像と判定することを表すものであり、そのしきい値TH_R 、TH_Gは小さな値が設定される。また、上記数式1におけるTH_MONOは対象画素内におけるモノクロ画素の占める割合に関するしきい値であり、例えば0.7〜0.8ぐらいが妥当であると考える。
【0069】
上記においてモノクロ画像と判断されたときには更に画像圧縮手段で以下のように処理される。
【0070】
図6に示す画像圧縮手段501は上記モノクロ判定手段2の判定結果を受けて以下の処理をする。すなわち、有効判定手段600において上記モノクロ判定手段2よりの判断結果を受けて、BGRの3色の中のいずれか1色(例えばグリーン)についてのみ圧縮処理をするように、以下のDCT変換手段200のDCT変換からエントロピー符号化手段203の処理に指示する。尚、上記画像圧縮手段501はモノクロ画像データの先頭に当該画層データがモノクロである旨の識別子を書き込んで、該データを圧縮画像メモリ105に入力する。
【0071】
こうすることで不要なカラーの画像データに対する圧縮処理を省略することができ、処理の効率化になる。当然のことながら画像伸長手段106では圧縮されたデータについてのみの伸長処理がなされ、圧縮されたカラーデータ1色に対してのみ1回処理され、他の2色は伸長されないことになる。
【0072】
一方、写像手段107では、上記伸長手段106より渡される画像データにモノクロである旨の識別子がある場合には、復元された画素データはグリーンG'(u,v)であると見なし、残りのレッドR'(u,v)、ブルーB'(u,v)も同じ値を取るものと見なして、3つのカラーデータを写像する。それ以外の場合には、本実施の形態1の画像処理装置の場合と同様に行う。
【0073】
以上のように、本実施の形態によれば、読み取り原稿がモノクロで占められるような場合、イメージセンサ100で読み取られたカラーデータ3つ全てに対して圧縮、伸長、写像処理は行わず、任意の1つのカラーデータに対してこれらの処理を行うことにより、処理の高速化を実現するとともに、圧縮画像記憶メモリ105を小型化するなど携帯性に適した画像処理装置を提供することが可能である。
【0074】
(実施の形態3)
次に、本発明の実施の形態3の画像処理装置について説明する。
【0075】
図7は上記実施の形態3の画像処理装置を示す構成図であり、先の実施の形態1と異なる構成は、前記シェーディング補正手段103の後段に圧縮形式選択手段700とデータ前処理手段701を備える点と、前記画像伸長手段106の後段にデータ後処理手段702を備える点である。
【0076】
上記圧縮形式選択手段700は、読み取られた画像データの表現形式や間引き処理の有無を選択するものであり、上記データ前処理手段701は上記圧縮形式選択手段700で選択された形式に従い、読み取られた画像データの変換処理を行うものである。また、上記データ後処理手段は、上記変換処理が施されて圧縮され、かつ上記画像伸長手段106で伸長された画像データを元の形式に逆変換するものである。
【0077】
以上のように構成された実施の形態3である画像処理装置の動作について説明する。ただし、上記圧縮形式選択手段700、データ前処理手段701およびデータ後処理手段702以外の動作は、先の実施の形態1と同じであるため説明を省略する。
【0078】
圧縮形式選択手段700は、前記画像圧縮手段104による画像圧縮時の符号化対象とする表色系を選択する処理を行う。
【0079】
図8は上記圧縮形式選択手段700で選択される表色形式及び、8×8の圧縮処理単位であるMCUに変換する際の色差データの間引きの例を表している。なお、ここで選択される表色形式はこれらに限ったものではなく、他の表色系を用意することも可能である。
【0080】
図8において、まず圧縮成分表現Aは表色形式として本実施例の第1の画像処理装置と同様にRGBの濃度系を用い、読み取られたレッドR(u,v) 、グリーンG(u,v) 、ブルーB(u,v) のまま(すなわち濃度のまま)圧縮することを意味する。圧縮成分表現BはこのRBG表色系を下記数式2を使って輝度Yと色差Cr 、Cb の表色系に変換することを表している。
【0081】
【数2】
Figure 0003844276
【0082】
この変換方式を採用する理由は、より圧縮率が高くなることと、一般的には人間の視覚特性が輝度成分の精度に対して敏感であり、色差成分の精度に対しては鈍感であるため、上記のようにRGB表色系を輝度Yと色差Cr 、Cb の表色系に変換したとしても視覚に対する影響が少ないこととに起因する。
【0083】
図8では上記圧縮成分表現Bに対して間引き方法の相違に応じてさらに3つの選択枝を設けている。すなわち、選択枝(B−1)は図9(a) に示ように、色差の間引きを行わない場合であり、選択枝(B−2)は図9(b) に示ように色差Cr 、Cb ともに輝度Yの1/2に間引くこと、選択枝(B−3)は図9(c) に示ように色差Cr 、Cb ともに輝度Yの1/4に間引くことを表す。これは、前述のように色差成分の精度に対しては人間の感覚が鈍感であることを利用したものである。
【0084】
一方、図8の圧縮成分表現Cは、このRGB表色系を下記数式3を使って疑似的な輝度Y' と色差Cr'、Cb'の表色系に変換することを表している。これは、本来の上記数式2で表現されるYCr Cb 変換系をビット操作と加算等のみで実現できるように近似したものであり、こうすることで本画像処理装置のLSI チップ化した際の処理速度の効率化を考慮したものである。なお、下記数式3は一義的に決定されるものではなく、これ以外にも考えれられる。また、ここで数式3において(R(u,v) >>3)はR(u,v) をビット表現した時に、右に3ビットシフト処理して得られる値を表す。
【0085】
【数3】
Figure 0003844276
【0086】
この圧縮成分表現Cにおいても間引きの方法に応じて3つの選択枝(C−1)、(C−2)、(C−3)を設けており、それぞれに選択枝(B−1)、(B−2)(B−3)に対応した間引き方法をとる。
【0087】
なお、読み取った画像データの圧縮を行うライン数nはこの圧縮形式に応じて選択され、上記選択枝(B−2)、(B−3)、(C−2)、(C−3)の場合は圧縮処理単位を作成する際に、間引きを行う関係上、16の倍数である方がよい。そのため、図8の圧縮成分表現A、選択枝(B−1)、(C−1)の場合はn=8とし、選択枝(B−2)、(B−3)、(C−2)、(C−3)場合はn=16とする。
【0088】
上記のように圧縮形式選択手段700の設定がなされると、データ前処理手段701は上記圧縮形式選択手段700で選択された表色形式に必要な成分信号に、レッド、グリーン、ブルー各カラーデータを変換するとともに、各成分に対して8×8画素よりなる圧縮単位MCUを構成する際の間引きを実行するように設定され、また、画像圧縮手段104は上記選択に応じた形式の圧縮処理ができるように設定される。
【0089】
この状態で、シェーディング補正手段103より得られた画像データは、データ前処理手段701に入力されると、上記圧縮形式選択手段700と画像圧縮手段104で。上記の処理がなされ圧縮画像記憶メモリ105に格納される。
【0090】
そして、データ後処理手段702は、画像伸長手段106で伸長された復元画像データを、上記圧縮形式選択手段700で選択された表色系及び間引き方法に従い、元のRGB表色系に逆変換するようになっている。なお、この際、図8に示す圧縮成分表現Cは、本実施の形態の画像処理装置のチップ化を考慮した変換系の近似式であり、上記数式3の逆変換式をそのまま用いることも可能であるが、チップ化における処理の効率化を念頭に置いて、数式3の逆変換式をビット操作と加減算で実現できる下記数式4の逆変換式を用いることとした。なお、これについても他の逆変換式は可能である。
【0091】
【数4】
Figure 0003844276
【0092】
ここで、画像圧縮手段104及び画像伸長手段106で使用される量子化テーブル202としては1つだけでなく、色差に適応したものも用意する必要がある。図10はその例を示すが、同図(a) の量子化テーブルは本実施の形態1および2の画像処理装置と同様のものである。同図(b) が色差用の量子化テーブルであり、人間の視覚にはあまり影響を受けない高域をほとんどカットするような量子化がなされるようになっている。
【0093】
以上のように構成することで、読み取り画像データにおいてRGB系のままではあまり圧縮できない場合でも、効率良く圧縮でき、大きな画像サイズを読み取ることができる。一方、原稿によっては、図8に示す成分の間引きを行う選択枝(B−2)、(B−3)、(C−2)、(C−3)では、復元データを再生した場合に画像の荒さ等が目立つ場合も考えられるが、その場合は本処理装置の使用用途に合わせた圧縮選択方式を使用すればよく、読み取り原稿や使用目的に合わせた圧縮と画像再生が可能になる。
【0094】
(実施の形態4)
最後に本発明の実施の形態4の画像処理装置について説明する。
【0095】
図11は上記実施の形態4の画像処理装置を示す構成図、図12は同実施の形態の走査位置圧縮手段の構成図、図13は同実施の形態の走査位置伸長手段の構成図である。
【0096】
上記実施の形態4の画像処理装置は、先の実施の形態3の構成に加えて、走査位置圧縮手段1100と走査位置伸長手段1102とを備えるとともに、実施の形態3の走査位置記憶メモリ110に代えて圧縮走査位置記憶メモリ1101を備えている。上記走査位置の圧縮・伸長方法は基本的にはどのような方法でも採用することができるが、図12、図13では誤差の発生しないいわゆるロスレス(Loss less) 方法を例示した。
【0097】
図11において、上記走査位置圧縮手段1100は、走査位置検出手段109で得られた走査位置を圧縮し、圧縮走査位置記憶メモリ1101に保持するようになっている。また、走査位置伸長手段1102は、原稿の読み込みが終了しユーザによる画像再生信号が入力された時点で、圧縮走査位置で記憶メモリからnラインに相当する圧縮走査位置を読み出し伸長するものである。
【0098】
上記走査位置圧縮手段1100は、図12に示すように差分信号検出手段1200と予測器1201と、エントロピー符号化手段203と、エントロピー符号化テーブル204とを備えており、上記差分信号検出手段1200は、現ラインの走査位置と予測器1201で保持された走査位置との間の差分信号を計算するようになっている。
【0099】
これに対し、上記走査位置伸長手段1102は、図13に示すように、信号予測手段1300と、予測器1201と、エントロピー復号化手段300と、エントロピー符号化テーブル204とを備えており、信号予測手段1300は予測器1201で保持された1つ前の復元後の走査位置とエントロピー復号化手段300で符号化データより復元された走査位置の差分量を加算することで現ラインの走査位置を計算するようになっている。
【0100】
以上のように構成された実施の形態4の画像処理装置では、ライン読み取り手段でレッド、グリーン、ブルーの色データの読み取りを行う一方、エンコーダで得られた先頭走査位置、終端走査位置を走査位置圧縮手段1100で圧縮処理する。
【0101】
その際、ここで得られた走査位置は後に画像位置補正手段108で使用されるため、圧縮前のデータと伸長後のデータの間のずれが大きいとその補正に大きな障害となる。そこで、図12で表現されるような歪みのない(ロスレス)圧縮方法を用いた。これは、現在のi番目の走査位置データと(i−1)番目の走査位置データ間の差分信号を計算する差分導出手段1200と、上記差分信号の符号化を行うエントロピー符号化手段203と、上記符号化のためのエントロピー符号化テーブル204より構成され、差分導出手段1200では、DCT変換は使用せず1つ前の(i−1)番目の走査位置と現在のi番目の走査位置との間の差分を取り、その値を可逆なエントロピー符号化処理しているので、復元後の走査位置データは入力された走査位置データに完全に一致する。
【0102】
なお、当然この差分量が大きい場合、ハフマン系列で行われるエントロピー符号化手段203で圧縮率に大きな影響を与える零ラン長は非常に少なくなり、圧縮率はほとんど期待できない。しかし、本実施の形態の画像処理装置のようにセンサユニットを走査して、原稿上からの画像データを読み取ると同時にエンコーダで走査位置を読み取る場合は、エンコーダの読み取り周期がある程度小さい値であり、その周期に対してセンサユニットを走査する速度が適正であるならば、走査時のラインセンサの移動はかなり小さく、エントロピー符号化する際にある程度の零ラン長が発生するため、本方式での圧縮は効果がある。
【0103】
一方、図13に示す走査位置伸長手段1102は、図12に示した走査位置圧縮手段1100の逆処理を行うものであり、信号予測手段1300では、既に予測された(i−1)番目の走査位置データに、エントロピー復号化手段300で復号された差分量が加算されることでi番目のラインの走査位置データ(ラインの先頭走査位置および終端走査位置)が復元される。そして、このi番目の予測データが次のラインの先頭走査位置及び終端走査位置を復元する際の基準データとして予測器1201で使用する。このような処理過程を経て、圧縮走査位置記憶メモリ1101にためられた走査位置の復元がされる。
【0104】
この復元された走査位置から座標導出手段111が対象とするラインu 上の先端からv 番目の座標を計算し、この値と、画像伸長手段106、データ後処理手段702を経て復元されたカラー画像データ、そして既に写像用メモリ112上に写像されたデータを使って、画像位置補正手段108が読み込み画像がなめらかにつながるように座標補正処理を行う。
【0105】
なお、これ以外の処理は、本実施例の第3の画像処理装置と同様である。また、今回、走査位置データの圧縮方式として基準とした1ライン前のデータと対象データ間の差分量をとり(DPCM)、それをエントロピー符号化する手法に基づく方式を適用したが、他のロスレスで圧縮できる方式も適用すること可能である。
【0106】
このように、読み込まれた画像データの圧縮を行うだけでなく、読み込まれた画像の走査位置もロスレスモードで圧縮することにより、読み込む画像データの増加に伴って増大する画像走査位置データも併せて低減することが可能である。
【0107】
【発明の効果】
以上説明したように、本発明は、ハンドタイプのスキャナにおいて、読み込まれた画像データの圧縮を行うことにより、内部メモリの記憶量を削減しこの内部メモリを有効に活用するとともに、上記記憶量の削減により外部パーソナルコンピュータに接続されていない形での使用が可能となる。その結果、携帯型の装置を作製することができ、任意の場所での自由な画像読み取りを実現することが可能である。
【0108】
また、読み込まれた画像データの圧縮を行う際に、対象とする画像データがモノクロデータかカラー画像データかを判定することにより、圧縮過程における不要な処理を省略することができ、画像読み込み処理の効率化を実現することが可能である。
【0109】
また、読み込まれた画像データの圧縮を行う際の表現形式を変更する手段を設けて、それに対応する圧縮符号化のためのテーブルを切り替えることにより、読み込まれた画像データに合わせた圧縮が可能となり、より内部メモリを効率的に使用することが可能となる。
【0110】
さらに、読み込まれた画像データの圧縮を行うだけでなく、読み込まれた画像の走査位置をも圧縮することで、読み込む画像データの増加に伴い増大する画像走査位置データも併せて低減することができ、さらなる内部メモリの削減することが可能になるという効果を奏するものである。
【図面の簡単な説明】
【図1】本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。
【図2】同実施の形態の画像圧縮手段の構成を示すブロック図である。
【図3】同実施の形態の画像伸長手段の構成を示すブロック図である。
【図4】同実施の形態の量子化テーブルの例を示す図である。
【図5】本発明の実施の形態2に係る画像処理装置の構成を示すブロック図である。
【図6】同実施の形態の画像圧縮手段の構成を示すブロック図である。
【図7】本発明の実施の形態3に係る画像処理装置の構成を示すブロック図である。
【図8】同実施の形態のデータ前処理手段での処理を示す説明図である。
【図9】同データ前処理手段での画像データの間引きを示す説明図である。
【図10】同実施の形態の量子化テーブル例を表す図である。
【図11】本発明の実施の形態4に係る画像処理装置の構成を示すブロック図である。
【図12】同実施の形態の走査位置圧縮手段の構成を表すブロック図である。
【図13】同実施の形態の走査位置伸長手段の構成を表すブロック図である。
【図14】従来の画像処理装置の構成を示すブロック図である。
【符号の説明】
10 画像データ
11 符号化データ
12 復元画像データ
100 イメージセンサユニット
101a エンコーダ1
101b エンコーダ2
102 ライン読み取り手段
103 シェーディング補正手段
104 画像圧縮手段
105 圧縮画像記憶メモリ
106 画像伸長手段
107 写像手段
108 画像位置補正手段
109 走査位置検出手段
110 走査位置記憶メモリ
111 座標導出手段
112 写像用メモリ
113 外部表示手段
114 画像再生信号検知手段
115 アンプ
116 A/D 変換回路
117 画像相関テーブル
118 累積誤差記憶メモリ
119 補正量決定手段
120 座標補正手段
200 DCT変換手段
201 量子化手段
202 量子化テーブル
203 エントロピー符号化手段
204 エントロピー符号化テーブル
300 エントロピー復号化手段
301 逆量子化手段
302 IDCT変換手段
500 モノクロ判定手段
501 画像圧縮手段
600 有効判定手段
700 圧縮形式選択手段
701 データ前処理手段
702 データ後処理手段
1100 走査位置圧縮手段
1101 圧縮走査位置記憶メモリ
1102 走査位置伸長手段
1200 差分信号検出手段
1201 予測器
1300 信号予測手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus for storing image data read by a hand-type scanner in an image storage memory.
[0002]
[Prior art]
Conventionally, in a hand-type scanner that manually scans a document by manually scanning the document image, the scanning position of the reading sensor on the document is sequentially detected, and the image data is stored in the image storage memory based on the detected scanning position. Storing.
[0003]
An example of such an image processing apparatus is described in Japanese Patent Application Laid-Open No. 8-107479 filed by the present applicant.
[0004]
FIG. 14 is a block diagram of the conventional image processing apparatus. Image data obtained by photoelectric conversion in the image sensor 100 is digitally processed by the line reading means 1020. The digital image data obtained here is subjected to seeding correction by the seeding correction means 1030 and then input to the mapping means via the image buffer 1050.
[0005]
On the other hand, the scanning position detection unit 1090 detects a scanning position corresponding to the read image data, and inputs the scanning position data to the coordinate deriving unit 1110. The coordinate deriving unit 1110 calculates the coordinates on the document based on the position data, and inputs the coordinate data to the mapping unit 1070. The mapping means 1070 converts the coordinate data obtained as described above into a predetermined address on the mapping memory 1120 and performs processing so that image data corresponding to the address is mapped, and stores it in the mapping memory 1120. Store.
[0006]
It should be noted that when an auxiliary device such as a sheet or a tablet on which the reference position is printed is used when detecting the scanning position, the reading position can be obtained with high accuracy, but the cost increases. On the other hand, as shown in FIG. so When using the encoders 101a and 101b that are attached to a moving wheel and generate a pulse as the wheel rotates, a large cumulative error may occur due to slipping of the wheel or the like.
[0007]
Therefore, image position correcting means 1080 is provided, and based on the correlation between the corresponding input image data and the image data already stored on the corresponding mapping memory 1120 in the overlapping area when the same position is scanned repeatedly. Then, the position obtained by the coordinate deriving means 1110 is corrected, and the corrected position is stored by the mapping means 1070 at a predetermined address on the mapping memory 1120, whereby the position error of the scanning position is obtained. This prevents the image misalignment caused by.
[0008]
As described above, the image data stored in the mapping memory 1120 is stored in the memory of an external computer or the like, and is displayed on the screen or printed.
[0009]
[Problems to be solved by the invention]
By the way, in the future, as a function desired for an image processing apparatus capable of hand-type scanner input, it is considered that there is a growing demand for portability. Communication seems to be desired.
[0010]
However, the above-described conventional image processing apparatus is based on the premise that an image read from a document is captured in real time by an external computer such as a personal computer. Since the storage capacity of the image buffer 1050 is small, the image processing apparatus can obtain the image. Offline such as holding image data once and sending it to an external computer at a remote location via a modem, etc., or connecting the external computer etc. to this image processing device after returning and taking out the read image data There is a problem that it can not be used in.
[0011]
Increasing the storage capacity of the image buffer 1050 solves this problem, but causes another problem that the manufacturing cost of the image processing apparatus increases.
[0012]
The present invention copes with the actual situation as described above and compresses the read image data to store the image data in an existing internal memory without an external memory, and enables offline processing of the image data. It is for the purpose.
[0013]
[Means for Solving the Problems]
The present invention employs the following means in order to solve the above problems.
[0014]
First, the present invention uses an image reading means. Rihara Scan the manuscript The image on the manuscript Scan position detection means while reading Detected by Read Above image Based on the scanning position corresponding to The coordinates on the original corresponding to the image data obtained by reading the image are Coordinate derivation means Led by Out, mapping means By Based on the coordinates, the image data is mapped to a predetermined address in the mapping memory. Image processing device Is assumed.
[0015]
In the image processing apparatus as described above, as shown in FIG. 1, the image data obtained from the reading means is converted into image compressing means. 1 The compressed image data is stored in the compressed image storage memory 105. Further, the scanning position detected by the scanning position detection means 109 is stored in the scanning position storage memory 110.
[0016]
When there is an instruction from the user in this state, the image decompression means 106 reads out the compressed image data from the compressed image storage memory 105 and decompresses it to the original image data. The scanning position is input from the scanning position storage memory 110 as well as being input to the mapping means 107.
[0017]
As a result, all the image data of the target document can be temporarily stored in the compressed image memory 105, and the image data can be expanded and taken out later when necessary. Therefore, an image processing apparatus that is convenient to carry can be obtained.
[0018]
In addition to the above, as shown in FIG. 5, a monochrome determination unit 500 is provided in front of the image compression unit 501 to determine whether the read image data is color or monochrome. When the image is determined to be monochrome, the image compression unit 501 performs compression by validating only one arbitrary color data of RGB, the compressed image storage memory 105 stores the color data, and the image expansion unit 106 expands the image data. The two color data remaining by the mapping means 107 can be generated as the same value as the decompressed color data and mapped to the mapping memory. As a result, monochrome image data, particularly monochrome image data, can be compressed with a smaller memory capacity, and the processing speed can be increased.
[0019]
Further, as shown in FIG. 7, the image compression unit 104 is provided with a data pre-processing unit 701 for converting the image data so as to correspond to the compression format of the image compression unit 104, and the image decompression. It is also possible to employ a configuration in which a data post-processing unit 702 that reversely converts the image data converted by the data pre-processing unit 701 into the original format is provided at the subsequent stage of the unit 701.
[0020]
As a result, it is possible to perform processing corresponding to the compression / decompression method, and further, by selecting one of a plurality of types of compression / decompression methods by the selection means 700, the user's request can be obtained. Any method can be employed.
[0021]
Further, as shown in FIG. 11, a scanning position compression means 1100 for compressing the scanning position detected by the scanning position detection means 109, a compression scanning position storage memory 1101 for holding the compressed scanning position, and this compression It is also possible to employ a configuration including scanning position expansion means 1102 that reads compressed data at the scanning position from the scanning position storage memory 1101 and expands it. As a result, the scanning position can be compressed, and the memory capacity can be reduced.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
[0023]
FIG. 1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention, FIG. 2 is a block diagram showing image compression means of the same embodiment, and FIG. 3 is a block diagram showing image decompressing means of the same embodiment. FIG. 4 is a diagram illustrating an example of a quantization table according to the embodiment.
[0024]
In the drawings, the same members are denoted by the same reference numerals, and the pixel units are used as the units for the coordinate values and the movement amounts thereafter.
[0025]
(Embodiment 1)
First, the image processing apparatus according to the first embodiment of the present invention will be described.
[0026]
As shown in FIG. 1, the image processing apparatus according to the first embodiment includes an image sensor unit 100 having a line sensor that reads each color image data of red, green, and blue as an image reading unit, and the image sensor unit. Line reading means 102 for reading red, green, and blue color data through 100 is provided.
[0027]
The line reading unit 102 includes an amplifier 115 that amplifies color image data read by the image sensor 100, and an A / D conversion circuit 116 that converts the amplified color image data into a digital signal.
[0028]
The image reading unit includes encoders 101 a and 101 b that are installed integrally with the image sensor unit 100 and send out pulses for detecting the moving distance of the image sensor unit 100.
[0029]
The image data read by the image reading unit is corrected by the shading correction unit 103 for each color data output level difference caused by unevenness of the light amount of the light source, variation in the output of the sensor, or the like.
[0030]
The corrected image data is transferred to the image compression unit 104. The image compression means 104 performs compression processing by encoding each time a predetermined number of color image data for n lines is obtained.
[0031]
The compressed image data compressed and encoded by the image compression unit 104 is sequentially stored in the compressed image storage memory 105. The stored compressed image data receives an image reproduction signal input from the user to the image reproduction signal detection unit 114, is sequentially read out by the image expansion unit 106, and is expanded.
[0032]
The image data expanded by the image expansion means 106 is subjected to position correction by the mapping means 107 in the coordinates occupied by the mapping memory 112 of the read image obtained by the encoders 101a and 101b (or image position correction means 108 described later). Mapped).
[0033]
The image position correcting means 108 is described in detail in the aforementioned Japanese Patent Application Laid-Open No. 8-107479, and the coordinate values derived from the encoders 101a and 101b are used as overlapping area data in the mapping memory space. The position correction is executed by.
[0034]
The image position correcting means 108 has an image correlation table 117 composed of correlation data between the image data on the input image line and the image data already stored in the mapping memory 112, and the image correlation table 117 is the most correlated. An accumulated error storage memory 118 that obtains a coordinate having a high position, holds a displacement amount between the obtained coordinate position and the current pixel position, and an offset amount for correcting the rotation angle of the line sensor as an accumulated error; Correction amount determination means 119 for determining the correction value of the coordinates obtained from the encoders 101a and 101b based on the value held in the error storage memory 118, and the correction amount to the coordinate value obtained by the coordinate derivation means 111. The coordinate correction unit 120 performs coordinate correction by adding the correction amount obtained by the determination unit 119.
[0035]
On the other hand, the scanning position detection means 109 receives the pulses from the encoders 101a and 101b to detect the head scanning position and the terminal scanning position of the line sensor, and the scanning position storage memory 110 is obtained by the scanning position detection means 109. The head scanning position and the terminal scanning position of the line sensor are temporarily held.
[0036]
The coordinate deriving unit 111 receives an image reproduction signal input to the image reproduction signal detection unit 114 from the user, and is read based on the head scanning position and the terminal scanning position of the sensor held in the scanning position storage memory 110. The coordinates of the red data, green data, and blue data on the mapping memory 112 are calculated, and the mapping memory 112 is arranged to store the read color image data at the position occupied by the color data.
[0037]
The image data held in the mapping memory 112 is displayed on the external display means 113 such as a monitor. Further, the image data held in the mapping memory 112 is transmitted to an external computer at a remote location via a modem or the like, or is taken out by connecting the external computer or the like to the image processing apparatus at a destination where it is taken home. .
[0038]
The operation of the image processing apparatus according to the first embodiment configured as described above will be described.
[0039]
First, the image sensor unit 100 reads red, green, and blue color image data at a position of each of the R, G, and B line sensors on the color document, and inputs the read color image data to the line reading unit 102. To do. In the line reading means 102, an amplifier 115 and an A / D conversion circuit 116 are used. The Via the digital conversion and transferred to the shading correction means 103.
[0040]
In the shading correction means 103, the obtained Mosquito The output level difference of each color data generated due to unevenness of the light amount of the light source or variations in the output of the sensor is corrected for each color image data and input to the image compression unit 104.
[0041]
The image compression unit 104 performs compression processing of the color image data. In this case, any compression method may be used. In this embodiment, the image is divided into blocks each having 8 × 8 pixels, and the pixels of each block are known in the known two-dimensional discrete cosine. Transform (DCT; Discrete Cosine Transform, hereinafter referred to as DCT transform) into spatial frequency distribution coefficients, quantize them with thresholds adapted to vision, and encode the obtained quantized coefficients with statistically obtained Huffman tables A known JPEG method was applied.
[0042]
2 and 3 show the image compression means 104 and the image expansion means 106 configured based on this method, respectively. This method is in accordance with the color still image coding standard method used in Internet web browsers.
[0043]
As shown in FIG. 2, the image compression unit 104 starts processing when the color image data 10 for each line obtained by the shading correction unit 103 is arranged for n lines set in advance. At this time, the color image data obtained from the v-th pixel from one end in the specific line u is red data R (u, v), green data G (u, v), and blue data B (u, v). One. this color Each is divided into a set of 8 × 8 blocks (MCU: Minimum Coded Unit). For this reason, the number n of lines to start processing is easier to handle when set to be a multiple of 8, and therefore n = 8 is selected in this embodiment.
[0044]
The DCT transform unit 200 performs a two-dimensional DCT transform of size 8 × 8 on each block, and the 64 DCT coefficients obtained here are quantized by the quantizer 201 differently for each coefficient. Linear quantization using steps Q (i, j) (i = 1, 2,..., J = 1, 2,..., 8) is performed. The quantization step Q (i, j) for each coefficient in the form of a matrix is referred to as a quantization table 202. In this embodiment, the quantization table 202 shown in FIG. And to be applied to the MCU obtained from each of the blue data.
[0045]
The quantization table 202 in FIG. 4 is obtained from a Y (luminance) signal obtained by converting a color system based on density often used in the JPEG standard into a color system based on luminance and color difference (RGB system is converted to YCrCb system). This is used for quantization of DCT coefficients. This embodiment is an example in which compression using DCT is performed in the RGB system, but in this case, it is considered that the difference in quantization of R (red), G (green), and B (blue) is difficult to attach, and the same The quantization table 202 is applied to each color. However, it goes without saying that a table for quantizing the DCT coefficient obtained from each color data based on the color characteristic evaluation in RGB may be a table that takes different values for each color.
[0046]
Next, the entropy encoding unit 203 performs entropy encoding of the DCT component value obtained by the quantization process. Here, first the invariant (DC) component and the change (AC) component of the DCT transform coefficient are separated, and then different processing is applied as follows.
[0047]
(1) The DC component of the image data 10 is converted into Huffman encoded data 11 using the entropy encoding table 204 after processing by differential pulse code modulation (DPCM). The differential pulse code modulation is to take the difference between the DC components corresponding to the previous block and the current block. Since the DC components of the previous block and the current block have similar values, the entropy coding performed thereby is performed. Increase the effect. These processes or conversions are known means.
[0048]
(2) After the zigzag scan, the AC component is converted into two-dimensional Huffman encoded data in consideration of the zero run length. Note that. In the zigzag scan, a known scan method is devised so that the zero run length in which the zero length continues continuously, since the AC component value located at a high frequency in the spatial frequency has almost zero value. This enhances the effect of two-dimensional entropy coding.
[0049]
Note that these image compression processes are performed every time the number of lines read reaches the predetermined value n until the image reading is completed.
[0050]
On the other hand, the pulses obtained by the encoders 101a and 101b in parallel with the image compression processing are converted into the first scanning position and the last scanning position of the line sensor by the scanning position detection means 109, and are sequentially held in the scanning position storage memory 110. . In this way, only the head position and the end position are retained, and the positions of the respective intermediate pixels are omitted. When all the images on the target document are read, the image is compressed as the user inputs the image reproduction signal. This is because it is necessary to reduce the amount of data because it is assumed that the display of stored image data starts.
[0051]
As an example of such a scene, the compressed image storage memory 105 storing the compressed image data and the scanning position storage memory 110 are used for communication used in a modem or the like added to the image processing apparatus of the above embodiment. Data transmission to another location using a digital line modem such as an analog line or ISDN, infrared communication, etc. can be considered. Therefore, the image compression processing is indispensable for the portability of the image processing apparatus according to the embodiment. It has become a technology.
[0052]
On the other hand, when an image reproduction signal is input from the user, the image reproduction signal detection unit 114 receives the signal and instructs the image expansion unit 106 and the coordinate deriving unit 111 to start each process.
[0053]
The image decompressing means 106 performs a known process shown in FIG. 3 corresponding to the image compression described in FIG. That is, first, the compressed encoded image data 11 is sequentially read out from the compressed image storage memory 105, and the entropy decoding unit 300 decodes it into AC and DC components of DCT coefficients according to the entropy encoding table 204. Then, the obtained 64 DCT coefficients are multiplied by the corresponding Q (i, j) in the quantization table 202 to estimate the coefficient obtained by the DCT transform. Finally, this value is subjected to inverse DCT conversion by the IDCT conversion means 302, and image decompression processing is performed by restoring the data for 1 MCU (64) of red, green, and blue before compression.
[0054]
On the other hand, the coordinate deriving unit 111 calculates the coordinates occupied on the mapping memory 112 (described later) of each pixel on the sensor from the head scanning position and the terminal scanning position of the line sensor stored in the scanning position storage memory 110. calculate. The image position correcting unit 108 corrects the coordinate value. In the image position correction means 108, the input image data obtained from the image decompression means 106 and the image data already stored in the mapping memory 112 in the overlapping region where the scanner scans redundantly, the pixel of the best match between the two is obtained. The alignment state (correlation of images) is obtained, and the shift of the scanning coordinate position derived from the scanning position is automatically corrected sequentially. That is, if there is a misalignment between the image data to be mapped and the image data already written in the mapping memory, the image to be mapped cannot be maintained, so this image position correction is performed. . Since this image position correction is described in detail in, for example, Japanese Patent Laid-Open No. 8-107479, detailed description thereof is omitted here.
[0055]
The mapping means 107 calculates the address of the mapping memory 112 based on the coordinate position corrected by the image position correction means 108, and the image data expanded in order by the image expansion means 106 on the mapping memory 112. Store.
[0056]
The external display unit 113 is a monitor connected to the image processing apparatus according to the present embodiment. When the image data stored in the mapping memory 112 is reproduced using the monitor, the read image data is displayed. It can be confirmed whether there is any distortion.
[0057]
As described above, according to the present embodiment, it is not necessary to capture an image read from a document in real time by an external computer such as a personal computer as in a conventional image processing apparatus, and compresses image data read by an image reading unit. Once stored in the image storage memory, when necessary, send it to an external computer at a remote location via a modem, etc., or copy it while you are away and take it home again After moving to the image processing apparatus, it is possible to connect the image processing apparatus to a computer or the like and take out the read data, so that the image processing apparatus is suitable for portability.
[0058]
Note that in the compression method of the present embodiment, the lossy method (the rounding error of the calculation caused by the multiplication of the DCT transform and the inverse transform does not match, and the coefficient is zero in the region where the spatial frequency is high in the quantization step). Therefore, the restored image data does not match the original image data. However, the difference is not so large that it can be visually judged by compressing the RGB system.
[0059]
(Embodiment 2)
Next, an image processing apparatus according to Embodiment 2 of the present invention will be described.
[0060]
FIG. 5 is a block diagram showing an image processing apparatus according to the second embodiment of the present invention. In the image processing apparatus according to the second embodiment, a monochrome determination unit 500 is provided in addition to the structure of the first embodiment. In addition, a new image compression unit 501 is provided instead of the previous image compression unit 104.
[0061]
The monochrome determination unit 500 determines whether the read image data obtained through the shading correction unit 103 is color or monochrome, and the image compression unit 501 is a compression target component as shown in FIG. It is determined whether or not the image data 10 is effective as a compression process, and the image compression process is performed only for effective components.
[0062]
The reason why the monochrome determination unit 500 and the image compression unit 501 are provided is as described below.
[0063]
That is, in the case of color image data, there are three MCUs composed of 8 × 8 pixels corresponding to each color, and therefore it is necessary to repeat a series of processes of DCT transformation, quantization, and entropy coding three times. is there. However, in the case of monochrome, since there is one MCU composed of 8 × 8 pixels, there is a reason that a series of processes of DCT transformation, quantization, and entropy coding is performed once. As the number n of lines to start processing, n = 8 is selected as in the image processing apparatus of the first embodiment.
[0064]
The operation of the image processing apparatus according to the second embodiment configured as described above will be described.
[0065]
Similar to the image processing apparatus of the first embodiment, the image data at a specific document position of the image sensor unit is sequentially acquired via the image sensor 100, the line reading unit 102, and the shading correction unit 103. The scanning position detection means 109 detects the leading scanning position and the trailing scanning position of the line sensor based on the pulses obtained by the encoders 101a and 101b. Usually, the image data obtained through the image sensor 100 and the line reading means 102 is assumed to be color image data. Therefore, three types of data of red R (u, v), green G (u, v), and blue B (u, v) are obtained from the v-th pixel from one end on the specific reading line u.
[0066]
In the monochrome determination means 500, N lines from red R (u, v), green G (u, v), and blue B (u, v) of image data of a predetermined number m (for example, m ≧ 2) only. The absolute value of the difference between red and green DRG (u, v) = | R (u, v) −G (u, v) | and the absolute value of the difference between blue and green DBG (u, v) = | B (u , v) −G (u, v) | Next, assuming that the number of pixels satisfying DRG (u, v) <TH_R and DBG (u, v) <TH_G (TH_R and TH_G are predetermined threshold values) is ZNUM, and the number of pixels on the line sensor is S_LEN, When Expression 1 is satisfied, it is determined that the original to be read is a monochrome original.
[0067]
[Expression 1]
Figure 0003844276
[0068]
ZNUM / (S_LEN × m × n) ≧ TH_MONO
This means that when the number of pixels having the same density value among the pixels of each line of three colors in a certain region is the same number of pixels, it is determined as a monochrome image. Threshold values TH_R and TH_G are set to small values. Further, TH_MONO in the above formula 1 is a threshold value relating to the proportion of monochrome pixels in the target pixel, and for example, about 0.7 to 0.8 is considered appropriate.
[0069]
When it is determined as a monochrome image in the above, the image compression means further processes as follows.
[0070]
The image compression unit 501 shown in FIG. 6 receives the determination result of the monochrome determination unit 2 and performs the following processing. That is, the following DCT conversion unit 200 is configured so that the validity determination unit 600 receives the determination result from the monochrome determination unit 2 and performs compression processing on only one of the three BGR colors (for example, green). The entropy encoding means 203 is instructed from the DCT transform of The image compression unit 501 writes an identifier indicating that the layer data is monochrome at the beginning of the monochrome image data, and inputs the data to the compressed image memory 105.
[0071]
In this way, compression processing for unnecessary color image data can be omitted, and processing efficiency is improved. As a matter of course, the image decompression means 106 performs decompression processing only on the compressed data, only one process is performed on the compressed color data, and the other two colors are not decompressed.
[0072]
On the other hand, the mapping means 107 considers that the restored pixel data is green G ′ (u, v) when the image data delivered from the decompression means 106 has an identifier indicating that it is monochrome, and the rest Red R ′ (u, v) and blue B ′ (u, v) are assumed to have the same value, and three color data are mapped. In other cases, the same processing as that of the image processing apparatus of the first embodiment is performed.
[0073]
As described above, according to the present embodiment, when the original to be read is monochromatic, all three color data read by the image sensor 100 are not subjected to compression, decompression, and mapping processing. By performing these processes on one color data, it is possible to provide an image processing apparatus suitable for portability, such as realizing high-speed processing and reducing the size of the compressed image storage memory 105. is there.
[0074]
(Embodiment 3)
Next, an image processing apparatus according to Embodiment 3 of the present invention will be described.
[0075]
FIG. 7 is a block diagram showing the image processing apparatus according to the third embodiment. A configuration different from the first embodiment is that a compression format selection unit 700 and a data preprocessing unit 701 are provided after the shading correction unit 103. And a point that data post-processing means 702 is provided after the image expansion means 106.
[0076]
The compression format selection means 700 selects the representation format of the read image data and the presence or absence of thinning processing. The data preprocessing means 701 is read according to the format selected by the compression format selection means 700. The image data conversion process is performed. The data post-processing means reversely converts the image data that has been subjected to the conversion process and compressed and decompressed by the image decompression means 106 into the original format.
[0077]
The operation of the image processing apparatus according to the third embodiment configured as described above will be described. However, since the operations other than the compression format selection unit 700, the data preprocessing unit 701, and the data postprocessing unit 702 are the same as those in the first embodiment, description thereof will be omitted.
[0078]
The compression format selection unit 700 performs a process of selecting a color system to be encoded when the image compression unit 104 compresses the image.
[0079]
FIG. 8 shows an example of the colorimetric format selected by the compression format selection means 700 and the color difference data thinning out when converting to MCU which is an 8 × 8 compression processing unit. Note that the color specification format selected here is not limited to these, and other color specification systems may be prepared.
[0080]
In FIG. 8, first, the compression component representation A uses the RGB density system as a colorimetric format in the same manner as the first image processing apparatus of the present embodiment, and read red R (u, v), green G (u, v) means to compress blue B (u, v) as it is (that is, as it is in density). The compressed component expression B represents that this RBG color system is converted into a color system of luminance Y and color differences Cr and Cb using the following formula 2.
[0081]
[Expression 2]
Figure 0003844276
[0082]
The reason for adopting this conversion method is that the compression ratio is higher, and generally the human visual characteristics are sensitive to the accuracy of the luminance component and insensitive to the accuracy of the color difference component. As described above, even if the RGB color system is converted to the color system of the luminance Y and the color differences Cr and Cb, the visual effect is small.
[0083]
In FIG. 8, three more selection branches are provided for the compressed component representation B according to the difference in the thinning method. That is, the selected branch (B-1) is shown in FIG. You In this case, the color difference is not thinned out, and the selection branch (B-2) is shown in FIG. You As shown in FIG. 9C, the color difference Cr and Cb are both thinned out to ½ of the luminance Y, and the selection branch (B-3) is shown in FIG. You In this way, the color differences Cr and Cb are both thinned out to 1/4 of the luminance Y. As described above, this utilizes the fact that the human sense is insensitive to the accuracy of the color difference component.
[0084]
On the other hand, the compressed component representation C in FIG. 8 represents that this RGB color system is converted into a color system of pseudo luminance Y ′ and color differences Cr ′ and Cb ′ using the following Equation 3. This approximates the original YCr Cb conversion system expressed by Equation 2 above so that it can be realized only by bit manipulation and addition. By doing so, the processing when the image processing apparatus is made into an LSI chip is performed. This is in consideration of speed efficiency. In addition, the following numerical formula 3 is not uniquely determined, and can be considered besides this. Here, in Equation 3, (R (u, v) >> 3) represents a value obtained by performing 3-bit shift processing to the right when R (u, v) is represented in bits.
[0085]
[Equation 3]
Figure 0003844276
[0086]
Also in this compressed component expression C, three selection branches (C-1), (C-2), and (C-3) are provided according to the thinning method, and each of the selection branches (B-1), (C-3) is provided. B-2) A thinning method corresponding to (B-3) is taken.
[0087]
The number n of lines for compressing the read image data is selected according to the compression format, and the selection branches (B-2), (B-3), (C-2), and (C-3) are selected. In this case, when creating a compression processing unit, it is better to use a multiple of 16 because thinning is performed. Therefore, in the case of the compressed component expression A and the selection branches (B-1) and (C-1) in FIG. 8, n = 8 and the selection branches (B-2), (B-3), and (C-2) , (C-3), n = 16.
[0088]
When the compression format selection unit 700 is set as described above, the data preprocessing unit 701 adds red, green, and blue color data to the component signals necessary for the color specification format selected by the compression format selection unit 700. Is set to execute decimation when forming a compression unit MCU composed of 8 × 8 pixels for each component, and the image compression means 104 performs compression processing in a format according to the selection. It is set to be possible.
[0089]
In this state, when the image data obtained from the shading correction unit 103 is input to the data preprocessing unit 701, the compression format selection unit 700 and the image compression unit 104 perform the above processing. The above processing is performed and stored in the compressed image storage memory 105.
[0090]
Then, the data post-processing unit 702 converts the restored image data expanded by the image expansion unit 106 back to the original RGB color system according to the color system and the thinning method selected by the compression format selection unit 700. It is like that. At this time, the compressed component expression C shown in FIG. 8 is an approximate expression of a conversion system in consideration of the chip formation of the image processing apparatus of the present embodiment, and the inverse conversion expression of Expression 3 can be used as it is. However, with the efficiency of processing in chip formation in mind, the inverse transformation formula of the following formula 4 that can be realized by bit manipulation and addition / subtraction is used. Also for this, other inverse transformation formulas are possible.
[0091]
[Expression 4]
Figure 0003844276
[0092]
Here, it is necessary to prepare not only one quantization table 202 used by the image compression unit 104 and the image expansion unit 106 but also one adapted to the color difference. FIG. 10 shows an example, but the quantization table in FIG. 10A is the same as that of the image processing apparatuses of the first and second embodiments. Fig. 2 (b) is a color difference quantization table, in which quantization is performed so as to cut almost all high frequencies that are not significantly affected by human vision.
[0093]
With the configuration described above, even when the read image data cannot be compressed as much as the RGB system, it can be compressed efficiently and a large image size can be read. On the other hand, depending on the original, in the selection branches (B-2), (B-3), (C-2), and (C-3) for thinning out the components shown in FIG. However, in this case, a compression selection method suitable for the intended use of the processing apparatus may be used, and compression and image reproduction suited to the read document or intended purpose can be performed.
[0094]
(Embodiment 4)
Finally, an image processing apparatus according to Embodiment 4 of the present invention will be described.
[0095]
11 is a block diagram showing the image processing apparatus of the fourth embodiment, FIG. 12 is a block diagram of the scanning position compressing means of the embodiment, and FIG. 13 is a block diagram of the scanning position expanding means of the same embodiment. .
[0096]
The image processing apparatus according to the fourth embodiment includes a scanning position compression unit 1100 and a scanning position expansion unit 1102 in addition to the configuration of the third embodiment, and the scanning position storage memory 110 according to the third embodiment. Instead, a compression scanning position storage memory 1101 is provided. The scanning position compression / decompression method can be basically performed by any method, but FIGS. 12 and 13 illustrate a so-called lossless method in which no error occurs.
[0097]
In FIG. 11, the scanning position compression means 1100 compresses the scanning position obtained by the scanning position detection means 109 and holds it in the compressed scanning position storage memory 1101. The scanning position expansion means 1102 reads and expands the compression scanning position corresponding to the nth line from the storage memory at the compression scanning position when the reading of the original is completed and the image reproduction signal is input by the user.
[0098]
As shown in FIG. 12, the scanning position compression unit 1100 includes a differential signal detection unit 1200, a predictor 1201, an entropy encoding unit 203, and an entropy encoding table 204. The differential signal detection unit 1200 includes: The difference signal between the scanning position of the current line and the scanning position held by the predictor 1201 is calculated.
[0099]
On the other hand, as shown in FIG. 13, the scanning position extending means 1102 includes a signal predicting means 1300, a predictor 1201, an entropy decoding means 300, and an entropy coding table 204, and a signal prediction. The means 1300 calculates the scanning position of the current line by adding the difference between the scanning position after the previous restoration held by the predictor 1201 and the scanning position restored from the encoded data by the entropy decoding means 300. It is supposed to be.
[0100]
In the image processing apparatus according to the fourth embodiment configured as described above, the line reading unit reads the red, green, and blue color data, and the head scanning position and the end scanning position obtained by the encoder are used as the scanning position. The compression unit 1100 performs compression processing.
[0101]
In that case, get here Is Since the scanned position is used later by the image position correcting means 108, if the deviation between the data before compression and the data after expansion is large, the correction becomes a big obstacle. Therefore, a distortion-free (lossless) compression method as expressed in FIG. 12 was used. This includes a difference deriving unit 1200 that calculates a difference signal between the current i-th scanning position data and (i−1) -th scanning position data, an entropy encoding unit 203 that encodes the difference signal, The entropy coding table 204 for the above coding is used, and the difference deriving means 1200 does not use DCT conversion and uses the previous (i−1) th scanning position and the current ith scanning position. Since the difference between them is taken and the value is subjected to reversible entropy encoding processing, the restored scan position data completely matches the input scan position data.
[0102]
Of course, when this difference amount is large, the zero run length that greatly affects the compression rate in the entropy encoding means 203 performed in the Huffman sequence is very small, and the compression rate can hardly be expected. However, when scanning the sensor unit and reading the image data from the document at the same time as reading the scanning position with the encoder as in the image processing apparatus of the present embodiment, the reading cycle of the encoder is a value that is somewhat small, If the speed at which the sensor unit is scanned is appropriate for the period, the movement of the line sensor during scanning is quite small, and a certain amount of zero run length is generated during entropy coding. Is effective.
[0103]
On the other hand, the scanning position expansion means 1102 shown in FIG. 13 performs the reverse process of the scanning position compression means 1100 shown in FIG. 12, and the signal prediction means 1300 performs the (i−1) th scanning already predicted. By adding the difference amount decoded by the entropy decoding means 300 to the position data, the scanning position data (the first scanning position and the last scanning position of the line) of the i-th line is restored. The i-th prediction data is used by the predictor 1201 as reference data for restoring the head scanning position and the terminal scanning position of the next line. Through such a process, the scan position stored in the compression scan position storage memory 1101 is restored.
[0104]
From this restored scanning position, the coordinate deriving means 111 calculates the vth coordinate from the tip on the line u, and this value and the color image restored via the image decompressing means 106 and the data post-processing means 702 are calculated. Using the data and the data already mapped on the mapping memory 112, the image position correction means 108 performs a coordinate correction process so that the read image is smoothly connected.
[0105]
Other processes are the same as those of the third image processing apparatus of the present embodiment. In addition, this time, a method based on a method of taking the difference between the data one line before the reference data and the target data (DPCM) and entropy-encoding it as a reference as a compression method of the scanning position data has been applied. Apply a method that can be compressed with But Is possible.
[0106]
In this way, not only the read image data is compressed, but also the scan position of the read image is compressed in the lossless mode, so that the image scan position data that increases as the read image data increases is also added. It is possible to reduce.
[0107]
【The invention's effect】
As described above, the present invention reduces the storage amount of the internal memory by compressing the read image data in the hand type scanner, and effectively uses the internal memory. The reduction enables use without being connected to an external personal computer. As a result, a portable device can be manufactured, and free image reading at an arbitrary place can be realized.
[0108]
Further, when compressing the read image data, unnecessary processing in the compression process can be omitted by determining whether the target image data is monochrome data or color image data. Efficiency can be realized.
[0109]
In addition, by providing a means for changing the expression format when compressing the read image data, and switching the table for compression encoding corresponding to it, compression according to the read image data becomes possible. Thus, the internal memory can be used more efficiently.
[0110]
In addition to compressing the read image data, the scan position of the read image is also compressed, so that the image scan position data that increases as the read image data increases can also be reduced. Thus, it is possible to further reduce the internal memory.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention.
FIG. 2 is a block diagram showing a configuration of image compression means of the same embodiment;
FIG. 3 is a block diagram showing a configuration of image decompressing means of the same embodiment;
FIG. 4 is a diagram illustrating an example of a quantization table according to the embodiment;
FIG. 5 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 2 of the present invention.
FIG. 6 is a block diagram showing a configuration of image compression means of the embodiment.
FIG. 7 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 3 of the present invention.
FIG. 8 is an explanatory diagram showing processing in a data preprocessing unit according to the embodiment;
FIG. 9 is an explanatory diagram showing thinning out of image data in the data preprocessing unit.
FIG. 10 is a diagram illustrating an example of a quantization table according to the embodiment.
FIG. 11 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 4 of the present invention.
FIG. 12 is a block diagram showing a configuration of a scanning position compression unit of the same embodiment.
FIG. 13 is a block diagram showing a configuration of a scanning position extending means of the same embodiment.
FIG. 14 is a block diagram illustrating a configuration of a conventional image processing apparatus.
[Explanation of symbols]
10 Image data
11 Encoded data
12 Restored image data
100 Image sensor unit
101a Encoder 1
101b Encoder 2
102 Line reading means
103 Shading correction means
104 Image compression means
105 Compressed image storage memory
106 Image decompression means
107 Mapping means
108 Image position correcting means
109 Scanning position detection means
110 Scanning position memory
111 Coordinate deriving means
112 Mapping memory
113 External display means
114 Image reproduction signal detection means
115 amplifier
116 A / D conversion circuit
117 Image correlation table
118 Cumulative error memory
119 Correction amount determining means
120 Coordinate correction means
200 DCT conversion means
201 Quantization means
202 Quantization table
203 Entropy encoding means
204 Entropy coding table
300 Entropy decoding means
301 Inverse quantization means
302 IDCT conversion means
500 Monochrome determination means
501 Image compression means
600 Validity judging means
700 Compression format selection means
701 Data preprocessing means
702 Data post-processing means
1100 Scanning position compression means
1101 Compression scan position storage memory
1102 Scanning position expansion means
1200 Differential signal detection means
1201 Predictor
1300 Signal prediction means

Claims (11)

画像読み取り手段により原稿上を走査してその原稿上の画像を読み取る一方、走査位置検出手段により検出した、読み取られた上記画像に対応する走査位置に基づいて、上記画像を読み取って得た画像データに対応した上記原稿上の座標を座標導出手段で導出し、写像手段により上記座標に基づいて上記画像データを写像用メモリの所定のアドレスに写像する画像処理装置であって
上記読み取り手段から得られた画像データを圧縮する画像圧縮手段と、圧縮された画像データを記憶する圧縮画像記憶メモリと、その圧縮画像記憶メモリから圧縮された画像データを読み出して元の画像データに伸長するとともに、該伸長された画像データを上記写像手段入力する画像伸長手段とを含み備え
さらに、上記走査位置検出手段が検出した上記走査位置を示すデータである走査位置データを圧縮する走査位置圧縮手段と、該圧縮された走査位置データを記憶する圧縮走査位置記憶メモリと、その圧縮走査位置記憶メモリから圧縮された走査位置データを読み出して元の走査位置データに伸長して上記座標導出手段へ入力する走査位置伸長手段とを備えたことを特徴とする画像処理装置。
While reading an image on the image reading means the document by scanning the by RiGen Kojo to and detected by the scanning position detecting means, on the basis of the scanning position corresponding to the read the image, obtained by reading the image the coordinates on the document corresponding to the image data out guide by the coordinate deriving unit and an image processing apparatus for mapping the image data to a predetermined address in the mapping memory based on the coordinate by mapping means,
An image compressing means for compressing the image data obtained from said reading means, said compression image storage memory for storing the compressed image data, original image data is read out which is the compressed image storage memory or al compression with extending the image data, the image data該伸length provided and a image decompression means for inputting to said mapping means,
Further, scanning position compression means for compressing scanning position data, which is data indicating the scanning position detected by the scanning position detection means, a compression scanning position storage memory for storing the compressed scanning position data, and the compression scanning thereof An image processing apparatus comprising: a scanning position expansion unit that reads out compressed scanning position data from a position storage memory, expands the original scanning position data, and inputs the expanded scanning position data to the coordinate deriving unit .
画像読み取り手段により原稿上を走査してその原稿上の画像を読み取る一方、走査位置検出手段により検出した、読み取られた上記画像に対応する走査位置に基づいて、上記画像を読み取って得た画像データに対応した上記原稿上の座標を座標導出手段で導出し、写像手段により上記座標に基づいて上記画像データを写像用メモリの所定のアドレスに写像する画像処理装置であって、
上記読み取り手段から得られた画像データを圧縮する画像圧縮手段と、該圧縮された画像データを記憶する圧縮画像記憶メモリと、その圧縮画像記憶メモリから圧縮された画像データを読み出して元の画像データに伸長するとともに、該伸長された画像データを上記写像手段へ入力する画像伸長手段と、上記走査位置検出手段が検出した上記走査位置を示すデータである走査位置データを上記座標導出手段の前段において記憶する走査位置記憶メモリと、上記画像圧縮手段の前段において、読み取られた上記画像がカラーかモノクロかを判定するモノクロ判定手段とを含み備え、
上記画像読み取り手段が、上記画像データを2種以上のカラーデータとして取得し、上記モノクロ判定手段がその画像をモノクロと判定した場合に任意のいずれかの上記カラーデータを有効として、有効とされたそのカラーデータに対して、上記画像圧縮手段、上記圧縮画像記憶メモリ、上記画像伸長手段がそれぞれの処理を行い、有効とされなかった他のカラーデータについては、上記写像手段が上記画像伸長手段で伸長されたカラーデータと同じ値をそれぞれの他のカラーデータとして生成する処理を行って、有効とされたカラーデータと共に上記写像用メモリに写像することを特徴とする画像処理装置。
Image data obtained by reading the image based on the scanning position corresponding to the read image detected by the scanning position detection unit while scanning the document by the image reading unit and reading the image on the document. An image processing device for deriving coordinates on the original corresponding to the above by a coordinate deriving unit, and mapping the image data to a predetermined address in a mapping memory based on the coordinates by the mapping unit,
Image compression means for compressing image data obtained from the reading means, compressed image storage memory for storing the compressed image data, and original image data by reading the compressed image data from the compressed image storage memory An image expansion means for inputting the decompressed image data to the mapping means, and scanning position data, which is data indicating the scanning position detected by the scanning position detection means, in the preceding stage of the coordinate deriving means. comprising comprising a scanning position storage memory for storing, Oite in front of the image compressing means, the read said images and monochrome determination means for determining whether a color or monochrome,
Said image reading means, and acquires the image data as two or more color data, when the monochrome determination unit determines the image and monochrome, as valid any one of the color data, effective against a has been the color data, the image compressing means, the compressed image storage memory, the image decompression unit performs each processing, for other color data that is not valid, the mapping means is the image An image processing apparatus characterized in that the same value as the color data decompressed by the decompressing means is generated as each other color data, and mapped to the mapping memory together with the valid color data .
画像読み取り手段により原稿上を走査してその原稿上の画像を読み取る一方、走査位置検出手段により検出した、読み取られた上記画像に対応する走査位置に基づいて、上記画像を読み取って得た画像データに対応した上記原稿上の座標を座標導出手段で導出し、写像手段により上記座標に基づいて上記画像データを写像用メモリの所定のアドレスに写像する画像処理装置であって、
上記読み取り手段から得られた画像データを圧縮する画像圧縮手段と、該圧縮された画像データを記憶する圧縮画像記憶メモリと、その圧縮画像記憶メモリから圧縮された画像データを読み出して元の画像データに伸長するとともに、該伸長された画像データを上記写像手段へ入力する画像伸長手段と、上記走査位置検出手段が検出した上記走査位置を示すデータである走査位置データを上記座標導出手段の前段において記憶する走査位置記憶メモリとを含み備え、
さらに、上記画像圧縮手段の前段に、該画像圧縮手段の圧縮形式に対応するように上記画像データの変換処理を行うデータ前処理手段を備え、上記画像伸長手段の後段に、上記データ前処理手段で変換処理した画像データを元の形式に逆変換するデータ後処理手段を備えたことを特徴とする画像処理装置。
Image data obtained by reading the image based on the scanning position corresponding to the read image detected by the scanning position detection unit while scanning the document by the image reading unit and reading the image on the document. An image processing device for deriving coordinates on the original corresponding to the above by a coordinate deriving unit, and mapping the image data to a predetermined address in a mapping memory based on the coordinates by the mapping unit,
Image compression means for compressing image data obtained from the reading means, compressed image storage memory for storing the compressed image data, and original image data by reading the compressed image data from the compressed image storage memory An image expansion means for inputting the decompressed image data to the mapping means, and scanning position data, which is data indicating the scanning position detected by the scanning position detection means, in the preceding stage of the coordinate deriving means. A scanning position storage memory for storing,
Further, in front of the image compressing means, e Bei data preprocessing means for performing conversion processing of the image data so as to correspond to the compression format of the image compression means, downstream of said image expanding means, the data pre-processing An image processing apparatus comprising data post-processing means for inversely converting image data converted by the means into an original format.
上記画像データが画像の色を表す情報を含んでおり、上記画像圧縮手段および画像伸長手段が、それらの機能において、表色形式に対応した圧縮形式を複数有し、かつ、上記データ前処理手段およびデータ後処理手段が、それぞれ、複数の上記圧縮形式のそれぞれに対応した前処理又は後処理を行う構成とされており、そして、上記画像圧縮手段、上記画像伸長手段、上記データ前処理手段および上記データ後処理手段に対して、複数の上記圧縮形式の中の1つを選択指示する圧縮形式選択手段をさらに備えたことを特徴とする請求項3記載の画像処理装置。 The image data includes information representing a color image, the image compression unit and the image decompression means, in their function has a plurality of compression format corresponding to the color specification format, and the data before processing means and data post processing means, respectively, are configured to perform pre-processing or post-processing corresponding to each of the plurality of the compression format, and the image compressing means, said image expanding means, said data prior to the processing means and the data post-processing means, a plurality of image processing apparatus according to claim 3, further comprising a compression format selecting means for selecting instruction to one of the compression formats. 上記圧縮形式は、その種類として、上記表色形式に加えて、さらに、上記画像圧縮手段に与えるデータの間引の度合いを含むことを特徴とする請求項3または4に記載の画像処理装置。5. The image processing apparatus according to claim 3 , wherein the compression format includes, as the type thereof, in addition to the color specification format, a degree of data thinning applied to the image compression unit. 上記画像圧縮手段、2次元DCT変換を行うDCT変換手段と、上記DCT変換手段で得られたDCT係数の量子化を行う量子化手段と、上記量子化のための量子化テーブルと、上記量子化後の画像データの符号化を行うエントロピー符号化手段と、上記符号化のためのエントロピー符号化テーブルとにより構成され、
また、上記画像伸長手段、上記エントロピー符号化テーブルをもとに復号化を行うエントロピー復号化手段と、上記量子化テーブルをもとに上記復号されたデータの逆量子化を行う逆量子化手段と、上記逆量子化後の値に2次元の逆DCT変換を行うIDCT変換手段とにより構成されたことを特徴とする請求項1からの何れか1項に記載の画像処理装置。
The image compression means includes a DCT conversion means for performing two-dimensional DCT conversion, a quantization means for quantizing a DCT coefficient obtained by the DCT conversion means, a quantization table for the quantization, and the quantum Entropy encoding means for encoding the encoded image data, and an entropy encoding table for the encoding,
In addition, the image expansion means includes entropy decoding means for performing decoding based on the entropy coding table, and inverse quantization means for performing inverse quantization on the decoded data based on the quantization table. When the image processing apparatus according to any one of claims 1 to 3, characterized in that it is constituted by a IDCT transform means for performing inverse DCT transformation of two-dimensional values after the inverse quantization.
上記画像圧縮手段は、さらに、圧縮対象成分が有効であるかどうかを判断する有効判定手段を有し、そして、上記DCT変換手段が、この有効判定手段で有効と判定された成分に対して2次元DCT変換を行うことを特徴とする請求項記載の画像処理装置。 The image compression means further includes validity determination means for determining whether or not the compression target component is valid , and the DCT conversion means outputs 2 for the component determined to be valid by the validity determination means. The image processing apparatus according to claim 6 , wherein a dimensional DCT transform is performed. 上記走査位置圧縮手段、現在を表すi番目の走査位置データと、その1つ前の(i−1)番目の走査位置データとの間の差分信号を計算する差分導出手段と、上記差分信号の符号化を行うエントロピー符号化手段と、上記符号化のためのエントロピー符号化テーブルとにより構成され、
また、上記走査位置伸長手段、上記エントロピー符号化テーブルをもとに復号化を行うエントロピー復号化手段と、その復号された差分信号データに1つ前に予測された(i−1)番目の走査位置データを加算する信号予測手段とにより構成されたことを特徴とする請求項記載の画像処理装置。
The scanning position compression means, the i-th scan position data representing the current, a difference deriving means for calculating a difference signal between the preceding (i-1) th scan position data, the difference signal And an entropy encoding means for encoding the above and an entropy encoding table for the above encoding,
Further, the scanning position expanding means includes an entropy decoding means for performing based on decoding the entropy coding table, to the decoded difference signal data, predicted in the previous (i-1) -th the image processing apparatus according to claim 1, characterized in that it is constituted by a signal prediction means for adding the scanning position data.
上記画像圧縮手段、所定数nライン分の画像データが得られた時点でその画像データの圧縮を行い、そして、その読み取り画像ライン数n上記画像圧縮手段で使用される圧縮方法に応じて決定されることを特徴とする請求項1からのいずれか1項に記載の画像処理処置。The image compression unit performs compression of the image data when the image data of a predetermined number n of lines is obtained, and, according to the compression method of the read image line number n is used by the image compression means the image processing treatment according to any one of be determined from claim 1, wherein 3. ユーザからの指示があったときに上記画像伸長手段が上記圧縮画像記憶メモリから圧縮された画像データを読み出して伸長するとともに、上記座標導出手段が上記走査位置記憶メモリから走査位置データを読み出して原稿上の座標を算出し、伸長された上記画像データその画像データに対応した上記原稿上の座標に基づいて上記写像手段が写像メモリに写像する請求項1から3のいずれか1項に記載の画像処理装置。When there is an instruction from the user, along with the image expanding means expands reads the compressed image data from the compressed image storage memory, the coordinate derivation means reads the scan position data from the scanning position storage memory calculates coordinates on the original, the image data extension length, claim 1 in which the image data on the basis of the coordinates on the document corresponding to the above mapping means for mapping the mapping for memory 3 The image processing apparatus according to item 1 . ユーザからの指示があったときに上記画像伸長手段が上記圧縮画像記憶メモリから圧縮された画像データを読み出して伸長するとともに、上記走査位置伸長手段が上記走査位置記憶メモリから圧縮された走査位置データを読み出して伸長し更に上記座標導出手段が原稿上の座標を算出し、伸長された上記画像データその画像データに対応した上記原稿上の座標に基づいて上記写像手段が写像メモリに写像する請求項に記載の画像処理装置。When there is an instruction from the user, along with the image expanding means expands reads the compressed image data from the compressed image storage memory, scanning the scanning position extended hand stage is compressed from the scanning position storage memory further extended by reading the position data to calculate the coordinates on the coordinate deriving unit Hara paper, the image data extension in length, the mapping means on the basis of the coordinates on the document corresponding to the image data mapping The image processing apparatus according to claim 1 , wherein the image processing apparatus maps to a memory for use .
JP2722699A 1999-02-04 1999-02-04 Image processing device Expired - Fee Related JP3844276B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2722699A JP3844276B2 (en) 1999-02-04 1999-02-04 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2722699A JP3844276B2 (en) 1999-02-04 1999-02-04 Image processing device

Publications (2)

Publication Number Publication Date
JP2000224424A JP2000224424A (en) 2000-08-11
JP3844276B2 true JP3844276B2 (en) 2006-11-08

Family

ID=12215188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2722699A Expired - Fee Related JP3844276B2 (en) 1999-02-04 1999-02-04 Image processing device

Country Status (1)

Country Link
JP (1) JP3844276B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110233948A (en) * 2019-07-15 2019-09-13 珠海奔图电子有限公司 Scanning device, image forming apparatus, scan method and storage medium

Also Published As

Publication number Publication date
JP2000224424A (en) 2000-08-11

Similar Documents

Publication Publication Date Title
US7499592B2 (en) Image decoding apparatus and its control method
JP4365957B2 (en) Image processing method and apparatus and storage medium
US8098959B2 (en) Method and system for frame rotation within a JPEG compressed pipeline
TW280076B (en) Image data compression method and apparatus with pre-processing to compensate for the blocky effect
US7511860B2 (en) Systems and methods of embedding gamut mapping information into printed images
JP3955910B2 (en) Image signal processing method
US6427029B1 (en) Image signal processing method and device, and storage medium
JP3844276B2 (en) Image processing device
JP4756949B2 (en) Image decoding apparatus, control method therefor, computer program, and computer-readable storage medium
JPH07143488A (en) Method and device for decoding image data
US20110299790A1 (en) Image compression method with variable quantization parameter
JP3955909B2 (en) Image signal processing apparatus and method
US7450769B2 (en) Image processing method for facilitating data transmission
JPH0487460A (en) Picture processor
CN112672164B (en) Video compression system and method, and video decompression system and method
JP3732900B2 (en) Image compression apparatus and image expansion apparatus
JP3950791B2 (en) Image processing apparatus and image data processing method
JP2006005478A (en) Image encoder and image decoder
JP2791410B2 (en) Compressed image data extraction device
US8554000B2 (en) Image forming apparatus and method
JPH0556270A (en) Reverse quantizing method and image data restoring device
JP3083084B2 (en) Image processing device
JP2698641B2 (en) Color image data encoding method and decoding method
JPH08279913A (en) Method and equipment for picture communication
JP2584854B2 (en) Image coding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060811

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090825

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120825

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees