JP2005309681A - Image processor and image processing program - Google Patents
Image processor and image processing program Download PDFInfo
- Publication number
- JP2005309681A JP2005309681A JP2004124390A JP2004124390A JP2005309681A JP 2005309681 A JP2005309681 A JP 2005309681A JP 2004124390 A JP2004124390 A JP 2004124390A JP 2004124390 A JP2004124390 A JP 2004124390A JP 2005309681 A JP2005309681 A JP 2005309681A
- Authority
- JP
- Japan
- Prior art keywords
- similar
- area
- region
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、画像処理装置および画像処理プログラムに関し、特に、画像データの一部をコード化する画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program, and more particularly to an image processing apparatus and an image processing program that code a part of image data.
スキャナなどの画像読取装置で原稿を読取って得られるビットマップの画像データのデータ量を削減する技術としては、JPEG等の画像圧縮方式を用いて圧縮する技術が知られている。また、原稿に文字情報が記載されている場合には、光学文字認識装置(OCR:Optical Character Reader)を用いて、文字コードに変換する方が、画像圧縮方式を用いて圧縮するよりもデータ量を少なくできる。 As a technique for reducing the amount of bitmap image data obtained by reading an original with an image reading apparatus such as a scanner, a technique for compressing using an image compression method such as JPEG is known. In addition, when character information is described in a manuscript, the amount of data is converted to a character code using an optical character recognition device (OCR: Optical Character Reader) rather than compressed using an image compression method. Can be reduced.
しかしながら、光学文字認識装置は、その認識率が向上しているけれども、認識できない場合がある。この問題に対応する技術として、特開平5−37700号公報(特許文献1)がある。特開平5−37700号公報は、送信原稿を画像情報に変換して読み取る画像読取り部と、画像情報から文字情報を取り出す文字切出し部と、文字情報に基づいて文字コード化するための文字認識を行なう文字認識部と、を備えたOCR機能を有するファクシミリ装置であって、送信機側には、前記文字認識部で認識できた文字を文字コード化して送信処理する文字コード送信処理手段と、前記文字認識部で認識できなかった文字情報をビットマップ情報として送信処理するビットマップ情報送信処理手段と、が設けられ、受信機側には、送られて来た文字コード情報を文字パターン情報に変換する文字パターン生成手段と、送られて来たビットマップ情報と文字パターン情報とを合成するデータ合成手段と、が設けられたことを特徴とするファクシミリ装置が記載されている。 However, the optical character recognition device may not be recognized although its recognition rate is improved. As a technique corresponding to this problem, there is JP-A-5-37700 (Patent Document 1). Japanese Patent Laid-Open No. 5-37700 discloses an image reading unit that converts a transmission original into image information and reads it, a character cutout unit that extracts character information from the image information, and character recognition for character encoding based on the character information. A facsimile machine having an OCR function, and a character code transmission processing means for converting the character recognized by the character recognition unit into a character code for transmission processing; Bitmap information transmission processing means for transmitting character information that could not be recognized by the character recognition unit as bitmap information is provided, and on the receiver side, the received character code information is converted into character pattern information. Character pattern generating means for performing data composition and means for synthesizing the received bitmap information and character pattern information are provided. Akushimiri device is described.
特開平5−37700号公報の記載のファクシミリ装置は、画像情報から取り出された文字情報を文字認識するものであるため、文字認識の基準となる辞書を備える必要がある。この辞書にない文字は認識できないため、辞書にない記号等をコード化することはできない。さらに、受信側のファクシミリ装置では、それが有する文字フォントで文字コードを復元するため、送信側で読取った原稿の文字のフォントと異なるフォントで復元される。ビットマップデータで送信される文字は原稿のフォントとなり、文字コードで送信される文字は受信側のフォントとなるため、受信側のファクシミリ装置で画像形成したものは、フォントが統一されず、原稿のイメージと異なる画像が形成されてしまう。
この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、辞書を用いることなく画像データの一部をコード化することが可能な画像処理装置および画像処理プログラムを提供することである。 The present invention has been made to solve the above-described problems, and one of the objects of the present invention is an image processing apparatus and image processing capable of coding a part of image data without using a dictionary. Is to provide a program.
上述した目的を達成するために、この発明のある局面によれば、画像処理装置は、画像データを入力する入力手段と、入力された画像データの一部を参照領域として抽出する参照領域抽出手段と、入力された画像データから抽出された参照領域と類似する類似領域を抽出する類似領域抽出手段と、抽出された類似領域を参照領域に関連付けたコードを生成するコード生成手段と、抽出された参照領域と類似領域に対応するコードとを所定の形態で出力する出力手段とを備える。 In order to achieve the above-described object, according to one aspect of the present invention, an image processing apparatus includes an input unit that inputs image data, and a reference region extraction unit that extracts a part of the input image data as a reference region. A similar region extracting unit that extracts a similar region similar to the reference region extracted from the input image data, a code generating unit that generates a code that associates the extracted similar region with the reference region, and Output means for outputting a reference area and a code corresponding to the similar area in a predetermined form.
この発明に従えば、入力された画像データから参照領域が抽出され、入力された画像データから参照領域と類似する類似領域が抽出される。そして、類似領域を参照領域に関連付けたコードが生成され、参照領域と類似領域に対応するコードとが所定の形態で出力される。画像データの一部である類似領域が、画像データの一部である参照領域に関連付けてコード化されるので、画像データとは別に辞書を用いる必要がない。このため、辞書を用いることなく画像データの一部をコード化することが可能な画像処理装置を提供することができる。 According to the present invention, a reference region is extracted from input image data, and a similar region similar to the reference region is extracted from input image data. Then, a code in which the similar area is associated with the reference area is generated, and the reference area and the code corresponding to the similar area are output in a predetermined form. Since the similar area that is a part of the image data is coded in association with the reference area that is a part of the image data, it is not necessary to use a dictionary separately from the image data. Therefore, it is possible to provide an image processing apparatus that can code a part of image data without using a dictionary.
好ましくは、入力された画像データを複数のブロックに分割するブロック分割手段をさらに備え、参照領域抽出手段は、複数のブロックのいずれかを参照領域として抽出し、類似領域抽出手段は、複数のブロックであって参照領域と類似するブロックを類似領域として抽出する。 Preferably, the image processing apparatus further includes block dividing means for dividing the input image data into a plurality of blocks, the reference area extracting means extracts any of the plurality of blocks as a reference area, and the similar area extracting means includes the plurality of blocks. A block similar to the reference area is extracted as a similar area.
この発明に従えば、参照領域と類似領域とが複数のブロックのうちから抽出される。このため、処理を単純化することができ、処理速度を向上させることができる。 According to the present invention, the reference area and the similar area are extracted from the plurality of blocks. For this reason, a process can be simplified and a processing speed can be improved.
好ましくは、抽出された類似領域を前記入力された画像データから消去する消去手段と、類似領域が消去された画像データを圧縮する圧縮手段とを備え、出力手段は、参照領域を圧縮手段により圧縮されたデータとして出力する。 Preferably, an erasure unit that erases the extracted similar region from the input image data and a compression unit that compresses the image data from which the similar region is erased, and the output unit compresses the reference region by the compression unit. Output as processed data.
この発明に従えば、画像データから類似領域が消去された画像データを圧縮するので、高い圧縮率で圧縮することができる。その結果、画像データのデータ量を削減することができる。 According to the present invention, since the image data in which the similar area is erased from the image data is compressed, the image data can be compressed at a high compression rate. As a result, the amount of image data can be reduced.
好ましくは、出力手段は、抽出された参照領域と類似領域に対応するコードとを所定の形態で他の装置に送信する送信手段を含む。 Preferably, the output unit includes a transmission unit that transmits the extracted reference region and the code corresponding to the similar region to another device in a predetermined form.
この発明に従えば、他の装置に送信するデータ量が削減されるので、通信に要する時間を短くすることができる。 According to the present invention, since the amount of data to be transmitted to other devices is reduced, the time required for communication can be shortened.
好ましくは、コード生成手段は、類似領域の画像データ中の位置と参照領域の画像データ中の位置とを少なくとも含むコードを生成する。 Preferably, the code generation unit generates a code including at least a position of the similar area in the image data and a position of the reference area in the image data.
この発明に従えば、参照領域と類似領域に対応するコードとから画像データを確実に復元することができる。 According to the present invention, the image data can be reliably restored from the reference area and the code corresponding to the similar area.
この発明の他の局面によれば、画像処理プログラムは、画像データを入力するステップと、入力された画像データの一部を参照領域として抽出するステップと、入力された画像データから抽出された参照領域と類似する類似領域を抽出するステップと、抽出された類似領域を参照領域に関連付けたコードを生成するステップと、前記抽出された参照領域と類似領域に対応するコードとを所定の形態で出力するステップとをコンピュータに実行させる。 According to another aspect of the present invention, an image processing program includes a step of inputting image data, a step of extracting a part of the input image data as a reference area, and a reference extracted from the input image data. Extracting a similar region similar to the region, generating a code in which the extracted similar region is associated with the reference region, and outputting the code corresponding to the extracted reference region and the similar region in a predetermined form And causing the computer to execute
この発明に従えば、辞書を用いることなく画像データの一部をコード化することが可能な画像処理プログラムを提供することができる。 According to the present invention, it is possible to provide an image processing program capable of coding a part of image data without using a dictionary.
以下、本発明の実施の形態について図面を参照して説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<第1の実施の形態>
図1は、本発明の第1の実施の形態における画像処理装置の全体概要を示す図である。図1を参照して、画像処理装置100は、それぞれがバス110に接続された、画像処理装置100の全体を制御するための制御部101と、原稿を読取るための画像読取部102と、画像データを圧縮する処理等を実行するための画像処理部103と、画像読取部102で読取られた画像を一時的に記憶する画像メモリ104と、画像データに基づいて紙などの記録媒体に画像を形成するための画像形成部105と、画像処理装置100を通信回線と接続するための伝送制御部107と、圧縮条件等を記憶する記憶部106と、パネル制御部108とを備えている。パネル制御部108は、ユーザによる操作の入力を受付ける操作パネル109と接続され、操作パネル109を制御する。
<First Embodiment>
FIG. 1 is a diagram showing an overall outline of an image processing apparatus according to a first embodiment of the present invention. Referring to FIG. 1, an
画像処理装置100は、画像読取機能、複写機能、ファクシミリ送受信機能を備えたマルチファンクションプロダクト(MFP:Multi Function Product)で実現される。なお、本実施の形態においては画像処理装置100をMFPとして説明するが、MFPに代えて、入力した画像データを圧縮処理する一般的なコンピュータで実現することができる。
The
画像読取部102は、CCD(Charge Coupled Device)等の光電変換素子と、アナログ処理部と、A/D変換部とを含む。CCDからはRGBアナログ信号が出力される。アナログ処理部は、CCDから出力されるRGBアナログ信号をクランプ調整およびゲイン調整して、A/D変換部へ出力する。A/D変換部は、RGBアナログ信号を8ビットのデジタル信号に変換する。この8ビットのデジタル信号が画像データである。また、画像読取部102は、シェーディング補正部、ライン間補正部、領域判別部およびMTF(modulation transfer function)補正部を含む。シェーディング補正部は、A/D変換部から出力される画像データに対して、原稿を走査する際の光源から原稿に照射される光の照明ムラなどに起因する主走査方向のばらつきを補正する処理を実行する。また、CCDは、R(赤)G(緑)B(青)のフォトダイオードアレイが所定の間隔で配置されている。ライン間補正部は、各色のフォトダイオードが出力する信号に対応する値を一旦メモリに格納して、所定時間だけ遅延させることで、フォトダイオードアレイが配置される間隔のズレを補正する。領域判別部は、画像データに含まれる文字部分、網点部分、写真部分等の領域を判定する。判定結果は、MTF補正部に出力される。MTF補正部は、領域判別部から入力される判定結果に応じてエッジ強調やスムージング等のその領域に適した処理を実行し、処理後の画像データを画像メモリ104に出力する。
The
画像メモリ104は、ランダムアクセスメモリ(RAM)であり、画像読取部102から出力される画像データ、画像処理部103で圧縮された画像データを一時的に記憶する。また、外部のコンピュータから送信され、伝送制御部107で受信される画像データを記憶する。
The
操作パネル109は、液晶タッチパネルと、テンキーと、画像読取開始を指示するためのスタートキーとを含む。液晶タッチパネルは、液晶表示装置と、その上に載置された透明な部材からなるタッチパネルとから構成される。タッチパネルは入力装置である。操作パネル109は、たとえば液晶表示装置にボタンを表示し、ユーザが表示されたボタンを押下する操作をタッチパネルで検出する。これにより、入力装置に固定されたスイッチボタンを用いる必要はなく、種々の操作の入力が可能となる。
パネル制御部108は、制御部101により制御され、操作パネル109の表示装置への出力制御と、操作パネル109の入力部に入力されたユーザの操作の入力を受付ける。
The
画像処理部103は、画像メモリ104に記憶された画像データを圧縮する。記憶部106は、ハードディスク等の記憶装置である。
The
伝送制御部107は、画像処理装置100を通信回線と接続するための通信インターフェイスである。伝送制御部107は、通信回線に接続された他のコンピュータ、MFPなどとの通信を制御する。伝送制御部107は、ネットワークインターフェースであってもよく、他のコンピュータまたはMFPに直接接続するシリアルインターフェースまたはパラレルインターフェースであってもよい。伝送制御部107は、通信回線との接続形態に応じたインターフェイスが用いられる。通信回線は、ローカルエリアネットワーク(LAN)、インターネットまたは一般公衆回線等を用いることができ、有線または無線を問わない。
The
本実施の形態における画像処理装置100は、ユーザが操作パネル109を操作して、原稿を画像読取部102で読取る。すると、画像読取部102から出力される画像データが画像メモリ104に記憶される。また、伝送制御部107により、外部のコンピュータまたはMFP等から送信された画像データが画像メモリ104に記憶される。画像処理部103では、ユーザによる操作パネル109の操作により画像メモリ104に記憶されている画像データを圧縮し、他の装置に圧縮した画像データを送信する。
In
図2は、第1の実施の形態における画像処理装置の画像処理部の機能の概要を示す機能ブロック図である。図2を参照して、画像処理部103は、画像メモリ104に記憶された画像データを読出し、画像データを参照領域とコード化とに変換する画像変換部201と、参照領域を記憶するための参照領域記憶部115と、コードを記憶するためのコード記憶部117と、画像メモリ104から読み出された画像データから画像変換部によりコード化された領域を消去する画像消去部119と、画像消去部で一部が消去された画像データ(消去データ)を圧縮する圧縮部131と、圧縮された消去データとコードとを他の装置へ送信する送信部123とを含む。
FIG. 2 is a functional block diagram illustrating an outline of functions of the image processing unit of the image processing apparatus according to the first embodiment. Referring to FIG. 2, an
画像変換部201は、画像データから参照領域を抽出する参照領域抽出部111と、参照領域抽出部111により抽出された参照領域に類似する類似領域を画像データから抽出する類似領域抽出部125と、類似領域抽出部125で抽出された類似領域を参照領域と関連付けたコードを生成するコード生成部127を含む。
The
参照領域抽出部111は、画像メモリ104に記憶された画像データを読出し、その画像データから参照領域を抽出する。参照領域抽出部111が抽出する参照領域は、画像データの一部分であればよい。参照領域抽出部111は、参照領域を画像データ中のエッジ画素に基づき抽出する、または、画像データの画素の明度に基づき抽出する。エッジ画素に基づき抽出する場合の参照領域は、エッジ画素を含む領域またはエッジ画素が連続する領域とすることができる。明度に基づき抽出する場合の参照領域は、明度が緩やかに変化する領域とすることができる。また、明度が急激に変化する領域としてもよい。
The reference
参照領域のサイズは、任意に定めることができる。好ましくは、予め定められたサイズ、エッジ画素に基づき定まるサイズ、または、画素の明度に基づき定まるサイズである。より好ましくは、エッジ画素に基づき参照領域を抽出する場合は、連続するエッジ画素の数により定まるサイズ、文字または記号の大きさにより定まるサイズとすることができる。また、明度に基づき参照領域を抽出する場合は、明度の変化が所定範囲内の画素が連続する数により定まるサイズとすることができる。参照領域抽出部111は、抽出した参照領域の画素値と、その参照領域の画像データ中の位置とを関連付けて参照領域記憶部115に記憶する。
The size of the reference area can be arbitrarily determined. Preferably, the size is determined based on a predetermined size, an edge pixel, or a size determined based on the brightness of the pixel. More preferably, when the reference region is extracted based on the edge pixels, the size can be set to a size determined by the number of consecutive edge pixels, or a size determined by the size of the character or symbol. Further, when the reference region is extracted based on the lightness, the lightness can be changed to a size determined by the number of consecutive pixels within a predetermined range. The reference
類似領域抽出部125は、画像データ中から参照領域抽出部111で抽出された参照領域と類似する領域を類似領域として抽出する。好ましくは、類似領域抽出部125は、類似領域との差分画像が所定の条件を満たす領域を類似領域として抽出する。
The similar
参照領域と類似領域は、互いに重なってもよいが、重なるのを避けるために、類似領域抽出部125が抽出する類似領域は、類似領域抽出部125が類似領域を抽出する時点で、それまでに参照領域抽出部111で抽出された参照領域と、それまでに類似領域抽出部125が抽出した類似領域を除く部分から新たな類似領域を抽出するようにしてもよい。類似領域は、参照領域と類似する領域である。類似領域のサイズは、参照領域により定まる。参照領域と類似領域のサイズが異なる場合、類似領域または参照領域のいずれか一方を拡大または縮小して同じサイズの類似領域と参照領域とが類似すればよい。ここでは説明のため参照領域と類似領域とのサイズが同じ場合を例に説明する。
The reference region and the similar region may overlap each other, but in order to avoid overlapping, the similar region extracted by the similar
類似領域抽出部125は、参照領域と類似する類似領域をエッジ画素に基づき抽出するエッジ比較部125Aと、参照領域と類似する類似領域を画素の明度に基づき抽出する明度比較部125Aとを含む。類似領域抽出部125は、エッジ比較部125Aまたは明度比較部125Bで抽出された類似領域の画像データ中の位置を示す位置情報と、その類似領域が類似するとされた参照領域の画像データ中の位置を示す位置情報とをコード生成部127に出力する。なお、類似領域抽出部125は、類似領域と参照領域とのサイズが異なる場合には、類似領域の参照領域に対するサイズの比率をコード生成部127にさらに出力する。
The similar
エッジ比較部125Aは、参照領域抽出部111でエッジ画素に基づき抽出された参照領域に類似する類似領域を抽出する。参照領域に含まれるエッジ画素の配列と類似するエッジ画素の配列を含む領域を類似領域として抽出する。エッジ画素の配列は、線を形成すし、線の集合は文字または記号を形成する。このため、エッジ画素の配列が類似の判定は、文字、記号の同一性の判定なる。エッジ比較部125Aは、参照領域と類似領域の差分画像に基づいて判定する。より好ましくは、参照領域のエッジ画像と類似領域のエッジ画像との差分画像に基づいて判定する。さらに好ましくは、参照領域のエッジ画像を拡張または縮小した画像と類似領域のエッジ画像を拡張または縮小した画像との差分画像に基づいて判定する。
The
明度比較部125Bは、参照領域抽出部111で画素の明度に基づき抽出された参照領域に類似する類似領域を抽出する。明度比較部125Bは、参照領域と類似領域の差分画像に基づいて判定する。より好ましくは、参照領域と類似領域の明度の差分画像に基づいて判定する。さらに好ましくは、参照領域の明度の差分画像の画素値の絶対値和または二乗和が所定のしきい値以下の領域を類似領域として抽出する。
The
コード生成部127は、類似領域抽出部125から入力される類似領域の位置情報、参照領域の位置情報、参照領域のサイズとを関連付けたコードを生成して、生成したコードをコード記憶部117に記憶する。コード生成部127は、類似領域抽出部125から類似領域の参照領域に対するサイズの比率が入力される場合には、その比率も関連付けたコードを生成する。
The
参照領域記憶部115は、参照領域抽出部111から入力される参照領域に含まれるすべての画素の値(パターンデータ)と、その参照領域の画像中の位置とサイズとを対応付けた参照領域情報を記憶する。コード記憶部117は、コード生成部127で生成されたコードを記憶する。
The reference
画像消去部119は、画像メモリ104から読出した画像データと、コード生成部127から出力されるコードとが入力される。画像消去部119は、コードに含まれる参照領域の位置および参照領域のサイズとで特定される領域を画像データから消去する。以下、説明のため、画像消去部119で一部が消去された画像を消去データという。消去は、たとえば、その特定された領域の画素値を全て「255」にする。
The
なお、コード生成部127で生成するコードは、入力される参照領域の画像中の位置と、類似しているとされた参照領域の画像中の位置とを関連付けたものであってもよい。この場合、画像消去部119は、参照領域記憶部115を参照して、コードに含まれる参照領域の位置から、その参照領域のサイズを取得して、画像データからその参照領域を消去することになる。
Note that the code generated by the
圧縮部131は、消去データをたとえばJPEG方式等の圧縮方式圧縮する。圧縮方式は、可逆的圧縮方式、または、非可逆的圧縮方式のいずれであってもよい。非可逆的圧縮方式が好ましい。圧縮率が比較的高くなることが期待されるからである。
The
消去データは、参照領域と類似する領域の全ての画素値が「255」なので、画像メモリ104から読出された画像データに比較して、圧縮率が高くなる。また、参照領域と類似する参照領域とそれに対応するコードとのデータ量は、コードの方が少ない。このため、消去データを圧縮した画像とコードとを合成した画像のデータ量は、画像メモリ104から読出した画像データのそれよりも少なくなる。
Since all the pixel values in the area similar to the reference area are “255”, the erasure data has a higher compression rate than the image data read from the
送信部123は、圧縮部131が消去データを圧縮した圧縮データと、コード記憶部117に記憶されたコードとを伝送制御部107から通信回線を介して他の装置に送信する。送信先は、操作パネル109からユーザにより直接入力されるようにしてもよいし、また、記憶部106に送信先のネットワークアドレスを予め記憶しておき、そこから読出すようにしてもよい。ネットワークアドレスは、たとえば、電子メールアドレス、IP(Internet Protocol)アドレス、MAC(Media Access Control)アドレスなどである。送信部123が消去データとコードとを電子メールで送信する場合には、電子メール本文にコードを含み、圧縮データを添付文書としてもよい。
The
図3は、参照領域記憶部に記憶される参照領域情報の一例を示す図である。図3を参照して、参照領域情報は、参照領域記憶部115のアドレス別に、参照領域の画像データ中の位置を示す座標と、参照領域のサイズと、参照領域の画素値とを記憶する。座標は、画像データの左上の画素を原点(0,0)とし、原点画素から右方向に配列した順番をX座標、原点画素から下方向に配列した順番をY座標として表す。なお、参照領域を記号「*」で示しているが、実際には参照領域に含まれる画素の画素値(パターンデータ)が記録される。
FIG. 3 is a diagram illustrating an example of reference area information stored in the reference area storage unit. Referring to FIG. 3, the reference area information stores, for each address in reference
図4は、コード記憶部117に記憶されるコードの一例を示す図である。図4を参照して、コード記憶部117は、参照領域ごとにコードを記憶する。コードは、参照領域の画像データ中の位置を示す座標と、参照領域の座標と、参照領域のサイズとを含む。参照領域のサイズは、参照領域の横方向の画素数と縦方向の画素数で表される。図4では、座標(0,0)、(200,0)、(400,0)にある参照領域は、座標(0,0)にあるサイズ(200,200)の参照領域と類似することが示されている。また、座標(300,0)にある参照領域は、座標(100,0)にあるサイズ(200,200)の参照領域と類似し、座標(600,600)にある参照領域は、座標(400,600)にあるサイズ(200,200)の参照領域と類似し、座標(900,900)にある参照領域は、座標(500,600)にあるサイズ(200,200)の参照領域と類似することが示されている。
FIG. 4 is a diagram illustrating an example of codes stored in the
次に、参照領域抽出部111が、エッジ画素に基づいて参照領域を抽出する処理の具体例を説明する。
Next, a specific example of processing in which the reference
(1) 画像データのエッジを判別するエッジ判別処理を行い、エッジ画像を生成する図5は、画像データとエッジ画像と文字領域との一例を示す図である。図5(A)は画像データを示し、図5(B)はエッジ画像を示し、図5(C)は画像データ中の文字領域を示す。図5(A)を参照して、画像データは、文字が表された領域と、写真が表された領域を含む。文字が表された領域には、第1行に「ABAB」、第2行に「BABA」、第3行に「ABAB」の文字を含む。この画像データにたとえば2次微分フィルタを用いたエッジ判別処理等を行ってエッジ画素を抽出する。これにより、図5(B)に示す文字の表された領域のみを含むエッジ画像が生成される。ここでは、エッジ画像に、文字が表された領域を含む例を説明するが、文字の他に、記号、線、線画が表された領域も同様に含まれる。 (1) An edge determination process for determining an edge of image data is performed to generate an edge image. FIG. 5 is a diagram illustrating an example of image data, an edge image, and a character region. FIG. 5A shows image data, FIG. 5B shows an edge image, and FIG. 5C shows a character area in the image data. Referring to FIG. 5A, the image data includes an area where characters are represented and an area where photographs are represented. The area where the characters are represented includes the characters “ABAB” on the first line, “BABA” on the second line, and “ABAB” on the third line. This image data is subjected to edge discrimination processing using a secondary differential filter, for example, to extract edge pixels. As a result, an edge image including only the region represented by the characters shown in FIG. 5B is generated. Here, an example will be described in which an edge image includes a region where characters are represented, but in addition to characters, regions where symbols, lines, and line drawings are represented are included as well.
(2) 次に、エッジ判別結果を順次スキャンしてエッジ画素と判別された画素を検出し、検出された画素を基準画素とする。 (2) Next, the edge discrimination result is sequentially scanned to detect pixels discriminated as edge pixels, and the detected pixel is set as a reference pixel.
(3) そして、基準画素を基準としてエッジ領域の連続性を検出する。エッジ領域の連続性の検出は、基準画素を基準とした矩形の辺にエッジ画素が存在しなくなくまで矩形を拡大していき、矩形の辺にエッジ画素が存在する最大の矩形を参照領域として、その位置とサイズを検出する。参照領域は、画像データ中の位置と、矩形のサイズとで特定される。図5(C)は、図5(B)に示したエッジ画像から抽出された文字領域を示している。各文字領域を、点線の矩形で示している。 (3) Then, the continuity of the edge region is detected with reference to the reference pixel. Edge region continuity is detected by enlarging the rectangle so that there is no edge pixel on the side of the rectangle with reference to the reference pixel, and using the largest rectangle with the edge pixel on the side of the rectangle as the reference region , Detect its position and size. The reference area is specified by the position in the image data and the size of the rectangle. FIG. 5C shows a character region extracted from the edge image shown in FIG. Each character area is indicated by a dotted rectangle.
参照領域抽出部111は、抽出された文字領域のうちから任意の文字領域を参照領域として抽出する。
The reference
図6は、エッジ領域の連続性の検出処理における矩形の拡大方法の一例を示す図である。エッジ領域の連続性の検出処理には、左から右へスキャンする方法、中央から左右へスキャンする方法、右から左へスキャンする方法とがある。図6(A)は左から右へスキャンする方法を示し、図6(B)は中央から左右へスキャンする方法を示し、図6(C)は右から左へスキャンする方法を示す。 FIG. 6 is a diagram illustrating an example of a rectangular enlargement method in the edge region continuity detection process. Edge region continuity detection processing includes a method of scanning from left to right, a method of scanning from the center to the left and right, and a method of scanning from the right to the left. 6A shows a method for scanning from left to right, FIG. 6B shows a method for scanning from the center to the left and right, and FIG. 6C shows a method for scanning from right to left.
図6(A)を参照して、左から右へスキャンする方法は、基準画素10を左上の頂点とした矩形11で、矩形11の辺上にエッジ画素が存在するか否かを判断し、存在する場合に矩形12,13,14,15の順に拡大した矩形で同様の処理を行う。エッジ画素が存在しなくなった矩形より小さい矩形で定まる領域を文字領域とする。たとえば、矩形14の辺上にエッジ画素が存在しないことが検出された場合には、基準画素10を左上の頂点とする矩形13で囲まれる領域を文字領域とする。
With reference to FIG. 6A, the method of scanning from left to right determines whether or not an edge pixel exists on the side of the
図6(B)を参照して、中央から左右へスキャンする方法は、基準画素20を中点とする上辺の矩形21で、矩形21の辺上にエッジ画素が存在するか否かを判断し、存在する場合に矩形22,23,24,25の順に拡大した矩形で同様の処理を行う。エッジ画素が存在しなくなった矩形より小さい矩形で定まる領域を文字領域とする。たとえば、矩形24の辺上にエッジ画素が存在しないことが検出された場合には、基準画素20を中点とする上辺の矩形23で囲まれる領域を文字領域とする。
With reference to FIG. 6B, the method of scanning from the center to the left and right is to determine whether or not an edge pixel exists on the side of the
図6(C)を参照して、右から左へスキャンする方法は、基準画素30を右上の頂点とした矩形31で、矩形31の辺上にエッジ画素が存在するか否かを判断し、存在する場合に矩形32,33,34,35の順に拡大した矩形で同様の処理を行う。エッジ画素が存在しなくなった矩形より小さい矩形で定まる領域を文字領域とする。たとえば、矩形34の辺上にエッジ画素が存在しないことが検出された場合には、基準画素30を右上の頂点とする矩形33で囲まれる領域を文字領域とする。
With reference to FIG. 6C, the method of scanning from right to left determines whether or not an edge pixel exists on the side of the
エッジ領域の連続性の検出処理について3つの方法を説明したが、これらを単独で用いもよいし、いずれか2つの組合せて用いてもよいし、またはこれらの全てを組合せ用いてもよい。2つ以上を組合せることにより、より正確に文字領域を抽出することができる。 Three methods have been described for edge region continuity detection processing, but these methods may be used alone, in combination with any two, or in combination. By combining two or more, the character region can be extracted more accurately.
なお、文字領域の抽出は、エッジ画像中のエッジ画素の外接矩形を求めることで抽出することもできる。 The character region can be extracted by obtaining a circumscribed rectangle of the edge pixel in the edge image.
次に、参照領域抽出部111が、画素の明度に基づいて参照領域を抽出する処理の具体例を説明する。
Next, a specific example of processing in which the reference
(1) 画像データで明度が最も高い画素を抽出し、基準画素とする。 (1) A pixel having the highest brightness in the image data is extracted and set as a reference pixel.
(2) そして、基準画素を基準とした矩形を、基準画素を基準とした明度の差が所定の範囲内を超える画素が含まれるまで拡大していき、基準画素を基準とした明度の差が所定の範囲内の画素を含む最大の矩形を参照領域とし、その位置とサイズを検出する。参照領域は、画像データ中の位置と、矩形のサイズとで特定される。 (2) Then, the rectangle based on the reference pixel is expanded until a pixel whose brightness difference based on the reference pixel exceeds a predetermined range is included, and the brightness difference based on the reference pixel is A maximum rectangle including pixels within a predetermined range is set as a reference area, and its position and size are detected. The reference area is specified by the position in the image data and the size of the rectangle.
(3) 次の参照領域を決定する際には、(1)で明度を下げて基準画素を決定し、(2)の処理を実行する。 (3) When the next reference area is determined, the brightness is lowered in (1) to determine the reference pixel, and the process in (2) is executed.
また、画素の明度に基づいて参照領域を抽出する処理は、写真が表された領域から予め定められた形状およびサイズの領域を参照領域としてもよい。 Further, the process of extracting the reference area based on the brightness of the pixel may use an area having a predetermined shape and size from the area where the photograph is represented as the reference area.
図7は、第1の実施の形態における画像処理装置で実行される処理の流れを示すフローチャートである。図7を参照して、画像処理装置100は、画像メモリ104から画像データを読出し、参照領域を抽出する(ステップS01)。そして、抽出した参照領域の画素値と画像データ中の位置とを関連付けた参照領域情報として参照領域記憶部115に記憶する(ステップS02)。
FIG. 7 is a flowchart showing a flow of processing executed by the image processing apparatus according to the first embodiment. Referring to FIG. 7,
そして、抽出した参照領域と類似する類似領域を画像データから抽出する(ステップS03)。類似領域の抽出は、画像データ中から参照領域と同じサイズの領域を処理領域として、その処理領域が参照領域と類似する場合にその処理領域を類似領域として抽出する。参照領域と類似する処理領域が抽出されるまで処理領域を画像データ中で移動させる。画像データの最後まで処理領域を移動させても参照領域に類似する処理領域が抽出されない場合には、類似領域が抽出されないとする。 Then, a similar area similar to the extracted reference area is extracted from the image data (step S03). In the extraction of the similar area, an area having the same size as the reference area is extracted from the image data, and when the processing area is similar to the reference area, the processing area is extracted as the similar area. The processing area is moved in the image data until a processing area similar to the reference area is extracted. If the processing area similar to the reference area is not extracted even if the processing area is moved to the end of the image data, the similar area is not extracted.
次のステップS04では、類似領域が抽出されたか否かが判断され、抽出された場合にはステップS05に進み、抽出されなかった場合にはステップS07に進む。ステップS05では、ステップS01で抽出された参照領域の画像データ中の位置と、ステップS03で抽出された類似領域の画像データ中の位置と、参照領域のサイズとを関連付けたコードを生成する。そして、生成されたコードがコード記憶部117に記憶される(ステップS06)。 In the next step S04, it is determined whether or not a similar region has been extracted. If extracted, the process proceeds to step S05, and if not, the process proceeds to step S07. In step S05, a code in which the position of the reference area extracted in step S01 in the image data, the position of the similar area extracted in step S03 in the image data, and the size of the reference area is generated is generated. The generated code is stored in the code storage unit 117 (step S06).
ステップS07では、ステップS03で類似領域を抽出するための処理対象となる処理領域が存在するか否かが判断される。存在する場合にはステップS03に戻り、存在しない場合にはステップS09に進む。ステップS03からステップS07の処理は、ステップS01で抽出された1つの参照領域と類似する領域が画像データ中に複数ある場合には、類似する領域の全てが類似領域として抽出されることになる。 In step S07, it is determined whether or not there is a processing region to be processed for extracting a similar region in step S03. When it exists, it returns to step S03, and when it does not exist, it progresses to step S09. In the processing from step S03 to step S07, when there are a plurality of regions similar to the one reference region extracted in step S01 in the image data, all of the similar regions are extracted as similar regions.
ステップS08では、次に参照領域とするべき領域が画像データ中に存在するか否かが判断される。この判断は、たとえば、画像データ中からこれまでに抽出された参照領域および類似領域を消去した画像データがべた画像である場合に真と判断する。また、参照領域および類似領域を除く領域が存在する場合に真と判断するようにしてもよい。さらに、参照領域および類似領域を除く領域に、エッジ画素が存在するか場合に真と判断するようにしてもよい。さらに、参照領域および類似領域を除く領域に、明度が異なる画素が存在する場合に真と判断するようにしてもよい。 In step S08, it is determined whether or not an area to be the next reference area exists in the image data. This determination is determined to be true when, for example, the image data obtained by deleting the reference area and the similar area extracted from the image data so far is a solid image. Further, it may be determined to be true when there is an area excluding the reference area and the similar area. Furthermore, it may be determined to be true when an edge pixel exists in an area excluding the reference area and the similar area. Furthermore, it may be determined to be true when pixels having different brightness values exist in a region excluding the reference region and the similar region.
ステップS08では、次に処理対象とする参照領域が存在するとされた場合にはステップS01に戻り、新たな参照領域を抽出して上述したステップS03〜ステップS07の処理を繰返して実行する。 In step S08, if it is determined that there is a reference area to be processed next, the process returns to step S01, a new reference area is extracted, and the processes in steps S03 to S07 described above are repeated.
ステップS08で次に処理対象とする参照領域が存在しないと判断された場合には、ステップS09に進む。ステップS09では、画像データからステップS03で抽出された全ての類似領域を消去して消去データを生成する。そして、次のステップS10では、消去データを所定の圧縮方式で圧縮する。圧縮方式は、可逆的な圧縮であってもよいし、非可逆的な圧縮であってもよい。 If it is determined in step S08 that there is no reference area to be processed next, the process proceeds to step S09. In step S09, erased data is generated by erasing all similar regions extracted in step S03 from the image data. In the next step S10, the erased data is compressed by a predetermined compression method. The compression method may be reversible compression or irreversible compression.
そして、コード記憶部117よりコードを読出し(ステップS11)、読出したコードとステップS08で圧縮された消去データ(圧縮データ)とが、送信部123より、通信回線に接続された他のコンピュータまたはMFPに送信される(ステップS12)。
Then, the code is read from the code storage unit 117 (step S11), and the read code and the erased data (compressed data) compressed at step S08 are transmitted from the
次に、エッジ比較部125Aで実行される類似領域の抽出処理について詳細に説明する。エッジ比較部125Aは、図5で説明した文字領域のうちから比較の対象となる処理領域を決定する。処理領域は、参照領域と同じ形状および大きさで、画像データを横方向または縦方向に1画素単位に移動させて定まる領域に決定される。
Next, a similar region extraction process executed by the
図8は、図7のステップS03で実行される類似領域抽出処理の流れを示すフローチャートである。ここでは、類似領域を抽出するために参照領域と比較の対象となる処理領域が決定された後の処理を示す。図8に示す類似領域抽出処理は、エッジ比較部125Aで実行される処理である。ここでは、画素値が0〜255までの値をとるものとし、値が大きくなるにつれて明度が高くなるものとし、文字は明度が低い画素で構成されるものとして説明する。
FIG. 8 is a flowchart showing the flow of the similar region extraction process executed in step S03 of FIG. Here, the processing after the processing region to be compared with the reference region in order to extract the similar region is shown. The similar region extraction process shown in FIG. 8 is a process executed by the
図8を参照して、まず、処理領域に拡張処理を実行して、線を拡張する(ステップS21)。拡張処理は、処理対象画像の全ての画素について、各画素の画素値を、該画素および周辺の画素の画素値の最小値とする処理である。この拡張処理により、処理領域中の点が拡張される。この拡張処理が実行された処理領域を拡張処理領域という。そして、参照領域に縮小処理を実行して、線を縮小する(ステップS22)。縮小処理は、処理対象画像の全ての画素について、各画素の画素値を、該画素および周辺の画素の画素値の最大値とする処理である。この縮小処理により、参照領域中の点が縮小される。この縮小処理が実行された参照領域を縮小参照領域という。 Referring to FIG. 8, first, an extension process is executed on the processing area to extend the line (step S21). The expansion processing is processing for setting the pixel value of each pixel as the minimum value of the pixel values of the pixel and the surrounding pixels for all the pixels of the processing target image. By this expansion processing, points in the processing area are expanded. A processing area in which this extension processing is executed is called an extension processing area. Then, a reduction process is executed on the reference area to reduce the line (step S22). The reduction processing is processing for setting the pixel value of each pixel as the maximum value of the pixel values of the pixel and the surrounding pixels for all the pixels of the processing target image. By this reduction processing, the points in the reference area are reduced. The reference area on which the reduction process has been executed is referred to as a reduced reference area.
拡張処理または縮小処理にあっては、縦横がたとえば3×3のフィルタを用いることができる。フィルタの大きさは、文字の大きさ、線の太さなどに応じて適宜定められる。 In the expansion process or the reduction process, for example, a 3 × 3 filter can be used. The size of the filter is appropriately determined according to the size of characters, the thickness of lines, and the like.
次に、拡張処理領域と縮小参照領域の対応する画素値が比較される(ステップS23)。比較の結果、縮小参照領域の全ての画素値が拡張処理領域の対応する画素値以上か否かが判断され(ステップS24)、真の場合にはステップS25へ進み、偽の場合には処理を終了する。 Next, the corresponding pixel values in the extended processing area and the reduced reference area are compared (step S23). As a result of the comparison, it is determined whether or not all pixel values in the reduced reference area are equal to or larger than the corresponding pixel values in the extended processing area (step S24). If true, the process proceeds to step S25. finish.
次に、処理領域に縮小処理を実行して、線を縮小する(ステップS25)。この縮小処理が実行された処理領域を縮小処理領域という。そして、参照領域に拡張処理を実行して、線を拡張する(ステップS26)。この拡張処理が実行された参照領域を拡張参照領域という。次に、縮小処理領域と拡張参照領域の対応する画素値が比較される(ステップS27)。比較の結果、縮小処理領域の全ての画素値が拡張参照領域の対応する画素値以上か否かが判断され(ステップS28)、真の場合にはステップS29へ進み、偽の場合には処理を終了する。ステップS29では、処理領域を類似領域として抽出し、処理を終了する。 Next, a reduction process is performed on the processing area to reduce the line (step S25). The processing area where the reduction process is executed is called a reduction process area. Then, an extension process is executed on the reference area to extend the line (step S26). The reference area in which this extension process has been executed is called an extended reference area. Next, the corresponding pixel values of the reduction processing area and the extended reference area are compared (step S27). As a result of the comparison, it is determined whether or not all the pixel values in the reduction processing area are equal to or larger than the corresponding pixel values in the expansion reference area (step S28). If true, the process proceeds to step S29. finish. In step S29, the processing area is extracted as a similar area, and the process ends.
上述したエッジ比較部125Aでは、参照領域と処理領域とで、画素値を比較するようにした。この場合、画像データは、白黒2値のデータ、または、多値のグレースケールのデータを前提としている。画像データが、カラーの場合には、1画素が赤(R)、緑(G)、青(B)の3つの画素値からなる。画像データがカラーの場合は、エッジ比較部125Aは、(1)明度で比較する(形状比較)、(2)明度に加えて色相で比較するようにすればよい。明度で比較する場合には、上述した白黒2値またはグレースケールの場合と同様であるのでここでは説明を繰り返さない。
In the
明度の比較に加えて色相で比較する場合、(1)画像データをRGB色空間からL*a*b*色空間に変換し、(2)明度Lを比較して類似すると判定された場合には、(3)参照領域と参照領域それぞれのa*とb*の比の差が所定の値以内であれば、類似すると判断する。明度に加えて色相を比較して類比判定することにより、より正確に類比判定することが可能となる。さらに、彩度を類比判断に加えるようにしてもよい。彩度の比較では、参照領域と参照領域それぞれの((a*)2+(b*)2)の差が所定の値以内であれば類似と判定する。明度、色相に加えて彩度で比較することにより、より正確に類比判定することができる。 When comparing by hue in addition to lightness comparison, (1) When image data is converted from RGB color space to L * a * b * color space, and (2) Lightness L is compared and it is determined that they are similar (3) If the difference in the ratio of a * and b * between the reference area and the reference area is within a predetermined value, it is determined that they are similar. By comparing the hue in addition to the lightness and determining the analogy, the analogy can be determined more accurately. Further, saturation may be added to the analogy determination. In the comparison of saturation, if the difference between ((a *) 2 + (b *) 2 ) between the reference area and the reference area is within a predetermined value, it is determined that they are similar. By comparing the lightness and hue in addition to the saturation, the analogy can be determined more accurately.
次に、明度比較部125Bで実行される類似領域の抽出処理について詳細に説明する。明度比較部125Bは、処理領域を画像データの全てをスキャンして定める。すなわち、処理領域は、参照領域と同じ形状および大きさで、画像データを横方向または縦方向に1画素単位に移動させることにより決定する。また、処理領域を写真または図形が表された領域に存在する予め定められたサイズおよび形状の領域とするようにしてもよい。
Next, similar region extraction processing executed by the
図9は、図7のステップS03で実行される類似領域抽出処理の流れを示す別のフローチャートである。図9に示す類似領域抽出処理は、明度比較部125Bで実行される処理である。ここでは、類似領域を抽出するために参照領域と比較の対象となる処理領域が決定された後の処理を示す。実際には処理領域を画像データの全てをスキャンして定める。すなわち、処理領域は、参照領域と同じ形状および大きさで、画像データを横方向または縦方向に1画素単位に移動させることにより決定される。
FIG. 9 is another flowchart showing the flow of the similar region extraction process executed in step S03 of FIG. The similar region extraction process illustrated in FIG. 9 is a process executed by the
図9を参照して、まず、参照領域と処理領域との差分画像を生成する(ステップS31)。そして、差分画像の画素値の絶対値和を算出する(ステップS32)。算出した絶対値和が所定のしきい値Tより小さいか否かが判断される(ステップS33)。真の場合にはステップS34に進み、偽の場合には処理を終了する。ステップS34では、処理領域を類似領域として抽出し、処理を終了する。 Referring to FIG. 9, first, a difference image between the reference area and the processing area is generated (step S31). Then, the absolute value sum of the pixel values of the difference image is calculated (step S32). It is determined whether or not the calculated absolute value sum is smaller than a predetermined threshold value T (step S33). If true, the process proceeds to step S34, and if false, the process ends. In step S34, the processing area is extracted as a similar area, and the process ends.
第1の実施の形態における画像処理装置100によれば、画像データの一部である類似領域が、画像データの一部である参照領域に関連付けてコード化されるので、画像データとは別に辞書を用いる必要がない。
According to the
また、画像データから類似領域が消去された消去データを圧縮するので、高い圧縮率で圧縮することができる。このため、画像データのデータ量を削減することができる。 In addition, since the erased data in which the similar area is erased from the image data is compressed, it can be compressed at a high compression rate. For this reason, the data amount of image data can be reduced.
また、送信部123から送信するデータのデータ量が削減されるので、通信に要する時間を短くすることができる。
In addition, since the amount of data transmitted from the
<画像処理部の第1の変形例>
図10は、第1の変形例における画像処理部の機能の概要を示す機能ブロック図である。図10を参照して、画像処理部103Aは、上述した画像処理部103の画像変換部201が異なる。第1の変形例における画像処理部103Aの画像変換部201Aは、画像データを複数のブロックに分割するブロック分割部202と、複数のブロックのうちから参照領域を抽出する参照領域抽出部111と、参照領域抽出部111により抽出された参照領域に類似する類似領域を複数のブロックのうちから抽出する類似領域抽出部125と、類似領域抽出部125で抽出された類似領域を参照領域と関連付けたコードを生成するコード生成部127を含む。
<First Modification of Image Processing Unit>
FIG. 10 is a functional block diagram illustrating an outline of functions of the image processing unit in the first modification. Referring to FIG. 10, the
ブロック分割部202は、画像メモリ104に記憶された画像データを読出し、読出した画像データを複数のブロックに分割する。ブロックのサイズは予め定めておいてもよいし、画像データのサイズに応じて定めるようにしてもよい。
The
参照領域抽出部111は、ブロック分割部202で画像データを分割して得られる複数のブロックのうちから任意のブロックを参照領域として抽出する。
The reference
類似領域抽出部125は、ブロック分割部202で画像データを分割して得られる複数のブロックのうちから参照領域抽出部111で抽出された参照領域と類似するブロックを類似領域として抽出する。
The similar
第1の変形例における画像処理部103Aは、参照領域と類似領域とを複数のブロックのうちから抽出するので、処理を単純化することができ、処理速度を向上させることができる。
Since the
<画像処理部の第2の変形例>
画像処理部103は、消去データを圧縮して、圧縮した消去データとコードとを送信するものであった。第2の変形例における画像処理部103Bは、消去データを圧縮し、圧縮した消去データとコードとを合成した合成データを送信する点で異なる。
<Second Modification of Image Processing Unit>
The
図11は、第2の変形例における画像処理部の機能の概要を示す機能ブロック図である。図11を参照して、第2の変形例における画像処理部103Bが画像処理部103と異なるところは、圧縮部131と送信部123との間に合成部133を備える点である。その他の構成は同一なのでここでは説明を繰返さない。
FIG. 11 is a functional block diagram illustrating an outline of functions of the image processing unit in the second modification. Referring to FIG. 11,
合成部133は、圧縮部131により圧縮された画像データとコード記憶部117に記憶されたコードとを合成する。合成部133は、圧縮部131により圧縮された圧縮データと、コード記憶部117より読出したコードとを区別可能な1つの合成データに合成する。たとえば、ヘッダ部分にコードを含め、本体部分に消去データを含む。
The
なお、第2の変形例における画像処理部103Bには、第1の変形例における画像処理部103Aの画像変換部201Aを適用することができる。
Note that the
<画像処理部の第3の変形例>
第2の変形例における画像処理部103Bは、消去データを圧縮し、圧縮した消去データとコードとを合成し、合成データを送信するものであった。第3の変形例における画像処理部103Cは、消去データとコードとを合成し、合成したデータを可逆圧縮方式で圧縮し、圧縮した合成データを送信する点で異なる。その他の構成は同一なのでここでは説明を繰返さない。
<Third Modification of Image Processing Unit>
The image processing unit 103B according to the second modification compresses erased data, combines the compressed erased data and the code, and transmits the synthesized data. The
図12は、第3の変形例における画像処理部の一部の機能を示す機能ブロック図である。図12を参照して、変形された画像処理部103Cは、消去データとコードとを合成する合成部133と、合成部133が出力する合成データを可逆圧縮方式で圧縮する圧縮する可逆圧縮部137とを含む。合成部は、画像消去部119から入力される消去データと、コード記憶部117より読出したコードとを区別可能な1つの合成データに合成する。たとえば、合成データは、ヘッダ部分にコードを含め、本体部分に消去データを含む。可逆圧縮部137は、合成データを可逆圧縮方式で圧縮する。可逆圧縮方式としたのは、圧縮された合成データを伸張したときに、コードを確実に再現するためである。
FIG. 12 is a functional block diagram showing some functions of the image processing unit in the third modification. Referring to FIG. 12, modified
なお、第3の変形例における画像処理部103Cは、第1の変形例における画像処理部103Aの画像変換部201Aを適用することができる。
Note that the
<画像処理部の第4の変形例>
第4の変形例における画像処理部103Dは、消去データを作成することなく、参照領域情報とコード情報とを合成した合成データを圧縮し、圧縮した圧縮データを送信する。
<Fourth Modification of Image Processing Unit>
The image processing unit 103D according to the fourth modified example compresses the combined data obtained by combining the reference area information and the code information without creating erasure data, and transmits the compressed data.
図13は、第4の変形例における画像処理部の機能の概略を示す機能ブロック図である。図13を参照して、画像処理部103Dは、画像変換部201と、参照領域記憶部115と、コード記憶部117と、参照領域情報とコードとを合成する合成部141と、合成された合成データを圧縮する可逆圧縮部137と、圧縮された圧縮データを他の装置へ送信する送信部123とを含む。
FIG. 13 is a functional block diagram illustrating an outline of functions of the image processing unit in the fourth modification. Referring to FIG. 13, the image processing unit 103D includes an
可逆圧縮部137は、合成データを可逆圧縮方式で圧縮する。参照領域情報およびコードが圧縮により失われることがないようにするためである。このため、画像データのデータ量をさらに減少させて送信することができる。
The
なお、第4の変形例における画像処理部103Cには、第1の変形例における画像処理部103Aの画像変換部201Aを適用することができる。
Note that the
<画像処理部の第5の変形例>
第5の変形例における画像処理部103Eは、消去データを作成することなく、参照領域情報とコード情報とを合成し、合成した合成データを送信する。
<Fifth Modification of Image Processing Unit>
The
図14は、第5の変形例における画像処理部の機能の概略を示す機能ブロック図である。図14を参照して、画像処理部103Eは、画像変換部201と、参照領域記憶部115と、コード記憶部117と、参照領域情報とコードとを合成する合成部141と、合成された合成データを他の装置へ送信する送信部123とを含む。
FIG. 14 is a functional block diagram illustrating an outline of functions of the image processing unit in the fifth modification. Referring to FIG. 14, the
合成部141は、参照領域記憶部115に記憶された参照領域情報と、コード記憶部117に記憶されたコードとを読出し、合成して合成データを生成する。合成データは、参照領域情報と、コードとを区別した形式のデータである。たとえば、ヘッダにコードを含み、本体部に参照領域情報を含む。
The
図3を用いて説明したように、参照領域情報は、参照領域の画像データ中の位置と、サイズ、参照領域自体を含む。したがって、参照領域情報を受信した側の装置では、参照領域情報から参照領域を含む消去データを再生することができる。また、コードは、図4を用いて説明したように、類似領域の画像データ中の位置と、それが類似する参照領域の位置およびそのサイズとを含む。このため、参照領域情報およびコードを受信した側の装置では、再生した消去画像から画像データを再生することができる。 As described with reference to FIG. 3, the reference area information includes the position of the reference area in the image data, the size, and the reference area itself. Therefore, the device on the side that has received the reference area information can reproduce erased data including the reference area from the reference area information. Further, as described with reference to FIG. 4, the code includes the position of the similar area in the image data, the position of the similar reference area and the size thereof. For this reason, the device that has received the reference area information and the code can reproduce the image data from the reproduced erased image.
また、参照領域情報とコードとを合成した合成データを送信するので、画像データを圧縮することなく、データ量を削減することができる。また、参照領域はビットマップデータのままとされるが、参照領域と類似するとされた参照領域は参照領域と関連付けてコード化されるので、画像データのイメージを維持したまま、データ量を削減することができる。 Further, since the synthesized data obtained by synthesizing the reference area information and the code is transmitted, the amount of data can be reduced without compressing the image data. The reference area is left as bitmap data, but the reference area similar to the reference area is coded in association with the reference area, so that the amount of data is reduced while maintaining the image of the image data. be able to.
なお、参照領域情報とコード情報とを合成した合成データを送信するようにしたが、参照領域情報とコード情報とを合成することなく、別々に送信するようにしてもよい。参照領域情報とコードとが関連することを受信側の装置で検出することができれば、画像データを再生することが可能だからである。 Note that the combined data obtained by combining the reference area information and the code information is transmitted, but the reference area information and the code information may be transmitted separately without being combined. This is because the image data can be reproduced if the receiving device can detect that the reference area information and the code are related.
なお、第5の変形例における画像処理部103Eには、第1の変形例における画像処理部103Aの画像変換部201Aを適用することができる。
Note that the
<第2の実施の形態>
以上、第1の実施の形態における画像処理装置について説明したが、これらの画像処理装置で実行される処理は、一般的なコンピュータで実現することも可能である。
<Second Embodiment>
Although the image processing apparatus according to the first embodiment has been described above, the processing executed by these image processing apparatuses can also be realized by a general computer.
図15は、コンピュータのハード構成の概略を示すブロック図である。図15を参照して、コンピュータ300は、それぞれバス307に接続された、CPU(Central Processing Unit)301と、オペレーティングシステムに送られたプログラムなどを記憶したROM(Read Only Memory)302と、実行されるプログラムをロードするための、およびプログラム実行中のデータを記憶するためのRAM(Random Access Memory)303と、ハードディスク304と、コンピュータ300を通信回線314に接続するための通信部306と、マウス308と、キーボード309と、表示部310と、イメージスキャナ311と、プリンタ312と、CD−ROM(Compact Disc Read Only Memory)ドライブ305とを含む。CD−ROMドライブ305には、CD−ROM313が装着される。このように構成されるコンピュータ自体の動作は周知であるので、ここではその詳細な説明は繰返さない。
FIG. 15 is a block diagram illustrating an outline of a hardware configuration of a computer. Referring to FIG. 15, a
図1に示した画像処理装置100の操作パネル109は、表示部310と、マウス308またはキーボード309とに、画像読取部102はイメージスキャナ311に、記憶部106はハードディスク304に、画像メモリ104はRAM303に、画像処理部103,103A,103B,103C、制御部101およびパネル制御部108はCPU301に、伝送制御部107は通信部306に、画像形成部105はプリンタ312にそれぞれ相当する。
The
コンピュータ300は、画像処理プログラムがCPU301で実行されることにより、図10および図11に示した処理が実行される。
The
一般的にこうしたプログラムは、CD−ROM313などの記録媒体に格納されて流通し、CD−ROMドライブ305などにより記録媒体から読取られてハードディスク304に一旦格納される。さらにハードディスク304からRAM303に読出されてCPU301により実行される。
Generally, such a program is stored and distributed in a recording medium such as a CD-
なお、記録媒体としては、CD−ROM313、ハードディスク304に限られず、フレキシブルディスク、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc)、ICカード(メモリカードを含む)、光カード、マスクROM、EPROM、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。
The recording medium is not limited to the CD-
ここでいうプログラムとは、CPU301により直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮表示されたプログラム、暗号化されたプログラム等を含む。
The program here includes not only a program directly executable by the
上述した実施の形態における画像処理装置には、以下の概念も含まれる。 The image processing apparatus according to the above-described embodiment includes the following concept.
(1) 前記圧縮されたデータと前記類似領域に対応するコードとを合成する合成手段をさらに備え、
前記出力手段は、前記合成されたデータを出力する、請求項3に記載の画像処理装置。
(1) It further comprises synthesis means for synthesizing the compressed data and a code corresponding to the similar region,
The image processing apparatus according to claim 3, wherein the output unit outputs the combined data.
この発明に従えば、圧縮された画像データと処理領域に対応するコードとが合成される。このため、画像データとコードとを1つのデータとして取り扱うことができる。 According to the present invention, the compressed image data and the code corresponding to the processing area are synthesized. For this reason, image data and a code can be handled as one data.
(2) 前記抽出された類似領域を前記入力された画像データから消去する消去手段と、
前記類似領域が消去された画像データと前記類似領域に対応するコードとを合成する合成手段と、
前記合成手段により合成されたデータを可逆的な圧縮方式で圧縮する圧縮手段とを備え、
前記出力手段は、前記圧縮手段によりより圧縮されたデータを出力する、請求項1に記載の画像処理装置。
(2) erasing means for erasing the extracted similar region from the input image data;
A synthesizing unit that synthesizes the image data from which the similar area is erased and a code corresponding to the similar area;
Compression means for compressing the data synthesized by the synthesis means by a reversible compression method,
The image processing apparatus according to
この発明に従えば、画像データとコードとを合成した後に可逆的な圧縮方式で圧縮するので、圧縮率を高めるとともにコードを確実に復元することができる。 According to the present invention, since the image data and the code are combined and then compressed by a reversible compression method, the compression rate can be increased and the code can be reliably restored.
(3) 前記参照領域と、該参照領域の前記画像データ中の位置と、前記類似領域に対応するコードとを合成する合成手段と、
前記合成手段により合成されたデータを可逆的な圧縮方式で圧縮する圧縮手段とをさらに備え、
前記出力手段は、前記圧縮手段により圧縮されたデータを出力する、請求項1に記載の画像処理装置。
(3) combining means for combining the reference region, the position of the reference region in the image data, and the code corresponding to the similar region;
Compression means for compressing the data synthesized by the synthesis means by a reversible compression method,
The image processing apparatus according to
(4) 前記類似領域抽出手段は、処理対象領域に含まれるエッジ画素と前記参照領域に含まれるエッジ画素の配列を比較する比較手段を含む、請求項1に記載の画像処理装置。
(4) The image processing apparatus according to
この発明に従えば、エッジ画素の配列を比較するので、線、点などからなる文字や記号等を含む参照領域と同じ領域と文字や記号等を含む類似領域が抽出される。このため、線、点などからなる文字や記号等をコード化することができる。 According to the present invention, since the arrangement of edge pixels is compared, the same region as the reference region including characters, symbols, and the like including lines and dots, and the similar region including characters, symbols, and the like are extracted. For this reason, characters, symbols, and the like made up of lines, points, etc. can be coded.
(5) 前記類似領域抽出手段は、画素値を周辺の画素の最小値に置換する拡張手段と、
処理対象領域に含まれる画素の画素値を周辺の画素の最大値に置換する縮小手段とを含み、
前記縮小手段により前記参照領域を縮小した縮小参照領域のそれぞれの画素値が前記拡張手段により前記処理対象領域を拡張した拡張処理領域の対応する画素値以上で、かつ、前記縮小手段により前記処理対象領域を縮小した縮小処理領域のそれぞれの画素値が前記拡張手段により前記参照領域を拡張した拡張参照領域の対応する画素値以上であることを条件に、前記参照領域と前記処理対象領域とが類似すると判定する、請求項1に記載の画像処理装置。
(5) The similar region extraction unit includes an expansion unit that replaces a pixel value with a minimum value of surrounding pixels;
Reduction means for replacing the pixel value of the pixel included in the processing target area with the maximum value of the surrounding pixels,
Each pixel value of the reduced reference area obtained by reducing the reference area by the reducing means is equal to or greater than the corresponding pixel value of the extended processing area obtained by extending the processing target area by the extending means, and the processing target by the reducing means. The reference area and the processing target area are similar on the condition that each pixel value of the reduced processing area obtained by reducing the area is equal to or greater than the corresponding pixel value of the extended reference area obtained by extending the reference area by the extension means. The image processing device according to
この発明に従えば、類比を正確に判断することができ、類似領域を正確に抽出することができる。 According to this invention, the analogy can be accurately determined, and a similar region can be accurately extracted.
(6) 前記類似領域抽出手段は、処理対象領域に含まれる画素と前記参照領域に含まれる画素との明度を比較する比較手段を含む、請求項1に記載の画像処理装置。
(6) The image processing apparatus according to
この発明に従えば、画素の明度が比較されるので、写真や図形などが表された領域をコード化することができる。 According to the present invention, since the brightness of the pixels is compared, it is possible to code an area where a photograph or a figure is represented.
(7) (6)において、前記比較手段は、処理対象領域と前記参照領域との差分画像が所定の条件を満たすか否かを判定する判定手段を含む。 (7) In (6), the comparison means includes determination means for determining whether or not a difference image between the processing target area and the reference area satisfies a predetermined condition.
この発明に従えば、写真や図形などが表された領域のうちから類似する領域を容易に抽出することができる。 According to the present invention, it is possible to easily extract a similar area from areas where photographs, figures, and the like are represented.
(8) 前記入力手段は、原稿を光学的に読取る原稿読取手段を含む、請求項1に記載の画像処理装置。 (8) The image processing apparatus according to (1), wherein the input unit includes a document reading unit that optically reads a document.
(9) 前記入力手段により入力された画像データを記録媒体上に画像形成する画像形成手段をさらに備えた、請求項1に記載の画像処理装置。 (9) The image processing apparatus according to (1), further comprising an image forming unit that forms an image of the image data input by the input unit on a recording medium.
(10) 前記画像データは、1画素当たり赤、緑、青の3つの色の値を含み、
前記類似領域抽出手段は、前記画像データを、L*a*b*色空間に変換する色空間変換手段と、
処理対象画素のL*値を周辺の画素の最大のL*値に置換する拡張手段と、
処理対象画素のL*値を周辺の画素の最小のL*値に置換する縮小手段と、
前記縮小手段により前記参照領域を縮小した縮小参照領域の画素それぞれのL*値が前記拡張手段により前記処理領域を拡張した拡張処理領域の対応する画素のL*値以上で、かつ、前記縮小手段により前記処理領域を縮小した縮小処理領域の画素それぞれのL*値が前記拡張手段により前記参照領域を拡張した拡張参照領域の対応する画素のL*値以上であることを条件に、前記参照領域と前記処理領域とが類似すると判定する形状比較手段とを含む、請求項1に記載の画像処理装置。
(10) The image data includes three color values of red, green, and blue per pixel,
The similar region extraction means includes a color space conversion means for converting the image data into an L * a * b * color space;
Expansion means for replacing the L * value of the pixel to be processed with the maximum L * value of surrounding pixels;
Reduction means for replacing the L * value of the pixel to be processed with the minimum L * value of surrounding pixels;
The L * value of each pixel in the reduced reference area obtained by reducing the reference area by the reducing means is equal to or greater than the L * value of the corresponding pixel in the extended processing area obtained by extending the processing area by the extending means, and the reducing means. The reference region is provided on the condition that the L * value of each pixel of the reduced processing region obtained by reducing the processing region by the expansion means is equal to or greater than the L * value of the corresponding pixel of the extended reference region obtained by extending the reference region by the extension means. The image processing apparatus according to
この発明に従えば、対比する参照領域の形状の類似を判別することができる。 According to the present invention, it is possible to determine the similarity of the shape of the reference region to be compared.
(11) (10)に記載の画像処理装置において、前記類似領域抽出手段は、前記参照領域と前記処理領域との対応する画素のL*値の差分が所定の値以下であることを条件に、前記参照領域と前記処理領域とが類似すると判定する輝度比較手段をさらに含む。 (11) In the image processing device according to (10), the similar region extraction unit is configured on the condition that a difference in L * values of corresponding pixels between the reference region and the processing region is equal to or less than a predetermined value. And a luminance comparison means for determining that the reference area is similar to the processing area.
この発明に従えば、対比する参照領域の形状の類似に加えて輝度の類似を判別するので、より正確に類似を判別することができる。 According to the present invention, since the similarity of luminance is determined in addition to the similarity of the shape of the reference region to be compared, the similarity can be determined more accurately.
(12) (10)に記載の画像処理装置において、前記類似領域抽出手段は、前記参照領域と前記処理領域との対応する画素のa*値とb*値との比が所定の値以下の差であることを条件に、前記参照領域と前記処理領域とが類似すると判定する色相比較手段をさらに含む。 (12) In the image processing apparatus according to (10), the similar region extraction unit has a ratio of a * value and b * value of corresponding pixels in the reference region and the processing region equal to or less than a predetermined value. It further includes a hue comparison unit that determines that the reference area is similar to the processing area on the condition that the difference is a difference.
この発明に従えば、対比する参照領域の形状および明度の類似に加えて色相の類似を判別するので、より正確に類似を判別することができる。 According to the present invention, the similarity of the hue is determined in addition to the similarity of the shape and brightness of the reference region to be compared, so that the similarity can be determined more accurately.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
100 画像処理装置、101 制御部、102 画像読取部、103,103A,103B,103C,103D,103E 画像処理部、104 画像メモリ、105 画像形成部、106 記憶部、107 伝送制御部、108 パネル制御部、109 操作パネル、110 バス、111 参照領域抽出部、115 参照領域記憶部、117 コード記憶部、119 画像消去部、121,121A 圧縮・合成部、123 送信部、125 類似領域抽出部、127 コード生成部、131 圧縮部、133,135,141 合成部、137 可逆圧縮部、201,201A 画像変換部、300 コンピュータ、304 ハードディスク、305 ドライブ、306 通信部、307 バス、308 マウス、309 キーボード、310 表示部、311 イメージスキャナ、312 プリンタ、314 通信回線。
DESCRIPTION OF
Claims (6)
前記入力された画像データの一部を参照領域として抽出する参照領域抽出手段と、
前記入力された画像データから前記抽出された参照領域と類似する類似領域を抽出する類似領域抽出手段と、
前記抽出された類似領域を前記参照領域に関連付けたコードを生成するコード生成手段と、
前記抽出された参照領域と前記類似領域に対応するコードとを所定の形態で出力する出力手段とを備えた、画像処理装置。 Input means for inputting image data;
A reference area extracting means for extracting a part of the input image data as a reference area;
Similar region extraction means for extracting a similar region similar to the extracted reference region from the input image data;
Code generating means for generating a code in which the extracted similar region is associated with the reference region;
An image processing apparatus comprising: an output unit that outputs the extracted reference area and a code corresponding to the similar area in a predetermined form.
前記参照領域抽出手段は、前記複数のブロックのいずれかを参照領域として抽出し、
前記類似領域抽出手段は、前記複数のブロックであって前記参照領域と類似するブロックを類似領域として抽出する、請求項1に記載の画像処理装置。 Block division means for dividing the input image data into a plurality of blocks;
The reference area extracting means extracts any of the plurality of blocks as a reference area;
The image processing apparatus according to claim 1, wherein the similar area extracting unit extracts a block similar to the reference area as the plurality of blocks as a similar area.
前記類似領域が消去された画像データを圧縮する圧縮手段とを備え、
前記出力手段は、前記参照領域を前記圧縮手段により圧縮されたデータとして出力する、請求項1に記載の画像処理装置。 Erasing means for erasing the extracted similar region from the input image data;
Compression means for compressing the image data from which the similar area has been deleted,
The image processing apparatus according to claim 1, wherein the output unit outputs the reference area as data compressed by the compression unit.
前記入力された画像データの一部を参照領域として抽出するステップと、
前記入力された画像データから前記抽出された参照領域と類似する類似領域を抽出するステップと、
前記抽出された類似領域を前記参照領域に関連付けたコードを生成するステップと、
前記前記抽出された参照領域と前記類似領域に対応する前記コードとを所定の形態で出力するステップとをコンピュータに実行させる、画像処理プログラム。 Inputting image data;
Extracting a part of the input image data as a reference area;
Extracting a similar region similar to the extracted reference region from the input image data;
Generating a code associating the extracted similar region with the reference region;
An image processing program causing a computer to execute the step of outputting the extracted reference area and the code corresponding to the similar area in a predetermined form.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004124390A JP2005309681A (en) | 2004-04-20 | 2004-04-20 | Image processor and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004124390A JP2005309681A (en) | 2004-04-20 | 2004-04-20 | Image processor and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005309681A true JP2005309681A (en) | 2005-11-04 |
Family
ID=35438420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004124390A Withdrawn JP2005309681A (en) | 2004-04-20 | 2004-04-20 | Image processor and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005309681A (en) |
-
2004
- 2004-04-20 JP JP2004124390A patent/JP2005309681A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5132517B2 (en) | Image processing apparatus and image processing method | |
JP4772888B2 (en) | Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof | |
JP5220828B2 (en) | Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, program, and recording medium | |
EP0554002B1 (en) | Method and apparatus for generating and transmitting vectorised image data | |
JP2008099149A (en) | Image processor, image processing method and image processing program | |
JP2003087563A (en) | Image processing device and its control method | |
JP2010288229A (en) | Image processing method, image processing apparatus, image forming apparatus, program and recording medium | |
JP2008236204A (en) | Image processing apparatus | |
JP2007336226A (en) | Information processor, control method, and computer program | |
JP2012074852A (en) | Image processing device, image formation device, image reading device, image processing method, image processing program and recording medium | |
JP4582200B2 (en) | Image processing apparatus, image conversion method, and computer program | |
JP2013125994A (en) | Image compression device, image compression method, and computer program | |
JP3915795B2 (en) | Image processing apparatus and image processing program | |
CN111835931A (en) | Image processing apparatus, image forming apparatus, and image reading apparatus | |
JP2005309681A (en) | Image processor and image processing program | |
JP2012004667A (en) | Image processing device, image processing method, and image processing program | |
JP3870147B2 (en) | Image compression apparatus, image expansion apparatus, method thereof, and program | |
JP5186994B2 (en) | Image processing device | |
US8553294B2 (en) | Outlining method for properly representing curved line and straight line, and image compression method using the same | |
JP2020102148A (en) | Image processing device, image processing method, and program | |
JP2007019673A (en) | Image processing apparatus, image compression method, image compression program, and data structure of compressed image | |
JP7185451B2 (en) | Image processing device, image processing method, and program | |
JP2006173957A (en) | Image processing apparatus | |
JP2007189275A (en) | Image processor | |
JP2001078049A (en) | Method and device for picture processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070703 |