JP2010161745A - Image processor, image reader, image transmission device, image formation device, image processing method, program, and recording medium of the same - Google Patents

Image processor, image reader, image transmission device, image formation device, image processing method, program, and recording medium of the same Download PDF

Info

Publication number
JP2010161745A
JP2010161745A JP2009003999A JP2009003999A JP2010161745A JP 2010161745 A JP2010161745 A JP 2010161745A JP 2009003999 A JP2009003999 A JP 2009003999A JP 2009003999 A JP2009003999 A JP 2009003999A JP 2010161745 A JP2010161745 A JP 2010161745A
Authority
JP
Japan
Prior art keywords
image
image data
document
unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009003999A
Other languages
Japanese (ja)
Inventor
Masakazu Ohira
雅和 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009003999A priority Critical patent/JP2010161745A/en
Publication of JP2010161745A publication Critical patent/JP2010161745A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To rapidly generate an image file of image data obtained by reading a document, and to make a device for displaying or printing the image data execute appropriate image processings. <P>SOLUTION: This image processor includes: a document detecting part 14 for detecting a region, corresponding to a document image in image data and a condition of image processing to be applied in displaying the document image based on the image data of the document image; a color compensating part 16 for converting colors in regions other than the region corresponding to the document image in the image data to predetermined colors; a drawing command generating part 43 for generating a drawing command for controlling a computer provided for a device in a transmission destination to execute display, after executing the image processing based on the condition in displaying the document image; and a formatting processing part 44 for generating an image file created by adding the drawing command to image data obtained by applying a compression process to the image data, before applying the image processing, after executing the conversion process. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、原稿から読み取った画像データに所定の処理を施して他の装置に送信する画像処理装置、画像読取装置、画像送信装置、画像形成装置、画像処理方法、プログラムおよびその記録媒体に関するものである。   The present invention relates to an image processing apparatus, an image reading apparatus, an image transmission apparatus, an image forming apparatus, an image processing method, a program, and a recording medium thereof that perform predetermined processing on image data read from a document and transmit the processed image data to another apparatus. It is.

従来より、紙等の記録材上に記載されている情報をスキャナで読み取って画像データを生成し、TIFF形式、GIF形式、PDF形式、ビットマップ形式等の画像ファイルに変換し、メールに添付するなどしてネットワークを介して接続されているサーバやコンピュータに送信することにより、記録材上の情報を電子文書化することが行われている。(例えば、特許文献1参照)。   Conventionally, information written on a recording material such as paper is read by a scanner to generate image data, converted to an image file in TIFF format, GIF format, PDF format, bitmap format, etc., and attached to an e-mail For example, information on a recording material is electronically documented by transmitting the information to a server or computer connected via a network. (For example, refer to Patent Document 1).

特開2002−215549号公報(平成14年8月2日公開)JP 2002-215549 A (published on August 2, 2002) 特開平7−192086号公報(平成7年7月28日公開)Japanese Laid-Open Patent Publication No. Hei 7-192086 (published July 28, 1995) 特開平6−189083号公報(平成6年7月8日公開)Japanese Patent Laid-Open No. 6-189083 (published July 8, 1994)

ところで、スキャナで原稿を読み取る場合、原稿が傾いた状態で読み取られたり、原稿の天地(上下方向)が逆の状態で読み取られたりする場合がある。そこで、従来の技術では、原稿から読み取った画像データに対して傾き補正、天地方向の補正等の処理を行ってから画像ファイルを行うようになっている。   By the way, when reading an original with a scanner, the original may be read in an inclined state, or may be read with the top (vertical direction) of the original being reversed. Therefore, in the conventional technique, image files read from an original are subjected to processing such as tilt correction and vertical correction, and then an image file is performed.

しかしながら、画像データの回転処理は補間処理を多数回行う必要があるので、演算装置にかかる負荷が大きく、原稿を読み取ってから画像ファイルを送信するまでの処理に時間がかかるという問題がある。   However, since rotation processing of image data requires interpolation processing to be performed many times, there is a problem that the load imposed on the arithmetic device is large and it takes time to process the image file after reading the document.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、原稿を読み取って得られた画像データに基づいて所定の形式の画像ファイルを迅速に生成するとともに、上記画像ファイルに基づいて上記画像データに応じた画像を適切に描画できるようにすることにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to quickly generate an image file of a predetermined format based on image data obtained by reading a document, and It is based on that the image corresponding to the image data can be drawn appropriately.

本発明の画像処理装置は、上記の課題を解決するために、原稿を読み取って取得した原稿画像の画像データを所定形式のデータにフォーマット化した画像ファイルを生成するフォーマット化処理部を備えた画像処理装置であって、上記画像データにおける上記原稿画像に対応する領域を検出する画像領域検出部と、上記原稿画像を描画する際に適用すべき画像処理の条件を上記画像データに基づいて検出する条件検出部と、上記画像データにおける上記画像領域検出部が検出した上記原稿画像に対応する領域以外の領域の色を所定の色に変換処理する色変換部と、上記原稿画像を描画する際に上記条件に基づく画像処理を施した状態で描画させるようにコンピュータを制御するための描画コマンドを生成する描画コマンド生成部とを備え、上記フォーマット化処理部は、上記画像ファイルとして、上記色変換部によって上記変換処理を施された後、上記画像処理を施す前の上記画像データに対して圧縮処理を施した画像データに上記描画コマンドを付加した画像ファイルを生成することを特徴としている。   In order to solve the above problems, an image processing apparatus according to the present invention includes an image processing unit that generates an image file in which image data of a document image obtained by reading a document is formatted into data of a predetermined format. An image area detection unit for detecting an area corresponding to the original image in the image data, and an image processing condition to be applied when drawing the original image based on the image data. A condition detection unit, a color conversion unit that converts a color of a region other than the region corresponding to the document image detected by the image region detection unit in the image data into a predetermined color, and when drawing the document image A drawing command generation unit that generates a drawing command for controlling the computer so as to perform drawing in a state where image processing based on the above conditions is performed. The formatting processing unit applies the drawing command to the image data that has been subjected to the compression processing on the image data after the conversion processing by the color conversion unit and before the image processing as the image file. It is characterized by generating an added image file.

また、本発明の画像処理方法は、上記の課題を解決するために、原稿を読み取って取得した原稿画像の画像データを所定形式のデータにフォーマット化した画像ファイルを生成する画像処理方法であって、上記画像データにおける上記原稿画像に対応する領域を検出する画像領域検出工程と、上記原稿画像を描画する際に適用すべき画像処理の条件を上記画像データに基づいて検出する条件検出工程と、上記画像データにおける上記画像領域検出工程で検出した上記原稿画像に対応する領域以外の領域の色を所定の色に変換処理する色変換工程と、上記原稿画像を描画する際に上記条件に基づく画像処理を施した状態で描画させるようにコンピュータを制御するための描画コマンドを生成する描画コマンド生成工程と、上記画像ファイルとして、上記色変換工程で上記変換処理を施した後、上記画像処理を施す前の上記画像データに対して圧縮処理を施した画像データに上記描画コマンドを付加した画像ファイルを生成する画像ファイル生成工程とを含むことを特徴としている。   The image processing method of the present invention is an image processing method for generating an image file in which image data of a document image obtained by reading a document is formatted into data of a predetermined format in order to solve the above problems. An image area detecting step for detecting an area corresponding to the original image in the image data; a condition detecting step for detecting an image processing condition to be applied when the original image is drawn based on the image data; A color conversion step of converting a color of a region other than the region corresponding to the document image detected in the image region detection step in the image data into a predetermined color, and an image based on the condition when the document image is drawn A drawing command generation step for generating a drawing command for controlling the computer so that drawing is performed in the processed state; An image file generation step of generating an image file in which the drawing command is added to the image data obtained by performing compression processing on the image data before the image processing after the conversion processing in the color conversion step It is characterized by including.

上記の画像処理装置および画像処理方法によれば、画像データにおける原稿画像に対応する領域を検出し、原稿画像に対応する領域以外の領域の色を所定の色に変換処理する。また、原稿画像を描画する際に適用すべき画像処理の条件を上記画像データに基づいて検出し、上記原稿画像を描画する際に上記条件に基づく画像処理を施してから描画させるようにコンピュータを制御するための描画コマンドを生成する。そして、上記変換処理を施された後、上記画像処理を施す前の上記画像データに対して圧縮処理を施した画像データに上記描画コマンドを付加した画像ファイルを生成する。   According to the image processing apparatus and the image processing method described above, an area corresponding to the document image in the image data is detected, and the color of the area other than the area corresponding to the document image is converted into a predetermined color. Further, the image processing condition to be applied when drawing the document image is detected based on the image data, and the computer is configured to perform drawing after performing image processing based on the condition when drawing the document image. Generate drawing commands to control. Then, after the conversion process, an image file is generated by adding the drawing command to the image data obtained by performing the compression process on the image data before the image process.

このように、原稿画像に対応する領域以外の領域の色を所定の色に変換してから画像データの圧縮処理を行うことにより、画像データの圧縮効率を向上させ、圧縮処理後の画像データのデータサイズを小さくできる。   In this way, by compressing the image data after converting the color of the region other than the region corresponding to the document image to a predetermined color, the compression efficiency of the image data is improved, and the compression of the image data after the compression processing is performed. Data size can be reduced.

また、上記画像処理を施す前の原稿画像の画像データに基づいて画像ファイルを生成することにより、原稿画像から読み取った画像データに関する画像ファイルの送信やファイリング等の処理を迅速に行うことができる。また、原稿画像を描画する際(例えば原稿画像をディスプレイに表示したり、記録材に印刷したりする際)に、描画コマンドに基づく画像処理を施した状態で描画させるようにコンピュータを制御できる。   Further, by generating an image file based on the image data of the original image before the image processing, it is possible to quickly perform processing such as transmission and filing of the image file relating to the image data read from the original image. Further, when drawing a document image (for example, when displaying a document image on a display or printing on a recording material), the computer can be controlled so that the drawing is performed with image processing based on a drawing command.

例えば、上記条件検出部は、上記画像データの基準方向に対する上記原稿画像の傾き角度を上記条件として検出し、上記描画コマンド生成部は、上記条件検出部が検出した傾き角度に基づいて上記原稿画像の角度を上記基準方向に一致させるかあるいは近づけるための傾き補正処理をコンピュータに行わせるための描画コマンドを生成する構成としてもよい。   For example, the condition detection unit detects an inclination angle of the document image with respect to a reference direction of the image data as the condition, and the drawing command generation unit detects the document image based on the inclination angle detected by the condition detection unit. A drawing command may be generated for causing the computer to perform an inclination correction process for making the angle coincide with or approach the reference direction.

一般に、画像データの傾き補正処理(回転処理)は演算手段にかかる負荷が大きく、処理時間が長くなる。これに対して、上記の構成によれば、画像ファイルの生成時には傾き補正処理を行わないので、画像ファイルの生成にかかる処理時間を短縮できる。また、画像を描画する際には、傾き補正処理を行った状態で描画させることができる。   In general, the inclination correction processing (rotation processing) of image data places a heavy load on the calculation means and increases the processing time. On the other hand, according to the above configuration, since the tilt correction process is not performed when the image file is generated, the processing time required for generating the image file can be shortened. Further, when drawing an image, the image can be drawn in a state in which an inclination correction process is performed.

また、上記条件検出部は、上記画像データにおける原稿に対応する画像が存在する領域の範囲を上記条件として検出し、上記描画コマンド生成部は、上記画像データから上記条件検出部が検出した上記範囲の画像データを抽出する画像抽出処理をコンピュータに行わせるための描画コマンドを生成する構成としてもよい。   The condition detection unit detects a range of an area where an image corresponding to the document in the image data exists as the condition, and the drawing command generation unit detects the range detected by the condition detection unit from the image data. It is also possible to generate a drawing command for causing a computer to perform image extraction processing for extracting the image data.

上記の構成によれば、画像ファイルの生成時には画像抽出処理を行わないので、画像ファイルの生成にかかる処理時間を短縮できる。また、画像を描画する際には、原稿に対応する画像が存在する領域を抽出して描画させることができる。   According to the above configuration, since the image extraction process is not performed when the image file is generated, the processing time required for generating the image file can be shortened. Further, when drawing an image, it is possible to extract and draw a region where an image corresponding to a document exists.

また、上記条件検出部は、上記原稿画像に含まれる文字画像の向きに基づいて上記画像データの基準方向に対する上記原稿画像の向きを90度単位で検出し、上記描画コマンド生成部は、上記条件検出部が検出した上記原稿画像の向きに基づいて上記原稿画像の向きを上記基準方向に一致させるように上記原稿画像を90度単位で回転させる天地補正処理をコンピュータに行わせるための描画コマンドを生成する構成としてもよい。   The condition detection unit detects the orientation of the document image with respect to a reference direction of the image data based on the orientation of the character image included in the document image in units of 90 degrees, and the drawing command generation unit Based on the orientation of the original image detected by the detection unit, a drawing command for causing the computer to perform a top and bottom correction process for rotating the original image in units of 90 degrees so as to match the orientation of the original image with the reference direction. It is good also as composition to generate.

上記の構成によれば、画像ファイルの生成時には天地補正処理を行わないので、画像ファイルの生成にかかる処理時間を短縮できる。また、画像を描画する際には、天地補正処理を施した状態で描画させることができる。   According to the above configuration, since the top / bottom correction processing is not performed when the image file is generated, the processing time required for generating the image file can be shortened. In addition, when drawing an image, the image can be drawn in a state where the top and bottom correction processing is performed.

また、上記条件検出部は、上記画像データに応じた画像を所定のサイズで描画するために上記画像データに施すべき変倍処理の倍率を検出し、上記描画コマンド生成部は、上記条件検出部が検出した上記倍率に基づく変倍処理をコンピュータに行わせるための描画コマンドを生成する構成としてもよい。   The condition detection unit detects a magnification of a scaling process to be performed on the image data in order to draw an image corresponding to the image data with a predetermined size, and the drawing command generation unit includes the condition detection unit. A drawing command for causing a computer to perform a scaling process based on the magnification detected by the computer may be generated.

上記の構成によれば、画像ファイルの生成時には変倍処理を行わないので、画像ファイルの生成にかかる処理時間を短縮できる。また、画像を描画する際には、画像データに応じた画像を所定のサイズで描画するための変倍処理を施した状態で描画させることができる。   According to the above configuration, since the scaling process is not performed when the image file is generated, the processing time required for generating the image file can be shortened. Further, when drawing an image, the image can be drawn in a state where a scaling process for drawing an image corresponding to the image data with a predetermined size is performed.

また、上記条件検出部は、上記画像データにおける原稿に対応する画像が存在する領域の範囲を上記条件として検出するとともに、上記画像データから上記範囲の画像データを抽出して得られる抽出画像データに応じた画像を所定のサイズで描画するために上記抽出画像デーに施すべき変倍処理の倍率を検出し、上記描画コマンド生成部は、上記画像データから上記条件検出部が検出した上記範囲の画像データを抽出する画像抽出処理と、この画像抽出処理によって得られた抽出画像データを上記条件検出部が検出した上記倍率に基づいて変倍する変倍処理とをコンピュータに行わせるための描画コマンドを生成する構成としてもよい。   The condition detection unit detects a range of an area where an image corresponding to a document in the image data is present as the condition, and extracts extracted image data obtained by extracting the image data in the range from the image data. The drawing command generation unit detects a magnification of a scaling process to be performed on the extracted image data in order to draw a corresponding image with a predetermined size, and the drawing command generation unit detects the image in the range detected by the condition detection unit from the image data. A drawing command for causing a computer to perform image extraction processing for extracting data and scaling processing for scaling the extracted image data obtained by the image extraction processing based on the magnification detected by the condition detection unit. It is good also as composition to generate.

上記の構成によれば、画像ファイルの生成時には画像抽出処理および変倍処理を行わないので、画像ファイルの生成にかかる処理時間を短縮できる。また、画像を描画する際には、原稿に対応する画像が存在する領域を抽出し、抽出した領域の画像を所定のサイズに変倍処理して描画させることができる。   According to the above configuration, since the image extraction process and the scaling process are not performed when the image file is generated, the processing time required for generating the image file can be shortened. Further, when drawing an image, it is possible to extract a region where an image corresponding to a document exists and to draw the image of the extracted region by scaling processing to a predetermined size.

また、上記フォーマット化処理部が、上記原稿画像の画像データに上記画像処理を施してから上記画像ファイルを生成する通常モードと、上記フォーマット化処理部が、上記画像処理を施す前の上記原稿画像の画像データに上記描画コマンドを付加した画像ファイルを生成する簡易モードとを備えている構成としてもよい。   In addition, a normal mode in which the formatting processing unit performs the image processing on the image data of the document image and then generates the image file; and the document image before the formatting processing unit performs the image processing. A simple mode for generating an image file in which the drawing command is added to the image data may be provided.

上記の構成によれば、画像処理を施した後の画像データに基づいて画像ファイルを生成する通常モードと、画像処理を施す前の画像データに描画コマンドを付加した画像ファイルを生成する簡易モードとを、必要に応じて使い分けることができる。   According to the above configuration, the normal mode for generating the image file based on the image data after the image processing is performed, and the simple mode for generating the image file in which the drawing command is added to the image data before the image processing is performed, Can be used as needed.

また、上記フォーマット化処理部は、上記画像データに基づいてPDF形式、TIFF形式、およびEXIF規格のJPEG形式のうちのいずれかの画像ファイルを生成する構成としてもよい。   The formatting processing unit may be configured to generate an image file of any one of a PDF format, a TIFF format, and an EXIF standard JPEG format based on the image data.

上記の構成によれば、画像データに基づいてPDF形式、TIFF形式、およびEXIF規格のJPEG形式のうちのいずれかの画像ファイルを生成し、描画コマンドを当該画像ファイルに含めることができる。   According to the above configuration, any one of the PDF format, the TIFF format, and the JPEG format of the EXIF standard can be generated based on the image data, and the drawing command can be included in the image file.

本発明の画像読取装置は、原稿を読み取って原稿画像の画像データを取得する画像読取部と、上記したいずれかの画像処理装置とを備えている。   An image reading apparatus of the present invention includes an image reading unit that reads a document and acquires image data of the document image, and any one of the image processing devices described above.

上記の構成によれば、原稿画像から読み取った画像データに関する画像ファイルの送信やファイリング等の処理を迅速に行うことができる。また、原稿画像を描画する際(例えば原稿画像をディスプレイに表示したり、記録材に印刷したりする際)に、描画コマンドに基づく画像処理を施した状態で描画させるようにコンピュータを制御できる。   According to the above configuration, it is possible to quickly perform processing such as transmission and filing of an image file relating to image data read from a document image. Further, when drawing a document image (for example, when displaying a document image on a display or printing on a recording material), the computer can be controlled so that the drawing is performed with image processing based on a drawing command.

本発明の画像送信装置は、上記したいずれかの画像処理装置と、上記フォーマット化処理部によって生成された画像ファイルを通信可能に接続された他の装置に送信する通信部とを備えていることを特徴としている。   An image transmission apparatus according to the present invention includes any one of the above-described image processing apparatuses and a communication unit that transmits the image file generated by the formatting processing unit to another device connected to be communicable. It is characterized by.

上記の構成によれば、原稿画像の画像データに対して上記画像処理を施すことなく送信することができるので、画像処理装置の負荷を軽減して画像を読み取ってから送信するまでの処理を迅速に行うことができる。また、送信先の装置において画像データに応じた画像を描画する際に、描画コマンドに基づく画像処理を施した状態で描画させることができるので、原稿画像を適切な状態で描画させることができる。   According to the above configuration, the image data of the original image can be transmitted without being subjected to the above image processing, so that the load from the image processing device is reduced and the processing from reading the image to transmitting it can be performed quickly. Can be done. In addition, when an image corresponding to image data is drawn in the transmission destination apparatus, the image can be drawn in a state where image processing based on the drawing command is performed, so that the document image can be drawn in an appropriate state.

本発明の画像形成装置は、上記したいずれかの画像処理装置と、上記フォーマット化処理部によって生成された画像ファイルを記憶する記憶部と、上記記憶部に記憶された画像ファイルを読み出し、当該画像ファイルに含まれる上記描画コマンドに基づいて画像処理を施す画像処理部と、上記画像処理を施した画像データに応じた画像を記録材上に印刷する画像形成部とを備えている。   The image forming apparatus of the present invention reads any one of the above-described image processing apparatuses, a storage unit that stores the image file generated by the formatting processing unit, and an image file stored in the storage unit, An image processing unit that performs image processing based on the drawing command included in the file; and an image forming unit that prints an image corresponding to the image data subjected to the image processing on a recording material.

上記の構成によれば、原稿画像の画像データに対して上記画像処理を施すことなく記憶部に記憶させるので、原稿を読み取ってから記憶するまでの処理を迅速に行うことができる。また、上記画像データに応じた画像を印刷したりする際に、記憶部から読み出した画像ファイルに含まれる描画コマンドに基づく画像処理を行ってから印刷することができるので、原稿画像に応じた画像を適切な状態で印刷できる。   According to the above configuration, the image data of the document image is stored in the storage unit without being subjected to the image processing, so that the processing from reading the document to storing it can be quickly performed. In addition, when printing an image according to the image data, the image can be printed after performing image processing based on a drawing command included in the image file read from the storage unit. Can be printed in an appropriate state.

なお、上記画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより、上記画像処理装置をコンピュータにて実現させる画像処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。   The image processing apparatus may be realized by a computer. In this case, an image processing program for causing the image processing apparatus to be realized by the computer by causing the computer to operate as the respective units, and the program are recorded. Computer-readable recording media are also included in the scope of the present invention.

以上のように、本発明の画像処理装置は、原稿を読み取って取得した原稿画像の画像データを所定形式のデータにフォーマット化した画像ファイルを生成するフォーマット化処理部を備えた画像処理装置であって、上記画像データにおける上記原稿画像に対応する領域を検出する画像領域検出部と、上記原稿画像を描画する際に適用すべき画像処理の条件を上記画像データに基づいて検出する条件検出部と、上記画像データにおける上記画像領域検出部が検出した上記原稿画像に対応する領域以外の領域の色を所定の色に変換処理する色変換部と、上記原稿画像を描画する際に上記条件に基づく画像処理を施した状態で描画させるようにコンピュータを制御するための描画コマンドを生成する描画コマンド生成部とを備え、上記フォーマット化処理部は、上記画像ファイルとして、上記色変換部によって上記変換処理を施された後、上記画像処理を施す前の上記画像データに対して圧縮処理を施した画像データに上記描画コマンドを付加した画像ファイルを生成する。   As described above, the image processing apparatus of the present invention is an image processing apparatus including a formatting processing unit that generates an image file in which image data of a document image obtained by reading a document is formatted into data of a predetermined format. An image area detecting unit for detecting an area corresponding to the document image in the image data, and a condition detecting unit for detecting a condition of image processing to be applied when drawing the document image based on the image data A color conversion unit that converts a color of a region other than the region corresponding to the document image detected by the image region detection unit in the image data to a predetermined color, and based on the condition when the document image is drawn A drawing command generation unit for generating a drawing command for controlling the computer so that the image processing is performed, and the above format The processing unit adds, as the image file, the drawing command to the image data that has been subjected to the conversion processing by the color conversion unit and then subjected to compression processing on the image data before the image processing is performed. Generate an image file.

また、本発明の画像処理方法は、原稿を読み取って取得した原稿画像の画像データを所定形式のデータにフォーマット化した画像ファイルを生成する画像処理方法であって、上記画像データにおける上記原稿画像に対応する領域を検出する画像領域検出工程と、上記原稿画像を描画する際に適用すべき画像処理の条件を上記画像データに基づいて検出する条件検出工程と、上記画像データにおける上記画像領域検出工程で検出した上記原稿画像に対応する領域以外の領域の色を所定の色に変換処理する色変換工程と、上記原稿画像を描画する際に上記条件に基づく画像処理を施した状態で描画させるようにコンピュータを制御するための描画コマンドを生成する描画コマンド生成工程と、上記画像ファイルとして、上記色変換工程で上記変換処理を施した後、上記画像処理を施す前の上記画像データに対して圧縮処理を施した画像データに上記描画コマンドを付加した画像ファイルを生成する画像ファイル生成工程とを含む。   The image processing method of the present invention is an image processing method for generating an image file obtained by formatting image data of a document image obtained by reading a document into data of a predetermined format. An image region detecting step for detecting a corresponding region, a condition detecting step for detecting image processing conditions to be applied when the original image is drawn based on the image data, and the image region detecting step for the image data A color conversion step of converting the color of the area other than the area corresponding to the original image detected in step 1 into a predetermined color, and drawing with the image processing based on the above conditions when drawing the original image A drawing command generation step for generating a drawing command for controlling the computer, and the image conversion as the image file in the color conversion step. It was subjected to physical, and an image file generating step of generating an image file by adding the drawing command to the image data subjected to the compression process on before the image data subjected to the image processing.

それゆえ、画像データの圧縮効率を向上させ、圧縮処理後の画像データのデータサイズを小さくできる。また、原稿画像から読み取った画像データに関する画像ファイルの送信やファイリング等の処理を迅速に行うことができる。また、原稿画像を描画する際に、描画コマンドに基づく画像処理を施した状態で描画させるようにコンピュータを制御できる。   Therefore, the compression efficiency of the image data can be improved, and the data size of the image data after the compression process can be reduced. Further, it is possible to quickly perform processing such as transmission and filing of an image file relating to image data read from a document image. Further, when drawing a document image, the computer can be controlled so as to draw in a state where image processing based on a drawing command is performed.

本発明の一実施形態にかかる画像処理装置における処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process in the image processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理装置(画像読取装置、画像形成装置)の概略構成、および画像形成モードにおけるデータの流れを示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus (an image reading apparatus and an image forming apparatus) according to an embodiment of the present invention, and a data flow in an image forming mode. 図2に示した画像処理装置における通常送信モードでのデータの流れを示すブロック図である。FIG. 3 is a block diagram illustrating a data flow in a normal transmission mode in the image processing apparatus illustrated in FIG. 2. 図2に示した画像処理装置における簡易送信モードでのデータの流れを示すブロック図である。FIG. 3 is a block diagram showing a data flow in a simple transmission mode in the image processing apparatus shown in FIG. 2. 図2に示した画像処理装置に備えられる画像入力装置の構成例を示す断面図である。It is sectional drawing which shows the structural example of the image input device with which the image processing apparatus shown in FIG. 2 is equipped. 図2に示した画像処理装置に備えられる原稿検知部の概略構成を示すブロック図である。FIG. 3 is a block diagram illustrating a schematic configuration of a document detection unit provided in the image processing apparatus illustrated in FIG. 2. 図5に示した画像入力装置におけるスキャン範囲とスキャン時の原稿位置との関係の一例を示す説明図である。FIG. 6 is an explanatory diagram illustrating an example of a relationship between a scan range and a document position at the time of scanning in the image input apparatus illustrated in FIG. 5. 図2に示した画像処理装置における画像データの天地方向と、原稿画像の天地方向との関係を示す説明図である。FIG. 3 is an explanatory diagram illustrating a relationship between a vertical direction of image data and a vertical direction of a document image in the image processing apparatus illustrated in FIG. 2. 図2に示した画像処理装置における画像処理装置における原稿画像領域の判定方法を示す説明図である。FIG. 3 is an explanatory diagram showing a method for determining a document image area in the image processing apparatus in the image processing apparatus shown in FIG. 2. 図2に示した画像処理装置において中間調補正処理に用いるガンマ曲線の一例を示すグラフである。3 is a graph showing an example of a gamma curve used for halftone correction processing in the image processing apparatus shown in FIG. 2. 図2に示した画像処理装置において簡易送信モードのときに送信される画像ファイルの構成を示す説明図である。FIG. 3 is an explanatory diagram illustrating a configuration of an image file transmitted in the simple transmission mode in the image processing apparatus illustrated in FIG. 2. (a)は図11に示した画像ファイルにおける文書カタログ記述部に対する記述内容の一例を示しており、(b)は図11に示した画像ファイルにおけるページ記述部に対する記述内容の一例を示しており、(c)は図11に示した画像ファイルにおける画像データ記述部に対する記述内容の一例を示している。(A) shows an example of description contents for the document catalog description part in the image file shown in FIG. 11, and (b) shows an example of description contents for the page description part in the image file shown in FIG. , (C) shows an example of description contents for the image data description part in the image file shown in FIG. (a)は図2に示した画像入力装置で読み取られた画像データの一例を示しており、(b)は(a)に示した画像データを図14に示した画像描画記述部の記述に基づいて表示させた画像を示す説明図である。(A) shows an example of image data read by the image input device shown in FIG. 2, and (b) shows the image data shown in (a) in the description of the image drawing description section shown in FIG. It is explanatory drawing which shows the image displayed based on. 図2に示した画像処理装置において簡易送信モードのときに送信される画像ファイルにおける画像描画記述部に対する記述内容の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of description contents for an image drawing description portion in an image file transmitted in the simple transmission mode in the image processing apparatus illustrated in FIG. 2. (a)は図2に示した画像入力装置で読み取られた画像データの一例を示しており、(b)は(a)に示した画像データを図16に示した画像描画記述部の記述に基づいて表示させた画像を示す説明図である。(A) shows an example of the image data read by the image input device shown in FIG. 2, and (b) shows the image data shown in (a) in the description of the image drawing description section shown in FIG. It is explanatory drawing which shows the image displayed based on. 図2に示した画像処理装置において簡易送信モードのときに送信される画像ファイルにおける画像描画記述部に対する記述内容の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of description contents for an image drawing description portion in an image file transmitted in the simple transmission mode in the image processing apparatus illustrated in FIG. 2. (a)は図2に示した画像入力装置で読み取られた画像データの一例を示しており、(b)は(a)に示した画像データを図18に示した画像描画記述部の記述に基づいて表示させた画像を示す説明図である。(A) shows an example of the image data read by the image input device shown in FIG. 2, and (b) shows the image data shown in (a) in the description of the image drawing description section shown in FIG. It is explanatory drawing which shows the image displayed based on. 図2に示した画像処理装置において簡易送信モードのときに送信される画像ファイルにおける画像描画記述部に対する記述内容の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of description contents for an image drawing description portion in an image file transmitted in the simple transmission mode in the image processing apparatus illustrated in FIG. 2. (a)は図2に示した画像入力装置で読み取られた画像データの一例を示しており、(b)は(a)に示した画像データを図20に示した画像描画記述部の記述に基づいて表示させた画像を示す説明図である。(A) shows an example of image data read by the image input device shown in FIG. 2, and (b) shows the image data shown in (a) in the description of the image drawing description section shown in FIG. It is explanatory drawing which shows the image displayed based on. 図2に示した画像処理装置において簡易送信モードのときに送信される画像ファイルにおける画像描画記述部に対する記述内容の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of description contents for an image drawing description portion in an image file transmitted in the simple transmission mode in the image processing apparatus illustrated in FIG. 2. 図2に示した画像処理装置の変形例を示すブロック図である。It is a block diagram which shows the modification of the image processing apparatus shown in FIG. 図2に示した画像処理装置の変形例を示すブロック図である。It is a block diagram which shows the modification of the image processing apparatus shown in FIG. 図2に示した画像処理装置の変形例を示すブロック図である。It is a block diagram which shows the modification of the image processing apparatus shown in FIG. 図2に示した画像処理装置における、原稿の載置方向と主走査方向の読み取り解像度および副走査方向の読み取り解像度との関係を示す説明図である。FIG. 3 is an explanatory diagram showing the relationship between the document placement direction, the reading resolution in the main scanning direction, and the reading resolution in the sub-scanning direction in the image processing apparatus shown in FIG. 2.

本発明の一実施形態について説明する。なお、本実施形態では、主に、本発明をデジタルカラー複合機に適用する場合の一例について説明する。   An embodiment of the present invention will be described. In the present embodiment, an example in the case where the present invention is applied to a digital color multifunction peripheral will be mainly described.

(1)デジタルカラー複合機の全体構成
図2〜図4は、本実施形態にかかるデジタルカラー複合機1の概略構成を示すブロック図である。なお、デジタルカラー複合機1は、(1)画像入力装置2で読み取った画像データに応じた画像を画像出力装置4によって記録材上に形成する画像形成モード、(2)画像入力装置2で読み取った画像データに傾き補正等の処理を施し、処理後の画像データを通信装置5によって外部装置に送信する通常送信モード、および(3)画像入力装置2で読み取った画像データから検出した、描画時に適用すべき条件を示す情報と上記条件に対応する画像処理を行う前の上記画像データとを通信装置5によって外部装置に送信する簡易送信モードを備えている。そして、図2は画像形成モードにおけるデータの流れ、図3は通常送信モードにおけるデータの流れ、図4は簡易送信モードにおけるデータの流れを示している。
(1) Overall Configuration of Digital Color Multifunction Device FIGS. 2 to 4 are block diagrams showing a schematic configuration of the digital color multifunction device 1 according to the present embodiment. The digital color multifunction peripheral 1 is (1) an image forming mode in which an image corresponding to image data read by the image input device 2 is formed on a recording material by the image output device 4, and (2) the image input device 2 reads the image. A normal transmission mode in which the image data is subjected to processing such as tilt correction and the processed image data is transmitted to the external device by the communication device 5; and (3) at the time of drawing detected from the image data read by the image input device 2. A simple transmission mode is provided in which information indicating the condition to be applied and the image data before image processing corresponding to the condition are transmitted to an external device by the communication device 5. 2 shows the data flow in the image forming mode, FIG. 3 shows the data flow in the normal transmission mode, and FIG. 4 shows the data flow in the simple transmission mode.

図2〜図4に示すように、デジタルカラー複合機1は、画像入力装置2、画像処理装置3、画像出力装置4、通信装置5、および操作パネル6を備えている。   As shown in FIGS. 2 to 4, the digital color multifunction peripheral 1 includes an image input device 2, an image processing device 3, an image output device 4, a communication device 5, and an operation panel 6.

画像入力装置2は、原稿の画像を読み取って画像データを生成するものであり、例えばCCD(Charge Coupled Device )などの光学情報を電気信号に変換するデバイスを備えたスキャナ部(図示せず)より構成されている。本実施形態では、画像入力装置2は、原稿からの反射光像を、RGB(R:赤・G:緑・B:青)のアナログ信号として画像処理装置3に出力する。   The image input device 2 reads an image of a document and generates image data. For example, a scanner unit (not shown) including a device that converts optical information such as a CCD (Charge Coupled Device) into an electrical signal. It is configured. In the present embodiment, the image input device 2 outputs the reflected light image from the document to the image processing device 3 as RGB (R: red, G: green, B: blue) analog signals.

図5は、画像入力装置2の一例を示す断面図である。この図に示す画像入力装置2は、上部筐体60と下部筐体61とを備えている。上部筐体(原稿カバー)60は、原稿押さえマット57、整合ローラ対55、原稿搬送路56、イメージセンサ部53、上側原稿搬送ガイド58等を備えており、下部筐体61は、第1コンタクトガラス(原稿台)51、第2コンタクトガラス52、読取部70、遮光部材59等を備えている。また、上部筐体60は下部筐体61に対して開閉可能に構成されている。   FIG. 5 is a cross-sectional view illustrating an example of the image input device 2. The image input apparatus 2 shown in this figure includes an upper housing 60 and a lower housing 61. The upper housing (original cover) 60 includes an original holding mat 57, an alignment roller pair 55, an original conveying path 56, an image sensor unit 53, an upper original conveying guide 58, and the like, and the lower casing 61 has a first contact. A glass (original table) 51, a second contact glass 52, a reading unit 70, a light shielding member 59, and the like are provided. Further, the upper housing 60 is configured to be openable and closable with respect to the lower housing 61.

なお、画像入力装置2は、(1)第1コンタクトガラス51上に載置された原稿の下面側を読取部70によって読み取る静止読取モード、(2)第2コンタクトガラス52上を走行(移動)する原稿の下面側を読取部70によって読み取る走行読取モード、および(3)第2コンタクトガラス52上を走行(移動)する原稿の下面側を読取部70によって読み取るとともに、上面側をイメージセンサ部53で読み取る両面読取モードを備えている。   The image input device 2 includes (1) a stationary reading mode in which the reading unit 70 reads the lower surface side of the document placed on the first contact glass 51, and (2) travels (moves) on the second contact glass 52. The reading reading unit 70 reads the lower surface side of the original to be read, and (3) the lower surface side of the original traveling (moving) on the second contact glass 52 is read by the reading unit 70 and the upper surface side is read by the image sensor unit 53. A double-sided scanning mode is provided.

整合ローラ対55は、走行読取モードおよび両面読取モードにおいて、搬送されてきた原稿の先端が搬送方向に垂直になるように原稿の角度を整合させるためのものである。搬送された原稿の先端が回転停止状態の整合ローラ対55のニップ部に付き当たることによってこの原稿に所定の撓みを形成され、その後、整合ローラ対55を回転させることによって上記原稿の向きが整合されて整合ローラ対55の下流側に搬送される。   The alignment roller pair 55 is for aligning the angle of the original so that the leading edge of the conveyed original is perpendicular to the conveyance direction in the traveling reading mode and the double-sided reading mode. When the leading edge of the conveyed document comes into contact with the nip portion of the alignment roller pair 55 in the rotation stopped state, a predetermined deflection is formed on the document, and then the orientation of the document is aligned by rotating the alignment roller pair 55. Then, it is conveyed downstream of the alignment roller pair 55.

イメージセンサ部53は、両面モードが選択されたときに、第2コンタクトガラス52上を搬送される原稿の上面側の画像を読み取るためのものである。   The image sensor unit 53 is for reading an image on the upper surface side of the document conveyed on the second contact glass 52 when the duplex mode is selected.

原稿押さえマット57は、静止読取モードが選択されたときに、第1コンタクトガラス51上に載置された原稿を第1コンタクトガラス51側に押さえつけて原稿の位置を安定させるためのものである。   The document pressing mat 57 is used to stabilize the position of the document by pressing the document placed on the first contact glass 51 against the first contact glass 51 when the stationary reading mode is selected.

読取部70は、第1走査ユニット63、第2走査ユニット64、結像レンズ65、およびCCD(Charge Coupled Device)66を備えている。   The reading unit 70 includes a first scanning unit 63, a second scanning unit 64, an imaging lens 65, and a CCD (Charge Coupled Device) 66.

第1走査ユニット63は、原稿の読み取り面を露光する光源(露光ランプ)62と、原稿からの反射光を第2走査ユニット64に向けて反射する第1反射ミラー67とを備えている。   The first scanning unit 63 includes a light source (exposure lamp) 62 that exposes a reading surface of a document, and a first reflection mirror 67 that reflects reflected light from the document toward the second scanning unit 64.

なお、第1走査ユニット63は、静止読取モード時には、第1コンタクトガラス51に対して平行に図のPの位置から右に向かって原稿サイズに応じた距離だけ一定速度Vで移動しながら、第1コンタクトガラス51上に載置された原稿を光源62から出射した光で露光し、原稿からの反射光を第1反射ミラー67で反射させて第2走査ユニット64に導く。上記の原稿サイズは、図示しない原稿サイズ検出手段(例えば、フォトトランジスタなどの光電変換素子からなる原稿サイズ検出手段)によって第1コンタクトガラス51上に載置された原稿サイズを検知した結果であってもよく、ユーザが操作パネルを介して入力したものであってもよい。なお、本実施形態では、第1コンタクトガラス51は、A3サイズまでの原稿を読み取り可能な大きさに形成されている。   In the stationary reading mode, the first scanning unit 63 moves at a constant speed V by a distance corresponding to the document size from the position P in the drawing to the right in parallel with the first contact glass 51. A document placed on one contact glass 51 is exposed with light emitted from a light source 62, and reflected light from the document is reflected by a first reflection mirror 67 and guided to a second scanning unit 64. The document size described above is a result of detecting the size of the document placed on the first contact glass 51 by a document size detection unit (not shown) (for example, a document size detection unit including a photoelectric conversion element such as a phototransistor). Alternatively, it may be input by the user via the operation panel. In the present embodiment, the first contact glass 51 is formed in a size that can read a document of up to A3 size.

また、第1走査ユニット63は、走行読取モード時および両面読取モード時には、第2コンタクトガラス52に対向する所定の位置において、第2コンタクトガラス52上を搬送される原稿を光源62から出射した光で露光し、原稿からの反射光を第1反射ミラー67で反射させて第2走査ユニット64に導く。   The first scanning unit 63 also emits light emitted from the light source 62 at the predetermined position facing the second contact glass 52 in the traveling reading mode and the double-sided reading mode. The reflected light from the original is reflected by the first reflecting mirror 67 and guided to the second scanning unit 64.

第2走査ユニット64は、第2反射ミラー68と第3反射ミラー69とを備えており、これら両ミラーによって第1反射ミラー67から入射した光を結像レンズ65およびCCD66に導くように構成されている。なお、第2走査ユニット64は、静止読取モードでは第1走査ユニット63に追随してV/2の速度で移動するようになっている。   The second scanning unit 64 includes a second reflecting mirror 68 and a third reflecting mirror 69, and is configured to guide light incident from the first reflecting mirror 67 to the imaging lens 65 and the CCD 66 by these mirrors. ing. The second scanning unit 64 moves at a speed of V / 2 following the first scanning unit 63 in the stationary reading mode.

遮光部材59は、読取部54の光源62の光が、イメージセンサ部53に入射することによってイメージセンサ部53が画像を適切な濃度で読み取れなくなることを防止するためのものである。   The light shielding member 59 is for preventing the image sensor unit 53 from reading an image at an appropriate density due to the light of the light source 62 of the reading unit 54 entering the image sensor unit 53.

結像レンズ65は、第3反射ミラー69から入射した原稿からの反射光を、CCD66上に結像させるためのものである。   The imaging lens 65 is for imaging the reflected light from the original incident from the third reflection mirror 69 on the CCD 66.

CCD66は、結像レンズ65を介して入射した光をアナログの電気信号に変換するためのものである。なお、この電気信号は、後述する画像処理装置3によってデジタルの画像データに変換される。なお、両面読取モードの場合、読取部70によって読み取られた原稿の下面側の画像データが画像処理装置3に入力されて処理され、その後、イメージセンサ部53によって読み取られた原稿の上面側の画像データが画像処理装置3に入力されて処理される。画像処理装置3において原稿の下面側の画像データが処理されている間、イメージセンサ部53によって読み取られた原稿の上面側の画像データは図示しないメモリに一旦格納されており、原稿の上面側の画像データに対する処理が終了した時にこのメモリから読み出されて画像処理装置3に送られ、処理が施される。   The CCD 66 is for converting light incident through the imaging lens 65 into an analog electric signal. This electric signal is converted into digital image data by an image processing device 3 described later. In the double-sided reading mode, the image data on the lower surface side of the document read by the reading unit 70 is input to the image processing device 3 and processed, and then the image on the upper surface side of the document read by the image sensor unit 53. Data is input to the image processing apparatus 3 and processed. While the image data on the lower surface side of the document is being processed in the image processing device 3, the image data on the upper surface side of the document read by the image sensor unit 53 is temporarily stored in a memory (not shown) and is stored on the upper surface side of the document. When the processing for the image data is completed, it is read from this memory and sent to the image processing device 3 for processing.

画像処理装置3は、図2〜図4に示すように、A/D変換部11、シェーディング補正部12、入力処理部13、原稿検知部(条件検出部、画像領域検出部)14、原稿補正部15、色補正部(色変換部)16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、中間調生成部(中間調生成部)20、領域分離部21、送信データ生成部22、記憶部23、および制御部24を備えている。記憶部23は画像処理装置3で扱われる各種データ(画像データ等)を記憶する記憶手段である。記憶部23の構成は特に限定されるものではないが、例えばハードディスクなどを用いることができる。また、制御部24は、画像処理装置3に備えられる各部の動作を制御する制御手段である。この制御部24は、デジタルカラー複合機1の主制御部(図示せず)に備えられるものであってもよく、主制御部とは別に備えられ、主制御部と協働して処理を行うものであってもよい。   As shown in FIGS. 2 to 4, the image processing apparatus 3 includes an A / D conversion unit 11, a shading correction unit 12, an input processing unit 13, a document detection unit (condition detection unit, image area detection unit) 14, document correction. 15, color correction unit (color conversion unit) 16, black generation and under color removal unit 17, spatial filter processing unit 18, output tone correction unit 19, halftone generation unit (halftone generation unit) 20, region separation unit 21 A transmission data generation unit 22, a storage unit 23, and a control unit 24. The storage unit 23 is a storage unit that stores various data (image data and the like) handled by the image processing apparatus 3. The configuration of the storage unit 23 is not particularly limited, and for example, a hard disk or the like can be used. The control unit 24 is a control unit that controls the operation of each unit provided in the image processing apparatus 3. The control unit 24 may be provided in a main control unit (not shown) of the digital color multifunction peripheral 1, and is provided separately from the main control unit and performs processing in cooperation with the main control unit. It may be a thing.

画像処理装置3は、画像形成モードでは、画像入力装置2から入力された画像データに種々の画像処理を施して得られるCMYKの画像データを画像出力装置4に出力する。また、通常送信モードでは、画像入力装置2から入力された画像データに傾き補正処理、原稿画像領域抽出処理、変倍処理、回転処理等の画像処理を施すと共に、画像処理後の画像データに基づいて一般に普及している表示装置の表示特性に適合したR’G’B’の画像データ(例えば、sRGBデータ)を生成し、生成したR’G’B’の画像データを所定のフォーマットに変換して通信装置5に出力する。また、簡易送信モードでは、画像入力装置2から入力された画像データに基づいてこの画像データにおける原稿画像に対応する領域である原稿画像領域を検出し、原稿画像領域以外の領域の色を所定の色(例えば白または黒)に変換する。また、原稿画像領域以外の領域の色を上記のように変換した画像データに基づいて、一般に普及している表示装置の表示特性に適合したR’G’B’の画像データ(例えば、sRGBデータ)を生成すると共に、この画像データ所定の形式で圧縮処理した画像データと、この画像データを外部装置において表示させる際に適用すべき傾き補正処理、天地補正処理、画像抽出処理等に関するパラメータを示す描画コマンドとを所定のフォーマットに変換して通信装置5に出力する。なお、画像処理装置3の詳細については後述する。   In the image forming mode, the image processing apparatus 3 outputs CMYK image data obtained by performing various image processing on the image data input from the image input apparatus 2 to the image output apparatus 4. In the normal transmission mode, the image data input from the image input device 2 is subjected to image processing such as tilt correction processing, document image region extraction processing, scaling processing, and rotation processing, and based on the image data after image processing. R'G'B 'image data (for example, sRGB data) suitable for the display characteristics of display devices that are widely used, and the generated R'G'B' image data is converted into a predetermined format. And output to the communication device 5. Further, in the simple transmission mode, based on the image data input from the image input device 2, a document image area corresponding to the document image in this image data is detected, and the color of the area other than the document image area is set to a predetermined color. Convert to color (eg white or black). Further, based on the image data obtained by converting the color of the area other than the original image area as described above, R′G′B ′ image data (for example, sRGB data) suitable for the display characteristics of a display device that is generally popular. ) And image data compressed in a predetermined format, and parameters relating to tilt correction processing, top correction processing, image extraction processing, and the like to be applied when the image data is displayed on an external device The drawing command is converted into a predetermined format and output to the communication device 5. Details of the image processing apparatus 3 will be described later.

画像出力装置4は、画像処理装置3から入力された画像データを記録材(例えば紙等)上に出力するものである。画像出力装置4の構成は特に限定されるものではなく、例えば、電子写真方式やインクジェット方式を用いた画像出力装置を用いることができる。   The image output device 4 outputs the image data input from the image processing device 3 onto a recording material (for example, paper). The configuration of the image output device 4 is not particularly limited, and for example, an image output device using an electrophotographic method or an inkjet method can be used.

通信装置5は、例えばモデムやネットワークカードより構成される。通信装置5は、ネットワークカード、LANケーブル等を介して、ネットワークに接続された他の装置(例えば、パーソナルコンピュータ、サーバ装置、表示装置、他のデジタル複合機、ファクシミリ装置等)とデータ通信を行う。通信装置5は、画像データを送信する場合、相手先との送信手続きを行って送信可能な状態が確保されると、所定の形式で圧縮された画像データをメモリから読み出し、圧縮形式の変更など必要な処理を施して、通信回線を介して相手先に順次送信する。また、通信装置5は、画像データを受信する場合、通信手続きを行うとともに、相手先から送信されてくる画像データを受信して画像処理装置3に入力する。受信した画像データは、画像処理装置3で伸張処理、回転処理、解像度変換処理、出力階調補正、階調再現処理などの所定の処理が施され、画像出力装置4によって出力される。なお、受信した画像データを記憶装置(図示せず)に保存し、画像処理装置3が必要に応じて読み出して上記所定の処理を施すようにしてもよい。   The communication device 5 is composed of a modem or a network card, for example. The communication device 5 performs data communication with another device (for example, a personal computer, a server device, a display device, another digital multifunction peripheral, a facsimile device, etc.) connected to the network via a network card, a LAN cable, or the like. . When transmitting the image data, the communication device 5 reads the image data compressed in a predetermined format from the memory, changes the compression format, etc. when the transmission state with the other party is ensured and the transmission is possible. Necessary processing is performed, and the data is sequentially transmitted to the other party via the communication line. Further, when receiving the image data, the communication device 5 performs a communication procedure, receives the image data transmitted from the other party, and inputs it to the image processing device 3. The received image data is subjected to predetermined processing such as expansion processing, rotation processing, resolution conversion processing, output gradation correction, gradation reproduction processing, and the like by the image processing apparatus 3 and is output by the image output apparatus 4. Note that the received image data may be stored in a storage device (not shown), and the image processing device 3 may read it out as necessary to perform the predetermined processing.

操作パネル6は、例えば、液晶ディスプレイなどの表示部と設定ボタンなどより構成され(いずれも図示せず)、デジタルカラー複合機1の主制御部(図示せず)の指示に応じた情報を上記表示部に表示するとともに、上記設定ボタンを介してユーザから入力される情報を上記主制御部に伝達する。ユーザは、操作パネル6を介して入力画像データに対する処理モード、印刷枚数、用紙サイズ、送信先アドレスなどの各種情報を入力することができる。   The operation panel 6 includes, for example, a display unit such as a liquid crystal display and setting buttons (none of which are shown), and information corresponding to an instruction from a main control unit (not shown) of the digital color multifunction peripheral 1 is described above. While displaying on a display part, the information input from a user via the said setting button is transmitted to the said main control part. The user can input various information such as a processing mode, the number of printed sheets, a paper size, and a transmission destination address for the input image data via the operation panel 6.

上記主制御部は、例えばCPU(Central Processing Unit)等からなり、図示しないROM等に格納されたプログラムや各種データ、操作パネル6から入力される情報等に基づいて、デジタルカラー複合機1の各部の動作を制御する。   The main control unit includes, for example, a CPU (Central Processing Unit) and the like, and is based on programs and various data stored in a ROM (not shown) and the like, information input from the operation panel 6, and the like. To control the operation.

次に、画像処理装置3に備えられる各部における上記各モードでの処理について説明する。   Next, processing in each mode described above in each unit provided in the image processing apparatus 3 will be described.

(2)画像処理装置3における処理の概要
図1は、画像処理装置3における概略的な処理の流れを示すフロー図である。この図に示すように、まず、制御部24は、操作パネル6を介して入力されるユーザからの処理モードの選択指示を受け付ける(S1)。また、画像入力装置2から、原稿を読み取って得られた画像データを取得する(S2)。
(2) Outline of Processing in Image Processing Device 3 FIG. 1 is a flowchart showing a schematic processing flow in the image processing device 3. As shown in this figure, first, the control unit 24 accepts a processing mode selection instruction from the user input via the operation panel 6 (S1). Further, image data obtained by reading a document is acquired from the image input device 2 (S2).

その後、制御部24は、原稿検知部(条件検出部)14に傾き角度の検出(S3)、および天地方向の判定(S4)を行わせる。   Thereafter, the control unit 24 causes the document detection unit (condition detection unit) 14 to detect the tilt angle (S3) and to determine the vertical direction (S4).

その後、制御部24は、S1で選択指示された処理モードが画像形成モードであるか否かを判断する(S5)。そして、画像形成モードが選択されたと判断した場合、S2における傾き角度の検出結果に基づいて原稿補正部15に傾き補正処理を行わせ(S6)、S3における天地方向の判定結果に基づいて原稿補正部15に天地補正処理を行わせ(S7)、傾き補正処理および天地補正処理を施した画像データを画像出力装置4に出力させ(S8)、処理を終了する。   Thereafter, the control unit 24 determines whether or not the processing mode selected and instructed in S1 is the image forming mode (S5). If it is determined that the image forming mode is selected, the document correction unit 15 is caused to perform an inclination correction process based on the detection result of the inclination angle in S2 (S6), and the document correction is performed based on the determination result of the vertical direction in S3. The unit 15 performs the top / bottom correction processing (S7), causes the image output device 4 to output the image data subjected to the tilt correction processing and the top / bottom correction processing (S8), and ends the processing.

一方、S5において画像形成モードではないと判断した場合、制御部24は、原稿検知部(画像領域検出部)14に画像データにおける原稿画像領域の検出処理を行わせる(S9)。   On the other hand, if it is determined in S5 that the image forming mode is not selected, the control unit 24 causes the document detection unit (image region detection unit) 14 to perform document image region detection processing in the image data (S9).

さらに、制御部24は、S1で選択指示された処理モードが簡易送信モードであるか否かを判断する(S10)。そして、簡易送信モードではないと判断した場合、制御部24は、通常送信モードであると判断し、S2における傾き角度の検出結果に基づいて原稿補正部15に傾き補正処理を行わせ(S11)、S3における天地方向の判定結果に基づいて原稿補正部15に天地補正処理を行わせ(S12)、S9における原稿画像領域の判定結果に基づいて原稿補正部15に画像抽出処理を行わせる(S13)。   Further, the control unit 24 determines whether or not the processing mode selected and instructed in S1 is the simple transmission mode (S10). If it is determined that the mode is not the simple transmission mode, the control unit 24 determines that the mode is the normal transmission mode, and causes the document correction unit 15 to perform tilt correction processing based on the detection result of the tilt angle in S2 (S11). Based on the determination result of the vertical direction in S3, the original correction unit 15 performs the vertical correction process (S12), and causes the original correction unit 15 to perform the image extraction process based on the determination result of the original image area in S9 (S13). ).

また、制御部24は、送信データ生成部22に文字認識処理を行わせ(S14)、文字認識処理の結果に基づいて透明テキストを生成させ(S15)、画像データと透明テキストとを所定のフォーマット(本実施形態ではPDFフォーマット)に従ってフォーマット化した画像ファイルを生成させ(S16)、フォーマット化した画像ファイルを通信装置5に出力させ(S17)、処理を終了する。   The control unit 24 causes the transmission data generation unit 22 to perform character recognition processing (S14), generates transparent text based on the result of the character recognition processing (S15), and converts the image data and transparent text into a predetermined format. An image file formatted according to (in this embodiment, PDF format) is generated (S16), the formatted image file is output to the communication device 5 (S17), and the process is terminated.

一方、S10において簡易送信モードであると判断した場合、制御部24は、色補正部16に、画像データにおける原稿画像領域以外の領域に属する各画素の色を所定の色に変換させる(S18)。上記の所定の色は、特に限定されるものではないが、例えば、白(8ビットの画像データの場合には255)や黒(8ビットの画像データの場合には0)など)に置き換えさせる。また、制御部24は、送信データ生成部22に、原稿検知部14による傾き角度検出結果、天地判定結果、および原稿画像領域判定結果を抽出させ(S19)、これらの抽出結果に基づいて外部装置において画像データを表示させる際に適用する描画コマンドを生成させる(S20)。また、制御部24は、送信データ生成部22に文字認識処理を行わせ(S21)、文字認識処理の結果に基づいて透明テキストを生成させる(S22)。そして、制御部24は、送信データ生成部22を制御し、原稿画像領域以外の領域の色を所定色に変換された画像データを圧縮処理した画像データと描画コマンドと透明テキストとを所定のフォーマット(本実施形態ではPDFフォーマット)に従ってフォーマット化した画像ファイルを生成させ(S23)、フォーマット化した画像ファイルを通信装置5に出力させ(S17)、処理を終了する。   On the other hand, if it is determined in S10 that the simple transmission mode is set, the control unit 24 causes the color correction unit 16 to convert the color of each pixel belonging to an area other than the original image area in the image data to a predetermined color (S18). . The predetermined color is not particularly limited. For example, the predetermined color is replaced with white (255 for 8-bit image data) or black (0 for 8-bit image data). . In addition, the control unit 24 causes the transmission data generation unit 22 to extract the tilt angle detection result, the top / bottom determination result, and the document image area determination result by the document detection unit 14 (S19), and based on these extraction results, the external device A drawing command to be applied when displaying image data is generated (S20). In addition, the control unit 24 causes the transmission data generation unit 22 to perform character recognition processing (S21), and generates transparent text based on the result of the character recognition processing (S22). Then, the control unit 24 controls the transmission data generation unit 22 to compress the image data obtained by converting the color of the area other than the original image area into a predetermined color, the drawing command, and the transparent text into a predetermined format. An image file formatted according to (in this embodiment, PDF format) is generated (S23), the formatted image file is output to the communication device 5 (S17), and the process is terminated.

(3)画像形成モード
次に、画像形成モードにおける画像処理装置3の動作についてより詳細に説明する。画像形成モードの場合、図2に示すように、まず、A/D変換部11が、画像入力装置2から入力されたRGBのアナログ信号をデジタル信号に変換してシェーディング補正部12に出力する。
(3) Image Forming Mode Next, the operation of the image processing apparatus 3 in the image forming mode will be described in more detail. In the case of the image forming mode, as shown in FIG. 2, first, the A / D conversion unit 11 converts RGB analog signals input from the image input device 2 into digital signals and outputs them to the shading correction unit 12.

シェーディング補正部12は、A/D変換部11から送られてきたデジタルのRGB信号に対して、画像入力装置2の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施し、入力処理部13に出力する。   The shading correction unit 12 performs a process of removing various distortions generated in the illumination system, the imaging system, and the imaging system of the image input device 2 on the digital RGB signal sent from the A / D conversion unit 11, The data is output to the input processing unit 13.

入力処理部(入力階調補正部)13は、シェーディング補正部12にて各種の歪みが取り除かれたRGB信号に対して、カラーバランスを整えると同時に、濃度信号など画像処理装置3に採用されている画像処理システムの扱い易い信号に変換する処理を施すものである。また、下地濃度の除去やコントラストなどの画質調整処理を行う。また、入力処理部13は、上記の各処理を施した画像データを記憶部23に記憶させる。   The input processing unit (input gradation correction unit) 13 adjusts the color balance of the RGB signal from which various distortions have been removed by the shading correction unit 12 and is also used in the image processing apparatus 3 such as a density signal. The signal is converted into a signal that can be easily handled by an image processing system. Also, image quality adjustment processing such as background density removal and contrast is performed. Further, the input processing unit 13 causes the storage unit 23 to store the image data subjected to each of the above processes.

原稿検知部(条件検出部)14は、画像データに基づいて原稿画像の傾き角度、天地方向、画像データ中の原稿画像が存在する領域である原稿画像領域などを検出する。また、原稿補正部15は、原稿検知部14の検知結果に基づいて画像データに傾き補正処理、天地補正処理、画像抽出処理などを行う。   A document detection unit (condition detection unit) 14 detects an inclination angle of the document image, a vertical direction, a document image region where a document image exists in the image data, and the like based on the image data. The document correction unit 15 performs an inclination correction process, a top-and-bottom correction process, an image extraction process, and the like on the image data based on the detection result of the document detection unit 14.

図6は、原稿検知部14の概略構成を示すブロック図である。この図に示すように、原稿検知部14は、信号変換部31、2値化処理部32、解像度変換部33、原稿傾き検知部34、原稿天地判定部35、および画像領域判定部36を備えている。   FIG. 6 is a block diagram illustrating a schematic configuration of the document detection unit 14. As shown in this figure, the document detection unit 14 includes a signal conversion unit 31, a binarization processing unit 32, a resolution conversion unit 33, a document inclination detection unit 34, a document top / bottom determination unit 35, and an image region determination unit 36. ing.

信号変換部31は、入力処理部13によって上記各処理を施された画像データがカラー画像であった場合にこの画像データを無彩化して、明度信号もしくは輝度信号に変換するものである。   When the image data subjected to the above-described processes by the input processing unit 13 is a color image, the signal conversion unit 31 achromatically converts the image data into a lightness signal or a luminance signal.

例えば、信号変換部31は、Yi=0.30Ri+0.59Gi+0.11Biを演算することによりRGB信号を輝度信号Yに変換する。ここで、Yは各画素の輝度信号であり、R,G,Bは各画素のRGB信号における各色成分であり、添え字のiは画素毎に付与された値(iは1以上の整数)である。   For example, the signal conversion unit 31 converts the RGB signal into the luminance signal Y by calculating Yi = 0.30Ri + 0.59Gi + 0.11Bi. Here, Y is a luminance signal of each pixel, R, G, and B are each color component in the RGB signal of each pixel, and the subscript i is a value assigned to each pixel (i is an integer of 1 or more). It is.

あるいは、RGB信号をCIE1976L*a*b*信号(CIE:Commission International de l'Eclairage、L*:明度、a*,b*:色度)に変換してもよい。   Alternatively, the RGB signal may be converted into a CIE 1976 L * a * b * signal (CIE: Commission International de l'Eclairage, L *: brightness, a *, b *: chromaticity).

2値化処理部32は、無彩化された画像データ(輝度値(輝度信号)または明度値(明度信号))と、予め設定された閾値とを比較することにより画像データを2値化する。例えば、画像データが8ビットである場合、上記閾値を128とする。あるいは、複数の画素(例えば5画素×5画素)からなるブロックにおける濃度(画素値)の平均値を閾値としてもよい。   The binarization processing unit 32 binarizes the image data by comparing the achromatic image data (brightness value (brightness signal) or brightness value (brightness signal)) with a preset threshold value. . For example, when the image data is 8 bits, the threshold value is set to 128. Or it is good also considering the average value of the density | concentration (pixel value) in the block which consists of a some pixel (for example, 5 pixels x 5 pixels) as a threshold value.

解像度変換部33は、2値化された画像データの解像度を低解像度に変換する。例えば、1200dpiあるいは600dpiで読み込まれた画像データを300dpiに変換する。解像度変換の方法は特に限定されるものではなく、例えば、公知のニアレストネイバー法、バイリニア法、バイキュービック法などを用いることができる。   The resolution conversion unit 33 converts the resolution of the binarized image data to a low resolution. For example, image data read at 1200 dpi or 600 dpi is converted to 300 dpi. The resolution conversion method is not particularly limited, and for example, a known nearest neighbor method, bilinear method, bicubic method, or the like can be used.

原稿傾き検知部34は、解像度変換部33によって低解像度に変換された画像データに基づいて、画像読取時のスキャン範囲(正規の原稿位置)に対する原稿の傾き角度を検知する。つまり、図7に示すように、画像入力装置2におけるスキャン範囲(正規の原稿位置)に対して、画像読取時における原稿の位置が傾いていた場合に、この傾き角度を検知する。   The document tilt detection unit 34 detects the tilt angle of the document with respect to the scan range (normal document position) at the time of image reading, based on the image data converted to the low resolution by the resolution conversion unit 33. That is, as shown in FIG. 7, when the position of the document at the time of image reading is tilted with respect to the scan range (regular document position) in the image input device 2, this tilt angle is detected.

傾き角度の検知方法は特に限定されるものではなく、従来から公知の種々の方法を用いることができる。例えば、特許文献2に記載されている方法を用いてもよい。この方法では、2値化された画像データからを黒画素と白画素との境界点(例えば各文字の上端における白/黒の境界点の座標)を複数個抽出し、各境界点の点列の座標データを求める。そして、この点列の座標データに基づいて回帰直線を求め、その回帰係数bを下記式(1)に基づいて算出する。   The method for detecting the tilt angle is not particularly limited, and various conventionally known methods can be used. For example, the method described in Patent Document 2 may be used. In this method, a plurality of boundary points between black pixels and white pixels (for example, coordinates of white / black boundary points at the upper end of each character) are extracted from the binarized image data, and a point sequence of each boundary point is extracted. Find the coordinate data. And a regression line is calculated | required based on the coordinate data of this point sequence, and the regression coefficient b is computed based on following formula (1).

b=Sxy/Sx ・・・(1)
なお、Sx,Syはそれぞれ変量x,yの残差平方和であり、Sxyはxの残差とyの残差の積の和である。すなわち、Sx,Sy,Sxyは下記式(2)〜(4)で表わされる。
b = Sxy / Sx (1)
Sx and Sy are the residual sum of squares of the variables x and y, respectively, and Sxy is the sum of the products of the residual of x and the residual of y. That is, Sx, Sy, and Sxy are expressed by the following formulas (2) to (4).

Figure 2010161745
Figure 2010161745

そして、上記のように算出した回帰係数bより、下記式(5)に基づいて傾き角度θを算出する。   Then, the inclination angle θ is calculated based on the following equation (5) from the regression coefficient b calculated as described above.

tanθ=b ・・・(5)
また、原稿傾き検知部34は、原稿の端部(エッジ部)を検出し、原稿の各角部の座標P1(X1,Y1)、P2(X2,Y2)、P3(X3,Y3)、P4(X4,Y4)を算出し、この算出結果に基づいて画像データにおける原稿画像に対応する領域である原稿画像領域を検出する。なお、図7に示すように、原稿の角部が画像データの範囲内に存在しない場合であっても、原稿の端部の検出結果および傾き角度の検出結果に基づいて当該端部の座標を算出する。
tan θ = b (5)
The document inclination detection unit 34 detects the edge (edge portion) of the document, and coordinates P1 (X1, Y1), P2 (X2, Y2), P3 (X3, Y3), P4 of each corner of the document. (X4, Y4) is calculated, and based on the calculation result, a document image area which is a region corresponding to the document image in the image data is detected. As shown in FIG. 7, even when the corner of the document does not exist within the range of the image data, the coordinates of the edge are determined based on the detection result of the edge of the document and the detection result of the tilt angle. calculate.

本実施形態では、まず、画像入力装置2で読み取られた画像データについて、副走査方向の各ライン単位で、注目画素と隣接画素の画素値が予め定めた閾値(例えば40)よりも大きな画素のうち、最も左側の画素の座標と最も右側の画素の座標とをエッジ座標として算出する。次に、上記画像データの全ラインについて算出したエッジ座標より、最も上部、下部、左部、右部となるエッジ座標を抽出する。   In the present embodiment, first, with respect to image data read by the image input device 2, the pixel value of the pixel of interest and the adjacent pixel is larger than a predetermined threshold value (for example, 40) for each line unit in the sub-scanning direction. Among them, the coordinates of the leftmost pixel and the coordinates of the rightmost pixel are calculated as edge coordinates. Next, from the edge coordinates calculated for all the lines of the image data, the edge coordinates that are the uppermost, lower, left, and right parts are extracted.

これにより、図7に示す例では、最も上部、下部、左部、右部となるエッジ座標として、下記の各座標が抽出される。
上部:P2(X2,Y2)
下部:p1(x1,y1)、p3(x3,y1) ただし、x1<x2
左部:P1(X1,Y1)
右部:p2(x2,y2)、p4(x2,y4) ただし、y2<y4
このように、最も上部、下部、左部、右部の座標のうちのいずれかについて2点が抽出された場合、本実施形態では、これら2点と抽出された他の部分の座標とを結ぶ直線に基づいて、読み取り範囲外の位置に存在する原稿の角部の座標を算出する。なお、最も上部、下部、左部、右部の各座標についてそれぞれ1点が抽出された場合には、これら各点を原稿の角部の座標として算出すればよい。
Accordingly, in the example illustrated in FIG. 7, the following coordinates are extracted as the edge coordinates that are the uppermost part, the lower part, the left part, and the right part.
Upper part: P2 (X2, Y2)
Lower part: p1 (x1, y1), p3 (x3, y1) where x1 <x2
Left part: P1 (X1, Y1)
Right part: p2 (x2, y2), p4 (x2, y4) where y2 <y4
As described above, when two points are extracted from any of the coordinates of the uppermost, lower, left, and right portions, in the present embodiment, these two points are connected to the coordinates of the other extracted portions. Based on the straight line, the coordinates of the corners of the document existing outside the reading range are calculated. If one point is extracted for each of the coordinates of the uppermost, lower, left, and right portions, these points may be calculated as the coordinates of the corners of the document.

具体的には、図7の場合、点P1と点p1とを結ぶ直線、P2とp2とを結ぶ直線、p3とp4とを結ぶ直線を求める。そして、点P1と点p1とを結ぶ直線とp3とp4を結ぶ直線との交点をP3、P2とp2を結ぶ直線とp3とp4を結ぶ直線との交点をP4として算出する。   Specifically, in the case of FIG. 7, a straight line connecting point P1 and point p1, a straight line connecting P2 and p2, and a straight line connecting p3 and p4 are obtained. Then, the intersection point between the straight line connecting the points P1 and p1 and the straight line connecting p3 and p4 is calculated as P3, and the intersection between the straight line connecting P2 and p2 and the straight line connecting p3 and p4 is calculated as P4.

なお、P1とP2との間の画素数とP1とp3との間の画素数とを求め、予め記憶させておいた規定サイズの原稿における縦方向および横方向の解像度と画素数との関係(例えば表1参照)に基づいて原稿のサイズを推定し、この推定結果に基づいて各角部P1〜P4の座標を求めてよい。   It should be noted that the number of pixels between P1 and P2 and the number of pixels between P1 and p3 are obtained, and the relationship between the vertical and horizontal resolutions and the number of pixels in a document of a predetermined size stored in advance ( For example, the size of the original may be estimated based on Table 1), and the coordinates of the corners P1 to P4 may be obtained based on the estimation result.

Figure 2010161745
Figure 2010161745

なお、表1では、図24に示すように、第1コンタクトガラス(原稿台)51の短辺側と原稿の長辺側とが略平行になるように原稿を載置した場合を縦置き、第1コンタクトガラス(原稿台)51の短辺側と原稿の短辺側とが略平行になるように原稿を載置した場合を横置きと称している。また、表1におけるR1は主走査方向(第1コンタクトガラス(原稿台)51の短辺側に沿う方向)についての読み取り解像度を示しており、R2は副走査方向(第1コンタクトガラス(原稿台)51の長辺側に沿う方向)についての読み取り解像度を示している。   In Table 1, as shown in FIG. 24, when the original is placed so that the short side of the first contact glass (original table) 51 and the long side of the original are substantially parallel, A case where the original is placed so that the short side of the first contact glass (original table) 51 and the short side of the original are substantially parallel is referred to as horizontal placement. R1 in Table 1 indicates the reading resolution in the main scanning direction (the direction along the short side of the first contact glass (document table) 51), and R2 indicates the sub-scanning direction (first contact glass (document table). ) The reading resolution in the direction along the long side of 51).

また、原稿のエッジを算出する際のバラツキ等を考慮し、原稿画像の範囲を、エッジ検出結果よりも所定の幅(例えば10mm程度)広めに算出するようにしてもよい。   Further, in consideration of variations when calculating the edge of the document, the range of the document image may be calculated wider by a predetermined width (for example, about 10 mm) than the edge detection result.

また、簡易送信モードあるいは傾き補正モードが選択されたときに、原稿が傾いた状態で原稿台に載置された場合であっても原稿全体を読み取ることができるように、画像入力装置2において読み取り可能な最大サイズの原稿よりも広い領域を読み取るようにしてもよい。例えば、図7に示した例において、主走査方向については原稿台の縦方向の幅全域を読み取り、副走査方向については画像入力装置2において読み取り可能な最大サイズであるA3サイズの長辺の長さに相当する範囲を読み取るようにしてもよい。また、主走査方向および副走査方向の両方について、原稿台の全域を読み取るようにしてもよい。   Further, when the simple transmission mode or the tilt correction mode is selected, the image input device 2 reads the document so that the entire document can be read even when the document is placed on the document table in a tilted state. An area wider than the maximum possible size document may be read. For example, in the example shown in FIG. 7, the entire length in the vertical direction of the document table is read in the main scanning direction, and the long side of the A3 size, which is the maximum size that can be read by the image input device 2 in the sub-scanning direction. A range corresponding to this may be read. Further, the entire area of the document table may be read in both the main scanning direction and the sub-scanning direction.

原稿天地判定部35は、2値化処理部32によって2値化され、解像度変換部33によって低解像度化された画像データに基づいて、原稿の天地方向(上下方向)を判定する。   The document top / bottom determination unit 35 determines the top / bottom direction (vertical direction) of the document based on the image data binarized by the binarization processing unit 32 and reduced in resolution by the resolution conversion unit 33.

なお、原稿補正部15が原稿傾き検知部34の検知結果に基づいて画像データに傾き補正処理を施し、信号変換部31、2値化処理部32、および解像度変換部33が傾き補正後の画像データに対して信号変換処理、2値化処理、および解像度変換処理を施し、原稿天地判定部35が、傾き補正後の画像データに対して信号変換処理、2値化処理、および解像度変換処理を施した画像データに基づいて天地判定処理を行うようにしてもよい。   It should be noted that the document correction unit 15 performs a tilt correction process on the image data based on the detection result of the document tilt detection unit 34, and the signal conversion unit 31, the binarization processing unit 32, and the resolution conversion unit 33 perform the image after the tilt correction. The signal conversion process, the binarization process, and the resolution conversion process are performed on the data, and the document top / bottom determination unit 35 performs the signal conversion process, the binarization process, and the resolution conversion process on the image data after the inclination correction. The top / bottom determination processing may be performed based on the applied image data.

また、原稿の天地方向の判定方法は特に限定されるものではなく、従来から公知の種々の方法を用いることができる。例えば、特許文献3に記載されている方法を用いてもよい。   Further, the determination method of the vertical direction of the original is not particularly limited, and various conventionally known methods can be used. For example, the method described in Patent Document 3 may be used.

特許文献3の方法では、画像データに基づいて文字認識処理を行い、原稿内の各文字を文字毎に切り出して各文字をパターン化する。なお、この処理は、2値化され、300dpiに低解像度化された画像データを用いて行う。また、必ずしも全ての文字について文字認識処理を行う必要は無く、例えば予め定められた数の文字を抽出して行うようにしてもよい。   In the method of Patent Document 3, character recognition processing is performed based on image data, each character in the document is cut out for each character, and each character is patterned. This process is performed using image data that has been binarized and reduced in resolution to 300 dpi. In addition, it is not always necessary to perform the character recognition process for all characters, and for example, a predetermined number of characters may be extracted and performed.

その後、文字パターンの特徴と予めデータベース化された文字パターン情報とのマッチング(比較)を行う。マッチングの方法としては、データベース化された文字パターンに画像データから切り出された文字パターンを重ね合わせて画素ごとの白黒を比較し、画像データにおける文字を、データベース化された各文字パターンのうち全ての画素が合致する文字パターンの文字として判別する。なお、全てが合致する文字パターンがない場合、画像データにおける文字を、マッチングする画素が最も多い文字パターンの文字として判別する。ただし、マッチングする画素数の割合が所定のマッチング割合に達しなければ判別不能と判断する。   Thereafter, matching (comparison) between the character pattern characteristics and the character pattern information stored in the database in advance is performed. As a matching method, the character pattern cut out from the image data is superimposed on the character pattern created in the database and the black and white for each pixel is compared, and the characters in the image data are all of the character patterns created in the database. It is determined that the character pattern matches the character. When there is no character pattern that matches all, the character in the image data is determined as the character pattern having the largest number of matching pixels. However, if the ratio of the number of matching pixels does not reach a predetermined matching ratio, it is determined that the discrimination is impossible.

そして、画像データを90°、180°、270°回転させた場合のそれぞれについて、上記の文字認識処理を行う。その後、0°、90°、180°、270°のぞれぞれの場合について、判別可能な文字数を算出し、判別可能な文字数が最も多い回転角度を文字方向、すなわち原稿の正規の天地方向として判定する。そして、画像データにおける原稿画像の天地方向を正規の天地方向に一致させるための回転角度を判定する。具体的には、正規の天地方向に対して時計回りの方向の角度を正とし、図8に示すように、画像データにおける原稿画像の天地方向(基準方向)と正規の天地方向とが一致している場合を0°、画像データにおける原稿画像の天地方向が正規の天地方向に対して−90°異なっている場合に上記回転角度を90°、画像データにおける原稿画像の天地方向が正規の天地方向に対して−180°異なっている場合に上記回転角度を180°、画像データにおける原稿画像の天地方向が正規の天地方向に対して−270°異なっている場合に上記回転角度を270°とする。   Then, the character recognition process is performed for each of the image data rotated by 90 °, 180 °, and 270 °. Thereafter, for each of 0 °, 90 °, 180 °, and 270 °, the number of distinguishable characters is calculated, and the rotation angle with the largest number of distinguishable characters is the character direction, that is, the normal vertical direction of the document. Judge as. Then, the rotation angle for matching the vertical direction of the document image in the image data with the normal vertical direction is determined. Specifically, the angle in the clockwise direction with respect to the normal vertical direction is positive, and the vertical direction (reference direction) of the document image in the image data matches the normal vertical direction as shown in FIG. Is 0 °, and when the vertical direction of the original image in the image data is −90 ° different from the normal vertical direction, the rotation angle is 90 °, and the vertical direction of the original image in the image data is normal vertical. The rotation angle is 180 ° when it is different by −180 ° with respect to the direction, and the rotation angle is 270 ° when the vertical direction of the original image in the image data is −270 ° different from the normal vertical direction. To do.

画像領域判定部36は、2値化処理部32によって2値化され、解像度変換部33によって低解像度化された画像データに含まれる原稿画像領域(原稿画像が描かれている領域)を判定し、判定結果を原稿補正部15に出力する。   The image region determination unit 36 determines a document image region (region where a document image is drawn) included in the image data binarized by the binarization processing unit 32 and reduced in resolution by the resolution conversion unit 33. The determination result is output to the document correction section 15.

原稿画像領域の判定方法は特に限定されるものではなく、従来から公知の種々の方法を用いることができる。例えば、図9に示すように、主走査方向および副走査方向のそれぞれについて黒画素に関するヒストグラムを作成し、このヒストグラムに基づいて最も左端、右端、上端、および下端に存在する画像データの座標を判定する方法を用いることができる。   The method for determining the document image area is not particularly limited, and various conventionally known methods can be used. For example, as shown in FIG. 9, a histogram relating to black pixels is created for each of the main scanning direction and the sub-scanning direction, and the coordinates of image data existing at the leftmost, rightmost, uppermost, and lowermost positions are determined based on this histogram. Can be used.

原稿補正部15は、原稿傾き検知部34の傾き角度検知結果に基づいて、画像データに対して傾き補正処理を施す。この際、図7に示した斜線部のように、原稿の一部が画像データからはみ出している場合、すなわち原稿の一部がスキャン範囲外であった場合には、このはみ出している部分については所定の色(例えば白(8ビットの画像データの場合255))に置き換える。   The document correction unit 15 performs a tilt correction process on the image data based on the tilt angle detection result of the document tilt detection unit 34. At this time, when a part of the document protrudes from the image data, as shown by the hatched portion in FIG. 7, that is, when a part of the document is out of the scanning range, Replace with a predetermined color (for example, white (255 in the case of 8-bit image data)).

また、原稿天地判定部35の判定結果に基づいて、傾き補正処理後の画像データに対して、画像データの天地方向とこの画像データに含まれる原稿画像の天地方向とを一致させるように天地補正処理(90°単位の回転処理)を施す。   Further, based on the determination result of the document top / bottom determination unit 35, the top / bottom correction is performed so that the top / bottom direction of the image data matches the top / bottom direction of the document image included in the image data for the image data after the inclination correction processing. Processing (90 ° unit rotation processing) is performed.

また、原稿補正部15は、傾き補正処理および天地補正処理を施した画像データに対して、画像領域判定部36で判定された原稿画像領域に対応する画像データを抽出する画像抽出処理、および抽出した画像データを所定のサイズ(例えば画像出力装置4で用いる記録材のサイズに応じたサイズ)にするように変倍処理(拡大または縮小処理)を施す。また、原稿補正部15は、上記の各処理を施した画像データを色補正部16および領域分離部21に出力する。   The document correction unit 15 extracts image data corresponding to the document image area determined by the image area determination unit 36 from the image data subjected to the inclination correction process and the top / bottom correction process, and the extraction. A scaling process (enlargement or reduction process) is performed so that the obtained image data has a predetermined size (for example, a size corresponding to the size of the recording material used in the image output device 4). Further, the document correction unit 15 outputs the image data subjected to each of the above processes to the color correction unit 16 and the region separation unit 21.

なお、原稿補正部15によって上記の各処理がなされた画像データをファイリングデータとして管理するようにしてもよい。この場合、上記画像データは、例えば、JPEG圧縮アルゴリズムに基づいてJPEGコードに圧縮されて記憶部23に格納される。そして、この画像データに対するコピー出力動作やプリント出力動作が指示された場合には、記憶部23からJPEGコードが引き出されて不図示のJPEG伸張部に引き渡され、復号化処理が施されてRGBデータに変換される。また、上記の画像データに対して送信動作が指示された場合には、記憶部23からJPEGコードが引き出され、ネットワーク網や通信回線を介して通信装置5から外部装置へ送信される。   Note that the image data that has been subjected to the above-described processes by the document correction unit 15 may be managed as filing data. In this case, the image data is compressed into a JPEG code based on, for example, a JPEG compression algorithm and stored in the storage unit 23. When a copy output operation or print output operation is instructed for this image data, a JPEG code is extracted from the storage unit 23 and transferred to a JPEG decompression unit (not shown), and subjected to a decoding process to obtain RGB data. Is converted to When a transmission operation is instructed for the image data, a JPEG code is extracted from the storage unit 23 and transmitted from the communication device 5 to an external device via a network or communication line.

色補正部16は、色再現の忠実化実現のために、不要吸収成分を含むCMY(C:シアン・M:マゼンタ・Y:イエロー)色材の分光特性に基づいた色濁りを取り除く処理を行うものである。なお、色補正部16は、簡易送信モードの場合に、画像データにおける原稿画像領域以外の領域に属する各画素の色を所定の色に変換する処理を行うようになっている。   The color correction unit 16 performs a process of removing color turbidity based on spectral characteristics of CMY (C: cyan, M: magenta, Y: yellow) color materials including unnecessary absorption components in order to realize faithful color reproduction. Is. In the simple transmission mode, the color correction unit 16 performs processing for converting the color of each pixel belonging to an area other than the document image area in the image data into a predetermined color.

黒生成下色除去部17は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成、元のCMY信号から黒生成で得たK信号を差し引いて新たなCMY信号を生成する処理を行うものである。これにより、CMYの3色信号はCMYKの4色信号に変換される。   The black generation and under color removal unit 17 generates black (K) signals from the CMY three-color signals after color correction, and subtracts the K signals obtained by black generation from the original CMY signals to generate new CMY signals. The process to generate is performed. As a result, the CMY three-color signal is converted into a CMYK four-color signal.

空間フィルタ処理部18は、黒生成下色除去部17より入力されるCMYK信号の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理(強調処理および/または平滑化処理)を行い、空間周波数特性を補正する。これにより、出力画像のぼやけや粒状性劣化を軽減することができる。   The spatial filter processing unit 18 performs spatial filter processing (enhancement processing and / or smoothing processing) using a digital filter on the image data of the CMYK signal input from the black generation and under color removal unit 17 based on the region identification signal. And correct the spatial frequency characteristics. As a result, blurring of the output image and deterioration of graininess can be reduced.

中間調生成部20は、空間フィルタ処理部18と同様、CMYK信号の画像データに対して領域識別信号を基に所定の処理を施すものである。例えば、領域分離部21にて文字に分離された領域は、特に黒文字あるいは色文字の再現性を高めるために、空間フィルタ処理部18による空間フィルタ処理における鮮鋭強調処理で高周波数の強調量が大きくされる。同時に、中間調生成部20においては、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。また、領域分離部21にて網点領域に分離された領域に関しては、空間フィルタ処理部18において、入力網点成分を除去するためのローパス・フィルタ処理が施される。そして、出力階調補正部19では、濃度信号などの信号を画像出力装置4の特性値である網点面積率に変換する出力階調補正処理を行った後、中間調生成部20で、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)が施される。領域分離部21にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。   Similar to the spatial filter processing unit 18, the halftone generation unit 20 performs predetermined processing on the image data of the CMYK signal based on the region identification signal. For example, the region separated into characters by the region separating unit 21 has a large high frequency enhancement amount by sharp enhancement processing in the spatial filter processing by the spatial filter processing unit 18 in order to improve the reproducibility of black characters or color characters in particular. Is done. At the same time, the halftone generation unit 20 selects the binarization or multi-value processing on the high-resolution screen suitable for reproducing the high frequency. Further, with respect to the region separated into halftone dot regions by the region separation unit 21, the spatial filter processing unit 18 performs low-pass filter processing for removing the input halftone component. The output tone correction unit 19 performs an output tone correction process for converting a signal such as a density signal into a halftone dot area ratio that is a characteristic value of the image output device 4. In particular, gradation reproduction processing (halftone generation) is performed in which an image is separated into pixels and processed so that each gradation can be reproduced. For the area separated into photographs by the area separation unit 21, binarization or multi-value processing is performed on the screen with an emphasis on gradation reproducibility.

領域分離部21は、RGB信号より、入力画像中の各画素を黒文字領域、色文字領域、網点領域、印画紙写真(連続階調領域)領域の何れかに分離するものである。領域分離部21は、分離結果に基づき、画素がどの領域に属しているかを示す領域分離信号を、黒生成下色除去部17、空間フィルタ処理部18、および中間調生成部20へと出力する。   The region separation unit 21 separates each pixel in the input image into any one of a black character region, a color character region, a halftone dot region, and a photographic paper photograph (continuous tone region) region based on the RGB signal. Based on the separation result, the region separation unit 21 outputs a region separation signal indicating to which region the pixel belongs to the black generation and under color removal unit 17, the spatial filter processing unit 18, and the halftone generation unit 20. .

送信データ生成部22は、情報抽出部41、文字認識部42、描画コマンド生成部43、およびフォーマット化処理部44を備えている。なお、送信データ生成部22は画像形成モードでは動作を行わない。送信データ生成部22の詳細については後述する。   The transmission data generation unit 22 includes an information extraction unit 41, a character recognition unit 42, a drawing command generation unit 43, and a formatting processing unit 44. The transmission data generation unit 22 does not operate in the image forming mode. Details of the transmission data generation unit 22 will be described later.

上述した各処理が施された画像データは、一旦、図示しないメモリに記憶されたのち、所定のタイミングで読み出されて画像出力装置4に入力される。   The image data subjected to the above-described processes is temporarily stored in a memory (not shown), read out at a predetermined timing, and input to the image output device 4.

(4)通常送信モード(通常モード)
次に、通常送信モードにおける画像処理装置3の動作について、図3を参照しながらより詳細に説明する。なお、通常送信モードにおけるA/D変換部11、シェーディング補正部12、入力処理部13、原稿補正部15、および領域分離部21の処理は、画像形成モード時と同様である。なお、領域分離部21は領域分離信号を空間フィルタ処理部18および中間調生成部20に対して出力する。
(4) Normal transmission mode (normal mode)
Next, the operation of the image processing apparatus 3 in the normal transmission mode will be described in more detail with reference to FIG. Note that the processes of the A / D conversion unit 11, the shading correction unit 12, the input processing unit 13, the document correction unit 15, and the region separation unit 21 in the normal transmission mode are the same as those in the image forming mode. The region separation unit 21 outputs the region separation signal to the spatial filter processing unit 18 and the halftone generation unit 20.

原稿検知部14は、画像形成モード時と同様の動作を行うとともに、2値化および低解像度化した画像データを送信データ生成部22に出力する。   The document detection unit 14 performs the same operation as that in the image forming mode, and outputs the binarized and reduced resolution image data to the transmission data generation unit 22.

色補正部16は、原稿補正部15から入力されたRGBの画像データを、一般に普及している表示装置の表示特性に適合したR’G’B’の画像データ(例えば、sRGBデータ)に変換し、黒生成下色除去部17に出力する。黒生成下色除去部17は、通常送信モードでは色補正部16から入力された画像データをそのまま空間フィルタ処理部18に出力(スルー)する。   The color correction unit 16 converts the RGB image data input from the document correction unit 15 into R′G′B ′ image data (for example, sRGB data) suitable for display characteristics of a display device that is generally popular. And output to the black generation and under color removal unit 17. In the normal transmission mode, the black generation and under color removal unit 17 outputs (through) the image data input from the color correction unit 16 to the spatial filter processing unit 18 as it is.

空間フィルタ処理部18は、黒生成下色除去部17より入力されるR’G’B’の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理(強調処理および/または平滑化処理)を行い、出力階調補正部19に出力する。出力階調補正部19は、通常送信モードでは空間フィルタ処理部18から入力された画像データをそのまま中間調生成部20に出力(スルー)する。   The spatial filter processing unit 18 applies spatial filter processing (enhancement processing and / or smoothing) to the R′G′B ′ image data input from the black generation and under color removal unit 17 based on the region identification signal. And output to the output tone correction unit 19. The output tone correction unit 19 outputs (through) the image data input from the spatial filter processing unit 18 to the halftone generation unit 20 as it is in the normal transmission mode.

中間調生成部20は、出力階調補正部19から入力されたR’G’B’の画像データに対して領域識別信号を基に所定の処理を施し、送信データ生成部22に出力する。例えば、中間調生成部20は、文字領域に対しては図10に実線で示したガンマ曲線を用いた補正を行い、文字領域以外の領域に対しては図10に破線で示したガンマ曲線を用いた補正を行う。なお、文字領域以外の領域に対するガンマ曲線としては、例えば送信先の外部装置に備えられる表示装置の表示特性に応じた曲線を設定しておき、文字領域のガンマ曲線は文字をくっきり表示できるように設定しておくことが好ましい。   The halftone generation unit 20 performs a predetermined process on the R′G′B ′ image data input from the output tone correction unit 19 based on the region identification signal, and outputs the processed data to the transmission data generation unit 22. For example, the halftone generation unit 20 performs correction using a gamma curve indicated by a solid line in FIG. 10 for a character region, and applies a gamma curve indicated by a broken line in FIG. 10 to a region other than the character region. Perform the corrections used. As the gamma curve for the area other than the character area, for example, a curve corresponding to the display characteristics of the display device provided in the external device of the transmission destination is set so that the gamma curve in the character area can clearly display characters. It is preferable to set.

中間調生成部20から出力されたR’G’B’の画像データは、送信データ生成部22のフォーマット化処理部44に入力される。   The R′G′B ′ image data output from the halftone generation unit 20 is input to the formatting processing unit 44 of the transmission data generation unit 22.

送信データ生成部22の情報抽出部41は、原稿検知部14から入力された画像データをそのまま文字認識部42に出力(スルー)する。   The information extraction unit 41 of the transmission data generation unit 22 outputs (through) the image data input from the document detection unit 14 to the character recognition unit 42 as it is.

文字認識部42は、情報抽出部41から入力された画像データに基づいて画像データに含まれる文字の特徴量を抽出し、抽出結果を辞書データと比較して文字認識を行う。そして、文字認識結果を描画コマンド生成部43に出力する。なお、文字認識処理の方法は特に限定されるものではなく、従来から公知の種々の方法を用いることができる。   The character recognizing unit 42 extracts the feature amount of the character included in the image data based on the image data input from the information extracting unit 41, compares the extraction result with the dictionary data, and performs character recognition. Then, the character recognition result is output to the drawing command generation unit 43. The character recognition processing method is not particularly limited, and various conventionally known methods can be used.

また、図3に破線で示したように、原稿検知部14が2値化および低解像度化した画像データを送信データ生成部22へ出力するのではなく原稿補正部15に出力し、原稿補正部15が上記の2値化および低解像度化した画像データに対して傾き補正処理を施した画像データを送信データ生成部22に出力し、送信データ生成部22の文字認識部42が傾き補正後の上記画像データを用いて文字認識処理を行うようにしてもよい。これにより、傾き補正前の画像データに基づいて文字認識を行う場合よりも文字認識の精度を向上させることができる。   Further, as indicated by a broken line in FIG. 3, the document detection unit 14 outputs the binarized and reduced resolution image data to the document correction unit 15 instead of outputting it to the transmission data generation unit 22, and the document correction unit 15 outputs the image data obtained by performing the inclination correction processing on the binarized and low-resolution image data to the transmission data generation unit 22, and the character recognition unit 42 of the transmission data generation unit 22 performs the inclination correction. Character recognition processing may be performed using the image data. Thereby, the accuracy of character recognition can be improved compared with the case where character recognition is performed based on image data before inclination correction.

描画コマンド生成部43は、文字認識部42による文字認識結果に基づいて透明テキストを生成し、フォーマット化処理部44に出力する。ここで、透明テキストとは、認識された文字をテキスト情報として見掛け上は見えない形で画像データに重ね合わせる(あるいは埋め込む)ためのデータである。例えば、PDFファイルでは、画像データに透明テキストを付加した画像ファイルが一般に使用されている。   The drawing command generation unit 43 generates a transparent text based on the character recognition result by the character recognition unit 42 and outputs it to the formatting processing unit 44. Here, the transparent text is data for superimposing (or embedding) recognized characters as text information in a form that is not apparently visible. For example, in a PDF file, an image file in which transparent text is added to image data is generally used.

フォーマット化処理部44は、中間調生成部20から入力された画像データを所定の形式で圧縮処理し、この圧縮処理した画像データと、描画コマンド生成部43によって生成された透明テキストとに基づいて所定のフォーマットの画像ファイルを生成し、通信装置5に出力する。本実施形態では、中間調生成部20から入力された表示用の画像処理が施された画像データ(R’G’B’の画像データ)をPDF形式に変更するとともに、文字認識結果に基づいて生成された透明テキストを各画像ファイルの画像描画記述部(コマンド記述部)に埋め込む。画像ファイルの詳細については後述する。   The formatting processor 44 compresses the image data input from the halftone generator 20 in a predetermined format, and based on the compressed image data and the transparent text generated by the drawing command generator 43. An image file of a predetermined format is generated and output to the communication device 5. In the present embodiment, the image data (R′G′B ′ image data) subjected to display image processing input from the halftone generation unit 20 is changed to the PDF format, and based on the character recognition result. The generated transparent text is embedded in the image drawing description part (command description part) of each image file. Details of the image file will be described later.

なお、本実施形態では、画像データに透明テキストを付加して送信するものとしているが、これに限るものではなく、フォーマット化処理部44が中間調生成部20から入力される画像データを所定のフォーマットに変換して透明テキストを付加せずに送信するようにしてもよい。なお、透明テキストを付加しない場合には、原稿検知部14から送信データ生成部22へのデータ出力を行わないようにしてもよい。   In this embodiment, the transparent text is added to the image data for transmission. However, the present invention is not limited to this, and the formatting processing unit 44 converts the image data input from the halftone generation unit 20 to a predetermined value. You may make it transmit to a format, without adding a transparent text. If no transparent text is added, data output from the document detection unit 14 to the transmission data generation unit 22 may not be performed.

通信装置5は、フォーマット化処理部44から入力された画像ファイルを、ネットワークを介して通信可能に接続された外部装置に送信する。例えば、通信装置5は、上記の画像ファイルを図示しないメール処理部(ジョブ装置)によって電子メールに添付して送信する。   The communication device 5 transmits the image file input from the formatting processing unit 44 to an external device that is communicably connected via a network. For example, the communication device 5 transmits the image file attached to an electronic mail by a mail processing unit (job device) (not shown).

(4)簡易送信モード(簡易モード)
次に、簡易送信モードにおける画像処理装置3の動作について、図4を参照しながらより詳細に説明する。なお、簡易送信モードにおけるA/D変換部11、シェーディング補正部12、入力処理部13、原稿検知部14、色補正部16、黒生成下色除去部17、空間フィルタ処理部18、出力階調補正部19、中間調生成部20、および領域分離部21の処理は、通常送信モード時と同様である。
(4) Simple transmission mode (simple mode)
Next, the operation of the image processing apparatus 3 in the simple transmission mode will be described in more detail with reference to FIG. In the simple transmission mode, the A / D conversion unit 11, the shading correction unit 12, the input processing unit 13, the document detection unit 14, the color correction unit 16, the black generation and under color removal unit 17, the spatial filter processing unit 18, and the output gradation The processes of the correction unit 19, the halftone generation unit 20, and the region separation unit 21 are the same as those in the normal transmission mode.

原稿検知部14は、2値化および低解像度化した画像データ、傾き角度検出結果、天地方向の判定結果、および原稿画像領域の判定結果を送信データ生成部22に送る。また、原稿検知部14は、入力処理部13から入力されたR,G,Bの画像データをそのまま原稿補正部15に出力する。あるいは、原稿検知部14が、入力処理部13から入力されたR,G,Bの画像データを記憶部23に格納し、原稿補正部15が記憶部23からこの画像データを読み出すようにしてもよい。   The document detection unit 14 sends the binarized and reduced resolution image data, the tilt angle detection result, the determination result of the top-and-bottom direction, and the determination result of the document image region to the transmission data generation unit 22. The document detection unit 14 outputs the R, G, and B image data input from the input processing unit 13 to the document correction unit 15 as it is. Alternatively, the document detection unit 14 may store the R, G, B image data input from the input processing unit 13 in the storage unit 23, and the document correction unit 15 may read the image data from the storage unit 23. Good.

原稿補正部15は、上記のR,G,Bの画像データをそのまま色補正部16および領域分離部21に出力(スルー)する。つまり、簡易送信モードでは、原稿補正部15はR,G,Bの画像データに対する傾き補正処理、天地補正処理、および画像抽出処理を行わない。   The document correction unit 15 outputs (through) the R, G, and B image data to the color correction unit 16 and the region separation unit 21 as they are. That is, in the simple transmission mode, the document correction unit 15 does not perform the inclination correction process, the top / bottom correction process, and the image extraction process for the R, G, and B image data.

色補正部16は、原稿補正部15から入力されたRGBの画像データを、一般に普及している表示装置の表示特性に適合したR’G’B’の画像データ(例えば、sRGBデータ)に変換するとともに、画像データにおける原稿画像領域以外の領域に属する各画素の色を所定の色(例えば白)に変換する処理を行い、黒生成下色除去部17に出力する。黒生成下色除去部17は、簡易送信モードでは色補正部16から入力された画像データをそのまま空間フィルタ処理部18に出力(スルー)する。   The color correction unit 16 converts the RGB image data input from the document correction unit 15 into R′G′B ′ image data (for example, sRGB data) suitable for display characteristics of a display device that is generally popular. At the same time, a process of converting the color of each pixel belonging to an area other than the original image area in the image data into a predetermined color (for example, white) is output to the black generation and under color removal unit 17. The black generation and under color removal unit 17 outputs (through) the image data input from the color correction unit 16 to the spatial filter processing unit 18 as it is in the simple transmission mode.

空間フィルタ処理部18は、黒生成下色除去部17より入力されるR’G’B’の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理(強調処理および/または平滑化処理)を行い、出力階調補正部19に出力する。出力階調補正部19は、簡易送信モードでは空間フィルタ処理部18から入力された画像データをそのまま中間調生成部20に出力(スルー)する。   The spatial filter processing unit 18 applies spatial filter processing (enhancement processing and / or smoothing) to the R′G′B ′ image data input from the black generation and under color removal unit 17 based on the region identification signal. And output to the output tone correction unit 19. The output tone correction unit 19 outputs (through) the image data input from the spatial filter processing unit 18 as it is to the halftone generation unit 20 in the simple transmission mode.

中間調生成部20は、出力階調補正部19から入力されたR’G’B’の画像データに対して通常送信モードの場合と同様の処理を施し、送信データ生成部22に出力する。中間調生成部20から出力されたR’G’B’の画像データは、送信データ生成部22のフォーマット化処理部44に入力される。   The halftone generation unit 20 performs the same processing as that in the normal transmission mode on the R′G′B ′ image data input from the output tone correction unit 19 and outputs the processed image data to the transmission data generation unit 22. The R′G′B ′ image data output from the halftone generation unit 20 is input to the formatting processing unit 44 of the transmission data generation unit 22.

送信データ生成部22の情報抽出部41は、原稿検知部14から入力されたデータから傾き角度検出結果、天地方向の判定結果、および原稿画像領域の判定結果(原稿領域の座標)を示す情報を原稿毎に抽出し、2値化および低解像度化された画像データとともに文字認識部42に出力する。   The information extraction unit 41 of the transmission data generation unit 22 receives information indicating the tilt angle detection result, the top / bottom direction determination result, and the document image region determination result (coordinates of the document region) from the data input from the document detection unit 14. Each document is extracted and output to the character recognition unit 42 together with the binarized and reduced resolution image data.

文字認識部42は、情報抽出部41から入力された画像データに基づいて文字認識処理を行い、文字認識結果、傾き角度検出結果、天地方向の判定結果、および原稿画像領域の判定結果を描画コマンド生成部43に出力する。   The character recognition unit 42 performs character recognition processing based on the image data input from the information extraction unit 41, and draws the character recognition result, the inclination angle detection result, the top / bottom direction determination result, and the document image region determination result. The data is output to the generation unit 43.

描画コマンド生成部43は、文字認識部42から入力された文字認識結果、傾き角度検出結果、天地方向の判定結果、および原稿画像領域の判定結果に基づいて、中間調生成部20から出力された画像データを、送信先の外部装置に備えられるコンピュータに傾き補正処理、天地補正処理、および画像抽出処理を実行させて表示させるための描画コマンドを生成し、フォーマット化処理部44に出力する。また、描画コマンド生成部43は、文字認識部42による文字認識結果に基づいて透明テキストを生成してフォーマット化処理部44に出力する。   The drawing command generation unit 43 is output from the halftone generation unit 20 based on the character recognition result, the tilt angle detection result, the top / bottom direction determination result, and the document image area determination result input from the character recognition unit 42. A rendering command for displaying the image data by causing the computer provided in the external device of the transmission destination to execute the inclination correction process, the top and bottom correction process, and the image extraction process is generated and output to the formatting processing unit 44. Further, the drawing command generation unit 43 generates a transparent text based on the character recognition result by the character recognition unit 42 and outputs it to the formatting processing unit 44.

フォーマット化処理部44は、中間調生成部20から入力された画像データを所定の形式で圧縮処理し、圧縮処理を施した画像データ、描画コマンド生成部43によって生成された描画コマンド、および透明テキストに基づいて所定のフォーマットの画像ファイルを生成し、通信装置5に出力する。本実施形態では、中間調生成部20から入力された表示用の画像処理が施された画像データをPDF形式に変更するとともに、描画コマンド生成部43によって生成された描画コマンドおよび透明テキストを各画像データに対応する画像描画記述部(コマンド記述部)に埋め込んだ画像ファイルを生成する。   The formatting processing unit 44 compresses the image data input from the halftone generation unit 20 in a predetermined format, the compressed image data, the drawing command generated by the drawing command generation unit 43, and transparent text Based on the above, an image file of a predetermined format is generated and output to the communication device 5. In the present embodiment, the image data subjected to display image processing input from the halftone generation unit 20 is changed to the PDF format, and the drawing command and the transparent text generated by the drawing command generation unit 43 are changed to each image. An image file embedded in an image drawing description part (command description part) corresponding to the data is generated.

図11は、フォーマット化処理部44によって生成されるPDF形式の画像ファイルの構成を示す説明図である。この図に示すように、上記画像ファイルは、ヘッダ部、ボディ部、相互参照表、およびトレーラ部によって構成されている。   FIG. 11 is an explanatory diagram showing the configuration of a PDF image file generated by the formatting processor 44. As shown in this figure, the image file is composed of a header part, a body part, a cross reference table, and a trailer part.

ヘッダ部には、このファイルがPDFファイルであることを示す文字列とバージョン番号とが含まれる。ボディ部には、表示する情報やページ情報などが含まれる。相互参照表には、ボディ部の中身にアクセスするためのアドレス情報が記述されている。トレーラ部には、はじめにどこから読み込むかを示す情報などが記述されている。   The header portion includes a character string indicating that this file is a PDF file and a version number. The body part includes information to be displayed and page information. The cross-reference table describes address information for accessing the contents of the body part. In the trailer section, information indicating where to read first is described.

ボディ部は、文書カタログ記述部、ページ記述部、画像データ記述部、および画像描画記述部(コマンド記述部)からなる。なお、ページ記述部、画像データ記述部、および画像描画記述部は各ページに対応して設けられる。   The body part includes a document catalog description part, a page description part, an image data description part, and an image drawing description part (command description part). A page description part, an image data description part, and an image drawing description part are provided corresponding to each page.

文書カタログ記述部には、各ページからなるオブジェクトに対する参照情報などが記述される。図12(a)は、文書カタログ記述部に対する記述内容の一例を示している。ページ記述部には、ページ毎の表示範囲等の情報が記述される。図12(b)は、ページ記述部に対する記述内容の一例を示している。この図に示す例では、「/MediaBox [ 0.00000 0.00000 593.28003 842.88000 ]」という記述が表示範囲を規定している。画像データ記述部には、画像データが記述される。図12(c)は、画像データ記述部に対する記述内容の一例を示している。画像描画記述部には、対応するページを描画する際に適用する条件が記述される。本実施形態では、傾き補正処理、天地補正処理、および画像抽出処理に関する描画コマンドをこの画像描画記述部に記述するようになっている。   In the document catalog description section, reference information for an object composed of each page is described. FIG. 12A shows an example of description contents for the document catalog description part. Information such as a display range for each page is described in the page description portion. FIG. 12B shows an example of description contents for the page description part. In the example shown in this figure, the description “/ MediaBox [0.00000 0.00000 593.28003 842.88000]” defines the display range. Image data is described in the image data description section. FIG. 12C shows an example of description contents for the image data description part. In the image drawing description part, conditions to be applied when drawing the corresponding page are described. In the present embodiment, drawing commands related to tilt correction processing, top and bottom correction processing, and image extraction processing are described in this image drawing description section.

図13(a)は画像入力装置2において読み取られた画像データの一例を示している。また、図14は、画像描画記述部に対する記述内容の一例を示すものであり、図13(a)に示した画像データを描画する際に適用する条件を示している。この図に示す例では、「0.985 -0.174 0.174 0.985 -139.003 65.609 cm」の部分が傾き補正処理および平行移動処理に関する内容を示している。これにより、時計回りに10度の回転処理(傾き補正処理)を行うとともに、原稿画像の左下角部の座標を表示される画像の左下角部の座標(原点)に合わせるための平行移動を行うようになっている。「737.28 0.00 0.00 894.24 0.00 0.00 cm」は、画像サイズおよび画像解像度に応じた表示設定を示しており、これにより画像が所望のサイズで表示されるようになっている。図13(b)は、図13(a)の画像データに対して図14の条件を適用して描画した場合に表示される画像を示している。この例では、原稿画像の領域を抽出する処理は行っていないが、ページの表示範囲を原稿と同じサイズに設定しているので、結果的に原稿に対応するサイズの画像が表示される。また、この例では、原稿の左下部分は画像入力装置2におけるスキャン範囲に含まれておらず、画像データが存在しないので、この部分については白色に表示される。   FIG. 13A shows an example of image data read by the image input apparatus 2. FIG. 14 shows an example of description contents for the image drawing description part, and shows conditions applied when drawing the image data shown in FIG. In the example shown in this figure, the part “0.985 -0.174 0.174 0.985 -139.003 65.609 cm” indicates the contents relating to the inclination correction process and the parallel movement process. As a result, a clockwise rotation process (tilt correction process) of 10 degrees is performed, and a parallel movement is performed to match the coordinates of the lower left corner of the document image with the coordinates (origin) of the lower left corner of the displayed image. It is like that. “737.28 0.00 0.00 894.24 0.00 0.00 cm” indicates a display setting according to the image size and the image resolution, and the image is displayed in a desired size. FIG. 13B shows an image displayed when the image data of FIG. 13A is drawn by applying the conditions of FIG. In this example, the process of extracting the document image area is not performed, but since the page display range is set to the same size as the document, an image having a size corresponding to the document is displayed as a result. In this example, the lower left portion of the document is not included in the scan range of the image input apparatus 2 and there is no image data, so this portion is displayed in white.

図15(a)は画像入力装置2において読み取られた画像データの一例を示している。また、図16は、画像描画記述部に対する記述内容の一例を示すものであり、図15(a)に示した画像データを描画する際に適用する条件を示している。この図に示す例では、画像データから原稿画像の領域を抽出し、抽出した領域の画像のみを表示するようになっている。図16における「55.44 81.84 593.28 842.88 re W n」が原稿画像領域の抽出処理に関する内容を示している。この図に示す例では、矩形形状の抽出領域における左下の座標と横幅および高さを規定している。図15(b)は、図15(a)の画像データに対して図16の条件を適用して描画した場合に表示される画像を示している。この図に示すように、原稿画像領域の範囲外の領域は白色に表示される。   FIG. 15A shows an example of image data read by the image input apparatus 2. FIG. 16 shows an example of description contents for the image drawing description section, and shows conditions applied when drawing the image data shown in FIG. In the example shown in this figure, a document image area is extracted from image data, and only the image of the extracted area is displayed. “55.44 81.84 593.28 842.88 re W n” in FIG. 16 indicates the contents related to the document image region extraction processing. In the example shown in this figure, the lower left coordinates, the horizontal width, and the height in the rectangular extraction region are defined. FIG. 15B shows an image displayed when the image data of FIG. 15A is drawn by applying the conditions of FIG. As shown in this figure, the area outside the original image area is displayed in white.

図17(a)は画像入力装置2において読み取られた画像データの一例を示している。また、図18は、画像描画記述部に対する記述内容の一例を示すものであり、図17(a)に示した画像データを描画する際に適用する条件を示している。この図に示す例では、画像データから原稿画像の領域を抽出し、抽出した領域の画像に傾き補正処理を施して表示するようになっている。図18における「101.00 270.00 593.28 842.88 re W n」が原稿画像領域の抽出処理に関する内容を示しており、「0.985 -0.174 0.174 0.985 -111.402 80.185 cm」が傾き補正処理および平行移動処理に関する内容を示している。図17(b)は、図17(a)の画像データに対して図16の条件を適用して描画した場合に表示される画像を示している。この図に示す例では、原稿画像の領域を抽出するとともに、原稿の真ん中を中心として時計回りに10度回転処理(傾き補正処理)を行うようになっている。なお、原稿画像領域の範囲外の領域は白色に表示される。   FIG. 17A shows an example of image data read by the image input apparatus 2. FIG. 18 shows an example of description contents for the image drawing description part, and shows conditions applied when drawing the image data shown in FIG. In the example shown in this figure, an area of a document image is extracted from image data, and the image of the extracted area is subjected to tilt correction processing and displayed. In FIG. 18, “101.00 270.00 593.28 842.88 re W n” indicates the content related to the document image area extraction processing, and “0.985 -0.174 0.174 0.985 -111.402 80.185 cm” indicates the content related to the tilt correction processing and the parallel movement processing. Yes. FIG. 17B shows an image displayed when the image data of FIG. 17A is drawn by applying the conditions of FIG. In the example shown in this figure, an area of a document image is extracted, and a 10 degree rotation process (tilt correction process) is performed clockwise around the center of the document. An area outside the original image area is displayed in white.

図19(a)は画像入力装置2において読み取られた画像データの一例を示している。また、図20は、画像描画記述部に対する記述内容の一例を示すものであり、図19(a)に示した画像データを描画する際に適用する条件を示している。この図に示す例では、
「0.985 -0.174 0.174 0.985 -211.402 -190.185 cm」の部分が傾き補正処理および平行移動処理に関する内容を示しており、時計回りに10度の回転処理(傾き補正処理)を行うことを示している。図19(b)は、図19(a)の画像データに対して図18の条件を適用して描画した場合に表示される画像を示している。この図に示す例では、原稿画像の抽出処理は行っていないものの、表示領域を原稿と同じサイズに設定しているので、原稿画像の範囲外の画像は表示されないようになっている。
FIG. 19A shows an example of image data read by the image input apparatus 2. FIG. 20 shows an example of description contents for the image drawing description section, and shows conditions applied when drawing the image data shown in FIG. In the example shown in this figure,
The portion “0.985 -0.174 0.174 0.985 -211.402 -190.185 cm” indicates the contents related to the tilt correction process and the parallel movement process, and indicates that the rotation process (tilt correction process) is performed 10 degrees clockwise. FIG. 19B shows an image displayed when the image data of FIG. 19A is drawn by applying the conditions of FIG. In the example shown in this figure, the document image extraction process is not performed, but the display area is set to the same size as the document, so that an image outside the range of the document image is not displayed.

通信装置5は、フォーマット化処理部44から入力された画像ファイルを、ネットワークを介して通信可能に接続された外部装置に送信する。例えば、通信装置5は、上記の画像ファイルを図示しないメール処理部(ジョブ装置)によって電子メールに添付して送信する。外部装置は、受信した画像ファイルを画像描画記述部(コマンド記述部)に埋め込まれている描画コマンドを参照して表示する。これにより、外部装置において傾き補正処理、天地補正処理、および画像抽出処理が施された画像データを表示させることができる。また、画像ファイルに埋め込まれている透明テキストを用いて検索処理や音声出力処理等を行うことができる。   The communication device 5 transmits the image file input from the formatting processing unit 44 to an external device that is communicably connected via a network. For example, the communication device 5 transmits the image file attached to an electronic mail by a mail processing unit (job device) (not shown). The external device displays the received image file with reference to a drawing command embedded in the image drawing description part (command description part). Accordingly, it is possible to display the image data that has been subjected to the tilt correction process, the top and bottom correction process, and the image extraction process in the external device. In addition, search processing, audio output processing, and the like can be performed using transparent text embedded in an image file.

なお、本実施形態では、傾き補正処理、天地補正処理、および画像抽出処理に関する描画コマンドを画像ファイルに埋め込んで送信するようにしているが、これに限るものではない。   In the present embodiment, the drawing commands related to the tilt correction process, the top and bottom correction process, and the image extraction process are embedded in the image file and transmitted, but the present invention is not limited to this.

例えば、傾き補正処理、天地補正処理、および画像抽出処理のうちのいずれか1つ以上に関する描画コマンドを画像ファイルに埋め込んで送信するようにしてもよい。   For example, a drawing command related to any one or more of tilt correction processing, top and bottom correction processing, and image extraction processing may be embedded in an image file and transmitted.

また、上記の各処理に加えて、あるいは上記の各処理に代えて、他の画像処理に関する描画コマンドを画像ファイルに埋め込んで送信するようにしてもよい。例えば、画像データを所定の変倍倍率で変倍(縮小あるいは拡大)して表示させるための描画コマンドを画像ファイルに埋め込んで送信するようにしてもよい。また、例えば、画像抽出処理で抽出した原稿画像領域の画像を、所定のサイズにするための変倍倍率を算出する倍率算出部(図示せず)を原稿検知部14あるいは送信データ生成部22に設け、描画コマンド生成部43が倍率算出部によって算出された変倍倍率に応じた描画コマンドを生成し、フォーマット化処理部44がその描画コマンドを画像ファイルに埋め込むようにしてもよい。   In addition to the above-described processes or instead of the above-described processes, drawing commands relating to other image processes may be embedded in the image file and transmitted. For example, a drawing command for displaying the image data by scaling (reducing or enlarging) the image data at a predetermined scaling factor may be embedded in the image file and transmitted. Further, for example, a magnification calculating unit (not shown) for calculating a magnification ratio for making the image of the document image area extracted by the image extraction process a predetermined size is provided in the document detection unit 14 or the transmission data generation unit 22. The drawing command generation unit 43 may generate a drawing command corresponding to the magnification ratio calculated by the magnification calculation unit, and the formatting processing unit 44 may embed the drawing command in the image file.

また、本実施形態では、文字認識結果に基づく透明テキストを画像ファイルに埋め込んで送信しているが、これに限るものではなく、透明テキストについては省略してもよい。透明テキストを省略する場合、文字認識処理を行う必要がないので、原稿検知部14が2値化および低解像度化された画像データを送信データ生成部22に出力しないようにしてもよい。また、透明テキストを省略する場合、文字認識部42は、情報抽出部41から入力されたデータをそのまま描画コマンド生成部43に出力(スルー)すればよい。   In this embodiment, the transparent text based on the character recognition result is transmitted by being embedded in the image file. However, the present invention is not limited to this, and the transparent text may be omitted. When the transparent text is omitted, it is not necessary to perform character recognition processing, so that the document detection unit 14 may not output the binarized and reduced resolution image data to the transmission data generation unit 22. When the transparent text is omitted, the character recognition unit 42 may output (through) the data input from the information extraction unit 41 to the drawing command generation unit 43 as it is.

また、文字認識処理を行う場合、図4に破線で示したように、原稿検知部14が2値化および低解像度化した画像データと原稿画像の傾き角度とを原稿補正部15に出力し、原稿補正部15が上記の2値化および低解像度化した画像データに対して傾き補正処理を施して送信データ生成部22に出力し、送信データ生成部22の文字認識部42が傾き補正後の上記画像データを用いて文字認識処理を行うようにしてもよい。これにより、傾き補正前の画像データに基づいて文字認識を行う場合よりも文字認識の精度を向上させることができる。   When performing the character recognition processing, as indicated by a broken line in FIG. 4, the document detection unit 14 outputs the binarized and reduced resolution image data and the inclination angle of the document image to the document correction unit 15. The document correction unit 15 performs an inclination correction process on the binarized and low-resolution image data and outputs the image data to the transmission data generation unit 22, and the character recognition unit 42 of the transmission data generation unit 22 performs the inclination correction. Character recognition processing may be performed using the image data. Thereby, the accuracy of character recognition can be improved compared with the case where character recognition is performed based on image data before inclination correction.

以上のように、本実施形態にかかるデジタルカラー複合機1では、原稿検知部14が、画像データにおける原稿画像に対応する領域と、原稿画像を表示する際に適用すべき画像処理の条件とを原稿画像の画像データに基づいて検出し、色補正部16が画像データにおける原稿画像に対応する領域以外の領域の色を所定の色に変換し、描画コマンド生成部43が、原稿画像を表示する際に上記条件に基づく画像処理を施してから表示を行わせるように送信先の装置に備えられるコンピュータを制御するための描画コマンドを生成する。そして、フォーマット化処理部44が、上記変換処理を施された後、上記画像処理を施す前の上記画像データに対して圧縮処理を施した画像データに描画コマンドを付加した画像ファイルを生成する。   As described above, in the digital color multifunction peripheral 1 according to the present embodiment, the document detection unit 14 determines the area corresponding to the document image in the image data and the image processing conditions to be applied when displaying the document image. Based on the image data of the document image, the color correction unit 16 converts the color of the region other than the region corresponding to the document image in the image data into a predetermined color, and the drawing command generation unit 43 displays the document image. At this time, a drawing command for controlling a computer included in the transmission destination apparatus is generated so that display is performed after image processing based on the above conditions is performed. Then, after the conversion processing is performed, the formatting processing unit 44 generates an image file in which a drawing command is added to image data obtained by performing compression processing on the image data before performing the image processing.

このように、原稿画像に対応する領域以外の領域の色を所定の色に変換してから画像データの圧縮処理を行うことにより、画像データの圧縮効率を向上させ、圧縮処理後の画像データのデータサイズを小さくできる。   In this way, by compressing the image data after converting the color of the region other than the region corresponding to the document image to a predetermined color, the compression efficiency of the image data is improved, and the compression of the image data after the compression processing is performed. Data size can be reduced.

画像入力装置(スキャナ)で読み取った画像データは、例えば白い領域を読み取った場合であっても、光の当たり方のムラ、凹凸の存在、ゴミの付着などの様々な要因で画素値が一定の値とはならない。つまり、原稿画像に対応する領域以外の領域は、本来は一様な色であるとしても、画像データでは一様にはなっておらず、画素値のばらつきが生じている。そこで、原稿画像に対応する領域以外の領域、すなわち必要な情報を含んでいない領域の画素値を特定の値に置き換えることで、必要な情報を欠損させることなく圧縮効率を向上させ、圧縮処理後の画像データのサイズを小さくできる。例えば、画像入力装置(スキャナ)で一様な白色のバックボードを読み取った5300画素×700画素の大きさの画像データをそのままJPEG圧縮を行った場合、圧縮後の画像データのサイズは180Kバイトであるのに対して、画素値をすべて同じ値に変換してから同じ圧縮率でJPEG圧縮を行った場合、圧縮後の画像データのサイズは40Kバイト程度まで縮小される。   Even if the image data read by the image input device (scanner) is, for example, a white area is read, the pixel value is constant due to various factors such as unevenness in the way the light strikes, the presence of irregularities, and dust adhesion. Not a value. That is, the area other than the area corresponding to the document image is originally uniform in color, but is not uniform in the image data, resulting in variations in pixel values. Therefore, by replacing pixel values in areas other than the area corresponding to the original image, that is, areas that do not contain necessary information with specific values, the compression efficiency is improved without losing necessary information. The size of the image data can be reduced. For example, when image data having a size of 5300 pixels × 700 pixels obtained by reading a uniform white backboard with an image input device (scanner) is directly subjected to JPEG compression, the size of the compressed image data is 180 Kbytes. On the other hand, when JPEG compression is performed at the same compression rate after converting all pixel values to the same value, the size of the compressed image data is reduced to about 40 Kbytes.

また、上記の構成によれば、原稿画像の画像データに対して上記画像処理を施すことなく送信することができるので、画像読取から送信までの処理を迅速に行うことができる。また、原稿画像を表示する際に、描画コマンドに基づく画像処理を送信先の装置に備えられるコンピュータに行わせることができるので、送信先の装置において、原稿画像を適切な状態で表示することができる。   Further, according to the above configuration, the image data of the document image can be transmitted without being subjected to the image processing, so that the processing from image reading to transmission can be quickly performed. In addition, when displaying a document image, a computer provided in the transmission destination apparatus can perform image processing based on the drawing command, so that the document image can be displayed in an appropriate state in the transmission destination apparatus. it can.

なお、本実施形態では、フォーマット化処理部44がPDF形式の画像ファイルを生成する場合の実施例について説明したが、これに限るものではなく、画像データとその画像データを描画する際に適用すべき条件とを含む形式の画像ファイルであればよい。   In this embodiment, an example in which the formatting processing unit 44 generates a PDF image file has been described. However, the present invention is not limited to this, and is applied when drawing image data and the image data. Any image file having a format including power conditions may be used.

例えば、TIFF形式やEXIF規格のJPEG形式において、補正処理の項目に応じたタグに、描画時に適用する条件に値を設定するようにしてもよい。例えば、天地補正処理(回転処理)を行う場合、回転情報を示すタグである0×112タグに所望する回転角度に応じた値を設定すればよい。具体的には、回転角度が0度の場合は値1、回転角度が90度の場合は値6、回転角度が180度の場合は値3、回転角度が270度の場合は値8を設定すればよい。   For example, in the TIFF format or the JPEG format of the EXIF standard, a value may be set for a condition applied at the time of rendering to a tag corresponding to an item of correction processing. For example, when performing top-and-bottom correction processing (rotation processing), a value corresponding to a desired rotation angle may be set in a 0 × 112 tag that is a tag indicating rotation information. Specifically, the value 1 is set when the rotation angle is 0 degree, the value 6 is set when the rotation angle is 90 degrees, the value 3 is set when the rotation angle is 180 degrees, and the value 8 is set when the rotation angle is 270 degrees. do it.

また、本実施形態では、通常送信モードおよび簡易送信モードにおいて、ネットワークを介して接続された外部装置に画像ファイルを送信するものとしたが、これに限るものではない。例えば、画像ファイルの送信先をデジタルカラー複合機1に備えられた記憶部23とし、この記憶部23に画像ファイルをファイリングするようにしてもよい。   In this embodiment, the image file is transmitted to the external device connected via the network in the normal transmission mode and the simple transmission mode. However, the present invention is not limited to this. For example, the transmission destination of the image file may be the storage unit 23 provided in the digital color multifunction peripheral 1, and the image file may be filed in the storage unit 23.

また、簡易送信モードを用いて画像ファイルをデジタルカラー複合機1の記憶部23にファイリングする場合、デジタルカラー複合機1の主制御部が、デジタルカラー複合機1の動作状態を監視し、非動作状態、すなわちジョブ処理(画像入力装置2における画像読取処理、画像処理装置3における各種処理、画像出力装置4における画像出力処理、および通信装置5における送受信処理)が行われていない状態が所定時間以上続いたことを検知したときに、記憶部23に記憶させておいた、簡易送信モードによってファイリングされた画像ファイルを読み出し、この画像ファイルに埋め込まれている描画コマンドに基づいて、原稿補正部15に傾き補正処理、天地補正処理、および画像抽出処理を行わせ、これら各処理を施した結果を記憶部23に格納させたり、あるいは画像出力装置4に送って画像形成処理を行わせたりするようにしてもよい。   When the image file is filed in the storage unit 23 of the digital color multifunction peripheral 1 using the simple transmission mode, the main control unit of the digital color multifunction peripheral 1 monitors the operation state of the digital color multifunction peripheral 1 and does not operate. The state in which job processing (image reading processing in the image input device 2, various processing in the image processing device 3, image output processing in the image output device 4, and transmission / reception processing in the communication device 5) has not been performed for a predetermined time or more When it is detected that the image file has been continued, the image file filed in the simple transmission mode stored in the storage unit 23 is read out, and the document correction unit 15 is read based on the drawing command embedded in the image file. Inclination correction processing, top / bottom correction processing, and image extraction processing are performed, and the results of these processing are stored. Or it is stored in 23, or may be or to perform the image forming process is sent to the image output apparatus 4.

また、本実施形態では、文字認識部42が原稿検知部14または原稿補正部15から入力される2値化および低解像度化を施された画像データに基づいて文字認識処理を施すものとしているが、これに限るものではない。例えば、図21に示すように、領域分離部21から出力される領域分離信号を文字認識部42に入力させ、文字認識部42がこの領域分離信号に基づいて、文字領域(文字エッジと判定された画素からなる画像領域)を示すテキストマップを生成し、文字領域に対してのみ文字認識処理を行うようにしてもよい。   In this embodiment, the character recognition unit 42 performs character recognition processing based on the binarized and low-resolution image data input from the document detection unit 14 or the document correction unit 15. However, it is not limited to this. For example, as shown in FIG. 21, the region separation signal output from the region separation unit 21 is input to the character recognition unit 42, and the character recognition unit 42 is determined as a character region (character edge based on the region separation signal. A text map indicating an image area including pixels) may be generated, and the character recognition process may be performed only on the character area.

あるいは、図22に示すように、画像データに基づいて原稿の種別を判別する原稿種別自動判別部25を設け、この原稿種別自動判別部25から出力される原稿種別判別信号を文字認識部42に入力させ、原稿種別判別信号が文字を含む原稿(例えば文字原稿、文字印刷写真原稿、文字印画紙写真原稿など)であることを示す場合にのみ文字認識部42が文字認識処理を行うようにしてもよい。原稿種別自動判別部25における原稿種別の判別方法は、少なくとも文字を含む原稿と文字を含まない原稿とを判別できる方法であれば特に限定されるものではなく、従来から公知の種々の方法を用いることができる。   Alternatively, as shown in FIG. 22, a document type automatic determination unit 25 for determining the document type based on the image data is provided, and a document type determination signal output from the document type automatic determination unit 25 is sent to the character recognition unit 42. The character recognition unit 42 performs the character recognition processing only when the document type determination signal indicates that the document type determination signal indicates a document including characters (for example, a character document, a character printed photo document, a character photographic paper photo document, etc.). Also good. The document type discrimination method in the document type automatic discrimination unit 25 is not particularly limited as long as it can discriminate between a document including at least characters and a document not including characters. Various conventionally known methods are used. be able to.

また、本実施形態では、本発明をデジタルカラー複合機に適用する場合について説明したが、これに限らず、モノクロの複合機に適用してもよい。また、複合機に限らず、例えば単体の画像読取装置に適用してもよい。   In this embodiment, the case where the present invention is applied to a digital color multifunction peripheral has been described. However, the present invention is not limited to this, and may be applied to a monochrome multifunction peripheral. Further, the present invention is not limited to a multifunction machine, and may be applied to, for example, a single image reading apparatus.

図23は、本発明を画像読取装置に適用する場合の構成例を示すブロック図である。この図に示す画像読取装置100は、画像入力装置2、画像処理装置3b、通信装置5、および操作パネル6を備えている。画像入力装置2、通信装置5、および操作パネル6の構成および機能は上述したデジタルカラー複合機1の場合と略同様なので、ここではその説明を省略する。   FIG. 23 is a block diagram showing a configuration example when the present invention is applied to an image reading apparatus. An image reading apparatus 100 shown in this figure includes an image input device 2, an image processing device 3b, a communication device 5, and an operation panel 6. Since the configurations and functions of the image input device 2, the communication device 5, and the operation panel 6 are substantially the same as those of the digital color multifunction peripheral 1 described above, the description thereof is omitted here.

画像処理装置3bは、A/D変換部11、シェーディング補正部12、入力処理部13、原稿検知部14、原稿補正部15、色補正部16、送信データ生成部22、記憶部23、および制御部24を備えている。また、送信データ生成部22は、情報抽出部41、文字認識部42、描画コマンド生成部43、およびフォーマット化処理部44を備えている。   The image processing apparatus 3b includes an A / D conversion unit 11, a shading correction unit 12, an input processing unit 13, a document detection unit 14, a document correction unit 15, a color correction unit 16, a transmission data generation unit 22, a storage unit 23, and a control. The unit 24 is provided. The transmission data generation unit 22 includes an information extraction unit 41, a character recognition unit 42, a drawing command generation unit 43, and a formatting processing unit 44.

なお、画像形成モードを備えていない点、および、色補正部16が色補正処理後の画像データをフォーマット化処理部44に出力し、フォーマット化処理部44が色補正部16から入力された画像データに基づいて外部装置に送信する画像ファイルを生成する点以外は、画像処理装置3bに備えられる各部の機能は上述したデジタルカラー複合機1の場合と略同様である。画像処理装置3bにおいて上述した各処理が施されて生成された画像ファイルは、通信装置5により、ネットワークを介して通信可能に接続されたコンピュータやサーバなどに送信される。   Note that the image forming mode is not provided, and the color correction unit 16 outputs the image data after the color correction processing to the formatting processing unit 44, and the formatting processing unit 44 inputs the image data from the color correcting unit 16. Except for generating an image file to be transmitted to an external device based on the data, the functions of each unit provided in the image processing device 3b are substantially the same as those of the digital color multifunction peripheral 1 described above. The image file generated by performing the above-described processes in the image processing apparatus 3b is transmitted by the communication apparatus 5 to a computer or a server that is communicably connected via a network.

また、上記各実施形態において、デジタルカラー複合機1、画像読取装置100に備えられる各部(各ブロック)を、CPU等のプロセッサを用いてソフトウェアによって実現してもよい。この場合、デジタルカラー複合機1、画像読取装置100は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデジタルカラー複合機1、画像読取装置100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、デジタルカラー複合機1、画像読取装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによって達成される。   In each of the above embodiments, each unit (each block) provided in the digital color multifunction peripheral 1 and the image reading apparatus 100 may be realized by software using a processor such as a CPU. In this case, the digital color multifunction peripheral 1 and the image reading apparatus 100 expand a CPU (central processing unit) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, and the program. A random access memory (RAM), and a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is to enable the computer to read the program code (execution format program, intermediate code program, source program) of the control program for the digital color multifunction peripheral 1 and the image reading apparatus 100 which are software for realizing the functions described above. This is achieved by supplying the recording medium recorded in (1) to the digital color multifunction peripheral 1 and the image reading apparatus 100, and the computer (or CPU or MPU) reads and executes the program code recorded on the recording medium.

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、デジタルカラー複合機1、画像読取装置100を通信ネットワークと接続可能に構成し、通信ネットワークを介して上記プログラムコードを供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The digital color multifunction peripheral 1 and the image reading apparatus 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

また、デジタルカラー複合機1、画像読取装置100の各ブロックは、ソフトウェアを用いて実現されるものに限らず、ハードウェアロジックによって構成されるものであってもよく、処理の一部を行うハードウェアと当該ハードウェアの制御や残余の処理を行うソフトウェアを実行する演算手段とを組み合わせたものであってもよい。   The blocks of the digital color multifunction peripheral 1 and the image reading apparatus 100 are not limited to those realized using software, but may be constituted by hardware logic, and hardware that performs a part of the processing. Hardware and arithmetic means for executing software for performing control of the hardware and remaining processing may be combined.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明は、原稿から読み取った画像データに所定の処理を施して他の装置に送信する画像処理装置、画像読取装置、および画像形成装置に適用できる。   The present invention can be applied to an image processing apparatus, an image reading apparatus, and an image forming apparatus that perform predetermined processing on image data read from a document and transmit the image data to another apparatus.

1 デジタルカラー複合機(画像処理装置、画像形成装置、画像読取装置)
2 画像入力装置
3、3b 画像処理装置
4 画像出力装置
5 通信装置
6 操作パネル
14 原稿検知部(条件検出部、画像領域検出部)
15 原稿補正部
16 色補正部(色変換部)
21 領域分離部
22 送信データ生成部
23 記憶部
24 制御部
31 信号変換部
32 2値化処理部
33 解像度変換部
34 原稿傾き検知部
35 原稿天地判定部
36 画像領域判定部
41 情報抽出部
42 文字認識部
43 描画コマンド生成部
44 フォーマット化処理部
100 画像読取装置(画像処理装置、画像読取装置)
1 Digital color MFP (image processing device, image forming device, image reading device)
2 Image input device 3, 3 b Image processing device 4 Image output device 5 Communication device 6 Operation panel 14 Document detection unit (condition detection unit, image area detection unit)
15 Document Correction Unit 16 Color Correction Unit (Color Conversion Unit)
21 region separation unit 22 transmission data generation unit 23 storage unit 24 control unit 31 signal conversion unit 32 binarization processing unit 33 resolution conversion unit 34 document inclination detection unit 35 document top / bottom determination unit 36 image region determination unit 41 information extraction unit 42 character Recognizing unit 43 Drawing command generating unit 44 Formatting processing unit 100 Image reading device (image processing device, image reading device)

Claims (14)

原稿を読み取って取得した原稿画像の画像データを所定形式のデータにフォーマット化した画像ファイルを生成するフォーマット化処理部を備えた画像処理装置であって、
上記画像データにおける上記原稿画像に対応する領域を検出する画像領域検出部と、
上記原稿画像を描画する際に適用すべき画像処理の条件を上記画像データに基づいて検出する条件検出部と、
上記画像データにおける上記画像領域検出部が検出した上記原稿画像に対応する領域以外の領域の色を所定の色に変換処理する色変換部と、
上記原稿画像を描画する際に上記条件に基づく画像処理を施した状態で描画させるようにコンピュータを制御するための描画コマンドを生成する描画コマンド生成部とを備え、
上記フォーマット化処理部は、上記画像ファイルとして、上記色変換部によって上記変換処理を施された後、上記画像処理を施す前の上記画像データに対して圧縮処理を施した画像データに上記描画コマンドを付加した画像ファイルを生成することを特徴とする画像処理装置。
An image processing apparatus including a formatting processing unit that generates an image file in which image data of a document image obtained by reading a document is formatted into data of a predetermined format,
An image area detection unit for detecting an area corresponding to the document image in the image data;
A condition detection unit for detecting image processing conditions to be applied when drawing the document image based on the image data;
A color conversion unit that converts a color of a region other than a region corresponding to the document image detected by the image region detection unit in the image data into a predetermined color;
A drawing command generation unit that generates a drawing command for controlling the computer so that the image is drawn in a state where image processing based on the above conditions is performed when drawing the document image;
The formatting processing unit, as the image file, performs the drawing command on the image data subjected to the compression processing on the image data after the conversion processing is performed by the color conversion unit and before the image processing is performed. An image processing apparatus that generates an image file to which is added.
上記条件検出部は、上記画像データの基準方向に対する上記原稿画像の傾き角度を上記条件として検出し、
上記描画コマンド生成部は、上記条件検出部が検出した傾き角度に基づいて上記原稿画像の角度を上記基準方向に一致させるかあるいは近づけるための傾き補正処理をコンピュータに行わせるための描画コマンドを生成することを特徴とする請求項1に記載の画像処理装置。
The condition detection unit detects an inclination angle of the document image with respect to a reference direction of the image data as the condition,
The drawing command generation unit generates a drawing command for causing the computer to perform an inclination correction process for making the angle of the document image coincide with or approach the reference direction based on the inclination angle detected by the condition detection unit. The image processing apparatus according to claim 1, wherein:
上記条件検出部は、上記画像データにおける原稿に対応する画像が存在する領域の範囲を上記条件として検出し、
上記描画コマンド生成部は、上記画像データから上記条件検出部が検出した上記範囲の画像データを抽出する画像抽出処理をコンピュータに行わせるための描画コマンドを生成することを特徴とする請求項1または2に記載の画像処理装置。
The condition detection unit detects, as the condition, a range of an area where an image corresponding to the document in the image data exists.
The drawing command generation unit generates a drawing command for causing a computer to perform image extraction processing for extracting the image data in the range detected by the condition detection unit from the image data. 2. The image processing apparatus according to 2.
上記条件検出部は、上記原稿画像に含まれる文字画像の向きに基づいて上記画像データの基準方向に対する上記原稿画像の向きを90度単位で検出し、
上記描画コマンド生成部は、上記条件検出部が検出した上記原稿画像の向きに基づいて上記原稿画像の向きを上記基準方向に一致させるように上記原稿画像を90度単位で回転させる天地補正処理をコンピュータに行わせるための描画コマンドを生成することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The condition detection unit detects the orientation of the document image with respect to a reference direction of the image data based on the orientation of the character image included in the document image in units of 90 degrees.
The drawing command generation unit performs a top and bottom correction process for rotating the document image by 90 degrees so that the direction of the document image matches the reference direction based on the direction of the document image detected by the condition detection unit. The image processing apparatus according to claim 1, wherein a drawing command for causing a computer to execute is generated.
上記条件検出部は、上記画像データに応じた画像を所定のサイズで描画するために上記画像データに施すべき変倍処理の倍率を検出し、
上記描画コマンド生成部は、上記条件検出部が検出した上記倍率に基づく変倍処理をコンピュータに行わせるための描画コマンドを生成することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
The condition detection unit detects a magnification of a scaling process to be performed on the image data in order to draw an image according to the image data with a predetermined size,
5. The drawing command generation unit according to claim 1, wherein the drawing command generation unit generates a drawing command for causing a computer to perform a scaling process based on the magnification detected by the condition detection unit. Image processing apparatus.
上記条件検出部は、上記画像データにおける原稿に対応する画像が存在する領域の範囲を上記条件として検出するとともに、上記画像データから上記範囲の画像データを抽出して得られる抽出画像データに応じた画像を所定のサイズで描画するために上記抽出画像データに施すべき変倍処理の倍率を検出し、
上記描画コマンド生成部は、上記画像データから上記条件検出部が検出した上記範囲の画像データを抽出する画像抽出処理と、この画像抽出処理によって得られた抽出画像データを上記条件検出部が検出した上記倍率に基づいて変倍する変倍処理とをコンピュータに行わせるための描画コマンドを生成することを特徴とする請求項1に記載の画像処理装置。
The condition detection unit detects a range of an area where an image corresponding to a document in the image data exists as the condition, and according to the extracted image data obtained by extracting the image data of the range from the image data. Detecting a scaling factor to be applied to the extracted image data in order to draw an image with a predetermined size,
The drawing command generation unit detects an image extraction process for extracting the image data in the range detected by the condition detection unit from the image data, and the condition detection unit detects the extracted image data obtained by the image extraction process. The image processing apparatus according to claim 1, wherein a drawing command is generated for causing a computer to perform a scaling process for scaling based on the magnification.
上記原稿画像の画像データに上記画像処理を施した画像データに基づいて上記フォーマット化処理部に上記画像ファイルを生成させる通常モードと、
上記画像処理を施す前の上記原稿画像の画像データに上記描画コマンドを付加した画像ファイルを上記フォーマット化処理部に生成させる簡易モードとを備えていることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
A normal mode for causing the formatting processing unit to generate the image file based on image data obtained by performing the image processing on the image data of the document image;
7. A simple mode for causing the formatting processing unit to generate an image file in which the drawing command is added to image data of the original image before the image processing is performed. The image processing apparatus according to claim 1.
上記フォーマット化処理部は、上記画像データに基づいてPDF形式、TIFF形式、およびEXIF規格のJPEG形式のうちのいずれかの画像ファイルを生成することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。   8. The image processing apparatus according to claim 1, wherein the formatting processing unit generates an image file of any one of a PDF format, a TIFF format, and an EXIF standard JPEG format based on the image data. The image processing apparatus according to item. 原稿を読み取って原稿画像の画像データを取得する画像読取部と、
請求項1から8のいずれか1項に記載の画像処理装置とを備えていることを特徴とする画像読取装置。
An image reading unit that reads the document and obtains image data of the document image;
An image reading apparatus comprising the image processing apparatus according to claim 1.
請求項1から8のいずれか1項に記載の画像処理装置と、
上記フォーマット化処理部によって生成された画像ファイルを通信可能に接続された他の装置に送信する通信部とを備えていることを特徴とする画像送信装置。
The image processing apparatus according to any one of claims 1 to 8,
An image transmission device comprising: a communication unit that transmits the image file generated by the formatting processing unit to another device connected to be communicable.
請求項1から8のいずれか1項に記載の画像処理装置と、
上記フォーマット化処理部によって生成された画像ファイルを記憶する記憶部と、
上記記憶部に記憶された画像ファイルを読み出し、当該画像ファイルに含まれる上記描画コマンドに基づいて画像処理を施す画像処理部と、
上記画像処理を施した画像データに応じた画像を記録材上に印刷する画像形成部とを備えていることを特徴とする画像形成装置。
The image processing apparatus according to any one of claims 1 to 8,
A storage unit for storing the image file generated by the formatting processing unit;
An image processing unit that reads an image file stored in the storage unit and performs image processing based on the drawing command included in the image file;
An image forming apparatus comprising: an image forming unit that prints an image corresponding to image data subjected to the image processing on a recording material.
原稿を読み取って取得した原稿画像の画像データを所定形式のデータにフォーマット化した画像ファイルを生成する画像処理方法であって、
上記画像データにおける上記原稿画像に対応する領域を検出する画像領域検出工程と、
上記原稿画像を描画する際に適用すべき画像処理の条件を上記画像データに基づいて検出する条件検出工程と、
上記画像データにおける上記画像領域検出工程で検出した上記原稿画像に対応する領域以外の領域の色を所定の色に変換処理する色変換工程と、
上記原稿画像を描画する際に上記条件に基づく画像処理を施した状態で描画させるようにコンピュータを制御するための描画コマンドを生成する描画コマンド生成工程と、
上記画像ファイルとして、上記色変換工程で上記変換処理を施した後、上記画像処理を施す前の上記画像データに対して圧縮処理を施した画像データに上記描画コマンドを付加した画像ファイルを生成する画像ファイル生成工程とを含むことを特徴とする画像処理方法。
An image processing method for generating an image file in which image data of a document image obtained by reading a document is formatted into data of a predetermined format,
An image area detecting step for detecting an area corresponding to the original image in the image data;
A condition detection step of detecting image processing conditions to be applied when drawing the document image based on the image data;
A color conversion step of converting a color of a region other than the region corresponding to the document image detected in the image region detection step in the image data into a predetermined color;
A drawing command generation step for generating a drawing command for controlling the computer so that the image is drawn in a state where image processing based on the above conditions is performed when drawing the document image;
As the image file, after performing the conversion process in the color conversion step, an image file in which the drawing command is added to the image data obtained by compressing the image data before the image process is generated. And an image file generating step.
請求項1から8のいずれか1項に記載の画像処理装置を動作させるプログラムであって、コンピュータを上記の各部として機能させるためのプログラム。   A program for operating the image processing apparatus according to any one of claims 1 to 8, wherein the program causes a computer to function as each unit described above. 請求項13に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 13 is recorded.
JP2009003999A 2009-01-09 2009-01-09 Image processor, image reader, image transmission device, image formation device, image processing method, program, and recording medium of the same Pending JP2010161745A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009003999A JP2010161745A (en) 2009-01-09 2009-01-09 Image processor, image reader, image transmission device, image formation device, image processing method, program, and recording medium of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009003999A JP2010161745A (en) 2009-01-09 2009-01-09 Image processor, image reader, image transmission device, image formation device, image processing method, program, and recording medium of the same

Publications (1)

Publication Number Publication Date
JP2010161745A true JP2010161745A (en) 2010-07-22

Family

ID=42578542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009003999A Pending JP2010161745A (en) 2009-01-09 2009-01-09 Image processor, image reader, image transmission device, image formation device, image processing method, program, and recording medium of the same

Country Status (1)

Country Link
JP (1) JP2010161745A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5598576B1 (en) * 2013-06-24 2014-10-01 富士ゼロックス株式会社 MFP and reader
US9008525B2 (en) 2012-04-16 2015-04-14 Kabushiki Kaisha Toshiba Image forming apparatus and image forming method
JP2020017845A (en) * 2018-07-25 2020-01-30 京セラドキュメントソリューションズ株式会社 Image forming apparatus and system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9008525B2 (en) 2012-04-16 2015-04-14 Kabushiki Kaisha Toshiba Image forming apparatus and image forming method
JP5598576B1 (en) * 2013-06-24 2014-10-01 富士ゼロックス株式会社 MFP and reader
CN104243737A (en) * 2013-06-24 2014-12-24 富士施乐株式会社 Multifunction apparatus and reading device
US9106773B2 (en) 2013-06-24 2015-08-11 Fuji Xerox Co., Ltd. Multifunction apparatus and reading device
CN104243737B (en) * 2013-06-24 2018-09-07 富士施乐株式会社 Multifunctional equipment and reading device
JP2020017845A (en) * 2018-07-25 2020-01-30 京セラドキュメントソリューションズ株式会社 Image forming apparatus and system
JP7103020B2 (en) 2018-07-25 2022-07-20 京セラドキュメントソリューションズ株式会社 Image forming equipment and system

Similar Documents

Publication Publication Date Title
JP4758502B2 (en) Image processing apparatus, image reading apparatus, image transmitting apparatus, image forming apparatus, image processing method, program, and recording medium thereof
JP5220828B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, program, and recording medium
JP4886053B2 (en) CONTROL DEVICE, IMAGE READING DEVICE, IMAGE FORMING DEVICE, IMAGE READING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP4772888B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof
JP5280425B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, image processing method, program, and recording medium thereof
US8165402B2 (en) Image processing method, image processing apparatus, image forming apparatus and storage medium
JP5813523B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP5089713B2 (en) Image compression apparatus, compressed image output apparatus, image compression method, computer program, and recording medium
JP2010146185A (en) Image processing apparatus, image reading apparatus, image sending apparatus, image processing method, program, and recording medium thereof
JP2011228811A (en) Image compression device, image output device, image reader, image compression method, computer program, and recording medium
JP2008099149A (en) Image processor, image processing method and image processing program
JP2011010033A (en) Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium
JP2012118863A (en) Image reading device, image formation device, image reading method, program and recording medium therefor
JP2017130811A (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP2012074852A (en) Image processing device, image formation device, image reading device, image processing method, image processing program and recording medium
JP2009134686A (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and its recording medium
JP2010161745A (en) Image processor, image reader, image transmission device, image formation device, image processing method, program, and recording medium of the same
US9268998B2 (en) Image determining apparatus, image processing system, and recording medium
JP2009017208A (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and computer readable recording medium
JP2011010232A (en) Image processing apparatus, image reading apparatus, multi function peripheral, image processing method, program and recording medium
JP2010258706A (en) Image processing apparatus, image forming apparatus, method of controlling image processing apparatus, program, and recording medium
JP2010286917A (en) Image processor, image scanner, multifunction apparatus, image processing method, program, and recording medium
JP2010130634A (en) Image processing apparatus, image data output processing device, image processing method, program and recording medium therefor
JP2015023461A (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP2015226264A (en) Image processing apparatus, image formation apparatus with the same, image processing program, and recording medium with recorded program