JP2003189096A - Image processing apparatus - Google Patents

Image processing apparatus

Info

Publication number
JP2003189096A
JP2003189096A JP2001389764A JP2001389764A JP2003189096A JP 2003189096 A JP2003189096 A JP 2003189096A JP 2001389764 A JP2001389764 A JP 2001389764A JP 2001389764 A JP2001389764 A JP 2001389764A JP 2003189096 A JP2003189096 A JP 2003189096A
Authority
JP
Japan
Prior art keywords
area
image
character
graphic
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001389764A
Other languages
Japanese (ja)
Other versions
JP3931651B2 (en
JP2003189096A5 (en
Inventor
Tsutomu Yamazaki
勉 山崎
Yoko Fujiwara
葉子 藤原
Yoshinori Tanaka
芳則 田中
Masahiro Ozawa
昌裕 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001389764A priority Critical patent/JP3931651B2/en
Priority to US10/322,700 priority patent/US7340092B2/en
Publication of JP2003189096A publication Critical patent/JP2003189096A/en
Publication of JP2003189096A5 publication Critical patent/JP2003189096A5/ja
Application granted granted Critical
Publication of JP3931651B2 publication Critical patent/JP3931651B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To surely extract a character area from an image data to execute a proper process for the character area in the read image data. <P>SOLUTION: After the character area is firstly extracted from a received image data (S241), a photograph area and a graphic area are separated from the data remaining after extraction (S243, S245, S246). Consequently, the character area is not extracted in accordance with the other areas under the effect of separating process for the other areas. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置に関
し、特に、処理しようとする画像データから、写真領
域、図形領域、および文字領域を分離する領域分離処理
を行う画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus for performing area separation processing for separating a photograph area, a graphic area, and a character area from image data to be processed.

【0002】[0002]

【従来の技術】原稿を読み取って得られた画像データか
ら、写真領域、図形領域、および文字領域を判別し、そ
れぞれの領域に適応した処理を行った後、各領域を合成
した画像データを出力するという画像処理技術が知られ
ている(たとえば、特開平5−342408号公報参
照)。
2. Description of the Related Art From image data obtained by reading an original, a photographic area, a graphic area, and a character area are discriminated, processing is performed in accordance with each area, and then image data obtained by combining the areas is output. There is known an image processing technique (see, for example, Japanese Patent Laid-Open No. 5-342408).

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来技術においては、画像データ中の各領域の種類を誤り
無く判別することが困難な場合がある。たとえば、画像
データの中で、複数の異なる種類の領域が複雑なレイア
ウトで配置されている場合、あるいは相互に重なって配
置されている場合には、領域の種類を誤判別するおそれ
が大きい。
However, in the above conventional technique, it may be difficult to determine the type of each area in the image data without error. For example, in the image data, when a plurality of different types of areas are arranged in a complicated layout, or when they are arranged so as to overlap each other, there is a high possibility that the type of area is erroneously determined.

【0004】たとえば、画像データ中で文字画像が写真
画像または図形画像の上に重なっている場合、文字領域
が判別されないで全体が写真領域または図形領域と判別
されて抽出されるおそれがある。また、抽出された文字
画像を含む領域に対してたとえば写真領域に適応したJ
PEG圧縮処理が施されてしまうと、写真領域の中の文
字画像が劣化して復元したときに判読困難な画像となる
おそれもある。
For example, when a character image overlaps a photographic image or a graphic image in the image data, there is a possibility that the character region is not discriminated and the whole is discriminated as a photographic region or a graphic region and is extracted. In addition, for the area including the extracted character image, a J
If the PEG compression process is performed, the character image in the photographic area may deteriorate and may be difficult to read when restored.

【0005】このように、画像データから、文字画像が
含まれる文字領域を重点的に抽出し、抽出された領域に
対して文字認識処理などの文字領域に適応した処理を実
行したい場合であっても、文字領域を確実に抽出するこ
とができないために、文字画像に対する文字認識処理を
十分に実行できないばかりか、文字画像に対して不適切
な処理が施されるおそれがあった。
As described above, when it is desired to intensively extract a character area including a character image from the image data and to execute processing suitable for the character area such as character recognition processing on the extracted area. However, since the character region cannot be reliably extracted, not only the character recognition processing for the character image cannot be sufficiently executed, but also the character image may be inappropriately processed.

【0006】本発明は、上記従来技術の有する問題点に
鑑みてなされたものであり、本発明の目的は、読み取っ
た画像データ中の文字領域に対して適切な処理を実行す
るために、当該画像データから文字領域を確実に抽出す
ることである。
The present invention has been made in view of the above problems of the prior art, and an object of the present invention is to perform appropriate processing on a character area in read image data. It is to reliably extract the character area from the image data.

【0007】[0007]

【課題を解決するための手段】本発明の上記目的は、下
記の手段によって達成される。
The above objects of the present invention can be achieved by the following means.

【0008】(1)処理しようとする画像データから、
写真領域、図形領域、および文字領域を分離する領域分
離手段を有する画像処理装置であって、前記領域分離手
段は、前記画像データから、写真領域および図形領域よ
りも先に文字領域を抽出する文字領域最先抽出手段を備
え、前記画像データから文字領域が抽出されて残ったデ
ータから、写真領域と図形領域とを分離することを特徴
とする画像処理装置。
(1) From the image data to be processed,
An image processing apparatus having area separating means for separating a photograph area, a graphic area, and a character area, wherein the area separating means extracts a character area from the image data before the character area and the graphic area. An image processing apparatus comprising area first extraction means, wherein a character area is extracted from the image data and remaining data is separated into a photographic area and a graphic area.

【0009】(2)前記領域分離手段は、前記画像デー
タから文字領域が抽出されて残ったデータから、図形領
域よりも先に写真領域を抽出する写真領域先行抽出手段
をさらに備えていることを特徴とする上記(1)に記載
の画像処理装置。
(2) The area separating means further comprises a photographic area preceding extracting means for extracting a photographic area prior to a figure area from the data remaining after the character area is extracted from the image data. The image processing apparatus according to (1) above, which is characterized.

【0010】(3)前記領域分離手段は、前記画像デー
タから文字領域が抽出されて残ったデータから、写真領
域よりも先に図形領域を抽出する図形領域先行抽出手段
をさらに備えていることを特徴とする上記(1)に記載
の画像処理装置。
(3) The area separating means further comprises graphic area preceding extraction means for extracting a graphic area prior to a photographic area from the data remaining after the character area is extracted from the image data. The image processing apparatus according to (1) above, which is characterized.

【0011】(4)前記写真領域先行抽出手段は、前記
画像データから文字領域が抽出されて残ったデータに対
して、複数の所定領域に分割し得る第1領域分割処理を
施し、分割された領域のうちで写真領域を抽出する第1
写真領域抽出手段と、前記画像データから文字領域が抽
出されて残ったデータから前記第1写真領域抽出手段に
より写真領域がさらに抽出されて残ったデータに対し
て、前記所定領域よりも小さい複数の領域に分割し得る
第2領域分割処理を施し、分割された領域のうちで写真
領域を抽出する第2写真領域抽出手段とを有することを
特徴とする上記(2)に記載の画像処理装置。
(4) The photographic area preceding extraction means performs a first area division process for dividing the character area extracted from the image data and remaining data into a plurality of predetermined areas, and the image data is divided. First to extract a photo region from a region
A photograph area extracting unit and a plurality of data smaller than the predetermined area with respect to the remaining data obtained by further extracting the photograph area by the first photograph area extracting unit from the data remaining after the character area is extracted from the image data. The image processing apparatus according to (2) above, further comprising: a second photographic area extracting unit that performs a second area division process that can be divided into areas and extracts a photographic area from the divided areas.

【0012】(5)前記図形領域先行抽出手段は、前記
画像データから文字領域が抽出されて残ったデータに対
して、複数の所定領域に分割し得る第1領域分割処理を
施し、分割された領域のうちで図形領域を抽出する第1
図形領域抽出手段と、前記画像データから文字領域が抽
出されて残ったデータから前記第1図形領域抽出手段に
より図形領域がさらに抽出されて残ったデータに対し
て、前記所定領域よりも小さい複数の領域に分割し得る
第2領域分割処理を施し、分割された領域のうちで図形
領域を抽出する第2図形領域抽出手段とを有することを
特徴とする上記(3)に記載の画像処理装置。
(5) The graphic area preceding extraction means performs a first area division process capable of dividing a character area extracted from the image data and remaining data into a plurality of predetermined areas, and the divided data is divided. First to extract a graphic area from the area
A graphic area extracting unit and a plurality of data smaller than the predetermined area with respect to the data remaining after the graphic area is further extracted by the first graphic area extracting unit from the data remaining after the character area is extracted from the image data. The image processing apparatus according to (3) above, further comprising: second graphic area extracting means for performing a second area dividing process that can be divided into areas and extracting a graphic area from the divided areas.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態を、図
面を参照して詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0014】図1は、本発明の実施形態にかかる画像処
理装置を含む画像処理システムの全体構成を示すブロッ
ク図である。本画像処理システムは、画像処理装置1
と、スキャナ2と、ファイルサーバ3とを備え、これら
はコンピュータネットワーク4を介して相互に通信可能
に接続されている。なお、コンピュータネットワークに
接続される機器の種類および台数は、図1に示す例に限
定されない。
FIG. 1 is a block diagram showing the overall configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention. The image processing system includes an image processing device 1
, A scanner 2 and a file server 3, which are communicably connected to each other via a computer network 4. The types and the number of devices connected to the computer network are not limited to the example shown in FIG.

【0015】図2は、本実施形態にかかる画像処理装置
1の構成を示すブロック図である。図2において、画像
処理装置1は、制御部101、記憶部102、操作部1
03、入力インタフェース部104、出力インタフェー
ス部105、領域分離部106、画像処理部108、文
書ファイル作成部109およびファイル形式変換部11
0を備えており、これらは信号をやり取りするためのバ
ス111を介して相互に接続されている。
FIG. 2 is a block diagram showing the arrangement of the image processing apparatus 1 according to this embodiment. In FIG. 2, the image processing apparatus 1 includes a control unit 101, a storage unit 102, and an operation unit 1.
03, input interface unit 104, output interface unit 105, area separation unit 106, image processing unit 108, document file creation unit 109, and file format conversion unit 11
0, which are connected to each other via a bus 111 for exchanging signals.

【0016】制御部101はCPUであり、プログラム
にしたがって上記各部の制御や各種の演算処理等を行
う。記憶部102は、予め各種プログラムやパラメータ
を格納しておくROM、作業領域として一時的にプログ
ラムやデータを記憶するRAM、各種プログラムやパラ
メータを格納し、または画像処理により得られた画像デ
ータ等を一時的に保存するために使用されるハードディ
スク等からなる。
The control unit 101 is a CPU, and controls various parts described above and executes various arithmetic processes according to a program. The storage unit 102 stores a ROM that stores various programs and parameters in advance, a RAM that temporarily stores programs and data as a work area, stores various programs and parameters, or stores image data obtained by image processing. It consists of a hard disk used for temporary storage.

【0017】操作部103は、各種項目の設定、または
動作開始の指示を行うためのキーや操作パネル等から構
成される。図3に示すように、設定可能な項目として
は、画像データの送信先、出力ファイル形式、原稿モー
ド、スキャン条件、スキャン後処理等が挙げられる。
The operation unit 103 is composed of keys, an operation panel and the like for setting various items or instructing the start of operation. As shown in FIG. 3, items that can be set include a destination of image data, an output file format, a document mode, scan conditions, post-scan processing, and the like.

【0018】入力インタフェース部104は、画像デー
タなどのデータや命令等を受信するためのインタフェー
スであり、出力インタフェース部105は、出力ファイ
ルなどのデータや命令等を送信するためのインタフェー
スである。
The input interface unit 104 is an interface for receiving data such as image data and instructions, and the output interface unit 105 is an interface for transmitting data such as output files and instructions.

【0019】領域分離部106は、画像データから、写
真領域、図形領域、および文字領域を分離する。画像処
理部108は、写真領域処理部108a、図形領域処理
部108bおよび文字領域処理部108cからなる。各
領域処理部108a〜108cは、領域分離部106に
よりそれぞれ抽出された文字領域、図形領域、および写
真領域に対して、当該領域の種類に応じた適切な画像処
理を施す。
The area separating unit 106 separates the photograph area, the graphic area, and the character area from the image data. The image processing unit 108 includes a photo area processing unit 108a, a graphic area processing unit 108b, and a character area processing unit 108c. The area processing units 108a to 108c perform appropriate image processing on the character area, the graphic area, and the photograph area, which are extracted by the area separating unit 106, according to the type of the area.

【0020】文書ファイル作成部109は、写真領域処
理部108a、図形領域処理部108b、および文字領
域処理部108cからそれぞれ送られる処理後の画像が
含まれる各領域を合成して、内部ファイル形式により文
書ファイルを作成する。ファイル形式変換部110は、
内部ファイル形式により作成した文書ファイルを設定さ
れた出力ファイル形式に変換する。なお、出力ファイル
形式としては、各種文書作成ソフトの文書形式や、ポス
トスクリプト(登録商標)、PDF、JPEG、TIF
F等の汎用フォーマットが挙げられる。
The document file creation unit 109 synthesizes the respective areas including the processed images sent from the photograph area processing unit 108a, the graphic area processing unit 108b, and the character area processing unit 108c, and creates a composite file in the internal file format. Create a document file. The file format conversion unit 110
Convert the document file created by the internal file format to the set output file format. The output file formats include various document creation software document formats, PostScript (registered trademark), PDF, JPEG, and TIF.
A general-purpose format such as F is used.

【0021】スキャナ2は、原稿を読み取って画像デー
タを取得し、得られた画像データを画像処理装置に送信
する。
The scanner 2 reads a document to acquire image data, and transmits the obtained image data to the image processing apparatus.

【0022】ファイルサーバ3はコンピュータであり、
コンピュータネットワーク4を介して受信したファイル
を格納し、また転送要求に応じて格納したファイルをコ
ンピュータネットワーク上の他の機器に転送する。
The file server 3 is a computer,
The file received via the computer network 4 is stored, and the stored file is transferred to another device on the computer network in response to a transfer request.

【0023】コンピュータネットワーク4は、イーサネ
ット(登録商標)、トークンリング、FDDI等の規格
によりコンピュータや周辺機器、ネットワーク機器等を
接続したLANや、LAN同士を専用線で接続したWA
N等からなる。
The computer network 4 is a LAN connecting computers, peripheral devices, network devices, etc. according to standards such as Ethernet (registered trademark), token ring, and FDDI, or a WA connecting LANs by dedicated lines.
It consists of N etc.

【0024】次に、図4を参照して、本実施形態の画像
処理装置1における処理の手順について説明する。な
お、図4のフローチャートにより示されるアルゴリズム
は、画像処理装置1の記憶部102にプログラムとして
記憶されており、制御部101によって実行される。
Next, the procedure of processing in the image processing apparatus 1 of this embodiment will be described with reference to FIG. The algorithm shown in the flowchart of FIG. 4 is stored as a program in the storage unit 102 of the image processing apparatus 1, and is executed by the control unit 101.

【0025】まず、ステップS101では、各種項目の
設定が行われる。すなわち、画像データの送信先、出力
ファイル形式、原稿モード、スキャン条件、およびスキ
ャン後処理についての設定が行われる。ここで、画像デ
ータの送信先の設定は、画像出力先装置のIPアドレ
ス、ホスト名、メールアドレス等が入力されることによ
り行われる。出力ファイル形式の設定は、画像出力先装
置に送信する出力ファイルのファイル形式が選択される
ことにより行われる。
First, in step S101, various items are set. That is, the settings for the destination of image data, output file format, original mode, scan condition, and post-scan processing are performed. Here, the destination of the image data is set by inputting the IP address, the host name, the mail address, etc. of the image output destination device. The output file format is set by selecting the file format of the output file to be transmitted to the image output destination device.

【0026】原稿モードの設定は、写真画像が含まれる
写真領域、図形画像が含まれる図形領域、および文字画
像が含まれる文字領域のうちで、どの領域の画像を優先
するかが選択されることにより行われる。ここで、写真
画像とは、写真や絵柄などの連続的に変化する階調のあ
る画像をいう。また、図形画像とは、線やベタ絵などの
たとえばパソコンで作成された画像をいう。
The document mode is set by selecting which area of the photo area including the photographic image, the graphic area including the graphic image, and the character area including the character image is given priority. Done by. Here, the photographic image refers to an image having a gradation that continuously changes, such as a photograph or a design. The graphic image refers to an image created by, for example, a personal computer such as a line or a solid picture.

【0027】図3に示すように、本実施形態では、ユー
ザは、操作部103を通して、原稿の内容に応じて、最
も優先して処理したい領域(第1優先領域)と、2番目
に優先して処理したい領域(第2優先領域)とを選択す
ることができる。なお、ユーザによる第1優先領域およ
び/または第2優先領域の選択が行われない場合には、
所定のデフォルト値にしたがって領域の優先順位が決定
される。
As shown in FIG. 3, in the present embodiment, the user gives the highest priority to the area (first priority area) and the second priority through the operation unit 103 according to the content of the original. It is possible to select an area (second priority area) to be processed as a result. If the user does not select the first priority area and / or the second priority area,
Area priorities are determined according to a predetermined default value.

【0028】スキャン条件の設定は、スキャン領域、ス
キャン解像度、カラー/モノクロ等が指定されることに
より行われる。スキャン後処理の設定は、文字認識処
理、ベクタ変換処理、画像圧縮方法、減色方法、出力解
像度等が指定されることにより行われる。
The scan conditions are set by designating the scan area, scan resolution, color / monochrome and the like. The post-scan processing is set by specifying a character recognition process, a vector conversion process, an image compression method, a color reduction method, an output resolution, and the like.

【0029】ステップS102では、画像処理の開始命
令があるまで待機する。開始命令は、ユーザが操作部1
03のたとえばスタートキーを操作することにより行わ
れる。
In step S102, the process waits until there is a command to start image processing. The start command is issued by the user on the operation unit 1.
03, for example, by operating the start key.

【0030】ステップS103では、スキャナ2に対し
て、出力インタフェース部105を介して原稿読み取り
命令が送信される。ここで、スキャナ2は、画像処理装
置1から原稿読み取り命令を受信すると、所定の位置に
セットされた原稿を読み取って画像データを取得し、得
られた画像データを画像処理装置1に送信する。
In step S103, an original reading command is transmitted to the scanner 2 via the output interface unit 105. Here, when the scanner 2 receives an original reading command from the image processing apparatus 1, the scanner 2 reads an original set at a predetermined position to acquire image data, and transmits the obtained image data to the image processing apparatus 1.

【0031】ステップS104では、スキャナ2から、
入力インタフェース部104を介して画像データが受信
されるまで待機する。ここで、スキャナ2から画像デー
タが受信されると、受信した画像データ(RGB画像デ
ータ)は記憶部102に保存される。
In step S104, the scanner 2
It waits until image data is received via the input interface unit 104. Here, when the image data is received from the scanner 2, the received image data (RGB image data) is stored in the storage unit 102.

【0032】図5は、受信した画像データの一例を模式
的に示す図である。図5に示される画像データは、写真
画像PI1〜PI4、図形画像GI1〜GI3、文字画
像CI1〜CI6、および下地Uから構成される。図示
のように、写真画像PI1の中に図形画像GI3および
文字画像CI1、CI3が配置されており、また、図形
画像GI2の中に写真画像PI3、PI4および文字画
像CI5、CI6が配置されている。ここで、下地と
は、画像データにおける写真領域、図形領域、および文
字領域以外の部分をいい、たとえば元の原稿の印刷され
ていない用紙の色が残っている部分に対応する画像デー
タの部分をいう。
FIG. 5 is a diagram schematically showing an example of the received image data. The image data shown in FIG. 5 includes photographic images PI1 to PI4, graphic images GI1 to GI3, character images CI1 to CI6, and a base U. As shown in the figure, the graphic image GI3 and the character images CI1 and CI3 are arranged in the photographic image PI1, and the photographic images PI3 and PI4 and the character images CI5 and CI6 are arranged in the graphic image GI2. . Here, the background refers to a portion other than the photograph area, the graphic area, and the character area in the image data, for example, the portion of the image data corresponding to the portion where the color of the unprinted paper of the original document remains. Say.

【0033】なお、画像処理の開始命令はコンピュータ
ネットワーク4上の他の機器から、またはスキャナ2か
ら入力されてもよい。
The image processing start command may be input from another device on the computer network 4 or from the scanner 2.

【0034】ステップS105では、領域分離部106
により、スキャナ2から受信した画像データ、つまり処
理しようとする画像データから、写真領域、図形領域、
および文字領域が分離される。本実施形態では、領域分
離部106は、操作部103を通したユーザによる選択
によって設定された原稿モードにしたがって、画像デー
タから第1優先領域を最先に抽出し、当該画像データか
ら第1優先領域が抽出されて残ったデータから、残りの
2つの領域を分離する。さらに、第2優先領域が選択さ
れている場合には、画像データから第1優先領域が抽出
されて残ったデータから、第2優先領域を先に抽出する
ことによって残りの2つの領域を分離する。ここで、3
種類の領域別に各画像が作成され、それぞれの領域は、
各画像を含んだ領域として抽出される。この領域分離処
理の手順についての詳細は後述する。
In step S105, the area separation unit 106
Thus, from the image data received from the scanner 2, that is, the image data to be processed, the photograph area, the graphic area,
And the character area are separated. In the present embodiment, the area separation unit 106 extracts the first priority area from the image data first according to the original mode set by the selection made by the user through the operation unit 103, and first extracts the first priority area from the image data. The remaining two areas are separated from the data remaining after the areas have been extracted. Furthermore, when the second priority area is selected, the remaining two areas are separated by first extracting the second priority area from the data remaining after the first priority area is extracted from the image data. . Where 3
Each image is created for each type of area, and each area is
It is extracted as a region including each image. Details of the procedure of this area separation processing will be described later.

【0035】ステップS106では、ステップS105
において分離された写真領域に対して、写真領域に適応
した処理が行われる。すなわち、写真領域処理部108
aにより、写真領域内の写真画像は、たとえば、解像度
変換が行われた後、カラー画像の非可逆圧縮処理が行わ
れて、位置情報とともに記憶部102に保存される。
In step S106, step S105
The process adapted to the photo region is performed on the photo region separated in (1). That is, the photograph area processing unit 108
According to a, the photographic image in the photographic area is subjected to, for example, resolution conversion, irreversible compression processing of the color image, and is stored in the storage unit 102 together with the position information.

【0036】ステップS107では、ステップS105
において分離された図形領域に対して、図形領域に適応
した処理が行われる。すなわち、図形画像処理部108
bにより、図形領域内の図形画像は、たとえば、スムー
ジング処理、減色処理等が施された後、カラー画像の可
逆圧縮処理が行われて、位置情報とともに記憶部102
に保存される。
In step S107, step S105
The processing adapted to the graphic area is performed on the graphic area separated in (1). That is, the graphic image processing unit 108
In step b, the graphic image in the graphic area is subjected to, for example, smoothing processing, color reduction processing, and the like, and then lossless compression processing of the color image is performed, and the storage unit 102 together with position information.
Stored in.

【0037】ステップS108では、ステップS105
において分離された文字領域に対して、文字領域に適応
した処理が行われる。すなわち、文字画像処理部108
cにより、文字領域内の文字画像は、たとえば、2値化
された後、1ビットデータの可逆圧縮処理が施されて、
色情報、位置情報とともに記憶部102に保存される。
In step S108, step S105
A process adapted to the character area is performed on the character area separated in. That is, the character image processing unit 108
By c, the character image in the character area is, for example, binarized and then subjected to lossless compression processing of 1-bit data,
The color information and the position information are stored in the storage unit 102.

【0038】ステップS109では、文書ファイル作成
部109により、写真領域処理部108a、図形領域処
理部108b、および文字領域処理部108cからそれ
ぞれ送られた処理後の画像を含む上記3つの領域が合成
されて、文書ファイルが作成される。
In step S109, the document file creation unit 109 synthesizes the above three areas including the processed images sent from the photograph area processing unit 108a, the graphic area processing unit 108b, and the character area processing unit 108c. A document file is created.

【0039】領域の合成は、たとえば図6(A)に示す
ように、メモリ上に写真領域600、図形領域700、
および文字領域800を出力することにより行われる。
ここで、図6(B)に示すように、写真領域600内の
写真画像600a以外の部分、図形領域700内の図形
画像700a以外の部分、文字領域800内の文字画像
800a以外の部分がそれぞれマスク部600b〜80
0bに指定される。なお、各領域600〜800は、画
像600a〜800aについての外接矩形で与えられ
る。マスク部は、メモリ上に先に記憶されている情報を
有効とするためのマスク処理が行われる部分である。ま
ず、写真領域600と図形領域700とがマスク処理さ
れて配置され、その後に、文字領域800がマスク処理
されて配置される。すべての領域についてマスク処理を
行う理由は、各領域内の画像が矩形である場合のみなら
ず、他の領域の画像が中に入り込むような形状である場
合を許容しているからである。こうして、図6(A)に
示すように、3つの領域内の画像が相互に欠損すること
なくメモリ上に出力されて、領域の合成が完了する。
The areas are synthesized by, for example, as shown in FIG. 6A, a photograph area 600, a graphic area 700, and
And by outputting the character area 800.
Here, as shown in FIG. 6B, a portion other than the photographic image 600a in the photographic area 600, a portion other than the graphic image 700a in the graphic area 700, and a portion other than the character image 800a in the character area 800 are respectively Mask part 600b-80
Designated as 0b. The areas 600 to 800 are given by circumscribed rectangles of the images 600a to 800a. The masking part is a part where a masking process for validating the information previously stored in the memory is performed. First, the photograph area 600 and the graphic area 700 are masked and arranged, and then the character area 800 is masked and arranged. The reason why the masking process is performed on all the areas is that not only the case where the image in each area is rectangular, but also the case where the image of the other area has a shape that goes inside. In this way, as shown in FIG. 6A, the images in the three areas are output to the memory without being lost, and the area composition is completed.

【0040】文字領域を他の領域よりも後で配置する理
由は、後述するように、領域分離処理の際に文字領域を
抽出した後、文字画像が存在していた部分を元の画像デ
ータの背景部で補間する補間処理が行われているためで
ある。つまり、文字領域を他の領域よりも先に配置する
と、後で配置される領域内における補間された部分によ
って文字画像が隠されてしまうことを防止するためであ
る。なお、図形領域を抽出した後、図形画像が存在して
いた部分に対しても補間処理が行われる場合には、写真
領域、図形領域、文字領域の順番でメモリ上に出力され
る。
The reason for arranging the character area after the other areas is that, as will be described later, after extracting the character area during the area separation processing, the portion where the character image existed is replaced with the original image data. This is because the interpolation process of interpolating in the background portion is performed. That is, when the character area is arranged before the other areas, the character image is prevented from being hidden by the interpolated portion in the area arranged later. In addition, after the graphic area is extracted, when the interpolation process is performed on the portion where the graphic image was present, the photograph area, the graphic area, and the character area are output in this order on the memory.

【0041】ステップS110では、ファイル形式変換
部110により、ステップS109で作成された文書フ
ァイルが、設定された出力ファイル形式に変換される。
In step S110, the file format conversion unit 110 converts the document file created in step S109 into the set output file format.

【0042】ステップS111では、ステップS110
で得られた出力ファイルが、出力インタフェース部10
5およびコンピュータネットワーク4を介してファイル
サーバ3に送信される。
In step S111, step S110
The output file obtained in step 3 is the output interface unit 10
5 and the computer network 4 to the file server 3.

【0043】本実施形態では、ファイルサーバ3は、コ
ンピュータネットワーク4を介して画像処理装置1から
出力ファイルを受信すると、受信したファイルから文字
画像および図形画像を展開し、文字画像に対して文字認
識処理を施して文字コードデータに変換し、図形画像に
対してベクタ変換処理を施してベクタデータに変換し、
変換後の各データを写真画像とともに再度合成して、所
定のファイル形式に変換して得られた文書ファイルをハ
ードディスク等の記憶装置の所定のディレクトリに格納
する。そして、コンピュータネットワーク4上の他の機
器から当該ファイルの転送要求があると、格納した前記
ファイルをコンピュータネットワーク4を介して前記他
の機器に転送する。
In this embodiment, when the file server 3 receives an output file from the image processing apparatus 1 via the computer network 4, it develops a character image and a graphic image from the received file and performs character recognition on the character image. After processing, it converts to character code data, and the graphic image undergoes vector conversion processing to convert to vector data,
The converted data are combined again with the photographic image, and the document file obtained by converting the data into a predetermined file format is stored in a predetermined directory of a storage device such as a hard disk. Then, when there is a transfer request for the file from another device on the computer network 4, the stored file is transferred to the other device via the computer network 4.

【0044】次に、本実施形態における画像処理装置1
の画像処理の特徴である図4に示したステップS105
の領域分離処理の手順について、さらに詳細に説明す
る。
Next, the image processing apparatus 1 according to the present embodiment.
Which is the characteristic of the image processing of step S105 shown in FIG.
The procedure of the area separation process of is described in more detail.

【0045】図7〜図12は、原稿モードに応じた領域
分離処理の手順を示すフローチャートである。図4のス
テップS101において設定される原稿モードは、全部
で6種類ある。すなわち、原稿モードは、第1優先領域
および第2優先領域が、それぞれ写真領域および図形領
域である第1モード(図7参照)と、それぞれ写真領域
および文字領域である第2モード(図8参照)と、それ
ぞれ図形領域および写真領域である第3モード(図9参
照)と、それぞれ図形領域および文字領域である第4モ
ード(図10参照)と、それぞれ文字領域および写真領
域である第5モード(図11参照)と、それぞれ文字領
域および図形領域である第6モード(図12参照)とか
らなる。
7 to 12 are flowcharts showing the procedure of the area separation processing according to the original mode. There are a total of 6 types of document modes set in step S101 of FIG. That is, in the manuscript mode, the first priority area and the second priority area are the photographic area and the graphic area, respectively (see FIG. 7), and the second mode is the photographic area and the text area (see FIG. 8). ), A third mode that is a graphic area and a photo area (see FIG. 9), a fourth mode that is a graphic area and a text area (see FIG. 10), and a fifth mode that is a text area and a photo area, respectively. (See FIG. 11) and a sixth mode (see FIG. 12) which is a character area and a graphic area, respectively.

【0046】図7〜図12の各領域分離処理は、2値化
による領域分割、第1写真/図形領域抽出、エッジによ
る領域分割、第2写真/図形領域抽出、写真/図形領域
抽出、および文字領域抽出という、各モードで内容が共
通する処理ブロックを含んでいる。つまり、各領域分離
処理は、原稿モードに応じて優先される領域がそれぞれ
異なり、領域の優先度にしたがって、領域の抽出順がそ
れぞれ異なる。たとえば第1モードの場合、領域の優先
度は、高い方から写真領域、図形領域、文字領域の順と
なり、領域の抽出順もこれと同じである。
Each of the region separation processings in FIGS. 7 to 12 is divided into regions by binarization, first photo / graphic region extraction, edge region division, second photo / graphic region extraction, photo / graphic region extraction, and It includes a processing block called “character area extraction” that has the same contents in each mode. That is, in each area separation process, the priority area is different depending on the original mode, and the area extraction order is different according to the area priority. For example, in the case of the first mode, the priority of regions is from the highest to the photographic region, the graphic region, and the character region, and the region extraction order is also the same.

【0047】以下、領域分離処理における各処理ブロッ
クの内容について詳細に説明する。ここでは、例として
図7の第1モードの処理順序と同じ順序で、各処理ブロ
ックの内容について具体的な説明を行う。
The contents of each processing block in the area separation processing will be described in detail below. Here, as an example, the content of each processing block will be specifically described in the same order as the processing order of the first mode in FIG. 7.

【0048】(2値化による領域分割)まず、図13を
参照して、2値化による領域分割の手順について説明す
る。
(Region Division by Binarization) First, the procedure of the area division by binarization will be described with reference to FIG.

【0049】たとえば図5に示される受信した画像デー
タに基づいて、明度からなる画像、つまり明度画像が作
成される(ステップS301)。次に、明度画像から下
地が除去され(ステップS302)、スムージングフィ
ルタを使用するスムージング処理が行われる(ステップ
S303)。下地およびノイズが除去された明度画像
は、下地の明度レベル(以下、「下地レベル」とい
う。)で、2値化処理される(ステップS304)。こ
れにより、図14に示すように、下地以外の領域を黒く
塗り潰した2値画像が得られる。この2値画像に対し
て、たとえば2次微分フィルタであるラプラシアンフィ
ルタを使用することにより、エッジ検出が行われる(ス
テップS305)。続いて、モフォロジー処理の一種で
あるクロージング(膨張・侵食)処理を実行することに
より、エッジが補間され、エッジから構成される画像、
つまりエッジ画像が得られる(ステップS306、図1
5参照)。図15のエッジ画像は、図14の2値画像の
輪郭線に相当する。
For example, a lightness image, that is, a lightness image is created based on the received image data shown in FIG. 5 (step S301). Next, the background is removed from the brightness image (step S302), and smoothing processing using a smoothing filter is performed (step S303). The brightness image from which the background and noise have been removed is binarized at the brightness level of the background (hereinafter referred to as “background level”) (step S304). As a result, as shown in FIG. 14, a binary image in which the area other than the base is painted black is obtained. Edge detection is performed on this binary image by using, for example, a Laplacian filter which is a second-order differential filter (step S305). Then, by performing a closing (expansion / erosion) process, which is a type of morphological process, the edge is interpolated, and an image composed of the edge,
That is, an edge image is obtained (step S306, FIG. 1).
5). The edge image in FIG. 15 corresponds to the contour line of the binary image in FIG.

【0050】このように下地レベルで2値化して得られ
た2値画像の輪郭線を検出することによって、相互に接
する複数の領域がある場合にはこれらの領域を一つにま
とめた形で、領域の分割が行われる。第1〜第4モード
においては、図14および図15に示すような4つの大
きな領域と文字領域とが得られる。ただし、文字領域が
優先される第5および第6モードにおいては、2値化に
よる領域分割よりも前に文字領域の抽出が行われるの
で、4つの大きな領域のみが得られる。
By detecting the contour line of the binary image obtained by binarizing at the background level in this way, when there are a plurality of regions in contact with each other, these regions are combined into one form. , Area division is performed. In the first to fourth modes, four large areas and character areas as shown in FIGS. 14 and 15 are obtained. However, in the fifth and sixth modes in which the character areas are prioritized, the character areas are extracted before the area division by binarization, so only four large areas are obtained.

【0051】(第1写真/図形領域抽出)次に、図16
および図17を参照して、第1写真/図形領域抽出の手
順について説明する。
(First Photo / Graphic Area Extraction) Next, referring to FIG.
The procedure of extracting the first photograph / graphic area will be described with reference to FIGS.

【0052】第1写真/図形領域抽出に関する処理は、
下地レベルで2値化して得られた2値画像の輪郭線によ
って区画された各領域(図15の閉曲線で囲まれた領
域)に対してそれぞれ実行される。まず、図15のエッ
ジ画像のエッジの位置に基づいて、第1方向、たとえば
主走査方向に関するエッジ間線分の位置が検出される
(ステップS401)。そして、注目エッジ間線分の位
置に対応する明度画像の画素を使用して、たとえば図1
8に示すようなヒストグラム(第1ヒストグラム)が作
成される(ステップS402)。また、第1ヒストグラ
ムに対して、平均値フィルタ(|1|0|1|)を使用
するスムージング処理を行うことによって、たとえば図
19に示すような第2ヒストグラムが作成される(ステ
ップS403)。続いて、下記の式にしたがって、階調
毎に第1ヒストグラムHist1と第2ヒストグラムHist2
の差を算出し、その合計を特徴量とする(ステップS4
04)。なお、明度は、8ビットデータで表され、25
6階調を有する。
The process for extracting the first photograph / graphic area is as follows:
It is executed for each area (area surrounded by the closed curve in FIG. 15) defined by the contour line of the binary image obtained by binarizing at the background level. First, the position of the line segment between edges in the first direction, for example, the main scanning direction is detected based on the position of the edge of the edge image in FIG. 15 (step S401). Then, using the pixels of the brightness image corresponding to the position of the line segment between the target edges, for example, as shown in FIG.
A histogram (first histogram) as shown in 8 is created (step S402). Further, by performing a smoothing process using an average value filter (| 1 | 0 | 1 |) on the first histogram, a second histogram as shown in FIG. 19, for example, is created (step S403). Then, the first histogram Hist1 and the second histogram Hist2 for each gradation are calculated according to the following formula.
Is calculated, and the sum thereof is used as a feature amount (step S4).
04). Note that the brightness is represented by 8-bit data and is 25
It has 6 gradations.

【0053】[0053]

【数1】 [Equation 1]

【0054】次いで、注目エッジ間線分に位置する総画
素数N1と所定の定数T1との比率R1(=N1/T
1)が、算出される(ステップS405)。定数T1
は、写真領域と図形領域とを分離するための第1のパラ
メータである。続いて、閾値である比率R1と特徴量と
が比較される(ステップS406)。特徴量が、比率R
1より大きいと判断される場合(ステップS406:N
O)、第1方向に関するエッジ間線分に位置する画素の
全ては、図形領域に属しているとみなされ、番号を割り
当てる処理であるラベリングが実行され、ラベリングデ
ータが生成される(ステップS407)。すなわち、各
画素に対して領域判定の結果をラベリングする。具体的
には、領域判定の結果が画素位置と対応して保存され
る。一方、特徴量が、比率R1以下であると判断される
場合(ステップS406:YES)、第1方向に関する
エッジ間線分に位置する画素の全ては、写真領域に属し
ているとみなされ、ラベリングデータが生成される(ス
テップS408)。続いて、注目エッジ間線分が、第1
方向に関する最終エッジ間線分であるか否かが判断され
る(ステップS408)。注目エッジ間線分が、最終エ
ッジ間線分でないと判断される場合(ステップS40
8:NO)、ステップS402に戻って、上記処理が繰
り返される。
Then, the ratio R1 (= N1 / T) of the total number N1 of pixels located on the line segment between the target edges and a predetermined constant T1.
1) is calculated (step S405). Constant T1
Is a first parameter for separating the photo area and the graphic area. Subsequently, the ratio R1 which is the threshold value and the feature amount are compared (step S406). The feature amount is the ratio R
When it is determined that it is greater than 1 (step S406: N
O), all the pixels located on the edge-to-edge line segment in the first direction are regarded as belonging to the graphic region, and labeling, which is a process of assigning numbers, is executed to generate labeling data (step S407). . That is, the result of the region determination is labeled for each pixel. Specifically, the result of the area determination is stored in correspondence with the pixel position. On the other hand, when it is determined that the feature amount is equal to or smaller than the ratio R1 (step S406: YES), it is considered that all the pixels located in the edge-to-edge line segment in the first direction belong to the photographic region and the labeling is performed. Data is generated (step S408). Then, the line segment between the target edges is
It is determined whether or not the line segment is the final line segment between edges (step S408). When it is determined that the line segment between the target edges is not the final line segment between edges (step S40)
8: NO), returning to step S402, the above process is repeated.

【0055】次に、図15のエッジ画像に基づいて、第
1方向と直交する方向である第2方向、たとえば副走査
方向に関するエッジ間線分の位置が検出される(ステッ
プS410)。そして、ステップS407およびS40
8で作成されたラベリングデータに基づいて、注目エッ
ジ間線分に位置する総画素数N2と写真領域に属する画
素数N3との比率R2(=N3/N2)が、算出される
(ステップS411)。続いて、比率R2と閾値である
所定の定数T2とが比較される(ステップS412)。
定数T2は、写真領域と図形領域とを分離するための第
2のパラメータである。比率R2が、定数T2よりも小
さいと判断される場合(ステップS412:NO)、第
2方向に関する注目エッジ間線分に存在している画素の
全てが、図形領域に属するとみなされ、ラベリングし直
される(ステップS413)。一方、比率R2が、定数
T2以上と判断される場合(ステップS412:YE
S)、第2方向に関する注目エッジ間線分に位置する画
素の全てが、写真領域に属すると見なされ、ラベリング
し直される(ステップS414)。続いて、注目エッジ
間線分が、第2方向に関する最終エッジ間線分であるか
否かが判断される(ステップS415)。注目エッジ間
線分が、最終エッジ間線分でないと判断される場合(ス
テップS415:NO)、ステップS411に戻って、
上記処理が繰り返される。
Then, based on the edge image of FIG. 15, the position of the line segment between edges in the second direction, which is the direction orthogonal to the first direction, for example, in the sub-scanning direction is detected (step S410). Then, steps S407 and S40
A ratio R2 (= N3 / N2) between the total number of pixels N2 located in the line segment between the edges of interest and the number of pixels N3 belonging to the photo area is calculated based on the labeling data created in step 8 (step S411). . Then, the ratio R2 is compared with a predetermined constant T2 which is a threshold value (step S412).
The constant T2 is a second parameter for separating the photographic area and the graphic area. When it is determined that the ratio R2 is smaller than the constant T2 (step S412: NO), all the pixels existing in the line segment between the target edges regarding the second direction are regarded as belonging to the graphic region, and are labeled. It is corrected (step S413). On the other hand, when it is determined that the ratio R2 is equal to or larger than the constant T2 (step S412: YE
S), all the pixels located on the line segment between the edges of interest in the second direction are regarded as belonging to the photographic area and are relabeled (step S414). Subsequently, it is determined whether or not the line segment between the target edges is the last line segment between the edges in the second direction (step S415). When it is determined that the line segment between the edges of interest is not the final line segment between edges (step S415: NO), the process returns to step S411,
The above process is repeated.

【0056】次に、2値化による領域分割により得られ
た一つの領域内で、写真領域に属するとラベリングされ
た画素の数N5と図形領域に属するとラベリングされた
画素の数N4とが比較される(ステップS416)。N
5<N4と判断される場合(ステップS416:N
O)、当該領域は図形領域と判定される(ステップS4
17)。一方、N5≧N4と判断される場合(ステップ
S416:YES)、当該領域は写真領域と判定される
(ステップS418)。そして、写真領域または図形領
域のうち優先度が高い方の領域の判定が確定されるとと
もに、当該領域内の画素の全てが、優先度が高い方の領
域に属するとみなされ、ラベリングし直されて、画像デ
ータから抽出される(ステップS419)。ここで、位
置データに基づいて領域の輪郭を追跡することによって
領域の外接矩形が算出され、外接矩形内の座標位置に対
応していて当該領域に属するとラベリングされた画素を
含む矩形領域が、画像データから抽出される。
Next, in one area obtained by the area division by binarization, the number N5 of pixels labeled as belonging to the photograph area and the number N4 of pixels labeled as belonging to the graphic area are compared. (Step S416). N
When it is determined that 5 <N4 (step S416: N
O), the area is determined to be a graphic area (step S4).
17). On the other hand, when it is determined that N5 ≧ N4 (step S416: YES), the area is determined to be the photograph area (step S418). Then, the determination of the higher priority area of the photograph area or the graphic area is confirmed, and all the pixels in the area are considered to belong to the higher priority area and are relabeled. And extracted from the image data (step S419). Here, the circumscribing rectangle of the region is calculated by tracing the contour of the region based on the position data, and a rectangular region including pixels labeled as belonging to the region corresponding to the coordinate position in the circumscribing rectangle, It is extracted from the image data.

【0057】このように第1写真/図形領域抽出におい
ては、2値化による領域分割が行われて得られた領域に
対して、領域の境界であるエッジの間の画像特徴量を算
出することにより、当該領域が写真領域であるか図形領
域であるかが判定される。そして、写真領域の方が図形
領域よりも優先度が高い場合(第1、第2、および第5
モード)、写真領域が確定され、当該領域が矩形領域の
形で抽出される。一方、図形領域の方が写真領域よりも
優先度が高い場合(第3、第4、および第6モード)、
図形領域が確定され、当該領域が矩形領域の形で抽出さ
れる。
As described above, in the first photo / graphic region extraction, for the region obtained by performing the region division by binarization, the image feature amount between the edges which are the boundaries of the region is calculated. Thus, it is determined whether the area is a photograph area or a graphic area. When the photo area has a higher priority than the graphic area (first, second, and fifth areas)
Mode), the photo area is determined, and the area is extracted in the form of a rectangular area. On the other hand, if the graphic area has a higher priority than the photograph area (third, fourth, and sixth modes),
The graphic area is determined, and the area is extracted in the form of a rectangular area.

【0058】本実施形態では、上記のように、図形領域
の明度分布はある程度均一である一方で、写真領域の明
度分布は分散しているという特徴に基づいて、写真領域
であるかまたは図形領域であるかが判定される。ただ
し、領域の判定方法は、これに限定されるものではな
く、たとえば明度画像から抽出される周波数成分を特徴
量として用いて領域の判定を行ってもよい。
In the present embodiment, as described above, the lightness distribution of the graphic region is uniform to some extent, while the lightness distribution of the photo region is dispersed. Is determined. However, the area determination method is not limited to this, and the area may be determined using, for example, a frequency component extracted from the brightness image as a feature amount.

【0059】(エッジによる領域分割)次に、図20を
参照して、エッジによる領域分割の手順について説明す
る。
(Region Division by Edge) Next, with reference to FIG. 20, the procedure of the region division by edge will be described.

【0060】エッジによる領域分割は、第1写真/図形
領域抽出によって写真領域または図形領域のうち優先度
が高い方の領域が抽出されて残ったデータに対して、実
行される。
The area division by edges is performed on the data remaining after the area having the higher priority is extracted from the photograph area or the graphic area by the first photo / graphic area extraction.

【0061】まず、画像データにおけるR成分画像、G
成分画像、およびB成分画像のそれぞれに対して、たと
えばラプラシアンフィルタなどのエッジ検出フィルタを
使用することにより、エッジ検出が行われる(ステップ
S501〜S503)。続いて、検出されたR成分画
像、G成分画像、およびB成分画像の各エッジの和集合
を得るためのOR処理が行われ(ステップS504)、
さらにエッジの途切れをなくすために、クロージング処
理が行われる(ステップS505)。ここで、第1〜第
4モードの場合、文字領域の抽出がまだ行われていない
段階であるため、文字画像のエッジも検出されてしま
う。しかし、たとえば、領域の外接矩形の大きさ(縦お
よび横寸法)が所定の閾値より小さく、外接矩形の大き
さに対する領域内部の有効画素数の割合が所定の閾値よ
り小さい場合、当該領域は、エッジによる領域分割の対
象から除外される。これにより、文字画像のエッジは、
領域の境界とはみなされなくなる。
First, the R component image in the image data, G
Edge detection is performed for each of the component image and the B component image by using an edge detection filter such as a Laplacian filter (steps S501 to S503). Then, an OR process is performed to obtain the union of the edges of the detected R component image, G component image, and B component image (step S504),
Further, a closing process is performed in order to eliminate the discontinuity of the edge (step S505). Here, in the case of the first to fourth modes, since the character area is not yet extracted, the edge of the character image is also detected. However, for example, when the size (vertical and horizontal dimensions) of the circumscribed rectangle of the area is smaller than a predetermined threshold value and the ratio of the number of effective pixels inside the area to the size of the circumscribed rectangle is smaller than the predetermined threshold value, the area is It is excluded from the target of area division by edge. As a result, the edge of the character image is
It is no longer considered the boundary of the area.

【0062】図21は、エッジによる領域分割によって
得られた領域の一例を模式的に示す図であって、(A)
は、第1、第2、または第5モードの場合、(b)は、
第3、第4、または第6モードの場合を示す。ここで、
図21(A)では、第1写真/図形領域抽出によって、
図形領域よりも先に写真領域が既に抽出されている。つ
まり、図21(B)に示す領域P1(領域G3を含
む)、および領域P2は、図21(A)においては写真
領域として抽出済みである。また、図21(B)では、
第1写真/図形領域抽出によって、写真領域よりも先に
図形領域が既に抽出されている。つまり、図21(A)
に示す領域G1、および領域G2(領域P3、P4を含
む)は、図21(B)においては写真領域として抽出済
みである。
FIG. 21 is a diagram schematically showing an example of a region obtained by dividing a region by edges,
Is in the first, second, or fifth mode, (b) is
The case of the 3rd, 4th, or 6th mode is shown. here,
In FIG. 21A, by the first photo / graphic area extraction,
The photo region has already been extracted before the graphic region. That is, the area P1 (including the area G3) and the area P2 shown in FIG. 21B have been extracted as the photograph area in FIG. 21A. In addition, in FIG.
By the first photo / graphic area extraction, the graphic area is already extracted before the photo area. That is, FIG. 21 (A)
The area G1 and the area G2 (including the areas P3 and P4) shown in are already extracted as the photographic areas in FIG.

【0063】このようにエッジによる領域分割は、第1
写真/図形領域抽出によって写真領域または図形領域の
うち優先度の高い方の領域が抽出されて残ったデータの
中に、優先度の高い方の領域が優先度の低い方の領域上
に重なった状態でまだ残っている場合、あるいは優先度
が高い方の領域が優先度の低い方の領域の内部に含まれ
た状態でまだ残っている場合に、当該優先度が高い方の
領域をさらに抽出するために行われる。つまり、上記エ
ッジを検出することによって、より細かい領域分割が行
われる。
As described above, the area division by the edge is the first
The higher priority area of the photo area or the graphic area is extracted by the photo / graphic area extraction, and the higher priority area overlaps the lower priority area in the remaining data. If the state still remains, or if the area with the higher priority remains within the area with the lower priority, the area with the higher priority is further extracted. Is done to That is, finer area division is performed by detecting the edge.

【0064】(第2写真/図形領域抽出)次に、第2写
真/図形領域抽出の手順について説明する。第2写真/
図形領域抽出は、図21に示されるエッジによる領域分
割によって得られた領域に対して、前述した第1写真/
図形領域抽出と同様の処理が再度行われる。これによ
り、第1、第2、および第5モードの場合、第1写真/
図形領域抽出によっては写真領域として抽出されなかっ
た図形領域中の写真領域が抽出される。たとえば図21
(A)では、領域P3、P4が写真領域として追加的に
抽出される。また、第3、第4、および第6モードの場
合、第1写真/図形領域抽出によっては図形領域として
抽出されなかった写真領域中の図形領域が抽出される。
たとえば図21(B)では、領域G3が図形領域として
追加的に抽出される。
(Second Photo / Graphic Area Extraction) Next, the procedure of the second photo / graphic area extraction will be described. Second photo /
The graphic region extraction is performed by using the above-mentioned first photograph / image for the region obtained by the region division by the edge shown in FIG.
The same process as the graphic region extraction is performed again. Thus, in the first, second, and fifth modes, the first photo /
In the graphic area extraction, the photo area in the graphic area that has not been extracted as the photo area is extracted. For example, in FIG.
In (A), areas P3 and P4 are additionally extracted as photo areas. Further, in the third, fourth, and sixth modes, the graphic area in the photo area that has not been extracted as the graphic area by the first photo / graphic area extraction is extracted.
For example, in FIG. 21B, the area G3 is additionally extracted as a graphic area.

【0065】なお、図7〜図12に示される第2写真/
図形領域抽出の終了後に行われる写真/図形領域抽出に
おいては、図21に示されるエッジによる領域分割によ
って得られた領域のうち、第2写真/図形領域抽出によ
って抽出されずに残った領域が抽出される。
Incidentally, the second photograph / shown in FIGS.
In the photo / graphic area extraction performed after the completion of the graphic area extraction, among the areas obtained by the area division by the edge shown in FIG. 21, the areas remaining without being extracted by the second photo / graphic area extraction are extracted. To be done.

【0066】(文字領域抽出)次に、図22を参照し
て、文字領域抽出の手順について説明する。
(Character Area Extraction) Next, the procedure of character area extraction will be described with reference to FIG.

【0067】ここでは、説明を簡単にするため、たとえ
ば図23に示される画像データに対して、文字領域抽出
に関する処理が行われる場合について説明する。
Here, in order to simplify the description, a case will be described in which a process relating to character region extraction is performed on the image data shown in FIG. 23, for example.

【0068】まず、画像データに対して、領域統合処理
が行われる(ステップS601)。この処理は、たとえ
ば背景画像上の文字画像、あるいは画素値が異なる文字
画像を含む文字領域をも抽出するための処理である。具
体的には、まず、画像データのうち明度画像に対して、
スムージング処理が施された後、変動閾値による2値化
を行うことにより、エッジ画像が作成される。変動閾値
による2値化処理とは、具体的には、たとえば図24に
示すように、5×5ブロック内の四隅に位置する画素の
階調値の最大値からオフセット値を減算した値を閾値と
して注目画素を2値化する処理である。続いて、得られ
たエッジ画像の主走査方向の黒画素の間隔を計測し、所
定間隔以下である黒画素間の白画素を全て黒画素で置換
して主走査方向に黒画素を連結した連結エッジ画像を作
成する。さらに、得られた連結エッジ画像の副走査方向
に対しても、同様の処理が繰り返され、主副走査方向に
黒画素を連結した連結エッジ画像が得られる。このよう
にして、画像処理装置1は、近隣の黒画素を連結し、画
像データ中で孤立している個々の文字画像を1つの領域
として統合することにより、ある程度まとまった文字列
ごとに1つの領域として抽出することが可能となるもの
である。
First, a region integration process is performed on the image data (step S601). This process is, for example, a process for extracting a character image on a background image or a character area including a character image having different pixel values. Specifically, first, for the brightness image of the image data,
After the smoothing process is performed, the edge image is created by performing binarization using the variation threshold. The binarization process using the variation threshold is, specifically, for example, as shown in FIG. 24, a value obtained by subtracting the offset value from the maximum gradation value of the pixels located at the four corners of the 5 × 5 block is the threshold value. Is a process of binarizing the pixel of interest. Subsequently, the interval between the black pixels in the main scanning direction of the obtained edge image is measured, all the white pixels between the black pixels which are less than the predetermined interval are replaced with the black pixels, and the black pixels are connected in the main scanning direction. Create an edge image. Further, similar processing is repeated in the sub-scanning direction of the obtained connected edge image, and a connected edge image in which black pixels are connected in the main / sub-scanning direction is obtained. In this way, the image processing apparatus 1 connects adjacent black pixels and integrates individual character images that are isolated in the image data into one area, thereby creating one area for each character string that has been collected to some extent. It is possible to extract it as a region.

【0069】次に、領域抽出処理が行われる(ステップ
S602)。この処理は、連結した黒画素のまとまりを
1領域として別々に抽出する処理である。具体的には、
まず、得られた連結エッジ画像に対し、連結した黒画素
ごとにラベリングが施される。ラベリングと同時に、同
一ラベルの連結した黒画素ごとの外接矩形の位置情報
(幅、高さ、および座標)が検出され、ラベリング画像
が作成される。続いて、ラベリング時に検出された外接
矩形とラベル番号とに基づいて、ラベリング画像から当
該外接矩形で囲まれる領域が局所領域として抽出され
る。ここで、同一ラベル番号の画素だけを含む外接矩形
を抽出することにより、外接矩形同士が重なり合ったレ
イアウトの画像も分離して抽出することが可能となる。
図25は、変動閾値による2値化処理および黒画素の連
結処理を施して得られた連結エッジ画像と、連結エッジ
画像データから得られたラベリング画像において同一ラ
ベルの連結した黒画素ごとに求めた外接矩形とを示す図
である。
Next, area extraction processing is performed (step S602). This process is a process of separately extracting a group of connected black pixels as one area. In particular,
First, the obtained connected edge image is labeled for each connected black pixel. At the same time as the labeling, the position information (width, height, and coordinates) of the circumscribed rectangle for each connected black pixel of the same label is detected, and a labeling image is created. Then, based on the circumscribing rectangle detected at the time of labeling and the label number, the region surrounded by the circumscribing rectangle is extracted as a local region from the labeling image. Here, by extracting the circumscribing rectangle including only the pixels having the same label number, it is possible to separately extract the image of the layout in which the circumscribing rectangles overlap each other.
FIG. 25 is a graph of a concatenated edge image obtained by performing binarization processing and a concatenation process of black pixels using a variation threshold, and for each concatenated black pixel of the same label in a labeling image obtained from concatenated edge image data It is a figure which shows a circumscribed rectangle.

【0070】次に、ステップS602において抽出され
た各局所領域に属する画像の斜め方向エッジ成分が特徴
量として抽出され(S603)、斜め方向エッジ成分の
含有率が所定範囲内にある局所領域が、文字領域と判別
される(S604)。文字領域は、図形、写真、罫線等
の他の領域と比較して、小さい領域内に斜め方向エッジ
成分を多く含んでいる。したがって、文字領域特有の周
波数成分として斜め方向エッジ成分を抽出し局所領域に
おける含有率を求めることにより、当該局所領域が文字
領域であるか否かが判定され得る。かかる斜め方向エッ
ジ成分の抽出は、2×2DCT(離散コサイン変換)に
よって得られた周波数成分のうち高周波成分を抽出する
処理と同等である。すなわち、局所領域内の画像に対し
て2×2マトリクスによるDCTを施し、得られた周波
数成分のうちの高周波成分を「0」として逆DCT変換
を行うことにより、高周波成分を除去した復元画像が得
られる。そして、原画像と復元画像との差分を取り出す
ことにより、原画像の高周波成分のみが抽出され得る。
ここで、図26に示すフィルタ処理を施すことにより高
速な処理が可能である。図27は、抽出された高周波成
分を2値化して得られた斜め方向エッジ成分画像の一例
を示す図である。所領局域は、大体において単語単位と
なっている。このため、所領局域が文字領域である場
合、局所領域内の斜め方向エッジ成分の含有率、すなわ
ち、局所領域の面積に対する当該局所領域に属する図2
7の黒画素総数の比率は所定範囲内となる(約0.2〜
20%)。したがって、当該比率が上記範囲内である局
所領域が文字領域と判別される。
Next, the diagonal edge component of the image belonging to each local region extracted in step S602 is extracted as a feature amount (S603), and the local region in which the content ratio of the diagonal edge component is within the predetermined range is It is determined to be a character area (S604). The character area includes many diagonal edge components in a small area as compared with other areas such as figures, photographs, and ruled lines. Therefore, it is possible to determine whether or not the local region is the character region by extracting the diagonal edge component as the frequency component peculiar to the character region and obtaining the content rate in the local region. The extraction of the diagonal direction edge component is equivalent to the process of extracting the high frequency component from the frequency components obtained by the 2 × 2 DCT (discrete cosine transform). That is, by performing DCT with a 2 × 2 matrix on the image in the local area and performing inverse DCT conversion with the high frequency component of the obtained frequency components as “0”, the restored image from which the high frequency component has been removed is obtained. can get. Then, by extracting the difference between the original image and the restored image, only the high frequency component of the original image can be extracted.
Here, high-speed processing is possible by performing the filter processing shown in FIG. FIG. 27 is a diagram showing an example of an oblique edge component image obtained by binarizing the extracted high frequency component. The territorial domain is generally in units of words. Therefore, when the controlled area is a character area, the content rate of the diagonal edge component in the local area, that is, the area belonging to the local area with respect to the area of the local area in FIG.
The ratio of the total number of black pixels of 7 is within a predetermined range (about 0.2 to
20%). Therefore, a local area having the ratio within the above range is determined to be a character area.

【0071】次に、文字画像作成処理が行われる(ステ
ップS605)。すなわち、ステップS604において
文字領域と判別された局所領域内における元の画像デー
タ(スキャナ2から受信した画像データ)を2値化する
ことによって文字部とその背景部とが区別され、文字部
のみからなる文字画像が作成される。2値化する際に使
用される閾値は、文字領域ごとに設定される。文字領域
ごとの閾値の設定方法としては、例えば以下の方法を用
いることができる。まず、文字領域ごとに、当該文字領
域内の画像データの明度画像を用いて、図28(A)に
示すような明度ヒストグラムを作成する。続いて、明度
ヒストグラムを当該文字領域内の画素数に対する百分率
に変換して二次微分を行い、二次微分の結果が所定値以
上であれば「1」、それ以外は「0」を出力することに
よって、図28(B)に示すようなピーク検出用ヒスト
グラムを作成し、ピークを検出する。そして、検出され
たピーク数が2以上のときは両端のピークの中心値、ピ
ーク数が1のときは当該ピークと前記明度ヒストグラム
の左右立ち上がり値(図28(A)における「Lef
t」および「Right」の値)の平均値、ピーク数が
0のときは前記明度ヒストグラムの前記左右立ち上がり
値の中心値を閾値と決定する。このように、文字領域内
の明度ヒストグラムのピーク数によって異なる2値化閾
値を用いるため、たとえば背景画像上の文字画像や反転
文字画像等も、画像が欠けることなく2値化可能とな
る。
Next, a character image creating process is performed (step S605). That is, by binarizing the original image data (image data received from the scanner 2) in the local area determined to be the character area in step S604, the character portion and the background portion thereof are distinguished, and only the character portion is detected. Will be created. The threshold used when binarizing is set for each character area. As a method of setting the threshold for each character area, for example, the following method can be used. First, for each character area, a brightness histogram as shown in FIG. 28A is created using the brightness image of the image data in the character area. Then, the brightness histogram is converted into a percentage with respect to the number of pixels in the character area to perform a second derivative, and "1" is output if the result of the second derivative is a predetermined value or more, and "0" is output otherwise. As a result, a peak detection histogram as shown in FIG. 28B is created and the peak is detected. Then, when the number of detected peaks is 2 or more, the center value of the peaks at both ends, and when the number of peaks is 1, the peak and the left and right rising values of the brightness histogram (“Lef” in FIG. 28A).
When the number of peaks is 0, the central value of the left and right rising values of the brightness histogram is determined as the threshold value. In this way, since the binarization threshold value that differs depending on the peak number of the brightness histogram in the character area is used, it is possible to binarize a character image on a background image, a reverse character image, etc. without missing the image.

【0072】次に、画像補間処理が行われる(ステップ
S606)。すなわち、元の画像データから、文字部の
みからなる文字画像が除去され、除去後の部分が、その
文字画像の背景画素で補間される。ここで、文字画像の
背景画素は、ステップS605において文字領域ごとに
2値化して得られた画像から特定することができる。補
間に使用される背景画素の値は、元のRGB画像データ
における文字画像の背景に相当する画素のRGBごとの
平均値を算出することにより与えられる。
Next, image interpolation processing is performed (step S606). That is, the character image including only the character portion is removed from the original image data, and the removed portion is interpolated with the background pixels of the character image. Here, the background pixel of the character image can be specified from the image obtained by binarizing each character area in step S605. The value of the background pixel used for the interpolation is given by calculating the average value for each RGB of the pixels corresponding to the background of the character image in the original RGB image data.

【0073】このように、画像処理装置1は、近隣の黒
画素を連結することにより近接する領域を統合して、統
合された領域を抽出し、文字らしさを表す特徴量を算出
して、この特徴量を用いて抽出された各領域が文字領域
であるか否かを判別し、続いて、文字領域と判別された
領域内の画像データから文字部のみからなる文字画像を
作成する。そして、文字部のみからなる文字画像を除去
した後の部分を背景画素で補間する。
As described above, the image processing apparatus 1 integrates adjacent areas by connecting neighboring black pixels, extracts the integrated area, and calculates the feature amount representing character-likeness, It is determined whether each area extracted using the feature amount is a character area, and then a character image including only a character portion is created from the image data in the area determined to be the character area. Then, the part after the character image consisting of only the character part is removed is interpolated with the background pixels.

【0074】この文字領域抽出においては、文字画像が
写真画像または図形画像の上に重なっている場合であっ
ても、文字領域の確実な抽出が可能である。ただし、文
字領域よりも写真領域または図形領域が優先される原稿
モードが設定されている場合、写真画像または図形画像
の上に重なっている文字画像は、写真領域または図形領
域の一部として先に抽出されることになる。
In this character area extraction, the character area can be surely extracted even when the character image overlaps the photographic image or the graphic image. However, when the document mode is set so that the photo area or the graphic area is prioritized over the text area, the text image overlaid on the photo image or the graphic image will be added first as a part of the photo area or the graphic area. Will be extracted.

【0075】上述のようにして、図7〜図12に示す設
定された原稿モードに応じた領域抽出順序で、スキャナ
から受信した画像データから、写真領域、図形領域、お
よび文字領域が分離される。
As described above, the photographic area, the graphic area, and the character area are separated from the image data received from the scanner in the area extraction order according to the set original mode shown in FIGS. .

【0076】本実施形態によれば、画像データから写真
領域、図形領域、および文字領域を分離する際に、各領
域の抽出順を設定することができ、これにより、どの領
域を優先して抽出するかを制御することが可能となる。
したがって、優先度の高い領域は、その中に他の領域を
含んでいても当該他の領域を包含した状態で優先的に抽
出され、また、他の領域の中に含まれていても優先的に
抽出される。このように、優先度の高い領域は、他の領
域よりも先に抽出されるため他の領域と誤判別されて抽
出されることがなくなり、当該領域に対して不適切な処
理が施されて画像が劣化することが防止される。
According to the present embodiment, when the photographic area, the graphic area, and the character area are separated from the image data, the extraction order of each area can be set, whereby which area is preferentially extracted. Can be controlled.
Therefore, a high-priority area is preferentially extracted in a state in which the other area is included even if it includes another area, and even if it is included in another area, it is preferentially extracted. To be extracted. In this way, the area with high priority is extracted earlier than the other areas, and thus is not erroneously discriminated from other areas and is not extracted, and the area is subjected to inappropriate processing. Image deterioration is prevented.

【0077】図29〜図34は、図5の画像データか
ら、それぞれ第1〜第6モードの領域分離処理によって
分離された写真領域、図形領域、および文字領域を示す
図であって、(A)は最先に抽出された領域、(B)は
2番目に抽出された領域、(C)は3番目に抽出された
領域を示す。
FIGS. 29 to 34 are diagrams showing a photograph area, a graphic area, and a character area, which are separated from the image data of FIG. 5 by the area separation processing in the first to sixth modes, respectively. ) Indicates the first extracted region, (B) indicates the second extracted region, and (C) indicates the third extracted region.

【0078】第1優先領域が写真領域である場合(第1
および第2モード)、図29(A)および図30(A)
に示すように、受信した画像データから、写真領域が最
先に抽出された後に、残ったデータから図形領域と文字
領域とが分離されるため、写真領域は、他の領域の分離
処理の影響を受けて当該他の領域に付随して抽出される
ことがなくなる。これにより、写真領域は、他の領域と
誤判別されることなく確実に抽出され得る。したがっ
て、写真領域を高画質で再現することを主目的とする場
合、より多くの写真領域を確実に抽出して、当該領域に
対して適切な処理を実行することができる。換言すれ
ば、たとえば写真領域内のある部分が文字領域と誤判別
され、後工程において文字領域に適応した2値化処理が
行われてしまうことを防止することができる。また、た
とえば写真領域内のある部分が図形領域と誤判別され、
後工程において図形領域に適応した減色処理が行われて
単一色で塗り潰されてしまうことを防止することができ
る。つまり、写真領域に対して不適切な処理が施されて
写真画像が劣化することが防止される。また、写真領域
を優先して抽出することにより、元の画像データの内容
が維持される利点がある。すなわち、図形領域または文
字領域であるにもかかわらず当該領域を写真領域と誤判
別したとしても、画像として再現できるため当該領域の
内容が維持される。
When the first priority area is a photograph area (first
And second mode), FIG. 29 (A) and FIG. 30 (A).
As shown in Fig. 3, the photo area is extracted from the received image data first, and then the graphic area and the character area are separated from the remaining data, so that the photo area is affected by the separation processing of other areas. As a result, it will not be extracted in association with the other area. As a result, the photograph area can be reliably extracted without being erroneously discriminated from other areas. Therefore, when the main purpose is to reproduce the photograph area with high image quality, it is possible to reliably extract more photograph areas and execute appropriate processing on the area. In other words, it is possible to prevent, for example, a certain portion in the photograph area from being erroneously determined as a character area, and the binarization processing adapted to the character area being performed in a subsequent step. Also, for example, a certain part in the photo area is misidentified as a graphic area,
It is possible to prevent the drawing area from being filled with a single color by performing the color-reduction processing adapted to the graphic area in the subsequent step. That is, it is possible to prevent the photographic image from being deteriorated due to inappropriate processing being applied to the photographic area. Further, by preferentially extracting the photo area, there is an advantage that the content of the original image data is maintained. That is, even if the area is a graphic area or a character area and is erroneously discriminated as a photographic area, the content of the area is maintained because it can be reproduced as an image.

【0079】さらに、写真領域抽出後の画像データか
ら、文字領域よりも先に図形領域を抽出する場合(第1
モード)、図形領域内のある部分が文字領域と誤判別さ
れ、後工程において文字領域に適応した処理が行われて
しまうことを防止することができる。したがって、写真
画像および図形画像に対する劣化が少なくなる。また、
写真領域抽出後の画像データから、図形領域よりも先に
文字領域を抽出する場合(第2モード)、図形領域内の
文字画像を抽出することが可能となる。したがって、写
真画像および文字画像に対する劣化が少なくなる。
Further, in the case of extracting the graphic area before the character area from the image data after extracting the photograph area (first
Mode), it is possible to prevent a portion in the graphic area from being erroneously determined to be a character area and to perform processing adapted to the character area in a later step. Therefore, deterioration of the photographic image and the graphic image is reduced. Also,
When the character area is extracted before the graphic area from the image data after extracting the photo area (second mode), the character image in the graphic area can be extracted. Therefore, deterioration of the photographic image and the character image is reduced.

【0080】第1優先領域が図形領域である場合(第3
および第4モード)、図31(A)および図32(A)
に示すように、受信した画像データから、図形領域が最
先に抽出された後に、残ったデータから写真領域と文字
領域とが分離されるため、図形領域は、他の領域の分離
処理の影響を受けて当該他の領域に付随して抽出される
ことがなくなる。これにより、図形領域は、他の領域と
誤判別されることなく確実に抽出され得る。したがっ
て、ベクタ変換処理などの図形領域に適応した処理を施
すことを主目的とする場合、より多くの図形領域を確実
に抽出して、当該領域に対して適切な処理を実行するこ
とができる。換言すれば、たとえば写真領域の中に図形
領域が重なって配置されている場合、全体が写真領域と
誤判別されJPEG圧縮されてしまってノイズが発生す
ることを防止することができる。また、たとえば文字画
像と間違いやすい図形画像を含む領域が文字領域と誤判
別されてしまって当該領域に対して文字領域に適応した
処理である2値化処理、さらには文字認識処理が実行さ
れることを防止することができる。つまり、図形領域に
対して不適切な処理が施されて図形画像が劣化すること
が防止される。
If the first priority area is a graphic area (third area)
And the fourth mode), FIG. 31 (A) and FIG. 32 (A).
As shown in FIG. 3, the graphic area is first extracted from the received image data, and then the photo area and the text area are separated from the remaining data, so that the graphic area is affected by the separation processing of other areas. As a result, it will not be extracted in association with the other area. As a result, the graphic area can be surely extracted without being erroneously discriminated from other areas. Therefore, when the main purpose is to perform a process suitable for a graphic region such as a vector conversion process, it is possible to reliably extract a larger number of graphic regions and execute an appropriate process for the region. In other words, for example, in the case where graphic regions overlap each other in the photo region, it is possible to prevent noise from being generated due to the erroneous determination of the entire photo region and the JPEG compression. Further, for example, a region including a graphic image that is easily mistaken for a character image is erroneously discriminated as a character region, and a binarization process, which is a process adapted to the character region, and a character recognition process are executed. Can be prevented. That is, it is possible to prevent the graphic image from being deteriorated due to inappropriate processing being applied to the graphic area.

【0081】さらに、図形領域抽出後の画像データか
ら、文字領域よりも先に写真領域を抽出する場合(第3
モード)、写真領域内のある部分が文字領域と誤判別さ
れ、後工程において文字領域に適応した処理が行われて
しまうことを防止することができる。したがって、図形
画像および写真画像に対する劣化が少なくなる。また、
図形領域抽出後の画像データから、写真領域よりも先に
文字領域を抽出する場合(第4モード)、写真領域内の
文字画像を抽出することが可能となる。したがって、図
形画像および文字画像を劣化させることなく、写真画像
に対して非可逆の圧縮処理を行うことができる。
Furthermore, in the case of extracting the photo area before the character area from the image data after extracting the graphic area (third part)
Mode), it is possible to prevent a portion in the photograph area from being erroneously determined to be a character area and a process adapted to the character area to be performed in a later step. Therefore, the deterioration of the graphic image and the photographic image is reduced. Also,
When the character area is extracted from the image data after the graphic area is extracted (fourth mode), the character image in the photo area can be extracted. Therefore, the irreversible compression process can be performed on the photographic image without deteriorating the graphic image and the character image.

【0082】第1優先領域が文字領域である場合(第5
および第6モード)、図33(A)および図34(A)
に示すように、受信した画像データから、文字領域が最
先に抽出された後に、残ったデータから写真領域と図形
領域とが分離されるため、文字領域は、他の領域の分離
処理の影響を受けて当該他の領域に付随して抽出される
ことがなくなる。これにより、文字領域は、他の領域と
誤判別されることなく確実に抽出され得る。したがっ
て、文字認識処理などの文字領域に適応した処理を施す
ことを主目的とする場合、より多くの文字領域を確実に
抽出して、当該領域に対して適切な処理を実行すること
ができる。換言すれば、たとえば画像データ中で文字画
像が写真画像または図形画像の上に重なっている場合、
文字領域が判別されないで全体が写真領域または図形領
域と判別されて抽出されてしまって、文字画像に対する
文字認識処理を十分に実行できないばかりか、文字画像
に対して不適切な処理が施されることを防止することが
できる。
When the first priority area is a character area (fifth area)
And sixth mode), FIG. 33 (A) and FIG. 34 (A)
As shown in, the character area is extracted from the received image data first, and then the photo area and the graphic area are separated from the remaining data, so that the character area is affected by the separation processing of other areas. As a result, it will not be extracted in association with the other area. As a result, the character area can be surely extracted without being erroneously discriminated from other areas. Therefore, when the main purpose is to perform a process suitable for a character region, such as a character recognition process, it is possible to reliably extract a larger number of character regions and execute an appropriate process on the region. In other words, for example, when a character image overlaps a photographic image or a graphic image in image data,
The character area is not discriminated and the whole is discriminated as a photograph area or a graphic area and is extracted, so that not only the character recognition processing for the character image cannot be sufficiently performed but also the character image is improperly processed. Can be prevented.

【0083】さらに、文字領域抽出後の画像データか
ら、図形領域よりも先に写真領域を抽出する場合(第5
モード)、たとえば図形領域に内包されている写真領域
を抽出することが可能である。したがって、文字画像お
よび写真画像に対する劣化が少なくなる。また、文字領
域抽出後の画像データから、写真領域よりも先に図形領
域を抽出する場合(第6モード)、たとえば写真領域に
内包されている図形領域を抽出することが可能である。
したがって、文字画像および図形画像を劣化させること
なく、写真画像に対して非可逆の圧縮処理を行うことが
できる。
Furthermore, in the case of extracting the photo area before the graphic area from the image data after the extraction of the character area (the fifth area)
Mode), for example, it is possible to extract a photographic area included in a graphic area. Therefore, deterioration of the character image and the photographic image is reduced. When the graphic area is extracted before the photo area from the image data after extracting the text area (sixth mode), for example, the graphic area included in the photo area can be extracted.
Therefore, irreversible compression processing can be performed on a photographic image without deteriorating the character image and the graphic image.

【0084】本発明は、上述した実施の形態のみに限定
されるものではなく、特許請求の範囲内において、種々
改変することができる。
The present invention is not limited to the above-mentioned embodiments, but can be variously modified within the scope of the claims.

【0085】本発明の画像処理装置は、上記実施形態で
示した態様以外に、スキャナ、パソコン、ワークステー
ション、サーバ等のコンピュータ、デジタル複写機、フ
ァクシミリ装置、およびMFP(multi-function perip
heral)等の機器にも応用することができる。
The image processing apparatus of the present invention is, in addition to the modes shown in the above-described embodiments, a computer such as a scanner, a personal computer, a workstation, a server, a digital copying machine, a facsimile apparatus, and an MFP (multi-function perip).
can be applied to equipment such as heral).

【0086】また、上記実施形態では、ファイルサーバ
3が、画像処理装置1から受信したファイルから文字画
像および図形画像を展開して、それぞれ文字認識処理お
よびベクタ変換処理を施す構成とされているが、これら
の処理は画像処理装置1により行われてもよい。また、
図7〜図12の各領域分離処理における個々の処理ブロ
ックの内容は適宜変更が可能である。
Further, in the above embodiment, the file server 3 is configured to expand the character image and the graphic image from the file received from the image processing apparatus 1 and perform the character recognition process and the vector conversion process, respectively. The image processing apparatus 1 may perform these processes. Also,
The content of each processing block in each area separation processing of FIGS. 7 to 12 can be changed as appropriate.

【0087】また、上記実施形態では、画像処理装置1
は、写真領域、図形領域、および文字領域のうちで画像
データの内容に応じて優先的に抽出される領域を設定す
る構成とされているが、本発明はこれに限定されない。
本発明による画像処理装置では、あらかじめ最先に抽出
される領域が固定されていてもよく、たとえば文字領域
が最先に抽出される領域として固定され得る。また、本
発明による画像処理装置では、あらかじめ領域の抽出順
が固定されていてもよく、たとえば文字領域、写真領域
および図形領域の順、あるいは文字領域、図形領域およ
び写真領域の順が領域の抽出順として固定され得る。
Further, in the above embodiment, the image processing apparatus 1
Is configured to set an area of the photograph area, the graphic area, and the character area that is preferentially extracted according to the content of the image data, but the present invention is not limited to this.
In the image processing apparatus according to the present invention, the area extracted first may be fixed in advance, and for example, the character area may be fixed as the area extracted first. Further, in the image processing apparatus according to the present invention, the extraction order of the areas may be fixed in advance. For example, the order of the character area, the photographic area and the graphic area or the order of the character area, the graphic area and the photographic area may be extracted. Can be fixed as order.

【0088】本発明による画像処理装置および画像処理
方法は、上記各手順を実行するための専用のハードウエ
ア回路によっても、また、上記各手順を記述した所定の
プログラムをCPUが実行することによっても実現する
ことができる。後者により本発明を実現する場合、画像
処理装置を動作させる上記所定のプログラムは、フレキ
シブルディスクやCD−ROM等のコンピュータ読取可
能な記録媒体によって提供されてもよいし、インターネ
ット等のネットワークを介してオンラインで提供されて
もよい。この場合、コンピュータ読取可能な記録媒体に
記録されたプログラムは、通常、ハードディスク等に転
送され記憶される。また、このプログラムは、たとえ
ば、単独のアプリケーションソフトとして提供されても
よいし、画像処理装置の一機能としてその装置のソフト
ウエアに組み込んでもよい。
The image processing apparatus and the image processing method according to the present invention may be implemented by a dedicated hardware circuit for executing each of the above procedures, or by a CPU executing a predetermined program describing each of the above procedures. Can be realized. When the present invention is implemented by the latter, the above-mentioned predetermined program for operating the image processing apparatus may be provided by a computer-readable recording medium such as a flexible disk or a CD-ROM, or via a network such as the Internet. It may be provided online. In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a hard disk or the like. Further, this program may be provided as, for example, independent application software, or may be incorporated into the software of the image processing apparatus as one function.

【0089】なお、上述した本発明の実施形態には、特
許請求の範囲の請求項1〜5に記載した発明以外にも、
以下の付記1〜6に示すような発明が含まれる。
The above-described embodiment of the present invention is not limited to the invention described in claims 1 to 5 in the claims.
The inventions as shown in the following supplementary notes 1 to 6 are included.

【0090】[付記1] 前記第1領域分割処理は、前
記画像データから文字領域が抽出されて残ったデータに
おける写真領域または図形領域の部分とこれら以外の下
地部分とを区別した2値画像のエッジを検出することに
より、複数の所定領域に分割可能であり、前記第2領域
分割処理は、前記画像データから文字領域が抽出されて
残ったデータから写真領域がさらに抽出されて残ったデ
ータのエッジを検出することにより、前記所定領域より
も小さい複数の領域に分割可能であることを特徴とする
請求項4に記載の画像処理装置。
[Supplementary Note 1] In the first area division processing, a binary image in which a portion of a photograph area or a figure area in the data remaining after the character area is extracted from the image data and a background portion other than these are distinguished By detecting an edge, it is possible to divide into a plurality of predetermined areas. In the second area division processing, a character area is extracted from the image data and a photographic area is further extracted from the remaining data. The image processing apparatus according to claim 4, wherein the image processing apparatus can be divided into a plurality of areas smaller than the predetermined area by detecting an edge.

【0091】[付記2] 前記第1領域分割処理は、前
記画像データから文字領域が抽出されて残ったデータに
おける写真領域または図形領域の部分とこれら以外の下
地部分とを区別した2値画像のエッジを検出することに
より、複数の所定領域に分割可能であり、前記第2領域
分割処理は、前記画像データから文字領域が抽出されて
残ったデータから図形領域がさらに抽出されて残ったデ
ータのエッジを検出することにより、前記所定領域より
も小さい複数の領域に分割可能であることを特徴とする
請求項5に記載の画像処理装置。
[Supplementary Note 2] In the first area division processing, a binary image in which a portion of a photographic area or a figure area in the data remaining after the character area is extracted from the image data and a background portion other than these are distinguished By detecting an edge, it is possible to divide into a plurality of predetermined regions. In the second region division processing, a character region is extracted from the image data and a graphic region is further extracted from the remaining data. The image processing apparatus according to claim 5, wherein the image processing apparatus can be divided into a plurality of areas smaller than the predetermined area by detecting an edge.

【0092】[付記3] 原稿を読み取ることによって
画像データを得る読取手段をさらに有し、前記処理しよ
うとする画像データは、前記読取手段によって得られる
ことを特徴とする請求項1〜5、付記1、2のいずれか
1つに記載の画像処理装置。
[Supplementary Note 3] A reading unit for obtaining image data by reading an original is further provided, and the image data to be processed is obtained by the reading unit. The image processing apparatus according to any one of 1 and 2.

【0093】[付記4] 処理しようとする画像データ
から、写真領域、図形領域、および文字領域を分離する
領域分離段階を有する画像処理方法であって、前記領域
分離段階は、前記画像データから、写真領域および図形
領域よりも先に文字領域を抽出し、前記画像データから
文字領域が抽出されて残ったデータから、写真領域と図
形領域とを分離する段階であることを特徴とする画像処
理方法。
[Supplementary Note 4] An image processing method including an area separating step of separating a photographic area, a graphic area, and a character area from image data to be processed, wherein the area separating step is performed from the image data. An image processing method characterized in that a character region is extracted before a photo region and a graphic region, and the photo region and the graphic region are separated from the remaining data after the character region is extracted from the image data. .

【0094】[付記5] 処理しようとする画像データ
から、写真領域、図形領域、および文字領域を分離する
領域分離手順を有する画像処理プログラムであって、前
記領域分離手順は、前記画像データから、写真領域およ
び図形領域よりも先に文字領域を抽出し、前記画像デー
タから文字領域が抽出されて残ったデータから、写真領
域と図形領域とを分離する手順であることを特徴とする
画像処理プログラム。
[Supplementary Note 5] An image processing program having an area separation procedure for separating a photograph area, a graphic area, and a character area from image data to be processed, wherein the area separation procedure is performed from the image data. An image processing program, which is a procedure for extracting a character region before a photo region and a graphic region, and separating the photo region and the graphic region from the remaining data after the character region is extracted from the image data. .

【0095】[付記6] 付記5に記載の画像処理プロ
グラムを記録したコンピュータ読み取り可能な記録媒
体。
[Supplementary Note 6] A computer-readable recording medium recording the image processing program according to Supplementary Note 5.

【0096】[0096]

【発明の効果】上述したように、本発明の画像処理装置
によれば、処理しようとする画像データから、文字領域
が最先に抽出された後に、残ったデータから写真領域と
図形領域とが分離され得る。このため、文字領域は、他
の領域の分離処理の影響を受けて当該他の領域に付随し
て抽出されることがなくなる。これにより、文字領域
は、他の領域と誤判別されることなく確実に抽出され得
る。したがって、文字認識処理などの文字領域に適応し
た処理を施すことを主目的とする場合、より多くの文字
領域を確実に抽出して、当該領域に対して適切な処理を
実行することができる。
As described above, according to the image processing apparatus of the present invention, the character area is first extracted from the image data to be processed, and then the photograph area and the graphic area are extracted from the remaining data. Can be separated. Therefore, the character area will not be extracted along with the other area due to the influence of the separation processing of the other area. As a result, the character area can be surely extracted without being erroneously discriminated from other areas. Therefore, when the main purpose is to perform a process suitable for a character region, such as a character recognition process, it is possible to reliably extract a larger number of character regions and execute an appropriate process on the region.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施形態にかかる画像処理装置を含
む画像処理システムの全体構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing an overall configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention.

【図2】 画像処理装置の構成の一例を示すブロック図
である。
FIG. 2 is a block diagram illustrating an example of a configuration of an image processing device.

【図3】 操作部における原稿モード設定画面の一例を
示す図である。
FIG. 3 is a diagram illustrating an example of a document mode setting screen on the operation unit.

【図4】 画像処理装置における処理の手順を示すフロ
ーチャートである。
FIG. 4 is a flowchart showing a processing procedure in the image processing apparatus.

【図5】 スキャナから受信した画像データの一例を模
式的に示す図である。
FIG. 5 is a diagram schematically showing an example of image data received from a scanner.

【図6】 領域の合成を説明するための図であって、
(A)は合成後の状態を示す図、(B)は合成前の状態
を示す図である。
FIG. 6 is a diagram for explaining the synthesis of regions,
(A) is a figure which shows the state after a synthesis | combination, (B) is a figure which shows the state before a synthesis | combination.

【図7】 第1モードの領域分離処理の手順を示すフロ
ーチャートである。
FIG. 7 is a flowchart showing a procedure of region separation processing in a first mode.

【図8】 第2モードの領域分離処理の手順を示すフロ
ーチャートである。
FIG. 8 is a flowchart showing a procedure of region separation processing in a second mode.

【図9】 第3モードの領域分離処理の手順を示すフロ
ーチャートである。
FIG. 9 is a flowchart showing a procedure of region separation processing in a third mode.

【図10】 第4モードの領域分離処理の手順を示すフ
ローチャートである。
FIG. 10 is a flowchart showing a procedure of region separation processing in a fourth mode.

【図11】 第5モードの領域分離処理の手順を示すフ
ローチャートである。
FIG. 11 is a flowchart showing a procedure of region separation processing in a fifth mode.

【図12】 第6モードの領域分離処理の手順を示すフ
ローチャートである。
FIG. 12 is a flowchart showing a procedure of region separation processing in a sixth mode.

【図13】 2値化による領域分割の手順を示すフロー
チャートである。
FIG. 13 is a flowchart showing a procedure of area division by binarization.

【図14】 図5の下地以外の領域を黒く塗り潰した2
値画像を示す図である。
FIG. 14 is a diagram in which the area other than the base of FIG.
It is a figure which shows a value image.

【図15】 図14のエッジから構成される画像を示す
図である。
FIG. 15 is a diagram showing an image composed of the edges of FIG. 14;

【図16】 第1写真/図形領域抽出の手順を示すフロ
ーチャートである。
FIG. 16 is a flowchart showing a procedure for extracting a first photograph / graphic area.

【図17】 図16から続く第1写真/図形領域抽出の
手順を示すフローチャートである。
FIG. 17 is a flowchart showing a procedure of first photo / graphic region extraction continued from FIG. 16;

【図18】 第1ヒストグラムを示す図である。FIG. 18 is a diagram showing a first histogram.

【図19】 第2ヒストグラムを示す図である。FIG. 19 is a diagram showing a second histogram.

【図20】 エッジによる領域分割の手順を示すフロー
チャートである。
FIG. 20 is a flowchart showing a procedure of area division by edges.

【図21】 エッジによる領域分割によって得られた領
域の一例を模式的に示す図であって、(A)は第1、第
2、または第5モードの場合、(b)は第3、第4、ま
たは第6モードの場合を示す。
FIG. 21 is a diagram schematically showing an example of a region obtained by dividing a region by edges, where (A) is the first, second, or fifth mode, and (b) is the third or third mode. The case of the 4th or 6th mode is shown.

【図22】 文字領域抽出の手順を示すフローチャート
である。
FIG. 22 is a flowchart showing a procedure for extracting a character area.

【図23】 文字領域抽出の説明のために用いられる画
像データを示す図である。
[Fig. 23] Fig. 23 is a diagram showing image data used for explaining a character region extraction.

【図24】 変動閾値による2値化処理を説明するため
の図である。
[Fig. 24] Fig. 24 is a diagram for describing binarization processing using a variation threshold.

【図25】 変動閾値による2値化処理および黒画素の
連結処理を施して得られた連結エッジ画像と、連結エッ
ジ画像データから得られたラベリング画像において同一
ラベルの連結した黒画素ごとに求めた外接矩形とを示す
図である。
FIG. 25 is obtained for each concatenated black pixel of the same label in a concatenated edge image obtained by performing binarization processing by a variation threshold and concatenation processing of black pixels and a labeling image obtained from concatenated edge image data. It is a figure which shows a circumscribed rectangle.

【図26】 画像データの特徴周波数成分から高周波成
分を除去する際に用いられるフィルタ処理を説明するた
めの図である。
FIG. 26 is a diagram for explaining a filter process used when removing high frequency components from the characteristic frequency components of image data.

【図27】 抽出された高周波成分を2値化して得られ
た斜め方向エッジ成分画像の一例を示す図である。
FIG. 27 is a diagram showing an example of an oblique edge component image obtained by binarizing the extracted high frequency component.

【図28】 文字領域内の画像データの明度画像から作
成した(A)明度ヒストグラムと、(B)ピーク検出用
ヒストグラムとの一例を示す図である。
FIG. 28 is a diagram showing an example of (A) a brightness histogram and (B) a peak detection histogram created from a brightness image of image data in a character area.

【図29】 第1モードの領域分離処理において、図5
の画像データから、(A)最先に抽出された写真領域、
(B)2番目に抽出された図形領域、および(C)3番
目に抽出された文字領域を示す図である。
FIG. 29 is a flowchart illustrating the first mode region separation process shown in FIG.
From the image data of (A) the photo area extracted first,
It is a figure which shows the figure area extracted to the (B) 2nd, and the character area extracted to the (C) 3rd.

【図30】 第2モードの領域分離処理において、図5
の画像データから、(A)最先に抽出された写真領域、
(B)2番目に抽出された文字領域、および(C)3番
目に抽出された図形領域を示す図である。
FIG. 30 is a flowchart illustrating the second mode region separation process shown in FIG.
From the image data of (A) the photo area extracted first,
It is a figure which shows the character area extracted to (B) 2nd, and the graphic area extracted to the (C) 3rd.

【図31】 第3モードの領域分離処理において、図5
の画像データから、(A)最先に抽出された図形領域、
(B)2番目に抽出された写真領域、および(C)3番
目に抽出された文字領域を示す図である。
31 is a diagram illustrating the case of FIG.
From the image data of (A) the graphic area extracted first,
It is a figure which shows (B) the photograph area extracted 2nd, and (C) the character area extracted 3rd.

【図32】 第4モードの領域分離処理において、図5
の画像データから、(A)最先に抽出された図形領域、
(B)2番目に抽出された文字領域、および(C)3番
目に抽出された写真領域を示す図である。
FIG. 32 is a diagram illustrating the case of FIG.
From the image data of (A) the graphic area extracted first,
It is a figure which shows the character area extracted to (B) 2nd, and the photograph area extracted to the (C) 3rd.

【図33】 第5モードの領域分離処理において、図5
の画像データから、(A)最先に抽出された文字領域、
(B)2番目に抽出された写真領域、および(C)3番
目に抽出された図形領域を示す図である。
FIG. 33 is a diagram illustrating the case of FIG.
From the image data of (A) the character area extracted first,
It is a figure which shows (B) the photograph area extracted 2nd, and (C) the figure area extracted 3rd.

【図34】 第6モードの領域分離処理において、図5
の画像データから、(A)最先に抽出された文字領域、
(B)2番目に抽出された図形領域、および(C)3番
目に抽出された写真領域を示す図である。
FIG. 34 is a flowchart illustrating the sixth mode region separation process shown in FIG.
From the image data of (A) the character area extracted first,
It is a figure which shows (B) the graphic area extracted the 2nd, and (C) the photo area extracted the 3rd.

【符号の説明】[Explanation of symbols]

1…画像処理装置、 101…制御部、 102…記憶部、 103…操作部、 104…入力インタフェース部、 105…出力インタフェース部、 106…領域分離部、 108…画像処理部、 108a…写真領域処理部、 108b…図形領域処理部、 108c…文字領域処理部、 109…文書ファイル作成部、 110…ファイル形式変換部、 111…バス、 2…スキャナ、 3…ファイルサーバ、 4…コンピュータネットワーク。 1 ... Image processing device, 101 ... control unit, 102 ... storage unit, 103 ... operation unit, 104 ... Input interface unit, 105 ... Output interface unit, 106 ... Area separation unit, 108 ... Image processing unit, 108a ... Photo region processing unit, 108b ... Graphic area processing unit, 108c ... Character area processing unit, 109 ... Document file creation section, 110 ... File format conversion unit, 111 ... bus, 2 ... Scanner, 3 ... file server, 4 ... Computer network.

フロントページの続き (72)発明者 田中 芳則 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタ株式会社内 (72)発明者 小澤 昌裕 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタ株式会社内 Fターム(参考) 5C076 AA01 AA36 BA06 CA10 5C077 MP05 MP07 PP25 PP27 PP28 PP47 PQ19 RR02 5L096 BA17 FA06 FA35 FA44 FA45 GA34 Continued front page    (72) Inventor Yoshinori Tanaka             2-3-3 Azuchi-cho, Chuo-ku, Osaka             Kokusai Building Minolta Co., Ltd. (72) Inventor Masahiro Ozawa             2-3-3 Azuchi-cho, Chuo-ku, Osaka             Kokusai Building Minolta Co., Ltd. F-term (reference) 5C076 AA01 AA36 BA06 CA10                 5C077 MP05 MP07 PP25 PP27 PP28                       PP47 PQ19 RR02                 5L096 BA17 FA06 FA35 FA44 FA45                       GA34

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 処理しようとする画像データから、写真
領域、図形領域、および文字領域を分離する領域分離手
段を有する画像処理装置であって、 前記領域分離手段は、 前記画像データから、写真領域および図形領域よりも先
に文字領域を抽出する文字領域最先抽出手段を備え、前
記画像データから文字領域が抽出されて残ったデータか
ら、写真領域と図形領域とを分離することを特徴とする
画像処理装置。
1. An image processing apparatus having area separating means for separating a photograph area, a graphic area, and a character area from image data to be processed, wherein the area separating means separates the photograph area from the image data. And a character area earliest extracting means for extracting the character area before the graphic area, and separating the photographic area and the graphic area from the data remaining after the character area is extracted from the image data. Image processing device.
【請求項2】 前記領域分離手段は、 前記画像データから文字領域が抽出されて残ったデータ
から、図形領域よりも先に写真領域を抽出する写真領域
先行抽出手段をさらに備えていることを特徴とする請求
項1に記載の画像処理装置。
2. The area separating means further comprises a photograph area preceding extracting means for extracting a photograph area prior to a figure area from data remaining after the character area is extracted from the image data. The image processing apparatus according to claim 1.
【請求項3】 前記領域分離手段は、 前記画像データから文字領域が抽出されて残ったデータ
から、写真領域よりも先に図形領域を抽出する図形領域
先行抽出手段をさらに備えていることを特徴とする請求
項1に記載の画像処理装置。
3. The area separating means further comprises graphic area preceding extraction means for extracting a graphic area prior to a photographic area from the data remaining after the character area is extracted from the image data. The image processing apparatus according to claim 1.
【請求項4】 前記写真領域先行抽出手段は、 前記画像データから文字領域が抽出されて残ったデータ
に対して、複数の所定領域に分割し得る第1領域分割処
理を施し、分割された領域のうちで写真領域を抽出する
第1写真領域抽出手段と、 前記画像データから文字領域が抽出されて残ったデータ
から前記第1写真領域抽出手段により写真領域がさらに
抽出されて残ったデータに対して、前記所定領域よりも
小さい複数の領域に分割し得る第2領域分割処理を施
し、分割された領域のうちで写真領域を抽出する第2写
真領域抽出手段とを有することを特徴とする請求項2に
記載の画像処理装置。
4. The picture area preceding extraction means performs a first area division process capable of dividing a character area extracted from the image data and remaining data into a plurality of predetermined areas, and the divided area is obtained. A first photographic area extracting means for extracting a photographic area, and data remaining after extracting a photographic area by the first photographic area extracting means from data remaining after extracting a character area from the image data; And a second photographic region extracting means for performing a second region dividing process capable of dividing into a plurality of regions smaller than the predetermined region and extracting a photographic region from the divided regions. Item 2. The image processing device according to item 2.
【請求項5】 前記図形領域先行抽出手段は、 前記画像データから文字領域が抽出されて残ったデータ
に対して、複数の所定領域に分割し得る第1領域分割処
理を施し、分割された領域のうちで図形領域を抽出する
第1図形領域抽出手段と、 前記画像データから文字領域が抽出されて残ったデータ
から前記第1図形領域抽出手段により図形領域がさらに
抽出されて残ったデータに対して、前記所定領域よりも
小さい複数の領域に分割し得る第2領域分割処理を施
し、分割された領域のうちで図形領域を抽出する第2図
形領域抽出手段とを有することを特徴とする請求項3に
記載の画像処理装置。
5. The graphic area preceding extraction means performs a first area dividing process capable of dividing a character area extracted from the image data and remaining data, into a plurality of predetermined areas, and the divided area. First graphic area extracting means for extracting a graphic area, and data remaining after extracting the graphic area from the image data by the first graphic area extracting means. And a second figure area extracting means for performing a second area division process capable of dividing into a plurality of areas smaller than the predetermined area and extracting a figure area from the divided areas. Item 3. The image processing device according to item 3.
JP2001389764A 2001-12-21 2001-12-21 Image processing device Expired - Fee Related JP3931651B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001389764A JP3931651B2 (en) 2001-12-21 2001-12-21 Image processing device
US10/322,700 US7340092B2 (en) 2001-12-21 2002-12-19 Image processing device, image processing method, program for executing image processing, and computer readable recording medium on which the program is stored

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001389764A JP3931651B2 (en) 2001-12-21 2001-12-21 Image processing device

Publications (3)

Publication Number Publication Date
JP2003189096A true JP2003189096A (en) 2003-07-04
JP2003189096A5 JP2003189096A5 (en) 2005-06-23
JP3931651B2 JP3931651B2 (en) 2007-06-20

Family

ID=27597886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001389764A Expired - Fee Related JP3931651B2 (en) 2001-12-21 2001-12-21 Image processing device

Country Status (1)

Country Link
JP (1) JP3931651B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309772A (en) * 2004-04-21 2005-11-04 Omron Corp Character component extracting device
JP2009089383A (en) * 2007-10-01 2009-04-23 Toshiba Corp Image reading apparatus, and image reading method
JP2010004481A (en) * 2008-06-23 2010-01-07 Canon Inc Image processing apparatus and image processing method
JP2010004137A (en) * 2008-06-18 2010-01-07 Konica Minolta Business Technologies Inc Image processor and image processing method
US7660014B2 (en) 2006-01-17 2010-02-09 Konica Minolta Business Technologies, Inc. Image processing apparatus capable of extracting rule from document image with high precision
US7692669B2 (en) 2006-05-26 2010-04-06 Konica Minolta Business Technologies, Inc. Image processing apparatus, image processing method and image processing program
US7747089B2 (en) 2006-06-12 2010-06-29 Konica Minolta Business Technologies, Inc. Image processing apparatus, image processing method, and image processing program
JP2010225047A (en) * 2009-03-25 2010-10-07 Seiko Epson Corp Noise component removing device, and medium with noise component removing program recorded thereon
JP2010532628A (en) * 2007-06-29 2010-10-07 トムソン ライセンシング Apparatus and method for reducing artifacts in images
WO2012056610A1 (en) * 2010-10-25 2012-05-03 日本電気株式会社 Content scene assessment device
US8208744B2 (en) 2006-01-23 2012-06-26 Konica Minolta Business Technologies, Inc. Image processing apparatus capable of accurately and quickly determining character part included in image
JP2013186610A (en) * 2012-03-07 2013-09-19 Nikon Systems Inc Character extraction device and character extraction program
JP2018500702A (en) * 2015-10-30 2018-01-11 小米科技有限責任公司Xiaomi Inc. Region recognition method and apparatus

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4587698B2 (en) * 2004-04-21 2010-11-24 オムロン株式会社 Character component extractor
JP2005309772A (en) * 2004-04-21 2005-11-04 Omron Corp Character component extracting device
US7660014B2 (en) 2006-01-17 2010-02-09 Konica Minolta Business Technologies, Inc. Image processing apparatus capable of extracting rule from document image with high precision
US8208744B2 (en) 2006-01-23 2012-06-26 Konica Minolta Business Technologies, Inc. Image processing apparatus capable of accurately and quickly determining character part included in image
US7692669B2 (en) 2006-05-26 2010-04-06 Konica Minolta Business Technologies, Inc. Image processing apparatus, image processing method and image processing program
US7747089B2 (en) 2006-06-12 2010-06-29 Konica Minolta Business Technologies, Inc. Image processing apparatus, image processing method, and image processing program
JP2010532628A (en) * 2007-06-29 2010-10-07 トムソン ライセンシング Apparatus and method for reducing artifacts in images
US8472709B2 (en) 2007-06-29 2013-06-25 Thomson Licensing Apparatus and method for reducing artifacts in images
JP2009089383A (en) * 2007-10-01 2009-04-23 Toshiba Corp Image reading apparatus, and image reading method
JP2010004137A (en) * 2008-06-18 2010-01-07 Konica Minolta Business Technologies Inc Image processor and image processing method
JP2010004481A (en) * 2008-06-23 2010-01-07 Canon Inc Image processing apparatus and image processing method
US8284459B2 (en) 2008-06-23 2012-10-09 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2010225047A (en) * 2009-03-25 2010-10-07 Seiko Epson Corp Noise component removing device, and medium with noise component removing program recorded thereon
WO2012056610A1 (en) * 2010-10-25 2012-05-03 日本電気株式会社 Content scene assessment device
JP2013186610A (en) * 2012-03-07 2013-09-19 Nikon Systems Inc Character extraction device and character extraction program
JP2018500702A (en) * 2015-10-30 2018-01-11 小米科技有限責任公司Xiaomi Inc. Region recognition method and apparatus

Also Published As

Publication number Publication date
JP3931651B2 (en) 2007-06-20

Similar Documents

Publication Publication Date Title
US7340092B2 (en) Image processing device, image processing method, program for executing image processing, and computer readable recording medium on which the program is stored
US7903307B2 (en) Image processing method and image processing apparatus
JP4772888B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof
JP4557843B2 (en) Image processing apparatus and method
US8384964B2 (en) Image processing apparatus and image processing method
JP3931651B2 (en) Image processing device
JP2009135796A (en) Image processing apparatus, image processing method, image processing program, image forming apparatus, storage medium
US20030107781A1 (en) Image processing apparatus, image processing method and image processing program
US8620081B2 (en) Image processing apparatus, method, and storage medium for determining attributes
JP6923037B2 (en) Image processing equipment, image processing methods and programs
JP6628279B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
KR101224936B1 (en) Image processing apparatus, image forming apparatus and computer readable medium
JP3899872B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
US7545540B2 (en) Method and system for processing color image data
JP4165599B2 (en) Image processing device
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2007088912A (en) Image processing apparatus and program
JP4032735B2 (en) Image processing apparatus and image processing method
JP4032734B2 (en) Image processing device
JP4084537B2 (en) Image processing apparatus, image processing method, recording medium, and image forming apparatus
US20100188670A1 (en) Image processing apparatus, image processing method and program executing the image processing method
JP7248944B2 (en) Image processing device and computer program
JP3882657B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
JP7077925B2 (en) Image processing equipment, image processing methods, and programs
JPH11136505A (en) Picture processor and picture processing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041006

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20041006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041006

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20041006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070305

R150 Certificate of patent or registration of utility model

Ref document number: 3931651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100323

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110323

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120323

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130323

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140323

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees