JP6372397B2 - Image processing apparatus and computer program - Google Patents

Image processing apparatus and computer program Download PDF

Info

Publication number
JP6372397B2
JP6372397B2 JP2015043992A JP2015043992A JP6372397B2 JP 6372397 B2 JP6372397 B2 JP 6372397B2 JP 2015043992 A JP2015043992 A JP 2015043992A JP 2015043992 A JP2015043992 A JP 2015043992A JP 6372397 B2 JP6372397 B2 JP 6372397B2
Authority
JP
Japan
Prior art keywords
image
pixels
similar
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015043992A
Other languages
Japanese (ja)
Other versions
JP2016163336A (en
Inventor
長谷川 智彦
智彦 長谷川
卓也 嶋橋
卓也 嶋橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015043992A priority Critical patent/JP6372397B2/en
Publication of JP2016163336A publication Critical patent/JP2016163336A/en
Application granted granted Critical
Publication of JP6372397B2 publication Critical patent/JP6372397B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

本明細書は、第1の画像と第2の画像とが配置され、第1の画像と第2の画像とで1個の対象物を示す配置済画像を表す処理済画像データを生成する技術に関する。   In the present specification, a technique for generating processed image data in which a first image and a second image are arranged, and the first image and the second image represent an arranged image showing one object. About.

第1の画像と第2の画像とが配置された配置済画像を表す配置済画像データを生成する技術が知られている。例えば、特許文献1に開示された技術では、一度には読み取れない大きさの1個の原稿を、スキャナを用いて複数回に分けて読み取ることによって、複数個の読取画像が取得され、複数個の読取画像を合成した画像が生成される。複数個の読取画像を合成する際に重ねる位置は、複数個の読取画像に対してパターンマッチングを実行することによって決定される。   A technique is known that generates arranged image data representing a arranged image in which a first image and a second image are arranged. For example, in the technique disclosed in Patent Document 1, a plurality of read images are acquired by reading a single document having a size that cannot be read at a time in a plurality of times using a scanner. An image obtained by combining the read images is generated. The overlapping position when combining a plurality of read images is determined by performing pattern matching on the plurality of read images.

特開平4−290066号公報JP-A-4-290066

しかしながら、上記技術では、2個の画像間で一致していると判断される画素の分布について考慮されていなかった。このために、第1の画像と第2の画像とが配置される画像において、これらの画像が配置される位置を精度良く決定することができない可能性があった。   However, the above technique does not take into account the distribution of pixels that are determined to match between the two images. For this reason, in the image in which the first image and the second image are arranged, there is a possibility that the position where these images are arranged cannot be determined with high accuracy.

本明細書は、第1の画像と第2の画像とが配置され、第1の画像と第2の画像とで1個の対象物(例えば、1枚の原稿)を示す配置済画像を表す配置済画像データを生成する際に、第1の画像と第2の画像との配置位置を精度良く決定する技術を開示する。   In the present specification, a first image and a second image are arranged, and the first image and the second image represent a arranged image showing one object (for example, one original). Disclosed is a technique for accurately determining an arrangement position between a first image and a second image when generating arranged image data.

本明細書に開示される技術は、以下の適用例として実現することが可能である。   The technology disclosed in this specification can be implemented as the following application examples.

[適用例1]1個の対象物の一部を示す第1の画像を表す第1の画像データと、前記対象物の他の一部を示す第2の画像を表す第2の画像データと、を取得する画像取得部と、
前記第1の画像内の一部の領域である基準領域を決定する基準領域決定部と、
前記基準領域と、前記第2の画像内の複数個の候補領域のうちの一の候補領域とが類似するか否かを判断する第1の判断部と、
前記基準領域と前記一の候補領域とが類似する場合に、前記基準領域と前記一の候補領域とのうちの一方の領域内の複数個の画素のうち、前記基準領域と前記一の候補領域とのうちの他方の領域内の対応画素と類似する複数個の類似画素および前記対応画素と類似しない複数個の非類似画素のうちの一方の分布の偏りが基準以下であるか否かを判断する第2の判断部と、
前記複数個の類似画素および前記複数個の非類似画素のうちの一方の分布の偏りが基準以下である場合に、前記基準領域と前記一の候補領域とに基づいて、前記第1の画像と前記第2の画像との相対的な位置を決定する位置決定部と、
決定済の前記相対的な位置に前記第1の画像と前記第2の画像とが配置され、第1の画像と第2の画像とで前記対象物を示す処理済画像を表す一の配置済画像データを生成する画像生成部と、
を備える、画像処理装置。
Application Example 1 First image data representing a first image showing a part of one object, second image data representing a second image showing another part of the object, An image acquisition unit for acquiring
A reference area determination unit that determines a reference area that is a partial area in the first image;
A first determination unit that determines whether the reference region is similar to one candidate region of the plurality of candidate regions in the second image;
When the reference region and the one candidate region are similar, the reference region and the one candidate region among a plurality of pixels in one region of the reference region and the one candidate region Among the plurality of similar pixels that are similar to the corresponding pixel in the other region and the plurality of dissimilar pixels that are not similar to the corresponding pixel. A second determination unit to
When the bias of the distribution of one of the plurality of similar pixels and the plurality of dissimilar pixels is equal to or less than a reference, the first image and the one candidate region are based on the reference region and the one candidate region. A position determining unit that determines a relative position with respect to the second image;
The first image and the second image are arranged at the determined relative position, and one arranged already representing the processed image showing the object by the first image and the second image An image generation unit for generating image data;
An image processing apparatus comprising:

上記構成によれば、基準領域と一の候補領域とが類似すると判断され、かつ、複数個の類似画素および複数個の非類似画素のうちの一方の分布の偏りが基準以下である場合に、基準領域と一の候補領域とに基づいて、第1の画像と第2の画像との相対的な位置を決定する。この結果、処理済画像データを生成する際に、第1の画像と第2の画像との配置位置を精度良く決定することができる。   According to the above configuration, when it is determined that the reference region and the one candidate region are similar, and the bias of one distribution of the plurality of similar pixels and the plurality of dissimilar pixels is equal to or less than the reference, Based on the reference area and the one candidate area, a relative position between the first image and the second image is determined. As a result, when the processed image data is generated, the arrangement positions of the first image and the second image can be determined with high accuracy.

[適用例2]画像処理装置であって、
第1の画像を表す第1の画像データと、第2の画像を表す第2の画像データと、を取得する画像取得部と、
第1の画像内の複数個の画素のうち、前記第2の画像内の対応する対応画素と類似する複数個の類似画素および前記対応画素と類似しない複数個の非類似画素のうちの一方を特定する画素特定部と、
前記第1の画像内の複数個の画素を第1の方向の位置に基づいて複数個の第1のクラスに分類し、前記複数個の第1のクラスのそれぞれについて前記複数個の類似画素および前記複数個の非類似画素のうちの一方の個数をカウントして得られる第1のヒストグラムを生成するヒストグラム生成部と、
前記第1のヒストグラムの形状の特徴を示す第1の特徴量を用いて、前記第1の画像と前記第2の画像とが類似するか否かを判断する類似判断部と、
を備える、画像処理装置。
Application Example 2 An image processing apparatus,
An image acquisition unit that acquires first image data representing a first image and second image data representing a second image;
Of the plurality of pixels in the first image, one of a plurality of similar pixels that are similar to the corresponding pixels in the second image and a plurality of dissimilar pixels that are not similar to the corresponding pixels. A pixel specifying part to be specified;
A plurality of pixels in the first image are classified into a plurality of first classes based on positions in a first direction, and the plurality of similar pixels and the plurality of similar pixels for each of the plurality of first classes A histogram generator for generating a first histogram obtained by counting one of the plurality of dissimilar pixels;
A similarity determination unit that determines whether or not the first image and the second image are similar by using a first feature amount indicating a feature of the shape of the first histogram;
An image processing apparatus comprising:

こうすれば、第1のヒストグラムを用いて、第1の画像と第2の画像とが類似するか否かを容易に判断することができる。   In this way, it is possible to easily determine whether or not the first image and the second image are similar using the first histogram.

なお、本明細書に開示される技術は、種々の形態で実現することが可能であり、例えば、画像処理方法および画像処理装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体(例えば、一時的ではない記録媒体)、等の形態で実現することができる。   The technology disclosed in the present specification can be realized in various forms. For example, an image processing method and an image processing apparatus, a computer program for realizing the functions of the method or the apparatus, and the like It can be realized in the form of a recording medium (for example, a non-temporary recording medium) on which a computer program is recorded.

画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of an image processing system. 画像処理システム1000の動作を示すシーケンス図である。FIG. 11 is a sequence diagram showing an operation of the image processing system 1000. スキャン処理の説明図である。It is explanatory drawing of a scanning process. スキャン画像と配置済画像の一例を示す図である。It is a figure which shows an example of a scanned image and a arranged image. 配置位置決定処理のフローチャートである。It is a flowchart of an arrangement position determination process. 基準領域SPと候補領域NPと判断マスク画像MKとの一例を示す図である。It is a figure which shows an example of reference | standard area | region SP, candidate area | region NP, and judgment mask image MK. 分布判断処理のフローチャートである。It is a flowchart of a distribution judgment process. 第2実施例の分割領域PAを設定する処理のフローチャートである。It is a flowchart of the process which sets the division area PA of 2nd Example. 第2実施例の分割領域PAを設定する処理の説明図である。It is explanatory drawing of the process which sets the division area PA of 2nd Example. 第3実施例の分布判断処理のフローチャートである。It is a flowchart of the distribution judgment process of 3rd Example. 第3実施例の分布判断処理の説明図である。It is explanatory drawing of the distribution judgment process of 3rd Example. 変形例のスキャンデータの説明図である。It is explanatory drawing of the scan data of a modification.

A.第1実施例:
A−1:画像処理システム1000の構成
図1は、画像処理システムの構成を示すブロック図である。画像処理システム1000は、画像処理装置としてのサーバ400と、複合機200と、を備えている。サーバ400は、インターネット70に接続されており、複合機200は、LAN(Local Area Networkの略称)80を介して、インターネット70に接続されている。この結果、サーバ400と複合機200は、LAN80とインターネット70とを介して、通信可能である。また、LAN80には、複合機200のユーザのパーソナルコンピュータ500が接続されていても良い。
A. First embodiment:
A-1: Configuration of Image Processing System 1000 FIG. 1 is a block diagram showing the configuration of the image processing system. The image processing system 1000 includes a server 400 as an image processing apparatus and a multifunction device 200. The server 400 is connected to the Internet 70, and the multifunction device 200 is connected to the Internet 70 via a LAN (abbreviation of local area network) 80. As a result, the server 400 and the multifunction device 200 can communicate with each other via the LAN 80 and the Internet 70. Further, the personal computer 500 of the user of the multifunction device 200 may be connected to the LAN 80.

サーバ400は、サーバ400のコントローラの一例としてのCPU410と、DRAMなどの揮発性記憶装置420と、ハードディスクドライブやフラッシュメモリなどの不揮発性記憶装置430と、インターネット70などのネットワークに接続するためのインタフェースを含む通信部480と、を備えている。揮発性記憶装置420には、CPU410が処理を行う際に生成される種々の中間データを一時的に格納するバッファ領域421が設けられている。不揮発性記憶装置430には、コンピュータプログラム431と、UIデータ群433と、が格納されている。   The server 400 includes a CPU 410 as an example of a controller of the server 400, a volatile storage device 420 such as a DRAM, a nonvolatile storage device 430 such as a hard disk drive and a flash memory, and an interface for connecting to a network such as the Internet 70. Including a communication unit 480. The volatile storage device 420 is provided with a buffer area 421 for temporarily storing various intermediate data generated when the CPU 410 performs processing. The nonvolatile storage device 430 stores a computer program 431 and a UI data group 433.

コンピュータプログラム431、および、UIデータ群433は、例えば、サーバ400の管理者によって、インターネット70を介してサーバ400にアップロードされることにより、サーバ400にインストールされる。または、コンピュータプログラム431、および、UIデータ群433は、例えば、DVD−ROMなどに格納された形態で提供され、サーバ400の管理者によって、サーバ400にインストールされても良い。CPU410は、コンピュータプログラム431を実行することにより、後述する画像処理を実現する。   The computer program 431 and the UI data group 433 are installed in the server 400 by being uploaded to the server 400 via the Internet 70 by an administrator of the server 400, for example. Alternatively, the computer program 431 and the UI data group 433 may be provided in a form stored in, for example, a DVD-ROM, and may be installed in the server 400 by the administrator of the server 400. The CPU 410 implements image processing to be described later by executing the computer program 431.

複合機200は、複合機200のコントローラの一例としてのCPU210と、DRAMなどの揮発性記憶装置220と、フラッシュメモリやハードディスクドライブなどの不揮発性記憶装置230と、プリンタ部240と、スキャナ部250と、タッチパネルやボタンなどの操作部260と、液晶ディスプレイなどの表示部270と、外部機器と通信を行う通信部280と、を備えている。例えば、通信部280は、LAN80などのネットワークに接続するためのインタフェースや、USBメモリなどの外部記憶装置と接続するためのインタフェースを含んでいる。   The multifunction device 200 includes a CPU 210 as an example of a controller of the multifunction device 200, a volatile storage device 220 such as a DRAM, a nonvolatile storage device 230 such as a flash memory and a hard disk drive, a printer unit 240, and a scanner unit 250. , An operation unit 260 such as a touch panel and buttons, a display unit 270 such as a liquid crystal display, and a communication unit 280 that communicates with an external device. For example, the communication unit 280 includes an interface for connecting to a network such as the LAN 80 and an interface for connecting to an external storage device such as a USB memory.

揮発性記憶装置220には、CPU210が処理を行う際に生成される種々のデータを一時的に格納するバッファ領域221が設けられている。不揮発性記憶装置230には、制御プログラム231が格納されている。制御プログラム231は、プリンタ100の製造時に不揮発性記憶装置230に予め格納されて提供され得る。これに代えて、制御プログラム231は、例えば、インターネットを介して接続されたサーバからダウンロードされる形態、あるいは、CD−ROMなどに記録された形態で提供され得る。   The volatile storage device 220 is provided with a buffer area 221 for temporarily storing various data generated when the CPU 210 performs processing. A control program 231 is stored in the non-volatile storage device 230. The control program 231 can be provided by being stored in advance in the nonvolatile storage device 230 when the printer 100 is manufactured. Instead, the control program 231 can be provided, for example, in a form downloaded from a server connected via the Internet, or in a form recorded on a CD-ROM or the like.

プリンタ部240は、インクジェット方式やレーザー方式などの印刷方式を用いて印刷を実行する。スキャナ部250は、CCDやCMOSなどの光電変換素子を用いて光学的に原稿を読み取ることによってカラー画像やグレー画像を表すスキャンデータを生成する。スキャナ部250は、いわゆるフラットベッド式の後述する原稿台255を備えている。   The printer unit 240 executes printing using a printing method such as an inkjet method or a laser method. The scanner unit 250 generates scan data representing a color image or a gray image by optically reading a document using a photoelectric conversion element such as a CCD or a CMOS. The scanner unit 250 includes a so-called flatbed type document table 255 described later.

CPU210は、制御プログラム231を実行することにより、複合機200の制御を実行する。例えば、CPU210は、プリンタ部240やスキャナ部250を制御して、コピー処理、印刷処理、スキャン処理などを実行する。さらに、CPU210は、サーバ400にアクセスして、サーバ400が提供するサービスを利用することができる。   The CPU 210 executes control of the multifunction device 200 by executing the control program 231. For example, the CPU 210 controls the printer unit 240 and the scanner unit 250 to execute a copy process, a print process, a scan process, and the like. Further, the CPU 210 can access the server 400 and use a service provided by the server 400.

A−2:画像処理システム1000の動作
図2は、画像処理システム1000の動作を示すシーケンス図である。このシーケンス図の処理は、複合機200が、サーバ400が提供する画像生成サービスの利用指示を、ユーザから受け付けた場合に開始される。この画像生成サービスは、詳細は後述するが、複数個のスキャンデータによって表される複数個の画像が配置され、複数個の画像で1個の対象物(具体的には、後述する原稿10)を示す配置済画像を表す配置済画像データを生成するサービスである。複数個のスキャンデータは、詳細は後述するが、例えば、1回で読み取り可能なサイズより大きなサイズの原稿を、複数回に分けて読み取ることによって生成される。
A-2: Operation of Image Processing System 1000 FIG. 2 is a sequence diagram showing the operation of the image processing system 1000. The processing in the sequence diagram is started when the multifunction device 200 receives an instruction to use an image generation service provided by the server 400 from a user. Although this image generation service will be described in detail later, a plurality of images represented by a plurality of scan data are arranged, and one object (specifically, a manuscript 10 described later) is composed of a plurality of images. This is a service for generating arranged image data representing an arranged image indicating the above. The details of the plurality of scan data are described later. For example, the plurality of scan data are generated by reading a document having a size larger than the size that can be read at one time in a plurality of times.

処理が開始されると、S5では、複合機200のCPU210は、サービス開始要求を、サーバ400に対して送信する。サーバ400のCPU410は、サービス開始要求を受信すると、図1に示されるUIデータ群433から画像生成サービスの提供に必要なUIデータを選択し、S10にて、該UIデータを複合機200に対して送信する。UIデータは、具体的には、ユーザインタフェース画面(以下、UI画面とも呼ぶ)を表す画面データと、制御データと、を含む。この制御データは、例えば、UI画面を利用して複合機200が後述するS15のスキャン処理などの所定の処理を行うために必要な各種のデータを含む。例えば、制御データは、複合機200が実行すべき処理を行うために必要な情報、例えば、画像ファイルの送信先アドレスなどを含む。複合機200が実行すべき処理は、例えば、後述するS20にて画像ファイルをサーバ400へ送信する処理を含む。   When the process is started, in S5, the CPU 210 of the multifunction device 200 transmits a service start request to the server 400. Upon receiving the service start request, the CPU 410 of the server 400 selects UI data necessary for providing the image generation service from the UI data group 433 shown in FIG. 1, and the UI data is sent to the multifunction device 200 in S10. To send. Specifically, the UI data includes screen data representing a user interface screen (hereinafter also referred to as UI screen) and control data. This control data includes, for example, various data necessary for the MFP 200 to perform predetermined processing such as the scan processing in S15 described later using the UI screen. For example, the control data includes information necessary for performing processing to be executed by the multifunction device 200, for example, a transmission destination address of an image file. The process to be executed by the multifunction device 200 includes, for example, a process of transmitting an image file to the server 400 in S20 described later.

S15では、CPU210は、受信したUIデータに基づいて、複数個のスキャンデータを生成するスキャン処理を実行する。スキャン処理では、CPU210は、ユーザが用意した原稿を2回に分けて読み取ることによって、2個のスキャンデータを生成する。本実施例のスキャンデータは、例えば、0〜255の256階調の値で表されるRGBの各成分の成分値を画素ごとに含むRGB画像データである。   In S15, the CPU 210 executes a scan process for generating a plurality of scan data based on the received UI data. In the scan process, the CPU 210 generates two pieces of scan data by reading the document prepared by the user in two steps. The scan data of this embodiment is, for example, RGB image data including component values of RGB components represented by 256 gradation values from 0 to 255 for each pixel.

図3は、スキャン処理の説明図である。図3(A)には、本実施例で用いられる原稿の一例が示されている。この原稿10のサイズは、本実施例では、A3サイズである。線CLは、A3サイズの原稿10の長手方向の中央部に位置し、原稿10の短辺と平行な線である。左領域10Lは、原稿10の左側の半分の領域、すなわち、線CLより左側の領域である。右領域10Rは、原稿10の右側の半分の領域、すなわち、原稿10の線CLより右側の領域である。左領域10Lのサイズ、および、右領域10Rのサイズは、A4サイズである。なお、A3サイズ、および、A4サイズは、ISO(International Organization for Standardizationの略)216で定められている紙の寸法である。   FIG. 3 is an explanatory diagram of the scanning process. FIG. 3A shows an example of a document used in this embodiment. The size of the document 10 is A3 size in this embodiment. The line CL is a line that is located in the center of the A3 size original 10 in the longitudinal direction and is parallel to the short side of the original 10. The left area 10L is a left half area of the document 10, that is, an area on the left side of the line CL. The right region 10R is a half region on the right side of the document 10, that is, a region on the right side of the line CL of the document 10. The size of the left region 10L and the size of the right region 10R are A4 size. The A3 size and the A4 size are paper dimensions defined by ISO (abbreviation of International Organization for Standardization) 216.

スキャナ部250の原稿台255(図3(B)、図3(C))の長手方向の長さは、A4サイズの長手方向の長さである297mmより少しだけ(例えば、数センチ)長い。そして、原稿台の短手方向の長さは、ANSI/ASME(American National Standards Institute/American Society of Mechanical Engineersの略)Y14.1で定められている紙の寸法であるレターサイズの短手方向の長さである215.9mmより少しだけ(例えば、数センチ)長い。すなわち、本実施例では、1回で読み取ることができる原稿の最大サイズは、A4サイズより大きくA3サイズより小さいサイズである。このために、本実施例では、2回に分けてA3サイズの原稿10を読み取る。   The length in the longitudinal direction of the document table 255 (FIGS. 3B and 3C) of the scanner unit 250 is slightly longer (for example, several centimeters) than 297 mm, which is the length in the longitudinal direction of the A4 size. The length of the manuscript table in the short-side direction is the length of the letter-size short-side direction, which is the paper size defined by ANSI / ASME (Abbreviation of American National Standards Institute / American Society of Mechanical Engineers) Y14.1. It is slightly longer (for example, several centimeters) than the length 215.9 mm. That is, in this embodiment, the maximum size of a document that can be read at one time is larger than the A4 size and smaller than the A3 size. Therefore, in this embodiment, the A3 size original 10 is read in two steps.

1回目の読み取りでは、左領域10Lと、右領域10Rのうちの左領域10Lと接する部分領域CARと、を含む領域内の画像を示す左側スキャンデータが生成される。具体的には、CPU210は、図示しないUI画面を表示部270に表示することによって、図3(B)に示す状態で、原稿10を原稿台255に対して配置するように、ユーザを促す。ユーザは、図3(B)に示すように、原稿10の画像が配置された原稿面が原稿台255側を向き、かつ、原稿面の左領域10Lが奥側(図3(B)の上側)に、原稿面の右領域10Rが手前側(図3(B)の下側)に位置するように、原稿10を原稿台255上に配置する。ユーザが、読み取り指示を複合機200に入力すると、CPU210は、スキャナ部250を制御して、左領域10Lと部分領域CARと、を読み取ることによって、左側スキャンデータを生成する。   In the first reading, left scan data indicating an image in an area including the left area 10L and a partial area CAR in contact with the left area 10L in the right area 10R is generated. Specifically, the CPU 210 prompts the user to place the document 10 on the document table 255 in the state shown in FIG. 3B by displaying a UI screen (not shown) on the display unit 270. As shown in FIG. 3B, the user faces the document surface on which the image of the document 10 is placed toward the document table 255, and the left area 10L of the document surface is the back side (the upper side in FIG. 3B). ), The document 10 is placed on the document table 255 so that the right area 10R of the document surface is positioned on the near side (lower side in FIG. 3B). When the user inputs a reading instruction to the multifunction device 200, the CPU 210 controls the scanner unit 250 to read the left region 10L and the partial region CAR, thereby generating left scan data.

2回目の読み取りでは、右領域10Rと、左領域10Lのうちの右領域10Rと接する部分領域CALと、を含む領域内の画像を示す右側スキャンデータが生成される。具体的には、CPU210は、左側スキャンデータを生成した後に、図示しないUI画面を表示部270に表示することによって、図3(C)に示す状態で、原稿10を原稿台255に対して配置するように、ユーザを促す。ユーザは、図3(C)に示すように、原稿10の画像が配置された原稿面が原稿台255側を向き、かつ、原稿面の右領域10Rが奥側(図3(C)の上側)に、原稿面の左領域10Lが手前側(図3(C)の下側)に位置するように、原稿10を原稿台255上に配置する。ユーザが、読み取り指示を複合機200に入力すると、CPU210は、スキャナ部250を制御して、右領域10Rと部分領域CALと、を読み取ることによって、右側スキャンデータを生成する。   In the second reading, right scan data indicating an image in an area including the right area 10R and a partial area CAL in contact with the right area 10R in the left area 10L is generated. Specifically, after generating the left scan data, the CPU 210 displays a UI screen (not shown) on the display unit 270, thereby placing the document 10 on the document table 255 in the state shown in FIG. Prompt the user to do. As shown in FIG. 3C, the user faces the document surface on which the image of the document 10 is arranged to the document table 255 side, and the right area 10R of the document surface is the back side (the upper side of FIG. 3C). ), The document 10 is placed on the document table 255 so that the left area 10L of the document surface is positioned on the near side (lower side in FIG. 3C). When the user inputs a reading instruction to the multifunction device 200, the CPU 210 controls the scanner unit 250 to read the right region 10R and the partial region CAL, thereby generating right scan data.

図3(D)には、左側スキャンデータによって表される左側スキャン画像IL1と、右側スキャンデータによって表される右側スキャン画像IR1と、が示されている。左側スキャン画像IL1は、原稿10の左領域10Lと部分領域CARとを示す左側原稿画像HILと、余白WBLと、を含んでいる。右側スキャン画像IR1は、右領域10Rと部分領域CALを示す右側原稿画像HIRと、余白WBRと、を含んでいる。これらの原稿画像HIL、HIRは、原稿10の横方向の中央部CA(すなわち、上述した部分領域CAL、CARからなる領域)を表す画像CIL、CIRを、それぞれ、含んでいる。   FIG. 3D shows a left scan image IL1 represented by left scan data and a right scan image IR1 represented by right scan data. The left-side scanned image IL1 includes a left-side document image HIL that indicates the left area 10L and the partial area CAR of the document 10, and a margin WBL. The right-side scan image IR1 includes a right-side original image HIR indicating the right area 10R and the partial area CAL, and a margin WBR. These document images HIL and HIR respectively include images CIL and CIR representing the center portion CA in the lateral direction of the document 10 (that is, the region composed of the above-described partial regions CAL and CAR).

これらのスキャン画像IL1、IR1は、図3(B)、(C)の原稿台255の形状に対応する矩形を有している。スキャン画像IL1、IR1は、原稿台255の長辺に沿った方向を縦方向とし、原稿台255の図3(B)、(C)における左方向を上方向として、原稿台255上に配置された画像を表す。1回目の読み取りの際の原稿台255に対する原稿10の上方向(図3(B)の左方向)と、2回目の読み取りの際の原稿台255に対する原稿10の上方向(図3(C)の右方向)とは、逆向きになる。このために、左側スキャン画像IL1の左側原稿画像HILと、右側スキャン画像IR1の右側原稿画像HIRとは、上下方向が逆になっている。   These scanned images IL1 and IR1 have a rectangle corresponding to the shape of the document table 255 in FIGS. 3B and 3C. The scanned images IL1 and IR1 are arranged on the document table 255 with the direction along the long side of the document table 255 as the vertical direction and the left direction of the document table 255 in FIGS. 3B and 3C as the upward direction. Represents an image. An upward direction of the original 10 with respect to the original table 255 at the time of the first reading (left direction in FIG. 3B) and an upward direction of the original 10 with respect to the original table 255 at the time of the second reading (FIG. 3C). Is the opposite direction. For this reason, the left side original image HIL of the left side scan image IL1 and the right side original image HIR of the right side scan image IR1 are reversed in the vertical direction.

S15のスキャン処理において、左側スキャンデータ、および、右側スキャンデータは、それぞれ、所定のフォーマットのファイル、例えば、JPEG(Joint Photographic Experts Groupの略)フォーマットの画像ファイルに変換される。   In the scanning process of S15, the left side scan data and the right side scan data are each converted into a file of a predetermined format, for example, an image file of JPEG (Joint Photographic Experts Group) format.

図2のS20では、CPU210は、左側スキャンデータの画像ファイル(左側画像ファイルとも呼ぶ)と、右側スキャンデータの画像ファイル(右側画像ファイルとも呼ぶ)と、をサーバ400に対して送信する。この結果、S25にて、サーバ400のCPU410は、これらの2個の画像ファイルを取得する。CPU410は、これらの画像ファイルから左側スキャンデータおよび右側スキャンデータを取得して、バッファ領域421に格納する。例えば、JPEG形式の画像ファイルが用いられる場合には、画像ファイルから、所定の変換処理によって、RGB画像データに変換されたスキャンデータが取得されて、バッファ領域421に格納される。   In S <b> 20 of FIG. 2, the CPU 210 transmits the left scan data image file (also referred to as the left image file) and the right scan data image file (also referred to as the right image file) to the server 400. As a result, in S25, the CPU 410 of the server 400 acquires these two image files. The CPU 410 acquires left scan data and right scan data from these image files and stores them in the buffer area 421. For example, when an image file in JPEG format is used, scan data converted into RGB image data is acquired from the image file by a predetermined conversion process and stored in the buffer area 421.

S30では、CPU410は、左側スキャンデータと右側スキャンデータとに対して、それぞれ、回転処理を実行する。具体的には、CPU410は、左側スキャンデータに対してハフ変換やエッジ検出処理などの公知の処理を実行して、スキャン画像IL1内の左側原稿画像HILの上端を検出する。CPU410は、左側原稿画像HILの上端と、画像の横方向とが平行になるように、左側スキャン画像IL1を回転して、回転済の左側スキャン画像IL2を表す回転済の左側スキャンデータを生成する。この結果、例えば、原稿台255に対して原稿10が傾いて配置されることに起因して発生する原稿画像HILの傾きを補正することができる。また、CPU410は、右側スキャンデータに対して、左側スキャンデータと同様の処理を実行して、右側原稿画像HIRの傾きを補正する。CPU410は、さらに、右側原稿画像HIRの上下方向を左側原稿画像HILの上下方向と一致させるために、右側スキャン画像IR1を180度回転させて、回転済の右側スキャン画像IR2を示す回転済の右側スキャンデータを生成する。   In S30, the CPU 410 performs rotation processing on the left side scan data and the right side scan data, respectively. Specifically, the CPU 410 performs known processing such as Hough transform and edge detection processing on the left scan data to detect the upper end of the left original image HIL in the scan image IL1. The CPU 410 rotates the left scan image IL1 so that the upper end of the left original image HIL and the horizontal direction of the image are parallel to generate rotated left scan data representing the rotated left scan image IL2. . As a result, for example, it is possible to correct the inclination of the original image HIL generated due to the original 10 being inclined with respect to the original table 255. Further, the CPU 410 corrects the inclination of the right original image HIR by executing the same processing as the left scan data for the right scan data. Further, the CPU 410 rotates the right scan image IR1 by 180 degrees in order to make the vertical direction of the right original image HIR coincide with the vertical direction of the left original image HIL, and shows the rotated right side scan image IR2. Generate scan data.

図4は、スキャン画像と配置済画像の一例を示す図である。図4(A)には、回転済の左側スキャン画像IL2と、回転済の右側スキャン画像IR2と、の一例が示されている。以下では、回転済の左側スキャン画像IL2を表すスキャンデータを、単に、左側スキャンデータとも呼び、回転済の右側スキャン画像IR2を表すスキャンデータを、単に、右側スキャンデータとも呼ぶ。   FIG. 4 is a diagram illustrating an example of the scanned image and the arranged image. FIG. 4A shows an example of the rotated left scan image IL2 and the rotated right scan image IR2. Hereinafter, scan data representing the rotated left scan image IL2 is also simply referred to as left scan data, and scan data representing the rotated right scan image IR2 is also simply referred to as right scan data.

S35では、CPU410は、右側スキャン画像IR2内に、右側スキャン画像IR2の一部の領域である基準領域SPを決定する。図4(A)に示すように、基準領域SPは、右側スキャン画像IR2内の所定の位置に配置された所定のサイズの矩形領域に決定される。また、基準領域SPは、右側スキャン画像IR2において、原稿10の中央部CA(図3(A))を表す画像CIR内に配置される。例えば、基準領域SPは、右側スキャン画像IR2の4つの端のうち、中央部CAを表す画像CIRに沿った端(本実施例では、左端)に沿って配置される。基準領域SPの横方向の長さは、例えば、50画素〜150画素であり、基準領域SPの縦方向の長さは、右側スキャン画像IR2の縦方向の長さの1/4〜1/2である。   In S35, the CPU 410 determines a reference area SP that is a partial area of the right scan image IR2 in the right scan image IR2. As shown in FIG. 4A, the reference region SP is determined to be a rectangular region having a predetermined size arranged at a predetermined position in the right-side scan image IR2. Further, the reference area SP is arranged in an image CIR representing the central portion CA (FIG. 3A) of the document 10 in the right side scan image IR2. For example, the reference region SP is arranged along an end (left end in the present embodiment) along the image CIR representing the center CA among the four ends of the right-side scan image IR2. The horizontal length of the reference region SP is, for example, 50 to 150 pixels, and the vertical length of the reference region SP is 1/4 to 1/2 of the vertical length of the right-side scan image IR2. It is.

S40では、CPU410は、左側スキャン画像IL1内に、図4(A)に示される探索領域SAを決定する。探索領域SAは、予め定められた領域である。図4(A)の探索領域SAの縦方向の長さは、例えば、左側スキャン画像IL2の縦方向の全長に等しい。探索領域SAの横方向の長さは、例えば、左側スキャン画像IL2の横方向の長さの20%〜50%である。探索領域SAは、原稿10の中央部CA(図3(A))を表す画像CILを含むことが好ましい。探索領域SAは、例えば、左側スキャン画像IL2の右端を含む領域である。   In S40, the CPU 410 determines a search area SA shown in FIG. 4A in the left scan image IL1. The search area SA is a predetermined area. The length in the vertical direction of the search area SA in FIG. 4A is, for example, equal to the total length in the vertical direction of the left-side scan image IL2. The horizontal length of the search area SA is, for example, 20% to 50% of the horizontal length of the left scan image IL2. Search area SA preferably includes an image CIL representing central portion CA (FIG. 3A) of document 10. The search area SA is an area including the right end of the left scan image IL2, for example.

S45では、CPU410は、配置位置決定処理を実行する。配置位置決定処理は、生成すべき配置済画像BI(後述)における左側原稿画像HILと右側原稿画像HIRとの相対的な位置を決定する処理である。簡単に説明すると、右側スキャン画像IR2内の基準領域SPに類似する類似領域CPを、左側スキャン画像IL2内の探索領域SA内から決定する。そして、右側原稿画像HIR内の基準領域SPと、左側原稿画像HIL内の類似領域CPと、が重なる位置が、左側原稿画像HILと右側原稿画像HIRとの相対的な位置に決定される。例えば、図4(A)の右側スキャン画像IR2内の基準領域SP内に表されている原稿10の一部分を、図3(A)に示す特定部分SPTとする。類似領域CPは、左側スキャン画像IL2において、原稿10の特定部分SPTを表す領域である。配置位置決定処理の詳細は、後述する。   In S45, the CPU 410 executes an arrangement position determination process. The layout position determination process is a process for determining the relative positions of the left document image HIL and the right document image HIR in a placed image BI (described later) to be generated. Briefly, a similar region CP similar to the reference region SP in the right scan image IR2 is determined from the search region SA in the left scan image IL2. The position where the reference area SP in the right original image HIR and the similar area CP in the left original image HIL overlap is determined as a relative position between the left original image HIL and the right original image HIR. For example, a part of the document 10 shown in the reference area SP in the right-side scan image IR2 in FIG. 4A is set as a specific part SPT shown in FIG. The similar area CP is an area representing the specific portion SPT of the document 10 in the left side scan image IL2. Details of the arrangement position determination processing will be described later.

S50では、CPU410は、配置済画像生成処理を実行する。配置済画像生成処理では、CPU410は、右側スキャンデータと左側スキャンデータとを用いて、右側スキャン画像IR2内の右側原稿画像HIRと、左側スキャン画像IL2内の左側原稿画像HILとが配置された配置済画像BIを表す配置済画像データを生成する。そして、CPU410は、当該配置済画像データを所定のフォーマットの画像ファイルに変換することによって、配置済画像BIを表す画像ファイルを生成する。   In S50, the CPU 410 executes an arranged image generation process. In the arranged image generation process, the CPU 410 uses the right scan data and the left scan data to arrange the right document image HIR in the right scan image IR2 and the left document image HIL in the left scan image IL2. Arranged image data representing the completed image BI is generated. Then, the CPU 410 generates an image file representing the arranged image BI by converting the arranged image data into an image file of a predetermined format.

図4(B)は、配置済画像BIの一例を示す図である。図4(B)に示すように、配置済画像BIにおいて、右側原稿画像HIRと左側原稿画像HILとは、配置位置決定処理にて決定済の相対的な位置に配置される。すなわち、配置済画像BIにおいて、右側原稿画像HIRと左側原稿画像HILとは、右側原稿画像HIR内の基準領域SPと、左側原稿画像HIL内の類似領域CPと、が重なるように、配置される。配置済画像BIにおいて、右側原稿画像HIRと左側原稿画像HILとが互いに重なり合う領域内の画素の値には、例えば、右側原稿画像HIR(すなわち、右側スキャン画像IR2)内の画素の値が優先的に採用される。配置済画像BIは、右側原稿画像HIRと左側原稿画像HILとが配置され、右側原稿画像HIRと左側原稿画像HILとで、図3の原稿10を示す1個の画像である。   FIG. 4B is a diagram illustrating an example of the arranged image BI. As shown in FIG. 4B, in the arranged image BI, the right original image HIR and the left original image HIL are arranged at the relative positions determined in the arrangement position determining process. That is, in the arranged image BI, the right original image HIR and the left original image HIL are arranged such that the reference area SP in the right original image HIR and the similar area CP in the left original image HIL overlap. . In the arranged image BI, for example, the value of the pixel in the right original image HIR (that is, the right scanned image IR2) is preferentially given to the value of the pixel in the region where the right original image HIR and the left original image HIL overlap each other. Adopted. The arranged image BI is a right original image HIR and a left original image HIL, and the right original image HIR and the left original image HIL are one image showing the original 10 in FIG.

図2のS55では、CPU410は、生成された配置済画像ファイルを複合機200に対して送信する。複合機200のCPU210は、配置済画像ファイルを受信すると、受信した配置済画像ファイルを不揮発性記憶装置230に格納するとともに、ユーザに配置済画像ファイルを受信したことを通知する。配置済画像ファイルは、ユーザの利用に供される。例えば、複合機200は、ユーザの指示に基づいて、配置済画像ファイルを用いて、配置済画像BIを印刷することができる。   In S <b> 55 of FIG. 2, the CPU 410 transmits the generated arranged image file to the multifunction device 200. When receiving the arranged image file, the CPU 210 of the multifunction device 200 stores the received arranged image file in the nonvolatile storage device 230 and notifies the user that the arranged image file has been received. The arranged image file is provided for use by the user. For example, the multifunction device 200 can print the arranged image BI using the arranged image file based on a user instruction.

以上説明した画像処理システム1000によれば、図3に示される一の原稿10からそれぞれ別の領域を読み取ることによって得られる複数個の画像ファイル、具体的には、右側スキャンデータの画像ファイルと、左側スキャンデータの画像ファイルとを用いて、一の原稿10を示す配置済画像ファイルを生成することができる。   According to the image processing system 1000 described above, a plurality of image files obtained by reading different areas from one original 10 shown in FIG. 3, specifically, an image file of right-side scan data, Using the left scan data image file, an arranged image file representing one original 10 can be generated.

A−3.配置位置決定処理:
図2のS45の配置位置決定処理について説明する。図5は、配置位置決定処理のフローチャートである。
A-3. Arrangement position determination processing:
The arrangement position determination process in S45 of FIG. 2 will be described. FIG. 5 is a flowchart of the arrangement position determination process.

S205では、CPU410は、図4(A)の左側スキャン画像IL2内の探索領域SA内に、1個の注目候補領域を特定する。図4(A)には、探索領域SA内に、1個の候補領域NP1が図示されている。1個の候補領域のサイズ形状およびサイズは、図4(A)の右側スキャン画像IR2内の基準領域SPのサイズおよび形状と同じである。基準領域SPの各画素と、1個の候補領域NPの各画素とは、一対一で対応している。探索領域SA内には、図4(A)の候補領域NP1を縦方向や横方向に1画素刻みで移動させることで、複数個の候補領域NPが配置可能であることが解る。S205では、探索領域SA内に配置可能な全ての候補領域NPの中から1個の領域が所定の順序で注目候補領域として特定される。   In S205, the CPU 410 specifies one attention candidate area in the search area SA in the left-side scan image IL2 in FIG. FIG. 4A shows one candidate area NP1 in the search area SA. The size shape and size of one candidate region are the same as the size and shape of the reference region SP in the right-side scan image IR2 in FIG. Each pixel in the reference area SP and each pixel in one candidate area NP have a one-to-one correspondence. It can be seen that a plurality of candidate areas NP can be arranged in the search area SA by moving the candidate area NP1 of FIG. 4A in the vertical direction or the horizontal direction in increments of one pixel. In S205, one area is identified as a target candidate area in a predetermined order from all candidate areas NP that can be arranged in the search area SA.

S210では、CPU410は、判断マスク画像MKを初期化する。判断マスク画像MKの一例については後述するが、判断マスク画像MKは、基準領域SPおよび注目候補領域と同じ形状およびサイズを有する二値画像である。すなわち、基準領域SPおよび注目候補領域の画素数と判断マスク画像MKの画素数とは同じであり、基準領域SPおよび注目候補領域の各画素と、判断マスク画像MKの各画素とは、一対一で対応している。   In S210, CPU 410 initializes determination mask image MK. Although an example of the judgment mask image MK will be described later, the judgment mask image MK is a binary image having the same shape and size as the reference region SP and the target candidate region. That is, the number of pixels in the reference region SP and the attention candidate region is the same as the number of pixels in the determination mask image MK, and each pixel in the reference region SP and the attention candidate region and each pixel in the determination mask image MK are one-to-one. It corresponds with.

S215では、CPU410は、注目候補領域の複数個の画素から1個の注目画素を選択する。S220では、CPU410は、注目候補領域の注目画素の値(例えば、RGB値)と、当該注目画素に対応する基準領域SPの画素の値と、の差ΔVPを算出する。注目画素に対応する基準領域SP内の画素は、注目候補領域内の画像と基準領域SP内の画像とを重ねた場合に、注目画素と重なる基準領域SP内の画素である。差ΔVPを算出すべき2個の画素の値を、(R1、G1、B1)と(R2、G2、B2)とする。差ΔVPは、3種類の成分値間の差分の絶対値の和で表される。すなわち、差ΔVPは、(R1−R2)の絶対値と、(G1−G2)の絶対値と、(B1−B2)の絶対値と、の合計値で表される。   In S215, the CPU 410 selects one target pixel from the plurality of pixels in the target candidate area. In S220, the CPU 410 calculates a difference ΔVP between the value of the target pixel in the target candidate region (for example, RGB value) and the value of the pixel in the reference region SP corresponding to the target pixel. A pixel in the reference region SP corresponding to the target pixel is a pixel in the reference region SP that overlaps the target pixel when the image in the target candidate region and the image in the reference region SP are overlapped. The values of the two pixels for which the difference ΔVP is to be calculated are (R1, G1, B1) and (R2, G2, B2). The difference ΔVP is represented by the sum of absolute values of differences between the three types of component values. That is, the difference ΔVP is represented by the sum of the absolute value of (R1−R2), the absolute value of (G1−G2), and the absolute value of (B1−B2).

S225では、CPU410は、算出された差ΔVPが、所定の基準値THv以下であるか否かを判断する。差ΔVPが所定の基準値THv以下である場合には(S225:YES)、S230にて、CPU410は、注目画素を類似画素であると判断し、注目画素を類似画素として記録する。具体的には、CPU410は、注目画素に対応する判断マスク画像MKの画素の値を「ON」にする。CPU410は、差ΔVPが所定の基準値THvより大きい場合には(S225:NO)、S235にて、注目画素が非類似画素であると判断し、注目画素を非類似画素として記録する。具体的には、CPU410は、注目画素に対応する判断マスク画像MKの画素の値を「OFF」にする。   In S225, the CPU 410 determines whether or not the calculated difference ΔVP is less than or equal to a predetermined reference value THv. When the difference ΔVP is equal to or smaller than the predetermined reference value THv (S225: YES), in S230, the CPU 410 determines that the target pixel is a similar pixel, and records the target pixel as a similar pixel. Specifically, the CPU 410 sets the pixel value of the determination mask image MK corresponding to the target pixel to “ON”. When the difference ΔVP is larger than the predetermined reference value THv (S225: NO), the CPU 410 determines that the target pixel is a dissimilar pixel in S235, and records the target pixel as a dissimilar pixel. Specifically, the CPU 410 sets the pixel value of the determination mask image MK corresponding to the target pixel to “OFF”.

S240では、CPU410は、注目候補領域の全ての画素を注目画素として処理したか否かを判断する。未処理の画素がある場合には(S240:NO)、CPU410は、S215に戻って、未処理の画素を注目画素として選択する。全ての画素が処理された場合には(S240:YES)、CPU410は、S245に処理を進める。S245に移行した時点では、注目候補領域内の全ての画素が、類似画素と非類似画素のうちのいずれかに分類されている。   In S240, the CPU 410 determines whether or not all pixels in the attention candidate region have been processed as the attention pixel. When there is an unprocessed pixel (S240: NO), the CPU 410 returns to S215 and selects the unprocessed pixel as a target pixel. When all the pixels have been processed (S240: YES), the CPU 410 advances the process to S245. At the time of shifting to S245, all the pixels in the target candidate region are classified as either a similar pixel or a dissimilar pixel.

S245では、CPU410は、注目候補領域の類似画素の割合R1を算出する。割合R1は、注目候補領域内の類似画素の個数SCを、注目候補領域内の画素の総数Ntで除することによって得られる値である(R1=(SC/Nt))。   In S245, the CPU 410 calculates the similar pixel ratio R1 of the candidate region of interest. The ratio R1 is a value obtained by dividing the number SC of similar pixels in the target candidate region by the total number Nt of pixels in the target candidate region (R1 = (SC / Nt)).

S250では、CPU410は、類似画素の割合R1が、閾値TH1以上であるか否かを判断する。類似画素の割合R1が、閾値TH1以上である場合には(S250:YES)、CPU410は、S255にて、分布判断処理を実行する。分布判断処理は、注目候補領域領域内における類似画素の分布の偏りが基準以下であるか否かを判断する処理である。類似画素の分布の偏りが基準以下である場合には、類似画素の分布は均一であると判断され、類似画素の分布の偏りが基準値より大きい場合には、類似画素の分布は偏っていると判断される。分布判断処理については後述する。   In S250, the CPU 410 determines whether or not the similar pixel ratio R1 is equal to or greater than the threshold value TH1. When the ratio R1 of similar pixels is equal to or greater than the threshold value TH1 (S250: YES), the CPU 410 executes a distribution determination process in S255. The distribution determination process is a process for determining whether or not the deviation of the distribution of similar pixels in the target candidate region is below a reference. If the distribution of similar pixels is less than the reference, the distribution of similar pixels is determined to be uniform. If the distribution of similar pixels is greater than the reference value, the distribution of similar pixels is biased. It is judged. The distribution determination process will be described later.

類似画素の分布が均一である場合には(S260:YES)、CPU410は、S265にて、CPU410は、S265にて、注目候補領域を、基準領域SPに類似する類似領域CPとして決定する。そして、S270にて、CPU410は、類似領域CPに決定された現在の注目候補領域と基準領域SPとに基づいて、左側原稿画像HILと右側原稿画像HIRとの相対的は配置位置を決定して、配置位置決定処理を終了する。具体的には、図4(B)を参照して上述したように、右側原稿画像HIR内の基準領域SPと、左側原稿画像HIL内の現在の注目候補領域(すなわち、類似領域CP)と、が重なるように、配置位置が決定される。   If the distribution of similar pixels is uniform (S260: YES), the CPU 410 determines the attention candidate area as a similar area CP similar to the reference area SP in S265, and the CPU 410 in S265. In S270, CPU 410 determines the relative position of left original image HIL and right original image HIR based on the current candidate region of interest determined as similar region CP and reference region SP. Then, the arrangement position determination process is terminated. Specifically, as described above with reference to FIG. 4B, the reference area SP in the right original image HIR, the current candidate area for attention (ie, the similar area CP) in the left original image HIL, The arrangement position is determined so that the two overlap.

類似画素の割合R1が閾値TH1未満である場合(S250:NO)、および、CPU410は、類似画素の分布が均一ではなく偏っている場合には(S260:NO)、CPU410は、S275にて、探索領域SA内の全ての候補領域を注目候補領域として処理したか否かを判断する。未処理の候補領域がある場合には(S275:NO)、CPU410は、S205に戻って、未処理の候補領域を注目候補領域として特定する。   When the ratio R1 of similar pixels is less than the threshold value TH1 (S250: NO), and when the distribution of similar pixels is not uniform but uneven (S260: NO), the CPU 410, in S275, It is determined whether all candidate areas in the search area SA have been processed as attention candidate areas. If there is an unprocessed candidate area (S275: NO), the CPU 410 returns to S205 and identifies the unprocessed candidate area as the attention candidate area.

全ての候補領域が処理された場合には(S275:YES)、CPU410は、S280にて、左側原稿画像HILと右側原稿画像HIRとの相対的は配置位置をデフォルトの位置に決定して、配置位置決定処理を終了する。デフォルトの位置は、例えば、単純に左側スキャン画像20Lの右端と、右側スキャン画像20Rの左端とが、全長において接する位置である。   If all the candidate areas have been processed (S275: YES), the CPU 410 determines the relative position of the left original image HIL and the right original image HIR as the default position in S280, and arranges them. The position determination process ends. The default position is, for example, a position where the right end of the left scan image 20L simply touches the left end of the right scan image 20R in the entire length.

以上説明した配置位置決定処理によれば、S250にて、類似画素の割合R1が閾値TH1以上であるかに基づいて、基準領域SPと注目候補領域とが類似するか否かが判断される。そして、基準領域SPと注目候補領域とが類似する場合に(S250:YES)、CPU410は、S255にて、分布判断処理を実行する。そして、CPU410は、注目候補領域における類似画素の分布が均一である場合には(S260:YES)、基準領域SPと注目候補領域とに基づいて、左側原稿画像HILと右側原稿画像HIRとの相対的な位置を決定する(S270)。この結果、図2のS50にて、配置済画像データを生成する際に、2個の原稿画像HIL、HIRの配置位置を精度良く決定することができる。   According to the arrangement position determination process described above, in S250, it is determined whether or not the reference area SP and the target candidate area are similar based on whether the similar pixel ratio R1 is equal to or greater than the threshold value TH1. When the reference area SP and the target candidate area are similar (S250: YES), the CPU 410 executes a distribution determination process in S255. Then, if the distribution of similar pixels in the target candidate area is uniform (S260: YES), the CPU 410 makes a relative between the left original image HIL and the right original image HIR based on the reference area SP and the target candidate area. A specific position is determined (S270). As a result, when the arranged image data is generated in S50 of FIG. 2, the arrangement positions of the two original images HIL and HIR can be accurately determined.

より詳しく説明する。読み取る原稿10によって、原稿画像HIL、HIRは様々であるから、基準領域SP内の画像も様々である。例えば、基準領域SP内の画像は、比較的エッジ量が多い場合もあれば、比較的エッジ量が少ない場合ある。このような、画像内のエッジ量や、原稿10を読み取るためのスキャナ部250の特性によって、原稿画像HIL、HIRに含まれるノイズ画素の個数は異なる。ノイズ画素は、原稿10の表すべき色を示していない画素である。例えば、スキャン画像内のエッジ部分は、当該エッジとスキャナのイメージセンサの各セルとの位置関係によって、ノイズ画素を含みやすい。このために、例えば、類似画素の個数に基づく類否判断、本実施例では、類似画素の割合R1が閾値TH1以上か否かに基づく類否判断のみでは、基準領域SPと類似する類似領域CPを適切に決定できない可能性がある。   This will be described in more detail. Since the original images HIL and HIR vary depending on the original 10 to be read, the images in the reference area SP also vary. For example, an image in the reference area SP may have a relatively large edge amount or a relatively small edge amount. The number of noise pixels included in the document images HIL and HIR varies depending on the amount of edges in the image and the characteristics of the scanner unit 250 for reading the document 10. The noise pixel is a pixel that does not indicate the color to be represented on the document 10. For example, an edge portion in a scan image tends to include noise pixels depending on the positional relationship between the edge and each cell of the image sensor of the scanner. For this reason, for example, the similarity region CP similar to the reference region SP is determined only by the similarity determination based on the number of similar pixels. May not be determined properly.

図6は、基準領域SPと候補領域NPと判断マスク画像MKとの一例を示す図である。図6(A)の基準領域SP1は、比較的ノイズ画素の個数が多い画像である。図6(A)の候補領域NP1は、基準領域SP1と類似する候補領域である。すなわち、図6(A)の候補領域NP1は、類似領域CPであると判断されるべき候補領域である。図6(A)の判断マスク画像MK1は、基準領域SP1と候補領域NP1との類似画素と非類似画素とを示す判断マスク画像である。   FIG. 6 is a diagram illustrating an example of the reference region SP, the candidate region NP, and the determination mask image MK. The reference region SP1 in FIG. 6A is an image having a relatively large number of noise pixels. The candidate area NP1 in FIG. 6A is a candidate area similar to the reference area SP1. That is, the candidate area NP1 in FIG. 6A is a candidate area to be determined as the similar area CP. The determination mask image MK1 in FIG. 6A is a determination mask image showing similar and dissimilar pixels between the reference region SP1 and the candidate region NP1.

図6(B)の基準領域SP2は、比較的ノイズ画素の個数が多い画像である。図6(B)の候補領域NP2は、基準領域SP2とは、類似しない候補領域である。すなわち、図6(B)の候補領域NP2は、類似領域CPであると判断されるべきではない候補領域である。図6(B)の判断マスク画像MK2は、基準領域SP2と候補領域NP2との類似画素と非類似画素とを示す判断マスク画像である。   The reference area SP2 in FIG. 6B is an image having a relatively large number of noise pixels. The candidate area NP2 in FIG. 6B is a candidate area that is not similar to the reference area SP2. That is, the candidate area NP2 in FIG. 6B is a candidate area that should not be determined to be the similar area CP. A judgment mask image MK2 in FIG. 6B is a judgment mask image showing similar and dissimilar pixels in the reference area SP2 and the candidate area NP2.

判断マスク画像MK1、MK2において、黒の部分は、非類似画素が存在する領域であり、白の部分は、類似画素が存在する領域である。黒の非類似画素のうち、第1種の非類似画素Pnは、基準領域SPと候補領域NPとの互いに対応する2個の画素のうち少なくとも一方がノイズ画素であることに起因して、非類似であると判断された非類似画素を示す。黒の非類似画素のうち、第2種の非類似画素Pdは、基準領域SPと候補領域NPとの互いに対応する2個の画素の両方がノイズ画素ではないが、非類似であると判断された非類似画素を示す。第2種の非類似画素Pdは、基準領域SPのうち、候補領域NPの対応する領域と実質的に異なる画像を表す相違領域を構成する画素である。ノイズ画素は、画像の全体に分散して比較的均一に分布している。このために、第1種の非類似画素Pnは、判断マスク画像MKの全体(すなわち、基準領域SPの全体および候補領域NPの全体)に分散して比較的均一に分布している可能性が高い。第2種の非類似画素Pdは、上述したように相違領域を構成しているので、判断マスク画像MKにおいて(すなわち、基準領域SPおよび候補領域NPにおいて)、相違領域に偏って存在している可能性が高い。   In the judgment mask images MK1 and MK2, the black portion is a region where dissimilar pixels exist, and the white portion is a region where similar pixels exist. Among the black dissimilar pixels, the first dissimilar pixel Pn is a non-similar pixel due to at least one of the two pixels corresponding to each other of the reference region SP and the candidate region NP being a noise pixel. The dissimilar pixels determined to be similar are shown. Among the black dissimilar pixels, the second type dissimilar pixel Pd is determined to be dissimilar, although both of the two corresponding pixels of the reference region SP and the candidate region NP are not noise pixels. The dissimilar pixels are shown. The second type of dissimilar pixel Pd is a pixel constituting a different area representing an image substantially different from the corresponding area of the candidate area NP in the reference area SP. Noise pixels are distributed relatively uniformly throughout the image. For this reason, there is a possibility that the first type dissimilar pixels Pn are distributed relatively uniformly in the entire determination mask image MK (that is, the entire reference region SP and the entire candidate region NP). high. Since the second type dissimilar pixel Pd forms a different area as described above, the second type dissimilar pixel Pd is biased to the different area in the determination mask image MK (that is, in the reference area SP and the candidate area NP). Probability is high.

図6(A)の例では、基準領域SP1は、候補領域NP1と類似しているので、非類似画素のほぼ全てが、第1種の非類似画素Pnである。このために、この例では、判断マスク画像MK1から解るように、非類似画素は、基準領域SPの全体および候補領域NPの全体に、分散して比較的均一に分布している。これに対して、図6(B)の例では、基準領域SP2は、候補領域NP2と類似していないので、非類似画素は、第1種の非類似画素Pnと、第2種の非類似画素Pdとを含む。判断マスク画像MK2において、第1種の非類似画素Pnは、画像の全体に均一に分布しており、第2種の非類似画素Pdは、基準領域SP2と候補領域NP2との相違領域DFa、DFbに偏って存在している。   In the example of FIG. 6A, since the reference region SP1 is similar to the candidate region NP1, almost all the dissimilar pixels are the first type dissimilar pixels Pn. Therefore, in this example, as can be understood from the judgment mask image MK1, dissimilar pixels are distributed and distributed relatively uniformly over the entire reference region SP and the entire candidate region NP. On the other hand, in the example of FIG. 6B, since the reference region SP2 is not similar to the candidate region NP2, the dissimilar pixels are the first type dissimilar pixel Pn and the second type dissimilarity. Pixel Pd. In the determination mask image MK2, the first type dissimilar pixels Pn are uniformly distributed throughout the image, and the second type dissimilar pixels Pd are different regions DFA between the reference region SP2 and the candidate region NP2, It is biased toward DFb.

ここで、基準領域SP1のノイズ量は、基準領域SP2のノイズ量より多い。このために、判断マスク画像MK1の第1種の非類似画素Pnの個数は、判断マスク画像MK2の第1種の非類似画素Pnの個数より多い。このために、判断マスク画像MK1の類似画素Pnの総数(すなわち、第1種の非類似画素Pnと第2種の非類似画素Pdとの和)は、判断マスク画像MK2の非類似画素の総数と、ほぼ同じとなっている。このような場合には、類似画素の個数に基づく類否判断のみでは、基準領域SPと類似する類似領域CPを複数個の候補領域から適切に決定できないことが解る。   Here, the amount of noise in the reference region SP1 is larger than the amount of noise in the reference region SP2. For this reason, the number of first-type dissimilar pixels Pn in the determination mask image MK1 is larger than the number of first-type dissimilar pixels Pn in the determination mask image MK2. For this reason, the total number of similar pixels Pn of the determination mask image MK1 (that is, the sum of the first type of dissimilar pixels Pn and the second type of dissimilar pixels Pd) is the total number of dissimilar pixels of the determination mask image MK2. It is almost the same. In such a case, it can be understood that the similar region CP similar to the reference region SP cannot be appropriately determined from the plurality of candidate regions only by the similarity determination based on the number of similar pixels.

ここで、本実施例では、基準領域SPおよび候補領域NP内の全ての画素が、類似画素および非類似画素のいずれかに分類される。このために、非類似画素が、基準領域SPおよび候補領域NP全体に分布している場合には、類似画素も、基準領域SPおよび候補領域NP全体に均一に分布していると判断して良い。逆に、類似画素が、基準領域SPおよび候補領域NP全体に分布している場合には、非類似画素も、基準領域SPおよび候補領域NP全体に均一に分布していると判断して良い。したがって、非類似画素および類似画素が、基準領域SPおよび候補領域NP全体に均一に分布しているか、偏って分布しているかは、非類似画素に基づいて判断しても良く、類似画素に基づいて判断しても良い。本実施例では、分布判断処理の説明にて後述するように、類似画素に基づいて判断している。   Here, in this embodiment, all the pixels in the reference region SP and the candidate region NP are classified as either similar pixels or dissimilar pixels. For this reason, when dissimilar pixels are distributed throughout the reference region SP and the candidate region NP, it may be determined that similar pixels are also uniformly distributed throughout the reference region SP and the candidate region NP. . Conversely, when similar pixels are distributed throughout the reference region SP and candidate region NP, it may be determined that dissimilar pixels are also uniformly distributed throughout the reference region SP and candidate region NP. Therefore, whether dissimilar pixels and similar pixels are uniformly distributed or unevenly distributed throughout the reference region SP and the candidate region NP may be determined based on dissimilar pixels. You may judge. In the present embodiment, the determination is made based on similar pixels, as will be described later in the description of the distribution determination process.

そこで、本実施例の配置位置決定処理(図5)では、上述したように、類似画素の個数に基づく類否判断によって類似と判断された注目候補領域について、類似画素の分布が均一であるか偏っているかを判断している。そして、類似画素の分布が均一である場合には、注目候補領域は、類似領域CPであると決定され、類似画素の分布が均一でない場合には、注目候補領域は、類似領域CPであると決定されない。この結果、基準領域SPと類似する類似領域CPを適切に決定できる。したがって、2個の原稿画像HIL、HIRの配置位置を精度良く決定することができる。   Therefore, in the arrangement position determination process (FIG. 5) according to the present embodiment, as described above, whether the distribution of similar pixels is uniform in the attention candidate region determined to be similar by the similarity determination based on the number of similar pixels. Judging whether it is biased. When the distribution of similar pixels is uniform, the candidate region of interest is determined to be a similar region CP. When the distribution of similar pixels is not uniform, the candidate region of interest is a similar region CP. Not determined. As a result, a similar region CP similar to the reference region SP can be appropriately determined. Therefore, the arrangement positions of the two original images HIL and HIR can be determined with high accuracy.

A−4.分布判断処理:
図5のS255の分布判断処理について説明する。図7は、分布判断処理のフローチャートである。
A-4. Distribution judgment processing:
The distribution determination process in S255 of FIG. 5 will be described. FIG. 7 is a flowchart of the distribution determination process.

S300では、CPU410は、判断用の特定範囲を決定する。判断用の特定範囲SRは、後述する分割領域PA内の類似画素の割合R2についての特定範囲である。この特定範囲SRは、本実施例では、図5のS245で算出済の類似画素の割合R1に基づいて決定される。具体的には、特定範囲SRは、判断マスク画像MK全体の類似画素の割合R1を中心とする所定幅の範囲とされる。本実施例では、特定範囲SRは、(R1−ΔR)以上、かつ、(R1+ΔR)の範囲とされる。ΔRは、例えば、10%である。   In S300, the CPU 410 determines a specific range for determination. The specific range SR for determination is a specific range for the ratio R2 of similar pixels in a divided area PA described later. In this embodiment, the specific range SR is determined based on the similar pixel ratio R1 calculated in S245 of FIG. Specifically, the specific range SR is a range having a predetermined width centered on the ratio R1 of similar pixels in the entire determination mask image MK. In this embodiment, the specific range SR is set to (R1−ΔR) or more and (R1 + ΔR). ΔR is, for example, 10%.

S305では、CPU410は、判断マスク画像MKを複数個に分割して、判断マスク画像MK内に複数個の分割領域PAを設定する。例えば、判断マスク画像MKが枡目状に分割されることによって、所定サイズ(例えば、縦32画素×横32画素)の矩形の分割領域PAが、判断マスク画像MK内に設定される。図6(A)、(B)の例では、判断マスク画像MK1、MK2には、縦11個×横2個の合計22個の分割領域PAがそれぞれ設定されている。上述したように、基準領域SP、注目候補領域のサイズおよび形状と、判断マスク画像MKのサイズおよび形状と、は等しい。このために、判断マスク画像MKに複数個の分割領域PAが設定されることは、基準領域SP、および、注目候補領域に、複数個の分割領域PAが設定されることと同義である。   In S305, the CPU 410 divides the judgment mask image MK into a plurality of pieces, and sets a plurality of divided areas PA in the judgment mask image MK. For example, the determination mask image MK is divided into a checkered pattern, so that a rectangular divided area PA having a predetermined size (for example, 32 pixels vertically × 32 pixels horizontally) is set in the determination mask image MK. In the examples of FIGS. 6A and 6B, a total of 22 divided areas PA of 11 vertical × 2 horizontal are set in the determination mask images MK1 and MK2. As described above, the size and shape of the reference region SP and the candidate region for attention are equal to the size and shape of the determination mask image MK. For this reason, setting a plurality of divided areas PA in the judgment mask image MK is synonymous with setting a plurality of divided areas PA in the reference area SP and the target candidate area.

S310では、CPU410は、複数個の分割領域PAから1個の注目分割領域を選択する。S315では、CPU410は、注目分割領域の類似画素の割合R2を算出する。割合R1は、注目分割領域内の類似画素の個数SCpを、注目分割領域内の画素の総数Ntpで除することによって得られる値である(R2=(SCp/Ntp))。   In S310, the CPU 410 selects one target divided region from the plurality of divided regions PA. In S315, the CPU 410 calculates the similar pixel ratio R2 of the target divided region. The ratio R1 is a value obtained by dividing the number SCp of similar pixels in the target divided region by the total number Ntp of pixels in the target divided region (R2 = (SCp / Ntp)).

S320では、CPU410は、類似画素の割合R2が、S300で決定済の特定範囲SR内であるか否かを判断する。換言すれば、類似画素の個数SCpが、総数Ntpの(R1−ΔR)%以上(R1+ΔR)%以下の範囲内にあるか否かが判断される。類似画素の割合R2が特定範囲SR内である場合には(S320:YES)、CPU410は、S325にて、注目分割領域を、均一領域として記録する。類似画素の割合R2が特定範囲SR内ではない場合には(S320:NO)、CPU410は、S330にて、注目分割領域を、偏り領域として記録する。均一領域は、内部の類似画素の割合R2が、判断マスク画像MK全体の類似画素の割合R1に比較的近似している分割領域PAである。偏り領域は、内部の類似画素の割合R2が、判断マスク画像MK全体の類似画素の割合R1と比較的離れている分割領域PAである。   In S320, the CPU 410 determines whether the similar pixel ratio R2 is within the specific range SR determined in S300. In other words, it is determined whether or not the number SCp of similar pixels is within the range of (R1−ΔR)% to (R1 + ΔR)% of the total number Ntp. When the ratio R2 of similar pixels is within the specific range SR (S320: YES), the CPU 410 records the attention divided region as a uniform region in S325. When the ratio R2 of similar pixels is not within the specific range SR (S320: NO), the CPU 410 records the attention divided region as a biased region in S330. The uniform region is a divided region PA in which the internal similar pixel ratio R2 is relatively approximate to the similar pixel ratio R1 of the entire determination mask image MK. The biased area is a divided area PA in which the ratio R2 of the similar pixels inside is relatively far from the ratio R1 of the similar pixels in the entire determination mask image MK.

例えば、処理対象の判断マスク画像MKが、図6(A)の判断マスク画像MK1の場合には、類似画素および非類似画素が判断マスク画像MK1の全体に分布しているので、判断マスク画像MK1の比較的高い割合の分割領域PAが、均一領域であると判断される。   For example, if the judgment mask image MK to be processed is the judgment mask image MK1 in FIG. 6A, similar pixels and dissimilar pixels are distributed throughout the judgment mask image MK1, so that the judgment mask image MK1 A relatively high proportion of the divided areas PA is determined to be a uniform area.

一方、処理対象の判断マスク画像MKが、図6(B)の判断マスク画像MK2の場合には、類似画素および非類似画素が判断マスク画像MK2の全体に分布していないので、判断マスク画像MK2の比較的高い割合の分割領域PAが、偏り領域であると判断される。例えば、判断マスク画像MK2の第2種の非類似画素Pdが偏在している分割領域PAでは、当該分割領域PAの類似画素の割合R2が、全体の類似画素の割合R1より比較的低くなる。また、判断マスク画像MK2の第2種の非類似画素Pdが偏在していない分割領域PAでは、当該分割領域PAの類似画素の割合R2が、全体の類似画素の割合R1より比較的高くなる。   On the other hand, when the judgment mask image MK to be processed is the judgment mask image MK2 in FIG. 6B, similar pixels and dissimilar pixels are not distributed over the whole judgment mask image MK2, and therefore, the judgment mask image MK2 A relatively high proportion of the divided areas PA is determined to be a biased area. For example, in the divided area PA where the second type dissimilar pixel Pd of the determination mask image MK2 is unevenly distributed, the ratio R2 of similar pixels in the divided area PA is relatively lower than the ratio R1 of the entire similar pixels. Further, in the divided area PA where the second type dissimilar pixel Pd of the determination mask image MK2 is not unevenly distributed, the ratio R2 of similar pixels in the divided area PA is relatively higher than the ratio R1 of the entire similar pixels.

S335では、CPU410は、判断マスク画像MK内の全ての分割領域PAを注目分割領域として処理したか否かを判断する。未処理の分割領域PAがある場合には(S335:NO)、CPU410は、S310に戻って、未処理の分割領域PAを注目分割領域として特定する。全ての分割領域PAが処理された場合には(S335:YES)、CPU410は、S340に処理を進める。S340に処理が進められた時点で、処理対象の判断マスク画像MKの全ての分割領域PAが、均一領域か偏り領域のいずれかに分類されている。   In S335, the CPU 410 determines whether or not all the divided areas PA in the determination mask image MK have been processed as the target divided areas. When there is an unprocessed divided area PA (S335: NO), the CPU 410 returns to S310 and identifies the unprocessed divided area PA as a target divided area. When all the divided areas PA have been processed (S335: YES), the CPU 410 advances the process to S340. When the process proceeds to S340, all the divided areas PA of the determination target mask image MK are classified as either a uniform area or a biased area.

S340では、CPU410は、判断マスク画像MKの均一領域の割合R3を算出する。割合R3は、判断マスク画像MK内の均一領域の個数RCを、判断マスク画像MK内の分割領域PAの総数PNtで除することによって得られる値である(R3=(RC/PNt))。   In S340, the CPU 410 calculates a uniform area ratio R3 of the determination mask image MK. The ratio R3 is a value obtained by dividing the number RC of uniform areas in the judgment mask image MK by the total number PNt of the divided areas PA in the judgment mask image MK (R3 = (RC / PNt)).

S345では、CPU410は、均一領域の割合R3が、閾値TH3以上であるか否かを判断する。閾値TH3は、例えば、90%である。均一領域の割合R3が、閾値TH3以上である場合には(S345:YES)、CPU410は、S350にて、判断マスク画像MKの類似画素の分布は均一であると判断する。換言すれば、判断マスク画像MKに対応する基準領域SPおよび候補領域は、類似画素の分布の偏りは基準以下である領域であると判断される。CPU410は、均一領域の割合R3が、閾値TH3未満である場合には(S345:NO)、CPU410は、S355にて、判断マスク画像MKの類似画素の分布は偏っていると判断する。換言すれば、判断マスク画像MKに対応する基準領域SPおよび候補領域は、類似画素の分布の偏りは基準より大きな領域であると判断される。   In S345, the CPU 410 determines whether or not the uniform area ratio R3 is equal to or greater than the threshold value TH3. The threshold value TH3 is 90%, for example. When the uniform area ratio R3 is equal to or greater than the threshold value TH3 (S345: YES), the CPU 410 determines in S350 that the distribution of similar pixels in the determination mask image MK is uniform. In other words, the reference area SP and the candidate area corresponding to the determination mask image MK are determined to be areas where the distribution deviation of similar pixels is equal to or less than the reference. If the uniform area ratio R3 is less than the threshold value TH3 (S345: NO), the CPU 410 determines that the distribution of similar pixels in the determination mask image MK is biased in S355. In other words, the reference region SP and the candidate region corresponding to the determination mask image MK are determined to be regions where the deviation of the distribution of similar pixels is larger than the reference.

以上説明した第1実施例の分布判断処理によれば、判断マスク画像MKに分割領域PAが設定される(S305)。すなわち、基準領域SPおよび注目候補領域に複数個の分割領域PAが設定される。そして、複数個の分割領域PAのそれぞれについて、類似画素の個数に基づいて、均一領域であるか否かが判断される(S320〜S330)。そして、均一領域の個数に基づく特徴量である割合R3を用いて、基準領域SPおよび注目候補領域の類似画素の分布の偏りが基準以下であるか否かが判断される(S345〜S355)。この結果、基準領域SPおよび注目候補領域の類似画素の分布の偏りが基準以下であるか否かを精度良く判断することができる。例えば、図6(A)の基準領域SP1、候補領域NP1では、類似画素の分布の偏りは基準以下であると判断され、図6(B)の基準領域SP2、候補領域NP2では、類似画素の分布の偏りは基準より大きいと、それぞれ、適切に判断される。   According to the distribution determination process of the first embodiment described above, the divided area PA is set in the determination mask image MK (S305). That is, a plurality of divided areas PA are set in the reference area SP and the target candidate area. Then, it is determined whether each of the plurality of divided areas PA is a uniform area based on the number of similar pixels (S320 to S330). Then, using the ratio R3, which is a feature amount based on the number of uniform regions, it is determined whether or not the distribution of similar pixels in the reference region SP and the candidate region of interest is below the reference (S345 to S355). As a result, it is possible to accurately determine whether or not the deviation of the distribution of similar pixels in the reference region SP and the candidate region of interest is below the reference. For example, in the reference area SP1 and the candidate area NP1 in FIG. 6A, it is determined that the distribution deviation of similar pixels is below the reference. In the reference area SP2 and the candidate area NP2 in FIG. If the distribution bias is larger than the reference, it is determined appropriately.

また、第1実施例の図5のS215〜S250では、判断マスク画像MK内の類似画素の個数SCを用いて、基準領域SPと注目候補領域とが類似するか否かが判断される。そして、図7の分布判断処理では、図5のS215〜S250において用いられた類似画素の分布の偏りが基準以下であるか否かが判断される。この結果、図5のS215〜S250における基準領域SPと注目候補領域との1次的な類否判断と、分布判断処理における類似画素の分布に関する判断と、を効率良く実行できる。   In S215 to S250 of FIG. 5 of the first embodiment, it is determined whether the reference area SP is similar to the target candidate area using the number SC of similar pixels in the determination mask image MK. Then, in the distribution determination process of FIG. 7, it is determined whether or not the distribution deviation of similar pixels used in S215 to S250 of FIG. As a result, it is possible to efficiently execute the primary similarity determination between the reference region SP and the target candidate region in S215 to S250 in FIG. 5 and the determination regarding the distribution of similar pixels in the distribution determination process.

さらに、図5のS215〜S250では、基準領域SPの画素の総数Ntに対する類似画素の個数SCを示す割合R1が、閾値TH1以上である場合に(S250:YES)、基準領域SPと注目候補領域とが類似すると判断される。そして、図7の分布判断処理では、注目分割領域の画素の総数Ntpに対する類似画素の個数SCpを示す割合R2が、全体の割合R1に基づく特定範囲SRである場合に、注目分割領域は均一領域であると判断される(S340〜S355)。この結果、割合R3を適切に算出できるので、複数個の類似画素の分布の偏りが基準以下であるか否かをより精度良く判断することができる。   Furthermore, in S215 to S250 in FIG. 5, when the ratio R1 indicating the number SC of similar pixels to the total number Nt of pixels in the reference region SP is equal to or greater than the threshold value TH1 (S250: YES), the reference region SP and the candidate region of interest Are judged to be similar. In the distribution determination process of FIG. 7, when the ratio R2 indicating the number of similar pixels SCp with respect to the total number Ntp of pixels in the target divided area is the specific range SR based on the total ratio R1, the target divided area is a uniform area. (S340 to S355). As a result, since the ratio R3 can be calculated appropriately, it can be determined with higher accuracy whether or not the distribution deviation of the plurality of similar pixels is equal to or less than the reference.

B.第2実施例:
第2実施例は、図7のS305の分割領域PAを設定する処理が、第1実施例と異なる。図7のS305以外の処理は、第1実施例と同一である。図8は、第2実施例の分割領域PAを設定する処理のフローチャートである。図9は、第2実施例の分割領域PAを設定する処理の説明図である。第2実施例では、サイズの異なる複数種類の分割領域PAが設定され得る。具体的には、第2実施例では、大分割領域PAbと、大分割領域PAbよりサイズが小さな中分割領域PAmと、中分割領域PAmよりサイズが小さな小分割領域PAsと、が設定され得る。
B. Second embodiment:
The second embodiment is different from the first embodiment in the process of setting the divided area PA in S305 of FIG. Processes other than S305 in FIG. 7 are the same as those in the first embodiment. FIG. 8 is a flowchart of a process for setting the divided area PA of the second embodiment. FIG. 9 is an explanatory diagram of a process for setting the divided area PA of the second embodiment. In the second embodiment, a plurality of types of divided areas PA having different sizes can be set. Specifically, in the second embodiment, a large divided area PAb, a medium divided area PAm having a smaller size than the large divided area PAb, and a small divided area PAs having a smaller size than the middle divided area PAm can be set.

S405では、CPU410は、図9(A)に示すように、判断マスク画像MKの全体(すなわち、基準領域SPおよび注目候補領域の全体)を、縦2個×横2個の4個に分割して、4個の大分割領域PAbを設定する。   In S405, as shown in FIG. 9A, the CPU 410 divides the entire judgment mask image MK (that is, the entire reference region SP and the entire candidate region of interest) into 4 pieces of 2 in the vertical direction and 2 in the horizontal direction. Thus, four large divided areas PAb are set.

S410では、設定済の分割領域PAから1個の注目分割領域を選択する。最初のS410では、4個の大分割領域PAbから1個の注目分割領域が選択される。なお、後述するS430で、中分割領域PAmや小分割領域PAsが設定された後のS410では、大分割領域PAbに加えて、これらの中分割領域PAmや小分割領域PAsを含む全ての分割領域PAの中から、1個の未処理の分割領域PAが注目分割領域として選択される。   In S410, one target divided area is selected from the set divided areas PA. In the first S410, one target divided area is selected from the four large divided areas PAb. Note that in S410 after the medium divided area PAm and the small divided area PAs are set in S430, which will be described later, in addition to the large divided area PAb, all the divided areas including these medium divided area PAm and small divided area PAs are included. One unprocessed divided area PA is selected as a target divided area from the PAs.

S415では、CPU410は、注目分割領域内の画素の値の分散値σpaを算出する。例えば、基準領域SPの注目分割領域内の各画素の輝度値Yの分散値が、注目分割領域の分散値σpaとして算出される。分散値σpaは、注目分割領域内の画素の値のばらつきを示す特徴量であり、分散値σpaが大きいほど画素の値のばらつきが大きいことを示す。   In S415, the CPU 410 calculates a variance value σpa of pixel values in the target divided area. For example, the variance value of the luminance value Y of each pixel in the target divided region of the reference region SP is calculated as the variance value σpa of the target divided region. The variance value σpa is a feature amount indicating variation in pixel values in the target divided region, and indicates that the variation in pixel values increases as the variance value σpa increases.

S420では、CPU410は、算出された分散値σpaが閾値THpa以上であるか否かを判断する。分散値σpaが閾値THpa以上である場合には(S420:YES)、CPU410は、S425にて、注目分割領域が最小サイズであるか否かを判断する。閾値THpaは、例えば、原稿10のオブジェクト(図3(A)の例では家)を表す領域の分散値より小さく、原稿10のベタ塗りの背景(例えば、原稿のオブジェクトが印刷されていない用紙部分)を表す領域の分散値より大きな値となるように、実験的に予め設定されている。本実施例では、設定し得る最小サイズの分割領域は、小分割領域PAsであるので、注目分割領域が小分割領域PAsであるか否かが判断される。   In S420, the CPU 410 determines whether or not the calculated variance value σpa is greater than or equal to the threshold value THpa. When the variance value σpa is equal to or greater than the threshold value THpa (S420: YES), the CPU 410 determines whether or not the attention divided region is the minimum size in S425. The threshold value THpa is, for example, smaller than the variance value of the area representing the object of the document 10 (the house in the example of FIG. 3A), and the solid background of the document 10 (for example, the paper portion on which the document object is not printed) ) Is experimentally set in advance so as to be a value larger than the variance value of the region representing). In the present embodiment, the minimum-size divided area that can be set is the small divided area PAs, and therefore it is determined whether or not the target divided area is the small divided area PAs.

注目分割領域が最小サイズでない場合には(S425:NO)、CPU410は、S430にて、注目分割領域を縦2個×横2個の4個に分割して、注目分割領域内に、注目分割領域より小さなサイズの分割領域PAを設定する。例えば、注目分割領域が、図9(A)の右上の大分割領域PAbである場合には、図9(B)に示すように、当該大分割領域PAb内に4個の中分割領域PAmが設定される。例えば、注目分割領域が、図9(B)の4個の中分割領域PAmのうちの左下の中分割領域PAmである場合には、図9(C)に示すように、当該中分割領域PAm内に4個の小分割領域PAsが設定される。   If the target divided region is not the minimum size (S425: NO), the CPU 410 divides the target divided region into four of 2 vertical × 2 horizontal in S430, and the target divided region is divided into the target divided regions. A divided area PA having a size smaller than the area is set. For example, when the target divided area is the upper right large divided area PAb in FIG. 9A, as shown in FIG. 9B, there are four medium divided areas PAm in the large divided area PAb. Is set. For example, when the target divided area is the lower left middle divided area PAm among the four middle divided areas PAm in FIG. 9B, as shown in FIG. 9C, the middle divided area PAm Four subdivided areas PAs are set therein.

算出された分散値σpaが閾値THpa未満である場合(S420:NO)、または、注目分割領域が最小サイズである場合には(S425:YES)、CPU410は、S435にて、注目分割領域を処理済領域として記録する。処理済領域として記録された分割領域PAは、以降のS410にて注目分割領域として選択されないので、現在のサイズより小さく分割されることはない。   When the calculated variance value σpa is less than the threshold THpa (S420: NO), or when the target divided area is the minimum size (S425: YES), the CPU 410 processes the target divided area in S435. Recorded as a completed area. Since the divided area PA recorded as the processed area is not selected as the attention divided area in the subsequent S410, it is not divided smaller than the current size.

S440では、CPU410は、処理済領域として記録されていない未処理の分割領域PAがあるか否かを判断する。未処理の分割領域PAがある場合には(S440:YES)、CPU410は、S410に戻って、未処理の分割領域PAを注目分割領域として選択する。未処理の分割領域PAがない場合には(S440:NO)、CPU410は、図8の処理を終了する。   In S440, CPU 410 determines whether there is an unprocessed divided area PA that is not recorded as a processed area. If there is an unprocessed divided area PA (S440: YES), the CPU 410 returns to S410 and selects the unprocessed divided area PA as a target divided area. If there is no unprocessed divided area PA (S440: NO), the CPU 410 ends the process of FIG.

以上説明した図8の処理によれば、注目分割領域の分散値σpaが閾値THpa以上である場合には(S420:YES)、注目分割領域が最小サイズでない限り、S430にて、注目分割領域がさらに4個に分割される。そして、注目分割領域の分散値σpaが閾値THpa未満である場合には(S420:NO)、注目分割領域は、現在より小さくは分割されない(S435)。すなわち、基準領域SPのうち、画素の値のばらつきが比較的大きな領域には比較的小さな分割領域(例えば、小分割領域PAs)が設定される。そして、画素の値のばらつきが比較的小さな領域には比較的大きな分割領域(例えば、大分割領域PAb)が設定される。   According to the processing in FIG. 8 described above, when the variance value σpa of the attention divided area is equal to or greater than the threshold value THpa (S420: YES), the attention division area is determined in S430 as long as the attention division area is not the minimum size. It is further divided into four. When the variance value σpa of the attention divided area is less than the threshold value THpa (S420: NO), the attention division area is not divided smaller than the current one (S435). That is, a relatively small divided area (for example, a small divided area PAs) is set in an area where the variation in pixel values is relatively large in the reference area SP. A relatively large divided area (for example, a large divided area PAb) is set in an area where the variation in pixel values is relatively small.

そして、図7の処理では、サイズに拘わらずに、各分割領域PAが、均一領域であるか偏り領域であるかが判断される(S315〜S330)。そして、図7のS340にて、均一領域の割合R3を算出する際には、均一領域の個数RCは、均一領域の大きさに依存説にカウントされる。すなわち、均一領域が、小分割領域PAs、中分割領域PAm、大分割領域PAbのいずれであっても、1個の均一領域としてカウントされる。   In the process of FIG. 7, it is determined whether each divided area PA is a uniform area or a biased area regardless of the size (S315 to S330). In S340 of FIG. 7, when calculating the uniform region ratio R3, the number of uniform regions RC is counted depending on the size of the uniform region. That is, even if the uniform area is any one of the small divided area PAs, the middle divided area PAm, and the large divided area PAb, it is counted as one uniform area.

以上説明した第2実施例によれば、こうすれば、図7の分布判断処理における判断に用いられる特徴量である均一領域の割合R3を適切に算出できるので、図7の分布判断処理において、複数個の類似画素の分布の偏りが基準以下であるか否かをより適切に判断することができる。この結果、基準領域SPと類似する類似領域CPをより精度良く決定できるので、左側原稿画像HILと右側原稿画像HIRとの相対的な位置をより精度良く決定できる。   According to the second embodiment described above, in this way, the uniform area ratio R3, which is the feature amount used for the determination in the distribution determination process of FIG. 7, can be appropriately calculated. Therefore, in the distribution determination process of FIG. It is possible to more appropriately determine whether or not the deviation of the distribution of the plurality of similar pixels is below the reference. As a result, since the similar area CP similar to the reference area SP can be determined with higher accuracy, the relative position between the left original image HIL and the right original image HIR can be determined with higher accuracy.

基準領域SPと注目候補領域との類似性を比較する際に、基準領域SPや注目候補領域のうち、画素の値のばらつきが比較的小さな領域、例えば、原稿10の背景を表す領域のように特徴の無い領域を比較しても類似性を判断し難い。基準領域SPと注目候補領域との類似性を比較する際には、基準領域SPや注目候補領域のうち、画素の値のばらつきが比較的大きな領域、例えば、原稿10のオブジェクトを表す領域ように特徴がある領域を重視して比較するほうが、より精度良く類似性を判断できる。このために、類似画素の分布が均一であるか偏っているかを判断する際にも、画素の値のばらつきが比較的大きい領域を重視して判断することが好ましい。本実施例では、均一領域の割合R3を算出する際に、基準領域SPのうち、画素の値のばらつきが比較的大きい領域の寄与率が、画素の値のばらつきが比較的小さな領域の寄与率より高くなる。この結果、類似画素の分布が均一であるか偏っているかを判断する際に、画素の値のばらつきが比較的大きい領域を重視して判断することができる。したがって、上述したように、基準領域SPと類似する類似領域CPをより精度良く決定できる。   When comparing the similarity between the reference area SP and the attention candidate area, the reference area SP or the attention candidate area has a relatively small variation in pixel values, such as an area representing the background of the document 10. It is difficult to determine similarity even when comparing regions without features. When comparing the similarity between the reference area SP and the attention candidate area, the reference area SP or the attention candidate area is an area having a relatively large variation in pixel values, for example, an area representing an object of the document 10. Similarity can be judged with higher accuracy by comparing areas with particular features. For this reason, when determining whether the distribution of similar pixels is uniform or biased, it is preferable to focus on an area where the variation in pixel values is relatively large. In this embodiment, when calculating the ratio R3 of the uniform area, the contribution ratio of the area where the pixel value variation is relatively large in the reference area SP is the contribution ratio of the area where the pixel value variation is relatively small. Get higher. As a result, when determining whether the distribution of similar pixels is uniform or biased, it is possible to make a determination with emphasis on an area where the variation in pixel values is relatively large. Therefore, as described above, the similar region CP similar to the reference region SP can be determined with higher accuracy.

C.第3実施例
第3実施例では、分布判断処理が、第1実施例および第2実施例とは異なる。図10は、第3実施例の分布判断処理のフローチャートである。図11は、第3実施例の分布判断処理の説明図である。分布判断処理以外の処理は、第1実施例と同一である。
C. Third Embodiment In the third embodiment, the distribution determination process is different from the first embodiment and the second embodiment. FIG. 10 is a flowchart of the distribution determination process of the third embodiment. FIG. 11 is an explanatory diagram of the distribution determination process of the third embodiment. Processing other than the distribution determination processing is the same as that of the first embodiment.

S505では、判断マスク画像MKの縦方向の射影ヒストグラムHvを生成する。具体的には、CPU410は、判断マスク画像MK内の複数個の画素を、縦方向の位置(すなわち、基準領域SPおよび注目候補領域の縦方向の位置)に基づいて、複数個のクラスに分類する。本実施例では、縦方向の位置が等しい複数個の画素、すなわち、横方向に延びる1本の画素のライン上の複数個の画素が、1個のクラスに分類される。例えば、判断マスク画像MKのサイズが、縦P画素×横Q画素である場合には、判断マスク画像MK内の複数個の画素は、P個のクラスに分類され、1個のクラスに属する画素数は、Q個である。そして、CPU410は、P個のクラスのそれぞれについて、各クラスに属するQ個の画素のうち、類似画素の個数をカウントすることによって、縦方向の射影ヒストグラムHvを作成する。   In S505, a projection histogram Hv in the vertical direction of the determination mask image MK is generated. Specifically, the CPU 410 classifies the plurality of pixels in the determination mask image MK into a plurality of classes based on the vertical positions (that is, the vertical positions of the reference region SP and the candidate region of interest). To do. In the present embodiment, a plurality of pixels having the same vertical position, that is, a plurality of pixels on a line of one pixel extending in the horizontal direction are classified into one class. For example, when the size of the judgment mask image MK is vertical P pixels × horizontal Q pixels, a plurality of pixels in the judgment mask image MK are classified into P classes and pixels belonging to one class. The number is Q. Then, for each of the P classes, the CPU 410 creates a vertical projection histogram Hv by counting the number of similar pixels among the Q pixels belonging to each class.

図11(A)には、処理対象の判断マスク画像MKが、図11(A)の判断マスク画像MK1である場合に作成される縦方向の射影ヒストグラムHv1が図示されている。図11(B)には、処理対象の判断マスク画像MKが、図11(B)の判断マスク画像MK2である場合に作成される縦方向の射影ヒストグラムHv2が図示されている。射影ヒストグラムHv1、Hv2の縦軸は、縦方向の画素位置を示し、横軸は、類似画素の個数を示す。   FIG. 11A shows a vertical projection histogram Hv1 that is created when the judgment mask image MK to be processed is the judgment mask image MK1 of FIG. FIG. 11B shows a vertical projection histogram Hv2 created when the judgment mask image MK to be processed is the judgment mask image MK2 of FIG. The vertical axis of the projection histograms Hv1 and Hv2 indicates the pixel position in the vertical direction, and the horizontal axis indicates the number of similar pixels.

これに代えて、射影ヒストグラムHv1を作成する際には、複数本の連続するライン上の複数個の画素が1個のクラスに分類されても良い。例えば、縦P画素×横Q画素のサイズの判断マスク画像MK内の複数個の画素は、(P/2)個のクラスに分類され、1個のクラスに属する画素数は、(2×Q)個であっても良い。   Instead, when creating the projection histogram Hv1, a plurality of pixels on a plurality of continuous lines may be classified into one class. For example, a plurality of pixels in the judgment mask image MK having a size of vertical P pixels × horizontal Q pixels are classified into (P / 2) classes, and the number of pixels belonging to one class is (2 × Q ) It may be a piece.

S510では、CPU410は、縦方向の射影ヒストグラムHvの外接矩形BvのサイズSvを算出する。図11(A)、(B)には、縦方向の射影ヒストグラムHv1、Hv2の外接矩形Bv1、Bv2が図示されている。射影ヒストグラムHvの外接矩形BvのサイズSvは、P個のクラスのそれぞれについてカウントされたP個のカウント値のうちの最大値Mvに、クラスの個数Pを乗じて算出される(Sv=Mv×P)。図11(A)、(B)には、射影ヒストグラムHv1では、特定のクラスCv1で、最大値Mv1をとり、射影ヒストグラムHv2では、特定のクラスCv2で、最大値Mv2をとることが図示されている。   In S510, the CPU 410 calculates the size Sv of the circumscribed rectangle Bv of the vertical projection histogram Hv. 11A and 11B show circumscribed rectangles Bv1 and Bv2 of the projection histograms Hv1 and Hv2 in the vertical direction. The size Sv of the circumscribed rectangle Bv of the projection histogram Hv is calculated by multiplying the maximum value Mv among the P count values counted for each of the P classes by the number P of classes (Sv = Mv × P). FIGS. 11A and 11B illustrate that the projection histogram Hv1 takes a maximum value Mv1 at a specific class Cv1, and the projection histogram Hv2 takes a maximum value Mv2 at a specific class Cv2. Yes.

S515では、CPU410は、縦方向の射影ヒストグラムHvに基づく評価値である第1評価値Evを算出する。第1評価値Evは、縦方向の射影ヒストグラムHvの外接矩形BvのサイズSvに対する判断マスク画像MK内の類似画素の個数SCの割合である(Ev=(SC/Sv))。類似画素の個数SCは、P個のクラスのカウント値の合計値と等しい。   In S515, the CPU 410 calculates a first evaluation value Ev that is an evaluation value based on the vertical projection histogram Hv. The first evaluation value Ev is a ratio of the number SC of similar pixels in the judgment mask image MK to the size Sv of the circumscribed rectangle Bv of the vertical projection histogram Hv (Ev = (SC / Sv)). The number SC of similar pixels is equal to the total value of the count values of P classes.

S520では、判断マスク画像MKの横方向の射影ヒストグラムHhを生成する。具体的には、CPU410は、判断マスク画像MK内の複数個の画素を、縦方向と交差する方向である横方向の位置(すなわち、基準領域SPおよび注目候補領域の横方向の位置)に基づいて、複数個のクラスに分類する。本実施例では、横方向の位置が等しい複数個の画素、すなわち、縦方向に延びる1本の画素のライン上の複数個の画素が、1個のクラスに分類される。例えば、判断マスク画像MKのサイズが、縦P画素×横Q画素である場合には、判断マスク画像MK内の複数個の画素は、Q個のクラスに分類され、1個のクラスに属する画素数は、P個である。そして、CPU410は、Q個のクラスのそれぞれについて、各クラスに属するP個の画素のうちの類似画素の個数をカウントすることによって、横方向の射影ヒストグラムHhを作成する。   In S520, a horizontal projection histogram Hh of the determination mask image MK is generated. Specifically, the CPU 410 determines a plurality of pixels in the determination mask image MK based on a horizontal position that is a direction intersecting the vertical direction (that is, the horizontal position of the reference area SP and the attention candidate area). And classify them into multiple classes. In the present embodiment, a plurality of pixels having the same horizontal position, that is, a plurality of pixels on a line of one pixel extending in the vertical direction are classified into one class. For example, when the size of the judgment mask image MK is vertical P pixels × horizontal Q pixels, a plurality of pixels in the judgment mask image MK are classified into Q classes and pixels belonging to one class. The number is P. Then, for each of the Q classes, the CPU 410 creates a horizontal projection histogram Hh by counting the number of similar pixels among the P pixels belonging to each class.

図11(A)には、処理対象の判断マスク画像MKが、図11(A)の判断マスク画像MK1である場合に作成される横方向の射影ヒストグラムHh1が図示されている。図11(B)には、処理対象の判断マスク画像MKが、図11(B)の判断マスク画像MK2である場合に作成される横方向の射影ヒストグラムHh2が図示されている。射影ヒストグラムHh1、Hh2の横軸は、横方向の画素位置を示し、縦軸は、類似画素の個数を示す。   FIG. 11A shows a projection histogram Hh1 in the horizontal direction that is created when the judgment mask image MK to be processed is the judgment mask image MK1 in FIG. FIG. 11B shows a horizontal projection histogram Hh2 created when the judgment mask image MK to be processed is the judgment mask image MK2 of FIG. The horizontal axis of the projection histograms Hh1 and Hh2 indicates the pixel position in the horizontal direction, and the vertical axis indicates the number of similar pixels.

これに代えて、射影ヒストグラムHh1を作成する際には、複数本の連続するライン上の複数個の画素が1個のクラスに分類されても良い。例えば、縦P画素×横Q画素のサイズの判断マスク画像MK内の複数個の画素は、(Q/2)個のクラスに分類され、1個のクラスに属する画素数は、(2×P)個であっても良い。   Instead, when creating the projection histogram Hh1, a plurality of pixels on a plurality of continuous lines may be classified into one class. For example, a plurality of pixels in the judgment mask image MK having a size of vertical P pixels × horizontal Q pixels are classified into (Q / 2) classes, and the number of pixels belonging to one class is (2 × P ) It may be a piece.

S525では、CPU410は、横方向の射影ヒストグラムHhの外接矩形BhのサイズShを算出する。図11(A)、(B)には、横方向の射影ヒストグラムHh1、Hh2の外接矩形Bh1、Bh2が図示されている。射影ヒストグラムHhの外接矩形BhのサイズShは、Q個のクラスのそれぞれについてカウントされたQ個のカウント値のうちの最大値Mhに、クラスの個数Qを乗じて算出される(Sh=Mh×Q)。図11(A)、(B)には、射影ヒストグラムHh1では、特定のクラスCh1で、最大値Mh1をとり、射影ヒストグラムHh2では、特定のクラスCh2で、最大値Mh2をとることが図示されている。   In S525, the CPU 410 calculates the size Sh of the circumscribed rectangle Bh of the horizontal projection histogram Hh. 11A and 11B show circumscribed rectangles Bh1 and Bh2 of the horizontal projection histograms Hh1 and Hh2. The size Sh of the circumscribed rectangle Bh of the projection histogram Hh is calculated by multiplying the maximum value Mh among the Q count values counted for each of the Q classes by the number Q of classes (Sh = Mh × Q). FIGS. 11A and 11B illustrate that the projection histogram Hh1 takes the maximum value Mh1 for a specific class Ch1, and the projection histogram Hh2 takes the maximum value Mh2 for a specific class Ch2. Yes.

S530では、CPU410は、横方向の射影ヒストグラムHhに基づく評価値である第2評価値Ehを算出する。第2評価値Ehは、横方向の射影ヒストグラムHhの外接矩形BhのサイズShに対する判断マスク画像MK内の類似画素の個数SCの割合である(Eh=(SC/Sh))。類似画素の個数SCは、Q個のクラスのカウント値の合計値と等しい。   In S530, the CPU 410 calculates a second evaluation value Eh that is an evaluation value based on the horizontal projection histogram Hh. The second evaluation value Eh is a ratio of the number SC of similar pixels in the judgment mask image MK to the size Sh of the circumscribed rectangle Bh in the horizontal projection histogram Hh (Eh = (SC / Sh)). The number SC of similar pixels is equal to the total value of the count values of Q classes.

S535では、CPU410は、第1評価値Evが閾値THe以上であり、かつ、第2評価値Ehが閾値THe以上であるか否かを判断する。閾値THeは、例えば、90%である。   In S535, the CPU 410 determines whether or not the first evaluation value Ev is greater than or equal to the threshold value THe and the second evaluation value Eh is greater than or equal to the threshold value THe. The threshold value THe is 90%, for example.

第1評価値Evが閾値THe以上であり、かつ、第2評価値Ehが閾値THe以上である場合には(S535:YES)、CPU410は、判断マスク画像MKの類似画素の分布、すなわち、基準領域SPおよび注目候補領域の類似画素の分布は均一であると判断する。第1評価値Evが閾値THe未満、および、第2評価値Ehが閾値未満の少なくとも一方である場合には(S535:NO)、CPU410は、判断マスク画像MKの類似画素の分布、すなわち、基準領域SPおよび注目候補領域の類似画素の分布は偏っていると判断する。   When the first evaluation value Ev is greater than or equal to the threshold value THe and the second evaluation value Eh is greater than or equal to the threshold value THe (S535: YES), the CPU 410 distributes similar pixels in the judgment mask image MK, that is, the reference It is determined that the distribution of similar pixels in the region SP and the target candidate region is uniform. When the first evaluation value Ev is less than the threshold value THe and the second evaluation value Eh is at least one less than the threshold value (S535: NO), the CPU 410 distributes the similar pixels of the determination mask image MK, that is, the reference It is determined that the distribution of similar pixels in the region SP and the candidate region of interest is biased.

処理対象の判断マスク画像MKが、類似画素が均一に分布している画像である場合、例えば、図11(A)の判断マスク画像MK1である場合には、縦方向の射影ヒストグラムHv1において、P個のクラスのそれぞれについて算出されるP個のカウント値が互いに比較的近い値となる。そのために、判断マスク画像MK1の縦方向の射影ヒストグラムHv1の縦方向の画素位置に対する変化は、比較的少ない。この結果、判断マスク画像MK1の縦方向の射影ヒストグラムHv1の形状は、外接矩形Bv1の形状と比較的近いので、縦方向の射影ヒストグラムHv1について算出される第1評価値Evは、比較的大きな値、例えば、100%に近い値になりやすい。処理対象の判断マスク画像MKにて、類似画素が均一に分布している場合には、横方向の射影ヒストグラムHhの第2評価値Ehも、同様の理由から、比較的大きな値、例えば、100%に近い値になりやすい。   When the determination mask image MK to be processed is an image in which similar pixels are uniformly distributed, for example, in the case of the determination mask image MK1 in FIG. 11A, in the vertical projection histogram Hv1, P The P count values calculated for each of the classes are relatively close to each other. Therefore, the change of the vertical projection histogram Hv1 of the determination mask image MK1 with respect to the vertical pixel position is relatively small. As a result, since the shape of the vertical projection histogram Hv1 of the determination mask image MK1 is relatively close to the shape of the circumscribed rectangle Bv1, the first evaluation value Ev calculated for the vertical projection histogram Hv1 is a relatively large value. For example, the value tends to be close to 100%. If similar pixels are uniformly distributed in the judgment mask image MK to be processed, the second evaluation value Eh of the horizontal projection histogram Hh is also a relatively large value, for example, 100, for the same reason. It tends to be close to%.

処理対象の判断マスク画像MKが、類似画素が偏って分布している画像である場合、例えば、図11(B)の判断マスク画像MK2である場合には、縦方向の射影ヒストグラムHv2において、P個のクラスのそれぞれについて算出されるP個のカウント値には、最大値Mv2より大幅に小さい値が含まれる可能性が高くなる。例えば、図11(B)の位置PLにおけるカウント値は、最大値Mv2より大幅に小さい。そのために、判断マスク画像MK2の縦方向の射影ヒストグラムHv2の縦方向の画素位置に対する変化は、比較的大きい。この結果、判断マスク画像MK2の縦方向の射影ヒストグラムHv2の形状は、外接矩形Bv2の形状とは異なるので、縦方向の射影ヒストグラムHv2について算出される第1評価値Evは、比較的小さな値になりやすい。処理対象の判断マスク画像MKにて、類似画素が偏っている場合には、横方向の射影ヒストグラムHhの第2評価値Ehも、同様の理由から、比較的小さな値になりやすい。   When the judgment mask image MK to be processed is an image in which similar pixels are distributed unevenly, for example, in the case of the judgment mask image MK2 in FIG. 11B, P in the vertical projection histogram Hv2. There is a high possibility that the P count values calculated for each of the classes include a value significantly smaller than the maximum value Mv2. For example, the count value at the position PL in FIG. 11B is significantly smaller than the maximum value Mv2. Therefore, the change of the vertical projection histogram Hv2 of the determination mask image MK2 with respect to the vertical pixel position is relatively large. As a result, since the shape of the vertical projection histogram Hv2 of the judgment mask image MK2 is different from the shape of the circumscribed rectangle Bv2, the first evaluation value Ev calculated for the vertical projection histogram Hv2 is a relatively small value. Prone. If similar pixels are biased in the judgment mask image MK to be processed, the second evaluation value Eh of the horizontal projection histogram Hh tends to be a relatively small value for the same reason.

以上の説明から解るように、第1評価値Evは、縦方向の射影ヒストグラムHvの形状の特徴を示す特徴量であり、第2評価値Ehは、横方向の射影ヒストグラムHhの形状の特徴を示す特徴量である、と言うことができる。   As can be understood from the above description, the first evaluation value Ev is a feature amount indicating the feature of the shape of the vertical projection histogram Hv, and the second evaluation value Eh is the feature of the shape of the horizontal projection histogram Hh. It can be said that it is a feature amount to be shown.

以上の説明から解るように、第3実際例では、縦方向の射影ヒストグラムHv(第1のヒストグラムとも呼ぶ)が生成され(S505)、縦方向の射影ヒストグラムHvの形状を示す特徴量である第1評価値Evを用いて、類似画素の分布が偏っているか均一であるか、すなわち、類似画素の分布の偏りが基準以下であるか否かが判断される(S510、S515、S535)。この結果、類似画素の分布の偏りが基準以下であるか否かを容易に判断することができる。   As can be seen from the above description, in the third actual example, a vertical projection histogram Hv (also referred to as a first histogram) is generated (S505), which is a feature amount indicating the shape of the vertical projection histogram Hv. Using one evaluation value Ev, it is determined whether the distribution of similar pixels is biased or uniform, that is, whether the bias of the distribution of similar pixels is below a reference (S510, S515, S535). As a result, it can be easily determined whether or not the distribution of similar pixels is less than the reference.

より具体的には、複数個のクラスのそれぞれについてカウントされたカウント値の最大値Mvと、クラスの個数と、を乗じて得られる特定値Svを算出し(S510)、特定値Svに対する類似画素の個数Scの割合が第1評価値Evとして算出される(S515)。そして、第1評価値Evが閾値THe以上である場合に、類似画素の分布の偏りが基準以下であると判断され得る(S535)。この結果、縦方向の射影ヒストグラムHvを用いて、複数個の類似画素および複数個の非類似画素のうちの一方の分布の偏りが基準以下であるか否かをより適切に判断することができる。   More specifically, a specific value Sv obtained by multiplying the maximum count value Mv counted for each of the plurality of classes and the number of classes is calculated (S510), and similar pixels for the specific value Sv are calculated. The ratio of the number Sc is calculated as the first evaluation value Ev (S515). Then, when the first evaluation value Ev is equal to or greater than the threshold value THe, it can be determined that the distribution deviation of similar pixels is equal to or less than the reference (S535). As a result, it is possible to more appropriately determine whether or not the distribution bias of one of the plurality of similar pixels and the plurality of dissimilar pixels is equal to or less than the reference using the vertical projection histogram Hv. .

さらに、横方向の射影ヒストグラムHhが生成され(S520)、横方向の射影ヒストグラムHhの形状を示す特徴量である第2評価値Ehと、上述の第1評価値Evと、を用いて、類似画素の分布の偏りが基準以下であるか否かが判断される(S535)。この結果、2つの方向から類似画素の分布を評価することで、類似画素の分布の偏りが基準以下であるか否かをさらに精度良く判断することができる。   Further, a horizontal projection histogram Hh is generated (S520), and the second evaluation value Eh, which is a feature amount indicating the shape of the horizontal projection histogram Hh, and the above-described first evaluation value Ev are used for similarity. It is determined whether or not the deviation of the pixel distribution is below the reference (S535). As a result, by evaluating the distribution of similar pixels from two directions, it can be determined with higher accuracy whether or not the deviation of the distribution of similar pixels is below the reference.

また、第3実施例では、射影ヒストグラムHv、Hhの形状の特徴を示す特徴量Ev、Ehを用いて、基準領域SP内の画像と、注目候補領域内の画像と、が類似するか否かを判断している、と言うことができる。より具体的には、第3実施例では、注目候補領域内の複数個の画素のうち、基準領域SP内の対応する画素と類似する複数個の類似画素が特定される(図5のS215〜S235)。そして、注目候補領域内の類似画素の割合R1が閾値TH1であり(図5のS250:YES)、かつ、特徴量Ev、Ehに基づき注目候補領域内の類似画素の分布の偏りが基準値以下であると判断される場合に(S260:YES)に、基準領域SPと注目候補領域は、類似すると判断される(S265)。   In the third embodiment, whether or not the image in the reference area SP and the image in the target candidate area are similar using the feature amounts Ev and Eh indicating the shape characteristics of the projection histograms Hv and Hh. It can be said that it is judging. More specifically, in the third embodiment, among the plurality of pixels in the target candidate region, a plurality of similar pixels similar to the corresponding pixels in the reference region SP are specified (S215 to S215 in FIG. 5). S235). Then, the ratio R1 of similar pixels in the target candidate region is the threshold value TH1 (S250: YES in FIG. 5), and the distribution of similar pixels in the target candidate region is less than the reference value based on the feature amounts Ev and Eh. If it is determined that the reference area SP and the candidate area of interest are similar (S265).

D.変形例
(1)上記第3実施例では、射影ヒストグラムHv、Hhの形状の特徴を示す特徴量Ev、Ehを用いて、基準領域SPと注目候補領域とが類似するか否かが判断される。これに限らず、射影ヒストグラムHv、Hhの形状の特徴を示す特徴量Ev、Ehを用いて、任意の一の画像と他の画像とが類似するか否かが判断され得る。例えば、2個のスキャン画像が類似するか否かが判断されても良く、2個の写真画像が類似するか否かが判断されても良い。特に、スキャン画像や写真画像のように、対象物を光学的に読み取ることによって生成される画像は、ノイズ画素を含みやすい。このために、これらの2個の画像の類否の判断に、射影ヒストグラムHv、Hhの形状の特徴を示す特徴量Ev、Ehを用いると、類否の判断精度をより向上することができる。
D. Modification (1) In the third embodiment, it is determined whether or not the reference region SP is similar to the target candidate region using the feature amounts Ev and Eh indicating the shape features of the projection histograms Hv and Hh. . Not limited to this, it is possible to determine whether any one image is similar to another image using the feature amounts Ev, Eh indicating the features of the projection histograms Hv, Hh. For example, it may be determined whether two scanned images are similar, or it may be determined whether two photographic images are similar. In particular, an image generated by optically reading an object such as a scanned image or a photographic image tends to include noise pixels. For this reason, when the feature quantities Ev and Eh indicating the features of the projection histograms Hv and Hh are used for the determination of the similarity of these two images, the determination accuracy of the similarity can be further improved.

(2)上記第3実施例では、2個の射影ヒストグラムHv、Hhの形状の特徴を示す特徴量Ev、Ehが用いられている。これに代えて、2個の射影ヒストグラムHv、Hhのうちの一方だけが生成され、当該一方の射影ヒストグラムの形状の特徴を示す特徴量Evだけを用いて、類似画素の分布の偏りが基準値以下であるか否かが判断されても良い。 (2) In the third embodiment, feature amounts Ev and Eh indicating features of the shapes of the two projection histograms Hv and Hh are used. Instead, only one of the two projection histograms Hv and Hh is generated, and only the feature quantity Ev indicating the feature of the shape of the one projection histogram is used, and the deviation of the distribution of similar pixels is the reference value. It may be determined whether or not:

(3)図7のS300にて設定される特定範囲SRは、判断マスク画像MKの全体の類似画素の割合R1に基づく範囲に限られない。特定範囲SRは、例えば、図5のS250にて用いられる閾値TH1以上の範囲であっても良い。すなわち、S320にて、割合R2が、閾値TH1以上である場合に、注目候補領域は均一領域であると判断され、割合R2が、閾値TH1未満である場合に、注目候補領域は偏り領域であると判断されても良い。 (3) The specific range SR set in S300 of FIG. 7 is not limited to the range based on the ratio R1 of the similar pixels in the entire determination mask image MK. The specific range SR may be, for example, a range greater than or equal to the threshold TH1 used in S250 of FIG. That is, in S320, when the ratio R2 is equal to or greater than the threshold value TH1, it is determined that the attention candidate area is a uniform area. When the ratio R2 is less than the threshold value TH1, the attention candidate area is a biased area. It may be judged.

(4)図7のS320〜S330では、注目分割領域が、基準領域SPの注目分割領域内の画像と、注目候補領域の注目分割領域内の画像と、が類似する類似分割領域であるか否かが判断されても良い。そして、図7のS340では、分割領域PAの総数に対する類似分割領域の割合が、閾値TH3以上であるか否かが判断され、類似分割領域の割合が、閾値TH3以上である場合には、注目候補領域内の類似画素の分布の偏りが基準値以下であると判断されても良い。基準領域SPの注目分割領域内の画像と、注目候補領域の注目分割領域内の画像と、が類似するか否かの判断には、公知の方法が用いられて良く、例えば、2個の画像のヒストグラムが類似する否かに基づく方法が用いられても良い。 (4) In S320 to S330 in FIG. 7, whether or not the target divided region is a similar divided region in which the image in the target divided region of the reference region SP and the image in the target divided region of the target candidate region are similar. May be determined. Then, in S340 of FIG. 7, it is determined whether or not the ratio of the similar divided areas to the total number of the divided areas PA is equal to or greater than the threshold value TH3. It may be determined that the distribution deviation of similar pixels in the candidate region is equal to or less than a reference value. A known method may be used to determine whether or not the image in the target divided region of the reference region SP is similar to the image in the target divided region of the target candidate region. For example, two images may be used. A method based on whether or not the histograms are similar may be used.

(5)図5のS250では、類似画素の割合R1に基づいて、基準領域SPが注目候補領域と類似するか否かの1次的な判断が行われている。これに代えて、公知の方法、例えば、2個の画像のヒストグラムが類似するか否かに基づく方法を用いて、基準領域SPが注目候補領域と類似するか否かの1次的な判断が行われてもよい。 (5) In S250 of FIG. 5, a primary determination is made as to whether or not the reference region SP is similar to the target candidate region based on the similar pixel ratio R1. Instead, using a known method, for example, a method based on whether or not the histograms of two images are similar, a primary determination is made as to whether or not the reference region SP is similar to the candidate region of interest. It may be done.

(6)上記第3実施例では、射影ヒストグラムHv、Hhの形状の特徴を示す特徴量として、評価値Ev、Ehが用いられている。これに代えて、縦方向の射影ヒストグラムHvのP個のカウント値のうちの最大値Mvと最小値Lvとの差分値ΔV(Mv−Lv)と、横方向の射影ヒストグラムHhのQ個のカウント値のうちの最大値Mhと最小値Lhとの差分値ΔH(Mh−Lh))とが、特徴量として用いられても良い。この場合には、例えば、差分値ΔVが所定の閾値以下であり、かつ、差分値ΔHが所定の閾値以下である場合に、類似画素の分布の偏りが基準以下であると判断されても良い。 (6) In the third embodiment, the evaluation values Ev and Eh are used as the feature quantities indicating the features of the projection histograms Hv and Hh. Instead, the difference value ΔV (Mv−Lv) between the maximum value Mv and the minimum value Lv among the P count values of the vertical projection histogram Hv and the Q counts of the horizontal projection histogram Hh. A difference value ΔH (Mh−Lh) between the maximum value Mh and the minimum value Lh among the values may be used as the feature amount. In this case, for example, when the difference value ΔV is equal to or smaller than a predetermined threshold and the difference value ΔH is equal to or smaller than the predetermined threshold, it may be determined that the distribution deviation of similar pixels is equal to or smaller than the reference. .

(7)図3を参照して説明した読み取り態様とは、異なる態様で、2個のスキャンデータを生成するための原稿10の読み取りが行われても良い。図12は、変形例のスキャンデータの説明図である。図12(A)、(B)に示すように、原稿10は、図3(A)の線CLで二つ折りにされた状態で、スキャナ部250によって読み取られても良い。図12(A)の1回目の読み取りでは、左領域10Lを表す左側スキャンデータが生成され、図12(B)の2回目の読み取りでは、右領域10Rを表す右側スキャンデータが生成される。 (7) The document 10 for generating two pieces of scan data may be read in a mode different from the reading mode described with reference to FIG. FIG. 12 is an explanatory diagram of scan data according to a modification. As shown in FIGS. 12A and 12B, the document 10 may be read by the scanner unit 250 in a state where the document 10 is folded in half along a line CL in FIG. In the first reading in FIG. 12A, left scan data representing the left region 10L is generated, and in the second reading in FIG. 12B, right scan data representing the right region 10R is generated.

このように生成された2個のスキャンデータによって表される左側原稿画像HILと、右側原稿画像HIRには、2個の画像HIL、HIRの両方に表れる原稿10上の領域は存在しない。このために、CPU410は、2個のスキャンデータを用いて、例えば、図12(C)に示すように、少なくとも左側原稿画像HILより右側の余白が除去された左側スキャン画像IL2bと、少なくとも左側の余白が除去された右側スキャン画像IR2bと、を生成する。そして、CPU410は、左側原稿画像HILの右端に沿って、左側原稿画像HILの右端より外側の領域AL内の複数個の画素を、復元する。領域AL内の画素の復元は、例えば、左側原稿画像HILの内側であって、左側原稿画像HILの右端に沿う領域内の複数個の画素を用いた補完処理によって行われる。同様に、CPU410は、右側原稿画像HIRの左端に沿って、右側原稿画像HIRの左端より外側の領域AR内の複数個の画素を、復元する。領域AR内の画素の復元は、例えば、右側原稿画像HIRの内側であって、右側原稿画像HIRの左端に沿う領域内の複数個の画素を用いた補完処理によって行われる。領域AL、ARは、ごく細い線状の領域であり、領域AL、ARの横方向の幅ΔWは、例えば、3画素である。そして、CPU410は、復元された画素によって構成される領域ARを基準領域SPとして決定し、復元された画素によって構成される領域ALを含む領域を探索領域SAとして決定する。その後は、CPU410は、上記実施例と同様に処理を行えばよい。なお、領域AL、ARのうち、いずれか一方だけが復元されても良い。   The left original image HIL represented by the two generated scan data and the right original image HIR do not have an area on the original 10 that appears in both the two images HIL and HIR. For this purpose, the CPU 410 uses the two scan data, for example, as shown in FIG. 12C, at least the left scan image IL2b from which the right margin is removed from the left document image HIL, and at least the left scan image. The right-side scan image IR2b from which the margin is removed is generated. Then, the CPU 410 restores a plurality of pixels in the area AL outside the right end of the left original image HIL along the right end of the left original image HIL. The restoration of the pixels in the area AL is performed, for example, by a complementary process using a plurality of pixels in the area inside the left original image HIL and along the right end of the left original image HIL. Similarly, the CPU 410 restores a plurality of pixels in the area AR outside the left end of the right original image HIR along the left end of the right original image HIR. The restoration of the pixels in the area AR is performed, for example, by a complementing process using a plurality of pixels in the area inside the right original image HIR and along the left end of the right original image HIR. The areas AL and AR are very thin linear areas, and the horizontal width ΔW of the areas AL and AR is, for example, 3 pixels. Then, the CPU 410 determines the area AR configured by the restored pixels as the reference area SP, and determines the area including the area AL configured by the restored pixels as the search area SA. Thereafter, the CPU 410 may perform the same process as in the above embodiment. Only one of the areas AL and AR may be restored.

(8)上記各実際例では、類似画素に基づいて、各種の判断を行っているが、非類似画素に基づいて、各種の判断を行っても良い。例えば、図5のS250では、類似画素の割合R1が閾値TH1以上であるか否かを判断しているが、非類似画素の割合(1−R1)が所定の閾値(1−TH1)未満であるか否かを判断しても良い。図7のS320では、類似画素の割合R2が特定範囲SR((R1−ΔR)≦R2≦(R1+ΔR))であるか否かを判断しているが、非類似画素の割合(1−R2)が特定範囲((1−R1−ΔR)≦(1−R2)≦(1−R1+ΔR))内であるか否かを判断しても良い。また、図10の分布判断処理では、非類似画素の射影ヒストグラムを生成して、非類似画素の射影ヒストグラムについて、(非類似画素の個数/非類似画素の射影ヒストグラムの外接矩形のサイズ)が、評価値として用いられても良い。 (8) In each actual example described above, various determinations are made based on similar pixels, but various determinations may be made based on dissimilar pixels. For example, in S250 of FIG. 5, it is determined whether or not the similar pixel ratio R1 is greater than or equal to the threshold TH1, but the dissimilar pixel ratio (1-R1) is less than a predetermined threshold (1-TH1). It may be determined whether or not there is. In S320 of FIG. 7, it is determined whether or not the similar pixel ratio R2 is within the specific range SR ((R1−ΔR) ≦ R2 ≦ (R1 + ΔR)), but the dissimilar pixel ratio (1−R2). May be determined within a specific range ((1-R1-ΔR) ≦ (1-R2) ≦ (1-R1 + ΔR)). Further, in the distribution determination process of FIG. 10, a projection histogram of dissimilar pixels is generated, and for the projection histogram of dissimilar pixels, (number of dissimilar pixels / size of circumscribed rectangle of projection histogram of dissimilar pixels) is It may be used as an evaluation value.

(9)上記第1、第2実施例では、判断マスク画像MKに複数個の分割領域PAが設定されている。これは、上述したように、基準領域SPおよび注目候補領域に分割領域PAが設定されることに等しい。処理上は、基準領域SPを分割して分割領域PAを設定しても良いし、注目候補領域を分割して分割領域PAを設定しても良い。 (9) In the first and second embodiments, a plurality of divided areas PA are set in the judgment mask image MK. As described above, this is equivalent to setting the divided area PA in the reference area SP and the target candidate area. In processing, the reference area SP may be divided to set the divided area PA, or the attention candidate area may be divided to set the divided area PA.

(10)上記実施例では、左側原稿画像HILと右側原稿画像HIRとが横方向に並んで配置される配置済画像を表す配置済画像データが生成される。これに代えて、一の原稿画像と、他の原稿画像と、が縦方向に並んで配置される配置済画像を表す配置済画像データが生成されても良い。この場合には、例えば、一の原稿画像の下端に沿って基準領域SPが決定され、他の原稿画像の上端に沿って探索領域SAが決定される。 (10) In the above embodiment, arranged image data representing an arranged image in which the left original image HIL and the right original image HIR are arranged in the horizontal direction is generated. Instead of this, arranged image data representing an arranged image in which one original image and another original image are arranged in the vertical direction may be generated. In this case, for example, the reference area SP is determined along the lower end of one original image, and the search area SA is determined along the upper end of another original image.

(11)図5の配置位置決定処理では、CPU410は、1個の注目候補領域の類似画素の割合R1が閾値TH1以上であり(S250:YES)、かつ、分布判断処理で類似画素の分布が均一であると判断された場合に(S260:YES)、該注目候補領域を類似領域CPとして決定し(S265)、残りの注目候補領域についての判断は行っていない。これに代えて、CPU410は、全ての注目候補領域について、割合R1が閾値TH1以上であるかを判断して、割合R1が閾値TH1以上である複数個の注目候補領域を決定しても良い。そして、CPU410は、割合R1が閾値TH1以上である複数個の注目候補領域について、割合R1が大きい順に、1個ずつ分布判断処理を行い、類似画素の分布が均一であると判断された注目候補領域を類似領域CPとして決定しても良い。あるいは、割合R1が閾値TH1以上である複数個の注目候補領域について、それぞれ、分布判断処理を行い、該複数個の注目候補領域のうち、最も類似画素の分布が均一である注目候補領域を類似領域CPとして決定しても良い。最も類似画素の分布が均一である注目候補領域は、例えば、均一領域の割合R3が最も大きい注目候補領域、または、第1評価値Evと第2評価値Ehの合計が最も大きい注目候補領域である。 (11) In the arrangement position determination process of FIG. 5, the CPU 410 has a similar pixel ratio R1 of one candidate region of interest equal to or greater than the threshold TH1 (S250: YES), and the distribution determination process determines the distribution of similar pixels. If it is determined that the region is uniform (S260: YES), the candidate region of interest is determined as a similar region CP (S265), and the remaining candidate candidate regions are not determined. Instead, the CPU 410 may determine whether or not the ratio R1 is greater than or equal to the threshold value TH1 for all attention candidate areas, and may determine a plurality of attention candidate areas whose ratio R1 is greater than or equal to the threshold value TH1. Then, the CPU 410 performs distribution determination processing one by one in descending order of the ratio R1 for a plurality of target candidate areas whose ratio R1 is greater than or equal to the threshold TH1, and the candidate candidates determined that the distribution of similar pixels is uniform. The region may be determined as the similar region CP. Alternatively, a distribution determination process is performed for each of a plurality of attention candidate areas whose ratio R1 is equal to or greater than the threshold TH1, and among the plurality of attention candidate areas, the attention candidate area having the most uniform distribution of similar pixels is similar. The region CP may be determined. The attention candidate region having the most uniform distribution of similar pixels is, for example, the attention candidate region having the largest uniform region ratio R3 or the attention candidate region having the largest sum of the first evaluation value Ev and the second evaluation value Eh. is there.

(12)上記実施例では、2個の画像データを用いて、2個の原稿画像が配置された配置済画像を表す配置済像データが生成されている。これに限らず、任意の個数の画像データを用いて、1個の配置済画像データが生成されても良い。例えば、4個の画像データを用いて、4個の原稿画像が配置された配置済画像を表す配置済画像データが生成されてもよい。 (12) In the above embodiment, arranged image data representing an arranged image in which two document images are arranged is generated using two image data. However, the present invention is not limited to this, and one arranged image data may be generated using an arbitrary number of image data. For example, arranged image data representing an arranged image in which four document images are arranged may be generated using four image data.

(13)上記実施例では、配置済画像データの生成に用いられる2個の画像データは、複合機200のスキャナ部250によって生成される。これに限らず、光学的に読み取られた画像を表す種々の画像データを採用可能である。例えば、デジタルカメラによる撮影によって二つ折りにされた原稿10の両面がそれぞれ光学的に読み取られることによって、2個の画像データが生成されても良い。また、これらの画像データは、読取装置(スキャナやデジタル)によって生成された画像データに限らず、描画作成や文書作成などのアプリケーションプログラムを用いて作成された画像データであっても良い。 (13) In the above embodiment, the two pieces of image data used for generating the arranged image data are generated by the scanner unit 250 of the multi-function device 200. The present invention is not limited to this, and various image data representing an optically read image can be employed. For example, two pieces of image data may be generated by optically reading both sides of the document 10 folded in half by photographing with a digital camera. Further, these image data are not limited to image data generated by a reading device (scanner or digital), but may be image data generated using an application program such as drawing creation or document creation.

(14)上記実施例においてサーバ400のCPU410によって実行される処理(例えば、図2のS25〜S50の処理)は、例えば、複合機200のCPU210によって実行されても良い。この場合には、この場合には、サーバ400は不要であり、複合機200が単体で図2の処理を実行すればよい。また、サーバ400のCPU410によって実行される処理は、複合機200と接続されたパーソナルコンピュータ500(図1)のCPU(図示省略)によって実行されても良い。例えば、パーソナルコンピュータ500のCPUは、パーソナルコンピュータ500にインストールされたスキャナドライバプログラムを実行することによって、これらの処理を実行しても良い。また、サーバ400は、本実施例のように1つの計算機で構成されても良く、互いに通信可能な複数個の計算機を含む計算システムによって構成されていても良い。 (14) The processing (for example, the processing of S25 to S50 in FIG. 2) executed by the CPU 410 of the server 400 in the above embodiment may be executed by the CPU 210 of the multifunction device 200, for example. In this case, the server 400 is not necessary in this case, and the multi-function device 200 may execute the processing of FIG. 2 alone. Further, the processing executed by the CPU 410 of the server 400 may be executed by the CPU (not shown) of the personal computer 500 (FIG. 1) connected to the multifunction device 200. For example, the CPU of the personal computer 500 may execute these processes by executing a scanner driver program installed in the personal computer 500. Further, the server 400 may be configured by one computer as in the present embodiment, or may be configured by a computer system including a plurality of computers that can communicate with each other.

(15)上記実施例では、サーバ400は、S25にて、スキャンデータを画像ファイルの形式で取得し、S55にて、配置済画像データを画像ファイルの形式で出力(送信)している。これに代えて、例えば、上記変形例のように、複合機200のCPU210がS25〜S50の処理を実行する場合には、CPU210は、スキャナ部250を用いて生成されたスキャンデータを画像ファイルに変換することなく、そのまま取得しても良い。また、CPU210は、配置済画像データを画像ファイルに変換することなく、そのまま出力(具体的には印刷など)しても良い。 (15) In the above embodiment, the server 400 acquires the scan data in the image file format in S25, and outputs (transmits) the arranged image data in the image file format in S55. Instead, for example, when the CPU 210 of the multifunction device 200 executes the processes of S25 to S50 as in the above-described modification, the CPU 210 converts the scan data generated using the scanner unit 250 into an image file. You may acquire as it is, without converting. Further, the CPU 210 may output (specifically, print or the like) as it is without converting the arranged image data into an image file.

(16)上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。 (16) In the above embodiment, a part of the configuration realized by hardware may be replaced with software, and conversely, a part of the configuration realized by software may be replaced with hardware. Also good.

以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。   As mentioned above, although this invention was demonstrated based on the Example and the modification, Embodiment mentioned above is for making an understanding of this invention easy, and does not limit this invention. The present invention can be changed and improved without departing from the spirit and scope of the claims, and equivalents thereof are included in the present invention.

70...インターネット、80...LAN、100...プリンタ、200...複合機、210...CPU、220...揮発性記憶装置、221...バッファ領域、230...不揮発性記憶装置、231...制御プログラム、240...プリンタ部、250...スキャナ部、255...原稿台、260...操作部、270...表示部、280...通信部、400...サーバ、410...CPU、420...揮発性記憶装置、421...バッファ領域、430...不揮発性記憶装置、431...コンピュータプログラム、433...UIデータ群、480...通信部、500...パーソナルコンピュータ、1000...画像処理システム   70 ... Internet, 80 ... LAN, 100 ... Printer, 200 ... Multifunction device, 210 ... CPU, 220 ... Volatile storage device, 221 ... Buffer area, 230 ... Non-volatile storage device, 231 ... control program, 240 ... printer unit, 250 ... scanner unit, 255 ... original table, 260 ... operation unit, 270 ... display unit, 280. ..Communication unit, 400 ... server, 410 ... CPU, 420 ... volatile storage device, 421 ... buffer area, 430 ... nonvolatile storage device, 431 ... computer program, 433 ... UI data group, 480 ... communication unit, 500 ... personal computer, 1000 ... image processing system

Claims (12)

1個の対象物の一部を示す第1の画像を表す第1の画像データと、前記対象物の他の一部を示す第2の画像を表す第2の画像データと、を取得する画像取得部と、
前記第1の画像内の一部の領域である基準領域を決定する基準領域決定部と、
前記基準領域と、前記第2の画像内の複数個の候補領域のうちの一の候補領域とが類似するか否かを判断する第1の判断部と、
前記基準領域と前記一の候補領域とが類似する場合に、前記基準領域と前記一の候補領域とのうちの一方の領域内の複数個の画素のうち、前記基準領域と前記一の候補領域とのうちの他方の領域内の対応画素と類似する複数個の類似画素および前記対応画素と類似しない複数個の非類似画素のうちの一方の分布の偏りが基準以下であるか否かを判断する第2の判断部と、
前記複数個の類似画素および前記複数個の非類似画素のうちの一方の分布の偏りが基準以下である場合に、前記基準領域と前記一の候補領域とに基づいて、前記第1の画像と前記第2の画像との相対的な位置を決定する位置決定部と、
決定済の前記相対的な位置に前記第1の画像と前記第2の画像とが配置され、第1の画像と第2の画像とで前記対象物を示す処理済画像を表す一の配置済画像データを生成する画像生成部と、
を備える、画像処理装置。
An image for obtaining first image data representing a first image showing a part of one object and second image data representing a second image showing another part of the object. An acquisition unit;
A reference area determination unit that determines a reference area that is a partial area in the first image;
A first determination unit that determines whether the reference region is similar to one candidate region of the plurality of candidate regions in the second image;
When the reference region and the one candidate region are similar, the reference region and the one candidate region among a plurality of pixels in one region of the reference region and the one candidate region Among the plurality of similar pixels that are similar to the corresponding pixel in the other region and the plurality of dissimilar pixels that are not similar to the corresponding pixel. A second determination unit to
When the bias of the distribution of one of the plurality of similar pixels and the plurality of dissimilar pixels is equal to or less than a reference, the first image and the one candidate region are based on the reference region and the one candidate region. A position determining unit that determines a relative position with respect to the second image;
The first image and the second image are arranged at the determined relative position, and one arranged already representing the processed image showing the object by the first image and the second image An image generation unit for generating image data;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記第2の判断部は、
前記一方の領域を分割する複数個の分割領域を設定し、
前記複数個の分割領域のそれぞれについて、内部に含まれる前記類似画素および前記非類似画素のうちの一方の個数が特定範囲内である特定分割領域であるか否かを判断し、
前記特定分割領域の個数に基づく第1の特徴量を用いて、前記複数個の類似画素および前記複数個の非類似画素のうちの一方の分布の偏りが基準以下であるか否かを判断する、画像処理装置。
The image processing apparatus according to claim 1,
The second determination unit includes:
Set a plurality of divided areas to divide the one area,
For each of the plurality of divided regions, it is determined whether or not the number of one of the similar pixels and the dissimilar pixels included therein is a specific divided region within a specific range,
Using a first feature amount based on the number of the specific divided areas, it is determined whether or not a distribution bias of one of the plurality of similar pixels and the plurality of dissimilar pixels is equal to or less than a reference. , Image processing device.
請求項2に記載の画像処理装置であって、
前記第1の判断部は、前記類似画素および前記非類似画素の一方の個数を用いて、前記基準領域と前記一の候補領域とが類似するか否かを判断し、
前記第2の判断部は、前記第1の判断部によって用いられた前記類似画素および前記非類似画素のうちの一方の分布の偏りが基準以下であるか否かを判断する、画像処理装置。
The image processing apparatus according to claim 2,
The first determination unit determines whether the reference region and the one candidate region are similar using the number of one of the similar pixels and the dissimilar pixels,
The second determination unit is an image processing apparatus that determines whether or not a distribution bias of one of the similar pixel and the dissimilar pixel used by the first determination unit is equal to or less than a reference.
請求項2または請求項3に記載の画像処理装置であって、
前記第1の判断部は、前記基準領域の画素数に対する前記類似画素の個数を示す第1の割合が、第1の閾値以上である場合に、前記基準領域と前記一の候補領域とが類似すると判断し、
前記第2の判断部は、前記複数個の分割領域のうちの注目分割領域の画素数に対する前記類似画素の個数を示す第2の割合が前記第1の割合に基づく前記特定範囲内である場合に、前記注目分割領域は前記特定分割領域であると判断する、画像処理装置。
The image processing apparatus according to claim 2, wherein:
When the first ratio indicating the number of similar pixels with respect to the number of pixels in the reference region is equal to or greater than a first threshold, the first determination unit is similar to the reference region and the one candidate region. Judging
In the case where the second ratio indicating the number of the similar pixels to the number of pixels in the target divided area among the plurality of divided areas is within the specific range based on the first ratio. In addition, the image processing apparatus determines that the target divided area is the specific divided area.
請求項2から請求項4のいずれか一項に記載の画像処理装置であって、
前記第2の判断部は、
前記一方の領域内のうち、画素の値のばらつきが比較的大きな領域には比較的小さな前記分割領域を設定し、画素の値のばらつきが比較的小さな領域には比較的大きな前記分割領域を設定し、
前記複数個の分割領域のうちの前記特定分割領域の個数を、前記特定分割領域の大きさに依存せずにカウントすることによって前記第1の特徴量を算出する、画像処理装置。
The image processing apparatus according to any one of claims 2 to 4,
The second determination unit includes:
Within the one area, the relatively small divided area is set in an area where the pixel value variation is relatively large, and the relatively large divided area is set in an area where the pixel value variation is relatively small. And
An image processing apparatus that calculates the first feature amount by counting the number of the specific divided areas of the plurality of divided areas without depending on the size of the specific divided areas.
請求項1に記載の画像処理装置であって、
前記第2の判断部は、
前記一方の領域内の複数個の画素を第1の方向の位置に基づいて複数個の第1のクラスに分類し、前記複数個の第1のクラスのそれぞれについて前記複数個の類似画素および前記複数個の非類似画素のうちの一方の個数をカウントして得られる第1のヒストグラムを生成し、
前記第1のヒストグラムの形状の特徴を示す第2の特徴量を用いて、前記複数個の類似画素および前記複数個の非類似画素のうちの一方の分布の偏りが基準以下であるか否かを判断する、画像処理装置。
The image processing apparatus according to claim 1,
The second determination unit includes:
The plurality of pixels in the one region are classified into a plurality of first classes based on positions in a first direction, and the plurality of similar pixels and the plurality of similar pixels for each of the plurality of first classes Generating a first histogram obtained by counting the number of one of a plurality of dissimilar pixels;
Whether or not a distribution bias of one of the plurality of similar pixels and the plurality of dissimilar pixels is equal to or less than a reference by using a second feature amount indicating a feature of the shape of the first histogram. An image processing apparatus for determining
請求項6に記載の画像処理装置であって、
前記第2の判断部は、
前記複数の第1のクラスのそれぞれについてカウントされたカウント値の最大値と、前記複数個の第1のクラスの個数と、を乗じて得られる第1値を算出し、
前記第1値に対する前記カウント値の合計値の割合を前記第2の特徴量として算出し、
前記第2の特徴量が閾値以上である場合に、前記複数個の類似画素および前記複数個の非類似画素のうちの一方の分布の偏りが基準以下であると判断する、画像処理装置。
The image processing apparatus according to claim 6,
The second determination unit includes:
Calculating a first value obtained by multiplying the maximum count value counted for each of the plurality of first classes and the number of the plurality of first classes;
Calculating a ratio of the total value of the count value to the first value as the second feature amount;
An image processing apparatus that, when the second feature amount is equal to or greater than a threshold value, determines that a deviation in distribution of one of the plurality of similar pixels and the plurality of dissimilar pixels is equal to or less than a reference.
請求項6または請求項7に記載の画像処理装置であって、
前記第2の判断部は、
前記一方の領域内の複数個の画素を前記第1の方向と交差する第2の方向の位置に基づいて複数個の第2のクラスに分類し、前記複数個の第2のクラスのそれぞれについて前記類似画素および非類似画素のうちの一方の個数をカウントして得られる第2のヒストグラムを生成し、
前記第1のヒストグラムの形状を示す前記第2の特徴量と、前記第2のヒストグラムの形状の特徴を示す第3の特徴量と、を用いて、前記複数個の類似画素および前記複数個の非類似画素のうちの一方の分布の偏りが基準以下であるか否かを判断する、画像処理装置。
The image processing apparatus according to claim 6 or 7, wherein
The second determination unit includes:
A plurality of pixels in the one region are classified into a plurality of second classes based on positions in a second direction intersecting the first direction, and each of the plurality of second classes is classified. Generating a second histogram obtained by counting the number of one of the similar pixels and the dissimilar pixels;
Using the second feature amount indicating the shape of the first histogram and the third feature amount indicating the shape feature of the second histogram, the plurality of similar pixels and the plurality of the plurality of similar pixels An image processing apparatus that determines whether or not a deviation in distribution of one of dissimilar pixels is equal to or less than a reference.
画像処理装置であって、
第1の画像を表す第1の画像データと、第2の画像を表す第2の画像データと、を取得する画像取得部と、
第1の画像内の複数個の画素のうち、前記第2の画像内の対応する対応画素と類似する複数個の類似画素および前記対応画素と類似しない複数個の非類似画素のうちの一方を特定する画素特定部と、
前記第1の画像内の複数個の画素を第1の方向の位置に基づいて複数個の第1のクラスに分類し、前記複数個の第1のクラスのそれぞれについて前記複数個の類似画素および前記複数個の非類似画素のうちの一方の個数をカウントして得られる第1のヒストグラムを生成するヒストグラム生成部と、
前記第1のヒストグラムの形状の特徴を示す第1の特徴量を用いて、前記第1の画像と前記第2の画像とが類似するか否かを判断する類似判断部と、
を備える、画像処理装置。
An image processing apparatus,
An image acquisition unit that acquires first image data representing a first image and second image data representing a second image;
Of the plurality of pixels in the first image, one of a plurality of similar pixels that are similar to the corresponding pixels in the second image and a plurality of dissimilar pixels that are not similar to the corresponding pixels. A pixel specifying part to be specified;
A plurality of pixels in the first image are classified into a plurality of first classes based on positions in a first direction, and the plurality of similar pixels and the plurality of similar pixels for each of the plurality of first classes A histogram generator for generating a first histogram obtained by counting one of the plurality of dissimilar pixels;
A similarity determination unit that determines whether or not the first image and the second image are similar by using a first feature amount indicating a feature of the shape of the first histogram;
An image processing apparatus comprising:
請求項9に記載の画像処理装置であって、
前記類似判断部は、
前記複数の第1のクラスのそれぞれについてカウントされたカウント値の最大値と、前記複数個の第1のクラスの個数と、を乗じて得られる第1値を算出し、
前記第1値に対する前記類似画素および非類似画素のうちの一方の個数の割合を前記第1の特徴量として算出し、
前記第1の特徴量が閾値以上である場合に、前記第1の画像と前記第2の画像とが類似すると判断する、画像処理装置。
The image processing apparatus according to claim 9,
The similarity determination unit
Calculating a first value obtained by multiplying the maximum count value counted for each of the plurality of first classes and the number of the plurality of first classes;
Calculating a ratio of the number of one of the similar pixels and the non-similar pixels to the first value as the first feature amount;
An image processing apparatus that determines that the first image and the second image are similar when the first feature amount is equal to or greater than a threshold value.
請求項9または請求項10に記載の画像処理装置であって、
前記類似判断部は、
前記第1の画像内の複数個の画素を前記第1の方向と交差する第2の方向の位置に基づいて複数個の第2のクラスに分類し、前記複数個の第2のクラスのそれぞれについて前記類似画素および非類似画素のうちの一方の個数をカウントして得られる第2のヒストグラムを生成し、
前記第1のヒストグラムの形状を示す前記第1の特徴量と、前記第2のヒストグラムの形状の特徴を示す第2の特徴量と、を用いて、前記第1の画像と前記第2の画像とが類似するか否かを判断するか否かを判断する、画像処理装置。
The image processing apparatus according to claim 9 or 10, wherein:
The similarity determination unit
The plurality of pixels in the first image are classified into a plurality of second classes based on positions in a second direction intersecting the first direction, and each of the plurality of second classes Generating a second histogram obtained by counting the number of one of the similar and non-similar pixels for
Using the first feature amount indicating the shape of the first histogram and the second feature amount indicating the shape feature of the second histogram, the first image and the second image are used. An image processing apparatus that determines whether or not the two are similar to each other.
コンピュータプログラムであって、
1個の対象物の一部を示す第1の画像を表す第1の画像データと、前記対象物の他の一部を示す第2の画像を表す第2の画像データと、を取得する画像取得部と、
前記第1の画像内の一部の領域である基準領域を決定する基準領域決定機能と、
前記基準領域と、前記第2の画像内の複数個の候補領域のうちの一の候補領域とが類似するか否かを判断する第1の判断機能と、
前記基準領域と前記一の候補領域とが類似する場合に、前記基準領域と前記一の候補領域とのうちの一方領域内の複数個の画素のうち、前記基準領域と前記一の候補領域とのうちの他方の領域内の対応画素と類似する複数個の類似画素および前記対応画素と類似しない複数個の非類似画素のうちの一方の分布の偏りが基準以下であるか否かを判断する第2の判断機能と、
前記複数個の類似画素および前記複数個の非類似画素のうちの一方の分布の偏りが基準以下である場合に、前記基準領域と前記一の候補領域とに基づいて、前記第1の画像と前記第2の画像との相対的な位置を決定する位置決定機能と、
決定済の前記相対的な位置に前記第1の画像と前記第2の画像とが配置され、第1の画像と第2の画像とで前記対象物を示す処理済画像を表す一の配置済画像データを生成する画像生成機能と、
をコンピュータに実現させるコンピュータプログラム。
A computer program,
An image for obtaining first image data representing a first image showing a part of one object and second image data representing a second image showing another part of the object. An acquisition unit;
A reference area determination function for determining a reference area which is a partial area in the first image;
A first determination function for determining whether the reference region is similar to one candidate region of the plurality of candidate regions in the second image;
When the reference area and the one candidate area are similar, out of a plurality of pixels in one area of the reference area and the one candidate area, the reference area and the one candidate area It is determined whether the distribution bias of one of a plurality of similar pixels similar to the corresponding pixel in the other region and a plurality of dissimilar pixels not similar to the corresponding pixel is equal to or less than a reference. A second determination function;
When the bias of the distribution of one of the plurality of similar pixels and the plurality of dissimilar pixels is equal to or less than a reference, the first image and the one candidate region are based on the reference region and the one candidate region. A position determining function for determining a relative position with respect to the second image;
The first image and the second image are arranged at the determined relative position, and one arranged already representing the processed image showing the object by the first image and the second image An image generation function for generating image data;
A computer program that causes a computer to realize
JP2015043992A 2015-03-05 2015-03-05 Image processing apparatus and computer program Active JP6372397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015043992A JP6372397B2 (en) 2015-03-05 2015-03-05 Image processing apparatus and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015043992A JP6372397B2 (en) 2015-03-05 2015-03-05 Image processing apparatus and computer program

Publications (2)

Publication Number Publication Date
JP2016163336A JP2016163336A (en) 2016-09-05
JP6372397B2 true JP6372397B2 (en) 2018-08-15

Family

ID=56845633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015043992A Active JP6372397B2 (en) 2015-03-05 2015-03-05 Image processing apparatus and computer program

Country Status (1)

Country Link
JP (1) JP6372397B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3530652B2 (en) * 1995-09-26 2004-05-24 キヤノン株式会社 Image composition method and image composition device
JP2001148779A (en) * 1999-09-08 2001-05-29 Sharp Corp Image processing unit and image composite method

Also Published As

Publication number Publication date
JP2016163336A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
JP6344064B2 (en) Image processing apparatus and computer program
JP2019145030A (en) Image processing device, image formation apparatus, image processing method and program
US9277074B2 (en) Image processing apparatus, method, and medium determining whether image data of a page to be processed is blank and contains a foreground object and transmitting the foreground object obtained by removing a background object
JP6147020B2 (en) Image processing apparatus, image processing method, and program
JP6256206B2 (en) Image processing apparatus and computer program
JP6372397B2 (en) Image processing apparatus and computer program
US10171688B2 (en) Management server to receive scanned images and align the scanned images based on page numbers included in the scanned images
JP6373448B2 (en) Image processing apparatus, image processing method, and program
US9886648B2 (en) Image processing device generating arranged image data representing arranged image in which images are arranged according to determined relative position
US11782653B2 (en) Image forming apparatus selectively applying eco mode
JP6558094B2 (en) Image processing apparatus and computer program
JP6152818B2 (en) Image processing apparatus and computer program
JP6398812B2 (en) Image processing apparatus and computer program
JP6171727B2 (en) Image processing device, sheet, computer program
JP2016178367A (en) Image processing device and computer program
JP6330458B2 (en) Image processing apparatus and computer program
JP6394060B2 (en) Image processing apparatus and computer program
JP6314633B2 (en) Image processing apparatus and computer program
JP2011010212A (en) Image processing apparatus, image processing method and image processing program
JP6149782B2 (en) Image processing apparatus and computer program
JP6550903B2 (en) Image processing apparatus and computer program
JP6224419B2 (en) Image processing device
JP2024119157A (en) Computer program, server, and system
US20110044541A1 (en) System and method for backlit image detection
JP6210322B2 (en) Image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180702

R150 Certificate of patent or registration of utility model

Ref document number: 6372397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150