JP2022046741A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2022046741A
JP2022046741A JP2022000458A JP2022000458A JP2022046741A JP 2022046741 A JP2022046741 A JP 2022046741A JP 2022000458 A JP2022000458 A JP 2022000458A JP 2022000458 A JP2022000458 A JP 2022000458A JP 2022046741 A JP2022046741 A JP 2022046741A
Authority
JP
Japan
Prior art keywords
image
document
image data
outer frame
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022000458A
Other languages
Japanese (ja)
Inventor
一弘 水出
Kazuhiro Mizuide
数馬 小川
Kazuma Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017214605A external-priority patent/JP7005290B2/en
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2022000458A priority Critical patent/JP2022046741A/en
Publication of JP2022046741A publication Critical patent/JP2022046741A/en
Priority to JP2023077965A priority patent/JP2023099203A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Image Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To reliably cut out a document placed on a document stand, obtain an individual image of a document with an easy operation, and reduce the user's operational burden for reading the document.
SOLUTION: An image processing device includes a document stand on which a document to be read is placed, an image input unit that reads a plurality of documents placed on the document stand at once, a storage unit that stores the entire image data including individual images of the documents read in a batch, an individual image cutout unit that cuts out individual images of the plurality of documents from the entire image data, and an output unit that generates information in a predetermined output format for each of the individual images and sends the information via a network.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2022,JPO&INPIT

Description

この発明は、画像処理装置に関し、特に、複数の原稿を同時に読み取って、読み取った画像データから、原稿ごとの画像データを切り出す機能を有する画像処理装置に関する。 The present invention relates to an image processing device, and more particularly to an image processing device having a function of simultaneously reading a plurality of documents and cutting out image data for each document from the read image data.

従来から、画像形成装置が利用されているが、近年、書類の複製機能に加えて、書類の読取(スキャン)機能や、ネットワーク接続機能も有する複合機が利用されている。
たとえば、複合機において、名刺、免許証、領収書、その他の書類やカードなどの複数の原稿を、重ならないように原稿台に置いて、読取機能を実行し、複数の原稿の画像データを含む全体の画像データを読み取り、読み取った全体画像データから、個々の原稿に対応する独立した複数の画像データを切り出す機能(以下、マルチクロップスキャン機能と呼ぶ)を有するものがある。
Conventionally, an image forming apparatus has been used, but in recent years, a multifunction device having a document reading (scanning) function and a network connection function in addition to a document duplication function has been used.
For example, in a compound machine, multiple manuscripts such as business cards, licenses, receipts, other documents and cards are placed on the manuscript stand so that they do not overlap, the scanning function is executed, and the image data of the multiple manuscripts is included. Some have a function of reading the entire image data and cutting out a plurality of independent image data corresponding to each original from the scanned overall image data (hereinafter referred to as a multi-crop scan function).

また、特許文献1には、従来読み取る原稿の色や材質によって一部が欠けた画像データが取得されていたことを考慮し、読取りによって得られたスキャンデータから複数の原稿の画像データ(クロップ画像)を抜き出した後、複数のクロップ画像のサイズに基づいて所定の基準領域サイズを決定し、基準領域サイズよりも小さいと判断されたクロップ画像について、クロップ画像の検出に用いるパラメータを変更して画像切り出し処理を再度行うクロップ調整処理を実行して、マルチクロップ処理の精度を向上させた画像処理装置が記載されている。 Further, in Patent Document 1, considering that image data partially missing depending on the color and material of the original to be read has been acquired in the past, image data (crop image) of a plurality of originals is obtained from the scan data obtained by reading. ) Is extracted, a predetermined reference area size is determined based on the sizes of a plurality of cropped images, and the parameters used for detecting the cropped image are changed for the cropped image determined to be smaller than the reference area size. Described is an image processing apparatus that improves the accuracy of multi-crop processing by executing crop adjustment processing in which cropping processing is performed again.

また、通常、原稿を載置する原稿台の読取領域には、ガラスがはめ込まれているが、原稿台の読取領域全体の画像データを読み取った場合、ガラスの周囲の端部も含めて、1つの全体画像データとして、読み取られる場合がある。このとき、読み取った全体画像データに含まれるガラスの周囲の端部の画像データが、1つの原稿の輪郭として認識される場合があり、全体画像データのうち端部の内側の画像データが、1つの原稿に相当する画像として切り出されてしまい、原稿台に載置された各原稿の切り出しに失敗する。
そこで、マルチクロップスキャンをする場合、原稿押さえカバーを開けたままスキャン動作をさせ、読み取った全体画像データ内の周辺端部の領域(外枠領域)に黒色の画像データ(黒枠画像)を埋め込み、全体画像データの周辺端部を、原稿として誤検知しないようにした後、原稿台に載置された各原稿に対応した画像データの切り出し処理を行っている。
Further, normally, glass is fitted in the reading area of the platen on which the original is placed, but when the image data of the entire reading area of the document table is read, 1 including the peripheral edge of the glass. It may be read as one whole image data. At this time, the image data of the peripheral edge of the glass included in the scanned overall image data may be recognized as the outline of one document, and the image data inside the edge of the overall image data is 1. It is cut out as an image corresponding to one manuscript, and each manuscript placed on the manuscript stand fails to be cut out.
Therefore, when performing multi-crop scan, scan operation is performed with the document holder cover open, and black image data (black frame image) is embedded in the peripheral edge area (outer frame area) in the scanned overall image data. After preventing false detection of the peripheral edge of the entire image data as a document, the image data corresponding to each document placed on the platen is cut out.

特開2008-113075号公報Japanese Unexamined Patent Publication No. 2008-113075

しかし、特許文献1の装置では、原稿台に載置された各原稿を切り出す範囲の精度を向上させることができても、読み取られた全体画像データのうちガラスの周囲の端部の内側の画像データが、1つの原稿に相当する画像として切り出されてしまった場合には、各原稿に対する個別画像を切り出すことができない。 However, in the apparatus of Patent Document 1, even if the accuracy of the range for cutting out each document placed on the platen can be improved, the image inside the peripheral edge of the glass in the read overall image data is obtained. If the data is cut out as an image corresponding to one manuscript, it is not possible to cut out an individual image for each manuscript.

また、上記の従来技術のように、原稿押さえカバーを開けたままスキャン動作をさせ、外枠領域に黒枠画像を埋め込む場合(マルチクロップ機能と呼ぶ)、文書や領収書など読み取る原稿が全体に白い領域の多い原稿であれば、ほぼ問題なく正常に各原稿を切り出すことができる。しかし、読み取る原稿が全体に黒い領域の多い原稿では、外枠領域に黒枠画像を埋め込んだ場合には、各原稿の輪郭を正確に認識できなくなる場合がある。このように全体に黒い領域の多い原稿では、原稿押さえカバーを閉じてからスキャン動作をさせれば、各原稿の輪郭は認識できるはずであるが、黒枠画像を埋め込んでいるために、黒枠画像を含む全体画像データのうち、外枠領域の内側の画像データが、1つの原稿に相当する画像として切り出されてしまい、その結果、各原稿の切り出しに失敗する。 In addition, when scanning is performed with the document holder cover open and a black frame image is embedded in the outer frame area (called the multi-crop function) as in the above-mentioned conventional technology, the document to be read such as a document or receipt is entirely white. If the document has a large area, each document can be cut out normally with almost no problem. However, if the document to be read has many black areas as a whole, when the black frame image is embedded in the outer frame area, the outline of each document may not be recognized accurately. For documents with many black areas as a whole, the outline of each document should be recognizable by closing the document holder cover and then scanning, but since the black frame image is embedded, the black frame image is displayed. Of the entire image data included, the image data inside the outer frame area is cut out as an image corresponding to one original, and as a result, cutting out of each original fails.

一方、写真のように、読み取る原稿が全体に黒い領域の多い原稿や、色の濃い原稿では、原稿押さえカバーを閉じてからスキャン動作をさせ、読み取った全体画像データ内の周辺端部の領域(外枠領域)に白色の画像データ(白枠画像)を埋め込めば(写真クロップ機能と呼ぶ)、正常に各原稿を切り出すことができる。ただし、白枠画像を埋め込まなければ、ガラスの周囲の端部を含めた全体画像データのうち外枠領域の内側の画像データが、1つの原稿に相当する画像として切り出されてしまう場合がある。 On the other hand, for a document such as a photograph in which the document to be read has a large black area as a whole or a document with a dark color, the scanning operation is performed after closing the document holding cover, and the area at the peripheral end in the scanned overall image data ( By embedding white image data (white frame image) in the outer frame area (called the photo crop function), each document can be cut out normally. However, if the white frame image is not embedded, the image data inside the outer frame region of the entire image data including the peripheral edge of the glass may be cut out as an image corresponding to one original.

また、写真であっても、全体に白い領域の多い原稿や、色の薄い原稿では、原稿押さえカバーを閉じてスキャン動作をさせると、各原稿の輪郭を正確に認識できなくなる場合がある。
このように全体に白い領域の多い原稿では、原稿押さえカバーを開けたままスキャン動作をさせれば、各原稿の輪郭は認識できるはずであるが、外枠領域に白枠画像を埋め込んでいるために、白枠画像を含む全体画像データのうち、外枠領域内の画像データが、1つの原稿に相当する画像として切り出されてしまい、その結果、各原稿の切り出しに失敗する。
Further, even if it is a photograph, if a document having a large white area as a whole or a document having a light color is used and the document holding cover is closed and the scanning operation is performed, the outline of each document may not be recognized accurately.
For documents with many white areas as a whole, the outline of each document should be recognizable by scanning with the document holder cover open, but the white frame image is embedded in the outer frame area. In addition, out of the entire image data including the white frame image, the image data in the outer frame area is cut out as an image corresponding to one original, and as a result, the cutting of each original fails.

また、上記のようにマルチクロップ機能を利用して各原稿の切り出しに失敗した場合でも、写真クロップ機能を利用すれば、各原稿の切り出しに成功する場合があり、逆に、写真クロップ機能を利用して各原稿の切り出しに失敗した場合でも、マルチクロップ機能を利用すれば、各原稿の切り出しに成功する場合もある。
ただし、従来では、マルチクロップ機能と写真クロップ機能のうちどちらを利用するかについて、ユーザが予め設定し、原稿の切り出しに失敗した場合には、その設定を切り替える操作をする必要があり、ユーザの操作にかかる負担が大きい。また、原稿押さえカバーの開閉は、ユーザの操作により行われるが、ユーザは、マルチクロップ機能および写真クロップ機能と、原稿押さえカバーの開閉との対応関係を予め理解したうえで、機能の設定操作を行う必要があり、マルチクロップスキャン機能を利用するための操作がわかりにくいという問題がある。
Also, even if you fail to cut out each document using the multi-crop function as described above, you may succeed in cutting out each document by using the photo crop function, and conversely, use the photo crop function. Even if the cutting of each document fails, the multi-crop function may be used to successfully cut out each document.
However, in the past, the user had to set in advance which of the multi-crop function and the photo crop function to use, and if the original could not be cut out, it was necessary to switch the setting. The burden on the operation is heavy. The opening and closing of the document holding cover is performed by the user's operation, but the user performs the function setting operation after understanding in advance the correspondence between the multi-crop function and the photo crop function and the opening and closing of the document holding cover. There is a problem that it is necessary to perform and the operation for using the multi-crop scan function is difficult to understand.

そこで、この発明は、以上のような事情を考慮してなされたものであり、原稿台の読取領域の周辺端部の領域(外枠領域)を含む全体画像データのうち、外枠領域の内側の画像を、1つの原稿として誤検知することを防止し、ユーザが行う原稿押さえカバーの開閉操作に対応させて、容易な操作で、1又は複数の読取原稿に対応する個別の画像データの取得を行い、ユーザの操作負担を軽減できるようにした画像処理装置を提供することを課題とする。 Therefore, the present invention has been made in consideration of the above circumstances, and is inside the outer frame area of the entire image data including the peripheral end area (outer frame area) of the reading area of the platen. It is possible to prevent false detection of the image as one document, and to correspond to the opening / closing operation of the document holding cover performed by the user, and to acquire individual image data corresponding to one or more scanned documents with a simple operation. It is an object of the present invention to provide an image processing device capable of reducing the operational burden on the user.

この発明は、読み取る原稿を載置する原稿台と、前記原稿台に載置された複数の原稿を一括して読み取る画像入力部と、前記一括して読み取られた原稿の個別画像を含む全体画像データを記憶する記憶部と、前記全体画像データから、複数の原稿の個別画像を切り出す個別画像切出部と、個別画像毎に所定の出力形式の情報を生成し、ネットワークを介して送信する出力部とを備えたことを特徴とする画像処理装置を提供するものである。 The present invention includes a manuscript table on which a document to be read is placed, an image input unit for collectively reading a plurality of documents placed on the manuscript stand, and an entire image including an individual image of the collectively read manuscript. A storage unit that stores data, an individual image cutout unit that cuts out individual images of a plurality of originals from the entire image data, and an output that generates information in a predetermined output format for each individual image and transmits it via a network. It provides an image processing apparatus characterized by having a unit.

また、この発明は、読み取る原稿を載置する原稿台と、前記原稿台に載置された原稿を押さえる原稿押さえと、前記原稿台に載置された1又は複数の原稿を一括して読み取る画像入力部と、前記一括して読み取られた原稿の個別画像を含む全体画像データを記憶する記憶部と、前記原稿押さえの開閉状態を検出する原稿押さえ開閉検出部と、前記全体画像データのうち前記原稿台の周辺端部であって所定の幅を持つ外枠領域に、前記検出された原稿押さえの開閉状態に対応させて、所定の色の枠画像を付加する枠画像付加部と、前記外枠領域に前記枠画像を付加した後の全体画像データから、1又は複数の原稿の個別画像を切り出す個別画像切出部とを備え、前記枠画像付加部は、前記外枠領域に黒色の画像データからなる黒枠画像を付加する黒枠画像付加部と、前記外枠領域に白色の画像データからなる白枠画像を付加する白枠画像付加部とからなることを特徴とする画像処理装置を提供するものである。 Further, in the present invention, a platen on which a document to be read is placed, a document holder that holds a document placed on the platen, and an image for collectively reading one or a plurality of documents placed on the platen. The input unit, the storage unit that stores the entire image data including the individual images of the collectively read documents, the document holder open / close detection unit that detects the open / closed state of the document holder, and the overall image data. A frame image addition part that adds a frame image of a predetermined color to the peripheral edge of the platen and an outer frame area having a predetermined width corresponding to the detected open / closed state of the document holder, and the outside. The frame image addition portion includes an individual image cutout portion for cutting out an individual image of one or a plurality of originals from the entire image data after the frame image is added to the frame region, and the frame image addition portion is a black image in the outer frame region. Provided is an image processing apparatus characterized by comprising a black frame image addition unit for adding a black frame image composed of data and a white frame image addition unit for adding a white frame image composed of white image data to the outer frame region. It is a thing.

また、前記原稿押さえ開閉検出部が、前記原稿押さえが開放状態であることを検出した場合、前記黒枠画像付加部が、前記全体画像データの外枠領域に黒枠画像を付加し、前記原稿押さえ開閉検出部が、前記原稿押さえが閉鎖状態であることを検出した場合、前記白枠画像付加部が、前記全体画像データの外枠領域に白枠画像を付加することを特徴とする。 When the document holder opening / closing detection unit detects that the document holder is in the open state, the black frame image addition unit adds a black frame image to the outer frame area of the entire image data and opens / closes the document holder. When the detection unit detects that the document holder is in the closed state, the white frame image addition unit adds a white frame image to the outer frame region of the entire image data.

また、表示部をさらに備え、前記個別画像切出部が、前記枠画像を付加した後の全体画像データから、原稿の個別画像を切り出すことができなかった場合、前記原稿押さえが閉鎖状態であった場合は、原稿押さえを開放状態にして再度読取をすることを、前記表示部に表示し、または、前記原稿押さえが開放状態であった場合は、原稿押さえを閉鎖状態にして再度読取をすることを、前記表示部に表示し、前記原稿押さえ開閉検出部によって、原稿押さえの開閉状態が変更されたことを検出した場合に、前記画像入力部が、前記原稿台に載置された原稿を一括して読み取ることを特徴とする。 Further, when a display unit is further provided and the individual image cutting unit cannot cut out an individual image of the original from the entire image data after the frame image is added, the document holder is in the closed state. If this is the case, the display indicates that the document holder should be opened and read again, or if the document holder is in the open state, the document holder should be closed and read again. This is displayed on the display unit, and when the document holder open / close detection unit detects that the open / close state of the document holder has been changed, the image input unit displays the document placed on the document stand. It is characterized by reading all at once.

また、前記記憶部に記憶された全体画像データのうち、前記外枠領域の画像データを除去した後の全体画像データから、前記原稿に対応する個別画像の輪郭を検出する原稿エッジ検出部をさらに備え、前記原稿エッジ検出部によって、原稿に対応する個別画像の輪郭が検出できた場合に、検出された個別画像の輪郭から個別画像の位置を特定し、前記個別画像切出部が、位置が特定された個別画像を切り出すことを特徴とする。 Further, a document edge detection unit that detects the contour of an individual image corresponding to the document from the entire image data after removing the image data in the outer frame region from the entire image data stored in the storage unit is further added. When the contour of the individual image corresponding to the document can be detected by the document edge detection unit, the position of the individual image is specified from the detected contour of the individual image, and the position of the individual image cutout unit is set. It is characterized by cutting out a specified individual image.

また、前記記憶部に記憶された全体画像データのうち、前記外枠領域に前記枠画像を付加した後の全体画像データから、前記原稿に対応する個別画像の輪郭を検出する原稿エッジ検出部をさらに備え、前記原稿エッジ検出部によって、原稿に対応する個別画像の輪郭が検出できた場合に、検出された個別画像の輪郭から個別画像の位置を特定し、前記個別画像切出部が、位置が特定された個別画像を切り出すことを特徴とする。 Further, among the entire image data stored in the storage unit, a document edge detection unit that detects the contour of an individual image corresponding to the document from the entire image data after the frame image is added to the outer frame area. Further, when the contour of the individual image corresponding to the document can be detected by the document edge detection unit, the position of the individual image is specified from the detected contour of the individual image, and the individual image cutout unit is positioned. Is characterized by cutting out the specified individual image.

また、この発明は、読み取る原稿を載置する原稿台を備えた画像処理装置の画像処理方法であって、原稿台に載置された1又は複数の原稿を一括して読み取り、前記一括して読み取られた原稿の個別画像を含む全体画像データを記憶し、前記全体画像データから、前記原稿台の周辺端部であって所定の幅を持つ外枠領域の画像データを除去し、前記外枠領域の画像データを除去した後の全体画像データから、1又は複数の原稿の個別画像を切り出すことを特徴とする画像処理装置の画像処理方法を提供するものである。 Further, the present invention is an image processing method of an image processing apparatus provided with a platen on which a document to be read is placed, wherein one or a plurality of documents placed on the platen are collectively read and described in a batch. The entire image data including the individual image of the scanned document is stored, and the image data of the outer frame region having a predetermined width at the peripheral end of the document table is removed from the overall image data, and the outer frame is removed. It is an object of the present invention to provide an image processing method of an image processing apparatus, which comprises cutting out individual images of one or a plurality of originals from the whole image data after removing the image data of a region.

また、この発明は、読み取る原稿を載置する原稿台と、前記原稿台に載置された原稿を押さえる原稿押さえを備えた画像処理装置の画像処理方法であって、原稿台に載置された1又は複数の原稿を一括して読み取り、前記一括して読み取られた原稿の個別画像を含む全体画像データを記憶し、前記原稿を一括して読み取ったときの原稿押さえの開閉状態を検出し、前記全体画像データのうち前記原稿台の周辺端部であって所定の幅を持つ外枠領域に、前記検出された原稿押さえの開閉状態に対応させて、所定の色の枠画像を付加し、前記外枠領域に前記枠画像を付加した後の全体画像データから、1又は複数の原稿の個別画像を切り出すことからなり、前記原稿押さえの開閉状態を検出するときに、原稿押さえが開放状態であることを検出した場合、前記全体画像データの外枠領域に黒枠画像を付加し、原稿押さえが閉鎖状態であることを検出した場合、前記全体画像データの外枠領域に白枠画像を付加することを特徴とする画像処理装置の画像処理方法を提供するものである。 Further, the present invention is an image processing method of an image processing apparatus provided with a document table on which a document to be read is placed and a document holder for pressing the document placed on the document table, and is mounted on the document table. One or a plurality of originals are collectively read, the entire image data including the individual images of the collectively read originals is stored, and the open / closed state of the original holder when the said originals are collectively read is detected. A frame image of a predetermined color is added to the outer frame region of the entire image data, which is the peripheral end of the document table and has a predetermined width, in correspondence with the detected open / closed state of the document holder. It consists of cutting out individual images of one or more originals from the entire image data after the frame image is added to the outer frame area, and when the open / closed state of the original holder is detected, the original holder is in the open state. When it is detected, a black frame image is added to the outer frame area of the whole image data, and when it is detected that the document holder is in the closed state, a white frame image is added to the outer frame area of the whole image data. It provides an image processing method of an image processing apparatus characterized by the above.

この発明によれば、一括して読み取られた原稿の個別画像を含む全体画像データから、原稿台の周辺端部であって所定の幅を持つ外枠領域の画像データを除去し、外枠領域の画像データを除去した後の全体画像データから、1又は複数の原稿の個別画像を切り出しているので、外枠領域の内側の画像を1つの原稿として誤検知することを防止し、ユーザは、容易な操作で、1又は複数の読取原稿に対応する個別画像を取得することができる。 According to the present invention, the image data of the outer frame region having a predetermined width at the peripheral end of the platen is removed from the entire image data including the individual images of the documents read collectively, and the outer frame region is used. Since the individual images of one or more originals are cut out from the whole image data after removing the image data of the above, it is possible to prevent the image inside the outer frame area from being erroneously detected as one original, and the user can use the user. With a simple operation, individual images corresponding to one or more scanned documents can be acquired.

また、全体画像データのうち原稿台の周辺端部であって所定の幅を持つ外枠領域に、検出された原稿押さえの開閉状態に対応させて、所定の色の枠画像を付加し、外枠領域に枠画像を付加した後の全体画像データから、1又は複数の原稿の個別画像を切り出しているので、外枠領域の内側の画像を1つの原稿として誤検知することを防止するとともに、ユーザが行う原稿押さえカバーの開閉操作に対応させて、容易な操作で、1又は複数の読取原稿に対応する個別画像を取得でき、ユーザの操作負担を軽減させることができる。 Further, a frame image of a predetermined color is added to the outer frame area of the entire image data, which is the peripheral end of the platen and has a predetermined width, in accordance with the detected open / closed state of the document holder. Since individual images of one or more originals are cut out from the entire image data after the frame image is added to the frame area, it is possible to prevent the image inside the outer frame area from being erroneously detected as one original and to prevent false detection. In correspondence with the opening and closing operation of the document holding cover performed by the user, individual images corresponding to one or a plurality of scanned documents can be acquired by a simple operation, and the operation burden on the user can be reduced.

この発明の画像処理装置の一実施例の構成ブロック図である。It is a block diagram of the block of the example of the image processing apparatus of this invention. この発明の画像処理装置における原稿台の読取領域と原稿配置の一実施例の説明図である。It is explanatory drawing of one Example of the reading area and the document arrangement of the document stand in the image processing apparatus of this invention. この発明の画像処理装置において、外枠領域画像を除去した後に、個別画像の画像データを取得する一実施例の説明図である。It is explanatory drawing of one Example which acquires the image data of an individual image after removing the outer frame area image in the image processing apparatus of this invention. この発明の画像処理装置において、外枠領域画像を除去した後に、個別画像の画像データを取得する場合の一実施例の説明図である。It is explanatory drawing of one Example in the case of acquiring the image data of an individual image after removing the outer frame area image in the image processing apparatus of this invention. この発明の画像処理装置において、外枠領域に黒枠画像を付加した後に、個別画像の画像データを取得する一実施例の説明図である。It is explanatory drawing of one Example which acquired the image data of an individual image after adding the black frame image to the outer frame area in the image processing apparatus of this invention. この発明の画像処理装置において、外枠領域に白枠画像を付加した後に、個別画像の画像データを取得する一実施例の説明図である。It is explanatory drawing of one Example which acquired the image data of an individual image after adding the white frame image to the outer frame area in the image processing apparatus of this invention. この発明の画像処理装置の記憶部に記憶される情報の一実施例の説明図を示す。An explanatory diagram of an embodiment of the information stored in the storage unit of the image processing apparatus of the present invention is shown. この発明の画像処理装置における原稿の読取画像処理の一実施例のフローチャートである。It is a flowchart of one Embodiment of the reading image processing of the original | document in the image processing apparatus of this invention. この発明の画像処理装置における原稿の読取画像処理の一実施例のフローチャートである。It is a flowchart of one Embodiment of the reading image processing of the original | document in the image processing apparatus of this invention. この発明の画像処理装置における原稿の読取画像処理の一実施例のフローチャートである。It is a flowchart of one Embodiment of the reading image processing of the original | document in the image processing apparatus of this invention.

以下、図面を使用して本発明の実施の形態を説明する。なお、以下の実施例の記載によって、この発明が限定されるものではない。
<画像処理装置の構成>
図1に、この発明の画像処理装置の一実施例の構成ブロック図を示す。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the description of the following examples does not limit the present invention.
<Configuration of image processing device>
FIG. 1 shows a block diagram of an embodiment of the image processing apparatus of the present invention.

画像処理装置(以下、MFP:Multifunction Peripheral、複合機とも呼ぶ)1は、画像データを処理する装置であり、たとえば、複写機能、印刷機能、原稿読取機能(スキャン機能)、FAX機能、通信機能などを備えた電子機器である。
特に、この発明では、原稿読取機能を利用して、所定の画像処理を実行する。
The image processing device (hereinafter referred to as MFP: Multifunction Peripheral, also referred to as a multifunction device) 1 is a device for processing image data, for example, a copying function, a printing function, a document reading function (scan function), a fax function, a communication function, and the like. It is an electronic device equipped with.
In particular, in the present invention, a predetermined image processing is executed by utilizing the document scanning function.

原稿読取機能を実行するために、画像処理装置は、読み取る原稿を載置する原稿台を備える。
また、原稿台に載置された1又は複数の原稿が動かないように、原稿を上から押さえる部材であって、原稿台の読取領域よりもやや大きい面積を持つ平板形状の原稿押さえカバー(以下、単に、「原稿押さえ」とも呼ぶ)を備える。原稿押さえは、原稿台に対して、開閉可能なように取り付けられる、
また、原稿台の読取領域には、光を透過するガラスなどの部材が配置されている。
In order to perform the document scanning function, the image processing apparatus includes a platen on which the document to be scanned is placed.
Further, a flat plate-shaped document holding cover (hereinafter referred to as a plate-shaped document holding cover) which is a member for holding a document from above so that one or a plurality of documents placed on the platen does not move and has an area slightly larger than the reading area of the platen. , Simply referred to as "manuscript holder"). The document holder is attached to the platen so that it can be opened and closed.
Further, a member such as glass that transmits light is arranged in the reading area of the platen.

ユーザは、原稿台の読取領域内に原稿が収まるように、1又は複数の原稿を原稿台に載置し、所定の読取開始操作をすることによって、原稿の読取面のうち、一方の面に記載された情報を画像として読み取る。原稿台の読取領域の形状は、長方形とする。
読取処理を行う場合、原稿押さえは、原稿台の読取領域に対して、開放状態かあるいは閉鎖状態のどちらかで用いる。原稿押さえの開閉操作は、ユーザが行う。
The user places one or more originals on the platen so that the originals fit within the scanning area of the platen, and performs a predetermined scanning start operation on one of the scanning surfaces of the originals. Read the described information as an image. The shape of the reading area of the platen shall be rectangular.
When performing the scanning process, the document holder is used in either the open state or the closed state with respect to the scanning area of the platen. The user performs the opening and closing operation of the document holder.

閉鎖状態は、原稿台の読取領域の上を覆うように、原稿押さえを配置することを意味し、読取処理のために原稿台の読取領域に照射された光が、原稿押さえと原稿に反射することにより、原稿の読取を行う。
開放状態は、原稿台の読取領域の上を覆わないように、原稿押さえを配置することを意味し、読取処理のために原稿台の読取領域に照射された光のうち、原稿のない領域を透過した光は原稿押さえに反射することなく直進し、原稿台に載置された原稿によって反射された光を利用して原稿の読取を行う。
The closed state means that the document holder is arranged so as to cover the scanning area of the document table, and the light applied to the scanning area of the document table for the scanning process is reflected by the document holder and the document. As a result, the original is read.
The open state means that the document holder is arranged so as not to cover the scanning area of the document table, and the area of the light irradiated to the scanning area of the document table for the scanning process without the document is selected. The transmitted light travels straight without being reflected by the document holder, and the document is read by using the light reflected by the document placed on the platen.

図1において、この発明の画像処理装置(MFP)1は、主として、制御部11、操作部12、画像入力部13、表示部14、出力部15、原稿押さえ開閉検出部16、原稿エッジ検出部17、個別画像座標取得部18、個別画像切出部19、外枠領域除去部20、枠画像付加部30、記憶部50を備える。
枠画像付加部30は、黒枠画像付加部31と白枠画像付加部32とからなる。
In FIG. 1, the image processing apparatus (MFP) 1 of the present invention mainly includes a control unit 11, an operation unit 12, an image input unit 13, a display unit 14, an output unit 15, a document holding open / close detection unit 16, and a document edge detection unit. 17. Individual image coordinate acquisition unit 18, individual image cutout unit 19, outer frame area removal unit 20, frame image addition unit 30, and storage unit 50 are provided.
The frame image addition unit 30 includes a black frame image addition unit 31 and a white frame image addition unit 32.

制御部11は、画像入力部などの各構成要素の動作を制御する部分であり、主として、CPU、ROM、RAM、I/Oコントローラ、タイマー等からなるマイクロコンピュータによって実現される。
CPUは、ROM等に予め格納された制御プログラムに基づいて、各種ハードウェアを有機的に動作させて、この発明の画像入力機能、個別画像切出機能などを実行する。
The control unit 11 is a part that controls the operation of each component such as an image input unit, and is mainly realized by a microcomputer including a CPU, a ROM, a RAM, an I / O controller, a timer, and the like.
The CPU organically operates various hardware based on a control program stored in advance in a ROM or the like to execute the image input function, the individual image cutout function, and the like of the present invention.

操作部12は、文字などの情報の入力や、機能の選択入力をする部分であり、たとえば、キーボード、マウス、タッチパネルなどが用いられる。 The operation unit 12 is a part for inputting information such as characters and selecting and inputting a function, and for example, a keyboard, a mouse, a touch panel, or the like is used.

画像入力部13は、画像情報を入力する部分であり、この発明では、原稿台に載置された1又は複数の原稿を一括して読み取る部分である。
たとえば、画像や文字図形等が記載された原稿などの情報を入力する。入力された情報は、電子データとして、記憶部50に記憶される。
画像入力部13としては、情報が印刷された原稿書面(以下、原稿と呼ぶ)を読み取るスキャナ(読取装置)を用いる。
画像情報を入力する方法は種々の方法があるが、たとえば、情報が印刷された原稿をスキャナで読み取り、原稿を含む原稿台の読取領域全体の電子データを、記憶部50に、入力された全体画像データとして記憶する。
The image input unit 13 is a part for inputting image information, and in the present invention, it is a part for collectively reading one or a plurality of documents placed on a platen.
For example, input information such as a manuscript containing an image, a character figure, or the like. The input information is stored in the storage unit 50 as electronic data.
As the image input unit 13, a scanner (reading device) for reading a manuscript document (hereinafter referred to as a manuscript) on which information is printed is used.
There are various methods for inputting image information. For example, a document on which information is printed is scanned by a scanner, and electronic data of the entire reading area of the platen including the document is input to the storage unit 50 as a whole. Store as image data.

ただし、画像などの情報を入力する方法は、以上のものに限るものではなく、たとえば、USBメモリなどの外部の記憶媒体を接続するインタフェースが、画像入力部13に該当する。
入力したい画像や書面などの電子データファイルを、USBメモリなどの外部の記憶媒体に保存しておき、USBメモリ等をUSB端子などの入力インタフェースに接続し、操作部12で所定の入力操作を行うことによって、USBメモリ等に保存された所望の電子データファイルを読み出して、記憶部50に、電子データとして記憶してもよい。
However, the method for inputting information such as an image is not limited to the above, and for example, an interface for connecting an external storage medium such as a USB memory corresponds to the image input unit 13.
An electronic data file such as an image or a document to be input is saved in an external storage medium such as a USB memory, the USB memory or the like is connected to an input interface such as a USB terminal, and a predetermined input operation is performed by the operation unit 12. As a result, a desired electronic data file stored in a USB memory or the like may be read out and stored as electronic data in the storage unit 50.

また、一般的に、スキャナで原稿を読み取る場合、ユーザが、原稿を、所定の原稿台(あるいは、原稿載置台とも呼ぶ)に載置して、読み取り開始を意味する入力操作をする。読み取りが開始されると、通常、原稿台の読取領域(読取面)の全体が、一つの電子データとして読み取られる。原稿の大きさが原稿台の読取領域よりも小さい場合、その読み取られた電子データ(全体画像データ)の中には、原稿の画像が含まれるが、原稿のない部分の情報も含まれる。この発明では、後述するように、個別画像切出部19によって、読み取られた一つの電子データ(全体画像データ)から、原稿が存在している部分の画像データ(個別画像)を切り出す。 Further, in general, when scanning a document with a scanner, the user places the document on a predetermined document table (also referred to as a document table) and performs an input operation meaning to start scanning. When scanning is started, the entire scanning area (reading surface) of the platen is usually scanned as one electronic data. When the size of the original is smaller than the reading area of the platen, the scanned electronic data (whole image data) includes the image of the original, but also includes the information of the portion without the original. In the present invention, as will be described later, the individual image cutting unit 19 cuts out the image data (individual image) of the portion where the original is present from one electronic data (whole image data) read.

また、原稿台の読取領域は、通常A4用紙やA3用紙と同程度の大きさがあるので、名刺、はがき、写真、保険証、クレジットカードなど、その大きさが原稿台の読取領域よりも小さい原稿は、重ならないように、複数枚並べて原稿台に配置することができる。
複数枚並べて原稿台に配置された原稿をスキャナで読み取った場合も、読み取った情報は、上記のように1つの電子データ(全体画像データ)として、生成され、記憶される。この場合、全体画像データの中には、複数個の原稿の画像データ(個別画像)が含まれるので、読み取られた全体画像データから、複数個の原稿の画像データ(個別画像)が切り出される。
In addition, the reading area of the manuscript stand is usually about the same size as A4 paper or A3 paper, so the size of business cards, postcards, photographs, health insurance cards, credit cards, etc. is smaller than the reading area of the manuscript stand. A plurality of originals can be arranged side by side on the platen so that they do not overlap.
Even when a plurality of documents arranged side by side on the platen are scanned by a scanner, the scanned information is generated and stored as one electronic data (whole image data) as described above. In this case, since the overall image data includes image data (individual images) of a plurality of originals, image data (individual images) of a plurality of originals are cut out from the read overall image data.

ただし、読み取られた全体画像データの中には、原稿台の読取領域内の周辺端部の領域(外枠領域)の画像が含まれているが、この発明では、原稿台の読取領域内の周辺端部の領域(外枠領域)の画像によって、読み取られた全体画像データのうち、外枠領域の内側の画像データが、1つの原稿に対する画像として切り出されないように、読み取られた全体画像データに対して所定の画像処理をした後に、原稿の画像データ(個別画像)の切出処理を行う。
ここで、外枠領域は、原稿台の周辺端部であって、所定の幅を持つ領域を意味し、原稿を載置する原稿台の読取領域が長方形の場合は、後述する図7(a)に示すように、長方形の4つの辺の内側近傍であって、所定の幅Wを持つ領域である。
However, the scanned overall image data includes an image of a peripheral end region (outer frame region) in the scanning region of the platen, but in the present invention, the image in the scanning region of the platen is included. Of the entire image data read by the image in the peripheral edge area (outer frame area), the entire image read so that the image data inside the outer frame area is not cut out as an image for one document. After performing a predetermined image process on the data, the image data (individual image) of the original is cut out.
Here, the outer frame area means an area having a predetermined width at the peripheral end of the document table, and when the reading area of the document table on which the document is placed is rectangular, FIG. 7 (a) described later. ), It is a region near the inside of the four sides of the rectangle and having a predetermined width W.

読み取られた全体画像データに対して行う画像処理には、たとえば、全体画像データから所定の外枠領域の画像を除去することや、原稿押さえの開閉状況に応じて、全体画像データのうち所定の外枠領域に、黒枠画像の付加あるいは白色画像の付加を行うことが含まれる。これらの画像処理の詳細については、後述する。 The image processing performed on the read whole image data includes, for example, removing an image of a predetermined outer frame area from the whole image data, or depending on the opening / closing status of the document holder, a predetermined of the whole image data. It is included to add a black frame image or a white image to the outer frame area. Details of these image processes will be described later.

表示部14は、情報を表示する部分であり、各機能の実行に必要な情報や、機能の実行の結果などを、利用者に知らせるために表示する。たとえば、LCD、有機ELディスプレイなどが用いられ、操作部12としてタッチパネルが用いられる場合は、表示部とタッチパネルとが重ね合わせて配置される。 The display unit 14 is a part for displaying information, and displays information necessary for executing each function, the result of executing the function, and the like in order to inform the user. For example, when an LCD, an organic EL display, or the like is used and a touch panel is used as the operation unit 12, the display unit and the touch panel are arranged so as to overlap each other.

この発明では、後述するように、個別画像切出部19が、枠画像を付加した後の全体画像データから、原稿の個別画像を切り出すことができなかった場合、原稿押さえが閉鎖状態であった場合は、原稿押さえを開放状態にして再度読取をすることを、表示部14に表示する。この表示を見たユーザに、原稿押さえを開放してもらう。
または、原稿の個別画像を切り出すことができなかった場合において、原稿押さえが開放状態であった場合は、原稿押さえを閉鎖状態にして再度読取をすることを、表示部14に表示する。この表示を見たユーザに、原稿押さえを閉じてもらう。
その後、原稿押さえ開閉検出部16によって、原稿押さえの開閉状態が変更されたことを検出した場合に、画像入力部13が、原稿台に載置された原稿を再度一括して読み取るようにする。
In the present invention, as will be described later, when the individual image cutting unit 19 cannot cut out the individual image of the original from the entire image data after the frame image is added, the original image holder is in the closed state. In this case, the display unit 14 indicates that the document holder is opened and scanning is performed again. Ask the user who sees this display to release the document holder.
Alternatively, if the individual image of the original cannot be cut out and the original retainer is in the open state, the display unit 14 indicates that the original retainer is closed and the image is read again. Ask the user who sees this display to close the document holder.
After that, when the document holder open / close detection unit 16 detects that the open / close state of the document holder has been changed, the image input unit 13 again collectively reads the documents placed on the platen.

出力部15は、個別画像から生成された画像情報を出力する部分であり、たとえば、画像情報を紙媒体に印刷して出力するプリンタに相当する。
また、出力部15は、切り取られた個別画像が複数ある場合は、たとえば、予め設定された出力方法の情報に基づいて、いくつかの個別画像を合成して1つの画像情報として1枚の用紙に印刷する。
ただし、情報の出力は、印刷に限るものではなく、USBメモリなどの外部の記憶媒体への情報の記憶や、インターネットなどのネットワークを介して他の情報処理装置やサーバへの情報の送信でもよい。
The output unit 15 is a part that outputs image information generated from individual images, and corresponds to, for example, a printer that prints and outputs image information on a paper medium.
Further, when there are a plurality of cut individual images, the output unit 15 synthesizes several individual images based on the information of the preset output method, for example, and forms one sheet of paper as one image information. Print on.
However, the output of information is not limited to printing, and may be storage of information in an external storage medium such as a USB memory or transmission of information to another information processing device or server via a network such as the Internet. ..

原稿押さえ開閉検出部16は、原稿押さえの開閉状態を検出する部分である。
すなわち、原稿押さえが、現在、開放状態と閉鎖状態のうちどちらの状態にあるかを検出する。原稿押さえ開閉検出部16としては、たとえば、押しボタンスイッチが用いられる。
押しボタンスイッチ(以下、開閉検出スイッチとも呼ぶ)は、原稿押さえを閉じる操作をしたときに、原稿押さえと接触する原稿台の上に設けられ、原稿押さえを閉じている状態では、押しボタンスイッチは、押圧状態となるものとする。
原稿押さえを開放している状態では、押しボタンスイッチは、押されていない状態となるものとする。
The document holder open / close detection unit 16 is a portion that detects the open / closed state of the document holder.
That is, it detects whether the document holder is currently in the open state or the closed state. As the document holding open / close detecting unit 16, for example, a push button switch is used.
The push button switch (hereinafter, also referred to as an open / close detection switch) is provided on the document table that comes into contact with the document holder when the document holder is closed. When the document holder is closed, the push button switch is used. , It shall be in a pressed state.
When the document holder is open, the push button switch is not pressed.

すなわち、押しボタンスイッチが押圧状態の場合、原稿押さえは閉鎖状態にある(原稿押さえは閉じられている)ことが検出される。
一方、押しボタンスイッチが押圧状態にない場合、原稿押さえは開放状態にある(原稿押さえは開けられている)ことが検出される。
原稿押さえが閉鎖状態にあることが検出された場合、後述するように、記憶部50の開閉情報として、閉鎖状態にあることを意味する情報(たとえば、0:閉鎖)が、記憶される。
また、原稿押さえが開放状態にあることが検出された場合、後述するように、記憶部50の開閉情報として、開放状態にあることを意味する情報(たとえば、1:開放)が、記憶される。
That is, when the push button switch is in the pressed state, it is detected that the document holder is in the closed state (the document holder is closed).
On the other hand, when the push button switch is not in the pressed state, it is detected that the document holder is in the open state (the document holder is open).
When it is detected that the document holder is in the closed state, information indicating that the document holder is in the closed state (for example, 0: closed) is stored as opening / closing information of the storage unit 50, as will be described later.
When it is detected that the document holder is in the open state, information (for example, 1: open) indicating that the document holder is in the open state is stored as open / close information of the storage unit 50, as will be described later. ..

原稿エッジ検出部17は、画像入力部13によって取得された全体画像データから、原稿に対応する個別画像の輪郭(エッジ)を検出する部分である。
個別画像の輪郭を検出する方法は、従来から用いられているいずれかの方法を用いればよい。
原稿が長方形であるとすれば、その原稿に対応する個別画像の輪郭は、長方形の4つの辺を特定することが可能な情報として検出される。
読み取る原稿が複数あった場合は、全体画像データから、複数の個別画像の輪郭が検出される。
The document edge detection unit 17 is a portion that detects the contour (edge) of the individual image corresponding to the document from the entire image data acquired by the image input unit 13.
As a method for detecting the contour of an individual image, any conventionally used method may be used.
If the manuscript is rectangular, the contours of the individual images corresponding to the manuscript are detected as information that can identify the four sides of the rectangle.
When there are a plurality of documents to be read, the contours of a plurality of individual images are detected from the entire image data.

また、この発明では、個別画像の輪郭の検出精度を向上させるために、後述するように、記憶部に記憶された全体画像データのうち、外枠領域の画像データを除去した後の全体画像データから、原稿に対応する個別画像の輪郭を検出する。
あるいは、記憶部に記憶された全体画像データのうち、外枠領域に枠画像を付加した後の全体画像データから、原稿に対応する個別画像の輪郭を検出する。
Further, in the present invention, in order to improve the detection accuracy of the contour of the individual image, as will be described later, the whole image data after removing the image data of the outer frame region from the whole image data stored in the storage unit. From, the contour of the individual image corresponding to the original is detected.
Alternatively, of the entire image data stored in the storage unit, the contour of the individual image corresponding to the original is detected from the overall image data after the frame image is added to the outer frame area.

この原稿エッジ検出部17によって、原稿に対応する個別画像の輪郭が検出できた場合には、検出された個別画像の輪郭から個別画像の位置を特定し、個別画像切出部19が、位置が特定された個別画像を切り出す。
ただし、原稿に対応する個別画像の輪郭が検出できなかった場合は、検出された個別画像の輪郭から個別画像の位置を特定することができず、個別画像を切り出すことができない。
When the contour of the individual image corresponding to the document can be detected by the document edge detection unit 17, the position of the individual image is specified from the detected contour of the individual image, and the position of the individual image cutting unit 19 is set. Cut out the specified individual image.
However, if the contour of the individual image corresponding to the original cannot be detected, the position of the individual image cannot be specified from the detected contour of the individual image, and the individual image cannot be cut out.

個別画像座標取得部18は、原稿エッジ検出部17によって検出された個別画像の輪郭を特定する情報を利用して、切り出すべき個別画像の位置を取得する部分である。
特に、原稿台の読取領域に対する切り出すべき個別画像の位置を示す座標値を取得する。切り出すべき個別画像の位置を示す座標値は、原稿台の読取領域に置かれた原稿の位置を画定する座標であり、原稿頂点位置座標と呼ぶ。
原稿頂点位置座標は、原稿台の読取領域に設定されたXY座標系におけるX座標とY座標であり、原稿が長方形である場合、その長方形の4つの頂点のXY座標値からなる。
The individual image coordinate acquisition unit 18 is a portion that acquires the position of the individual image to be cut out by using the information for specifying the contour of the individual image detected by the document edge detection unit 17.
In particular, the coordinate values indicating the positions of the individual images to be cut out with respect to the reading area of the platen are acquired. The coordinate value indicating the position of the individual image to be cut out is the coordinate that defines the position of the document placed in the reading area of the document table, and is called the document vertex position coordinate.
The document vertex position coordinates are the X coordinate and the Y coordinate in the XY coordinate system set in the reading area of the document table, and when the document is a rectangle, it is composed of the XY coordinate values of the four vertices of the rectangle.

図2に、原稿台の読取領域と原稿の置き方の一実施例の説明図を示す。
図2(a-1)は、原稿台の読取領域を示している。原稿台の読取領域は、横に長い長方形とする。
図2(a-2)は、原稿台の読取領域を画定する4つの頂点のXY座標値の実施例を示している。
図2(a-2)では、原稿台の読取領域は、4つの頂点(a1、a2、a3、a4)からなる長方形であり、図のように、長方形の頂点a1をXY座標系の原点とし、長方形の長辺方向をX軸とし、長方形の短辺方向をY軸に設定する。
この場合、原稿台の読取領域に相当する長方形の4つの頂点(a1、a2、a3、a4)の位置が、図2(a-2)のようなXY座標値で表される。
FIG. 2 shows an explanatory diagram of an embodiment of a reading area of a platen and a method of placing a document.
FIG. 2 (a-1) shows the reading area of the platen. The reading area of the platen shall be a horizontally long rectangle.
FIG. 2 (a-2) shows an example of the XY coordinate values of the four vertices that define the reading area of the platen.
In FIG. 2 (a-2), the reading area of the platen is a rectangle consisting of four vertices (a1, a2, a3, a4), and as shown in the figure, the vertex a1 of the rectangle is set as the origin of the XY coordinate system. , Set the long side direction of the rectangle to the X axis and the short side direction of the rectangle to the Y axis.
In this case, the positions of the four vertices (a1, a2, a3, a4) of the rectangle corresponding to the reading area of the platen are represented by the XY coordinate values as shown in FIG. 2 (a-2).

図2(a-3)は、原稿台の読取領域の中に、2つの原稿(P1、P2)を配置した例を示している。
2つの原稿の配置は、図示したものに限るものではなく、原稿台の読取領域の中であれば、任意の位置でよい。また、配置する原稿の数は、2枚に限るものではなく、1枚でもよく、3枚以上でもよい。
FIG. 2 (a-3) shows an example in which two documents (P1 and P2) are arranged in the reading area of the document table.
The arrangement of the two documents is not limited to the one shown in the drawing, and may be any position as long as it is within the reading area of the platen. Further, the number of documents to be arranged is not limited to two, and may be one or three or more.

図2(a-4)は、画像入力部13によって取得された全体画像データの例の概略を示している。図2(a-3)のように、2つの原稿(P1、P2)が配置された場合、読取が正常に行われたとすると、それぞれの原稿の位置に、それぞれの原稿(P1、P2)に対する個別画像の画像データが取得される。
また、図2(a-4)では、取得された全体画像データの中に、原稿台の読取領域の周辺端部が、外枠領域の画像として含まれているものを示している。図2(a-4)には、全体画像データの中に外枠領域の画像が含まれることがあることを説明するために、外枠領域の画像を強調して図示しているが、実際には、このように明確な外枠領域の画像が取得されるものではない。
FIG. 2A-4 shows an outline of an example of the whole image data acquired by the image input unit 13. As shown in FIG. 2 (a-3), when two originals (P1 and P2) are arranged and scanning is performed normally, the positions of the respective originals are relative to each original (P1 and P2). Image data of individual images is acquired.
Further, FIG. 2A-4 shows that the acquired overall image data includes the peripheral end portion of the reading area of the platen as an image of the outer frame area. In FIG. 2 (a-4), the image of the outer frame area is emphasized in order to explain that the image of the outer frame area may be included in the whole image data, but it is actually shown. Does not acquire such a clear image of the outer frame area.

ただし、もし、このように明確な外枠領域の画像が取得されたとすれば、個別画像を切り取る場合、この外枠領域の部分を1つの原稿の輪郭と認識して、全体画像データを1つの原稿の個別画像として切り取ってしまう。すなわち、全体画像データの内部に含まれる2つの原稿(P1、P2)の部分は、その1つの原稿の内部の画像と考えられて、個別画像として切り取られないことになる。そこで、この発明では、外枠領域の部分を1つの原稿の輪郭と認識して、全体画像データを1つの原稿の個別画像として切り取ってしまわないようにするために、読み取られた全体画像データの外枠領域に対して、後述するような画像処理を行う。 However, if an image of such a clear outer frame area is acquired, when an individual image is cut out, the part of this outer frame area is recognized as the outline of one document, and the entire image data is one. It will be cut out as an individual image of the original. That is, the portions of the two manuscripts (P1, P2) included in the whole image data are considered to be the images inside the one manuscript and are not cut out as individual images. Therefore, in the present invention, in order to recognize the portion of the outer frame region as the outline of one original and prevent the entire image data from being cut out as an individual image of one original, the read overall image data Image processing as described later is performed on the outer frame area.

図2(a-5)に、2枚の原稿を原稿台の読取領域に置いた場合の、原稿台の読取領域と原稿の座標位置との関係の例を示す。
図2(a-5)において、原稿P1は、4つの頂点(P1、P2、P3、P4)で囲まれた長方形部分であり、原稿P2は、4つの頂点(P5、P6、P7、P8)で囲まれた長方形部分である。
個別画像座標取得部18は、原稿エッジ検出部17によって検出された個別画像の輪郭を特定する情報を利用して、これらの8つの頂点の位置座標(原稿頂点位置座標)を取得する。
これらの8つの頂点の位置座標(原稿頂点位置座標)は、原稿台の読取領域と同じXY座標系におけるXY座標値で表される。
原稿頂点位置座標は、後述するように、切り出される個別画像を特定する情報(個別画像情報)として、記憶部50に記憶される。
FIG. 2A-5 shows an example of the relationship between the reading area of the platen and the coordinate position of the original when two originals are placed in the scanning area of the platen.
In FIG. 2 (a-5), the manuscript P1 is a rectangular portion surrounded by four vertices (P1, P2, P3, P4), and the manuscript P2 has four vertices (P5, P6, P7, P8). It is a rectangular part surrounded by.
The individual image coordinate acquisition unit 18 acquires the position coordinates (manuscript vertex position coordinates) of these eight vertices by using the information for specifying the contour of the individual image detected by the document edge detection unit 17.
The position coordinates of these eight vertices (manuscript vertex position coordinates) are represented by XY coordinate values in the same XY coordinate system as the reading area of the platen.
As will be described later, the document vertex position coordinates are stored in the storage unit 50 as information for specifying the individual image to be cut out (individual image information).

個別画像切出部19は、一括して読み取られた1又は複数の原稿の個別画像を切り出す部分である。たとえば、画像入力部13によって入力された全体画像データから、読み取った原稿の部分の画像データを切り出す。読み取った原稿の部分の画像データを、個別画像と呼ぶ。
個別画像の切り出しは、個別画像座標取得部18によって取得された個別画像の4つの頂点の位置を示す座標値(原稿頂点位置座標)を利用する。
全体画像データから、4つの頂点の位置で囲まれた部分の画像データが切り出され、個別画像の画像データとして、記憶部50に記憶される。
The individual image cutting unit 19 is a portion for cutting out individual images of one or a plurality of documents that have been collectively read. For example, the image data of the scanned document portion is cut out from the entire image data input by the image input unit 13. The image data of the scanned original part is called an individual image.
The individual image is cut out by using the coordinate values (manuscript vertex position coordinates) indicating the positions of the four vertices of the individual image acquired by the individual image coordinate acquisition unit 18.
The image data of the portion surrounded by the positions of the four vertices is cut out from the entire image data and stored in the storage unit 50 as the image data of the individual images.

また、この発明では、特に、外枠領域の画像データを除去した後の全体画像データから、1又は複数の原稿の個別画像を切り出す。
あるいは、外枠領域に、後述するような枠画像を付加した後の全体画像データから、1又は複数の原稿の個別画像を切り出す。
Further, in the present invention, in particular, individual images of one or a plurality of originals are cut out from the entire image data after removing the image data in the outer frame region.
Alternatively, individual images of one or more originals are cut out from the entire image data after the frame image as described later is added to the outer frame area.

読み取る原稿が1枚の場合は、入力された全体画像データから、その1枚の原稿が存在する部分の画像データを抽出する。
また、複数の原稿を原稿台に配置して読取を行った場合は、入力された全体画像データには、複数の原稿の画像データが含まれているので、複数の原稿が存在する部分の画像データをそれぞれ抽出する。
たとえば、4枚の原稿を原稿台に配置して読取を行った場合は、4つの原稿のそれぞれに対応した画像データを抽出する。
個別画像切出部19による個別画像を切出す機能は、いわゆるマルチクロップスキャン機能に相当し、従来から利用されている技術を利用してもよい。
When there is only one original to be read, the image data of the portion where the one original is present is extracted from the input whole image data.
Further, when a plurality of originals are arranged on the platen and scanned, the input overall image data includes the image data of the plurality of originals, so that the image of the portion where the plurality of originals exist is included. Extract each data.
For example, when four originals are arranged on a platen and read, image data corresponding to each of the four originals is extracted.
The function of cutting out an individual image by the individual image cutting unit 19 corresponds to a so-called multi-crop scan function, and a technique conventionally used may be used.

外枠領域除去部20は、画像入力部13によって入力された全体画像データから、原稿台の周辺端部であって所定の幅を持つ領域(外枠領域)の画像データを除去する部分である。
上記したように、入力された全体画像データのうち、外枠領域の部分には、周辺端部の内側の画像データが1つの原稿に相当する画像として切り出されてしまうような情報が取得される場合がある。そこで、この外枠領域の部分には、原稿が配置されていないことを前提として、外枠領域の部分の画像データを、除去する。
外枠領域の画像データを除去した後の全体画像データは、後述するように、外枠除去画像データとして、記憶部50に一時記憶される。
The outer frame area removing unit 20 is a portion that removes image data of a region (outer frame region) that is a peripheral end portion of the platen and has a predetermined width from the entire image data input by the image input unit 13. ..
As described above, in the outer frame area of the input overall image data, information such that the image data inside the peripheral end portion is cut out as an image corresponding to one original is acquired. In some cases. Therefore, on the premise that the original is not arranged in the outer frame region portion, the image data in the outer frame region portion is removed.
The entire image data after removing the image data in the outer frame region is temporarily stored in the storage unit 50 as the outer frame removed image data, as will be described later.

外枠領域の部分の画像データを除去した後、外枠領域の内側の画像データについて、エッジ検出と、個別画像の位置座標の取得と、個別画像の切り出しとを行う。
このように、個別画像の切り出しを行う前に、入力された全体画像データから、外枠領域の部分の画像データを除去することによって、個別画像の誤検出の可能性を減らすことができる。
After removing the image data of the outer frame area, edge detection, acquisition of the position coordinates of the individual image, and cutting out of the individual image are performed on the image data inside the outer frame area.
In this way, by removing the image data of the outer frame region portion from the input overall image data before cutting out the individual image, the possibility of erroneous detection of the individual image can be reduced.

除去すべき外枠領域の大きさは、後述するように、外枠領域情報として、記憶部50に予め設定される。
たとえば、長方形である原稿台の読取領域の内側で、読取領域を画定する4辺の近傍の幅がWセンチメートル程度の領域を、外枠領域の大きさとして設定する。すなわち、外枠領域情報として、4辺の近傍の幅Wを、予め設定しておく。
ただし、外枠領域を決める4辺の近傍の幅Wの適切な数値は、画像を読み取るスキャナの精度などによって異なるので、一意的に設定することはできないが、幅Wの数値として、たとえば、1から3ミリメートル程度の数値を予め設定すればよい。
The size of the outer frame area to be removed is preset in the storage unit 50 as the outer frame area information, as will be described later.
For example, an area having a width of about W centimeters in the vicinity of the four sides defining the reading area inside the reading area of the rectangular platen is set as the size of the outer frame area. That is, the width W in the vicinity of the four sides is set in advance as the outer frame area information.
However, since the appropriate numerical value of the width W in the vicinity of the four sides that determines the outer frame area differs depending on the accuracy of the scanner that reads the image, it cannot be uniquely set, but as the numerical value of the width W, for example, 1 A value of about 3 mm may be set in advance.

また、設定された外枠領域の部分に原稿が配置されると、その原稿を切り取ることができないので、幅Wの数値として、あまり大きな値を設定することは好ましくなく、外枠領域による個別画像の誤検出が防止可能なできるだけ小さな数値を設定することが好ましい。
外枠領域情報の数値は、たとえば出荷前の調整段階で、予め固定値を設定するようにしてもよいが、画像処理装置の管理者やメンテナンス作業者が、必要に応じて、設定変更できるようにしてもよい。また、四箇所夫々を違う値としても良い。
Further, if the original is placed in the set outer frame area, the original cannot be cut out. Therefore, it is not preferable to set a very large value as the numerical value of the width W, and the individual image by the outer frame area. It is preferable to set a numerical value as small as possible to prevent false detection of.
The numerical value of the outer frame area information may be set to a fixed value in advance, for example, at the adjustment stage before shipment, but the image processing device administrator or maintenance worker can change the setting as necessary. You may do it. Also, each of the four locations may have different values.

さらに、ユーザが、原稿を配置する前に、表示部14に、たとえば、原稿台の読取領域の周囲からWミリメートル以上離した内側に、原稿を配置すべきことを注意喚起する表示をすることが好ましい。
なお、外枠領域の部分の画像データを除去する場合は、外枠領域の部分の画像データに基づく個別画像の誤検出が無くなるので、原稿押さえの開閉状態に関係なく、外枠領域の画像データの除去を行えばよく、原稿押さえの開閉検出は行わなくてもよい。
Further, before arranging the original, the user may display the display unit 14 to warn that the original should be arranged on the inside, for example, at a distance of W mm or more from the periphery of the reading area of the platen. preferable.
When removing the image data of the outer frame area, erroneous detection of the individual image based on the image data of the outer frame area is eliminated, so that the image data of the outer frame area is not related to the open / closed state of the original holder. It suffices to remove the image, and it is not necessary to detect the opening / closing of the document holder.

枠画像付加部30は、取得された全体画像データのうち、原稿台の周辺端部であって所定の幅を持つ領域(外枠領域)に、検出された原稿押さえの開閉状態に対応させて、所定の色の枠画像を付加する部分である。
枠画像付加部30は、外枠領域に、黒色の画像データからなる黒枠画像を付加する黒枠画像付加部31と、白色の画像データからなる白枠画像を付加する白枠画像付加部32とからなる。
The frame image addition unit 30 corresponds to the detected open / closed state of the document holder in the area (outer frame area) that is the peripheral end of the platen and has a predetermined width in the acquired overall image data. , A part to which a frame image of a predetermined color is added.
The frame image addition unit 30 is composed of a black frame image addition unit 31 that adds a black frame image composed of black image data to the outer frame region, and a white frame image addition unit 32 that adds a white frame image composed of white image data. Become.

黒枠画像付加部31は、画像入力部13によって入力された全体画像データのうち、周辺端部の領域(外枠領域)に、黒色の画像データである黒枠画像を付加する部分である。黒枠画像を付加する外枠領域は、たとえば、上記した除去すべき外枠領域と同じ大きさとすればよい。ただし、黒枠画像を付加する外枠領域の大きさを、除去すべき外枠領域の大きさとは別に、予め設定してもよい。
特に、原稿押さえ開閉検出部16が、原稿押さえが開放状態であることを検出した場合に、全体画像データの外枠領域に黒枠画像を付加する。
また、黒枠画像の付加は、全体画像データが取得された後、エッジ検出を含め個別画像を切り取る処理を行う前に行う。
外枠領域に黒枠画像を付加した後の全体画像データは、後述するように、黒枠付加画像データとして、記憶部50に一時記憶される。
The black frame image addition unit 31 is a portion that adds a black frame image, which is black image data, to a peripheral end region (outer frame region) of the entire image data input by the image input unit 13. The outer frame area to which the black frame image is added may be, for example, the same size as the above-mentioned outer frame area to be removed. However, the size of the outer frame area to which the black frame image is added may be set in advance separately from the size of the outer frame area to be removed.
In particular, when the document holder opening / closing detection unit 16 detects that the document holder is in the open state, a black frame image is added to the outer frame area of the entire image data.
Further, the black frame image is added after the entire image data is acquired and before the processing for cutting out the individual image including the edge detection.
The entire image data after the black frame image is added to the outer frame area is temporarily stored in the storage unit 50 as the black frame added image data, as will be described later.

すなわち、原稿押さえ開閉検出部16によって、原稿押さえが開放されていることを検出した場合には、原稿の色や濃淡に関係なく、外枠領域に、黒枠画像を付加する。
原稿押さえが開放されている場合、原稿台の読取領域のうち原稿のない部分では、読取光が透過するので、原稿のない部分は、全体画像データの中では黒っぽい画像として取得されるが、読取領域の外枠領域の部分は、この黒っぽい画像よりも薄い画像として取得される場合があり、外枠領域の部分を、1つの原稿の輪郭として誤認識してしまう場合がある。そこで、外枠領域の部分を、原稿のない部分と同等の濃淡を持つ黒い画像としてしまえば、外枠領域の部分を、誤って、1つの原稿として切り出してしまうことを防止できる。
That is, when the document holder opening / closing detection unit 16 detects that the document holder is open, a black frame image is added to the outer frame area regardless of the color or shading of the document.
When the document holder is open, the scanning light is transmitted in the part of the scanning area of the platen where there is no document, so that the part without the document is acquired as a blackish image in the entire image data, but it is scanned. The portion of the outer frame region of the region may be acquired as a lighter image than this blackish image, and the portion of the outer frame region may be erroneously recognized as the outline of one document. Therefore, if the portion of the outer frame region is made into a black image having the same shading as the portion without the original, it is possible to prevent the portion of the outer frame region from being accidentally cut out as one original.

白枠画像付加部32は、画像入力部13によって入力された全体画像データのうち、周辺端部の領域(外枠領域)に、白色の画像データである白枠画像を付加する部分である。白枠画像を付加する外枠領域は、たとえば、上記した除去すべき外枠領域と同じ大きさとすればよい。ただし、白枠画像を付加する外枠領域の大きさについても、除去すべき外枠領域の大きさとは別に、予め設定してもよい。
特に、原稿押さえ開閉検出部16が、原稿押さえが閉鎖状態であることを検出した場合に、全体画像データの外枠領域に白枠画像を付加する。
また、白枠画像の付加は、全体画像データが取得された後、エッジ検出を含め個別画像を切り取る処理を行う前に行う。
外枠領域に白枠画像を付加した後の全体画像データは、後述するように、白枠付加画像データとして、記憶部50に一時記憶される。
The white frame image addition unit 32 is a portion that adds a white frame image, which is white image data, to a peripheral end region (outer frame region) of the entire image data input by the image input unit 13. The outer frame area to which the white frame image is added may be, for example, the same size as the above-mentioned outer frame area to be removed. However, the size of the outer frame area to which the white frame image is added may be set in advance separately from the size of the outer frame area to be removed.
In particular, when the document retainer open / close detection unit 16 detects that the document retainer is in the closed state, a white frame image is added to the outer frame area of the entire image data.
Further, the white frame image is added after the entire image data is acquired and before the processing for cutting out the individual image including the edge detection.
The entire image data after the white frame image is added to the outer frame area is temporarily stored in the storage unit 50 as the white frame additional image data, as will be described later.

すなわち、原稿押さえ開閉検出部16によって、原稿押さえが閉鎖されていることを検出した場合には、原稿の色や濃淡に関係なく、外枠領域に、白枠画像を付加する。
原稿押さえが閉鎖されている場合、原稿台の読取領域のうち原稿のない部分では、読取光が原稿押さえに反射するので、原稿のない部分は、全体画像データの中では白っぽい画像として取得されるが、読取領域の外枠領域の部分は、この白っぽい画像よりも濃い画像として取得される場合があり、外枠領域の部分を、1つの原稿の輪郭として誤認識してしまう場合がある。そこで、外枠領域の部分を、原稿のない部分と同等の濃淡を持つ白い画像としてしまえば、外枠領域の部分を、誤って、1つの原稿として切り出してしまうことを防止できる。
That is, when the document holder opening / closing detection unit 16 detects that the document holder is closed, a white frame image is added to the outer frame area regardless of the color or shade of the document.
When the document holder is closed, the scanning light is reflected by the document holder in the part of the scanning area of the platen where there is no document, so that the part without the document is acquired as a whitish image in the entire image data. However, the portion of the outer frame region of the reading region may be acquired as a darker image than this whitish image, and the portion of the outer frame region may be erroneously recognized as the outline of one document. Therefore, if the portion of the outer frame region is made into a white image having the same shading as the portion without the original, it is possible to prevent the portion of the outer frame region from being accidentally cut out as one original.

記憶部50は、この発明の画像処理装置の各機能を実行するために必要な情報やプログラムを記憶する部分であり、ROM、RAM、フラッシュメモリなどの半導体記憶素子、HDD、SSDなどの記憶装置、その他の記憶媒体が用いられる。
記憶部50には、たとえば、外枠領域情報51、開閉情報52、全体画像データ53、外枠除去画像データ54、黒枠付加画像データ55、白枠付加画像データ56、個別画像情報57などが記憶される。
図7に、画像処理装置の記憶部50に記憶される情報の一実施例の説明図を示す。
The storage unit 50 is a part that stores information and programs necessary for executing each function of the image processing device of the present invention, and is a storage device such as a semiconductor storage element such as ROM, RAM, or flash memory, or an HDD or SSD. , Other storage media are used.
The storage unit 50 stores, for example, outer frame area information 51, open / close information 52, overall image data 53, outer frame removal image data 54, black frame additional image data 55, white frame additional image data 56, individual image information 57, and the like. Will be done.
FIG. 7 shows an explanatory diagram of an embodiment of the information stored in the storage unit 50 of the image processing apparatus.

外枠領域情報51は、上記したように、外枠領域の大きさを設定した情報であり、たとえば、外枠領域の幅Wの数値が予め設定される。
外枠領域は、図7(a)に示すように、原稿台の読取領域の周辺端部近傍であって、幅Wのロの字形状の領域である。
図7において、外枠領域の幅Wとして、2mmが設定された場合を示している。
ただし、外枠領域の幅Wは、この数値に限定するものではなく、他の数値を設定してもよく、また、固定値として設定してもよく、あるいは、数値を設定変更できるようにしてもよい。更に、四箇所夫々に対し、別の値を設定しても良い。
As described above, the outer frame area information 51 is information for setting the size of the outer frame area, and for example, the numerical value of the width W of the outer frame area is set in advance.
As shown in FIG. 7A, the outer frame region is near the peripheral end of the reading region of the platen and is a square-shaped region having a width W.
FIG. 7 shows a case where 2 mm is set as the width W of the outer frame region.
However, the width W of the outer frame area is not limited to this numerical value, and other numerical values may be set, may be set as a fixed value, or the numerical value may be set and changed. May be good. Further, different values may be set for each of the four locations.

開閉情報52は、原稿押さえの現在の開閉状況を記憶したものであり、原稿押さえ開閉検出部16に相当する開閉検出スイッチからの出力によって、所定の数値が記憶される。
図7(b)に示すように、開閉検出スイッチは、原稿押さえと接触可能な原稿台の端部に設けられる。たとえば、図7(b)のように、原稿押さえが開放状態にある場合は、開閉検出スイッチの一部分が原稿台の表面よりも上に突起しており、開閉検出スイッチは押圧状態ではない。
The open / close information 52 stores the current open / close status of the document holder, and a predetermined value is stored by the output from the open / close detection switch corresponding to the document holder open / close detection unit 16.
As shown in FIG. 7B, the open / close detection switch is provided at the end of the platen that can come into contact with the document holder. For example, as shown in FIG. 7B, when the document holder is in the open state, a part of the open / close detection switch is projected above the surface of the platen, and the open / close detection switch is not in the pressed state.

一方、原稿押さえが閉じられ閉鎖状態にある場合は、原稿押さえによって、開閉検出スイッチが下方向に押圧され、原稿台の中に引っ込み、たとえば、開閉検出スイッチの接点が閉じて、閉鎖状態にあることを示す信号が出力される。
制御部11が、この閉鎖状態にあることを示す信号を受信した場合は、開閉情報52として、たとえば、原稿押さえの閉鎖状態を意味する数値0が記憶される。
また、この閉鎖状態にあることを示す信号を受信していない場合は、開閉情報52として、たとえば、原稿押さえの開放状態を意味する数値1が記憶される。
この開閉情報52を利用して、上記のように、外枠領域に黒枠画像を付加するか、あるいは、外枠領域に白枠画像を付加するが、自動的に決定される。
On the other hand, when the document holder is closed and closed, the document holder pushes the open / close detection switch downward and retracts into the platen. For example, the contact of the open / close detection switch is closed and the document holder is in the closed state. A signal indicating that is output.
When the control unit 11 receives the signal indicating that the document holder is in the closed state, for example, a numerical value 0 indicating the closed state of the document holder is stored as the open / close information 52.
When the signal indicating that the document is in the closed state is not received, for example, the numerical value 1 indicating the open state of the document holder is stored as the open / close information 52.
Using this open / close information 52, a black frame image is added to the outer frame area or a white frame image is added to the outer frame area as described above, but it is automatically determined.

全体画像データ53は、画像入力部13によって入力された画像データであり、原稿台の読取領域全体から取得されたデータである。
全体画像データ53には、一括して読み取られた原稿の個別画像が含まれ、外枠領域の画像データも含む。
The whole image data 53 is image data input by the image input unit 13, and is data acquired from the entire reading area of the platen.
The whole image data 53 includes individual images of documents that have been collectively read, and also includes image data of an outer frame area.

外枠除去画像データ54は、全体画像データ53から、外枠領域の部分の画像データを除去したデータである。
外枠領域除去部20が、予め設定された外枠領域情報51に基づいて、外枠領域の部分の画像データを除去して、外枠除去画像データ54を生成する。
外枠除去画像データ54は、全体画像データ53よりも小さく、外枠領域の内側のデータである。
外枠領域の部分の画像データを除去した後の外枠除去画像データ54を利用して、原稿のエッジ検出や個別画像の切り出しが行われる。
The outer frame removal image data 54 is data obtained by removing the image data of the portion of the outer frame region from the entire image data 53.
The outer frame area removing unit 20 removes the image data of the outer frame area portion based on the preset outer frame area information 51, and generates the outer frame removing image data 54.
The outer frame removal image data 54 is smaller than the overall image data 53 and is data inside the outer frame region.
Using the outer frame removal image data 54 after removing the image data of the portion of the outer frame region, edge detection of the original and cutting out of individual images are performed.

黒枠付加画像データ55は、全体画像データ53に対して、外枠領域の部分に、黒色の黒枠画像を付加したデータである。
すなわち、入力された全体画像データ53の外枠領域の部分の画像データを、黒枠画像に変更したデータが、黒枠付加画像データ55である。
The black frame added image data 55 is data in which a black black frame image is added to a portion of the outer frame region with respect to the entire image data 53.
That is, the black frame additional image data 55 is the data obtained by changing the image data of the outer frame region portion of the input overall image data 53 into a black frame image.

白枠付加画像データ56は、全体画像データ53に対して、外枠領域の部分に、白色の白枠画像を付加したデータである。
すなわち、入力された全体画像データ53の外枠領域の部分の画像データを、白枠画像に変更したデータが、白枠付加画像データ56である。
The white frame additional image data 56 is data in which a white white frame image is added to a portion of the outer frame region with respect to the entire image data 53.
That is, the white frame additional image data 56 is the data obtained by changing the image data of the outer frame region portion of the input overall image data 53 into a white frame image.

個別画像情報57は、切り出された個別画像ごとの情報であり、たとえば、入力画像番号、原稿頂点位置座標、画像データから構成される。
図7(c)は、図2に示したように、2つの原稿が配置され、2つの原稿に対する個別画像が切り出された場合の個別画像情報57の一例を示している。
図7(c)において、たとえば、入力画像番号がN01の個別画像は、4つの頂点(P1、P2、P3、P4)の原稿頂点位置座標によって示される位置から切り出され、IMG001という名称の画像データファイルとして、記憶されていることを示している。
The individual image information 57 is information for each cut-out individual image, and is composed of, for example, an input image number, original document apex position coordinates, and image data.
FIG. 7C shows an example of individual image information 57 when two originals are arranged and individual images for the two originals are cut out, as shown in FIG.
In FIG. 7 (c), for example, the individual image having the input image number N01 is cut out from the position indicated by the original vertex position coordinates of the four vertices (P1, P2, P3, P4), and the image data named IMG001 is obtained. Indicates that it is stored as a file.

また、入力画像番号がN02の個別画像は、4つの頂点(P5、P6、P7、P8)の原稿頂点位置座標によって示される位置から切り出され、IMG002という名称の画像データファイルとして、記憶されていることを示している。
個別画像の出力を行う場合、このような個別画像情報57を利用して、出力すべき画像情報が生成され、出力部15によって、印刷や送信などの出力処理が行われる。
In addition, the individual image with the input image number N02 is cut out from the position indicated by the original vertex position coordinates of the four vertices (P5, P6, P7, P8) and stored as an image data file named IMG002. It is shown that.
When outputting an individual image, the image information to be output is generated by using the individual image information 57, and the output unit 15 performs output processing such as printing and transmission.

<個別画像の切出処理の実施例>
以下に、入力された全体画像データから、各原稿に対応する個別画像を切り出す処理について説明する。
この発明では、入力された全体画像データの外枠領域の画像データに対して、以下のような画像処理のうちいずれかの処理を行った後に、個別画像を切り出し、個別画像の画像データを取得する。
<Example of cutting out individual images>
The process of cutting out an individual image corresponding to each original from the input whole image data will be described below.
In the present invention, after performing any of the following image processing on the image data in the outer frame area of the input entire image data, an individual image is cut out and the image data of the individual image is acquired. do.

画像処理の第1の実施例として、入力された全体画像データから、外枠領域の画像データを除去する処理を行う。
画像処理の第2の実施例として、入力された全体画像データのうち、外枠領域に、黒枠画像あるいは、白枠画像を付加する処理を行う。ここで、原稿押さえが開放状態にある場合は、外枠領域に黒枠画像を付加し、一方、原稿押さえが閉鎖状態にある場合は、外枠領域に白枠画像を付加する。
As a first embodiment of image processing, a process of removing image data in an outer frame region from the input overall image data is performed.
As a second embodiment of image processing, a process of adding a black frame image or a white frame image to the outer frame area of the input overall image data is performed. Here, when the document holder is in the open state, a black frame image is added to the outer frame area, while when the document holder is in the closed state, a white frame image is added to the outer frame area.

2つの画像処理のうちどちらの画像処理を行うかは、たとえば、ユーザが、画像処理装置を使用しようとする初期段階に、どちらの画像処理を行うかを、予め初期設定すればよい。
あるいは、原則として、第1の実施例の画像処理を行うように予め初期設定しておき、ユーザが第2の実施例の画像処理を行いたい場合に、実行する画像処理を第2の実施例の画像処理に変更するための入力操作をしてもよい。逆に、第2の実施例の画像処理を予め初期設定し、第1の実施例の画像処理を行いたい場合に、実行する画像処理を第1の実施例の画像処理に変更するための入力操作をしてもよい。
As for which of the two image processes to perform, for example, which image processing to perform may be initially set in advance at the initial stage when the user intends to use the image processing device.
Alternatively, as a general rule, the image processing of the first embodiment is initially set to be performed, and when the user wants to perform the image processing of the second embodiment, the image processing to be executed is performed by the second embodiment. You may perform an input operation to change to the image processing of. On the contrary, when the image processing of the second embodiment is initially set in advance and the image processing of the first embodiment is desired to be performed, the input for changing the image processing to be executed to the image processing of the first embodiment. You may operate it.

また、原則として、入力された全体画像データに対して、第1の実施例の画像処理を行って、個別画像の切り出しを行い、個別画像の切り出しがうまくできなかった場合に、自動的に、同じ入力された全体画像データに対して、第2の実施例の画像処理を行って、個別画像の切り出しを行うようにしてもよい。この場合も、2つの画像処理を実行する順序は逆でもよい。 In addition, as a general rule, the image processing of the first embodiment is performed on the input entire image data to cut out the individual image, and when the individual image cannot be cut out successfully, automatically. The image processing of the second embodiment may be performed on the same input whole image data to cut out individual images. In this case as well, the order in which the two image processes are executed may be reversed.

(第1の実施例)
図3に、外枠領域画像を除去した後に、個別画像の画像データを取得する一実施例の説明図を示す。
図3は、原稿押さえを開けたまま(開放した状態で)、全体画像データを取得する場合を示している。
主として、白色部分の多い原稿を読み取る場合には、個別画像の切り取りの精度を向上させるために、原稿押さえを開けたまま読取を行うことが好ましい。
(First Example)
FIG. 3 shows an explanatory diagram of an embodiment in which image data of an individual image is acquired after the outer frame region image is removed.
FIG. 3 shows a case where the entire image data is acquired with the document retainer open (in the open state).
Mainly, when scanning a document having many white portions, it is preferable to perform scanning with the document retainer open in order to improve the accuracy of cutting individual images.

図3(a-1)は、一例として、2枚の原稿を同時に読み取るために、原稿台の読取領域に、2枚の原稿(P1、P2)を重ならないように配置した状態を示している。
このように、ユーザが、2枚の原稿を配置した後、原稿押さえを開けたまま、読取開始を意味する入力操作をすると、原稿台の読取領域全体をスキャンする処理が行われる。
これにより、図3(a-2)に示すように、画像入力部13によって、全体画像データが取得される。全体画像データには、2枚の原稿の個別画像が含まれ、さらに、原稿台の読取領域の端部周辺の画像も含まれる場合がある。
FIG. 3A-1 shows, as an example, a state in which two originals (P1 and P2) are arranged so as not to overlap in the reading area of the platen in order to read two originals at the same time. ..
As described above, when the user performs an input operation meaning to start scanning with the document holder open after arranging the two documents, the entire scanning area of the document table is scanned.
As a result, as shown in FIG. 3A-2, the image input unit 13 acquires the entire image data. The whole image data includes individual images of two originals, and may also include an image around the end of the reading area of the platen.

この後、外枠領域除去部20によって、外枠領域画像を除去する処理が行われる。
図3(a-3)は、原稿台の読取領域の中で、外枠領域に相当する部分にある画像(外枠領域画像)の概略例を示している。
外枠領域の大きさは、上記した外枠領域情報51によって特定されるが、原稿台の読取領域の周辺端部の画像が、この外枠領域の中に十分含まれる程度の大きさである。
取得された全体画像データから、この外枠領域の中に含まれる外枠領域画像が、除去される。
After that, the outer frame area removing unit 20 performs a process of removing the outer frame area image.
FIG. 3 (a-3) shows a schematic example of an image (outer frame area image) in a portion corresponding to the outer frame area in the reading area of the platen.
The size of the outer frame area is specified by the above-mentioned outer frame area information 51, and the size is such that the image of the peripheral end portion of the reading area of the platen is sufficiently included in the outer frame area. ..
The outer frame area image included in this outer frame area is removed from the acquired whole image data.

図3(a-4)は、図3(a-2)の全体画像データから、図3(a-3)の外枠領域画像を除去した後の全体画像データを示している。
図3(a-4)の破線が、原稿台の読取領域を示しており、実線が、外枠領域画像を除去した後の全体画像データである。
取得した全体画像データに、原稿台の読取領域の周辺端部の画像が含まれていたとしても、原稿台の読取領域の周辺端部の画像が外枠領域画像に含まれる場合は、この外枠領域画像を除去した後の全体画像データには、原稿の誤検知の原因となる原稿台の読取領域の周辺端部の画像は含まれない。
FIG. 3 (a-4) shows the whole image data after removing the outer frame region image of FIG. 3 (a-3) from the whole image data of FIG. 3 (a-2).
The broken line in FIG. 3A-4 indicates the reading area of the platen, and the solid line is the entire image data after the outer frame area image is removed.
Even if the acquired overall image data includes an image of the peripheral edge of the scanning area of the platen, if the image of the peripheral edge of the scanning area of the platen is included in the outer frame area image, it is outside this range. The entire image data after removing the frame area image does not include the image of the peripheral edge of the reading area of the document table, which causes erroneous detection of the document.

次に、図3(a-4)のような外枠領域画像を除去した後の全体画像データに対して、エッジ検出、個別画像の位置検出(座標取得)、個別画像の切り出しの処理がこの順に行われる。
これにより、図3(a-5)に示すように、個別画像を切り取った後の画像データが取得される。
たとえば、原稿P1に対して、個別画像g1の画像データが取得され、原稿P2に対して、個別画像g2の画像データが取得される。
Next, for the entire image data after removing the outer frame area image as shown in FIG. 3 (a-4), the processing of edge detection, position detection (coordinate acquisition) of the individual image, and cutting out of the individual image is performed. It is done in order.
As a result, as shown in FIG. 3A-5, the image data after cutting the individual image is acquired.
For example, the image data of the individual image g1 is acquired for the document P1, and the image data of the individual image g2 is acquired for the document P2.

以上のように、原稿押さえを開けたまま読取処理を行った場合において、外枠領域画像を除去した後の全体画像データを利用して、個別画像の切り出し処理等が行われるので、外枠領域の内部の画像を、1つの原稿として誤検知することを防止できる。
なお、図3では、2枚の原稿の個別画像を同時に切り出す場合を示したが、読み取る原稿の枚数は、2枚に限るものではなく、1枚でも、3枚以上でも、同様の画像処理を行うことにより、各原稿の個別画像を同時に切り出すことができる。
As described above, when the scanning process is performed with the document retainer open, the individual image is cut out using the entire image data after removing the outer frame area image. Therefore, the outer frame area is used. It is possible to prevent erroneous detection of the image inside the image as one original.
Although FIG. 3 shows a case where individual images of two originals are cut out at the same time, the number of originals to be read is not limited to two, and the same image processing can be performed regardless of whether the number of originals is one or three or more. By doing so, individual images of each document can be cut out at the same time.

図4に、外枠領域画像を除去した後に、個別画像の画像データを取得する場合の一実施例の説明図を示す。
図4は、図3と異なり、原稿押さえを閉じた後に(閉鎖した状態で)、全体画像データを取得する場合を示している。
主として、黒色など濃い色の部分が多い原稿を読み取る場合には、個別画像の切り取りの精度を向上させるために、原稿押さえを閉じた状態で、読取を行うことが好ましい。
FIG. 4 shows an explanatory diagram of an embodiment in which the image data of the individual image is acquired after the outer frame region image is removed.
FIG. 4 shows a case where the entire image data is acquired after the document holder is closed (in the closed state), unlike FIG.
When scanning a document having many dark-colored portions such as black, it is preferable to perform scanning with the document retainer closed in order to improve the accuracy of cutting individual images.

図4(a-1)は、図3(a-1)と同様に、2枚の原稿を同時に読み取るために、原稿台の読取領域に、2枚の原稿(P1、P2)を重ならないように配置した状態を示している。
ユーザは、読み取る原稿を配置した後、原稿押さえを閉じる。
図4(a-2)は、読み取る原稿を配置した後、原稿押さえを閉じた状態を、原稿押さえの上方から見た概略図を示している。原稿押さえによって、原稿台の読取領域が覆われ、原稿台の下方から原稿押さえに向かって出射された読取光は、原稿押さえと原稿によって反射され、原稿台の読取領域全体の画像データが取得される。
In FIG. 4 (a-1), similarly to FIG. 3 (a-1), in order to read two originals at the same time, the two originals (P1 and P2) are not overlapped in the reading area of the platen. It shows the state of being placed in.
The user closes the document holder after arranging the document to be read.
FIG. 4A-2 shows a schematic view of the state in which the document holder is closed after the document to be read is placed, as viewed from above the document holder. The scanning area of the platen is covered by the document holder, and the scanning light emitted from below the platen toward the document holder is reflected by the document holder and the document, and image data of the entire scanning area of the document stand is acquired. To.

この後、ユーザが、読取開始を意味する入力操作をすると、原稿台の読取領域全体をスキャンする処理が行われる。
これにより、図4(a-3)に示すように、画像入力部13によって、全体画像データが取得される。全体画像データには、2枚の原稿の個別画像が含まれ、さらに、原稿台の読取領域の周辺端部の画像も含まれる場合がある。
After that, when the user performs an input operation meaning to start scanning, a process of scanning the entire scanning area of the platen is performed.
As a result, as shown in FIG. 4A-3, the image input unit 13 acquires the entire image data. The whole image data includes individual images of two originals, and may also include an image of a peripheral end portion of a reading area of a platen.

この後、図3に示したのと同様に、外枠領域除去部20によって、外枠領域画像を除去する処理が行われる。
図4(a-4)は、図3(a-3)に示したものと同じ外枠領域に相当する部分にある画像(外枠領域画像)の概略例を示している。
取得された全体画像データから、この外枠領域の中に含まれる外枠領域画像が、除去される。
After that, in the same manner as shown in FIG. 3, the outer frame region removing unit 20 performs a process of removing the outer frame region image.
FIG. 4 (a-4) shows a schematic example of an image (outer frame region image) in a portion corresponding to the same outer frame region as that shown in FIG. 3 (a-3).
The outer frame area image included in this outer frame area is removed from the acquired whole image data.

図4(a-5)は、図4(a-3)の全体画像データから、図4(a-4)の外枠領域画像を除去した後の全体画像データを示している。
図4(a-5)の破線が、原稿台の読取領域を示しており、実線が、外枠領域画像を除去した後の全体画像データである。
原稿台の読取領域の周辺端部の画像が外枠領域画像に含まれる場合は、この外枠領域画像を除去した後の全体画像データには、原稿の誤検知の原因となる原稿台の読取領域の周辺端部の画像は含まれない。
FIG. 4 (a-5) shows the whole image data after removing the outer frame region image of FIG. 4 (a-4) from the whole image data of FIG. 4 (a-3).
The broken line in FIG. 4A-5 indicates the reading area of the platen, and the solid line is the entire image data after the outer frame area image is removed.
When the image of the peripheral edge of the scanning area of the platen is included in the outer frame area image, the entire image data after removing the outer frame area image is the scanning of the document table which causes false detection of the original. Images of the peripheral edges of the area are not included.

次に、図4(a-5)のような外枠領域画像を除去した後の全体画像データに対して、エッジ検出、個別画像の位置検出(座標取得)、個別画像の切り出しの処理がこの順に行われる。
これにより、図4(a-6)に示すように、個別画像を切り取った後の画像データが取得される。
図4(a-6)でも、図3(a-5)と同様に、たとえば、原稿P1に対して、個別画像g1の画像データが取得され、原稿P2に対して、個別画像g2の画像データが取得される。
Next, for the entire image data after removing the outer frame area image as shown in FIG. 4 (a-5), the processing of edge detection, position detection of individual image (coordinate acquisition), and cutting out of individual image is performed. It is done in order.
As a result, as shown in FIG. 4A-6, the image data after cutting the individual image is acquired.
Also in FIG. 4 (a-6), similarly to FIG. 3 (a-5), for example, the image data of the individual image g1 is acquired for the document P1, and the image data of the individual image g2 is acquired for the document P2. Is obtained.

以上のように、原稿押さえを閉じてから読取処理を行った場合においても、外枠領域画像を除去した後の全体画像データを利用して、個別画像の切り出し処理等が行われるので、外枠領域の内部の画像を、1つの原稿として誤検知することを防止できる。 As described above, even when the scanning process is performed after the document holder is closed, the individual image is cut out using the entire image data after the outer frame area image is removed, so that the outer frame is performed. It is possible to prevent the image inside the area from being erroneously detected as one document.

(第2の実施例)
図5に、外枠領域に黒枠画像を付加した後に、個別画像の画像データを取得する一実施例の説明図を示す。
図5は、図3と同様に、原稿押さえを開けたまま(開放した状態で)、全体画像データを取得する場合を示している。
(Second Example)
FIG. 5 shows an explanatory diagram of an embodiment in which image data of an individual image is acquired after a black frame image is added to the outer frame area.
FIG. 5 shows a case where the entire image data is acquired with the document holder open (in the open state) as in FIG.

図5(a-1)は、図3(a-1)と同じ図面であり、2枚の原稿を、原稿台の読取領域に配置した状態を示している。
ユーザが、2枚の原稿を配置した後、原稿押さえを開けたまま、読取開始を意味する入力操作をすると、原稿台の読取領域全体をスキャンする処理が行われる。
図5(a-2)は、図3(a-2)と同じ図面であり、画像入力部13によって取得された全体画像データを示している。全体画像データには、2枚の原稿の個別画像が含まれ、さらに、原稿台の読取領域の周辺端部の画像も含まれる場合がある。
FIG. 5 (a-1) is the same drawing as FIG. 3 (a-1), and shows a state in which two original sheets are arranged in the reading area of the platen.
After arranging the two originals, when the user performs an input operation meaning to start scanning with the original holder open, a process of scanning the entire scanning area of the platen is performed.
FIG. 5 (a-2) is the same drawing as FIG. 3 (a-2), and shows the whole image data acquired by the image input unit 13. The whole image data includes individual images of two originals, and may also include an image of a peripheral end portion of a reading area of a platen.

この後、黒枠画像付加部31によって、全体画像データの外枠領域に、黒枠画像を付加する処理が行われる。
図5(a-3)は、原稿台の読取領域の中で、外枠領域に相当する部分に付加すべき黒枠画像の概略例を示している。
外枠領域の大きさは、上記した外枠領域情報51によって特定されるが、原稿台の読取領域の周辺端部の画像がこの外枠領域の中に十分含まれる程度の大きさである。
取得された全体画像データにおいて、この外枠領域の部分の画像データが、黒枠画像に変更される。
After that, the black frame image addition unit 31 performs a process of adding a black frame image to the outer frame area of the entire image data.
FIG. 5A-3 shows a schematic example of a black frame image to be added to a portion corresponding to an outer frame area in the reading area of the platen.
The size of the outer frame area is specified by the above-mentioned outer frame area information 51, and the size is such that the image of the peripheral end portion of the reading area of the platen is sufficiently included in the outer frame area.
In the acquired whole image data, the image data of the portion of the outer frame area is changed to the black frame image.

図5(a-4)は、図5(a-2)の全体画像データの外枠領域に、図5(a-3)の黒枠画像を付加した後の全体画像データを示している。
黒枠画像を付加した後の全体画像データは、外枠領域の内部にある画像データと、外枠領域に付加された黒枠画像とからなる。
取得した全体画像データに、原稿台の読取領域の周辺端部の画像が含まれていたとしても、原稿台の読取領域の周辺端部の画像が外枠領域に含まれていた場合は、この外枠領域に黒枠画像を付加した後の全体画像データには、原稿の誤検知の原因となる原稿台の読取領域の周辺端部の画像は含まれない。
FIG. 5 (a-4) shows the whole image data after adding the black frame image of FIG. 5 (a-3) to the outer frame area of the whole image data of FIG. 5 (a-2).
The entire image data after the black frame image is added is composed of the image data inside the outer frame area and the black frame image added to the outer frame area.
Even if the acquired overall image data includes an image of the peripheral edge of the scanning area of the platen, if the image of the peripheral edge of the scanning area of the platen is included in the outer frame area, this is the case. The overall image data after the black frame image is added to the outer frame area does not include the image of the peripheral edge of the reading area of the document table, which causes erroneous detection of the document.

次に、図5(a-4)のような黒枠画像を付加した後の全体画像データに対して、エッジ検出、個別画像の位置検出(座標取得)、個別画像の切り出しの処理がこの順に行われる。これにより、図5(a-5)に示すように、個別画像を切り取った後の画像データが取得される。
たとえば、原稿P1に対して、個別画像g1の画像データが取得され、原稿P2に対して、個別画像g2の画像データが取得される。
Next, for the entire image data after adding the black frame image as shown in FIG. 5 (a-4), edge detection, position detection of the individual image (coordinate acquisition), and cutting out of the individual image are performed in this order. Will be. As a result, as shown in FIG. 5 (a-5), the image data after cutting the individual image is acquired.
For example, the image data of the individual image g1 is acquired for the document P1, and the image data of the individual image g2 is acquired for the document P2.

以上のように、原稿押さえを開けたまま読取処理を行った場合において、黒枠画像を付加した後の全体画像データを利用して、個別画像の切り出し処理等が行われるので、外枠領域の内部の画像を、1つの原稿として誤検知することを防止できる。 As described above, when the scanning process is performed with the document retainer open, the individual image is cut out using the entire image data after the black frame image is added, so that the inside of the outer frame area is used. It is possible to prevent erroneous detection of the above image as one original.

図6に、外枠領域に白枠画像を付加した後に、個別画像の画像データを取得する一実施例の説明図を示す。
図6は、図5と異なり、原稿押さえを閉じた後に(閉鎖した状態で)、全体画像データを取得する場合を示している。
主として、黒色など濃い色の部分が多い原稿を読み取る場合には、個別画像の切り取りの精度を向上させるために、原稿押さえを閉じた状態で、読取を行うことが好ましい。
FIG. 6 shows an explanatory diagram of an embodiment in which image data of an individual image is acquired after a white frame image is added to the outer frame area.
FIG. 6 shows a case where the entire image data is acquired after the document holder is closed (in the closed state), unlike FIG.
When scanning a document having many dark-colored portions such as black, it is preferable to perform scanning with the document retainer closed in order to improve the accuracy of cutting individual images.

図6(a-1)は、図4(a-1)と同様に、原稿台の読取領域に、2枚の原稿(P1、P2)を重ならないように配置した状態を示している。
ユーザは、読み取る原稿を配置した後、原稿押さえを閉じる。
図6(a-2)は、図4(a-2)と同様に、読み取る原稿を配置した後、原稿押さえを閉じた状態を、原稿押さえの上方から見た概略図を示している。
FIG. 6 (a-1) shows a state in which two original documents (P1 and P2) are arranged so as not to overlap with each other in the reading area of the platen as in FIG. 4 (a-1).
The user closes the document holder after arranging the document to be read.
FIG. 6A-2 shows a schematic view of the state in which the document holder is closed after the document to be read is placed, as seen from above the document holder, as in FIG. 4A-2.

この後、ユーザが、読取開始を意味する入力操作をすると、原稿台の読取領域全体をスキャンする処理が行われる。
これにより、図6(a-3)に示すように、画像入力部13によって、全体画像データが取得される。
図6(a-3)は、図4(a-3)と同じ図面であり、画像入力部13によって取得された全体画像データを示している。全体画像データには、2枚の原稿の個別画像が含まれ、さらに、原稿台の読取領域の周辺端部の画像も含まれる場合がある。
After that, when the user performs an input operation meaning to start scanning, a process of scanning the entire scanning area of the platen is performed.
As a result, as shown in FIG. 6A-3, the image input unit 13 acquires the entire image data.
FIG. 6 (a-3) is the same drawing as FIG. 4 (a-3), and shows the whole image data acquired by the image input unit 13. The whole image data includes individual images of two originals, and may also include an image of a peripheral end portion of a reading area of a platen.

この後、白枠画像付加部32によって、全体画像データの外枠領域に、白枠画像を付加する処理が行われる。
図6(a-4)は、原稿台の読取領域の中で、外枠領域に相当する部分に付加すべき白枠画像の概略例を示している。
外枠領域の大きさは、上記した外枠領域情報51によって特定されるが、原稿台の読取領域の周辺端部の画像がこの外枠領域の中に十分含まれる程度の大きさである。
取得された全体画像データにおいて、この外枠領域の部分の画像データが、白枠画像に変更される。
After that, the white frame image addition unit 32 performs a process of adding a white frame image to the outer frame area of the entire image data.
FIG. 6 (a-4) shows a schematic example of a white frame image to be added to a portion corresponding to an outer frame area in the reading area of the platen.
The size of the outer frame area is specified by the above-mentioned outer frame area information 51, and the size is such that the image of the peripheral end portion of the reading area of the platen is sufficiently included in the outer frame area.
In the acquired whole image data, the image data of the portion of the outer frame area is changed to the white frame image.

図6(a-5)は、図6(a-3)の全体画像データの外枠領域に、図6(a-4)の白枠画像を付加した後の全体画像データを示している。
白枠画像を付加した後の全体画像データは、外枠領域の内部にある画像データと、外枠領域に付加された白枠画像とからなる。
取得した全体画像データに、原稿台の読取領域の周辺端部の画像が含まれていたとしても、原稿台の読取領域の周辺端部の画像が外枠領域に含まれていた場合は、この外枠領域に白枠画像を付加した後の全体画像データには、原稿の誤検知の原因となる原稿台の読取領域の周辺端部の画像は含まれない。
FIG. 6 (a-5) shows the whole image data after adding the white frame image of FIG. 6 (a-4) to the outer frame area of the whole image data of FIG. 6 (a-3).
The entire image data after the white frame image is added is composed of the image data inside the outer frame area and the white frame image added to the outer frame area.
Even if the acquired overall image data includes an image of the peripheral edge of the scanning area of the platen, if the image of the peripheral edge of the scanning area of the platen is included in the outer frame area, this is the case. The overall image data after the white frame image is added to the outer frame area does not include the image of the peripheral edge of the reading area of the document table, which causes erroneous detection of the document.

次に、図6(a-5)のような白枠画像を付加した後の全体画像データに対して、エッジ検出、個別画像の位置検出(座標取得)、個別画像の切り出しの処理がこの順に行われる。これにより、図6(a-6)に示すように、個別画像を切り取った後の画像データが取得される。
たとえば、原稿P1に対して、個別画像g1の画像データが取得され、原稿P2に対して、個別画像g2の画像データが取得される。
Next, for the entire image data after adding the white frame image as shown in FIG. 6 (a-5), the processing of edge detection, position detection of individual image (coordinate acquisition), and cutting out of individual image is performed in this order. Will be done. As a result, as shown in FIG. 6A-6, the image data after cutting the individual image is acquired.
For example, the image data of the individual image g1 is acquired for the document P1, and the image data of the individual image g2 is acquired for the document P2.

以上のように、原稿押さえを閉じた後に読取処理を行った場合において、白枠画像を付加した後の全体画像データを利用して、個別画像の切り出し処理等が行われるので、外枠領域の内部の画像を、1つの原稿として誤検知することを防止できる。 As described above, when the scanning process is performed after the document holder is closed, the individual image is cut out using the entire image data after the white frame image is added. It is possible to prevent the internal image from being erroneously detected as one original.

<第1の実施例の読取画像処理のフローチャート>
図8に、この発明の画像処理装置における上記した第1の実施例について、原稿の読取画像処理のフローチャートを示す。
ここでは、上記した第1の実施例のように、取得した全体画像データから外枠領域画像を除去して、各原稿の個別画像を切り出す処理について説明する。
まず、ユーザは、原稿台に載置した各原稿の個別画像を切り出す処理をするために、たとえば、操作部12を用いて、画像処理装置が有する機能のうち、この処理を実行するクロップ機能を選択する入力を行う。
<Flow chart of scanned image processing of the first embodiment>
FIG. 8 shows a flowchart of a document reading image processing for the above-mentioned first embodiment in the image processing apparatus of the present invention.
Here, as in the first embodiment described above, a process of removing an outer frame region image from the acquired overall image data and cutting out an individual image of each document will be described.
First, in order to perform a process of cutting out an individual image of each document placed on the platen, for example, the user uses the operation unit 12 to provide a crop function among the functions of the image processing device to execute this process. Make the input you want to select.

図8のステップS1において、制御部11は、各原稿の個別画像を切り出す処理を実行するクロップ機能が選択入力されたか否かをチェックする。
ステップS2において、クロップ機能が選択入力された場合は、ステップS3に進み、そうでない場合は、ステップS1に戻る。
In step S1 of FIG. 8, the control unit 11 checks whether or not the crop function for executing the process of cutting out the individual image of each document has been selected and input.
If the crop function is selected and input in step S2, the process proceeds to step S3, and if not, the process returns to step S1.

ステップS3において、制御部11は、表示部13に、読み取る原稿を原稿台に配置することが可能であること示す情報を、表示する。
このとき、読み取る原稿が、白っぽい色の多い原稿であれば、原稿押さえを開放したまま、読取を開始する方がよいことや、写真など色の濃い原稿であれば、原稿押さえを閉鎖した後に、読取を開始する方がよいことなども、同時に表示することが好ましい。
ユーザは、このような表示を見て、原稿を原稿台の読取領域に配置し、原稿に応じて、原稿押さえを開放するか、あるいは、原稿押さえを閉鎖した後、原稿の読取開始を意味する入力操作をする。
In step S3, the control unit 11 displays on the display unit 13 information indicating that the document to be read can be placed on the platen.
At this time, if the document to be scanned is a document with many whitish colors, it is better to start scanning with the document holder open, or if the document is a dark document such as a photograph, after closing the document holder, It is also preferable to display at the same time that it is better to start reading.
The user sees such a display, arranges the original in the reading area of the platen, and means that the original holder is opened or the original holder is closed according to the original, and then the reading of the original is started. Perform an input operation.

ステップS4において、制御部11は、ユーザによって原稿の読取開始を意味する入力操作が行われたか否かをチェックする。
ステップS5において、原稿の読取開始を意味する入力があった場合は、ステップS6に進み、そうでない場合は、ステップS4に戻る。
ステップS6において、画像入力部13が、原稿台の読取領域の読取領域全体をスキャンし、読取領域全体の画像データを取得し、全体画像データ53として、記憶部50に一時記憶する。
In step S4, the control unit 11 checks whether or not the user has performed an input operation indicating the start of reading the document.
If there is an input indicating the start of scanning the original in step S5, the process proceeds to step S6, and if not, the process returns to step S4.
In step S6, the image input unit 13 scans the entire reading area of the reading area of the document table, acquires the image data of the entire reading area, and temporarily stores the image data as the entire image data 53 in the storage unit 50.

ステップS7において、外枠領域除去部20が、取得された全体画像データから、外枠領域画像を除去する。
外枠領域画像の除去は、上記した図3や図4に示したように、外枠領域情報51によって設定される外枠領域の部分の画像データ(外枠領域画像)を、全体画像データから除去する。
In step S7, the outer frame area removing unit 20 removes the outer frame area image from the acquired overall image data.
To remove the outer frame area image, as shown in FIGS. 3 and 4 described above, the image data (outer frame area image) of the outer frame area portion set by the outer frame area information 51 is removed from the entire image data. Remove.

ステップS8において、原稿エッジ検出部17が、外枠領域画像を除去した後の全体画像データから、個別画像のエッジを検出する。
原稿が長方形であったとすれば、原稿と原稿の無い部分の画像データの濃淡の差異によって、原稿の輪郭に相当する長方形の4つの辺が、検出される。
In step S8, the document edge detection unit 17 detects the edge of the individual image from the entire image data after removing the outer frame region image.
If the original is a rectangle, the four sides of the rectangle corresponding to the outline of the original are detected by the difference in the shade of the image data between the original and the portion without the original.

ステップS9において、個別画像座標取得部18が、原稿エッジ検出部17によって検出された原稿の輪郭に相当する長方形の4つの辺を利用して、個別画像の4つの頂点の位置座標を取得し、その個別画像の原稿頂点位置座標として記憶する。
複数の原稿が配置されている場合は、各原稿に対応する個別画像の原稿頂点位置座標が、それぞれ記憶される。たとえば、個別画像情報57として、各個別画像の入力画像番号と、原稿頂点位置座標とが対応付けて記憶される。
In step S9, the individual image coordinate acquisition unit 18 acquires the position coordinates of the four vertices of the individual image by using the four sides of the rectangle corresponding to the contour of the document detected by the document edge detection unit 17. It is stored as the original vertex position coordinates of the individual image.
When a plurality of documents are arranged, the document vertex position coordinates of the individual images corresponding to each document are stored. For example, as the individual image information 57, the input image number of each individual image and the document vertex position coordinates are stored in association with each other.

ステップS10において、個別画像切出部19が、記憶された個別画像の原稿頂点位置座標を利用して、各原稿の個別画像を、全体画像データから、切り出す。
切り出された各原稿の個別画像の画像データは、個別画像情報57の入力画像番号と対応付けられて、個別画像ごとに、記憶部50に記憶される。
In step S10, the individual image cutting unit 19 cuts out the individual image of each original from the whole image data by using the document vertex position coordinates of the stored individual image.
The image data of the individual image of each cut-out original is associated with the input image number of the individual image information 57, and is stored in the storage unit 50 for each individual image.

ステップS11において、個別画像の印刷などの出力を行う場合は、出力部15が、記憶部50に記憶された個別画像情報57を利用して、所定の出力形式に対応した出力すべき画像情報を生成する。
また、出力部15は、生成された画像情報を出力する。たとえば、プリンタによる印刷処理や、ネットワークを介した送信処理を行う。
In step S11, when printing an individual image or the like, the output unit 15 uses the individual image information 57 stored in the storage unit 50 to output image information corresponding to a predetermined output format. Generate.
Further, the output unit 15 outputs the generated image information. For example, printing processing by a printer or transmission processing via a network is performed.

以上のように、取得された全体画像データから外枠領域画像を除去した後、外枠領域画像を除去した全体画像データを利用して、個別画像の切り出しを行うので、原稿押さえの開閉に関係なく、個別画像の切り出しに成功する可能性を向上させることができる。 As described above, after removing the outer frame area image from the acquired whole image data, the individual image is cut out using the whole image data from which the outer frame area image is removed, so that it is related to the opening and closing of the document holder. It is possible to improve the possibility of succeeding in cutting out individual images.

<第2の実施例の読取画像処理のフローチャート-1>
図9に、この発明の画像処理装置における上記した第2の実施例について、原稿の読取画像処理の一実施例のフローチャートを示す。
ここでは、上記した第2の実施例のように、全体画像データの外枠領域に、黒枠画像または白枠画像を付加して、個別画像を切り出す処理について説明する。
図8と同様に、まず、ユーザは、操作部12を用いて、原稿台に載置した各原稿の個別画像を切り出すクロップ機能を選択する入力を行う。
図9において、図8と同じ処理を行うステップには、同じステップ番号を付与する。
<Flowchart of scanned image processing of the second embodiment-1>
FIG. 9 shows a flowchart of an embodiment of document scanning image processing for the above-mentioned second embodiment in the image processing apparatus of the present invention.
Here, a process of adding a black frame image or a white frame image to the outer frame area of the entire image data and cutting out an individual image will be described as in the second embodiment described above.
Similar to FIG. 8, first, the user inputs using the operation unit 12 to select a crop function for cutting out an individual image of each document placed on the platen.
In FIG. 9, the same step number is assigned to the step that performs the same processing as in FIG.

図9において、ステップS1からステップS6までは、図8と同様の処理を行う。
すなわち、ステップS1において、クロップ機能が選択入力されたか否かをチェックし、クロップ機能が選択入力された場合は、ステップS3に進む。
In FIG. 9, from step S1 to step S6, the same processing as in FIG. 8 is performed.
That is, in step S1, it is checked whether or not the crop function has been selected and input, and if the crop function has been selected and input, the process proceeds to step S3.

ステップS3において、表示部13に、読み取る原稿を原稿台に配置することが可能であること示す情報や、読み取る原稿が白っぽい色の多い原稿であれば、原稿押さえを開放したまま読取を開始する方がよいことや、写真など色の濃い原稿であれば、原稿押さえを閉鎖した後に読取を開始する方がよいことなどを表示する。
ユーザは、このような表示を見て、原稿を原稿台の読取領域に配置し、原稿に応じて、原稿押さえを開放するか、あるいは、原稿押さえを閉鎖した後、原稿の読取開始を意味する入力操作をする。
In step S3, information indicating that the document to be read can be placed on the platen on the display unit 13, or if the document to be read is a document with many whitish colors, the person who starts scanning with the document holder open. In the case of a dark-colored document such as a photograph, it is displayed that it is better to start scanning after closing the document holder.
The user sees such a display, arranges the original in the reading area of the platen, and means that the original holder is opened or the original holder is closed according to the original, and then the reading of the original is started. Perform an input operation.

ステップS4において、ユーザによって原稿の読取開始を意味する入力操作が行われたか否かをチェックし、ステップS5において、原稿の読取開始を意味する入力があった場合は、ステップS6に進み、そうでない場合は、ステップS4に戻る。
ステップS6において、画像入力部13が、原稿台の読取領域の読取領域全体をスキャンし、読取領域全体の画像データを取得し、全体画像データ53として、記憶部50に一時記憶する。
In step S4, it is checked whether or not an input operation indicating the start of scanning the document has been performed by the user, and if there is an input indicating the start of scanning the document in step S5, the process proceeds to step S6, and if not, the process proceeds to step S6. If so, return to step S4.
In step S6, the image input unit 13 scans the entire reading area of the reading area of the document table, acquires the image data of the entire reading area, and temporarily stores the image data as the entire image data 53 in the storage unit 50.

ステップS21において、原稿押さえ開閉検出部16が、原稿押さえの開閉状態をチェックする。
ステップS22において、原稿押さえが、開放状態の場合は、ステップS23に進み、閉鎖状態の場合は、ステップS24に進む。
In step S21, the document holder open / close detection unit 16 checks the open / closed state of the document holder.
In step S22, if the document holder is in the open state, the process proceeds to step S23, and if the document holder is in the closed state, the process proceeds to step S24.

ステップS23において、出力された全体画像データに、黒枠画像を付加し、ステップS25に進む。
これにより、上記した図5(a-4)に示したように、外枠領域に黒枠画像を付加した全体画像データが生成される。
ステップS24において、出力された全体画像データに、白枠画像を付加し、ステップS25に進む。
これにより、上記した図6(a-5)に示したように、外枠領域に白枠画像を付加した全体画像データが生成される。
In step S23, a black frame image is added to the output overall image data, and the process proceeds to step S25.
As a result, as shown in FIG. 5A-4 described above, the entire image data in which the black frame image is added to the outer frame area is generated.
In step S24, a white frame image is added to the output overall image data, and the process proceeds to step S25.
As a result, as shown in FIG. 6A-5 described above, the entire image data in which the white frame image is added to the outer frame area is generated.

ステップS25において、原稿エッジ検出部17が、枠画像(黒枠画像または白枠画像)が付加された全体画像データから、個別画像のエッジを検出する。
その後、図8と同様に、ステップS9からS11の処理を行う。
すなわち、ステップS9において、原稿エッジ検出部17によって検出された原稿の輪郭に相当する長方形の4つの辺を利用して、個別画像の4つの頂点の位置座標(原稿頂点位置座標)を取得し、個別画像情報57として、各個別画像の入力画像番号と、原稿頂点位置座標とを対応付けて記憶する。
In step S25, the document edge detection unit 17 detects the edge of the individual image from the entire image data to which the frame image (black frame image or white frame image) is added.
After that, the processes of steps S9 to S11 are performed in the same manner as in FIG.
That is, in step S9, the position coordinates (manuscript vertex position coordinates) of the four vertices of the individual image are acquired by using the four sides of the rectangle corresponding to the contour of the document detected by the document edge detection unit 17. As the individual image information 57, the input image number of each individual image and the document vertex position coordinates are stored in association with each other.

ステップS10において、個別画像切出部19が、記憶された個別画像の原稿頂点位置座標を利用して、各原稿の個別画像の画像データを、全体画像データから切り出し、個別画像情報57の入力画像番号と対応付けて、個別画像ごとに、記憶部50に記憶する。 In step S10, the individual image cutting unit 19 cuts out the image data of the individual image of each document from the whole image data by using the document vertex position coordinates of the stored individual image, and the input image of the individual image information 57. Each individual image is stored in the storage unit 50 in association with the number.

ステップS11において、個別画像の印刷などの出力を行う場合は、出力部15が、記憶部50に記憶された個別画像情報57を利用して、所定の出力形式に対応した出力すべき画像情報を生成し、生成された画像情報を出力する。たとえば、プリンタによる印刷処理や、ネットワークを介した送信処理を行う。 In step S11, when printing an individual image or the like, the output unit 15 uses the individual image information 57 stored in the storage unit 50 to output image information corresponding to a predetermined output format. Generate and output the generated image information. For example, printing processing by a printer or transmission processing via a network is performed.

以上のように、取得された全体画像データから外枠領域の部分に、黒枠画像あるいは白枠画像を付加した後、黒枠画像あるいは白枠画像を付加した全体画像データを利用して、個別画像の切り出しを行うので、個別画像の切り出しに成功する可能性を向上させることができる。
また、ユーザが操作した原稿押さえの開閉状態に対応させて、黒枠画像あるいは白枠画像が自動的に付加されて、個別画像の切り出しが行われるので、ユーザは、原稿押さえの開閉状態に応じて行わせる画像処理の設定入力をする必要がなく、原稿押さえの開閉操作と、クロップ機能の選択入力と、原稿の読取開始入力を行えばよい。
これらの操作入力は、複合機等でも通常行われる操作に類似しているので、ユーザは、複雑な設定入力操作をすることなく、容易な操作をするだけで、個別画像を取得することができ、ユーザの操作負担を軽減できる。
As described above, after adding a black frame image or a white frame image to the outer frame area from the acquired whole image data, the whole image data to which the black frame image or the white frame image is added is used to obtain an individual image. Since the cutout is performed, the possibility of succeeding in cutting out the individual image can be improved.
In addition, a black frame image or a white frame image is automatically added according to the open / closed state of the document holder operated by the user, and individual images are cut out, so that the user can perform the cutting according to the open / closed state of the document holder. It is not necessary to input the setting of the image processing to be performed, and it is sufficient to perform the opening / closing operation of the document holder, the selection input of the crop function, and the input to start scanning the document.
Since these operation inputs are similar to the operations normally performed on a multifunction device or the like, the user can acquire individual images by simply performing simple operations without performing complicated setting input operations. , The user's operation burden can be reduced.

<第2の実施例の読取画像処理のフローチャート-2>
図10に、図9と同様に、この発明の画像処理装置における上記した第2の実施例について、原稿の読取画像処理の一実施例のフローチャートを示す。
ただし、ここでは、全体画像データの外枠領域に、黒枠画像または白枠画像を付加するが、個別画像の切り出しができなかった場合に、原稿押さえの開閉状態を逆にして、再度原稿の読取画像処理を実行するようにする。
<Flowchart of scanned image processing of the second embodiment-2>
FIG. 10 shows a flowchart of an embodiment of document scanning image processing for the above-mentioned second embodiment in the image processing apparatus of the present invention, as in FIG. 9.
However, here, a black frame image or a white frame image is added to the outer frame area of the entire image data, but if the individual image cannot be cut out, the open / closed state of the document holder is reversed and the document is read again. Execute image processing.

読み取ろうとする原稿の色や濃淡によっては、原稿押さえの開閉状態を開放から閉鎖に切り替えたり、逆に、閉鎖から開放に切り替えたりすることにより、原稿の個別画像の切り出しに成功する場合もある。
そこで、個別画像の切り出しができなかった場合に、ユーザに、原稿押さえの開閉状態の変更を要求するメッセージを表示して、ユーザに、原稿押さえの開閉状態を変更する操作をしてもらい、再度、原稿の読取画像処理を実行する。
ユーザに、原稿押さえの開閉状態を変更する操作をしてもらうことにより、原稿の個別画像の切り出しに成功する可能性を向上させる。
Depending on the color and shading of the document to be read, the individual image of the document may be successfully cut out by switching the open / closed state of the document holder from open to closed, or conversely, by switching from closed to open.
Therefore, if the individual image cannot be cut out, a message requesting the user to change the open / closed state of the document holder is displayed, and the user is asked to change the open / closed state of the document holder again. , Performs document scanning image processing.
By having the user perform an operation to change the open / closed state of the document holder, the possibility of successfully cutting out an individual image of the document is improved.

図10において、図8および図9と同じ処理を行うステップには、同じステップ番号を付与する。
図10において、まず、ステップS1からステップS6までと、ステップS21は、図9と同様の処理を行う。
すなわち、ステップS1において、クロップ機能が選択入力されたか否かをチェックし、クロップ機能が選択入力された場合は、ステップS3に進む。
In FIG. 10, the same step number is assigned to the step that performs the same processing as in FIGS. 8 and 9.
In FIG. 10, first, steps S1 to S6 and step S21 perform the same processing as in FIG.
That is, in step S1, it is checked whether or not the crop function has been selected and input, and if the crop function has been selected and input, the process proceeds to step S3.

ステップS3において、表示部13に、読み取る原稿を原稿台に配置することが可能であること示す情報や、読み取る原稿が白っぽい色の多い原稿であれば、原稿押さえを開放したまま読取を開始する方がよいことや、写真など色の濃い原稿であれば、原稿押さえを閉鎖した後に読取を開始する方がよいことなどを表示する。
ユーザは、このような表示を見て、原稿を原稿台の読取領域に配置し、原稿に応じて、原稿押さえを開放するか、あるいは、原稿押さえを閉鎖した後、原稿の読取開始を意味する入力操作をする。
In step S3, information indicating that the document to be read can be placed on the platen on the display unit 13, or if the document to be read is a document with many whitish colors, the person who starts scanning with the document holder open. In the case of a dark-colored document such as a photograph, it is displayed that it is better to start scanning after closing the document holder.
The user sees such a display, arranges the original in the reading area of the platen, and means that the original holder is opened or the original holder is closed according to the original, and then the reading of the original is started. Perform an input operation.

ステップS4において、ユーザによって原稿の読取開始を意味する入力操作が行われたか否かをチェックし、ステップS5において、原稿の読取開始を意味する入力があった場合は、ステップS6に進み、そうでない場合は、ステップS4に戻る。
ステップS6において、画像入力部13が、原稿台の読取領域の読取領域全体をスキャンし、読取領域全体の画像データを取得し、全体画像データ53として、記憶部50に一時記憶する。
In step S4, it is checked whether or not an input operation indicating the start of scanning the document has been performed by the user, and if there is an input indicating the start of scanning the document in step S5, the process proceeds to step S6, and if not, the process proceeds to step S6. If so, return to step S4.
In step S6, the image input unit 13 scans the entire reading area of the reading area of the document table, acquires the image data of the entire reading area, and temporarily stores the image data as the entire image data 53 in the storage unit 50.

ステップS21において、原稿押さえ開閉検出部16が、原稿押さえの開閉状態をチェックする。
ステップS31において、上記チェックによって検出された現在の原稿押さえの開閉状態を、開閉情報52として、記憶部50に記憶する。
ただし、ステップS21とステップS31の処理は、別のマルチタスクとして常時実行し、現在の原稿押さえの開閉状態を、開閉情報52として記憶するようにしてもよい。
In step S21, the document holder open / close detection unit 16 checks the open / closed state of the document holder.
In step S31, the current open / closed state of the document holder detected by the above check is stored in the storage unit 50 as open / close information 52.
However, the processes of step S21 and step S31 may be constantly executed as separate multitasking, and the current open / closed state of the document holder may be stored as open / close information 52.

次に、図9と同様に、ステップS22において、原稿押さえが、開放状態の場合は、ステップS23に進み、閉鎖状態の場合は、ステップS24に進む。 Next, in the same manner as in FIG. 9, in step S22, if the document holder is in the open state, the process proceeds to step S23, and if the document holder is in the closed state, the process proceeds to step S24.

ステップS23において、出力された全体画像データに、黒枠画像を付加し、ステップS25に進む。これにより、上記した図5(a-4)に示したように、外枠領域に黒枠画像を付加した全体画像データが生成される。
ステップS24において、出力された全体画像データに、白枠画像を付加し、ステップS25に進む。これにより、上記した図6(a-5)に示したように、外枠領域に白枠画像を付加した全体画像データが生成される。
In step S23, a black frame image is added to the output overall image data, and the process proceeds to step S25. As a result, as shown in FIG. 5A-4 described above, the entire image data in which the black frame image is added to the outer frame area is generated.
In step S24, a white frame image is added to the output overall image data, and the process proceeds to step S25. As a result, as shown in FIG. 6A-5 described above, the entire image data in which the white frame image is added to the outer frame area is generated.

ステップS25において、原稿エッジ検出部17が、枠画像(黒枠画像または白枠画像)が付加された全体画像データから、個別画像のエッジを検出する。
その後、図8と同様に、ステップS9とS10の処理を行う。
すなわち、ステップS9において、原稿エッジ検出部17によって検出された原稿の輪郭に相当する長方形の4つの辺を利用して、個別画像の4つの頂点の位置座標(原稿頂点位置座標)を取得し、個別画像情報57として、各個別画像の入力画像番号と、原稿頂点位置座標とを対応付けて記憶する。
In step S25, the document edge detection unit 17 detects the edge of the individual image from the entire image data to which the frame image (black frame image or white frame image) is added.
After that, the processes of steps S9 and S10 are performed in the same manner as in FIG.
That is, in step S9, the position coordinates (manuscript vertex position coordinates) of the four vertices of the individual image are acquired by using the four sides of the rectangle corresponding to the contour of the document detected by the document edge detection unit 17. As the individual image information 57, the input image number of each individual image and the document vertex position coordinates are stored in association with each other.

ステップS10において、個別画像切出部19が、記憶された個別画像の原稿頂点位置座標を利用して、各原稿の個別画像の画像データを、全体画像データから切り出し、個別画像情報57の入力画像番号と対応付けて、個別画像ごとに、記憶部50に記憶する。
ただし、ステップS25における個別画像のエッジの検出が不十分な場合、たとえば、個別画像の輪郭となるエッジが直線状になっていない場合、エッジの情報が途中で途切れていて長方形のような2次元的な形状が特定できないような場合、あるいは、検出した長方形があらかじめ定めた所定の大きさ以下のような場合には、ステップS10において、個別画像を切り出すことができない場合がある。
In step S10, the individual image cutting unit 19 cuts out the image data of the individual image of each document from the whole image data by using the document vertex position coordinates of the stored individual image, and the input image of the individual image information 57. Each individual image is stored in the storage unit 50 in association with the number.
However, if the edge detection of the individual image in step S25 is insufficient, for example, if the edge that is the outline of the individual image is not linear, the edge information is interrupted in the middle and is two-dimensional like a rectangle. If the specific shape cannot be specified, or if the detected rectangle has a predetermined size or less, it may not be possible to cut out an individual image in step S10.

ステップS32において、切り出された個別画像の有無をチェックする。
記憶部50に記憶されている個別画像情報57を確認し、個別画像情報57に、1つ以上の個別画像が記憶されている場合は、切り出された個別画像が有りと判断され、1つも個別画像が記憶されていない場合は、切り出された個別画像が無いと判断される。
ステップS33において、切り出された個別画像が無いと判断された場合は、ステップS34に進み、切り出された個別画像が有りと判断された場合は、ステップS11に進む。
切り出された個別画像が無いと判断された場合は、個別画像の切り出しに失敗したことを意味する。
In step S32, the presence or absence of the cut out individual image is checked.
The individual image information 57 stored in the storage unit 50 is confirmed, and if one or more individual images are stored in the individual image information 57, it is determined that there is an individual image cut out, and each of them is individual. If the image is not stored, it is determined that there is no individual image cut out.
If it is determined in step S33 that there is no cut out individual image, the process proceeds to step S34, and if it is determined that there is a cut out individual image, the process proceeds to step S11.
If it is determined that there is no individual image to be cut out, it means that the individual image has failed to be cut out.

ステップS11において、個別画像の印刷などの出力を行う場合は、出力部15が、記憶部50に記憶された個別画像情報57を利用して、所定の出力形式に対応した出力すべき画像情報を生成し、生成された画像情報を出力する。たとえば、プリンタによる印刷処理や、ネットワークを介した送信処理を行う。これにより、一連の読取処理が終了する。 In step S11, when printing an individual image or the like, the output unit 15 uses the individual image information 57 stored in the storage unit 50 to output image information corresponding to a predetermined output format. Generate and output the generated image information. For example, printing processing by a printer or transmission processing via a network is performed. As a result, a series of reading processes is completed.

ステップS34において、現在の開閉情報52が、「開放」あるいは「閉鎖」のどちらになっているかをチェックし、開閉情報52が「開放」の場合、ステップS35に進み、開閉情報52が「閉鎖」の場合、ステップS38に進む。 In step S34, it is checked whether the current open / close information 52 is "open" or "closed", and if the open / close information 52 is "open", the process proceeds to step S35 and the open / close information 52 is "closed". In the case of, the process proceeds to step S38.

ステップS35において、表示部14に、原稿の読取エラーが発生したことと、原稿押さえを閉じて再度読取を実行すべきことを、表示する。
この場合は、現在、原稿押さえが開放された状態であるが、原稿押さえを閉鎖した後、再度読取を実行すれば、原稿の読取に成功する場合もあるので、原稿の配置はそのままで、原稿押さえを閉じてもらうように、ユーザに報知する。
また、スピーカを備え、音声出力機能を有している場合は、表示する内容を、音声で報知してもよい。
ユーザは、上記のような表示を見て、原稿押さえを閉じればよい。
In step S35, the display unit 14 indicates that a document scanning error has occurred and that the document holder should be closed and scanning should be performed again.
In this case, the original holder is currently open, but if the original holder is closed and then the original is scanned again, the original may be successfully read. Therefore, the original arrangement is left as it is. Notify the user to have the presser closed.
Further, when the speaker is provided and the voice output function is provided, the content to be displayed may be notified by voice.
The user may close the document holder after seeing the above display.

ステップS36において、ステップS21と同様に、原稿押さえ開閉検出部16が、原稿押さえの開閉状態をチェックする。
ステップS37において、原稿押さえが閉鎖状態に変化した場合は、ステップS4に戻り、再度、ステップS4以降の読取処理を実行する。
一方、まだ開放状態のままの場合は、ステップS35に戻る。
In step S36, similarly to step S21, the document holder open / close detection unit 16 checks the open / closed state of the document holder.
If the document holder is changed to the closed state in step S37, the process returns to step S4, and the scanning process after step S4 is executed again.
On the other hand, if it is still in the open state, the process returns to step S35.

ステップS38において、表示部14に、原稿の読取エラーが発生したことと、原稿押さえを開放して再度読取を実行すべきことを、表示する。
この場合は、現在、原稿押さえが閉鎖された状態であるが、原稿押さえを開放した後、再度読取を実行すれば、原稿の読取に成功する場合もあるので、原稿の配置はそのままで、原稿押さえを開放してもらうように、ユーザに報知する。
この場合も、スピーカを利用して、表示する内容を、音声で報知してもよい。
ユーザは、上記のような表示を見て、原稿押さえを開放すればよい。
In step S38, the display unit 14 indicates that a document reading error has occurred and that the document holder should be released and scanning should be performed again.
In this case, the original holder is currently closed, but if the original holder is opened and then the original is scanned again, the original may be successfully read. Therefore, the original arrangement is left as it is. Notify the user to release the presser.
In this case as well, the content to be displayed may be notified by voice using the speaker.
The user may open the document holder after seeing the above display.

ステップS39において、ステップS21と同様に、原稿押さえ開閉検出部16が、原稿押さえの開閉状態をチェックする。
ステップS40において、原稿押さえが開放状態に変化した場合は、ステップS4に戻り、再度、ステップS4以降の読取処理を実行する。
一方、まだ閉鎖状態のままの場合は、ステップS38に戻る。
In step S39, similarly to step S21, the document holder open / close detection unit 16 checks the open / closed state of the document holder.
If the document holder is changed to the open state in step S40, the process returns to step S4, and the scanning process after step S4 is executed again.
On the other hand, if it is still closed, the process returns to step S38.

以上の処理により、一度個別画像の切り出しに失敗した場合において、ユーザに、原稿押さえの開閉状態を変更する操作をしてもらい、変更後の原稿押さえの開閉状態に対応した個別画像の切出処理を行うようにしているので、原稿の個別画像の切り出しに成功する可能性を向上させることができる。
また、再度の読取処理を行う場合、ユーザは、原稿押さえの開閉状態を、開放から閉鎖に変更する操作か、あるいは、閉鎖から開放に変更する操作をするだけでよいので、ユーザの操作負担は少ない。
When the individual image fails to be cut out by the above processing, the user is asked to change the open / closed state of the original image holder, and the individual image cutout process corresponding to the changed open / closed state of the original image holder is performed. Therefore, it is possible to improve the possibility of succeeding in cutting out the individual image of the original.
Further, when the scanning process is performed again, the user only has to change the open / closed state of the document holder from open to closed or from closed to open, so that the user's operational burden is burdened. Few.

1 画像処理装置(MFP)、
11 制御部、
12 操作部、
13 画像入力部、
14 表示部、
15 出力部、
16 原稿押さえ開閉検出部、
17 原稿エッジ検出部、
18 個別画像座標取得部、
19 個別画像切出部、
20 外枠領域除去部、
30 枠画像付加部、
31 黒枠画像付加部、
32 白枠画像付加部、
50 記憶部、
51 外枠領域情報、
52 開閉情報、
53 全体画像データ、
54 外枠除去画像データ、
55 黒枠付加画像データ、
56 白枠付加画像データ、
57 個別画像情報
1 Image processing device (MFP),
11 Control unit,
12 Operation unit,
13 Image input section,
14 Display section,
15 Output section,
16 Document holder open / close detector,
17 Original edge detector,
18 Individual image coordinate acquisition unit,
19 Individual image cutout part,
20 Outer frame area removal part,
30 frame image addition part,
31 Black frame image addition part,
32 White frame image addition part,
50 memory unit,
51 Outer frame area information,
52 Opening and closing information,
53 Overall image data,
54 Outer frame removal image data,
55 Black frame additional image data,
56 White frame additional image data,
57 Individual image information

Claims (1)

読み取る原稿を載置する原稿台と、
前記原稿台に載置された複数の原稿を一括して読み取る画像入力部と、
前記一括して読み取られた原稿の個別画像を含む全体画像データを記憶する記憶部と、
前記全体画像データから、複数の原稿の個別画像を切り出す個別画像切出部と、
個別画像毎に所定の出力形式の情報を生成し、ネットワークを介して送信する出力部とを備えたことを特徴とする画像処理装置。
A manuscript stand on which the original to be read is placed, and
An image input unit that collectively reads a plurality of documents placed on the platen, and an image input unit.
A storage unit that stores the entire image data including the individual images of the collectively scanned documents, and a storage unit.
An individual image cutout unit that cuts out individual images of a plurality of originals from the entire image data,
An image processing device including an output unit that generates information in a predetermined output format for each individual image and transmits the information via a network.
JP2022000458A 2017-11-07 2022-01-05 Image processing device Pending JP2022046741A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022000458A JP2022046741A (en) 2017-11-07 2022-01-05 Image processing device
JP2023077965A JP2023099203A (en) 2022-01-05 2023-05-10 Image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017214605A JP7005290B2 (en) 2017-11-07 2017-11-07 Image processing equipment
JP2022000458A JP2022046741A (en) 2017-11-07 2022-01-05 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017214605A Division JP7005290B2 (en) 2017-11-07 2017-11-07 Image processing equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023077965A Division JP2023099203A (en) 2022-01-05 2023-05-10 Image processing device

Publications (1)

Publication Number Publication Date
JP2022046741A true JP2022046741A (en) 2022-03-23

Family

ID=87888620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022000458A Pending JP2022046741A (en) 2017-11-07 2022-01-05 Image processing device

Country Status (1)

Country Link
JP (1) JP2022046741A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212914A (en) * 2008-03-05 2009-09-17 Ricoh Co Ltd Image processing apparatus and image processing method
JP2009272994A (en) * 2008-05-09 2009-11-19 Panasonic Corp Image reader and image forming apparatus equipped with the same
JP2010206481A (en) * 2009-03-03 2010-09-16 Brother Ind Ltd Image composition output program, image composition output device, and image composition output system
JP2012194837A (en) * 2011-03-17 2012-10-11 Ricoh Co Ltd Image processing device, method, program, and recording medium
JP2016015589A (en) * 2014-07-01 2016-01-28 キヤノン株式会社 Image reader, control method and program therefor
JP2017108367A (en) * 2015-12-01 2017-06-15 シャープ株式会社 Image reader
WO2018124146A1 (en) * 2016-12-28 2018-07-05 京セラドキュメントソリューションズ株式会社 Image reading device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212914A (en) * 2008-03-05 2009-09-17 Ricoh Co Ltd Image processing apparatus and image processing method
JP2009272994A (en) * 2008-05-09 2009-11-19 Panasonic Corp Image reader and image forming apparatus equipped with the same
JP2010206481A (en) * 2009-03-03 2010-09-16 Brother Ind Ltd Image composition output program, image composition output device, and image composition output system
JP2012194837A (en) * 2011-03-17 2012-10-11 Ricoh Co Ltd Image processing device, method, program, and recording medium
JP2016015589A (en) * 2014-07-01 2016-01-28 キヤノン株式会社 Image reader, control method and program therefor
JP2017108367A (en) * 2015-12-01 2017-06-15 シャープ株式会社 Image reader
WO2018124146A1 (en) * 2016-12-28 2018-07-05 京セラドキュメントソリューションズ株式会社 Image reading device

Similar Documents

Publication Publication Date Title
JP7005290B2 (en) Image processing equipment
US9876925B2 (en) Image reading apparatus
JP6478478B2 (en) Copying machine, copying machine control method and program
US10165142B2 (en) Image reading apparatus including multi-crop function
US10681234B2 (en) Image processing apparatus and image processing method
US8675245B2 (en) Apparatus with capability of detecting two-dimensional code
JP6580965B2 (en) Image reading device
JP2022046741A (en) Image processing device
EP3163859B1 (en) Document processing device and data processing device
US20150054905A1 (en) Image forming apparatus and image processing method
US9712704B2 (en) Scanner providing centered alignment marks
JP2019140628A (en) Image reading device, image reading method, and program
JP2023099203A (en) Image processing device
JP6074968B2 (en) Image processing apparatus and control program
US10630856B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP4609576B2 (en) Printing device
JP2006295794A (en) Image processor, image processing method, image processing program and computer-readable recording medium recorded with the program
JP2004235680A (en) Manuscript reader
JP5550309B2 (en) Image processing apparatus and display control method
JP6731526B2 (en) Image reader
JP7215311B2 (en) Image reading device, image reading method and computer program
JP6617420B2 (en) Image processing apparatus and image forming apparatus
JP2008077197A (en) Image processing apparatus, image processing method, image processing program and recording medium
JP2010278593A (en) Original reading device and original set information setting method
JP2018019202A (en) Image forming apparatus and image forming program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230912