JP2020141274A - Image forming device and program - Google Patents

Image forming device and program Download PDF

Info

Publication number
JP2020141274A
JP2020141274A JP2019035782A JP2019035782A JP2020141274A JP 2020141274 A JP2020141274 A JP 2020141274A JP 2019035782 A JP2019035782 A JP 2019035782A JP 2019035782 A JP2019035782 A JP 2019035782A JP 2020141274 A JP2020141274 A JP 2020141274A
Authority
JP
Japan
Prior art keywords
correction range
binding portion
reading
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019035782A
Other languages
Japanese (ja)
Inventor
実 秋山
Minoru Akiyama
実 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2019035782A priority Critical patent/JP2020141274A/en
Publication of JP2020141274A publication Critical patent/JP2020141274A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Or Security For Electrophotography (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

To provide an image forming device and a program that can prevent unnecessary correction compared to a case where a reading method that reduces the correction range is not considered when the distortion that occurs in a binding part at the time of reading a book is corrected.SOLUTION: An image forming device 10A includes a conversion unit 30 that converts first reading data obtained by reading a spread page including a binding part of a book into multi-gradation data, a detection unit 32 that detects the correction range of the binding part from the multi-gradation data, an estimation unit 34 that estimates a reading method that reduces the correction range of the binding part from the correction range of the binding part detected by the detection unit 32 and the correction range of the binding part when the reading method is performed, and a display control unit 36 that performs control to display an image indicating the correction range of the binding part estimated by the estimation unit 34 together with the reading method.SELECTED DRAWING: Figure 2

Description

本発明は、画像形成装置及びプログラムに関する。 The present invention relates to an image forming apparatus and a program.

例えば、特許文献1には、コンタクトガラスの上もしくは下に接触したブック原稿を画像読取手段により読み取ったスキャン画像を補正する画像補正装置が記載されている。この画像補正装置は、ブック原稿のスキャン画像に含まれる線形状部分を用い、スキャン画像の「ハの字」歪み角度を検出する「ハの字」歪み角度検出手段を備える。この画像補正装置は、この「ハの字」歪み角度検出手段により検出された「ハの字」歪み角度に基づいてスキャン画像の「ハの字」歪みを補正した後にスキャン画像の副走査方向の形状歪みを補正する「ハの字」歪み補正手段を備える。 For example, Patent Document 1 describes an image correction device that corrects a scanned image obtained by scanning a book document in contact with the top or bottom of a contact glass by an image reading means. This image correction device includes a "H-shaped" distortion angle detecting means for detecting a "H-shaped" distortion angle of a scanned image by using a line-shaped portion included in a scanned image of a book document. This image correction device corrects the "H" distortion of the scanned image based on the "H" distortion angle detected by the "H" distortion angle detecting means, and then determines the sub-scanning direction of the scanned image. It is provided with a "H-shaped" distortion correction means for correcting shape distortion.

また、特許文献2には、原稿台に載置された見開き原稿を読み取る画像読取装置が記載されている。この画像読取装置は、見開き原稿が伏せて載置される原稿台と、原稿台上の見開き原稿を読み取る読取部と、を備える。この画像読取装置は、読取部によって見開き原稿を繰り返し読み取らせ、読み取った画像の中から、見開き原稿における原稿台からの浮き上がり部分に対応して画像に発生する劣化が許容条件を満たす画像を取得する制御部を備える。 Further, Patent Document 2 describes an image reading device that reads a spread document placed on a platen. This image reading device includes a document stand on which the spread document is placed face down, and a reading unit for reading the spread document on the document stand. This image scanning device repeatedly scans a spread document by a scanning unit, and acquires an image from the scanned images in which deterioration that occurs in the image corresponding to a portion of the spread document that rises from the platen satisfies an allowable condition. It has a control unit.

また、特許文献3には、地肌が文字等よりも暗い場合でも高精度に地肌を補正する画像処理装置が記載されている。この画像処理装置は、コンタクトガラス上に載置されたブック原稿を読み取る画像読取手段と、画像読み取り手段により読み取られたブック原稿のスキャン画像の画素値に基づき使用頻度が最大の色を地肌色として検出する地肌色検出手段と、を有する。この画像処理装置は、地肌色検出手段により検出した地肌色及びブック原稿の平坦部の画素値に基づきスキャン画像の綴じ部付近の地肌を補正する地肌補正手段を有する。 Further, Patent Document 3 describes an image processing device that corrects the background with high accuracy even when the background is darker than characters or the like. This image processing device uses an image reading means for reading a book document placed on a contact glass and a color with the highest frequency of use as the background color based on the pixel value of the scanned image of the book document read by the image reading means. It has a background color detecting means for detecting. This image processing device has a background color correcting means for correcting the background color near the binding portion of the scanned image based on the background color detected by the background color detecting means and the pixel value of the flat portion of the book document.

特開2003−304390号公報Japanese Unexamined Patent Publication No. 2003-304390 特開2010−268245号公報JP-A-2010-268245 特開2007−166430号公報JP-A-2007-166430

ところで、書籍の綴じ部を含む見開きページを原稿台に載置し、見開きページの読み取り時に綴じ部に発生する歪みを補正する場合に、補正範囲を小さくする読取方法については考慮されていない。このため、本来補正すべきではない部分にも余計な補正が行われて、画質が劣化する可能性がある。 By the way, when a spread page including a binding portion of a book is placed on a platen and distortion generated in the binding portion when reading the spread page is corrected, a reading method for reducing the correction range is not considered. Therefore, there is a possibility that the image quality may be deteriorated due to extra correction being performed even in a portion that should not be corrected.

本発明は、書籍の読み取り時に綴じ部に発生する歪みを補正する場合に、補正範囲を小さくする読取方法を考慮しない場合と比較して、余計な補正が行われることを防止することができる画像形成装置及びプログラムを提供することを目的とする。 INDUSTRIAL APPLICABILITY According to the present invention, when correcting distortion generated in a binding portion when reading a book, it is possible to prevent unnecessary correction from being performed as compared with the case where a reading method for reducing the correction range is not considered. It is an object of the present invention to provide a forming apparatus and a program.

上記目的を達成するために、第1態様に係る画像形成装置は、書籍の綴じ部を含む見開きページを読み取って得られる第1読取データを多階調データに変換する変換部と、前記多階調データから前記綴じ部の補正範囲を検出する検出部と、前記検出部により検出された前記綴じ部の補正範囲から、前記綴じ部の補正範囲を小さくする読取方法、及び前記読取方法を実施した場合における前記綴じ部の補正範囲を推定する推定部と、前記推定部により推定された前記綴じ部の補正範囲を示す画像を、前記読取方法と共に表示させる制御を行う制御部と、を備えている。 In order to achieve the above object, the image forming apparatus according to the first aspect includes a conversion unit that converts the first read data obtained by reading the spread page including the binding part of the book into multi-gradation data, and the multi-level image. A detection unit that detects the correction range of the binding portion from the adjustment data, a reading method that reduces the correction range of the binding portion from the correction range of the binding portion detected by the detection unit, and the reading method are carried out. It includes an estimation unit that estimates the correction range of the binding portion in the case, and a control unit that controls to display an image showing the correction range of the binding portion estimated by the estimation unit together with the reading method. ..

また、第2態様に係る画像形成装置は、第1態様に係る画像形成装置において、前記推定部が、機械学習により得られた学習データを用いて、前記読取方法、及び前記読取方法を実施した場合における前記綴じ部の補正範囲を推定する。 Further, in the image forming apparatus according to the second aspect, in the image forming apparatus according to the first aspect, the estimation unit carried out the reading method and the reading method using the learning data obtained by machine learning. The correction range of the binding portion in the case is estimated.

また、第3態様に係る画像形成装置は、第2態様に係る画像形成装置において、前記学習データが、書籍の綴じ部を含む見開きページを予め定められた状態で読み取って得られる学習用読取データから検出される前記綴じ部の補正範囲を示す画像に、前記綴じ部の補正範囲を小さくする読取方法、及び前記読取方法を実施した場合における前記綴じ部の補正範囲を示す画像を対応付けて学習されたデータとされている。 Further, the image forming apparatus according to the third aspect is the learning reading data obtained by reading the spread page including the binding portion of the book in a predetermined state in the image forming apparatus according to the second aspect. The image showing the correction range of the binding portion detected from is associated with a reading method for reducing the correction range of the binding portion and an image showing the correction range of the binding portion when the reading method is performed. It is said that the data was created.

また、第4態様に係る画像形成装置は、第3態様に係る画像形成装置において、前記学習データが、前記学習用読取データから検出された前記見開きページの地肌部分を示す画像が更に対応付けられている。 Further, in the image forming apparatus according to the fourth aspect, in the image forming apparatus according to the third aspect, the learning data is further associated with an image showing the background portion of the spread page detected from the reading reading data for learning. ing.

また、第5態様に係る画像形成装置は、第1態様〜第4態様のいずれか1の態様に係る画像形成装置において、前記推定部が、前記検出部により検出された前記綴じ部の補正範囲の形状に応じて異なる読取方法を推定する。 Further, the image forming apparatus according to the fifth aspect is the correction range of the binding portion detected by the detecting portion in the image forming apparatus according to any one of the first to fourth aspects. Estimate different reading methods depending on the shape of.

また、第6態様に係る画像形成装置は、第5態様に係る画像形成装置において、前記読取方法が、前記書籍を上から押圧する治具を用いた方法であり、かつ、前記綴じ部の補正範囲の形状に応じて前記治具の設置位置が異なる方法とされている。 Further, in the image forming apparatus according to the sixth aspect, in the image forming apparatus according to the fifth aspect, the reading method is a method using a jig for pressing the book from above, and the binding portion is corrected. It is said that the installation position of the jig differs depending on the shape of the range.

また、第7態様に係る画像形成装置は、第1態様〜第6態様のいずれか1の態様に係る画像形成装置において、前記変換部が、前記制御部により表示された読取方法を用いて、前記見開きページを再度読み取って得られる第2読取データを多階調データに変換し、前記検出部が、前記多階調データから前記綴じ部の補正範囲を検出し、前記制御部が、前記第1読取データから得られる前記綴じ部の補正範囲を示す画像と、前記第2読取データから得られる前記綴じ部の補正範囲を示す画像とを並べて表示させる制御を行う。 Further, in the image forming apparatus according to the seventh aspect, in the image forming apparatus according to any one of the first to sixth aspects, the conversion unit uses the reading method displayed by the control unit. The second read data obtained by re-reading the spread page is converted into multi-gradation data, the detection unit detects the correction range of the binding portion from the multi-gradation data, and the control unit controls the first. Control is performed so that an image showing the correction range of the binding portion obtained from the 1 reading data and an image showing the correction range of the binding portion obtained from the second reading data are displayed side by side.

また、第8態様に係る画像形成装置は、第7態様に係る画像形成装置において、前記第2読取データから得られる前記綴じ部の補正範囲を補正対象として、前記第2読取データを補正する補正部を更に備えている。 Further, the image forming apparatus according to the eighth aspect corrects the second reading data in the image forming apparatus according to the seventh aspect, with the correction range of the binding portion obtained from the second reading data as the correction target. It has more parts.

また、第9態様に係る画像形成装置は、第1態様〜第8態様のいずれか1の態様に係る画像形成装置において、前記変換部が、前記第1読取データを二値データに更に変換し、前記検出部が、前記二値データから前記綴じ部の影の形状を更に検出し、前記推定部が、前記検出部により検出された前記綴じ部の補正範囲及び前記綴じ部の影の形状から、前記綴じ部の補正範囲を小さくする読取方法、並びに前記読取方法を実施した場合における前記綴じ部の補正範囲及び前記綴じ部の影の形状を推定し、前記制御部が、前記推定部により推定された前記綴じ部の補正範囲及び前記綴じ部の影の形状を示す画像を、前記読取方法と共に表示させる制御を行う。 Further, in the image forming apparatus according to the ninth aspect, in the image forming apparatus according to any one aspect of the first to eighth aspects, the conversion unit further converts the first read data into binary data. , The detection unit further detects the shape of the shadow of the binding portion from the binary data, and the estimation unit further detects the shape of the shadow of the binding portion from the correction range of the binding portion and the shape of the shadow of the binding portion detected by the detection unit. , A reading method for reducing the correction range of the binding portion, and an estimation of the correction range of the binding portion and the shape of the shadow of the binding portion when the reading method is performed, and the control unit estimates by the estimation unit. Control is performed to display the corrected range of the binding portion and the image showing the shape of the shadow of the binding portion together with the reading method.

また、第10態様に係る画像形成装置は、第9態様に係る画像形成装置において、前記推定部が、機械学習により得られた学習データを用いて、前記読取方法、並びに前記読取方法を実施した場合における前記綴じ部の補正範囲及び前記綴じ部の影の形状を推定する。 Further, in the image forming apparatus according to the tenth aspect, in the image forming apparatus according to the ninth aspect, the estimation unit carried out the reading method and the reading method using the learning data obtained by machine learning. The correction range of the binding portion and the shape of the shadow of the binding portion in the case are estimated.

また、第11態様に係る画像形成装置は、第10態様に係る画像形成装置において、前記学習データが、書籍の綴じ部を含む見開きページを予め定められた状態で読み取って得られる学習用読取データから検出される前記綴じ部の補正範囲及び前記綴じ部の影の形状を示す画像に、前記綴じ部の補正範囲を小さくする読取方法、並びに前記読取方法を実施した場合における前記綴じ部の補正範囲及び前記綴じ部の影の形状を示す画像を対応付けて学習されたデータとされている。 In addition, the image forming apparatus according to the eleventh aspect is the learning reading data obtained by reading the spread page including the binding portion of the book in a predetermined state in the image forming apparatus according to the tenth aspect. A reading method for reducing the correction range of the binding portion and a correction range of the binding portion when the reading method is performed on an image showing the correction range of the binding portion and the shape of the shadow of the binding portion detected from And the data is learned by associating an image showing the shape of the shadow of the binding portion.

更に、上記目的を達成するために、第12態様に係るプログラムは、コンピュータを、第1態様〜第11態様のいずれか1の態様に係る画像形成装置が備える各部として機能させる。 Further, in order to achieve the above object, the program according to the twelfth aspect causes the computer to function as each part included in the image forming apparatus according to any one aspect of the first aspect to the eleventh aspect.

第1態様及び第12態様によれば、書籍の読み取り時に綴じ部に発生する歪みを補正する場合に、補正範囲を小さくする読取方法を考慮しない場合と比較して、余計な補正が行われることを防止することができる、という効果を有する。 According to the first aspect and the twelfth aspect, when correcting the distortion generated in the binding portion when reading a book, an extra correction is performed as compared with the case where the reading method for reducing the correction range is not considered. Has the effect of being able to prevent.

第2態様によれば、学習データを用いない場合と比較して、適切な読取方法及び補正範囲を推定することができる、という効果を有する。 According to the second aspect, there is an effect that an appropriate reading method and correction range can be estimated as compared with the case where the learning data is not used.

第3態様によれば、学習用読取データから得られる補正範囲を示す画像に、補正範囲を小さくする読取方法及び当該読取方法を実施した場合における補正範囲を示す画像を対応付けない場合と比較して、適切な学習データを得ることができる、という効果を有する。 According to the third aspect, the image showing the correction range obtained from the learning read data is compared with the case where the reading method for reducing the correction range and the image showing the correction range when the reading method is performed are not associated with each other. Therefore, it has the effect of being able to obtain appropriate learning data.

第4態様によれば、地肌部分を示す画像を対応付けない場合と比較して、適切な学習データを得ることができる、という効果を有する。 According to the fourth aspect, there is an effect that appropriate learning data can be obtained as compared with the case where the image showing the background portion is not associated.

第5態様によれば、補正範囲の形状に応じて同一の読取方法を推定する場合と比較して、適切な読取方法を推定することができる、という効果を有する。 According to the fifth aspect, there is an effect that an appropriate reading method can be estimated as compared with the case where the same reading method is estimated according to the shape of the correction range.

第6態様によれば、補正範囲の形状に応じて治具の設置位置が同一の読取方法である場合と比較して、適切な読取方法を得ることができる、という効果を有する。 According to the sixth aspect, there is an effect that an appropriate reading method can be obtained as compared with the case where the jigs are installed at the same reading method according to the shape of the correction range.

第7態様によれば、第1読取データから得られる補正範囲を示す画像と、第2読取データから得られる補正範囲を示す画像とを並べて表示させない場合と比較して、読取方法による補正範囲の違いを一見して把握することができる、という効果を有する。 According to the seventh aspect, the correction range according to the reading method is compared with the case where the image showing the correction range obtained from the first read data and the image showing the correction range obtained from the second read data are not displayed side by side. It has the effect of being able to see the difference at a glance.

第8態様によれば、第2読取データから得られる補正範囲を補正対象としない場合と比較して、余計な補正が行われることを防止することができる、という効果を有する。 According to the eighth aspect, there is an effect that it is possible to prevent extra correction from being performed as compared with the case where the correction range obtained from the second read data is not the correction target.

第9態様によれば、多階調データから得られる補正範囲のみを考慮する場合と比較して、綴じ部に対して適切な補正を行うことができる、という効果を有する。 According to the ninth aspect, there is an effect that an appropriate correction can be performed on the binding portion as compared with the case where only the correction range obtained from the multi-gradation data is considered.

第10態様によれば、学習データを用いない場合と比較して、適切な読取方法、並びに補正範囲及び影の形状を推定することができる、という効果を有する。 According to the tenth aspect, there is an effect that an appropriate reading method, a correction range, and a shadow shape can be estimated as compared with the case where the learning data is not used.

第11態様によれば、学習用読取データから得られる補正範囲を示す画像に、補正範囲を小さくする読取方法、並びに当該読取方法を実施した場合における補正範囲及び影の形状を示す画像を対応付けない場合と比較して、適切な学習データを得ることができる、という効果を有する。 According to the eleventh aspect, the image showing the correction range obtained from the learning reading data is associated with the reading method for reducing the correction range and the image showing the correction range and the shape of the shadow when the reading method is performed. It has the effect that appropriate learning data can be obtained as compared with the case without it.

第1の実施形態に係る画像形成装置の電気的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the electric structure of the image forming apparatus which concerns on 1st Embodiment. 第1の実施形態に係る画像形成装置の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the image forming apparatus which concerns on 1st Embodiment. 第1の実施形態に係る補正処理プログラムの処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the correction processing program which concerns on 1st Embodiment. 第1の実施形態に係る綴じ部の補正範囲の一例を示す図である。It is a figure which shows an example of the correction range of the binding part which concerns on 1st Embodiment. 第1の実施形態に係る推定結果画面の一例を示す正面図である。It is a front view which shows an example of the estimation result screen which concerns on 1st Embodiment. 第1の実施形態に係る補正範囲検出結果画面の一例を示す正面図である。It is a front view which shows an example of the correction range detection result screen which concerns on 1st Embodiment. (A)は、第1の実施形態に係る画像形成装置による第1読取方法の一例を示す側面図である。(B)は、第1の実施形態に係る画像形成装置による第2読取方法の一例を示す側面図である。(A) is a side view which shows an example of the 1st reading method by the image forming apparatus which concerns on 1st Embodiment. (B) is a side view showing an example of a second reading method by the image forming apparatus according to the first embodiment. (A)は、第1の実施形態に係る第1読取方法により得られた第1画像の一例を示す図である。(B)は、第1の実施形態に係る第2読取方法により得られた第2画像の一例を示す図である。(A) is a figure which shows an example of the 1st image obtained by the 1st reading method which concerns on 1st Embodiment. (B) is a figure which shows an example of the 2nd image obtained by the 2nd reading method which concerns on 1st Embodiment. 第1の実施形態に係る綴じ部の地肌色の学習例の説明に供する図である。It is a figure which provides the explanation of the learning example of the background color of the binding part which concerns on 1st Embodiment. 第1の実施形態に係る推定結果画面の別の例を示す正面図である。It is a front view which shows another example of the estimation result screen which concerns on 1st Embodiment. 第2の実施形態に係る画像形成装置の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the image forming apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る補正処理プログラムの処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the correction processing program which concerns on 2nd Embodiment. 第2の実施形態に係る綴じ部の補正範囲及び綴じ部の影の形状の一例を示す図である。It is a figure which shows an example of the correction range of the binding part and the shape of the shadow of the binding part which concerns on 2nd Embodiment. 第2の実施形態に係る推定結果画面の一例を示す正面図である。It is a front view which shows an example of the estimation result screen which concerns on 2nd Embodiment. 第2の実施形態に係る補正範囲検出結果画面の一例を示す正面図である。It is a front view which shows an example of the correction range detection result screen which concerns on 2nd Embodiment. (A)は、第2の実施形態に係る第1読取方法により得られた第1画像の一例を示す図である。(B)は、第2の実施形態に係る第2読取方法により得られた第2画像の一例を示す図である。(A) is a figure which shows an example of the 1st image obtained by the 1st reading method which concerns on 2nd Embodiment. (B) is a diagram showing an example of a second image obtained by the second reading method according to the second embodiment.

以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。 Hereinafter, an example of a mode for carrying out the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態に係る画像形成装置10Aの電気的な構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る画像形成装置10Aは、制御部12と、記憶部14と、表示部16と、操作部18と、画像形成部20と、原稿読取部22と、通信部24と、を備えている。
[First Embodiment]
FIG. 1 is a block diagram showing an example of an electrical configuration of the image forming apparatus 10A according to the first embodiment.
As shown in FIG. 1, the image forming apparatus 10A according to the present embodiment includes a control unit 12, a storage unit 14, a display unit 16, an operation unit 18, an image forming unit 20, a document reading unit 22, and a document reading unit 22. It includes a communication unit 24.

制御部12は、CPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、及び入出力インターフェース(I/O)12Dを備えており、これら各部がバスを介して各々接続されている。 The control unit 12 includes a CPU (Central Processing Unit) 12A, a ROM (Read Only Memory) 12B, a RAM (Random Access Memory) 12C, and an input / output interface (I / O) 12D, and each of these units is via a bus. Are connected to each other.

I/O12Dには、記憶部14と、表示部16と、操作部18と、画像形成部20と、原稿読取部22と、通信部24と、を含む各機能部が接続されている。これらの各機能部は、I/O12Dを介して、CPU12Aと相互に通信可能とされる。 Each functional unit including a storage unit 14, a display unit 16, an operation unit 18, an image forming unit 20, a document reading unit 22, and a communication unit 24 is connected to the I / O 12D. Each of these functional units can communicate with the CPU 12A via the I / O 12D.

制御部12は、画像形成装置10Aの一部の動作を制御するサブ制御部として構成されてもよいし、画像形成装置10Aの全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部12の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部12の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。 The control unit 12 may be configured as a sub control unit that controls a part of the operation of the image forming apparatus 10A, or may be configured as a part of a main control unit that controls the entire operation of the image forming apparatus 10A. Good. For example, an integrated circuit such as an LSI (Large Scale Integration) or an IC (Integrated Circuit) chipset is used for a part or all of each block of the control unit 12. An individual circuit may be used for each of the above blocks, or a circuit in which a part or all of them are integrated may be used. Each of the above blocks may be provided integrally, or some blocks may be provided separately. In addition, a part of each of the above blocks may be provided separately. The integration of the control unit 12 is not limited to the LSI, and a dedicated circuit or a general-purpose processor may be used.

記憶部14としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、本実施形態に係る補正処理プログラム14Aが記憶されている。なお、この補正処理プログラム14Aは、ROM12Bに記憶されていてもよい。また、記憶部14には、後述する学習データ14Bが記憶されている。これ学習データ14BもROM12Bに記憶されていてもよい。 As the storage unit 14, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like is used. The correction processing program 14A according to the present embodiment is stored in the storage unit 14. The correction processing program 14A may be stored in the ROM 12B. Further, the learning data 14B, which will be described later, is stored in the storage unit 14. The learning data 14B may also be stored in the ROM 12B.

補正処理プログラム14Aは、例えば、画像形成装置10Aに予めインストールされていてもよい。補正処理プログラム14Aは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布して、画像形成装置10Aに適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。 The correction processing program 14A may be pre-installed in, for example, the image forming apparatus 10A. The correction processing program 14A may be realized by storing it in a non-volatile storage medium or distributing it via a network and appropriately installing it in the image forming apparatus 10A. Examples of non-volatile storage media include CD-ROMs (Compact Disc Read Only Memory), optical magnetic disks, HDDs, DVD-ROMs (Digital Versatile Disc Read Only Memory), flash memories, memory cards, and the like. To.

表示部16には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部16は、タッチパネルを一体的に有している。操作部18には、テンキーやスタートキー等の各種の操作キーが設けられている。表示部16及び操作部18は、画像形成装置10Aのユーザから各種の指示を受け付ける。この各種の指示には、例えば、原稿の読み取りを開始させる指示や、原稿のコピーを開始させる指示等が含まれる。表示部16は、ユーザから受け付けた指示に応じて実行された処理の結果や、処理に対する通知等の各種の情報を表示する。 For the display unit 16, for example, a liquid crystal display (LCD), an organic EL (Electro Luminescence) display, or the like is used. The display unit 16 integrally has a touch panel. The operation unit 18 is provided with various operation keys such as a numeric keypad and a start key. The display unit 16 and the operation unit 18 receive various instructions from the user of the image forming apparatus 10A. These various instructions include, for example, an instruction to start reading the original, an instruction to start copying the original, and the like. The display unit 16 displays various information such as the result of the process executed in response to the instruction received from the user and the notification for the process.

原稿読取部22は、画像形成装置10Aの上部に設けられた図示しない自動原稿送り装置の給紙台に置かれた原稿を1枚ずつ取り込み、取り込んだ原稿を光学的に読み取って画像情報を得る。あるいは、原稿読取部22は、プラテンガラス等の原稿台に置かれた原稿を光学的に読み取って画像情報を得る。 The document reading unit 22 captures the documents placed on the paper feed tray of the automatic document feeder (not shown) provided above the image forming apparatus 10A one by one, and optically reads the captured documents to obtain image information. .. Alternatively, the document reading unit 22 optically reads the document placed on the platen such as platen glass to obtain image information.

画像形成部20は、原稿読取部22による読み取りによって得られた画像情報、又は、ネットワークを介して接続された外部のパーソナルコンピュータ(PC:Personal Computer)等から得られた画像情報に基づく画像を、紙等の記録媒体に形成する。なお、本実施形態においては、画像を形成する方式として、電子写真方式を例示して説明するが、インクジェット方式等の他の方式を採用してもよい。 The image forming unit 20 obtains image information obtained by reading by the document reading unit 22 or an image based on image information obtained from an external personal computer (PC) or the like connected via a network. Form on a recording medium such as paper. In the present embodiment, the electrophotographic method will be described as an example of the method for forming an image, but another method such as an inkjet method may be adopted.

画像を形成する方式が電子写真方式の場合、画像形成部20は、感光体ドラム、帯電部、露光部、現像部、転写部、及び定着部を含む。帯電部は、感光体ドラムに電圧を印加して感光体ドラムの表面を帯電させる。露光部は、帯電部で帯電された感光体ドラムを画像情報に応じた光で露光することにより感光体ドラムに静電潜像を形成する。現像部は、感光体ドラムに形成された静電潜像をトナーにより現像することで感光体ドラムにトナー像を形成する。転写部は、感光体ドラムに形成されたトナー像を記録媒体に転写する。定着部は、記録媒体に転写されたトナー像を加熱及び加圧により定着させる。 When the method of forming an image is an electrophotographic method, the image forming unit 20 includes a photoconductor drum, a charging unit, an exposure unit, a developing unit, a transfer unit, and a fixing unit. The charging unit applies a voltage to the photoconductor drum to charge the surface of the photoconductor drum. The exposed unit forms an electrostatic latent image on the photoconductor drum by exposing the photoconductor drum charged by the charged unit with light corresponding to the image information. The developing unit develops an electrostatic latent image formed on the photoconductor drum with toner to form a toner image on the photoconductor drum. The transfer unit transfers the toner image formed on the photoconductor drum to the recording medium. The fixing unit fixes the toner image transferred to the recording medium by heating and pressurizing.

通信部24は、ネットワークに接続されており、外部のPCとの間でネットワークを介して通信が可能とされる。通信部24とネットワークとは有線で接続されていてもよいし、無線で接続されていてもよい。なお、ネットワークには、一例として、インターネットや、LAN(Local Area Network)、WAN(Wide Area Network)等が適用される。 The communication unit 24 is connected to the network, and can communicate with an external PC via the network. The communication unit 24 and the network may be connected by wire or wirelessly. As an example, the Internet, LAN (Local Area Network), WAN (Wide Area Network), and the like are applied to the network.

ところで、上述したように、書籍の綴じ部を含む見開きページを原稿台に載置し、見開きページの読み取り時に綴じ部に発生する歪みを補正する場合に、補正範囲を小さくする読取方法については考慮されていない。この場合、本来補正すべきではない部分にも余計な補正が行われて、画質が劣化する可能性がある。 By the way, as described above, when a double-page spread including a binding portion of a book is placed on a platen and distortion generated in the binding portion when reading the double-page spread is corrected, a reading method for reducing the correction range is considered. It has not been. In this case, there is a possibility that the image quality may be deteriorated due to extra correction being performed on a portion that should not be corrected.

このため、本実施形態に係る画像形成装置10AのCPU12Aは、記憶部14に記憶されている補正処理プログラム14AをRAM12Cに書き込んで実行することにより、図2に示す各部として機能する。 Therefore, the CPU 12A of the image forming apparatus 10A according to the present embodiment functions as each unit shown in FIG. 2 by writing the correction processing program 14A stored in the storage unit 14 to the RAM 12C and executing the program.

図2は、第1の実施形態に係る画像形成装置10Aの機能的な構成の一例を示すブロック図である。
図2に示すように、本実施形態に係る画像形成装置10AのCPU12Aは、変換部30、検出部32、推定部34、表示制御部36、及び補正部38として機能する。表示制御部36は、制御部の一例である。また、記憶部14には、上述したように、学習データ14Bが記憶されている。
FIG. 2 is a block diagram showing an example of a functional configuration of the image forming apparatus 10A according to the first embodiment.
As shown in FIG. 2, the CPU 12A of the image forming apparatus 10A according to the present embodiment functions as a conversion unit 30, a detection unit 32, an estimation unit 34, a display control unit 36, and a correction unit 38. The display control unit 36 is an example of a control unit. Further, as described above, the learning data 14B is stored in the storage unit 14.

本実施形態に係る変換部30は、書籍の綴じ部を含む見開きページを読み取って得られる第1読取データを多階調データに変換する。ここでいう書籍とは、図書や雑誌等が含まれ、複数枚の紙の一方の端部が綴じられている状態のものである。また、多階調データとは、一例として、グレースケール等で表されるデータである。この多階調データへの変換には、公知の手法が用いられる。 The conversion unit 30 according to the present embodiment converts the first read data obtained by reading the spread page including the binding part of the book into multi-gradation data. The term "book" as used herein includes books, magazines, etc., and is in a state where one end of a plurality of sheets of paper is bound. Further, the multi-gradation data is, for example, data represented by gray scale or the like. A known method is used for the conversion to the multi-gradation data.

本実施形態に係る検出部32は、一例として、後述の図4に示すように、変換部30により変換されて得られた多階調データから、綴じ部の補正範囲を検出する。 As an example, the detection unit 32 according to the present embodiment detects the correction range of the binding unit from the multi-gradation data obtained by conversion by the conversion unit 30 as shown in FIG. 4 described later.

本実施形態に係る推定部34は、検出部32により検出された綴じ部の補正範囲から、綴じ部の補正範囲を小さくする読取方法、及び当該読取方法を実施した場合における綴じ部の補正範囲を推定する。これらの読取方法及び補正範囲の推定は、一例として、機械学習により得られた学習データ14Bを用いて行われる。推定部34は、検出部32により検出された綴じ部の補正範囲の形状に応じて異なる読取方法を推定する。この読取方法は、一例として、後述の図5に示すように、書籍を上から押圧する治具を用いた方法であり、かつ、綴じ部の補正範囲の形状に応じて治具の設置位置が異なる方法である。 The estimation unit 34 according to the present embodiment sets a reading method for reducing the correction range of the binding portion from the correction range of the binding portion detected by the detection unit 32, and a correction range of the binding portion when the reading method is implemented. presume. These reading methods and estimation of the correction range are performed using the learning data 14B obtained by machine learning as an example. The estimation unit 34 estimates different reading methods according to the shape of the correction range of the binding unit detected by the detection unit 32. As an example, this reading method is a method using a jig that presses a book from above, as shown in FIG. 5 described later, and the installation position of the jig is set according to the shape of the correction range of the binding portion. It's a different method.

本実施形態に係る表示制御部36は、一例として、後述の図5に示すように、推定部34により推定された綴じ部の補正範囲を示す画像を、読取方法と共に表示部16に表示させる制御を行う。 As an example, the display control unit 36 according to the present embodiment controls the display unit 16 to display an image showing the correction range of the binding unit estimated by the estimation unit 34 together with the reading method, as shown in FIG. 5 described later. I do.

ここで、ユーザが表示部16に表示された読取方法を用いて見開きページについて再度の読み取りを行った場合、変換部30は、当該見開きページを再度読み取って得られる第2読取データを多階調データに変換する。 Here, when the user rereads the spread page using the reading method displayed on the display unit 16, the conversion unit 30 reads the spread page again and obtains the second read data in multiple gradations. Convert to data.

この場合、検出部32は、第2読取データを変換して得られた多階調データから綴じ部の補正範囲を検出する。表示制御部36は、一例として、後述の図6に示すように、第1読取データから得られる綴じ部の補正範囲を示す画像と、第2読取データから得られる綴じ部の補正範囲を示す画像とを並べて表示部16に表示させる制御を行う。 In this case, the detection unit 32 detects the correction range of the binding unit from the multi-gradation data obtained by converting the second read data. As an example, the display control unit 36 has an image showing a correction range of the binding portion obtained from the first read data and an image showing a correction range of the binding portion obtained from the second read data, as shown in FIG. 6 described later. Is controlled to be displayed on the display unit 16 side by side.

本実施形態に係る補正部38は、第2読取データから得られる綴じ部の補正範囲を補正対象として、第2読取データを補正し、補正後の第2読取データに対応する画像を後段に出力する。 The correction unit 38 according to the present embodiment corrects the second read data with the correction range of the binding portion obtained from the second read data as the correction target, and outputs the image corresponding to the corrected second read data to the subsequent stage. To do.

次に、図3を参照して、第1の実施形態に係る画像形成装置10Aの作用を説明する。なお、図3は、第1の実施形態に係る補正処理プログラム14Aの処理の流れの一例を示すフローチャートである。 Next, the operation of the image forming apparatus 10A according to the first embodiment will be described with reference to FIG. Note that FIG. 3 is a flowchart showing an example of the processing flow of the correction processing program 14A according to the first embodiment.

まず、画像形成装置10Aに対して、一例として、ユーザにより、書籍の綴じ部を含む見開きページが原稿台の上に載置され、かつ、書籍スキャンモードの実行の開始が指示されると、補正処理プログラム14Aが起動され、以下の各ステップを実行する。 First, for the image forming apparatus 10A, as an example, when a double-page spread including a binding portion of a book is placed on a platen and an instruction to start execution of a book scanning mode is given, a correction is made. The processing program 14A is started, and each of the following steps is executed.

図3のステップ100では、変換部30が、原稿読取部22による見開きページの読み取りにより第1読取データを取得する。 In step 100 of FIG. 3, the conversion unit 30 acquires the first reading data by reading the spread page by the document reading unit 22.

ステップ102では、変換部30が、ステップ100で取得した第1読取データを多階調データに変換する。 In step 102, the conversion unit 30 converts the first read data acquired in step 100 into multi-gradation data.

ステップ104では、検出部32が、一例として、図4に示すように、ステップ102で変換した多階調データから、綴じ部の補正範囲を検出する。 In step 104, as an example, the detection unit 32 detects the correction range of the binding unit from the multi-gradation data converted in step 102, as shown in FIG.

図4は、第1の実施形態に係る綴じ部の補正範囲の一例を示す図である。
図4に示すように、多階調データにおいて矩形で囲まれた範囲が綴じ部の補正範囲として検出される。
FIG. 4 is a diagram showing an example of the correction range of the binding portion according to the first embodiment.
As shown in FIG. 4, in the multi-gradation data, the range surrounded by the rectangle is detected as the correction range of the binding portion.

例えば、見開きページを原稿台に載置すると、綴じ部の浮き上がりが発生する。この綴じ部の浮き上がりは、見開きページの幅方向における中央部付近が最も大きくなり、そこから左右の両側に向けて徐々に小さくなり、ページ面が原稿台に接触して消滅する。この浮き上がりによって多階調データには、対応する帯状部分が出現する。この帯状部分は、幅方向における中央部付近の濃度が最も濃く(高く)なり、そこから左右の両側に向けて濃度が徐々に淡く(低く)なる。見開きページの地色が白の場合、ページ面が原稿台と接触する位置を境に帯状部分も白くなり消滅する。 For example, when a double-page spread is placed on a platen, the binding portion is lifted. The floating of the binding portion is largest near the center portion in the width direction of the spread page, gradually decreases from there to both the left and right sides, and the page surface comes into contact with the platen and disappears. Due to this floating, a corresponding band-shaped portion appears in the multi-gradation data. In this band-shaped portion, the concentration near the central portion in the width direction becomes the highest (higher), and the density gradually becomes lighter (lower) toward both the left and right sides. When the background color of the double-page spread is white, the strip-shaped portion also becomes white and disappears at the position where the page surface contacts the platen.

従って、検出部32は、多階調データにおける帯状部分を、綴じ部の補正範囲として検出する。具体的には、多階調データにおいて濃度が基準濃度よりも濃い領域を、綴じ部の補正範囲として検出する。 Therefore, the detection unit 32 detects the band-shaped portion in the multi-gradation data as the correction range of the binding portion. Specifically, in the multi-gradation data, a region where the density is higher than the reference density is detected as the correction range of the binding portion.

ステップ106では、推定部34が、ステップ104で検出した綴じ部の補正範囲から、綴じ部の補正範囲を小さくする読取方法、及び当該読取方法を実施した場合における綴じ部の補正範囲を推定する。具体的には、上述したように、機械学習により得られた学習データ(すなわち学習モデル)14Bを用いて行われる。学習データ14Bは、一例として、1冊以上の書籍の綴じ部を含む見開きページを予め定められた状態(例えば、ある部分が浮いている状態)で読み取って得られる学習用読取データ(以下、「学習用読取画像」という。)を用いて学習されたデータである。具体的には、この学習用読取画像から検出される綴じ部の補正範囲を示す画像に、綴じ部の補正範囲を小さくする読取方法、及び当該読取方法を実施した場合における綴じ部の補正範囲を示す画像を対応付けて学習されたデータである。この学習データ14Bの具体的な生成方法については後述する。 In step 106, the estimation unit 34 estimates from the correction range of the binding portion detected in step 104, a reading method for reducing the correction range of the binding portion and a correction range of the binding portion when the reading method is performed. Specifically, as described above, the learning data (that is, the learning model) 14B obtained by machine learning is used. As an example, the learning data 14B is learning reading data obtained by reading a spread page including a binding portion of one or more books in a predetermined state (for example, a state in which a certain part is floating) (hereinafter, "" It is the data learned by using the "read image for learning"). Specifically, in the image showing the correction range of the binding portion detected from the read image for learning, a reading method for reducing the correction range of the binding portion and a correction range of the binding portion when the reading method is performed are added. It is the data learned by associating the shown images. A specific method for generating the learning data 14B will be described later.

ステップ108では、表示制御部36が、一例として、図5に示すように、ステップ106で推定した綴じ部の補正範囲を示す画像を、読取方法と共に表示部16に表示させる制御を行う。 In step 108, as an example, the display control unit 36 controls the display unit 16 to display an image showing the correction range of the binding unit estimated in step 106 on the display unit 16 together with the reading method, as shown in FIG.

図5は、第1の実施形態に係る推定結果画面16Aの一例を示す正面図である。
図5に示す推定結果画面16Aは、表示部16に表示される。
FIG. 5 is a front view showing an example of the estimation result screen 16A according to the first embodiment.
The estimation result screen 16A shown in FIG. 5 is displayed on the display unit 16.

図5に示す推定結果画面16Aには、ステップ104で検出した綴じ部の補正範囲を示す画像56A、ステップ106で推定した読取方法の説明図、及び当該読取方法を実施した場合における綴じ部の補正範囲を示す画像56Bが含まれている。 The estimation result screen 16A shown in FIG. 5 shows an image 56A showing the correction range of the binding portion detected in step 104, an explanatory diagram of the reading method estimated in step 106, and correction of the binding portion when the reading method is performed. Image 56B showing the range is included.

画像56Aは、第1読取データから得られた綴じ部の補正範囲R1を示す画像である。この補正範囲R1の形状は、書籍の手前側(図中下側)が浮き上がっていることを示している。この場合、学習データ14Bを用いて、この補正範囲R1の形状に合わせて、補正範囲を小さくする読取方法が推定される。具体的には、書籍の手前側が浮いているため、書籍の手前側を押圧しながら読み取りを行う読取方法が推定される。この場合、推定結果画面16Aには、一例として、治具を用いて書籍の手前側を押圧しながら読み取りを行う読取方法の説明図が表示される。この説明図によれば、原稿台52の上に載置された書籍56の手前側が治具50Aにより押圧され、治具50Aの上側を原稿台カバー54によって押圧している状態を表している。また、推定結果画面16Aには、この説明図と共に、一例として、「手前が浮いています。治具を使って下図のように書籍の手前側を押圧して読み取りをすることで補正範囲が減少します。」という説明文も表示される。画像56Bは、推定結果画面16Aに表示された読取方法を実施した場合における綴じ部の補正範囲R2を示す画像である。画像56Bの補正範囲R2は、画像56Aの補正範囲R1と比較して、小さくなっていることが分かる。また、推定結果画面16Aには、「再読み取りをしますか?」というメッセージと共に、「はい」ボタン及び「いいえ」ボタンが押圧操作可能に表示される。 Image 56A is an image showing the correction range R1 of the binding portion obtained from the first read data. The shape of the correction range R1 indicates that the front side (lower side in the figure) of the book is raised. In this case, using the learning data 14B, a reading method for reducing the correction range according to the shape of the correction range R1 is estimated. Specifically, since the front side of the book is floating, a reading method in which the front side of the book is pressed while reading is presumed. In this case, on the estimation result screen 16A, as an example, an explanatory diagram of a reading method in which reading is performed while pressing the front side of the book using a jig is displayed. According to this explanatory view, the front side of the book 56 placed on the platen 52 is pressed by the jig 50A, and the upper side of the jig 50A is pressed by the platen cover 54. In addition, on the estimation result screen 16A, along with this explanatory diagram, as an example, "The front is floating. The correction range is reduced by pressing the front side of the book with a jig and reading as shown in the figure below. The explanation "I will do it." Is also displayed. The image 56B is an image showing the correction range R2 of the binding portion when the reading method displayed on the estimation result screen 16A is performed. It can be seen that the correction range R2 of the image 56B is smaller than the correction range R1 of the image 56A. Further, on the estimation result screen 16A, a "Yes" button and a "No" button are displayed so that they can be pressed, along with a message "Do you want to read again?".

ステップ110では、表示制御部36が、一例として、上述の図5に示す推定結果画面16Aに表示された読取方法で再読み取りを行うか否かを判定する。再読み取りを行うと判定した場合(肯定判定の場合)、つまり、推定結果画面16Aで「はい」ボタンが押圧操作されたと判定した場合、ステップ112に移行する。一方、再読み取りを行わないと判定した場合(否定判定の場合)、つまり、推定結果画面16Aで「いいえ」ボタンが押圧操作されたと判定した場合、ステップ126に移行する。 In step 110, as an example, the display control unit 36 determines whether or not to perform re-reading by the reading method displayed on the estimation result screen 16A shown in FIG. 5 described above. If it is determined that rereading is to be performed (in the case of affirmative determination), that is, if it is determined that the "Yes" button has been pressed on the estimation result screen 16A, the process proceeds to step 112. On the other hand, if it is determined that rereading is not performed (in the case of a negative determination), that is, if it is determined that the "No" button has been pressed on the estimation result screen 16A, the process proceeds to step 126.

ステップ112では、変換部30が、一例として、図5に示す推定結果画面16Aに表示された読取方法を用いて、原稿読取部22による見開きページの再読み取りにより第2読取データを取得する。 In step 112, as an example, the conversion unit 30 acquires the second reading data by re-reading the spread page by the document reading unit 22 by using the reading method displayed on the estimation result screen 16A shown in FIG.

ステップ114では、変換部30が、ステップ112で取得した第2読取データを多階調データに変換する。 In step 114, the conversion unit 30 converts the second read data acquired in step 112 into multi-gradation data.

ステップ116では、検出部32が、ステップ114で変換した多階調データから、綴じ部の補正範囲を検出する。 In step 116, the detection unit 32 detects the correction range of the binding unit from the multi-gradation data converted in step 114.

ステップ118では、表示制御部36が、一例として、図6に示すように、第1読取データから得られる綴じ部の補正範囲を示す画像(前回)と、第2読取データから得られる綴じ部の補正範囲を示す画像(今回)とを並べて表示部16に表示させる制御を行う。 In step 118, as an example, as shown in FIG. 6, the display control unit 36 has an image (previous) showing a correction range of the binding portion obtained from the first read data and a binding portion obtained from the second read data. Control is performed so that the image (this time) showing the correction range is displayed side by side on the display unit 16.

図6は、第1の実施形態に係る補正範囲検出結果画面16Bの一例を示す正面図である。
図6に示す補正範囲検出結果画面16Bは、表示部16に表示される。
FIG. 6 is a front view showing an example of the correction range detection result screen 16B according to the first embodiment.
The correction range detection result screen 16B shown in FIG. 6 is displayed on the display unit 16.

図6に示す補正範囲検出結果画面16Bには、ステップ104で検出した綴じ部の補正範囲R1を示す画像56A(前回)、及び、ステップ116で検出した綴じ部の補正範囲R3を示す画像56C(今回)が含まれている。また、補正範囲検出結果画面16Bには、「再読み取りしますか?」というメッセージと共に、「はい」ボタン及び「いいえ」ボタンが押圧操作可能に表示される。 On the correction range detection result screen 16B shown in FIG. 6, an image 56A (previous) showing the correction range R1 of the binding portion detected in step 104 and an image 56C showing the correction range R3 of the binding portion detected in step 116 ( This time) is included. Further, on the correction range detection result screen 16B, a "Yes" button and a "No" button are displayed so that they can be pressed, along with a message "Do you want to read again?".

ステップ120では、表示制御部36が、一例として、上述の図6に示す補正範囲検出結果画面16Bに表示された補正範囲R3に対して再読み取りが不要か否かを判定する。再読み取りが不要と判定した場合(肯定判定の場合)、つまり、補正範囲検出結果画面16Bで「いいえ」ボタンが押圧操作されたと判定した場合、ステップ122に移行する。一方、再読み取りが必要と判定した場合(否定判定の場合)、つまり、補正範囲検出結果画面16Bで「はい」ボタンが押圧操作されたと判定した場合、ステップ112に戻り処理を繰り返す。 In step 120, as an example, the display control unit 36 determines whether or not rereading is unnecessary for the correction range R3 displayed on the correction range detection result screen 16B shown in FIG. 6 above. If it is determined that rereading is unnecessary (in the case of affirmative determination), that is, if it is determined that the "No" button has been pressed on the correction range detection result screen 16B, the process proceeds to step 122. On the other hand, when it is determined that rereading is necessary (in the case of a negative determination), that is, when it is determined that the "Yes" button has been pressed on the correction range detection result screen 16B, the process returns to step 112 and the process is repeated.

ステップ122では、補正部38が、一例として、上述の図6に示す補正範囲検出結果画面16Bに表示された補正範囲R3、すなわち、第2読取データから得られた綴じ部の補正範囲R3を補正対象として、第2読取データを補正する。 In step 122, as an example, the correction unit 38 corrects the correction range R3 displayed on the correction range detection result screen 16B shown in FIG. 6, that is, the correction range R3 of the binding portion obtained from the second read data. As a target, the second read data is corrected.

ステップ124では、補正部38が、補正後の第2読取データに対応する画像を後段に出力し、本補正処理プログラム14Aによる一連の処理を終了する。なお、出力先としては、例えば、画像形成部20でもよいし、記憶部14でもよい。 In step 124, the correction unit 38 outputs an image corresponding to the corrected second read data to the subsequent stage, and ends a series of processing by the correction processing program 14A. The output destination may be, for example, the image forming unit 20 or the storage unit 14.

一方、ステップ126では、補正部38が、一例として、上述の図5に示す推定結果画面16Aに表示された補正範囲R1、すなわち、第1読取データから得られた綴じ部の補正範囲R1を補正対象として、第1読取データを補正する。 On the other hand, in step 126, as an example, the correction unit 38 corrects the correction range R1 displayed on the estimation result screen 16A shown in FIG. 5, that is, the correction range R1 of the binding portion obtained from the first read data. As a target, the first read data is corrected.

ステップ128では、補正部38が、補正後の第1読取データに対応する画像を後段に出力し、本補正処理プログラム14Aによる一連の処理を終了する。 In step 128, the correction unit 38 outputs an image corresponding to the corrected first read data to the subsequent stage, and ends a series of processing by the correction processing program 14A.

次に、図7(A)、図7(B)、図8(A)、及び図8(B)を参照して、書籍の綴じ部の補正範囲を小さくする読取方法の学習例について説明する。なお、ここでは、治具50Aを用いない通常の読取方法を第1読取方法と称し、治具50Aを用いて補正範囲を小さくする読取方法を第2読取方法と称して説明する。 Next, with reference to FIGS. 7 (A), 7 (B), 8 (A), and 8 (B), a learning example of a reading method for reducing the correction range of the binding portion of the book will be described. .. Here, a normal reading method that does not use the jig 50A will be referred to as a first reading method, and a reading method that uses the jig 50A to reduce the correction range will be referred to as a second reading method.

図7(A)は、第1の実施形態に係る画像形成装置10Aによる第1読取方法の一例を示す側面図である。
図7(A)に示す第1読取方法では、原稿台52の上に載置された書籍58の奥側が原稿台カバー54により押圧され、書籍58の手前側が浮いている状態を示している。書籍58は、学習用の書籍である。なお、書籍58の右側(原稿台カバー54の開閉機構(図示省略)から遠い側)を手前側とし、書籍58の左側(原稿台カバー54の開閉機構に近い側)を奥側とする。
FIG. 7A is a side view showing an example of the first reading method by the image forming apparatus 10A according to the first embodiment.
In the first scanning method shown in FIG. 7A, the back side of the book 58 placed on the platen 52 is pressed by the platen cover 54, and the front side of the book 58 is floating. Book 58 is a learning book. The right side of the book 58 (the side far from the opening / closing mechanism (not shown) of the platen cover 54) is the front side, and the left side of the book 58 (the side close to the opening / closing mechanism of the platen cover 54) is the back side.

図7(B)は、第1の実施形態に係る画像形成装置10Aによる第2読取方法の一例を示す側面図である。
図7(B)に示す第2読取方法では、原稿台52の上に載置された書籍58の手前側が治具50Aにより押圧され、治具50Aの上側を原稿台カバー54によって押圧している状態を示している。
FIG. 7B is a side view showing an example of the second reading method by the image forming apparatus 10A according to the first embodiment.
In the second scanning method shown in FIG. 7B, the front side of the book 58 placed on the platen 52 is pressed by the jig 50A, and the upper side of the jig 50A is pressed by the platen cover 54. Indicates the state.

図8(A)は、第1の実施形態に係る第1読取方法により得られた第1画像58Aの一例を示す図である。
図8(A)に示す第1画像58Aは、書籍58の綴じ部の補正範囲R11を示す画像である。この補正範囲R11は、書籍58の見開きページを第1読取方法により読み取って得られた学習用読取画像から検出される。
FIG. 8A is a diagram showing an example of the first image 58A obtained by the first reading method according to the first embodiment.
The first image 58A shown in FIG. 8A is an image showing the correction range R11 of the binding portion of the book 58. The correction range R11 is detected from the learning scanned image obtained by scanning the spread page of the book 58 by the first scanning method.

図8(B)は、第1の実施形態に係る第2読取方法により得られた第2画像58Bの一例を示す図である。
図8(B)に示す第2画像58Bは、書籍58の綴じ部の補正範囲R12を示す画像である。第2画像58Bの補正範囲R12は、第1画像58Aの補正範囲R11と比較して、小さくなっていることが分かる。
FIG. 8B is a diagram showing an example of the second image 58B obtained by the second reading method according to the first embodiment.
The second image 58B shown in FIG. 8B is an image showing the correction range R12 of the binding portion of the book 58. It can be seen that the correction range R12 of the second image 58B is smaller than the correction range R11 of the first image 58A.

読取方法の学習に際して、書籍58の見開きページ毎に、上記2種類の第1読取方法及び第2読取方法を用いた読み取りを実施し、書籍58の各見開きページについて、第1画像58A及び第2画像58Bのペアを取得する。このとき、推定精度の観点から、書籍58を読み取る向き(例えば、縦向き、横向き等)を変化させ、各向きについて、第1画像58A及び第2画像58Bのペアを取得することが望ましい。また、書籍58の浮いている部分(例えば、手前側部分、右側部分、左側部分、奥側部分等)を変化させ、各部分について、第1画像58A及び第2画像58Bのペアを取得することが望ましい。 When learning the reading method, reading is performed using the above two types of first reading method and second reading method for each spread page of the book 58, and the first image 58A and the second spread page of the book 58 are read. Acquire a pair of images 58B. At this time, from the viewpoint of estimation accuracy, it is desirable to change the reading direction (for example, vertical direction, horizontal direction, etc.) of the book 58 and acquire a pair of the first image 58A and the second image 58B for each direction. Further, the floating part of the book 58 (for example, the front side part, the right side part, the left side part, the back side part, etc.) is changed, and a pair of the first image 58A and the second image 58B is acquired for each part. Is desirable.

そして、第1画像58Aの補正範囲R11の位置、及び、第2画像58Bの補正範囲R12の位置を各々指定し、第1画像58Aに対して、第2画像58B及び第2読取方法を対応付ける。対応付けた第1画像58A、第2画像58B、及び第2読取方法を学習用データとして機械学習させて、上述の図2に示す学習データ14Bを生成する。この機械学習の手法は、画像認識に用いられる手法であればよく、特に限定されるものではないが、一例として、ニューラルネットワーク等が適用される。 Then, the position of the correction range R11 of the first image 58A and the position of the correction range R12 of the second image 58B are designated, and the second image 58B and the second reading method are associated with the first image 58A. The associated first image 58A, second image 58B, and second reading method are machine-learned as learning data to generate the learning data 14B shown in FIG. 2 above. This machine learning method may be any method used for image recognition and is not particularly limited, but a neural network or the like is applied as an example.

なお、第1画像58Aを一定の角度範囲(例えば5度以上60度以下)で回転させ、回転させた角度を対応付けて機械学習させることで、書籍が斜めに置かれた場合でも、適切な第2画像及び第2読取方法が推定されるにようにしておくことが望ましい。 By rotating the first image 58A within a certain angle range (for example, 5 degrees or more and 60 degrees or less) and performing machine learning in association with the rotated angles, it is appropriate even when the book is placed at an angle. It is desirable that the second image and the second reading method be estimated.

また、第2画像58Bの補正範囲R12に対して拡大や濃度補正等を行う場合、第1画像58A及び第2画像58Bのペアに補正率及び補正する位置を対応付けて機械学習することが望ましい。 Further, when enlarging or correcting the density of the correction range R12 of the second image 58B, it is desirable to perform machine learning by associating the correction factor and the correction position with the pair of the first image 58A and the second image 58B. ..

また、学習データ14Bには、書籍58の読取画像から検出された見開きページの地肌部分を示す画像が対応付けられていてもよい。書籍58の地肌部分に関しては、書籍の種類によって地肌となる部分が異なっている。この場合、一例として、図9に示すように、レイアウトの異なる様々な種類の書籍(具体的には、辞書、雑誌、教科書、・・・)について綴じ部の地肌色を機械学習し、読み取り時に綴じ部の地肌色を推定し、綴じ部の補正に用いるようにする。 Further, the learning data 14B may be associated with an image showing the background portion of the spread page detected from the scanned image of the book 58. Regarding the background portion of the book 58, the background portion differs depending on the type of book. In this case, as an example, as shown in FIG. 9, various types of books with different layouts (specifically, dictionaries, magazines, textbooks, etc.) are machine-learned about the background color of the binding part at the time of reading. Estimate the background color of the binding part and use it to correct the binding part.

図9は、第1の実施形態に係る綴じ部の地肌色の学習例の説明に供する図である。 FIG. 9 is a diagram provided for explaining a learning example of the background color of the binding portion according to the first embodiment.

(S1)では、ある書籍の見開きページを第1読取方法により読み取って得られた学習用読取画像60を示している。この学習用読取画像60には、綴じ部60Aが含まれている。 (S1) shows a learning scanned image 60 obtained by scanning a spread page of a book by the first scanning method. The learning scanned image 60 includes a binding portion 60A.

(S2)では、学習用読取画像60を綴じ部60Aに対して垂直に分割し、複数の行L1、L2、・・・を取得する。 In (S2), the read image 60 for learning is divided perpendicularly to the binding portion 60A, and a plurality of rows L1, L2, ... Are acquired.

(S3)では、行L1について、左ページの地肌部分JL1及び地肌補正範囲HL1を指定し、かつ、右ページの地肌部分JR1及び地肌補正範囲HR1を指定し、左右ページ各々の地肌部分及び地肌補正範囲を機械学習させる。また、同様に、行L2について、左ページの地肌部分JL2及び地肌補正範囲HL2を指定し、かつ、右ページの地肌部分JR2及び地肌補正範囲HR2を指定し、左右ページ各々の地肌部分及び地肌補正範囲を機械学習させる。他の行についても同様にして左右ページ各々の地肌部分及び地肌補正範囲を機械学習させる。 In (S3), for the line L1, the background portion JL1 and the background correction range HL1 on the left page are specified, and the background portion JR1 and the background correction range HR1 on the right page are specified, and the background portion and the background correction on each of the left and right pages are specified. Machine learn the range. Similarly, for the line L2, the background portion JL2 and the background correction range HL2 on the left page are specified, and the background portion JR2 and the background correction range HR2 on the right page are specified, and the background portion and the background correction on each of the left and right pages are specified. Machine learn the range. For the other lines, the background part and the background correction range of each of the left and right pages are machine-learned in the same manner.

ここで、上記では、綴じ部の補正範囲を小さくする読取方法として、治具を用いたが、別の例として、図10に示すようにユーザの両手を用いるようにしてもよい。 Here, in the above, a jig is used as a reading method for reducing the correction range of the binding portion, but as another example, both hands of the user may be used as shown in FIG.

図10は、第1の実施形態に係る推定結果画面16Aの別の例を示す正面図である。
図10に示す推定結果画面16Aは、上述の図3に示すステップ108において表示部16に表示される。
FIG. 10 is a front view showing another example of the estimation result screen 16A according to the first embodiment.
The estimation result screen 16A shown in FIG. 10 is displayed on the display unit 16 in step 108 shown in FIG. 3 described above.

図10に示す推定結果画面16Aには、上述の図5に示す例と同様に、ステップ104で検出した綴じ部の補正範囲を示す画像56A、ステップ106で推定した読取方法の説明図、及び当該読取方法を実施した場合における綴じ部の補正範囲を示す画像56Bが含まれている。 The estimation result screen 16A shown in FIG. 10 shows an image 56A showing the correction range of the binding portion detected in step 104, an explanatory diagram of the reading method estimated in step 106, and the same as the example shown in FIG. Image 56B showing the correction range of the binding portion when the reading method is carried out is included.

画像56Aは、図5に示す例と同様に、第1読取データから得られた綴じ部の補正範囲R1を示す画像である。図10に示す推定結果画面16Aには、治具に代えて、両手を用いて書籍の手前側を押圧しながら読み取りを行う読取方法の説明図が表示される。この説明図によれば、原稿台52の上に載置された書籍56の手前側を両手50Bによって押圧している状態を表している。また、図10に示す推定結果画面16Aには、この説明図と共に、一例として、「手前が浮いています。両手を使って下図のように書籍の手前側を押圧して読み取りをすることで補正範囲が減少します。」という説明文も表示される。画像56Bは、図5に示す例と同様に、推定結果画面16Aに表示された読取方法を実施した場合における綴じ部の補正範囲R2を示す画像である。画像56Bの補正範囲R2は、画像56Aの補正範囲R1と比較して、小さくなっていることが分かる。また、推定結果画面16Aには、「再読み取りをしますか?」というメッセージと共に、「はい」ボタン及び「いいえ」ボタンが押圧操作可能に表示される。 Image 56A is an image showing the correction range R1 of the binding portion obtained from the first read data, as in the example shown in FIG. On the estimation result screen 16A shown in FIG. 10, an explanatory diagram of a reading method for reading while pressing the front side of the book with both hands is displayed instead of the jig. According to this explanatory view, a state in which the front side of the book 56 placed on the platen 52 is pressed by both hands 50B is shown. Further, on the estimation result screen 16A shown in FIG. 10, along with this explanatory diagram, as an example, "the front is floating. Correction is made by pressing the front side of the book with both hands as shown in the figure below to read. The description is also displayed. Image 56B is an image showing the correction range R2 of the binding portion when the reading method displayed on the estimation result screen 16A is performed, as in the example shown in FIG. It can be seen that the correction range R2 of the image 56B is smaller than the correction range R1 of the image 56A. Further, on the estimation result screen 16A, a "Yes" button and a "No" button are displayed so that they can be pressed, along with a message "Do you want to read again?".

なお、両手を用いる場合も、治具を用いる場合と同様に、書籍58の各見開きページについて、上述の図8(A)及び図8(B)に示すように、第1画像58A及び第2画像58Bのペアを取得し、機械学習を行うことにより、学習データ14Bが生成される。 In the case of using both hands, as in the case of using the jig, for each spread page of the book 58, as shown in FIGS. 8 (A) and 8 (B) above, the first image 58A and the second image 58A and the second Learning data 14B is generated by acquiring a pair of images 58B and performing machine learning.

また、ユーザの両手を用いて書籍を押圧する場合、ユーザは両手がふさがってしまうため、再読み取りに際して開始ボタンを操作することができない場合がある。このため、画像形成装置10Aには、自動的に再読み取りの開始を実行するタイマ機能を備えておくことが望ましい。例えば、図10に示す「はい」ボタンが押圧操作されてから、一定時間後に自動的に再読み取りの実行を開始するようにセットされる。 Further, when the book is pressed with both hands of the user, the user may not be able to operate the start button at the time of re-reading because both hands are occupied. Therefore, it is desirable that the image forming apparatus 10A has a timer function that automatically starts re-reading. For example, after the "Yes" button shown in FIG. 10 is pressed, it is set to automatically start rereading after a certain period of time.

このように本実施形態によれば、書籍の第1読取データから得られる多階調データを用いて、綴じ部の補正範囲を小さくする読取方法及び当該読取方法を実施した場合における綴じ部の補正範囲を示す画像が表示される。ユーザが表示された読取方法を実施することで、綴じ部の補正範囲を小さくした読取画像が取得され、この読取画像に対して余計な補正が行われることが防止される。 As described above, according to the present embodiment, a reading method for reducing the correction range of the binding portion and correction of the binding portion when the reading method is performed using the multi-gradation data obtained from the first reading data of the book. An image showing the range is displayed. By implementing the scanning method displayed by the user, a scanned image in which the correction range of the binding portion is reduced is acquired, and it is possible to prevent unnecessary correction from being performed on the scanned image.

[第2の実施形態]
上記第1の実施形態では、多階調データを用いて綴じ部の補正範囲を小さくする読取方法及び当該読取方法を実施した場合における綴じ部の補正範囲を示す画像を表示する形態について説明した。本実施形態では、多階調データ及び二値データを用いて綴じ部の補正範囲を小さくする読取方法、並びに当該読取方法を実施した場合における綴じ部の補正範囲及び綴じ部の影の形状を示す画像を表示する形態について説明する。
[Second Embodiment]
In the first embodiment, a reading method for reducing the correction range of the binding portion using multi-gradation data and a mode for displaying an image showing the correction range of the binding portion when the reading method is performed have been described. In the present embodiment, a reading method for reducing the correction range of the binding portion using multi-gradation data and binary data, and the correction range of the binding portion and the shape of the shadow of the binding portion when the reading method is performed are shown. A form for displaying an image will be described.

図11は、第2の実施形態に係る画像形成装置10Bの機能的な構成の一例を示すブロック図である。
図11に示すように、本実施形態に係る画像形成装置10BのCPU12Aは、変換部40、検出部42、推定部44、表示制御部46、及び補正部48として機能する。表示制御部46は、制御部の一例である。また、記憶部14には、学習データ14Cが記憶されている。
FIG. 11 is a block diagram showing an example of a functional configuration of the image forming apparatus 10B according to the second embodiment.
As shown in FIG. 11, the CPU 12A of the image forming apparatus 10B according to the present embodiment functions as a conversion unit 40, a detection unit 42, an estimation unit 44, a display control unit 46, and a correction unit 48. The display control unit 46 is an example of a control unit. Further, the learning data 14C is stored in the storage unit 14.

本実施形態に係る変換部40は、書籍の綴じ部を含む見開きページを読み取って得られる第1読取データを多階調データ及び二値データに変換する。なお、二値データとは、白黒で表されるデータである。この二値データへの変換には、公知の手法が用いられる。 The conversion unit 40 according to the present embodiment converts the first reading data obtained by reading the spread page including the binding part of the book into multi-gradation data and binary data. The binary data is data represented in black and white. A known method is used for the conversion to the binary data.

本実施形態に係る検出部42は、一例として、後述の図13に示すように、変換部40により変換されて得られた多階調データから綴じ部の補正範囲を検出し、二値データから綴じ部の影の形状を検出する。 As an example, the detection unit 42 according to the present embodiment detects the correction range of the binding unit from the multi-gradation data converted by the conversion unit 40 and obtained from the binary data, as shown in FIG. 13 described later. Detects the shape of the shadow of the binding part.

本実施形態に係る推定部44は、検出部42により検出された綴じ部の補正範囲及び綴じ部の影の形状から、綴じ部の補正範囲を小さくする読取方法、並びに当該読取方法を実施した場合における綴じ部の補正範囲及び綴じ部の影の形状を推定する。これらの読取方法、補正範囲、及び影の形状の推定は、一例として、機械学習により得られた学習データ14Cを用いて行われる。推定部44は、検出部42により検出された綴じ部の補正範囲の形状及び綴じ部の影の形状に応じて異なる読取方法を推定する。この読取方法は、一例として、後述の図14に示すように、書籍を上から押圧する治具を用いた方法であり、かつ、綴じ部の補正範囲の形状及び綴じ部の影の形状に応じて治具の設置位置が異なる方法である。 When the estimation unit 44 according to the present embodiment implements a reading method for reducing the correction range of the binding portion from the correction range of the binding portion and the shape of the shadow of the binding portion detected by the detection unit 42, and the reading method. The correction range of the binding part and the shape of the shadow of the binding part are estimated. These reading methods, correction ranges, and shadow shape estimates are performed using, for example, learning data 14C obtained by machine learning. The estimation unit 44 estimates different reading methods according to the shape of the correction range of the binding portion detected by the detection unit 42 and the shape of the shadow of the binding portion. As an example, this reading method is a method using a jig that presses the book from above, as shown in FIG. 14 described later, and also depends on the shape of the correction range of the binding portion and the shape of the shadow of the binding portion. This is a method in which the jigs are installed in different positions.

本実施形態に係る表示制御部46は、一例として、後述の図14に示すように、推定部44により推定された綴じ部の補正範囲及び綴じ部の影の形状を示す画像を、読取方法と共に表示部16に表示させる制御を行う。 As an example, the display control unit 46 according to the present embodiment reads an image showing the correction range of the binding portion estimated by the estimation unit 44 and the shape of the shadow of the binding portion together with the reading method, as shown in FIG. 14 described later. Control is performed so that the display unit 16 displays the image.

ここで、ユーザが表示部16に表示された読取方法を用いて見開きページについて再度の読み取りを行った場合、変換部40は、当該見開きページを再度読み取って得られる第2読取データを多階調データ及び二値データに変換する。 Here, when the user re-reads the spread page using the reading method displayed on the display unit 16, the conversion unit 40 re-reads the spread page and multi-gradations the second read data obtained. Convert to data and binary data.

この場合、検出部42は、第2読取データを変換して得られた多階調データから綴じ部の補正範囲を検出し、二値データから綴じ部の影の形状を検出する。表示制御部46は、一例として、後述の図15に示すように、第1読取データから得られる綴じ部の補正範囲及び綴じ部の影の形状を示す画像と、第2読取データから得られる綴じ部の補正範囲及び綴じ部の影の形状を示す画像とを並べて表示部16に表示させる制御を行う。 In this case, the detection unit 42 detects the correction range of the binding portion from the multi-gradation data obtained by converting the second read data, and detects the shape of the shadow of the binding portion from the binary data. As an example, the display control unit 46 has, as shown in FIG. 15 described later, an image showing the correction range of the binding portion obtained from the first reading data and the shape of the shadow of the binding portion, and the binding obtained from the second reading data. Control is performed so that the correction range of the portion and the image showing the shape of the shadow of the binding portion are displayed side by side on the display unit 16.

本実施形態に係る補正部48は、第2読取データから得られる綴じ部の補正範囲及び綴じ部の影の形状を補正対象として、第2読取データを補正し、補正後の第2読取データに対応する画像を後段に出力する。 The correction unit 48 according to the present embodiment corrects the second reading data with the correction range of the binding portion obtained from the second reading data and the shape of the shadow of the binding portion as the correction target, and uses the corrected second reading data as the correction target. The corresponding image is output to the latter stage.

次に、図12を参照して、第2の実施形態に係る画像形成装置10Bの作用を説明する。なお、図12は、第2の実施形態に係る補正処理プログラム14Aの処理の流れの一例を示すフローチャートである。 Next, the operation of the image forming apparatus 10B according to the second embodiment will be described with reference to FIG. Note that FIG. 12 is a flowchart showing an example of the processing flow of the correction processing program 14A according to the second embodiment.

まず、画像形成装置10Bに対して、一例として、ユーザにより、書籍の綴じ部を含む見開きページが原稿台の上に載置され、かつ、書籍スキャンモードの実行の開始が指示されると、補正処理プログラム14Aが起動され、以下の各ステップを実行する。 First, for the image forming apparatus 10B, as an example, when a double-page spread including a binding portion of a book is placed on a platen and an instruction is given to start execution of a book scanning mode, a correction is made. The processing program 14A is started, and each of the following steps is executed.

図12のステップ130では、変換部40が、原稿読取部22による見開きページの読み取りにより第1読取データを取得する。 In step 130 of FIG. 12, the conversion unit 40 acquires the first reading data by reading the spread page by the document reading unit 22.

ステップ132では、変換部40が、ステップ130で取得した第1読取データを多階調データ及び二値データに変換する。 In step 132, the conversion unit 40 converts the first read data acquired in step 130 into multi-gradation data and binary data.

ステップ134では、検出部42が、一例として、図13に示すように、ステップ132で変換した多階調データから綴じ部の補正範囲を検出し、二値データから綴じ部の影の形状を検出する。 In step 134, as an example, as shown in FIG. 13, the detection unit 42 detects the correction range of the binding portion from the multi-gradation data converted in step 132, and detects the shape of the shadow of the binding portion from the binary data. To do.

図13は、第2の実施形態に係る綴じ部の補正範囲及び綴じ部の影の形状の一例を示す図である。
図13に示すように、二値データにおいて黒い矩形で囲まれた範囲が綴じ部の影の形状として検出され、多階調データにおいて矩形で囲まれた範囲が綴じ部の補正範囲として検出される。
FIG. 13 is a diagram showing an example of the correction range of the binding portion and the shape of the shadow of the binding portion according to the second embodiment.
As shown in FIG. 13, in the binary data, the range surrounded by the black rectangle is detected as the shadow shape of the binding portion, and in the multi-gradation data, the range surrounded by the rectangle is detected as the correction range of the binding portion. ..

ステップ136では、推定部44が、ステップ134で検出した綴じ部の補正範囲及び綴じ部の影の形状から、綴じ部の補正範囲を小さくする読取方法、当該読取方法を実施した場合における綴じ部の補正範囲、及び綴じ部の影の形状を推定する。具体的には、上述したように、機械学習により得られた学習データ(すなわち学習モデル)14Cを用いて行われる。学習データ14Cは、一例として、1冊以上の書籍の綴じ部を含む見開きページを予め定められた状態(例えば、ある部分が浮いている状態)で読み取って得られる学習用読取画像を用いて学習されたデータである。具体的には、この学習用読取画像から検出される綴じ部の補正範囲を示す画像に、綴じ部の補正範囲を小さくする読取方法、並びに当該読取方法を実施した場合における綴じ部の補正範囲及び綴じ部の影の形状を示す画像を対応付けて学習されたデータである。 In step 136, a reading method in which the estimation unit 44 reduces the correction range of the binding portion from the correction range of the binding portion and the shape of the shadow of the binding portion detected in step 134, and the binding portion when the reading method is performed. Estimate the correction range and the shape of the shadow at the binding part. Specifically, as described above, the learning data (that is, the learning model) 14C obtained by machine learning is used. As an example, the learning data 14C is learned by using a reading image obtained by reading a spread page including a binding portion of one or more books in a predetermined state (for example, a state in which a certain part is floating). It is the data that has been created. Specifically, in the image showing the correction range of the binding portion detected from the read image for learning, a reading method for reducing the correction range of the binding portion, and the correction range of the binding portion when the reading method is performed, and This is data learned by associating an image showing the shape of the shadow of the binding portion.

ステップ138では、表示制御部36が、一例として、図14に示すように、ステップ136で推定した綴じ部の補正範囲及び綴じ部の影の形状を示す画像を、読取方法と共に表示部16に表示させる制御を行う。 In step 138, as an example, as shown in FIG. 14, the display control unit 36 displays an image showing the correction range of the binding portion estimated in step 136 and the shape of the shadow of the binding portion on the display unit 16 together with the reading method. Control to make it.

図14は、第2の実施形態に係る推定結果画面16Cの一例を示す正面図である。
図14に示す推定結果画面16Cは、表示部16に表示される。
FIG. 14 is a front view showing an example of the estimation result screen 16C according to the second embodiment.
The estimation result screen 16C shown in FIG. 14 is displayed on the display unit 16.

図14に示す推定結果画面16Cには、ステップ134で検出した綴じ部の補正範囲及び綴じ部の影の形状を示す画像56D、ステップ136で推定した読取方法の説明図、並びに当該読取方法を実施した場合における綴じ部の補正範囲及び綴じ部の影の形状を示す画像56Eが含まれている。 On the estimation result screen 16C shown in FIG. 14, an image 56D showing the correction range of the binding portion detected in step 134 and the shape of the shadow of the binding portion, an explanatory diagram of the reading method estimated in step 136, and the reading method are carried out. An image 56E showing the correction range of the binding portion and the shape of the shadow of the binding portion in the case of the binding portion is included.

画像56Dは、第1読取データから得られた綴じ部の補正範囲R21及び綴じ部の影D21を示す画像である。補正範囲R21及び影D21の各々の形状は、書籍の手前側(図中下側)が浮き上がっていることを示している。この場合、学習データ14Cを用いて、補正範囲R21及び影D21の各々の形状に合わせて、補正範囲を小さくする読取方法が推定される。具体的には、書籍の手前側が浮いているため、書籍の手前側を押圧しながら読み取りを行う読取方法が推定される。この場合、推定結果画面16Cには、一例として、治具を用いて書籍の手前側を押圧しながら読み取りを行う読取方法の説明図が表示される。この説明図によれば、原稿台52の上に載置された書籍56の手前側が治具50Aにより押圧され、治具50Aの上側を原稿台カバー54によって押圧している状態を表している。また、推定結果画面16Cには、この説明図と共に、一例として、「手前が浮いています。治具を使って下図のように書籍の手前側を押圧して読み取りをすることで補正範囲が減少します。」という説明文も表示される。画像56Eは、推定結果画面16Cに表示された読取方法を実施した場合における綴じ部の補正範囲R22及び綴じ部の影D22を示す画像である。画像56Eの補正範囲R22及び影D22は、画像56Dの補正範囲R21及び影D21と比較して、小さくなっていることが分かる。また、推定結果画面16Cには、「再読み取りをしますか?」というメッセージと共に、「はい」ボタン及び「いいえ」ボタンが押圧操作可能に表示される。 The image 56D is an image showing the correction range R21 of the binding portion and the shadow D21 of the binding portion obtained from the first read data. Each shape of the correction range R21 and the shadow D21 indicates that the front side (lower side in the figure) of the book is raised. In this case, using the learning data 14C, a reading method for reducing the correction range according to the shapes of the correction range R21 and the shadow D21 is estimated. Specifically, since the front side of the book is floating, a reading method in which the front side of the book is pressed while reading is presumed. In this case, on the estimation result screen 16C, as an example, an explanatory diagram of a reading method in which reading is performed while pressing the front side of the book using a jig is displayed. According to this explanatory view, the front side of the book 56 placed on the platen 52 is pressed by the jig 50A, and the upper side of the jig 50A is pressed by the platen cover 54. In addition, on the estimation result screen 16C, along with this explanatory diagram, as an example, "The front is floating. The correction range is reduced by pressing the front side of the book with a jig and reading as shown in the figure below. The explanation "I will do it." Is also displayed. The image 56E is an image showing the correction range R22 of the binding portion and the shadow D22 of the binding portion when the reading method displayed on the estimation result screen 16C is performed. It can be seen that the correction range R22 and the shadow D22 of the image 56E are smaller than the correction range R21 and the shadow D21 of the image 56D. Further, on the estimation result screen 16C, a "Yes" button and a "No" button are displayed so that they can be pressed, along with a message "Do you want to read again?".

ステップ140では、表示制御部46が、一例として、上述の図14に示す推定結果画面16Cに表示された読取方法で再読み取りを行うか否かを判定する。再読み取りを行うと判定した場合(肯定判定の場合)、つまり、推定結果画面16Cで「はい」ボタンが押圧操作されたと判定した場合、ステップ142に移行する。一方、再読み取りを行わないと判定した場合(否定判定の場合)、つまり、推定結果画面16Cで「いいえ」ボタンが押圧操作されたと判定した場合、ステップ156に移行する。 In step 140, as an example, the display control unit 46 determines whether or not to perform re-reading by the reading method displayed on the estimation result screen 16C shown in FIG. 14 described above. If it is determined that rereading is to be performed (in the case of affirmative determination), that is, if it is determined that the "Yes" button has been pressed on the estimation result screen 16C, the process proceeds to step 142. On the other hand, if it is determined that rereading is not performed (in the case of a negative determination), that is, if it is determined that the "No" button has been pressed on the estimation result screen 16C, the process proceeds to step 156.

ステップ142では、変換部40が、一例として、図14に示す推定結果画面16Cに表示された読取方法を用いて、原稿読取部22による見開きページの再読み取りにより第2読取データを取得する。 In step 142, as an example, the conversion unit 40 acquires the second reading data by re-reading the spread page by the document reading unit 22 by using the reading method displayed on the estimation result screen 16C shown in FIG.

ステップ144では、変換部40が、ステップ142で取得した第2読取データを多階調データ及び二値データに変換する。 In step 144, the conversion unit 40 converts the second read data acquired in step 142 into multi-gradation data and binary data.

ステップ146では、検出部42が、ステップ144で変換した多階調データから綴じ部の補正範囲を検出し、二値データから綴じ部の影の形状を検出する。 In step 146, the detection unit 42 detects the correction range of the binding portion from the multi-gradation data converted in step 144, and detects the shape of the shadow of the binding portion from the binary data.

ステップ148では、表示制御部46が、一例として、図15に示すように、第1読取データから得られる綴じ部の補正範囲及び影の形状を示す画像(前回)と、第2読取データから得られる綴じ部の補正範囲及び影の形状を示す画像(今回)とを並べて表示部16に表示させる制御を行う。 In step 148, as an example, as shown in FIG. 15, the display control unit 46 obtains an image (previous) showing the correction range and shadow shape of the binding portion obtained from the first read data and the second read data. Control is performed so that the correction range of the binding portion and the image (this time) showing the shape of the shadow are displayed side by side on the display unit 16.

図15は、第2の実施形態に係る補正範囲検出結果画面16Dの一例を示す正面図である。
図15に示す補正範囲検出結果画面16Dは、表示部16に表示される。
FIG. 15 is a front view showing an example of the correction range detection result screen 16D according to the second embodiment.
The correction range detection result screen 16D shown in FIG. 15 is displayed on the display unit 16.

図15に示す補正範囲検出結果画面16Dには、ステップ134で検出した綴じ部の補正範囲R21及び影D21を示す画像56D(前回)、及び、ステップ146で検出した綴じ部の補正範囲R23及び影D23を示す画像56F(今回)が含まれている。また、補正範囲検出結果画面16Dには、「再読み取りしますか?」というメッセージと共に、「はい」ボタン及び「いいえ」ボタンが押圧操作可能に表示される。 On the correction range detection result screen 16D shown in FIG. 15, an image 56D (previous) showing the correction range R21 and the shadow D21 of the binding portion detected in step 134, and the correction range R23 and the shadow of the binding portion detected in step 146 are displayed. Image 56F (this time) showing D23 is included. Further, on the correction range detection result screen 16D, a "Yes" button and a "No" button are displayed so that they can be pressed, along with a message "Do you want to read again?".

ステップ150では、表示制御部46が、一例として、上述の図15に示す補正範囲検出結果画面16Dに表示された補正範囲R23及び影D23に対して再読み取りが不要か否かを判定する。再読み取りが不要と判定した場合(肯定判定の場合)、つまり、補正範囲検出結果画面16Dで「いいえ」ボタンが押圧操作されたと判定した場合、ステップ152に移行する。一方、再読み取りが必要と判定した場合(否定判定の場合)、つまり、補正範囲検出結果画面16Dで「はい」ボタンが押圧操作されたと判定した場合、ステップ142に戻り処理を繰り返す。 In step 150, as an example, the display control unit 46 determines whether or not rereading is necessary for the correction range R23 and the shadow D23 displayed on the correction range detection result screen 16D shown in FIG. 15 described above. If it is determined that rereading is unnecessary (in the case of affirmative determination), that is, if it is determined that the "No" button has been pressed on the correction range detection result screen 16D, the process proceeds to step 152. On the other hand, when it is determined that re-reading is necessary (in the case of a negative determination), that is, when it is determined that the "Yes" button has been pressed on the correction range detection result screen 16D, the process returns to step 142 and the process is repeated.

ステップ152では、補正部48が、一例として、上述の図15に示す補正範囲検出結果画面16Dに表示された補正範囲R23及び影D23、すなわち、第2読取データから得られた綴じ部の補正範囲R23及び影D23を補正対象として、第2読取データを補正する。 In step 152, as an example, the correction unit 48 corrects the correction range R23 and the shadow D23 displayed on the correction range detection result screen 16D shown in FIG. 15, that is, the correction range of the binding portion obtained from the second read data. The second read data is corrected with R23 and shadow D23 as correction targets.

ステップ154では、補正部48が、補正後の第2読取データに対応する画像を後段に出力し、本補正処理プログラム14Aによる一連の処理を終了する。なお、出力先としては、例えば、画像形成部20でもよいし、記憶部14でもよい。 In step 154, the correction unit 48 outputs the image corresponding to the corrected second read data to the subsequent stage, and ends a series of processing by the correction processing program 14A. The output destination may be, for example, the image forming unit 20 or the storage unit 14.

一方、ステップ156では、補正部48が、一例として、上述の図14に示す推定結果画面16Cに表示された補正範囲R21及び影D21、すなわち、第1読取データから得られた綴じ部の補正範囲R21及び影D21を補正対象として、第1読取データを補正する。 On the other hand, in step 156, as an example, the correction unit 48 corrects the correction range R21 and the shadow D21 displayed on the estimation result screen 16C shown in FIG. 14, that is, the correction range of the binding portion obtained from the first read data. The first read data is corrected with R21 and shadow D21 as correction targets.

ステップ158では、補正部48が、補正後の第1読取データに対応する画像を後段に出力し、本補正処理プログラム14Aによる一連の処理を終了する。 In step 158, the correction unit 48 outputs the image corresponding to the corrected first read data to the subsequent stage, and ends a series of processing by the correction processing program 14A.

次に、図16(A)及び図16(B)を参照して、書籍の綴じ部の補正範囲を小さくする読取方法の学習例について説明する。なお、第1の実施形態と同様に、治具50Aを用いない通常の読取方法を第1読取方法(図7(A)参照)と称し、治具50Aを用いて補正範囲を小さくする読取方法を第2読取方法(図7(B)参照)と称して説明する。 Next, a learning example of a reading method for reducing the correction range of the binding portion of the book will be described with reference to FIGS. 16A and 16B. Similar to the first embodiment, a normal reading method that does not use the jig 50A is referred to as a first reading method (see FIG. 7A), and a reading method that uses the jig 50A to reduce the correction range. Will be referred to as a second reading method (see FIG. 7B).

図16(A)は、第2の実施形態に係る第1読取方法により得られた第1画像58Cの一例を示す図である。
図16(A)に示す第1画像58Cは、書籍58の綴じ部の補正範囲R31及び影D31を示す画像である。補正範囲R31及び影D31は、書籍58の見開きページを第1読取方法により読み取って得られた学習用読取画像から検出される。
FIG. 16A is a diagram showing an example of the first image 58C obtained by the first reading method according to the second embodiment.
The first image 58C shown in FIG. 16A is an image showing the correction range R31 and the shadow D31 of the binding portion of the book 58. The correction range R31 and the shadow D31 are detected from the learning read image obtained by reading the spread page of the book 58 by the first reading method.

図16(B)は、第2の実施形態に係る第2読取方法により得られた第2画像58Dの一例を示す図である。
図16(B)に示す第2画像58Dは、書籍58の綴じ部の補正範囲R32及び影D32を示す画像である。第2画像58Dの補正範囲R32及び影D32は、第1画像58Cの補正範囲R31及び影D32と比較して、小さくなっていることが分かる。
FIG. 16B is a diagram showing an example of the second image 58D obtained by the second reading method according to the second embodiment.
The second image 58D shown in FIG. 16B is an image showing the correction range R32 and the shadow D32 of the binding portion of the book 58. It can be seen that the correction range R32 and the shadow D32 of the second image 58D are smaller than the correction range R31 and the shadow D32 of the first image 58C.

第1の実施形態と同様に、読取方法の学習に際して、書籍58の見開きページ毎に、上記2種類の第1読取方法及び第2読取方法を用いた読み取りを実施し、書籍58の各見開きページについて、第1画像58C及び第2画像58Dのペアを取得する。このとき、推定精度の観点から、書籍58を読み取る向き(例えば、縦向き、横向き等)を変化させ、各向きについて、第1画像58C及び第2画像58Dのペアを取得することが望ましい。また、書籍58の浮いている部分(例えば、手前側部分、右側部分、左側部分、奥側部分等)を変化させ、各部分について、第1画像58C及び第2画像58Dのペアを取得することが望ましい。 Similar to the first embodiment, when learning the reading method, reading is performed for each spread page of the book 58 using the above two types of the first reading method and the second reading method, and each spread page of the book 58 is read. The pair of the first image 58C and the second image 58D is acquired. At this time, from the viewpoint of estimation accuracy, it is desirable to change the reading direction (for example, vertical direction, horizontal direction, etc.) of the book 58 and acquire a pair of the first image 58C and the second image 58D for each direction. Further, the floating part of the book 58 (for example, the front side part, the right side part, the left side part, the back side part, etc.) is changed, and a pair of the first image 58C and the second image 58D is acquired for each part. Is desirable.

そして、第1画像58Cの補正範囲R31の位置、及び、第2画像58Dの補正範囲R32の位置を各々指定し、第1画像58Cに対して、第2画像58D及び第2読取方法を対応付ける。対応付けた第1画像58C、第2画像58D、及び第2読取方法を学習用データとして機械学習させて、上述の図11に示す学習データ14Cを生成する。 Then, the position of the correction range R31 of the first image 58C and the position of the correction range R32 of the second image 58D are designated, and the second image 58D and the second reading method are associated with the first image 58C. The associated first image 58C, second image 58D, and second reading method are machine-learned as learning data to generate the learning data 14C shown in FIG. 11 above.

このように本実施形態によれば、書籍の第1読取データから得られる多階調データ及び二値データを用いて、綴じ部の補正範囲を小さくする読取方法、並びに当該読取方法を実施した場合における綴じ部の補正範囲及び綴じ部の影の形状を示す画像が表示される。ユーザが表示された読取方法を実施することで、綴じ部の補正範囲及び影の形状を小さくした読取画像が取得され、この読取画像に対して余計な補正が行われることが防止される。 As described above, according to the present embodiment, the reading method for reducing the correction range of the binding portion and the reading method are carried out using the multi-gradation data and the binary data obtained from the first reading data of the book. An image showing the correction range of the binding portion and the shape of the shadow of the binding portion in the above is displayed. By implementing the scanning method displayed by the user, a scanned image in which the correction range of the binding portion and the shape of the shadow are reduced is acquired, and it is possible to prevent unnecessary correction from being performed on the scanned image.

以上、実施形態として画像形成装置を例示して説明した。実施形態は、画像形成装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。 The image forming apparatus has been described above as an example of the embodiment. The embodiment may be in the form of a program for causing a computer to execute the functions of each part included in the image forming apparatus. The embodiment may be in the form of a storage medium that can be read by a computer that stores this program.

その他、上記実施形態で説明した画像形成装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。 In addition, the configuration of the image forming apparatus described in the above embodiment is an example, and may be changed depending on the situation within a range that does not deviate from the gist.

また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 Further, the processing flow of the program described in the above embodiment is also an example, and even if unnecessary steps are deleted, new steps are added, or the processing order is changed within a range that does not deviate from the purpose. Good.

また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。 Further, in the above-described embodiment, the case where the processing according to the embodiment is realized by the software configuration by using the computer by executing the program has been described, but the present invention is not limited to this. The embodiment may be realized by, for example, a hardware configuration or a combination of a hardware configuration and a software configuration.

10A、10B画像形成装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
14 記憶部
14A 補正処理プログラム
14B、14C学習データ
16 表示部
16A、16C推定結果画面
16B、16D補正範囲検出結果画面
18 操作部
20 画像形成部
22 原稿読取部
24 通信部
30、40 変換部
32、42 検出部
34、44 推定部
36、46 表示制御部
38、48 補正部
10A, 10B Image forming device 12 Control unit 12A CPU
12B ROM
12C RAM
12D I / O
14 Storage unit 14A Correction processing program 14B, 14C Learning data 16 Display unit 16A, 16C Estimation result screen 16B, 16D Correction range detection result screen 18 Operation unit 20 Image formation unit 22 Document reading unit 24 Communication unit 30, 40 Conversion unit 32, 42 Detection unit 34, 44 Estimating unit 36, 46 Display control unit 38, 48 Correction unit

Claims (12)

書籍の綴じ部を含む見開きページを読み取って得られる第1読取データを多階調データに変換する変換部と、
前記多階調データから前記綴じ部の補正範囲を検出する検出部と、
前記検出部により検出された前記綴じ部の補正範囲から、前記綴じ部の補正範囲を小さくする読取方法、及び前記読取方法を実施した場合における前記綴じ部の補正範囲を推定する推定部と、
前記推定部により推定された前記綴じ部の補正範囲を示す画像を、前記読取方法と共に表示させる制御を行う制御部と、
を備えた画像形成装置。
A conversion unit that converts the first reading data obtained by reading the spread page including the binding part of the book into multi-gradation data, and a conversion unit.
A detection unit that detects the correction range of the binding unit from the multi-gradation data,
A reading method for reducing the correction range of the binding portion from the correction range of the binding portion detected by the detection unit, and an estimation unit for estimating the correction range of the binding portion when the reading method is performed.
A control unit that controls to display an image showing the correction range of the binding unit estimated by the estimation unit together with the reading method.
An image forming apparatus equipped with.
前記推定部は、機械学習により得られた学習データを用いて、前記読取方法、及び前記読取方法を実施した場合における前記綴じ部の補正範囲を推定する請求項1に記載の画像形成装置。 The image forming apparatus according to claim 1, wherein the estimation unit estimates the reading method and the correction range of the binding unit when the reading method is performed by using the learning data obtained by machine learning. 前記学習データは、書籍の綴じ部を含む見開きページを予め定められた状態で読み取って得られる学習用読取データから検出される前記綴じ部の補正範囲を示す画像に、前記綴じ部の補正範囲を小さくする読取方法、及び前記読取方法を実施した場合における前記綴じ部の補正範囲を示す画像を対応付けて学習されたデータである請求項2に記載の画像形成装置。 The learning data is an image showing the correction range of the binding portion detected from the learning reading data obtained by reading the spread page including the binding portion of the book in a predetermined state, and the correction range of the binding portion is added to the image. The image forming apparatus according to claim 2, which is data learned by associating an image showing a correction range of the binding portion when the reading method is reduced and the reading method is performed. 前記学習データは、前記学習用読取データから検出された前記見開きページの地肌部分を示す画像が更に対応付けられている請求項3に記載の画像形成装置。 The image forming apparatus according to claim 3, wherein the learning data is further associated with an image showing a background portion of the spread page detected from the reading data for learning. 前記推定部は、前記検出部により検出された前記綴じ部の補正範囲の形状に応じて異なる読取方法を推定する請求項1〜4のいずれか1項に記載の画像形成装置。 The image forming apparatus according to any one of claims 1 to 4, wherein the estimation unit estimates a different reading method according to the shape of the correction range of the binding unit detected by the detection unit. 前記読取方法は、前記書籍を上から押圧する治具を用いた方法であり、かつ、前記綴じ部の補正範囲の形状に応じて前記治具の設置位置が異なる方法である請求項5に記載の画像形成装置。 The method according to claim 5, wherein the reading method is a method using a jig for pressing the book from above, and the installation position of the jig is different depending on the shape of the correction range of the binding portion. Image forming device. 前記変換部は、前記制御部により表示された読取方法を用いて、前記見開きページを再度読み取って得られる第2読取データを多階調データに変換し、
前記検出部は、前記多階調データから前記綴じ部の補正範囲を検出し、
前記制御部は、前記第1読取データから得られる前記綴じ部の補正範囲を示す画像と、前記第2読取データから得られる前記綴じ部の補正範囲を示す画像とを並べて表示させる制御を行う請求項1〜6のいずれか1項に記載の画像形成装置。
The conversion unit converts the second reading data obtained by re-reading the spread page into multi-gradation data by using the reading method displayed by the control unit.
The detection unit detects the correction range of the binding unit from the multi-gradation data, and then
The control unit controls to display an image showing the correction range of the binding portion obtained from the first read data and an image showing the correction range of the binding portion obtained from the second read data side by side. Item 2. The image forming apparatus according to any one of Items 1 to 6.
前記第2読取データから得られる前記綴じ部の補正範囲を補正対象として、前記第2読取データを補正する補正部を更に備えた請求項7に記載の画像形成装置。 The image forming apparatus according to claim 7, further comprising a correction unit for correcting the second read data, with the correction range of the binding portion obtained from the second read data as a correction target. 前記変換部は、前記第1読取データを二値データに更に変換し、
前記検出部は、前記二値データから前記綴じ部の影の形状を更に検出し、
前記推定部は、前記検出部により検出された前記綴じ部の補正範囲及び前記綴じ部の影の形状から、前記綴じ部の補正範囲を小さくする読取方法、並びに前記読取方法を実施した場合における前記綴じ部の補正範囲及び前記綴じ部の影の形状を推定し、
前記制御部は、前記推定部により推定された前記綴じ部の補正範囲及び前記綴じ部の影の形状を示す画像を、前記読取方法と共に表示させる制御を行う請求項1〜8のいずれか1項に記載の画像形成装置。
The conversion unit further converts the first read data into binary data, and then converts the first read data into binary data.
The detection unit further detects the shape of the shadow of the binding portion from the binary data, and further detects the shape of the shadow of the binding portion.
The estimation unit is a reading method for reducing the correction range of the binding portion from the correction range of the binding portion and the shape of the shadow of the binding portion detected by the detection unit, and the reading method when the reading method is performed. Estimate the correction range of the binding part and the shape of the shadow of the binding part,
Any one of claims 1 to 8, wherein the control unit controls to display an image showing the correction range of the binding portion estimated by the estimation unit and the shape of the shadow of the binding portion together with the reading method. The image forming apparatus according to.
前記推定部は、機械学習により得られた学習データを用いて、前記読取方法、並びに前記読取方法を実施した場合における前記綴じ部の補正範囲及び前記綴じ部の影の形状を推定する請求項9に記載の画像形成装置。 9. The estimation unit estimates the correction range of the binding portion and the shape of the shadow of the binding portion when the reading method and the reading method are performed by using the learning data obtained by machine learning. The image forming apparatus according to. 前記学習データは、書籍の綴じ部を含む見開きページを予め定められた状態で読み取って得られる学習用読取データから検出される前記綴じ部の補正範囲及び前記綴じ部の影の形状を示す画像に、前記綴じ部の補正範囲を小さくする読取方法、並びに前記読取方法を実施した場合における前記綴じ部の補正範囲及び前記綴じ部の影の形状を示す画像を対応付けて学習されたデータである請求項10に記載の画像形成装置。 The learning data is an image showing the correction range of the binding portion and the shape of the shadow of the binding portion detected from the learning reading data obtained by reading the spread page including the binding portion of the book in a predetermined state. The data is obtained by associating an image showing the correction range of the binding portion and the shadow shape of the binding portion when the reading method for reducing the correction range of the binding portion is performed and the reading method. Item 10. The image forming apparatus according to item 10. コンピュータを、請求項1〜11のいずれか1項に記載の画像形成装置が備える各部として機能させるためのプログラム。 A program for causing a computer to function as each part included in the image forming apparatus according to any one of claims 1 to 11.
JP2019035782A 2019-02-28 2019-02-28 Image forming device and program Pending JP2020141274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019035782A JP2020141274A (en) 2019-02-28 2019-02-28 Image forming device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019035782A JP2020141274A (en) 2019-02-28 2019-02-28 Image forming device and program

Publications (1)

Publication Number Publication Date
JP2020141274A true JP2020141274A (en) 2020-09-03

Family

ID=72265269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019035782A Pending JP2020141274A (en) 2019-02-28 2019-02-28 Image forming device and program

Country Status (1)

Country Link
JP (1) JP2020141274A (en)

Similar Documents

Publication Publication Date Title
CN104917930B (en) Image processing equipment and image processing method
US9191532B2 (en) Image display device and computer-readable storage medium storing a display control program
JP6575475B2 (en) Image reading apparatus and image forming apparatus
JP5645689B2 (en) Image processing apparatus and image forming apparatus having the same
JP2008077160A (en) Image processing device, image processing method, image forming apparatus, computer-executable program, and recording medium storing the program
US10880447B2 (en) Image processing apparatus and image processing method
JP4866297B2 (en) Image forming apparatus
JP2020141274A (en) Image forming device and program
JP6895271B2 (en) Image processing device and image processing method
US20200285426A1 (en) Information processing device, learning device, and storage medium storing learnt model
JP5823417B2 (en) Image forming apparatus
JP2002244495A (en) Image forming device
JP4172474B2 (en) Image reading apparatus and program
JP5816728B2 (en) Mark detection device
JP5836453B2 (en) Mark detection device
US10884600B2 (en) Display apparatus scrolling first image and second image in accordance with speed of scroll operation
JP5597330B2 (en) Mark detection device
US10511739B1 (en) Image processing apparatus and image processing method for generating scaled image data
JP6935708B2 (en) Image processing equipment, image forming equipment, and programs
JP2019220931A (en) Image processing apparatus, image forming apparatus, and program
JP6141237B2 (en) Image processing apparatus and image processing method
JP5836455B2 (en) Mark detection device
JP5816727B2 (en) Mark detection device
JP5836454B2 (en) Mark detection device
JP5697793B1 (en) Image processing program, electronic device, image forming apparatus