JP2021086188A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2021086188A
JP2021086188A JP2019212299A JP2019212299A JP2021086188A JP 2021086188 A JP2021086188 A JP 2021086188A JP 2019212299 A JP2019212299 A JP 2019212299A JP 2019212299 A JP2019212299 A JP 2019212299A JP 2021086188 A JP2021086188 A JP 2021086188A
Authority
JP
Japan
Prior art keywords
image
learning
falsified
image processing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019212299A
Other languages
Japanese (ja)
Inventor
秀和 世渡
Hidekazu Seto
秀和 世渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019212299A priority Critical patent/JP2021086188A/en
Priority to US16/950,232 priority patent/US11797857B2/en
Priority to CN202011338825.6A priority patent/CN112839141B/en
Publication of JP2021086188A publication Critical patent/JP2021086188A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

To reduce the possibility of false determination for a character string alteration in image data.SOLUTION: An image processing system includes: generation means for generating a learning model by performing machine learning processing based on an altered character image, a character image before an alteration, and an image representing the difference between the altered character image and the character image before the alteration; input means for inputting image data; and estimation means for estimating whether the image data input by the input means includes an altered character, by using the learning model generated by the generation means.SELECTED DRAWING: Figure 1

Description

本開示は、画像処理システム、画像処理方法、及びプログラムに関する。 The present disclosure relates to image processing systems, image processing methods, and programs.

従来、画像データ内の改竄を検出する技術が知られている。 Conventionally, a technique for detecting falsification in image data has been known.

特許文献1には、画像データを輝度値の近い画素を持つ複数のグループに分け、グループごとに文字認識処理を実行した結果と、グループに分けずに文字認識処理を実行した結果が異なっていたら改竄されていると判定する画像処理装置が開示されている。 According to Patent Document 1, if the image data is divided into a plurality of groups having pixels having similar brightness values and the result of executing the character recognition process for each group is different from the result of executing the character recognition process without dividing the image data into groups. An image processing device that determines that the image has been tampered with is disclosed.

特開2009−200794号公報Japanese Unexamined Patent Publication No. 2009-200794

特許文献1では、改ざんの有無を輝度でしか判定しないので、インクのかすれや筆圧等で文字の輝度が変化することで、改竄されていなくても改竄されていると誤判定される可能性がある。 In Patent Document 1, since the presence or absence of tampering is determined only by the brightness, there is a possibility that it is erroneously determined that the character has been tampered with even if it has not been tampered with because the brightness of the character changes due to ink fading or writing pressure. There is.

本発明は上記の課題に鑑みてなされたものであり、画像データ内の文字列の改竄の誤判定が発生するおそれを低下させることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to reduce the possibility of erroneous determination of falsification of a character string in image data.

本発明の画像処理システムは、改竄された画像と、改竄される前の画像と、改竄された画像と改竄される前の画像の差分を示す画像とに基づいて、機械学習処理を実行することにより学習モデルを生成する生成手段と、
画像データを入力する入力手段と、
前記生成手段により生成された前記学習モデルを用いて、前記入力手段によって入力された画像データに改竄された画像が含まれるか否かを推定する推定手段とを有することを特徴とする。
The image processing system of the present invention executes machine learning processing based on a falsified image, an image before falsification, and an image showing a difference between the falsified image and the image before falsification. And the generation means to generate the learning model by
Input means for inputting image data and
It is characterized by having an estimation means for estimating whether or not the image data input by the input means includes a falsified image by using the learning model generated by the generation means.

本発明によれば、画像データ内の文字列の改竄を検知する際の誤判定が発生する確率を低下させることができる。 According to the present invention, it is possible to reduce the probability that an erroneous determination will occur when detecting falsification of a character string in image data.

一実施形態に係る画像処理システムの構成の一例を示す概略図。The schematic diagram which shows an example of the structure of the image processing system which concerns on one Embodiment. (A)画像処理装置の構成の一例を示すブロック図。(B)学習装置の構成の一例を示すブロック図。(C)改竄検出サーバの構成の一例を示すブロック図。(A) A block diagram showing an example of the configuration of an image processing device. (B) A block diagram showing an example of the configuration of the learning device. (C) A block diagram showing an example of a configuration of a tampering detection server. (A)一実施形態に係る画像処理システムにおける学習段階の処理の概略的な流れの一例を示すシーケンス図;(B)一実施形態に係る画像処理システムにおける改竄検出段階の処理の概略的な流れの一例を示すシーケンス図。(A) Sequence diagram showing an example of a schematic flow of processing in the learning stage in the image processing system according to one embodiment; (B) Schematic flow of processing in the tampering detection stage in the image processing system according to one embodiment. A sequence diagram showing an example. 空欄の学習用原稿の一例を示す模式図。The schematic diagram which shows an example of the blank learning manuscript. 原稿読取りの指示を受付けるためのGUIの一例を示す模式図。The schematic diagram which shows an example of GUI for accepting the instruction of manuscript reading. (A)学習用原本画像の一例を示す模式図;(B)学習用改竄画像の一例を示す模式図;(C)学習用原本画像及び学習用改竄画像から生成される学習用データの一例を示す模式図。(A) Schematic diagram showing an example of a learning original image; (B) Schematic diagram showing an example of a learning falsified image; (C) An example of learning data generated from a learning original image and a learning falsified image Schematic diagram shown. (A)処理対象画像の一例を示す模式図;(B)改竄検出結果のビットマップの一例を示す模式図;(C)改竄部分を強調した強調画像の一例を示す模式図。(A) Schematic diagram showing an example of the image to be processed; (B) Schematic diagram showing an example of a bitmap of the falsification detection result; (C) Schematic diagram showing an example of an emphasized image emphasizing the falsified portion. 改竄検出段階において画像処理装置により実行される処理の具体的な流れの一例を示すフローチャート。A flowchart showing an example of a specific flow of processing executed by an image processing apparatus in a tampering detection stage. 改竄検出段階において改竄検出サーバにより実行される処理の具体的な流れの一例を示すフローチャート。A flowchart showing an example of a specific flow of processing executed by the tampering detection server in the tampering detection stage. 改竄検出の設定及び指示のためのGUIの一例を示す模式図。The schematic diagram which shows an example of GUI for setting and instruction of tampering detection. (A)改竄検出結果の一覧を表示するためのGUIの一例を示す模式図;(B)改竄検出結果の詳細を表示するためのGUIの一例を示す模式図。(A) Schematic diagram showing an example of GUI for displaying a list of tampering detection results; (B) Schematic diagram showing an example of GUI for displaying details of tampering detection results. 改竄検出結果をユーザにより修正可能とするGUIの一例を示す模式図。The schematic diagram which shows an example of GUI which makes it possible to modify a tampering detection result by a user. (A)強調画像と比較画像とを対比的に配置したGUIの第1の例を示す模式図;(B)強調画像と比較画像とを対比的に配置したGUIの第2の例を示す模式図。(A) Schematic diagram showing a first example of a GUI in which an emphasized image and a comparison image are arranged in contrast; (B) A schematic diagram showing a second example of a GUI in which an emphasized image and a comparison image are arranged in contrast. Figure. (A)第1の比較モードにおける比較画像の例を示す模式図;(B)第2の比較モードにおける比較画像の例を示す模式図;(C)第3の比較モードにおける比較画像の例を示す模式図;(D)第4の比較モードにおける比較画像の例を示す模式図。(A) Schematic diagram showing an example of a comparison image in the first comparison mode; (B) Schematic diagram showing an example of a comparison image in the second comparison mode; (C) Example of a comparison image in the third comparison mode Schematic diagram shown; (D) Schematic diagram showing an example of a comparative image in the fourth comparison mode. 改竄検出結果をユーザにより修正可能とするGUIの他の例を示す模式図。The schematic diagram which shows the other example of GUI which makes it possible to modify a tampering detection result by a user. 対象文書の改竄が検出された場合に画像処理装置により実行される表示制御処理の具体的な流れの一例を示すフローチャート。A flowchart showing an example of a specific flow of display control processing executed by an image processing device when falsification of a target document is detected. 一変形例において強調画像と比較画像とを対比的に配置したGUIの一例を示す模式図。The schematic diagram which shows an example of GUI which arranged the emphasized image and the comparative image in contrast in one modification.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

<<1.システムの概要>>
図1は、一実施形態に係る画像処理システム100の構成の一例を示す概略図である。画像処理システム100は、画像処理装置101、学習装置102、改竄検出サーバ103及びOCRサーバ104を含む。画像処理装置101、学習装置102、改竄検出サーバ103及びOCRサーバ104は、ネットワーク105を介して相互に接続される。
<< 1. System overview >>
FIG. 1 is a schematic view showing an example of the configuration of the image processing system 100 according to the embodiment. The image processing system 100 includes an image processing device 101, a learning device 102, a tampering detection server 103, and an OCR server 104. The image processing device 101, the learning device 102, the tampering detection server 103, and the OCR server 104 are connected to each other via the network 105.

画像処理装置101は、例えば、印刷及び画像読取りの双方の機能を有する複合機(Multi−Function Peripheral(MFP))であってもよく、又は専ら画像読取りを行うデジタルスキャナであってもよい。画像処理装置101は、読取部111及び表示制御部112を備える。読取部111は、原稿11を読取って読取画像を生成する。即ち、読取部111は、原稿11の読取画像を取得する。典型的には、原稿11は文字列を含み、よって読取画像は文字画像を含む。 The image processing device 101 may be, for example, a multifunction device (Multi-Function Peripheral (MFP)) having both printing and image reading functions, or may be a digital scanner that exclusively performs image reading. The image processing device 101 includes a reading unit 111 and a display control unit 112. The scanning unit 111 reads the document 11 and generates a scanned image. That is, the scanning unit 111 acquires the scanned image of the document 11. Typically, the manuscript 11 contains a character string, and thus the scanned image contains a character image.

一例として、画像処理装置101は、学習段階において学習用データの生成を支援し得る。具体的には、まず、オペレータは、予め用意される空欄の学習用原稿に手書きで文字を記入し、記入済みの学習用原稿を画像処理装置101にセットする。学習用原稿は、例えば、1つ以上の既知の位置に記入欄を有する帳票形式の文書であってよい。学習用原稿は、個々の学習用原稿を一意に識別するための視覚的な識別情報(例えば、印字された番号、バーコード又は二次元コード)を有していてもよい。画像処理装置101は、空欄の学習用原稿を印刷可能であってもよい。読取部111は、セットされた学習用原稿を読取って読取画像12を生成する。読取画像12は、学習用原稿の原本の画像として扱われ、本明細書ではこれを学習用原本画像とも称する。また、オペレータ又は他の人物は、記入済みの学習用原稿(即ち、原本)に(例えば、ペンでストロークを書き足すなどして)改竄を加え、改竄された学習用原稿を画像処理装置101にセットする。読取部111は、改竄された学習用原稿を読取って読取画像13を生成する。本明細書では、読取画像13を学習用改竄画像とも称する。学習用原稿への文字の記入、画像処理装置101による原本の読取り、意図的な学習用原稿の改竄、及び画像処理装置101による改竄バージョンの読取りの反復を通じて、このような学習用原本画像12及び学習用改竄画像13の複数のペアが生成される。画像処理装置101は、学習用原本画像12及び学習用改竄画像13のこれらペアを、ネットワーク105を介して学習装置102へ送信する。学習装置102は、後に説明するように、これらペアから生成される学習用データを用いて機械学習を実行する。なお、上の説明に関わらず、学習用原本画像12及び学習用改竄画像13の生成は、画像処理装置101とは別の装置において行われてもよい。 As an example, the image processing device 101 can support the generation of learning data at the learning stage. Specifically, first, the operator writes characters by hand on a blank learning manuscript prepared in advance, and sets the completed learning manuscript in the image processing device 101. The learning manuscript may be, for example, a form-type document having entry fields at one or more known positions. The learning manuscript may have visual identification information (for example, a printed number, a bar code or a two-dimensional code) for uniquely identifying each learning manuscript. The image processing device 101 may be able to print a blank learning document. The scanning unit 111 reads the set learning document and generates the scanned image 12. The scanned image 12 is treated as an original image of the learning manuscript, and is also referred to as a learning original image in the present specification. In addition, the operator or another person falsifies the completed learning manuscript (that is, the original) (for example, by adding strokes with a pen), and the falsified learning manuscript is sent to the image processing device 101. set. The reading unit 111 reads the falsified learning document and generates the scanned image 13. In the present specification, the read image 13 is also referred to as a falsified image for learning. Through repeated writing of characters on the learning manuscript, reading of the original by the image processing device 101, intentional falsification of the learning manuscript, and reading of the falsified version by the image processing device 101, such a learning original image 12 and A plurality of pairs of falsified images 13 for learning are generated. The image processing device 101 transmits these pairs of the learning original image 12 and the learning falsified image 13 to the learning device 102 via the network 105. The learning device 102 executes machine learning using the learning data generated from these pairs, as will be described later. Notwithstanding the above description, the learning original image 12 and the learning falsified image 13 may be generated by a device other than the image processing device 101.

また、画像処理装置101は、改竄検出段階において、手書き文字が含まれ得る対象原稿を読取って読取画像21を生成する。本明細書では、読取画像21を処理対象画像とも称する。画像処理装置101は、生成した処理対象画像21をネットワーク105を介して改竄検出サーバ103へ送信する。画像処理装置101の表示制御部112は、改竄検出サーバ103から、処理対象画像21を用いて行われた改竄検出の結果を示す検出結果データ32を受信する。そして、表示制御部112は、検出結果データ32に基づいて、改竄検出の結果の画面上での表示を制御する。ここでの表示制御の様々な例について、後に具体的に説明する。 In addition, the image processing device 101 reads a target document that may include handwritten characters and generates a scanned image 21 at the tampering detection stage. In the present specification, the scanned image 21 is also referred to as a processing target image. The image processing device 101 transmits the generated image 21 to be processed to the tampering detection server 103 via the network 105. The display control unit 112 of the image processing device 101 receives the detection result data 32 indicating the result of the tampering detection performed using the processing target image 21 from the tampering detection server 103. Then, the display control unit 112 controls the display of the tampering detection result on the screen based on the detection result data 32. Various examples of display control here will be specifically described later.

学習装置102は、教師有り学習処理を実行する、コンピュータ又はワークステーションといった情報処理装置であってよい。学習装置102は、データ処理部121、学習部122及び記憶部123を備える。データ処理部121は、例えば、画像処理装置101(又は他の装置)において生成される上述した学習用原本画像12及び学習用改竄画像13のペアを記憶部123に蓄積し、蓄積したペアから学習用データを生成する。学習部122は、学習用原稿の読取画像である学習用画像(即ち、学習用原本画像12及び学習用改竄画像13のペア)から生成される学習用データを用いた機械学習処理を通じて、改竄検出のための学習済みモデル(学習モデル)41を生成/更新する。学習部122は、生成/更新した学習済みモデル41を記憶部123に記憶させる。例えば、機械学習のモデルとしてニューラルネットワークモデルが利用される場合には、学習済みモデル41は、ニューラルネットワークのノードごとの重み及びバイアスといったパラメータを含むデータセットである。ニューラルネットワークモデルを生成/更新するための機械学習の手法として、例えば、多層ニューラルネットワークを用いるディープラーニングが利用されてもよい。学習装置102における学習用データの生成及び学習済みモデルの生成/更新のいくつかの例について、後に具体的に説明する。学習部122は、後述する改竄検出サーバ103からの要求に応じて、学習済みモデル41を改竄検出サーバ103へ提供する。 The learning device 102 may be an information processing device such as a computer or workstation that executes supervised learning processing. The learning device 102 includes a data processing unit 121, a learning unit 122, and a storage unit 123. The data processing unit 121 stores, for example, a pair of the above-mentioned original learning image 12 and the falsified learning image 13 generated in the image processing device 101 (or another device) in the storage unit 123, and learns from the accumulated pair. Generate data for. The learning unit 122 detects tampering through machine learning processing using learning data generated from a learning image (that is, a pair of a learning original image 12 and a learning tampered image 13) which is a scanned image of a learning manuscript. Generates / updates the trained model (learning model) 41 for. The learning unit 122 stores the generated / updated learned model 41 in the storage unit 123. For example, when a neural network model is used as a machine learning model, the trained model 41 is a data set including parameters such as weights and biases for each node of the neural network. As a machine learning method for generating / updating a neural network model, for example, deep learning using a multi-layer neural network may be used. Some examples of generating training data and generating / updating a trained model in the learning device 102 will be specifically described later. The learning unit 122 provides the learned model 41 to the tampering detection server 103 in response to a request from the tampering detection server 103, which will be described later.

改竄検出サーバ103は、画像処理装置101から受信される処理対象画像21を用いて対象原稿に含まれる改竄部分を検出する、コンピュータ又はワークステーションといった情報処理装置であってよい。改竄検出サーバ103は、画像取得部131及び検出部132を備える。画像取得部131は、対象原稿の読取画像である処理対象画像21を取得する。検出部132は、処理対象画像21を用いて、対象原稿に含まれる改竄部分を検出する。本実施形態において、検出部132は、学習装置102から提供される上述した学習済みモデル41を改竄検出のために利用する。とりわけ、本実施形態において、検出部132は、学習済みモデル41を用いて処理対象画像21内の複数の画素の各々が改竄部分に属するか否かを推定する(即ち、画素ごとの改竄検出)。但し、処理対象画像21内の1つ以上の文字の各々が改竄部分を含むか否かを検出部132が判定する変形例(即ち、文字ごとの改竄検出)についても後に説明する。検出部132は、改竄検出の結果として、処理対象画像21のどの部分が改竄されていると判定されたかを示す検出結果データ32を生成し、生成した検出結果データ32を画像処理装置101へ提供する。例えば、検出結果データ32は、処理対象画像21の各画素が改竄部分に属するか否かを示すビットマップを含み得る。検出結果データ32により示される改竄検出結果は、画像処理装置101によりユーザへ提示され、ユーザによりその妥当性が検証される。ユーザによる妥当性の検証を支援するために、画像処理装置101又は改竄検出サーバ103は、処理対象画像21において改竄部分に属すると判定された画素を強調して示す強調画像を生成する。改竄検出サーバ103が強調画像を生成するケースでは、改竄検出サーバ103は、生成した強調画像を上記ビットマップと共に画像処理装置101へ送信する。 The falsification detection server 103 may be an information processing device such as a computer or a workstation that detects a falsified portion included in the target manuscript using the processing target image 21 received from the image processing device 101. The tampering detection server 103 includes an image acquisition unit 131 and a detection unit 132. The image acquisition unit 131 acquires a processing target image 21 which is a scanned image of the target original. The detection unit 132 detects the falsified portion included in the target manuscript by using the processing target image 21. In the present embodiment, the detection unit 132 uses the above-mentioned learned model 41 provided by the learning device 102 for tampering detection. In particular, in the present embodiment, the detection unit 132 estimates whether or not each of the plurality of pixels in the processed image 21 belongs to the falsification portion by using the trained model 41 (that is, falsification detection for each pixel). .. However, a modified example (that is, falsification detection for each character) in which the detection unit 132 determines whether or not each of the one or more characters in the image 21 to be processed includes a falsified portion will be described later. The detection unit 132 generates detection result data 32 indicating which part of the image 21 to be processed is determined to be tampered with as a result of tampering detection, and provides the generated detection result data 32 to the image processing device 101. To do. For example, the detection result data 32 may include a bitmap indicating whether or not each pixel of the image to be processed 21 belongs to the falsified portion. The falsification detection result indicated by the detection result data 32 is presented to the user by the image processing device 101, and the validity is verified by the user. In order to assist the user in verifying the validity, the image processing device 101 or the falsification detection server 103 generates an enhanced image that emphasizes the pixels determined to belong to the falsified portion in the image 21 to be processed. In the case where the tampering detection server 103 generates the enhanced image, the tampering detection server 103 transmits the generated enhanced image together with the bitmap to the image processing device 101.

本実施形態において、学習済みモデル41への処理対象画像21の適用は、文字単位で行われ得る。そこで、改竄検出サーバ103は、処理対象画像21をOCRサーバ104へ送信し、処理対象画像21に含まれる文字の認識をOCRサーバ104に要求する。OCRサーバ104は、改竄検出サーバ103からの要求に応じて光学文字認識(OCR)を実行する、コンピュータ又はワークステーションといった情報処理装置であってよい。OCRサーバ104は、文字認識部141を備える。文字認識部141は、処理対象画像21について公知の手法でOCRを実行して、処理対象画像21内の文字と文字領域の位置とを認識する。そして、文字認識部141は、認識結果を示す認識結果データ31を改竄検出サーバ103へ送信する。 In the present embodiment, the application of the processed image 21 to the trained model 41 can be performed on a character-by-character basis. Therefore, the tampering detection server 103 transmits the processing target image 21 to the OCR server 104, and requests the OCR server 104 to recognize the characters included in the processing target image 21. The OCR server 104 may be an information processing device such as a computer or workstation that executes optical character recognition (OCR) in response to a request from the manipulation detection server 103. The OCR server 104 includes a character recognition unit 141. The character recognition unit 141 executes OCR on the processing target image 21 by a known method to recognize the character and the position of the character region in the processing target image 21. Then, the character recognition unit 141 transmits the recognition result data 31 indicating the recognition result to the tampering detection server 103.

<<2.装置の構成>>
図2(A)は、画像処理装置101の構成の一例を示すブロック図である。図2(B)は、学習装置102の構成の一例を示すブロック図である。図2(C)は、改竄検出サーバ103の構成の一例を示すブロック図である。
<< 2. Device configuration >>
FIG. 2A is a block diagram showing an example of the configuration of the image processing device 101. FIG. 2B is a block diagram showing an example of the configuration of the learning device 102. FIG. 2C is a block diagram showing an example of the configuration of the tampering detection server 103.

(1)画像処理装置
画像処理装置101は、CPU201、ROM202、RAM204、プリンタデバイス205、スキャナデバイス206、搬送デバイス207、ストレージ208、入力デバイス209、表示デバイス210及び外部I/F211を備える。データバス203は、画像処理装置101内のこれらデバイスを相互に接続する通信線である。
(1) Image processing device The image processing device 101 includes a CPU 201, a ROM 202, a RAM 204, a printer device 205, a scanner device 206, a transport device 207, a storage 208, an input device 209, a display device 210, and an external I / F 211. The data bus 203 is a communication line that connects these devices in the image processing device 101 to each other.

CPU(Central Processing Unit)201は、画像処理装置101の全体を制御するためのコントローラである。CPU201は、不揮発メモリであるROM202に予め記憶されるブートプログラムを実行して、画像処理装置101のOS(Operating System)を起動する。CPU201は、このOS上で、ストレージ208に記憶されているコントローラプログラムを実行する。コントローラプログラムは、画像処理装置101のデバイスの各々を制御するためのプログラムである。RAM204は、CPU201の主記憶デバイスとして使用され、CPU201に一時的な記憶領域(即ち、ワークエリア)を提供する。 The CPU (Central Processing Unit) 201 is a controller for controlling the entire image processing device 101. The CPU 201 executes a boot program stored in advance in the ROM 202, which is a non-volatile memory, to start the OS (Operating System) of the image processing device 101. The CPU 201 executes the controller program stored in the storage 208 on this OS. The controller program is a program for controlling each of the devices of the image processing device 101. The RAM 204 is used as the main storage device of the CPU 201 and provides the CPU 201 with a temporary storage area (ie, a work area).

プリンタデバイス205は、画像を用紙(記録材又はシートともいう)上に印刷するデバイスである。プリンタデバイス205は、印刷方式として、感光体ドラム若しくは感光体ベルトを用いる電子写真方式、又は微小ノズルアレイからインクを吐出して用紙上に直接画像を印字するインクジェット方式など、いかなる方式を採用してもよい。スキャナデバイス206は、原稿を光学的に走査するCCD(Charge Coupled Device)などの光学読取デバイスを含み、光学読取デバイスからの電気信号を読取画像の画像データへ変換する。搬送デバイス207は、いわゆるADF(Auto Document Feeder)を含んでもよく、ADFにセットされる原稿を1枚ずつスキャナデバイス206へ搬送する。スキャナデバイス206は、搬送デバイス207から搬送されて来る原稿を読取ることに加え、画像処理装置101の原稿台(図示せず)上に載置される原稿を読取ることが可能であってもよい。 The printer device 205 is a device that prints an image on paper (also referred to as a recording material or a sheet). The printer device 205 employs any method as a printing method, such as an electrophotographic method using a photoconductor drum or a photoconductor belt, or an inkjet method in which ink is ejected from a minute nozzle array to print an image directly on paper. May be good. The scanner device 206 includes an optical reading device such as a CCD (Charge Coupled Device) that optically scans a document, and converts an electric signal from the optical reading device into image data of a scanned image. The transport device 207 may include a so-called ADF (Auto Document Feeder), and transports the documents set in the ADF one by one to the scanner device 206. The scanner device 206 may be capable of reading the document placed on the platen (not shown) of the image processing device 101 in addition to reading the document conveyed from the transfer device 207.

ストレージ208は、例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive)といった、不揮発性メモリを含む書込み及び読出しが可能な補助記憶デバイスであってよい。ストレージ208は、例えば、上述したコントローラプログラム、設定データ及び画像データなど、様々なデータを記憶する。入力デバイス209は、例えばタッチパネル又はハードキーなどを含み、ユーザからの操作指示又は情報入力といったユーザ入力を受付ける。入力デバイス209は、受付けたユーザ入力の内容を表す入力信号をCPU201へ送信する。表示デバイス210は、例えばLCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などを含み、CPU201により生成される画像(例えば、ユーザインタフェース画像)を画面上に表示する。例えば、CPU201は、入力デバイス209から受信される入力信号により示されるポインティング位置と、表示デバイス210により表示されているユーザインタフェースの配置とに基づいて、ユーザによりどういった操作が行われたかを判定してもよい。CPU201は、この判定結果に応じて、対応するデバイスの動作を制御し、又は表示デバイス210により表示される内容を変化させる。 The storage 208 may be a write / read auxiliary storage device including a non-volatile memory such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). The storage 208 stores various data such as the controller program, setting data, and image data described above. The input device 209 includes, for example, a touch panel or a hard key, and accepts user input such as an operation instruction or information input from the user. The input device 209 transmits an input signal representing the contents of the received user input to the CPU 201. The display device 210 includes, for example, an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube), and displays an image (for example, a user interface image) generated by the CPU 201 on the screen. For example, the CPU 201 determines what kind of operation has been performed by the user based on the pointing position indicated by the input signal received from the input device 209 and the arrangement of the user interface displayed by the display device 210. You may. The CPU 201 controls the operation of the corresponding device or changes the content displayed by the display device 210 according to the determination result.

外部インタフェース(I/F)211は、ネットワーク105を介して、外部機器との間で画像データを含む多様なデータを送受信する。ネットワーク105は、例えばLAN(Local Area Network)、電話回線又は近接無線(例えば、赤外線)ネットワークといった、いかなる種類のネットワークであってもよい。外部I/F211は、例えば、学習装置102又はPC(図示せず)といった外部機器から、印刷用の描画内容を記述したPDL(Page Description Language)データを受信し得る。CPU201は、外部I/F211により受信される当該PDLデータを解釈して、画像データを生成する。画像データは、印刷のためにプリンタデバイス205へ送信され、又は記憶のためにストレージ208へ送信され得る。また、外部I/F211は、スキャナデバイス206により取得される読取画像の画像データを改竄検出のために改竄検出サーバ103へ送信し、検出結果データを改竄検出サーバ103から受信し得る。 The external interface (I / F) 211 transmits and receives various data including image data to and from the external device via the network 105. The network 105 may be any type of network, for example a LAN (Local Area Network), a telephone line or a proximity radio (eg, infrared) network. The external I / F211 can receive PDL (Page Description Language) data describing drawing contents for printing from, for example, an external device such as a learning device 102 or a PC (not shown). The CPU 201 interprets the PDL data received by the external I / F 211 to generate image data. The image data may be transmitted to the printer device 205 for printing or to storage 208 for storage. Further, the external I / F 211 can transmit the image data of the scanned image acquired by the scanner device 206 to the tampering detection server 103 for tampering detection, and receive the detection result data from the tampering detection server 103.

(2)学習装置
学習装置102は、CPU231、ROM232、RAM234、ストレージ235、入力デバイス236、表示デバイス237、外部I/F238及びGPU239を備える。データバス233は、学習装置102内のこれらデバイスを相互に接続する通信線である。
(2) Learning device The learning device 102 includes a CPU 231, a ROM 232, a RAM 234, a storage 235, an input device 236, a display device 237, an external I / F 238, and a GPU 239. The data bus 233 is a communication line that connects these devices in the learning device 102 to each other.

CPU231は、学習装置102の全体を制御するためのコントローラである。CPU231は、不揮発メモリであるROM232に予め記憶されるブートプログラムを実行して、学習装置102のOSを起動する。CPU231は、このOSの上で、ストレージ235に記憶されている学習用データ生成プログラム及び学習プログラムを実行する。学習用データ生成プログラムは、学習用原本画像12及び学習用改竄画像13のペアから学習用データを生成するためのプログラムである。学習プログラムは、改竄検出のための学習済みモデル(例えば、ニューラルネットワークモデル)を機械学習を通じて生成/更新するためのプログラムである。RAM234は、CPU231の主記憶デバイスとして使用され、CPU231に一時的な記憶領域(即ち、ワークエリア)を提供する。 The CPU 231 is a controller for controlling the entire learning device 102. The CPU 231 executes a boot program stored in advance in the ROM 232 which is a non-volatile memory to start the OS of the learning device 102. The CPU 231 executes a learning data generation program and a learning program stored in the storage 235 on this OS. The learning data generation program is a program for generating learning data from a pair of a learning original image 12 and a learning falsified image 13. The learning program is a program for generating / updating a trained model (for example, a neural network model) for tampering detection through machine learning. The RAM 234 is used as the main storage device of the CPU 231 and provides the CPU 231 with a temporary storage area (ie, a work area).

ストレージ235は、例えばHDD又はSSDといった、不揮発性メモリを含む書込み及び読出しが可能な補助記憶デバイスであってよい。ストレージ235は、例えば、上述したプログラム、学習用画像、学習用データ及びモデルデータなど、様々なデータを記憶する。入力デバイス236は、例えばマウス及びキーボードなどを含み、ユーザからの操作指示又は情報入力といったユーザ入力を受付ける。表示デバイス237は、例えばLCD又はCRTなどを含み、CPU231により生成される画像を画面上に表示する。外部I/F238は、ネットワーク105を介して、外部機器との間で学習処理に関連するデータを送受信する。外部I/F238は、例えば、学習用原本画像12及び学習用改竄画像13のペアを画像処理装置101から受信し得る。また、外部I/F238は、機会学習を通じて生成/更新された学習済みモデル41を、改竄検出サーバ103へ送信し得る。GPU239は、高度な並列処理の能力を有するプロセッサであり、CPU231と協調して学習済みモデルを生成/更新するための学習処理を促進する。 The storage 235 may be a writable and readable auxiliary storage device, including a non-volatile memory, such as an HDD or SSD. The storage 235 stores various data such as the above-mentioned program, learning image, learning data, and model data. The input device 236 includes, for example, a mouse and a keyboard, and accepts user input such as an operation instruction or information input from the user. The display device 237 includes, for example, an LCD or a CRT, and displays an image generated by the CPU 231 on the screen. The external I / F 238 transmits / receives data related to the learning process to / from the external device via the network 105. The external I / F 238 may receive, for example, a pair of the learning original image 12 and the learning falsified image 13 from the image processing device 101. Further, the external I / F 238 may transmit the learned model 41 generated / updated through opportunity learning to the alteration detection server 103. The GPU 239 is a processor having a high degree of parallel processing capability, and promotes learning processing for generating / updating a trained model in cooperation with CPU 231.

(3)改竄検出サーバ
改竄検出サーバ103は、CPU261、ROM262、RAM264、ストレージ265、入力デバイス266、表示デバイス267及び外部I/F268を備える。データバス263は、改竄検出サーバ103内のこれらデバイスを相互に接続する通信線である。
(3) Manipulation detection server The manipulation detection server 103 includes a CPU 261 and a ROM 262, a RAM 264, a storage 265, an input device 266, a display device 267, and an external I / F 268. The data bus 263 is a communication line that connects these devices in the tamper detection server 103 to each other.

CPU261は、改竄検出サーバ103の全体を制御するためのコントローラである。CPU261は、不揮発メモリであるROM262に予め記憶されるブートプログラムを実行することにより、改竄検出サーバ103のOSを起動する。CPU261は、このOSの上で、ストレージ265に記憶されている改竄検出プログラムを実行する。改竄検出プログラムは、クライアント装置(例えば、画像処理装置101)から取得される対象原稿の読取画像(即ち、処理対象画像)を用いて対象原稿に含まれる改竄部分を検出するためのプログラムである。RAM264は、CPU261の主記憶デバイスとして使用され、CPU261に一時的な記憶領域(即ち、ワークエリア)を提供する。 The CPU 261 is a controller for controlling the entire tampering detection server 103. The CPU 261 boots the OS of the tampering detection server 103 by executing a boot program stored in advance in the ROM 262, which is a non-volatile memory. The CPU 261 executes a tampering detection program stored in the storage 265 on this OS. The falsification detection program is a program for detecting a falsified portion included in a target manuscript by using a scanned image (that is, a processing target image) of the target manuscript acquired from a client device (for example, an image processing device 101). The RAM 264 is used as the main storage device of the CPU 261 and provides the CPU 261 with a temporary storage area (ie, work area).

ストレージ265は、例えばHDD又はSSDといった、不揮発性メモリを含む書込み及び読出しが可能な補助記憶デバイスであってよい。ストレージ265は、例えば、上述したプログラム、画像データ及び検出結果データなど、様々なデータを記憶する。入力デバイス266は、例えばマウス及びキーボードなどを含み、ユーザからの操作指示又は情報入力といったユーザ入力を受付ける。表示デバイス267は、例えばLCD又はCRTなどを含み、CPU261により生成される画像を画面上に表示する。外部I/F268は、ネットワーク105を介して、外部機器との間で改竄検出に関連するデータを送受信する。外部I/F268は、例えば、処理対象画像21を画像処理装置101から受信し、検出結果データ32を画像処理装置101へ送信し得る。また、外部I/F268は、学習済みモデル41の提供を求める要求を学習装置102へ送信し、学習済みモデル41を学習装置102から受信し得る。また、外部I/F268は、OCRの実行を求める要求をOCRサーバ104へ送信し、OCRの結果を示す認識結果データ31をOCRサーバ104から受信し得る。 The storage 265 may be a writable and readable auxiliary storage device, including a non-volatile memory, such as an HDD or SSD. The storage 265 stores various data such as the above-mentioned program, image data, and detection result data. The input device 266 includes, for example, a mouse and a keyboard, and accepts user input such as an operation instruction or information input from the user. The display device 267 includes, for example, an LCD or a CRT, and displays an image generated by the CPU 261 on the screen. The external I / F 268 transmits / receives data related to tampering detection to / from an external device via the network 105. The external I / F 268 may, for example, receive the image 21 to be processed from the image processing device 101 and transmit the detection result data 32 to the image processing device 101. Further, the external I / F 268 can transmit a request for providing the trained model 41 to the learning device 102 and receive the trained model 41 from the learning device 102. Further, the external I / F 268 can transmit a request for execution of the OCR to the OCR server 104, and can receive the recognition result data 31 indicating the result of the OCR from the OCR server 104.

なお、図2には示していないものの、OCRサーバ104の構成もまた改竄検出サーバ103と同様であってよい。 Although not shown in FIG. 2, the configuration of the OCR server 104 may be the same as that of the tampering detection server 103.

<<3.処理の流れ>>
図3(A)は、画像処理システム100における学習段階の処理の概略的な流れの一例を示すシーケンス図である。図3(B)は、画像処理システム100における改竄検出段階の処理の概略的な流れの一例を示すシーケンス図である。なお、以下の説明では、処理ステップをS(ステップ)と略記する。
<< 3. Process flow >>
FIG. 3A is a sequence diagram showing an example of a schematic flow of processing in the learning stage in the image processing system 100. FIG. 3B is a sequence diagram showing an example of a schematic flow of processing in the falsification detection stage in the image processing system 100. In the following description, the processing step is abbreviated as S (step).

<3−1.学習段階>
学習段階において、まず、オペレータは、S301で、手書きで文字を記入した学習用原稿を画像処理装置101にセットし、原稿の読取りを画像処理装置101に指示する。このとき、オペレータは、セットした学習用原稿が(改竄されていない)原本であることを入力デバイス209を介して画像処理装置101に入力する。画像処理装置101の読取部111は、オペレータからの指示に応じて、S302で、セットされた学習用原稿を読取って、読取画像12を生成する。また、読取部111は、読取画像12が学習用原本画像であることを示すフラグを読取画像12に付与する。また、オペレータは、S303で、改竄を加えられた学習用原稿を画像処理装置101にセットし、原稿の読取りを画像処理装置101に指示する。このとき、オペレータは、セットした学習用原稿が改竄部分を含むことを入力デバイス209を介して画像処理装置101に入力する。画像処理装置101の読取部111は、オペレータからの指示に応じて、S304で、セットされた学習用原稿を読取って、読取画像13を生成する。また、読取部111は、読取画像13が学習用改竄画像であることを示すフラグを読取画像13に付与する。読取部111は、S302及びS304で学習用原稿が有する識別情報を読取ることにより、学習用原本画像12及び学習用改竄画像13が同じ学習用原稿の原本及び改竄されたバージョンのペアであることを認識する。そして、読取部111は、認識した学習用原稿を識別する文書IDを学習用原本画像12及び学習用改竄画像13に関連付ける。さらに、読取部111は、学習済みモデルの生成/更新の単位を識別するデータセットIDを学習用原本画像12及び学習用改竄画像13に関連付ける。一例として、画像処理装置ごとに1つの学習済みモデルを生成/更新する場合には、データセットIDは、画像処理装置101を一意に識別する識別子であってよい。他の例として、ユーザごとに1つの学習済みモデルを生成/更新する場合には、データセットIDは、各ユーザを一意に識別する識別子であってもよい。また別の例として、ユーザグループごとに1つの学習済みモデルを生成/更新する場合には、データセットIDは、各ユーザグループを一意に識別する識別子であってもよい。S305で、読取部111は、このように生成される学習用画像及び関連するデータ(即ち、学習用原本画像12、学習用改竄画像13、フラグ、文書ID及びデータセットID)を学習装置102へ送信する。
<3-1. Learning stage >
In the learning stage, first, in S301, the operator sets the learning manuscript in which characters are written by hand in the image processing device 101, and instructs the image processing device 101 to read the manuscript. At this time, the operator inputs to the image processing device 101 via the input device 209 that the set learning manuscript is the original (not tampered with). The reading unit 111 of the image processing device 101 reads the set learning document in S302 in response to an instruction from the operator, and generates a scanned image 12. Further, the reading unit 111 adds a flag to the reading image 12 indicating that the reading image 12 is a learning original image. Further, in S303, the operator sets the falsified learning document in the image processing device 101, and instructs the image processing device 101 to read the document. At this time, the operator inputs to the image processing device 101 via the input device 209 that the set learning document includes a falsified portion. The reading unit 111 of the image processing device 101 reads the set learning document in S304 in response to an instruction from the operator, and generates a scanned image 13. Further, the reading unit 111 gives the read image 13 a flag indicating that the read image 13 is a falsified image for learning. By reading the identification information of the learning manuscript in S302 and S304, the reading unit 111 determines that the learning original image 12 and the learning falsified image 13 are a pair of the original learning manuscript and the falsified version. recognize. Then, the reading unit 111 associates the recognized document ID that identifies the learning manuscript with the learning original image 12 and the learning falsified image 13. Further, the reading unit 111 associates the data set ID that identifies the unit of generation / update of the learned model with the learning original image 12 and the learning falsified image 13. As an example, when one trained model is generated / updated for each image processing device, the data set ID may be an identifier that uniquely identifies the image processing device 101. As another example, when generating / updating one trained model for each user, the dataset ID may be an identifier that uniquely identifies each user. As another example, when one trained model is generated / updated for each user group, the data set ID may be an identifier that uniquely identifies each user group. In S305, the reading unit 111 sends the learning image and related data (that is, the learning original image 12, the learning falsified image 13, the flag, the document ID, and the data set ID) generated in this way to the learning device 102. Send.

図4は、空欄の学習用原稿の一例を示す模式図である。図4の例において、学習用原稿401は、8個の文字記入欄402を有する帳票形式の文書である。オペレータは、各文字記入欄402に任意の文字を記入して、学習用原稿の原本を作成し得る。学習用原稿401は、右上に識別情報403を有する。識別情報(埋込情報ともいう)403は、学習用原稿401を一意に識別する文書IDを二次元コードで視覚的に表現している。各文書IDにより識別される学習用原稿が原稿中のどの位置にどういったサイズの文字記入欄を有するかは、予め定義され、学習装置102と共有されている。文書IDは、例えばUUID(Universally Unique Identifier)であってよい。 FIG. 4 is a schematic diagram showing an example of a blank learning manuscript. In the example of FIG. 4, the learning manuscript 401 is a form-type document having eight character entry fields 402. The operator can create an original learning manuscript by entering arbitrary characters in each character entry field 402. The learning manuscript 401 has identification information 403 in the upper right. The identification information (also referred to as embedded information) 403 visually represents the document ID that uniquely identifies the learning manuscript 401 with a two-dimensional code. The position and size of the character entry field in the manuscript for the learning manuscript identified by each document ID are defined in advance and shared with the learning device 102. The document ID may be, for example, a UUID (Universally Unique Identifier).

図5は、画像処理装置101が原稿読取りの指示を受付けるためのGUI(Graphical User Interface)の一例を示す模式図である。図5に示した操作ウィンドウ500は、例えば表示デバイス210の画面上に表示され得る。操作ウィンドウ500は、プレビュー領域501、種別指定ボタン502、503、スキャンボタン505及び送信開始ボタン506を有する。種別指定ボタン502、503は、これから読取ろうとする原稿又は読取られた原稿の種別(属性ともいう)として、原本であるか又は改竄バージョンであるかをオペレータに指定させるためのボタンである。種別指定ボタン502が操作(例えば、タップ)された場合、読取部111は、読取画像が学習用改竄画像であることを示すフラグを読取画像に付与する。一方、種別指定ボタン503が操作された場合、読取部111は、読取画像が学習用原本画像であることを示すフラグを読取画像に付与する。操作ウィンドウ500において、指定済みの種別(原本又は改竄)に対応するボタンは、強調的に表示されてよい。スキャンボタン505は、画像処理装置101にセットされた原稿の読取りをトリガするためのボタンである。スキャンボタン505が操作され、スキャンが完了すると、プレビュー領域501に読取画像のプレビューイメージが表示される。オペレータは、データの送信が開始される前に、画像処理装置101に別の原稿をセットしてスキャンボタン505を再度操作することで、複数の読取画像及び関連するデータをまとめて画像処理装置101に保持させてもよい。少なくとも1つの学習用原稿のスキャンが完了し、原稿の種別が指定されると、送信開始ボタン506が操作可能となる。送信開始ボタン506は、読取画像及び関連するデータの送信をトリガするためのボタンである。送信開始ボタン506が操作されると、読取部111は、学習用画像及び関連するデータを学習装置102へ送信する(図3のS305参照)。 FIG. 5 is a schematic view showing an example of a GUI (Graphical User Interface) for the image processing device 101 to receive an instruction for reading a document. The operation window 500 shown in FIG. 5 may be displayed on the screen of the display device 210, for example. The operation window 500 has a preview area 501, type designation buttons 502 and 503, a scan button 505, and a transmission start button 506. The type designation buttons 502 and 503 are buttons for causing the operator to specify whether the original or the falsified version is the type (also referred to as an attribute) of the original to be read or the scanned original. When the type designation button 502 is operated (for example, tapped), the reading unit 111 gives the read image a flag indicating that the read image is a falsified image for learning. On the other hand, when the type designation button 503 is operated, the reading unit 111 gives the read image a flag indicating that the read image is the original image for learning. In the operation window 500, the buttons corresponding to the specified type (original or tampered with) may be highlighted. The scan button 505 is a button for triggering the reading of the document set in the image processing device 101. When the scan button 505 is operated and the scan is completed, the preview image of the scanned image is displayed in the preview area 501. Before the data transmission is started, the operator sets another document in the image processing device 101 and operates the scan button 505 again to collect a plurality of scanned images and related data into the image processing device 101. May be retained by. When the scanning of at least one learning document is completed and the type of the document is specified, the transmission start button 506 can be operated. The transmission start button 506 is a button for triggering the transmission of the scanned image and related data. When the transmission start button 506 is operated, the reading unit 111 transmits the learning image and related data to the learning device 102 (see S305 in FIG. 3).

図3(A)のS305で、学習装置102のデータ処理部121は、画像処理装置101から学習用画像及び関連するデータを受信する。S306で、データ処理部121は、受信した学習用画像及び関連するデータを記憶部123に記憶させる。データ処理部121及び学習部122は、学習のために十分な量のデータが蓄積されると、機械学習のための処理を開始する。まず、S307で、データ処理部121は、学習用原本画像12及び学習用改竄画像13のペアを記憶部123から読出し、読出したこれら画像から学習用データを生成する。 In S305 of FIG. 3A, the data processing unit 121 of the learning device 102 receives the learning image and related data from the image processing device 101. In S306, the data processing unit 121 stores the received learning image and related data in the storage unit 123. The data processing unit 121 and the learning unit 122 start processing for machine learning when a sufficient amount of data for learning is accumulated. First, in S307, the data processing unit 121 reads a pair of the learning original image 12 and the learning falsified image 13 from the storage unit 123, and generates learning data from these read images.

図6は、学習用画像から学習用データがいかにして生成されるかを説明するための説明図である。図6(A)及び図6(B)は、学習用原本画像12及び学習用改竄画像13の例をそれぞれ示している。上で説明したように、1つのペアを構成する学習用原本画像12及び学習用改竄画像13は、共通的な文字記入欄を有する。図6の例では、学習用原本画像12の文字記入欄402aに、数字の「1」が記入されている。一方、学習用改竄画像13の文字記入欄402bの内容は改竄されており、ストロークが書き足された結果、文字記入欄402bは数字の「4」を示しているように見える。データ処理部121は、学習用原本画像12及び学習用改竄画像13から各文字記入欄の領域の部分画像を切出し、共通する文字記入欄から切出した部分画像同士の差分画像を算出する。データ処理部121は、切出すべき各文字記入欄の位置を、識別情報403を読取ることにより取得される文書IDに基づいて知得し得る。この差分画像においてゼロ又は予め決定される閾値以下の絶対値を示す画素は、改竄部分に属さないと想定され、当該閾値を上回る絶対値を示す画素は、改竄部分に属すると想定され得る。図6(C)に示した文字領域画像611は、学習用改竄画像13の文字記入欄402bから切出された部分画像である。文字領域画像611は、学習部122により機械学習のモデルへ入力される学習用の入力画像となる。図6(C)に示した二値画像612は、文字領域画像611から、学習用原本画像12の文字記入欄402aから切出された部分画像を(必要に応じて位置合わせを行った後)減算し、さらに上記閾値に基づく二値化を行うことにより生成/更新された画像である。二値画像612において真を示す画素(図中で白色の画素)は改竄部分に属し、偽を示す画素(図中で黒色の画素)は改竄部分に属さない。二値画像612は、学習部122により機械学習の教師データとして扱われる教師画像となる。 FIG. 6 is an explanatory diagram for explaining how the learning data is generated from the learning image. 6 (A) and 6 (B) show examples of the original learning image 12 and the falsified learning image 13, respectively. As described above, the learning original image 12 and the learning falsified image 13 constituting one pair have a common character entry field. In the example of FIG. 6, the number "1" is entered in the character entry field 402a of the learning original image 12. On the other hand, the content of the character entry field 402b of the falsified image 13 for learning has been falsified, and as a result of adding strokes, the character entry field 402b seems to indicate the number "4". The data processing unit 121 cuts out a partial image of the area of each character entry field from the learning original image 12 and the learning tampered image 13, and calculates a difference image between the partial images cut out from the common character entry field. The data processing unit 121 can know the position of each character entry field to be cut out based on the document ID acquired by reading the identification information 403. In this difference image, a pixel showing an absolute value of zero or a threshold value or less determined in advance is assumed not to belong to the falsified portion, and a pixel showing an absolute value exceeding the threshold value can be assumed to belong to the falsified portion. The character area image 611 shown in FIG. 6C is a partial image cut out from the character entry field 402b of the learning falsified image 13. The character area image 611 is an input image for learning that is input to the machine learning model by the learning unit 122. The binary image 612 shown in FIG. 6C is a partial image cut out from the character entry field 402a of the original image 12 for learning from the character area image 611 (after alignment as necessary). It is an image generated / updated by subtraction and further binarization based on the above threshold value. In the binary image 612, the pixel indicating true (white pixel in the figure) belongs to the falsified portion, and the pixel indicating false (black pixel in the figure) does not belong to the falsified portion. The binary image 612 is a teacher image that is treated as teacher data for machine learning by the learning unit 122.

なお、学習用画像は、対応する学習用改竄画像13の無い学習用原本画像12を含んでもよい。この場合、データ処理部121は、学習用原本画像12の文字記入欄402aから切出される部分画像を学習用の入力画像、同じサイズで全画素が偽を示す(即ち、全体として改竄部分が無いことを示す)二値画像を教師画像として生成し得る。 The learning image may include a learning original image 12 without the corresponding learning falsified image 13. In this case, the data processing unit 121 indicates that the partial image cut out from the character entry field 402a of the original learning image 12 is the input image for learning, and all the pixels have the same size and are false (that is, there is no tampered portion as a whole). A binary image can be generated as a teacher image.

データ処理部121は、同一のデータセットIDに関連付けられている学習用原本画像12及び学習用改竄画像13の複数のペアに基づいて、上述した入力画像及び対応する教師画像を複数生成する。次いで、S308で、学習部122は、同一のデータセットIDの範囲内で、これら入力画像及び教師画像を用いた学習処理を反復的に実行し、改竄検出のための学習済みモデル41を生成/更新する。学習済みモデル41は、限定ではないものの、例えば完全畳込みネットワーク(FCN)型のモデルであってもよい。学習処理の1回の反復は、例えば、モデルへの入力画像の入力、(暫定的なパラメータ値を有する)モデルに従って算出される出力データの教師データに対する誤差の算出、及び、誤差を減少させるためのパラメータ値の調整を含み得る。誤差の指標として、例えば交差エントロピーが使用され得る。また、パラメータ値の調整の手法として、例えばバックプロパゲーション法が使用され得る。学習部122は、学習が収束したと判定されるまで、又は反復回数が上限値に達するまで、学習処理を反復し得る。そして、学習部122は、生成/更新した学習済みモデル41(学習済みモデル41を構成するモデルパラメータのセット)を、対応するデータセットIDに関連付けて記憶部123に記憶させる。学習部122は、相異なる2つ以上のデータセットIDについて、それぞれ別個の学習済みモデル41を生成/更新してもよい。また、学習部122は、過去に生成/更新した学習済みモデル41を、新たに取得された学習用画像を用いた追加的な学習処理を通じて更新してもよい。また、学習部122は、学習処理に入力すべき学習用データを、オンライン学習、バッチ学習又はミニバッチ学習のいずれの手法で選択してもよい。 The data processing unit 121 generates a plurality of the above-mentioned input images and corresponding teacher images based on a plurality of pairs of the learning original image 12 and the learning tampered image 13 associated with the same data set ID. Next, in S308, the learning unit 122 repeatedly executes a learning process using these input images and teacher images within the same data set ID range, and generates a trained model 41 for tampering detection / Update. The trained model 41 may be, for example, a fully convoluted network (FCN) type model, although it is not limited. One iteration of the training process is, for example, inputting an input image into the model, calculating an error in the teacher data of the output data calculated according to the model (having provisional parameter values), and reducing the error. It may include adjustment of the parameter value of. For example, cross entropy can be used as an index of error. Further, as a method for adjusting the parameter value, for example, a back propagation method can be used. The learning unit 122 may repeat the learning process until it is determined that the learning has converged or the number of iterations reaches the upper limit. Then, the learning unit 122 stores the generated / updated learned model 41 (a set of model parameters constituting the learned model 41) in the storage unit 123 in association with the corresponding data set ID. The learning unit 122 may generate / update a separate trained model 41 for each of two or more different data set IDs. Further, the learning unit 122 may update the learned model 41 generated / updated in the past through additional learning processing using the newly acquired learning image. Further, the learning unit 122 may select learning data to be input to the learning process by any method of online learning, batch learning, or mini-batch learning.

<3−2.改竄検知段階>
(1)概略的な流れ
改竄検出段階において、まず、ユーザは、S351で、対象原稿を画像処理装置101にセットし、原稿の読取りを画像処理装置101に指示する。なお、ここでのユーザは、学習段階に関与したオペレータと同一の人物であってもよく、又は異なる人物であってもよい。画像処理装置101の読取部111は、ユーザからの指示に応じて、S352で、セットされた対象原稿を読取って、読取画像21を生成する。また、ユーザは、S353で、対象原稿について改竄を検出することを画像処理装置101に指示する。読取部111は、改竄検出の指示に応じて、S354で、読取画像21が処理対象画像であることを示すフラグを読取画像21に付与し、改竄検出に関連する設定データを(例えば、メモリから)取得する。ここで取得される設定データは、例えば、改竄検出のために利用すべき学習済みモデルを特定するデータセットID(例えば、画像処理装置101、ユーザ又はユーザグループを識別する識別子)を含み得る。そして、読取部111は、S355で、改竄検出要求と共に、処理対象画像21及び関連するデータを改竄検出サーバ103へ送信する。
<3-2. Falsification detection stage>
(1) Outline Flow In the tampering detection stage, first, in S351, the user sets the target document in the image processing device 101 and instructs the image processing device 101 to read the document. The user here may be the same person as the operator involved in the learning stage, or may be a different person. The scanning unit 111 of the image processing device 101 reads the set target document in S352 in response to an instruction from the user, and generates a scanned image 21. In addition, the user instructs the image processing device 101 to detect falsification of the target document in S353. In response to the instruction for tampering detection, the reading unit 111 gives the read image 21 a flag indicating that the read image 21 is the image to be processed in S354, and sets setting data related to tampering detection (for example, from the memory). )get. The setting data acquired here may include, for example, a data set ID (for example, an image processing device 101, an identifier that identifies a user or a user group) that identifies a trained model to be used for tampering detection. Then, in S355, the reading unit 111 transmits the processing target image 21 and the related data to the tampering detection server 103 together with the tampering detection request.

改竄検出サーバ103の画像取得部131は、S355で、改竄検出要求と共に、対象原稿の読取画像である処理対象画像21及び関連するデータを画像処理装置101から受信する。画像取得部131は、受信した画像及びデータを検出部132へ出力する。検出部132は、S356で、最新の学習済みモデル41の提供を学習装置102へ要求する。ここで学習装置102へ送信されるモデル要求は、例えば、データセットIDを含み得る。学習装置102の学習部122は、モデル要求の受信に応じて、S357で、(例えば、データセットIDにより特定される)最新の学習済みモデル41を記憶部123から読出し、読出した学習済みモデル41を検出部132へ送信する。次いで、S358で、検出部132は、処理対象画像21をOCRサーバ104へ送信して、処理対象画像21に含まれる文字の認識をOCRサーバ104に要求する。OCRサーバ104の文字認識部141は、OCR要求の受信に応じて、S359で、処理対象画像21についてOCRを実行して、処理対象画像21内の文字と文字領域の位置とを認識する。次いで、文字認識部141は、S360で、認識結果を示す認識結果データ31を検出部132へ送信する。検出部132は、S361で、学習装置102から提供された学習済みモデル41に処理対象画像21を適用することにより、対象原稿に含まれる改竄部分を検出する。学習済みモデル41は、上述したように学習用原稿の読取画像である学習用画像を用いた機械学習を通じて生成/更新されたモデルである。ここでの改竄検出処理において、検出部132は、例えば、OCRの結果として認識された文字領域ごとに、処理対象画像21の部分画像を処理対象画像21に適用する。その結果、処理対象画像21内で認識された文字の文字領域の各々について、各画素が改竄部分に属するか否かを示すビットマップである改竄検出結果が生成される。次いで、検出部132は、S362で、検出結果データ32を画像処理装置101へ送信する。検出結果データ32は、それぞれの文字領域について得られた上記ビットマップを統合することにより生成される、(各画素が改竄部分に属するか否かを示す)処理対象画像21と同じサイズの統合されたビットマップを含む。この統合されたビットマップを、以下の説明において検出結果画像という。検出部132は、処理対象画像21において改竄検出の結果として改竄部分に属すると判定された画素(以下、改竄画素という)を強調して示す強調画像を追加的に生成し、生成した強調画像を検出結果データ32に含めてもよい。 In S355, the image acquisition unit 131 of the tampering detection server 103 receives the tampering detection request and the processing target image 21 which is a scanned image of the target document and related data from the image processing device 101. The image acquisition unit 131 outputs the received image and data to the detection unit 132. In S356, the detection unit 132 requests the learning device 102 to provide the latest trained model 41. The model request transmitted here to the learning device 102 may include, for example, a dataset ID. The learning unit 122 of the learning device 102 reads the latest learned model 41 (specified by, for example, the data set ID) from the storage unit 123 in S357 in response to the reception of the model request, and the learned model 41 is read out. Is transmitted to the detection unit 132. Next, in S358, the detection unit 132 transmits the processing target image 21 to the OCR server 104, and requests the OCR server 104 to recognize the characters included in the processing target image 21. In response to the reception of the OCR request, the character recognition unit 141 of the OCR server 104 executes OCR on the processing target image 21 in S359 to recognize the character and the position of the character area in the processing target image 21. Next, the character recognition unit 141 transmits the recognition result data 31 indicating the recognition result to the detection unit 132 in S360. The detection unit 132 detects the falsified portion included in the target manuscript by applying the processing target image 21 to the learned model 41 provided by the learning device 102 in S361. The trained model 41 is a model generated / updated through machine learning using a learning image which is a scanned image of a learning manuscript as described above. In the tampering detection process here, the detection unit 132 applies a partial image of the process target image 21 to the process target image 21 for each character region recognized as a result of OCR, for example. As a result, a falsification detection result, which is a bitmap indicating whether or not each pixel belongs to the falsification portion, is generated for each of the character regions of the characters recognized in the processing target image 21. Next, the detection unit 132 transmits the detection result data 32 to the image processing device 101 in S362. The detection result data 32 is integrated with the same size as the processing target image 21 (indicating whether or not each pixel belongs to the falsified portion) generated by integrating the above-mentioned bitmaps obtained for each character area. Includes bitmaps. This integrated bitmap is referred to as a detection result image in the following description. The detection unit 132 additionally generates an enhanced image showing the pixels (hereinafter referred to as tampered pixels) determined to belong to the tampered portion as a result of the tampering detection in the processed image 21, and generates the generated enhanced image. It may be included in the detection result data 32.

図7(A)は、一例としての処理対象画像21aを示している。図7(B)は、処理対象画像21aについての改竄検出結果を示す検出結果画像32aを示している。図7(C)は、処理対象画像21aの改竄部分を強調した強調画像32bを示している。処理対象画像21aは、対象原稿として契約書を読取ることにより生成された画像である。処理対象画像21aは、複数の文字領域を有し、そのうちの1つの文字領域701aは数字の「4」を示すように見える。これら文字領域は、OCRサーバ104の文字認識部141により実行されるOCRの結果として認識され得る。改竄検出サーバ103の検出部132は、処理対象画像21からそれぞれの文字領域の文字領域画像を切出し、各文字領域画像に学習済みモデル41を適用する。その結果、各文字領域の各画素が改竄部分に属するか否かが判定される。検出結果画像32aは、改竄検出結果を画像全体として統合した二値画像である。検出結果画像32aにおいて、改竄部分に属すると判定された画素は真(図中で黒色)を示し、改竄部分に属さないと判定された画素は偽(図中で白色)を示す。例えば、文字領域701a内で数字の「4」の一部のストロークを構成する画素は真を示しており、これは当該ストロークが改竄のために事後的に追加された可能性があることを意味する。強調画像32bは、処理対象画像21a内で、検出結果画像32aが真を示す画素の色を特定の色に変更することにより生成される画像である。ここでの特定の色は、限定ではないものの、例えば赤色(RGB=(255,0,0))であってよい。図7(C)の例では、強調画像32b内の文字領域701aにおいて、数字の「4」の一部のストロークの色が変更されている。なお、改竄部分に属すると判定された画素を強調する手法は、上述したような色の変更に限定されず、太線化又は点滅などといった任意の手法であってよい。 FIG. 7A shows an image to be processed 21a as an example. FIG. 7B shows a detection result image 32a showing a falsification detection result for the processing target image 21a. FIG. 7C shows an emphasized image 32b in which the falsified portion of the image to be processed 21a is emphasized. The processing target image 21a is an image generated by reading the contract as the target manuscript. The image to be processed 21a has a plurality of character areas, and one of the character areas 701a appears to indicate the number "4". These character areas can be recognized as a result of OCR executed by the character recognition unit 141 of the OCR server 104. The detection unit 132 of the tampering detection server 103 cuts out a character area image of each character area from the processing target image 21, and applies the trained model 41 to each character area image. As a result, it is determined whether or not each pixel in each character area belongs to the falsified portion. The detection result image 32a is a binary image in which the falsification detection result is integrated as an entire image. In the detection result image 32a, the pixel determined to belong to the falsified portion indicates true (black in the figure), and the pixel determined not to belong to the falsified portion indicates false (white in the figure). For example, the pixels that make up some strokes of the number "4" in the character area 701a indicate true, which means that the strokes may have been added ex post facto for tampering. To do. The emphasized image 32b is an image generated by changing the color of the pixel in which the detection result image 32a indicates true in the processing target image 21a to a specific color. The specific color here may be, for example, red (RGB = (255,0,0)), although it is not limited. In the example of FIG. 7C, the color of a part of the stroke of the number “4” is changed in the character area 701a in the emphasized image 32b. The method of emphasizing the pixels determined to belong to the falsified portion is not limited to the color change as described above, and may be any method such as thickening or blinking.

図3のS362で、画像処理装置101の表示制御部112は、改竄検出サーバ103から上述した検出結果データ32を受信する。表示制御部112は、S363で、検出結果データ32に基づいて、改竄検出の結果を画面上に表示させる。とりわけ、本実施形態において、表示制御部112は、対象原稿において改竄部分が検出されたことを検出結果データ32が示す場合に、改竄部分を含む領域の強調画像及び比較画像を、画面上に対比的に表示させる。ここでの強調画像は、処理対象画像21における改竄部分を強調して示す画像であり、比較画像は、当該改竄部分を処理対象画像21の通りに示す画像である。それにより、ユーザは、強調画像から画像内のどの部分について改竄が疑われるかを把握した上で、比較画像における当該部分の色味又は濃淡を見て、実際に改竄があったかを判断することができる。そのような対比的な表示の例、及び比較画像のいくつかのバリエーションについて、後にさらに説明する。 In S362 of FIG. 3, the display control unit 112 of the image processing device 101 receives the above-mentioned detection result data 32 from the tampering detection server 103. In S363, the display control unit 112 displays the result of tampering detection on the screen based on the detection result data 32. In particular, in the present embodiment, when the detection result data 32 indicates that a falsified portion has been detected in the target document, the display control unit 112 compares the emphasized image and the comparative image of the region including the falsified portion on the screen. To display. The emphasized image here is an image in which the falsified portion of the processed image 21 is emphasized, and the comparative image is an image showing the falsified portion as in the processed image 21. As a result, the user can grasp which part of the image is suspected of being tampered with from the emphasized image, and then look at the color or shade of the part in the comparison image to determine whether or not the tampering has actually occurred. it can. An example of such a contrasting display, and some variations of the comparative image, will be further described later.

(2)改竄検出段階の具体的な流れ(画像処理装置)
図8は、改竄検出段階において画像処理装置101により実行される処理の具体的な流れの一例を示すフローチャートである。図8に示した処理は、ストレージ208からRAM204にロードされるコントローラプログラムを実行するCPU201による制御の下で、画像処理装置101において実行される。当該処理は、画像処理装置101の入力デバイス209を介してユーザによる所定の操作が検出された際に開始され得る。
(2) Specific flow of tampering detection stage (image processing device)
FIG. 8 is a flowchart showing an example of a specific flow of processing executed by the image processing device 101 in the tampering detection stage. The process shown in FIG. 8 is executed in the image processing device 101 under the control of the CPU 201 that executes the controller program loaded from the storage 208 to the RAM 204. The process may be started when a predetermined operation by the user is detected via the input device 209 of the image processing device 101.

まず、S801で、読取部111は、搬送デバイス207にセットされた対象原稿をスキャナデバイス206で読取って処理対象画像を生成する。処理対象画像は、例えばフルカラー(RGB3チャネル)画像であってよい。また、読取部111は、S802で、入力デバイス209を介してユーザにより入力される改竄検出指示を受付ける。次いで、読取部111は、S803で、改竄検出要求と共に、処理対象画像及び関連するデータ(例えば、データセットID)を外部I/F211を介して改竄検出サーバ103へ送信する。その後、表示制御部112は、S804で、改竄検出サーバ103からの検出結果データの受信を待ち受ける。改竄検出サーバ103から外部I/F211を介して検出結果データが受信されると、処理はS805へ進む。表示制御部112は、S805で、対象原稿が改竄部分を含むことを検出結果データが示しているかを判定する。対象原稿が改竄部分を含むと判定された場合、処理はS806へ進む。一方、対象原稿が改竄部分を含まないと判定された場合、処理はS810へ進む。S806で、表示制御部112は、ユーザ入力に基づいて、改竄検出結果として強調画像及び比較画像を対比的に表示すべきか又は強調画像のみを表示すべきかを判定する。前者の場合、処理はS807へ進み、後者の場合、処理はS808へ進む。S807で、表示制御部112は、処理対象画像における改竄部分を強調して示す強調画像、及び当該改竄部分を処理対象画像の通りに示す比較画像を、表示デバイス210の画面上に対比的に表示させる。ここでの対比的な表示の例について、後に図13(A)及び(B)並びに図15を用いてさらに説明する。S808で、表示制御部112は、処理対象画像における改竄部分を強調して示す強調画像を、表示デバイス210の画面上に表示させる。ここでの表示の例について、後に図11(B)及び図12を用いてさらに説明する。S810で、表示制御部112は、処理対象画像について改竄が検出されなかったことを表示デバイス210の画面上に表示させる。このような改竄検出結果の表示に加えて、画像処理装置101は、処理対象画像、強調画像及び比較画像を、ストレージ208に画像データとして記憶してもよく、又は外部I/F211を介して他の装置へ送信してもよい。また、これら画像のうちの1つ以上がプリンタデバイス205により印刷されてもよい。 First, in S801, the scanning unit 111 reads the target document set in the transport device 207 with the scanner device 206 to generate a processing target image. The image to be processed may be, for example, a full-color (RGB3 channel) image. Further, the reading unit 111 receives a tampering detection instruction input by the user via the input device 209 in S802. Next, in S803, the reading unit 111 transmits the image to be processed and the related data (for example, the data set ID) to the tampering detection server 103 via the external I / F 211 together with the tampering detection request. After that, the display control unit 112 waits for the reception of the detection result data from the tampering detection server 103 in S804. When the detection result data is received from the tampering detection server 103 via the external I / F 211, the process proceeds to S805. In S805, the display control unit 112 determines whether the detection result data indicates that the target document includes a falsified portion. If it is determined that the target manuscript includes a falsified portion, the process proceeds to S806. On the other hand, if it is determined that the target document does not include the falsified portion, the process proceeds to S810. In S806, the display control unit 112 determines whether the emphasized image and the comparative image should be displayed in contrast with each other or only the emphasized image should be displayed as the tampering detection result based on the user input. In the former case, the process proceeds to S807, and in the latter case, the process proceeds to S808. In S807, the display control unit 112 displays a emphasized image in which the falsified portion of the processed image is emphasized and a comparative image in which the falsified portion is shown as the processed image in comparison with each other on the screen of the display device 210. Let me. An example of the contrasting display here will be further described later with reference to FIGS. 13 (A) and 13 (B) and FIG. In S808, the display control unit 112 causes the display device 210 to display a highlighted image that emphasizes the falsified portion of the image to be processed. An example of the display here will be further described later with reference to FIGS. 11 (B) and 12. In S810, the display control unit 112 displays on the screen of the display device 210 that no tampering has been detected with respect to the image to be processed. In addition to displaying such a tampering detection result, the image processing device 101 may store the image to be processed, the emphasized image, and the comparison image as image data in the storage 208, or the image processing device 101 may store the image to be processed, or the image processing device 101 may be stored as image data. It may be transmitted to the device of. Further, one or more of these images may be printed by the printer device 205.

(3)改竄検出段階の具体的な流れ(改竄検出サーバ)
図9は、改竄検出段階において改竄検出サーバ103により実行される処理の具体的な流れの一例を示すフローチャートである。図9に示した処理は、ストレージ265からRAM264にロードされるコントローラプログラムを実行するCPU261による制御の下で、改竄検出サーバ103において実行される。当該処理は、画像処理装置101から外部I/F268を介して改竄検出要求が受信された際に開始され得る(改竄検出要求の待受けは、改竄検出サーバ103の電源投入に応じて開始され得る)。
(3) Specific flow of tampering detection stage (tampering detection server)
FIG. 9 is a flowchart showing an example of a specific flow of processing executed by the tampering detection server 103 in the tampering detection stage. The process shown in FIG. 9 is executed by the tamper detection server 103 under the control of the CPU 261 that executes the controller program loaded from the storage 265 to the RAM 264. The process can be started when the tampering detection request is received from the image processing device 101 via the external I / F 268 (the standby of the tampering detection request can be started in response to the power-on of the tampering detection server 103). ..

まず、S901で、画像取得部131は、改竄検出要求と共に、処理対象画像及び関連するデータ(例えば、データセットID)を外部I/F268を介して画像処理装置101から受信する。次いで、検出部132は、S902で、学習済みモデルの提供を求める要求を外部I/F268を介して学習装置102へ送信し、学習済みモデルを学習装置102から取得する。ここでは、検出部132は、例えば改竄検出要求と共に受信したデータセットIDにより特定される学習済みモデルを取得する。検出部132は、例えば、RAM264上でニューラルネットワークモデルを構築し、学習装置102から受信されるモデルパラメータの値を構築したモデルに反映させる。また、検出部132は、S903で、処理対象画像についてOCRの実行を求める要求を、処理対象画像と共に外部I/F268を介してOCRサーバ104へ送信し、OCRの結果を示す認識結果データをOCRサーバ104から受信する。次いで、検出部132は、S904で、処理対象画像内で認識された文字のうちの1つの文字領域画像を処理対象画像から切出し、切出した文字領域画像をS902で取得した学習済みモデルに適用する。それにより、検出部132は、文字領域画像内の複数の画素の各々が改竄部分に属するか否かを判定する。文字領域画像は、学習済みモデルへの適用の前にグレースケール化されてもよい。ここでの判定の結果は、図6(C)に示した二値画像612に類似するビットマップとなる。次いで、検出部132は、処理対象画像内に残りの文字領域があるか否かを判定する。残りの文字領域がある場合には、検出部132は、次の文字領域についてS904の判定を繰り返す。処理対象画像内に未処理の文字領域が残されていない場合には、処理はS906へ進む。S906で、検出部132は、S904の反復の結果として文字領域ごとに得られた検出結果を1つのビットマップへ統合して、検出結果画像を生成する。また、検出部132は、S907で、処理対象画像内の改竄部分を強調した強調画像を生成する。そして、検出部132は、S908で、検出結果画像及び強調画像を含む検出結果データを外部I/F268を介して画像処理装置101へ送信する。 First, in S901, the image acquisition unit 131 receives the image to be processed and related data (for example, data set ID) from the image processing device 101 via the external I / F 268 together with the falsification detection request. Next, in S902, the detection unit 132 transmits a request for providing the trained model to the learning device 102 via the external I / F 268, and acquires the trained model from the learning device 102. Here, the detection unit 132 acquires, for example, a trained model specified by the data set ID received together with the tampering detection request. For example, the detection unit 132 constructs a neural network model on the RAM 264 and reflects the value of the model parameter received from the learning device 102 in the constructed model. Further, in S903, the detection unit 132 transmits a request for execution of OCR for the image to be processed to the OCR server 104 via the external I / F 268 together with the image to be processed, and OCR transmits the recognition result data indicating the result of OCR. Receive from server 104. Next, in S904, the detection unit 132 cuts out a character area image of one of the characters recognized in the processing target image from the processing target image, and applies the cut out character area image to the trained model acquired in S902. .. As a result, the detection unit 132 determines whether or not each of the plurality of pixels in the character area image belongs to the falsified portion. The text area image may be grayscaled prior to application to the trained model. The result of the determination here is a bitmap similar to the binary image 612 shown in FIG. 6 (C). Next, the detection unit 132 determines whether or not there is a remaining character area in the image to be processed. If there is a remaining character area, the detection unit 132 repeats the determination of S904 for the next character area. If no unprocessed character area is left in the image to be processed, the process proceeds to S906. In S906, the detection unit 132 integrates the detection results obtained for each character area as a result of the repetition of S904 into one bitmap to generate a detection result image. Further, in S907, the detection unit 132 generates an emphasized image in which the falsified portion in the image to be processed is emphasized. Then, in S908, the detection unit 132 transmits the detection result data including the detection result image and the emphasized image to the image processing device 101 via the external I / F 268.

なお、ここでは検出部132がOCRの結果に基づいて処理対象画像から文字領域画像を切出す例を説明したが、OCRは必ずしも利用されなくてもよい。例えば、対象原稿が既知のフォーマットを有する帳票である場合には、検出部132は、既知のフォーマットに従って、予め定義された位置にある(例えば、矩形の)部分領域の画像を文字領域画像として処理対象画像から切出すことができる。 Although an example in which the detection unit 132 cuts out a character region image from the image to be processed based on the result of OCR has been described here, OCR may not always be used. For example, when the target manuscript is a form having a known format, the detection unit 132 processes an image of a partial region (for example, a rectangle) at a predetermined position as a character region image according to the known format. It can be cut out from the target image.

<<4.表示制御の詳細>>
図10は、画像処理装置101の表示制御部112による制御の下で表示デバイス210の画面上に表示され得る、改竄検出の設定及び指示のためのGUIの一例を示す模式図である。図10に示した設定ウィンドウ1000は、プレビュー領域1001、強調設定ボタン1002、ファイル名変更設定ボタン1003、フォルダ振分け設定ボタン1004、スキャンボタン1005及び送信開始ボタン1006を有する。強調設定ボタン1002は、改竄検出結果を表示する際の改竄部分の強調を有効化するか否かを設定するためのボタンである。ファイル名変更設定ボタン1003は、改竄検出結果に基づく読取画像データのファイル名の自動変更を有効化するか否かを設定するためのボタンである。フォルダ振分け設定ボタン1004は、改竄検出結果に基づく読取画像データの自動フォルダ振分けを有効化するか否かを設定するためのボタンである。設定ウィンドウ1000において、有効化された設定に対応するボタンは、強調的に表示されてよい。スキャンボタン1005は、画像処理装置101にセットされた原稿の読取りをトリガするためのボタンである。スキャンボタン1005が操作され、スキャンが完了すると、プレビュー領域1001に読取画像のプレビューイメージが表示される。ユーザは、データの送信が開始される前に、画像処理装置101に別の原稿をセットしてスキャンボタン1005を再度操作することで、複数の読取画像及び関連するデータをまとめて画像処理装置101に保持させてもよい。少なくとも1つの対象原稿のスキャンが完了すると、送信開始ボタン1006が操作可能となる。送信開始ボタン1006は、処理対象画像及び関連するデータの送信をトリガする改竄検出指示の入力のためのボタンである。送信開始ボタン1006が操作されると、読取部111は、改竄検出要求と共に、処理対象画像及び関連するデータを改竄検出サーバ103へ送信する。
<< 4. Details of display control >>
FIG. 10 is a schematic diagram showing an example of a GUI for setting and instructing tampering detection that can be displayed on the screen of the display device 210 under the control of the display control unit 112 of the image processing device 101. The setting window 1000 shown in FIG. 10 has a preview area 1001, an emphasis setting button 1002, a file name change setting button 1003, a folder distribution setting button 1004, a scan button 1005, and a transmission start button 1006. The emphasis setting button 1002 is a button for setting whether or not to enable emphasis on the tampered portion when displaying the tampering detection result. The file name change setting button 1003 is a button for setting whether or not to enable automatic change of the file name of the scanned image data based on the tampering detection result. The folder distribution setting button 1004 is a button for setting whether or not to enable automatic folder distribution of the scanned image data based on the tampering detection result. In the settings window 1000, the buttons corresponding to the activated settings may be highlighted. The scan button 1005 is a button for triggering the reading of the document set in the image processing device 101. When the scan button 1005 is operated and the scan is completed, the preview image of the scanned image is displayed in the preview area 1001. Before the data transmission is started, the user sets another document in the image processing device 101 and operates the scan button 1005 again to collect a plurality of scanned images and related data in the image processing device 101. May be retained by. When the scanning of at least one target document is completed, the transmission start button 1006 can be operated. The transmission start button 1006 is a button for inputting a tampering detection instruction that triggers transmission of the image to be processed and related data. When the transmission start button 1006 is operated, the reading unit 111 transmits the image to be processed and the related data to the tampering detection server 103 together with the tampering detection request.

図11(A)及び図11(B)は、表示制御部112による制御の下で表示デバイス210の画面上に表示され得る、改竄検出結果の一覧及び詳細をそれぞれ表示するためのGUIの一例を示す模式図である。図11(A)に示した一覧ウィンドウ1100は、リスト領域1101、ファイル名変更ボタン1103、フォルダ振分けボタン1104及びOKボタン1105を有する。リスト領域1101には、3つの対象原稿の改竄検出結果にそれぞれ対応する3つのリストアイテム1102a、1102b、1102cが一覧化されている。各リストアイテムは、対象原稿(又は対応する読取画像)を識別する「原稿ID」、改竄検出をいつ実行したかを示す「日時」、及び原稿中に改竄が検出されたか否かを示す「改竄有無」をデータ項目として有する。また、各リストアイテムの右端には、読取画像のプレビューが表示される。図11(A)の例では、原稿ID=“Scan1”,“Scan3”である2つの対象原稿は、改竄検出の結果として改竄部分を含むと判定されており、一方で原稿ID=“Scan2”である対象原稿は改竄部分を含まないと判定されている。表示制御部112は、検出結果データ32に含まれる検出結果画像において改竄部分に属することが示された画素が1つ以上存在する対象原稿は「改竄あり」であると判定し得る。表示制御部112は、例えばリストアイテム1102aがユーザにより操作(例えば、タップ)されると、原稿ID=“Scan1”で識別される対象原稿を対象とした詳細ウィンドウ1150を画面上に表示させる。ファイル名変更ボタン1103は、改竄検出結果に基づく読取画像データのファイル名の自動変更の実行をトリガするためのボタンである。表示制御部112は、ファイル名変更ボタン1103がユーザにより操作されると、それぞれのチェックボックスがチェックされた対象原稿に対応する読取画像データのファイル名を自動的に変更する。例えば、「改竄あり」の読取画像データのファイル名には、改竄があることを意味する所定の接頭辞又は接尾辞(例えば、“改竄あり”)が付加され得る。「改竄なし」の読取画像データのファイル名にも、改竄がないことを意味する所定の接頭辞又は接尾辞(例えば、“改竄なし”)が付加されてよい。フォルダ振分けボタン1104は、改竄検出結果に基づく読取画像データの自動フォルダ振分けの実行をトリガするためのボタンである。表示制御部112は、フォルダ振分けボタン1104がユーザにより操作されると、それぞれのチェックボックスがチェックされた対象原稿に対応する読取画像データを複数のフォルダのいずれかへ自動的に振分ける。例えば、「改竄あり」の読取画像データは、(例えば、“改竄あり”というフォルダ名を有する)第1のフォルダに保存され得る。また、「改竄なし」の読取画像データは、(例えば、“改竄なし”というフォルダ名を有する)第2のフォルダに保存され得る。表示制御部112は、OKボタン1105がユーザにより操作されると、一覧ウィンドウ1100の表示を終了させる。 11 (A) and 11 (B) are examples of GUIs for displaying a list and details of tampering detection results that can be displayed on the screen of the display device 210 under the control of the display control unit 112. It is a schematic diagram which shows. The list window 1100 shown in FIG. 11A has a list area 1101, a file name change button 1103, a folder distribution button 1104, and an OK button 1105. In the list area 1101, three list items 1102a, 1102b, and 1102c corresponding to the falsification detection results of the three target originals are listed. Each list item has a "manuscript ID" that identifies the target manuscript (or the corresponding scanned image), a "date and time" that indicates when tampering detection was executed, and a "tampering" that indicates whether or not tampering was detected in the manuscript. Presence or absence ”is included as a data item. A preview of the scanned image is displayed at the right end of each list item. In the example of FIG. 11A, the two target manuscripts having the manuscript ID = "Scan1" and "Scan3" are determined to include the tampered portion as a result of tampering detection, while the manuscript ID = "Scan2". It is determined that the target manuscript is not included in the falsified part. The display control unit 112 can determine that the target manuscript in which one or more pixels indicated to belong to the falsified portion in the detection result image included in the detection result data 32 is present is “falsified”. When, for example, the list item 1102a is operated (for example, tapped) by the user, the display control unit 112 displays a detail window 1150 for the target document identified by the document ID = "Scan1" on the screen. The file name change button 1103 is a button for triggering the execution of automatic change of the file name of the scanned image data based on the tampering detection result. When the file name change button 1103 is operated by the user, the display control unit 112 automatically changes the file name of the scanned image data corresponding to the target document in which each check box is checked. For example, a predetermined prefix or suffix (for example, "tampered with") indicating that there is falsification may be added to the file name of the read image data of "tampered with". A predetermined prefix or suffix (for example, "no tampering") indicating that there is no tampering may be added to the file name of the read image data of "no tampering". The folder distribution button 1104 is a button for triggering the execution of automatic folder distribution of the read image data based on the tampering detection result. When the folder distribution button 1104 is operated by the user, the display control unit 112 automatically distributes the scanned image data corresponding to the target document in which each check box is checked to any of a plurality of folders. For example, the “tampered” scanned image data may be stored in a first folder (eg, having the folder name “tampered”). Further, the read image data of "no tampering" can be stored in a second folder (for example, having a folder name of "no tampering"). When the OK button 1105 is operated by the user, the display control unit 112 ends the display of the list window 1100.

図11(B)に示した詳細ウィンドウ1150は、画像表示領域1151、修正ボタン1153、対比表示ボタン1154、送信ボタン1155、印刷ボタン1156及びOKボタン1157を有する。画像表示領域1151は、一覧ウィンドウ1100で指定された対象原稿の強調画像を表示する領域である。図11(B)の例では、画像表示領域1151に強調画像32bが表示されている。表示制御部112は、修正ボタン1153がユーザにより操作されると、改竄検出結果をユーザが修正することを可能とする、後述する修正ウィンドウ1200を画面上に表示させる。また、表示制御部112は、対比表示ボタン1154が操作されると、強調画像及び比較画像を対比的に配置した後述する対比表示ウィンドウ1300又は1350を画面上に表示させる。なお、対比表示ボタン1154は、改竄検出の結果として改竄部分を含むと判定された対象原稿についてのみ操作可能とされ得る。また、表示制御部112は、送信ボタン1155が操作されると、指定された対象原稿の処理対象画像及び強調画像の一方又は双方を他の装置へ送信する。ここでの画像の送信は、例えば電子メールへの添付、又はファイルサーバ上のリンクを記述した電子メール若しくはその他のメッセージの送信といった、いかなる手法で行われてもよい。送信の宛て先は、予め画像処理装置101に登録されている宛て先であってもよく、又はポップアップされる宛て先ウィンドウ(図示せず)を介してユーザにより指定されてもよい。また、表示制御部112は、印刷ボタン1156が操作されると、指定された対象原稿の処理対象画像及び強調画像の一方又は双方をプリンタデバイス205に印刷させる。また、表示制御部112は、OKボタン1157が操作されると、詳細ウィンドウ1150の表示を終了させ、一覧ウィンドウ1100を再び画面上に表示させる。 The detail window 1150 shown in FIG. 11B has an image display area 1151, a correction button 1153, a comparison display button 1154, a transmission button 1155, a print button 1156, and an OK button 1157. The image display area 1151 is an area for displaying the emphasized image of the target original specified in the list window 1100. In the example of FIG. 11B, the emphasized image 32b is displayed in the image display area 1151. When the correction button 1153 is operated by the user, the display control unit 112 displays a correction window 1200, which will be described later, on the screen, which enables the user to correct the tampering detection result. Further, when the contrast display button 1154 is operated, the display control unit 112 causes the contrast display window 1300 or 1350, which will be described later, in which the emphasized image and the comparison image are arranged in contrast to be displayed on the screen. The comparison display button 1154 may be operable only for the target document that is determined to include the tampered portion as a result of the tampering detection. Further, when the transmission button 1155 is operated, the display control unit 112 transmits one or both of the processed target image and the emphasized image of the designated target document to the other device. The transmission of the image here may be performed by any method, for example, attachment to an e-mail, or transmission of an e-mail containing a link on a file server or other message. The destination of transmission may be a destination registered in advance in the image processing device 101, or may be specified by the user via a pop-up destination window (not shown). Further, when the print button 1156 is operated, the display control unit 112 causes the printer device 205 to print one or both of the processed target image and the emphasized image of the designated target document. Further, when the OK button 1157 is operated, the display control unit 112 ends the display of the detail window 1150 and causes the list window 1100 to be displayed on the screen again.

図12は、表示制御部112による制御の下で表示デバイス210の画面上に表示され得る、改竄検出結果をユーザにより修正可能とするGUIの一例を示す模式図である。図12に示した修正ウィンドウ1200は、画像表示領域1201、改竄画素指定ボタン1203、改竄画素解除ボタン1204及びOKボタン1205を有する。画像表示領域1201は、指定された対象原稿の強調画像を表示する領域である。図12の例では、画像表示領域1201に強調画像32bが表示されている。表示制御部112は、改竄画素指定ボタン1203がユーザにより操作されると、画像表示領域1201においてユーザにより指定される画素を、改竄検出結果において改竄部分に属する画素に変更する。また、表示制御部112は、改竄画素解除ボタン1204がユーザにより操作されると、画像表示領域1201においてユーザにより指定される画素を、改竄検出結果において改竄部分に属さない画素に変更する。表示制御部112は、OKボタン1205が操作されると、ユーザによる改竄検出結果の修正を検出結果データ32に反映し、修正ウィンドウ1200の表示を終了させる。図11(A)の一覧ウィンドウ1100においてボタン1103又は1104の操作によりトリガされるファイル名の自動変更又は自動フォルダ振分けは、このように改竄検出結果がユーザにより修正された場合、修正された改竄検出結果に基づいて実行され得る。それにより、改竄の有無の検証の後に続く(フォルダ名又は保存フォルダを手掛かりとした)人的な又はシステム的な文書の処理を、修正後の改竄検出結果に基づいてより正確に行うことが可能となる。 FIG. 12 is a schematic diagram showing an example of a GUI that can be displayed on the screen of the display device 210 under the control of the display control unit 112 and that allows the user to modify the tampering detection result. The modification window 1200 shown in FIG. 12 has an image display area 1201, a tampered pixel designation button 1203, a tampered pixel release button 1204, and an OK button 1205. The image display area 1201 is an area for displaying the emphasized image of the designated target document. In the example of FIG. 12, the emphasized image 32b is displayed in the image display area 1201. When the falsification pixel designation button 1203 is operated by the user, the display control unit 112 changes the pixel designated by the user in the image display area 1201 to a pixel belonging to the falsification portion in the falsification detection result. Further, when the falsification pixel release button 1204 is operated by the user, the display control unit 112 changes the pixel specified by the user in the image display area 1201 to a pixel that does not belong to the falsification portion in the falsification detection result. When the OK button 1205 is operated, the display control unit 112 reflects the correction of the tampering detection result by the user in the detection result data 32, and ends the display of the correction window 1200. In the list window 1100 of FIG. 11 (A), the automatic change of the file name or the automatic folder distribution triggered by the operation of the button 1103 or 1104 is the modified tampering detection when the tampering detection result is modified by the user in this way. It can be executed based on the result. As a result, it is possible to more accurately process human or systematic documents (using the folder name or storage folder as a clue) following the verification of the presence or absence of tampering based on the tampering detection result after modification. It becomes.

表示制御部112は、上述した修正ウィンドウ1200を介してユーザにより改竄検出結果が修正された場合に、修正後の改竄検出結果に基づいて、学習済みモデルを更新してもよい。具体的には、表示制御部112は、例えば、処理対象画像及び修正後の検出結果画像のペアを、モデル更新要求と共に学習装置102へ送信する。学習装置102の学習部122は、表示制御部112からのモデル更新要求の受信に応じて、処理対象画像内の各文字領域の文字領域画像を入力画像、検出結果画像内の同じ文字領域の文字領域画像を教師画像として用いて、学習済みモデルを更新し得る。それにより、現行の学習済みモデルが検出を誤り易い画素のパターンについて再学習が行われるため、学習済みモデルの改竄検出の精度を効果的に改善させることができる。 When the tampering detection result is modified by the user via the modification window 1200 described above, the display control unit 112 may update the trained model based on the modified tampering detection result. Specifically, the display control unit 112 transmits, for example, a pair of the processing target image and the corrected detection result image to the learning device 102 together with the model update request. The learning unit 122 of the learning device 102 receives a model update request from the display control unit 112, inputs a character area image of each character area in the processing target image, and a character in the same character area in the detection result image. The trained model can be updated using the region image as the teacher image. As a result, the pixel pattern that the current trained model tends to make an error in detection is relearned, so that the accuracy of the tampering detection of the trained model can be effectively improved.

図13(A)は、表示制御部112による制御の下で表示デバイス210の画面上に表示され得る、強調画像と比較画像とを対比的に配置したGUIの第1の例を示す模式図である。第1の例では、対象原稿の全体を示す強調画像及び比較画像が表示される。図13(A)に示した対比表示ウィンドウ1300は、強調画像表示領域1301、比較画像表示領域1302、文字別表示ボタン1303、修正ボタン1305及びOKボタン1306を有する。図13(A)の例では、強調画像表示領域1301に強調画像32bが、比較画像表示領域1302に比較画像21aがそれぞれ表示されている。強調画像32bは、対象原稿の読取画像において改竄部分に属すると判定された画素を強調して示す画像である。比較画像21aは、処理対象画像21aと同一の画像であって、改竄部分に属すると判定された画素を(強調することなく)読取画像の通りに示す画像である。表示制御部112は、文字別表示ボタン1303がユーザにより操作されると、文字領域ごとに切出された強調画像及び比較画像を対比的に配置した、後述する対比表示ウィンドウ1350に画面を遷移させる。また、表示制御部112は、修正ボタン1305が操作されると、改竄検出結果をユーザが修正することを可能とする上述した修正ウィンドウ1200を画面上に表示させる。また、表示制御部112は、OKボタン1306が操作されると、対比表示を終了させる。 FIG. 13A is a schematic diagram showing a first example of a GUI in which a emphasized image and a comparative image are arranged in contrast, which can be displayed on the screen of the display device 210 under the control of the display control unit 112. is there. In the first example, an emphasized image and a comparative image showing the entire target document are displayed. The contrast display window 1300 shown in FIG. 13A has a highlighted image display area 1301, a comparative image display area 1302, a character-specific display button 1303, a correction button 1305, and an OK button 1306. In the example of FIG. 13A, the highlighted image 32b is displayed in the highlighted image display area 1301 and the comparison image 21a is displayed in the comparison image display area 1302. The emphasized image 32b is an image in which the pixels determined to belong to the falsified portion in the scanned image of the target document are emphasized and shown. The comparative image 21a is an image that is the same as the image to be processed 21a and shows the pixels determined to belong to the falsified portion as the read image (without emphasizing). When the character-specific display button 1303 is operated by the user, the display control unit 112 shifts the screen to the contrast display window 1350, which will be described later, in which the emphasized image and the comparison image cut out for each character area are arranged in contrast. .. Further, when the correction button 1305 is operated, the display control unit 112 displays on the screen the above-mentioned correction window 1200 that enables the user to correct the tampering detection result. Further, the display control unit 112 ends the comparison display when the OK button 1306 is operated.

図13(B)は、表示制御部112による制御の下で表示デバイス210の画面上に表示され得る、強調画像と比較画像とを対比的に配置したGUIの第2の例を示す模式図である。第2の例では、文字別の部分画像(文字領域画像)である強調画像及び比較画像が表示される。図13(B)に示した対比表示ウィンドウ1350は、リスト領域1351、全体表示ボタン1353、比較モード切替ボタン1354及びOKボタン1356を有する。リスト領域1351には、対象原稿内で認識された1つ以上の文字の文字領域が、上下方向にスクロール可能な形でリストアップされる。図13(B)の例では、リスト領域1351に、2つのリストアイテム1352a、1352bが表示されている。各リストアイテムは、対象原稿の原稿ID及び各文字領域に付与される番号(No.)の組合せにより一意に識別され得る。リスト領域1351は、中央に強調画像表示領域1361、右端に比較画像表示領域1362を有する。各強調画像表示領域1361には、強調された改竄部分を含む、強調画像内の1つの文字領域の部分画像(ここでは、この部分画像をも強調画像という)が表示される。各比較画像表示領域1362には、強調されていない改竄部分を含む、処理対象画像内の1つの文字領域の部分画像(ここでは、この部分画像をも比較画像という)が表示される。但し、比較画像表示領域1362に表示される比較画像の内容は、後述する比較モードに依存して変化し得る。表示制御部112は、強調画像表示領域1361又は比較画像表示領域1362がユーザにより操作(例えば、タップ)されると、文字領域単位の改竄検出結果をユーザが修正することを可能とする、後述する修正ウィンドウ1500を画面上に表示させる。また、表示制御部112は、全体表示ボタン1353がユーザにより操作されると、上述した対比表示ウィンドウ1300に画面を遷移させる。また、表示制御部112は、比較モード切替ボタン1354が操作されると、後述するように、比較モードの設定をユーザ入力に依存して切替える。また、表示制御部112は、OKボタン1356が操作されると、対比表示を終了させる。 FIG. 13B is a schematic diagram showing a second example of a GUI in which a emphasized image and a comparative image are arranged in contrast, which can be displayed on the screen of the display device 210 under the control of the display control unit 112. is there. In the second example, a emphasized image and a comparison image, which are partial images (character area images) for each character, are displayed. The contrast display window 1350 shown in FIG. 13B has a list area 1351, an overall display button 1353, a comparison mode switching button 1354, and an OK button 1356. In the list area 1351, character areas of one or more characters recognized in the target document are listed in a form that can be scrolled in the vertical direction. In the example of FIG. 13B, two list items 1352a and 1352b are displayed in the list area 1351. Each list item can be uniquely identified by the combination of the manuscript ID of the target manuscript and the number (No.) assigned to each character area. The list area 1351 has a highlighted image display area 1361 in the center and a comparative image display area 1362 at the right end. In each emphasized image display area 1361, a partial image of one character area in the emphasized image including the emphasized falsified portion (here, this partial image is also referred to as an emphasized image) is displayed. In each comparative image display area 1362, a partial image of one character area in the image to be processed (here, this partial image is also referred to as a comparative image) including a falsified portion that is not emphasized is displayed. However, the content of the comparison image displayed in the comparison image display area 1362 may change depending on the comparison mode described later. When the highlighted image display area 1361 or the comparative image display area 1362 is operated (for example, tapped) by the user, the display control unit 112 enables the user to correct the tampering detection result for each character area, which will be described later. Display the correction window 1500 on the screen. Further, when the entire display button 1353 is operated by the user, the display control unit 112 shifts the screen to the comparison display window 1300 described above. Further, when the comparison mode switching button 1354 is operated, the display control unit 112 switches the comparison mode setting depending on the user input, as will be described later. Further, the display control unit 112 ends the comparison display when the OK button 1356 is operated.

表示制御部112は、単一の比較モードのみをサポートしてもよく、又は複数の比較モードの候補の間で、対比表示のための比較モードを動的に切替可能であってもよい。前者の場合、対比表示ウィンドウ1350は、比較モード切替ボタン1354を有しなくてもよい。後者の場合、比較モードの候補は、例えば次のうちの2つ以上を含み得る。
・比較モードC1:比較画像は、強調されていない改竄部分を含む文字領域の画像である。
・比較モードC2:比較画像は、強調されていない改竄部分を含む文字領域と当該
文字領域の周辺領域とを含む画像である。
・比較モードC3:比較画像は、強調画像において示される文字と同じ文字を示す他の文字領域の画像を含む。
・比較モードC4:比較画像は、抑制され又は非表示化された改竄部分を含む文字領域の画像である。
The display control unit 112 may support only a single comparison mode, or may dynamically switch the comparison mode for comparison display among a plurality of comparison mode candidates. In the former case, the comparison display window 1350 does not have to have the comparison mode switching button 1354. In the latter case, the comparison mode candidates may include, for example, two or more of the following:
-Comparison mode C1: The comparison image is an image of a character region including an unemphasized falsified portion.
-Comparison mode C2: The comparison image is an image including a character area including an unemphasized falsified part and a peripheral area of the character area.
Comparison mode C3: The comparison image includes an image of another character area showing the same characters as the characters shown in the highlighted image.
-Comparison mode C4: The comparison image is an image of a character region including a falsified portion that has been suppressed or hidden.

表示制御部112は、これら比較モードの候補のリストを画面上に表示させ、所望の比較モードをユーザに指定させてもよい。その代わりに、比較モード切替ボタン1354の操作の都度、比較モードの設定が所定の順序でトグル(順々に切替え)されてもよい。表示制御部112は、このようにユーザにより指定される比較モードに従って、対比表示ウィンドウ1350の比較画像表示領域1362に表示される比較画像の内容を切替え得る。 The display control unit 112 may display a list of candidates for these comparison modes on the screen and allow the user to specify a desired comparison mode. Instead, the comparison mode settings may be toggled (switched in sequence) in a predetermined order each time the comparison mode switching button 1354 is operated. The display control unit 112 can switch the content of the comparison image displayed in the comparison image display area 1362 of the comparison display window 1350 according to the comparison mode thus designated by the user.

図14(A)は、比較モードC1における比較画像の例を示している。図14(A)に示した比較画像1401は、対応する強調画像により示される文字の文字領域と同じ位置及び同じサイズで処理対象画像から切出された画像である。比較画像1401において、改竄部分は、強調されることなく、対象原稿を読取ることにより生成された読取画像の通りに示される。比較モードC1では、ユーザは、強調画像と比較画像との間で文字を構成する部分同士の対応関係を一目瞭然に把握することができる。 FIG. 14A shows an example of a comparison image in the comparison mode C1. The comparative image 1401 shown in FIG. 14A is an image cut out from the processing target image at the same position and the same size as the character area of the character indicated by the corresponding emphasized image. In the comparative image 1401, the falsified portion is shown as the scanned image generated by scanning the target document without being emphasized. In the comparison mode C1, the user can clearly grasp the correspondence between the parts constituting the characters between the emphasized image and the comparison image.

図14(B)は、比較モードC2における比較画像の例を示している。図14(B)に示した比較画像1402は、比較画像1401の周辺領域を含む形で処理対象画像から切出された画像である。比較画像1402においても、改竄部分は、強調されることなく、対象原稿を読取ることにより生成された読取画像の通りに示される。比較モードC2では、ユーザは、改竄が疑われる文字の前後の文字を通じて色味、濃淡及びストロークの癖といった要素を評価して、改竄検出結果の妥当性を判断することができる。 FIG. 14B shows an example of a comparison image in the comparison mode C2. The comparative image 1402 shown in FIG. 14B is an image cut out from the image to be processed so as to include the peripheral region of the comparative image 1401. Also in the comparative image 1402, the falsified portion is shown as the scanned image generated by scanning the target document without being emphasized. In the comparison mode C2, the user can evaluate factors such as color, shading, and stroke habit through the characters before and after the character suspected of being tampered with, and judge the validity of the tampering detection result.

図14(C)は、比較モードC3における比較画像の例を示している。比較モードC3では、例えば、対比表示ウィンドウ1350の比較画像表示領域1362に、比較画像1401及び比較画像1403が表示され得る。比較画像1403は、対応する強調画像の文字領域において示される文字と同じ文字を示す他の文字領域の画像である。表示制御部112は、例えば、OCR結果に基づいて、異なる位置に記入された2つの文字が同じ文字であるか否かを判定し得る。比較画像1403においても、改竄部分は、強調されることなく、対象原稿を読取ることにより生成された読取画像の通りに示される。比較モードC3では、ユーザは、改竄が疑われる文字と同じ文字の色味、濃淡及びストロークの癖といった要素を参考にして、改竄検出結果の妥当性を判断することができる。 FIG. 14C shows an example of a comparison image in the comparison mode C3. In the comparison mode C3, for example, the comparison image 1401 and the comparison image 1403 can be displayed in the comparison image display area 1362 of the comparison display window 1350. The comparative image 1403 is an image of another character area showing the same characters as the characters shown in the character area of the corresponding emphasized image. The display control unit 112 can determine, for example, whether or not two characters written at different positions are the same character based on the OCR result. Also in the comparative image 1403, the falsified portion is shown as the scanned image generated by scanning the target document without being emphasized. In the comparison mode C3, the user can determine the validity of the tampering detection result by referring to factors such as the color, shading, and stroke habit of the same character as the character suspected of being tampered with.

図14(D)は、比較モードC4における比較画像の例を示している。図14(D)に示した比較画像1404は、対応する強調画像により示される文字の文字領域と同じ位置及び同じサイズで処理対象画像から切出された画像である。但し、比較画像1401とは異なり、比較画像1404においては、改竄部分は、抑制され又は非表示化されている。比較モードC4では、ユーザは改竄によって書き足された可能性のあるストロークが無い状態で文書の内容を見ることができ、改竄部分に属さないと判定された画素に注意を向けて改竄検出結果の妥当性を判断することができる。 FIG. 14D shows an example of a comparison image in the comparison mode C4. The comparison image 1404 shown in FIG. 14 (D) is an image cut out from the processing target image at the same position and the same size as the character area of the character indicated by the corresponding emphasized image. However, unlike the comparative image 1401, in the comparative image 1404, the falsified portion is suppressed or hidden. In the comparison mode C4, the user can see the contents of the document without strokes that may have been added by tampering, and pay attention to the pixels that are determined not to belong to the tampering part. The validity can be judged.

図15は、表示制御部112による制御の下で表示デバイス210の画面上に表示され得る、改竄検出結果をユーザにより修正可能とするGUIの他の例を示す模式図である。図15に示した修正ウィンドウ1500は、強調画像表示領域1501、比較画像表示領域1502、比較モード切替ボタン1503、改竄画素指定ボタン1504、改竄画素解除ボタン1505及びOKボタン1506を有する。強調画像表示領域1501は、指定された対象原稿の文字領域の強調画像を表示する領域である。図15の例では、強調画像表示領域1501に強調画像1511が表示されている。比較画像表示領域1502は、指定された対象原稿の文字領域の比較画像を表示する領域である。図15の例では、比較画像表示領域1502に比較画像1512が表示されている。ここでは、上述した比較モードC1が設定されているものとする。表示制御部112は、比較モード切替ボタン1503が操作されると、上述した2つ以上の比較モードの候補の間で比較モードの設定を切替え、新たに設定された比較モードに対応する比較画像を比較画像表示領域1502に表示させる。表示制御部112は、改竄画素指定ボタン1504がユーザにより操作されると、強調画像表示領域1501においてユーザにより指定される画素を、改竄検出結果において改竄部分に属する画素に変更する。また、表示制御部112は、改竄画素解除ボタン1505がユーザにより操作されると、強調画像表示領域1501においてユーザにより指定される画素を、改竄検出結果において改竄部分に属さない画素に変更する。表示制御部112は、OKボタン1506が操作されると、ユーザによる改竄検出結果の修正を検出結果データ32に反映し、修正ウィンドウ1500の表示を終了させる。 FIG. 15 is a schematic diagram showing another example of a GUI that can be displayed on the screen of the display device 210 under the control of the display control unit 112 and that allows the user to modify the tampering detection result. The modification window 1500 shown in FIG. 15 has a highlighted image display area 1501, a comparison image display area 1502, a comparison mode switching button 1503, a tampered pixel designation button 1504, a tampered pixel release button 1505, and an OK button 1506. The highlighted image display area 1501 is an area for displaying a highlighted image of the character area of the designated target document. In the example of FIG. 15, the highlighted image 1511 is displayed in the highlighted image display area 1501. The comparative image display area 1502 is an area for displaying a comparative image of the character area of the designated target document. In the example of FIG. 15, the comparison image 1512 is displayed in the comparison image display area 1502. Here, it is assumed that the above-mentioned comparison mode C1 is set. When the comparison mode switching button 1503 is operated, the display control unit 112 switches the comparison mode setting between the two or more comparison mode candidates described above, and displays a comparison image corresponding to the newly set comparison mode. It is displayed in the comparative image display area 1502. When the falsification pixel designation button 1504 is operated by the user, the display control unit 112 changes the pixel designated by the user in the highlighted image display area 1501 to a pixel belonging to the falsification portion in the falsification detection result. Further, when the falsification pixel release button 1505 is operated by the user, the display control unit 112 changes the pixel specified by the user in the highlighted image display area 1501 to a pixel that does not belong to the falsification portion in the falsification detection result. When the OK button 1506 is operated, the display control unit 112 reflects the correction of the tampering detection result by the user in the detection result data 32, and ends the display of the correction window 1500.

図16は、対象文書の改竄が検出された場合に画像処理装置101により実行される表示制御処理の具体的な流れの一例を示すフローチャートである。図16に示した処理は、ストレージ208からRAM204にロードされるコントローラプログラムを実行するCPU201による制御の下で、画像処理装置101において実行される。当該処理は、図8のS807に相当し得る。 FIG. 16 is a flowchart showing an example of a specific flow of display control processing executed by the image processing device 101 when falsification of the target document is detected. The process shown in FIG. 16 is executed in the image processing device 101 under the control of the CPU 201 that executes the controller program loaded from the storage 208 to the RAM 204. The process may correspond to S807 in FIG.

まず、表示制御部112は、S1601で、対比表示の表示モードとして、文字別対比表示及び全体対比表示のいずれが指定されたのかを判定する。例えば、図11(B)の詳細ウィンドウ1150の対比表示ボタン1154、又は図13(B)の対比表示ウィンドウ1350の全体表示ボタン1353が操作された場合、表示制御部112は、全体対比表示が指定されたと判定し得る。一方、図13(A)の対比表示ウィンドウ1300の文字別表示ボタン1303が操作された場合、表示制御部112は、文字別対比表示が指定されたと判定し得る。文字別対比表示が指定されたと判定される場合、処理はS1602へ進む。一方、全体対比表示が指定されたと判定される場合、処理はS1620へ進む。 First, the display control unit 112 determines in S1601 whether the character-specific contrast display or the overall contrast display is designated as the display mode of the contrast display. For example, when the contrast display button 1154 of the detail window 1150 of FIG. 11 (B) or the entire display button 1353 of the contrast display window 1350 of FIG. 13 (B) is operated, the display control unit 112 specifies the overall comparison display. It can be determined that it has been done. On the other hand, when the character-specific display button 1303 of the comparison display window 1300 of FIG. 13A is operated, the display control unit 112 can determine that the character-specific comparison display is specified. If it is determined that the character-specific contrast display is specified, the process proceeds to S1602. On the other hand, when it is determined that the overall comparison display is specified, the process proceeds to S1620.

S1602で、表示制御部112は、画像内の1つ以上の文字領域の位置及びサイズを示す文字領域データを取得する。表示制御部112は、例えば、OCRサーバ104による文字認識の結果を示す認識結果データ31を、文字領域データとして、検出結果データ32と共に改竄検出サーバ103から受信してもよい。その代わりに、表示制御部112は、対象原稿が既知のフォーマットを有する帳票である場合には、既知のフォーマットに含まれる文字領域の位置及びサイズを予め定義した文字領域データをストレージ208から取得してもよい。その後のS1603〜S1612は、文字領域データにより示される文字領域のうち、検出結果データ32により改竄部分に属すると判定された画素を含む文字領域の各々について繰り返される。図7(A)の処理対象画像21a及び検出結果画像32aを例にとると、文字領域701a、及びその右隣りの2つの文字の矩形の文字領域が、改竄部分に属すると判定された画素を含む文字領域である。よって、これら3つの文字領域について、S1603〜S1612が繰り返され得る。 In S1602, the display control unit 112 acquires character area data indicating the position and size of one or more character areas in the image. For example, the display control unit 112 may receive the recognition result data 31 indicating the result of character recognition by the OCR server 104 as the character area data from the tampering detection server 103 together with the detection result data 32. Instead, when the target manuscript is a form having a known format, the display control unit 112 acquires the character area data in which the position and size of the character area included in the known format are defined in advance from the storage 208. You may. Subsequent steps S1603 to S1612 are repeated for each of the character areas including the pixels determined to belong to the falsified portion by the detection result data 32 in the character area indicated by the character area data. Taking the processing target image 21a and the detection result image 32a of FIG. 7A as an example, the character area 701a and the rectangular character area of the two characters to the right of the character area 701a are pixels determined to belong to the falsified portion. The character area to be included. Therefore, S1603 to S1612 can be repeated for these three character areas.

S1603で、表示制御部112は、改竄部分を含む文字領域のうちの1つを選択する(以下、選択した文字領域を選択領域という)。次いで、表示制御部112は、S1604で、文字領域データにより示される位置及びサイズに従って、選択領域の部分画像を強調画像から切出す。その後の処理は、S1605で、現時点で設定されている比較モードが比較モードC2であるか否かに依存して分岐する。現時点で比較モードC2が設定されている場合、処理はS1606へ進む。比較モードC1、C3又はC4が設定されている場合、処理はS1607へ進む。比較モードC2の場合、表示制御部112は、S1606で、選択領域及び当該選択領域の外側の周辺領域を含む部分画像を読取画像から切出す。一例として、周辺領域を含む部分画像のサイズは、選択領域のサイズに対し横方向にW倍、縦方向にH倍(W、Hは予め設定される1よりも大きい倍率。例えば、W=4且つH=2)であってよい。他の例として、周辺領域は、選択領域の近傍のN個の文字(Nは予め設定される整数)を含む領域として動的に設定されてもよい。比較モードC2では、ここで切出した部分画像が比較画像となる。一方、比較モードC1、C3又はC4の場合、表示制御部112は、S1607で、選択領域の部分画像を読取画像から切出す。現時点で比較モードC1が設定されている場合、S1607で切出した部分画像が比較画像となる。現時点で比較モードC3が設定されている場合、S1608の分岐において処理はS1609へ進む。S1609では、表示制御部112は、選択領域により示される文字と同じ文字を示す他の1つ以上の文字領域の部分画像を読取画像から切出す。ここでの他の文字領域は、改竄部分に属すると判定された画素を含まない領域であることが望ましい。表示制御部112は、ここでOCRサーバ104にOCRを要求し、OCRサーバ104から返送される文字認識の結果に基づいて、選択領域により示される文字と同じ文字を示す他の文字領域を特定してもよい。なお、対象原稿中にそのような他の文字領域が存在しない場合には、S1609はスキップされてもよい。比較モードC3では、S1607及びS1609でそれぞれ切出した部分画像の組合せ(例えば、2つの部分画像を横に並べた画像)が比較画像となる。現時点で比較モードC4が設定されている場合、S1608及びS1610の分岐を経て、処理はS1611へ進む。S1611では、表示制御部112は、S1607で切出した部分画像内の改竄部分に属すると判定された画素の値を抑制(例えば、白色といった背景色と同一の色若しくはそれに近い色に画素値を修正)する。比較モードC4では、このように加工された部分画像が比較画像となる。表示制御部112は、S1612で、改竄部分に属すると判定された画素を含む未処理の文字領域が残されているかを判定する。そのような未処理の文字領域が残されている場合、処理はS1603へ戻り、次の文字領域について上述したS1603〜S1611が繰り返される。そうではない場合、処理はS1613へ進む。 In S1603, the display control unit 112 selects one of the character areas including the falsified part (hereinafter, the selected character area is referred to as a selection area). Next, in S1604, the display control unit 112 cuts out a partial image of the selected area from the emphasized image according to the position and size indicated by the character area data. Subsequent processing branches in S1605 depending on whether or not the comparison mode currently set is the comparison mode C2. If the comparison mode C2 is currently set, the process proceeds to S1606. When the comparison mode C1, C3 or C4 is set, the process proceeds to S1607. In the case of the comparison mode C2, the display control unit 112 cuts out a partial image including the selected area and the peripheral area outside the selected area from the scanned image in S1606. As an example, the size of the partial image including the peripheral area is W times in the horizontal direction and H times in the vertical direction with respect to the size of the selected area (W and H are magnifications larger than the preset 1; for example, W = 4). And H = 2). As another example, the peripheral area may be dynamically set as an area containing N characters (N is a preset integer) in the vicinity of the selected area. In the comparison mode C2, the partial image cut out here becomes the comparison image. On the other hand, in the case of the comparison mode C1, C3 or C4, the display control unit 112 cuts out a partial image of the selected area from the scanned image in S1607. When the comparison mode C1 is set at the present time, the partial image cut out in S1607 becomes the comparison image. If the comparison mode C3 is currently set, the process proceeds to S1609 at the branch of S1608. In S1609, the display control unit 112 cuts out a partial image of one or more other character areas showing the same character as the character indicated by the selected area from the scanned image. It is desirable that the other character area here is an area that does not include pixels determined to belong to the falsified portion. The display control unit 112 requests OCR from the OCR server 104 here, and identifies another character area indicating the same character as the character indicated by the selection area based on the result of character recognition returned from the OCR server 104. You may. If such another character area does not exist in the target manuscript, S1609 may be skipped. In the comparison mode C3, the combination of the partial images cut out in S1607 and S1609 (for example, an image in which the two partial images are arranged side by side) becomes the comparison image. If the comparison mode C4 is currently set, the process proceeds to S1611 through the branching of S1608 and S1610. In S1611, the display control unit 112 suppresses the value of the pixel determined to belong to the falsified portion in the partial image cut out in S1607 (for example, corrects the pixel value to the same color as the background color such as white or a color close to it). ). In the comparison mode C4, the partial image processed in this way becomes the comparison image. In S1612, the display control unit 112 determines whether or not an unprocessed character area including a pixel determined to belong to the falsified portion remains. When such an unprocessed character area is left, the process returns to S1603, and the above-mentioned S1603 to S1611 are repeated for the next character area. If not, the process proceeds to S1613.

S1613で、表示制御部112は、文字領域ごとの強調画像及び比較画像の1つ以上のペアを、対比表示ウィンドウ内で対比的に表示させる。このような文字別の対比表示によれば、ユーザは、個々の文字を構成するどの部分について改竄が疑われるかを強調画像から把握した上で、比較画像における当該部分の色味又は濃淡を見て、個々の文字について実際に改竄があったかを判断することができる。 In S1613, the display control unit 112 causes one or more pairs of the emphasized image and the comparison image for each character area to be displayed in contrast in the contrast display window. According to such a contrast display for each character, the user grasps from the highlighted image which part of each character is suspected of being tampered with, and then sees the color or shade of the part in the comparison image. Therefore, it can be determined whether or not each character has actually been tampered with.

S1620で、表示制御部112は、対象原稿の全体を示す強調画像及び比較画像(読取画像)を対比表示ウィンドウ内で対比的に表示させる。このように、本実施形態では、原稿全体を示す対比表示と、上述した文字別の対比表示との間の円滑な切替えが可能とされる。それにより、ユーザは、原稿内のどの位置の文字に改竄が疑われるかの全体表示における概略的な把握と、文字別表示における個々の文字の検証とを相互に行き来しながら、対象原稿を通じた改竄検出結果の検証を効率的に進めることができる。 In S1620, the display control unit 112 displays the emphasized image and the comparative image (scanned image) showing the entire target document in a contrasting manner in the contrasting display window. As described above, in the present embodiment, it is possible to smoothly switch between the contrast display showing the entire manuscript and the contrast display for each character described above. As a result, the user can pass through the target manuscript while going back and forth between a rough grasp of the character at which position in the manuscript is suspected of being tampered with in the overall display and verification of each character in the character-specific display. Verification of tampering detection results can be carried out efficiently.

なお、図16では、表示制御部112が改竄検出サーバ103から受信される強調画像を利用する例を説明したが、表示制御部112は、改竄検出結果に基づいて処理対象画像(読取画像)から自ら強調画像を生成してもよい。 Although FIG. 16 has described an example in which the display control unit 112 uses the emphasized image received from the tampering detection server 103, the display control unit 112 starts from the processing target image (read image) based on the tampering detection result. You may generate the emphasized image by yourself.

<<5.変形例>>
上述した実施形態では、各文字領域の文字領域画像を学習済みモデルに適用することにより、当該文字領域内の各画素が改竄部分に属するか否かを判定する手法を主に説明した。しかしながら、改竄検出のための手法は、かかる例には限定されない。例えば、第1の変形例として、改竄検出は、画素ごとではなく文字ごとに行われてもよい。文字ごとの改竄検出では、例えば、各画素が改竄部分に属するか否かを示す教師画像(例えば、図6(C)の二値画像612)の代わりに、各文字領域が改竄部分を含むか否かを示すフラグを教師データとして用いて生成/更新された学習済みモデルが利用され得る。学習済みモデルは、1つの文字領域画像(入力画像)に対してそれが改竄部分を含むか否かを示すビットを出力する任意の判別型のモデルであってよく、例えばニューラルネットワークモデルの一種であるVGGが利用されてもよい。
<< 5. Modification example >>
In the above-described embodiment, a method of determining whether or not each pixel in the character area belongs to the falsified part by applying the character area image of each character area to the trained model has been mainly described. However, the method for detecting tampering is not limited to such an example. For example, as a first modification, tampering detection may be performed for each character instead of each pixel. In the character-by-character tampering detection, for example, whether each character area includes a tampered portion instead of the teacher image (for example, the binary image 612 of FIG. 6C) indicating whether or not each pixel belongs to the tampered portion. A trained model generated / updated using a flag indicating whether or not is used as teacher data can be used. The trained model may be an arbitrary discriminant model that outputs a bit indicating whether or not a character area image (input image) contains a tampered part, and is, for example, a kind of neural network model. A VGG may be used.

図17は、第1の変形例において、文字ごとの改竄検出の結果に基づいて強調画像と比較画像とを対比的に配置したGUIの一例を示している。図17に示した対比表示ウィンドウ1700は、強調画像表示領域1701、比較画像表示領域1702、文字別表示ボタン1703、修正ボタン1305及びOKボタン1306を有する。図17の例では、強調画像表示領域1701に強調画像1732が、比較画像表示領域1702に比較画像1721がそれぞれ表示されている。強調画像1732は、対象原稿の読取画像において改竄部分を含むと判定された文字領域の文字を強調して示す画像である。比較画像1721は、処理対象画像21aと同一の画像であって、改竄部分を含むと判定された文字領域の文字を(強調することなく)読取画像の通りに示す画像である。表示制御部112は、文字別表示ボタン1703がユーザにより操作されると、文字領域ごとに切出された強調画像及び比較画像を対比的に配置した対比表示ウィンドウ(図示せず)に画面を遷移させてもよい。 FIG. 17 shows an example of a GUI in which the emphasized image and the comparison image are arranged in contrast based on the result of the falsification detection for each character in the first modification. The contrast display window 1700 shown in FIG. 17 has a highlighted image display area 1701, a comparative image display area 1702, a character-specific display button 1703, a correction button 1305, and an OK button 1306. In the example of FIG. 17, the emphasized image 1732 is displayed in the emphasized image display area 1701 and the comparative image 1721 is displayed in the comparative image display area 1702. The emphasized image 1732 is an image in which the characters in the character area determined to include the falsified portion in the scanned image of the target document are emphasized. The comparative image 1721 is the same image as the image to be processed 21a, and is an image showing the characters in the character area determined to include the falsified portion as the read image (without emphasizing). When the character-specific display button 1703 is operated by the user, the display control unit 112 shifts the screen to a contrast display window (not shown) in which the emphasized image and the comparison image cut out for each character area are arranged in contrast. You may let me.

第2の変形例として、改竄検出は、判別型のモデルの代わりに、文字領域画像を符号化して文字の特徴量を抽出するオートエンコーダ型のモデル(例えば、VAE(Variational Autoencoder))を利用して行われてもよい。VAEの学習処理は、入力画像から次元の削減された特徴量を算出するエンコーダ処理と、算出された特徴量から入力画像を復元しようとするデコーダ処理とを含む。エンコーダは、ニューラルネットワークの構造を有し、デコーダはエンコーダとは逆の構造を有する。モデルの誤差は、入力画像と復元画像との間の差(例えば、交差エントロピー)として評価され、その誤差が小さくなるように、例えばバックプロパゲーション法でモデルパラメータの値が調整される。この場合、学習用改竄画像及び教師データは不要である。学習段階では、学習装置102は、複数の学習用原本画像を用いた学習処理を通じて、改竄のない文字の特徴量を文字領域画像から抽出するための学習済みモデルを生成/更新する。典型的には、あらゆる文字について適切な特徴量を抽出できる単一のモデルを生成/更新することは現実的ではないため、学習装置102は、文字種ごとに異なるモデルパラメータの値を学習し得る。例えば、「1」、「2」、「3」、「二」、「に」といった文字は、互いに異なる種類の文字として扱われてよい。改竄検出段階では、改竄検出サーバ103は、各文字領域画像を、例えばOCRの結果として認識された文字種に対応する学習済みモデルのエンコーダに適用して、当該文字領域画像から特徴量を抽出する。また、改竄検出サーバ103は、同じ文字種の既知の(改竄なしの)文字領域画像について予め抽出された参照特徴量を取得する。そして、改竄検出サーバ103は、両者の特徴量の間の差分が所定の条件を満たす場合(例えば、マンハッタン距離がある閾値以下である場合)、当該文字領域画像は改竄部分を含まないと判定し得る。逆に、当該文字領域画像から抽出された特徴量と参照特徴量との間のマンハッタン距離が上記閾値を上回る場合、当該文字領域画像は改竄部分を含むと判定され得る。本変形例では、第1の変形例と同様に、処理対象画像内で認識される文字の各々が改竄部分を含むか否かが判定される(即ち、文字ごとの改竄検出)。本変形例における強調画像及び比較画像の対比表示は、図17を用いて説明した例と同様に行われてよい。 As a second modification, the tampering detection uses an autoencoder type model (for example, VAE (Variational Autoencoder)) that encodes a character area image and extracts character features instead of a discriminant type model. May be done. The VAE learning process includes an encoder process for calculating a dimension-reduced feature amount from an input image and a decoder process for restoring an input image from the calculated feature amount. The encoder has the structure of a neural network, and the decoder has the structure opposite to that of the encoder. The model error is evaluated as the difference between the input image and the restored image (eg, cross entropy), and the values of the model parameters are adjusted, for example, by the backpropagation method so that the error is small. In this case, the falsified image for learning and the teacher data are unnecessary. In the learning stage, the learning device 102 generates / updates a learned model for extracting the feature amount of the character without tampering from the character area image through the learning process using a plurality of original images for learning. Typically, it is not practical to generate / update a single model capable of extracting appropriate features for every character, so the learning device 102 can learn different model parameter values for each character type. For example, characters such as "1", "2", "3", "two", and "ni" may be treated as different types of characters. In the tampering detection stage, the tampering detection server 103 applies each character area image to, for example, an encoder of a trained model corresponding to a character type recognized as a result of OCR, and extracts a feature amount from the character area image. Further, the tampering detection server 103 acquires the reference feature amount extracted in advance for the known (non-tampering) character area image of the same character type. Then, the tampering detection server 103 determines that the character area image does not include the tampering portion when the difference between the two feature amounts satisfies a predetermined condition (for example, when the Manhattan distance is equal to or less than a certain threshold value). obtain. On the contrary, when the Manhattan distance between the feature amount extracted from the character area image and the reference feature amount exceeds the above threshold value, it can be determined that the character area image includes a falsified portion. In this modification, as in the first modification, it is determined whether or not each of the characters recognized in the image to be processed includes a tampered portion (that is, tampering detection for each character). The contrast display of the emphasized image and the comparative image in this modified example may be performed in the same manner as in the example described with reference to FIG.

上述した実施形態では、対比表示ウィンドウにおいて強調画像及び比較画像が横方向に並べて表示される例を主に説明した。しかしながら、強調画像及び比較画像は、横方向以外のいかなる方向に並べて表示されてもよい。また、強調画像及び比較画像は、別個のウィンドウに表示されてもよい。また、第3の変形例として、強調画像及び比較画像は、空間的に対比的に配置される代わりに、時間的に相前後して表示されてもよい。例えば、単一の画像表示領域において、X秒間の強調画像の表示と、X秒間の比較画像の表示とが交互に反復的に行われてもよい。本明細書における「対比的な表示」との用語は、これらの表示態様の全てを包含するものとする。 In the above-described embodiment, an example in which the highlighted image and the comparative image are displayed side by side in the horizontal direction in the contrast display window has been mainly described. However, the emphasized image and the comparative image may be displayed side by side in any direction other than the horizontal direction. In addition, the emphasized image and the comparison image may be displayed in separate windows. Further, as a third modification, the emphasized image and the comparative image may be displayed one after the other in time instead of being arranged in a spatially contrasting manner. For example, in a single image display area, the display of the emphasized image for X seconds and the display of the comparative image for X seconds may be alternately and repeatedly performed. The term "contrast indication" herein is intended to include all of these indication aspects.

<<6.まとめ>>
ここまで、図1〜図17を用いて、本開示の実施形態について詳細に説明した。上述した実施形態では、対象原稿に含まれる改竄部分が、上記対象原稿の読取画像を用いて検出され、上記読取画像における上記改竄部分を強調して示す強調画像及び上記改竄部分を上記読取画像の通りに示す比較画像が、画面上に対比的に表示される。かかる構成によれば、改竄検出結果をユーザに検証させる際に、画像内のどの部分について改竄が疑われるかを強調画像において明瞭にユーザに示しつつ、比較画像において当該部分のもとの色味及び濃淡をユーザに提示することができる。よって、ユーザは、改竄部分の位置を把握した上で当該部分の色味又は濃淡から検出結果の妥当性を容易に判断することができる。
<< 6. Summary >>
Up to this point, the embodiments of the present disclosure have been described in detail with reference to FIGS. 1 to 17. In the above-described embodiment, the falsified portion included in the target manuscript is detected by using the scanned image of the target manuscript, and the emphasized image showing the falsified portion in the scanned image with emphasis and the falsified portion of the scanned image are shown. The comparison images shown on the street are displayed in contrast on the screen. According to such a configuration, when the user verifies the tampering detection result, the emphasized image clearly shows the user which part of the image is suspected of being tampered with, and the original color of the part is shown in the comparison image. And shades can be presented to the user. Therefore, the user can easily determine the validity of the detection result from the tint or shade of the falsified portion after grasping the position of the falsified portion.

また、上述した実施形態では、比較画像の内容の異なる2つ以上の比較モードからユーザにより指定される比較モードに従って、上記強調画像及び上記比較画像が対比的に表示され得る。第1の比較モードによれば、ユーザは、強調画像と比較画像との間で文字を構成する部分同士の対応関係を一目瞭然に把握することができる。第2の比較モードによれば、ユーザは、改竄が疑われる文字の前後の文字を通じて色味、濃淡及びストロークの癖といった要素を評価して、改竄検出結果の妥当性を判断することができる。第3の比較モードによれば、ユーザは、改竄が疑われる文字と同じ(他の文字領域の)文字の色味、濃淡及びストロークの癖といった要素を参考にして、改竄検出結果の妥当性を判断することができる。第4の比較モードによれば、ユーザは、改竄によって書き足された可能性のあるストロークが無い状態で画像を見て、改竄部分に属さないと判定された画素に注意を向けて改竄検出結果の妥当性を判断することができる。これら比較モードの間の柔軟な切替えを可能にすることで、改竄検出結果の妥当性を検証するユーザの作業を効率化することができる。 Further, in the above-described embodiment, the emphasized image and the comparison image can be displayed in contrast according to the comparison mode specified by the user from two or more comparison modes having different contents of the comparison image. According to the first comparison mode, the user can clearly grasp the correspondence between the parts constituting the characters between the emphasized image and the comparison image. According to the second comparison mode, the user can evaluate factors such as color, shading, and stroke habit through the characters before and after the character suspected of being tampered with, and judge the validity of the tampering detection result. According to the third comparison mode, the user can determine the validity of the tampering detection result by referring to factors such as the color, shading, and stroke habit of the same character (in other character areas) as the character suspected of being tampered with. You can judge. According to the fourth comparison mode, the user looks at the image without strokes that may have been added by tampering, and pays attention to the pixels determined not to belong to the tampering part, and the tampering detection result. Can be judged as valid. By enabling flexible switching between these comparison modes, it is possible to streamline the work of the user who verifies the validity of the tampering detection result.

また、上述した実施形態では、読取画像のどの部分が改竄されていると判定されたかを示す改竄検出結果を修正可能なユーザインタフェースがユーザに提供され得る。かかる構成によれば、上記強調画像及び上記比較画像の対比的な表示を見てユーザが検出誤りを発見した場合に、ユーザが直ちにその検出誤りを修正することができる。したがって、改竄の有無の検証の後に続く人的な又はシステム的な処理へ、ユーザにより適宜修正された改竄検出結果を円滑に受け渡すことができる。 Further, in the above-described embodiment, the user can be provided with a user interface capable of modifying the falsification detection result indicating which part of the scanned image is determined to be falsified. According to such a configuration, when the user discovers a detection error by looking at the contrasting display of the emphasized image and the comparison image, the user can immediately correct the detection error. Therefore, the tampering detection result appropriately modified by the user can be smoothly passed to the human or systematic process following the verification of the presence or absence of tampering.

ある実施例では、上記読取画像内の複数の画素の各々が改竄部分に属するか否かが判定され、上記改竄部分に属すると判定された画素が上記強調画像において強調され得る。この場合、例えば個々の文字にストロークが書き足された形の改竄のケースでそのストロークのみを強調するなど、精細な改竄検出結果をユーザに視覚的に提示することができる。ある変形例では、上記読取画像内の1つ以上の文字領域の各々が改竄部分を含むか否かが判定され、上記改竄部分を含むと判定された文字領域の文字が上記強調画像において強調され得る。この場合、改竄検出に要する計算処理の負荷が小さいため、読取画像のデータ量が多い場合にも迅速にユーザに改竄検出結果を提示することができる。 In a certain embodiment, it is determined whether or not each of the plurality of pixels in the scanned image belongs to the falsified portion, and the pixel determined to belong to the falsified portion can be emphasized in the emphasized image. In this case, it is possible to visually present the fine tampering detection result to the user, for example, by emphasizing only the stroke in the case of tampering in which strokes are added to individual characters. In a modified example, it is determined whether or not each of one or more character areas in the scanned image includes a falsified portion, and the characters in the character area determined to include the falsified portion are emphasized in the emphasized image. obtain. In this case, since the load of the calculation process required for the tampering detection is small, the tampering detection result can be quickly presented to the user even when the amount of data of the scanned image is large.

<<7.その他の実施形態>>
上記実施形態は、1つ以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出して実行する処理の形式でも実現可能である。また、1つ以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<< 7. Other embodiments >>
In the above embodiment, a program that realizes one or more functions is supplied to a system or a device via a network or a storage medium, and one or more processors in the computer of the system or the device read and execute the program. It is also feasible in the form. It can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

上記実施形態は、複数の装置からなるシステムにおいて実現されてもよく、全体として1つの装置で実現されてもよい。また、上で単一の装置に含まれるものとして説明した機能が、複数の装置に分散して配置されてもよい。例えば、学習装置102のデータ処理部121及び学習部122は、物理的に別体の装置に実装されてもよい。また、改竄検出サーバ103の検出部132と同等の機能が画像処理装置101に実装されてもよい。同様に、OCRサーバ104の文字認識部141と同等の機能が改竄検出サーバ103又は画像処理装置101に実装されてもよい。本明細書で言及したどの画像も、グレースケール画像であってもよく、又はフルカラー画像であってもよい。 The above embodiment may be realized in a system including a plurality of devices, or may be realized in one device as a whole. Further, the functions described above as being included in a single device may be distributed and arranged in a plurality of devices. For example, the data processing unit 121 and the learning unit 122 of the learning device 102 may be physically mounted on separate devices. Further, the image processing device 101 may be equipped with a function equivalent to that of the detection unit 132 of the tampering detection server 103. Similarly, a function equivalent to that of the character recognition unit 141 of the OCR server 104 may be implemented in the tampering detection server 103 or the image processing device 101. Any image referred to herein may be a grayscale image or a full color image.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

100 画像処理システム
101 画像処理サーバ
111 読取部
112 表示制御部
102 学習装置
122 学習部
103 改竄検出サーバ
131 画像取得部
132 検出部
104 OCRサーバ
11 対象原稿
21 処理対象画像(読取画像)
32 検出結果データ
100 Image processing system 101 Image processing server 111 Reading unit 112 Display control unit 102 Learning device 122 Learning unit 103 Manipulation detection server 131 Image acquisition unit 132 Detection unit 104 OCR server 11 Target manuscript 21 Target image (scanned image)
32 Detection result data

Claims (16)

改竄された画像と、改竄される前の画像と、改竄された画像と改竄される前の画像の差分を示す画像とに基づいて、機械学習処理を実行することにより学習モデルを生成する生成手段と、
画像データを入力する入力手段と、
前記生成手段により生成された前記学習モデルを用いて、前記入力手段によって入力された画像データに改竄された画像が含まれるか否かを推定する推定手段とを有することを特徴とする画像処理システム。
A generation means for generating a learning model by executing machine learning processing based on a falsified image, an image before falsification, and an image showing the difference between the falsified image and the image before falsification. When,
Input means for inputting image data and
An image processing system comprising the estimation means for estimating whether or not the image data input by the input means includes a falsified image by using the learning model generated by the generation means. ..
表示手段をさらに有し、
前記推定手段により前記入力手段によって入力された画像データに改竄された画像が含まれると推定されたことによって、前記表示手段は前記改竄された画像の改竄された部分を強調して表示することを特徴とする請求項1に記載の画像処理システム。
Has more display means,
Since it is estimated by the estimation means that the image data input by the input means includes a falsified image, the display means emphasizes and displays the falsified part of the falsified image. The image processing system according to claim 1, wherein the image processing system is characterized.
前記表示手段は、前記入力手段が入力した画像データが示す画像を前記改竄された部分が強調された画像とともに表示することを特徴とする請求項2に記載の画像処理システム。 The image processing system according to claim 2, wherein the display means displays an image indicated by image data input by the input means together with an image in which the tampered portion is emphasized. 受付手段と、
前記受付手段が、前記表示手段が表示した前記改竄された画像において、ユーザによる画素の指定を受け付けることによって、指定された画素を改竄された画素であると決定する第1の決定手段と、
前記受付手段が、前記表示手段が表示した前記改竄された画像において、ユーザによる画素の指定を受け付けることによって、指定された画素を改竄された画素ではないと決定する第2の決定手段とをさらに有することを特徴とする請求項2または3に記載の画像処理システム。
Reception means and
The first determining means for determining that the designated pixel is a falsified pixel by receiving the designation of the pixel by the user in the falsified image displayed by the display means.
Further, the receiving means further comprises a second determining means for determining that the designated pixel is not a falsified pixel by accepting a pixel designation by the user in the falsified image displayed by the display means. The image processing system according to claim 2 or 3, wherein the image processing system has.
前記表示手段は、前記推定手段が前記入力手段によって入力された画像データに改竄された画像が含まれないと推定したことによって、改竄が検出されなかったことを示す情報を表示することを特徴とする請求項2乃至4の何れか1項に記載の画像処理システム。 The display means is characterized in that it displays information indicating that falsification has not been detected by presuming that the image data input by the input means does not include a falsified image. The image processing system according to any one of claims 2 to 4. 前記学習手段は、前記入力手段が入力した画像データが示す改竄された画像と、前記入力手段が入力した画像データが示す改竄される前の画像と、前記改竄された画像と改竄される前の画像の差分を示す画像に基づいて、機械学習処理を実行することにより学習モデルを生成することを特徴とする請求項1乃至5の何れか1項に記載の画像処理システム。 The learning means includes a falsified image indicated by the image data input by the input means, an image before being falsified indicated by the image data input by the input means, and a falsified image before being falsified. The image processing system according to any one of claims 1 to 5, wherein a learning model is generated by executing a machine learning process based on an image showing a difference between images. 前記入力手段が入力した画像データが示す改竄された画像と前記入力手段が入力した画像データが示す改竄される前の画像に基づいて前記機械学習処理することによって更新される学習モデルを、指定された識別情報に基づいて決定する第3の決定手段をさらに有することを特徴とする請求項6に記載の画像処理システム。 A learning model updated by the machine learning process is specified based on the falsified image indicated by the image data input by the input means and the image before falsification indicated by the image data input by the input means. The image processing system according to claim 6, further comprising a third determination means for determining based on the identification information. 前記学習モデルと前記識別情報を対応づけて記憶する記憶手段をさらに有し、
前記第3の決定手段は、前記指定された識別情報に対応する学習モデルを前記入力手段が入力した改竄される前の画像に基づいて前記機械学習処理することによって更新される学習モデルとして決定することを特徴とする請求項7に記載の画像処理システム。
Further having a storage means for storing the learning model and the identification information in association with each other,
The third determination means determines the learning model corresponding to the designated identification information as a learning model updated by performing the machine learning process based on the image before falsification input by the input means. The image processing system according to claim 7, wherein the image processing system is characterized by the above.
前記入力手段が入力した画像データが示す画像が改竄された画像であるか、前記入力手段が入力した画像データが示す画像が改竄される前の画像かどうかを判定する判定手段と、
前記判定手段が、画像データが示す画像が改竄された画像であると判定した画像データと、前記判定手段が、画像データが示す画像が改竄される前の画像であると判定した画像データとを対応づけて保存する保存手段をさらに有することを特徴とする請求項1乃至8の何れか1項に記載の画像処理システム。
A determination means for determining whether the image indicated by the image data input by the input means is a falsified image, or whether the image indicated by the image data input by the input means is an image before falsification.
The image data determined by the determination means to be an image in which the image indicated by the image data has been tampered with, and the image data determined by the determination means to be an image before the image indicated by the image data has been tampered with. The image processing system according to any one of claims 1 to 8, further comprising a storage means for storing in association with each other.
前記保存手段は、前記入力手段が入力した画像データに含まれる識別子に基づいて、前記判定手段が、画像データが示す画像が改竄された画像であると判定した画像データと、前記判定手段が、画像データが示す画像が改竄される前の画像であると判定した画像データとを対応づけて保存することを特徴とする請求項9に記載の画像処理システム。 Based on the identifier included in the image data input by the input means, the storage means determines that the image indicated by the image data is a falsified image, and the determination means determines that the image data is a falsified image. The image processing system according to claim 9, wherein the image indicated by the image data is associated with the image data determined to be an image before being tampered with and stored. 前記識別子は2次元コードであることを特徴とする請求項10に記載の画像処理システム。 The image processing system according to claim 10, wherein the identifier is a two-dimensional code. 前記画像処理システムは、少なくとも画像処理装置と学習装置と推定装置から構成され、
前記画像処理装置は前記入力手段を有し、
前記学習装置は前記学習手段を有し、
前記推定装置は推定手段を有することを特徴とする請求項1乃至11の何れか1項に記載の画像処理システム。
The image processing system is composed of at least an image processing device, a learning device, and an estimation device.
The image processing device has the input means.
The learning device has the learning means and
The image processing system according to any one of claims 1 to 11, wherein the estimation device includes an estimation means.
前記画像処理装置は、
前記入力手段が入力した画像データを前記学習装置に送信する送信手段をさらに有し、
前記学習装置は、
前記送信手段により前記画像処理装置から送信された画像データを受信する受信手段をさらに有し、
前記学習手段は前記受信手段が受信した画像データに基づいて前記機械学習処理を実行することを特徴とする請求項12に記載の画像処理システム。
The image processing device is
Further, it has a transmission means for transmitting the image data input by the input means to the learning device.
The learning device is
It further has a receiving means for receiving the image data transmitted from the image processing apparatus by the transmitting means.
The image processing system according to claim 12, wherein the learning means executes the machine learning process based on the image data received by the receiving means.
前記画像処理システムは、少なくとも前記画像処理装置と、前記学習装置と前記推定装置と文字認識装置から構成され、
前記文字認識装置は文字認識処理を実行する文字認識手段を有し、
前記推定装置の推定手段は、前記画像処理装置で入力された画像データと、前記学習装置で生成された学習モデルと、前記文字認識装置で出力された前記文字認識処理の結果とに基づいて、前記入力手段によって入力された画像データに改竄された画像が含まれるか否かを推定することを特徴とする請求項12または13に記載の画像処理システム。
The image processing system includes at least the image processing device, the learning device, the estimation device, and a character recognition device.
The character recognition device has a character recognition means for executing character recognition processing.
The estimation means of the estimation device is based on the image data input by the image processing device, the learning model generated by the learning device, and the result of the character recognition processing output by the character recognition device. The image processing system according to claim 12 or 13, wherein it estimates whether or not the image data input by the input means includes a falsified image.
画像処理方法であって、
改竄された画像と、改竄される前の画像と、改竄された画像と改竄される前の画像の差分を示す画像とに基づいて、機械学習処理を実行することにより学習モデルを生成する生成工程と、
画像データを入力する入力工程と、
前記生成工程で生成された前記学習モデルを用いて、前記入力工程で入力された画像データに改竄された画像が含まれるか否かを推定する推定工程とを有することを特徴とする画像処理方法。
It is an image processing method
A generation process that generates a learning model by executing machine learning processing based on a falsified image, an image before falsification, and an image showing the difference between the falsified image and the image before falsification. When,
Input process for inputting image data and
An image processing method characterized by having an estimation step of estimating whether or not a falsified image is included in the image data input in the input step using the learning model generated in the generation step. ..
請求項15に記載の画像処理方法をコンピュータで実行するためのプログラム。 A program for executing the image processing method according to claim 15 on a computer.
JP2019212299A 2019-11-25 2019-11-25 Image processing system, image processing method, and program Pending JP2021086188A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019212299A JP2021086188A (en) 2019-11-25 2019-11-25 Image processing system, image processing method, and program
US16/950,232 US11797857B2 (en) 2019-11-25 2020-11-17 Image processing system, image processing method, and storage medium
CN202011338825.6A CN112839141B (en) 2019-11-25 2020-11-25 Image processing system, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212299A JP2021086188A (en) 2019-11-25 2019-11-25 Image processing system, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021086188A true JP2021086188A (en) 2021-06-03

Family

ID=76087658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212299A Pending JP2021086188A (en) 2019-11-25 2019-11-25 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021086188A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023080426A1 (en) * 2021-11-08 2023-05-11 숭실대학교 산학협력단 Adversarially perturbed image detection method and computer program stored in recording medium to execute adversarially perturbed image detection method
KR20230067422A (en) * 2021-11-08 2023-05-16 숭실대학교산학협력단 Adversarial perturbation image detection method and computer program stored in a recording medium to execute the method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023080426A1 (en) * 2021-11-08 2023-05-11 숭실대학교 산학협력단 Adversarially perturbed image detection method and computer program stored in recording medium to execute adversarially perturbed image detection method
KR20230067422A (en) * 2021-11-08 2023-05-16 숭실대학교산학협력단 Adversarial perturbation image detection method and computer program stored in a recording medium to execute the method
KR102663350B1 (en) 2021-11-08 2024-05-07 숭실대학교산학협력단 Adversarial perturbation image detection method and computer program stored in a recording medium to execute the method

Similar Documents

Publication Publication Date Title
CN112839141B (en) Image processing system, image processing method, and storage medium
US9723177B2 (en) Image processing system, image processing apparatus, and image forming apparatus
US10114592B2 (en) Image forming system and image forming apparatus
US8314964B2 (en) Image processing apparatus and image processing method
JP4737215B2 (en) Information processing apparatus, image reading apparatus, and program
US20170315963A1 (en) Image processing apparatus and image processing system
JP2012014406A (en) Information processing system, information processor, information processing method and program
JP2021086188A (en) Image processing system, image processing method, and program
JP2021043650A (en) Image processing device, image processing system, image processing method, and program
US20190146646A1 (en) Information processing system, information processing apparatus, and non-transitory computer readable medium
US20180270387A1 (en) Printing apparatus, server, printing method, and control method
US20120224198A1 (en) Image forming apparatus, setting method, and non-transitory computer-readable recording medium encoded with setting program
US20210166284A1 (en) Information processing system, information processing method, and non-transitory recording medium
JP5768841B2 (en) Image forming system, image forming apparatus, remote control device, and program
US10863039B2 (en) Information processing apparatus that outputs parameter on basis of learning result
US20170308507A1 (en) Image processing apparatus
JP2021184190A (en) Image processing device, image processing method, and program
WO2020105366A1 (en) Information processing device, information processing method, program, storage medium, and image forming system
KR20090007199A (en) Image forming apparatus, and method for generating color table and method for printing color document thereof
JP2021086214A (en) Image processing system, display control method, image processing apparatus, and program
US11399104B2 (en) Data transmission apparatus and data transmission method for transmitting document data
US20220066709A1 (en) Image Forming Apparatus, Control Method of Image Forming Apparatus and Image Forming System
US9456094B2 (en) Electronic device and information providing method that provide assistance to user&#39;s operation on how to use electronic equipment
JP4840389B2 (en) Information processing apparatus, image reading apparatus, and program
JP2021057710A (en) Image reading apparatus, learning apparatus, method, and program