JP2022020412A - Image processing device and information processing system - Google Patents

Image processing device and information processing system Download PDF

Info

Publication number
JP2022020412A
JP2022020412A JP2020123889A JP2020123889A JP2022020412A JP 2022020412 A JP2022020412 A JP 2022020412A JP 2020123889 A JP2020123889 A JP 2020123889A JP 2020123889 A JP2020123889 A JP 2020123889A JP 2022020412 A JP2022020412 A JP 2022020412A
Authority
JP
Japan
Prior art keywords
image
image data
manuscript
classification
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020123889A
Other languages
Japanese (ja)
Inventor
リチェル・ロペズ
Ropez Richell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2020123889A priority Critical patent/JP2022020412A/en
Publication of JP2022020412A publication Critical patent/JP2022020412A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

To read an image of a document, to classify the image of the document on the basis of a feature of the entire image of the document, and to store image data showing the image of the document in a folder corresponding to specified classification.SOLUTION: An image processing device 10 is provided with a control part 31 for extracting a feature of an image of an acquired document, and collecting data showing the feature of the image of the document as learning data to discriminate classification of the document in the case of a training mode, and extracting the feature of the image of the document read by an image reading part 11, discriminating the classification of the document on the basis of the feature of the image of the document and the learning data, adding information showing the discriminated classification to the image data of the document, confirming the existence/nonexistence of a destination folder of a name matching the discriminated classification in a folder of a predetermined storage destination, and storing the image data of the document in the destination folder of a matching name in the case of a classification mode.SELECTED DRAWING: Figure 2

Description

本発明は、原稿の画像データを取得する画像処理装置および情報処理システムに関し、特に原稿の画像データを分類して保存するための技術に関する。 The present invention relates to an image processing device and an information processing system for acquiring image data of a manuscript, and more particularly to a technique for classifying and storing image data of a manuscript.

画像処理装置としては、複合機(MFP)、コピー機、ファクシミリ装置などがある。このような画像処理装置においては、読取った原稿の画像データを自動的に分類できることが望ましい。 The image processing device includes a multifunction device (MFP), a copier, a facsimile machine, and the like. In such an image processing apparatus, it is desirable that the image data of the scanned document can be automatically classified.

特開2001-101213号公報Japanese Unexamined Patent Publication No. 2001-101213

特許文献1に記載の文書管理装置では、読取られた文書の画像データの分類が私的文書又は公的文書の何れであるかについて、ユーザーが予め設定を行う必要がある。このため、読取られた文書の画像データの分類(私的文書又は公的文書)を自動的に設定することができない。 In the document management device described in Patent Document 1, it is necessary for the user to set in advance whether the classification of the image data of the read document is a private document or a public document. Therefore, it is not possible to automatically set the classification (private document or public document) of the image data of the read document.

また、特許文献1に記載の文書管理装置は、ユーザーによる上記の設定に従って、読取られた文書の画像データを大分類としての「私的文書」又は「公開文書」に分類し、更に、読取られた文書の画像データに対してレイアウト解析を行い、レイアウト解析結果に基づいて、中分類としての「写真文書」、「オフィス文書」又は「情報収集文書」の何れの分類であるかを特定し、特定された分類に対応するフォルダに、読取られた文書の画像データを保存している。このように、読取られた文書の画像データを、文書画像のレイアウトに基づいて分類するので、文書画像全体の内容又は特徴に基づいて分類するものではない。よって、文書画像の分類が適確に行われているとは言い難い。 Further, the document management device described in Patent Document 1 classifies the image data of the read document into "private document" or "public document" as a major classification according to the above setting by the user, and further, it is read. Layout analysis is performed on the image data of the document, and based on the layout analysis result, it is specified whether the classification is "photo document", "office document" or "information gathering document" as the middle classification. The image data of the read document is stored in the folder corresponding to the specified classification. As described above, since the image data of the read document is classified based on the layout of the document image, it is not classified based on the content or the feature of the entire document image. Therefore, it cannot be said that the document images are properly classified.

本発明は、上記の事情に鑑みなされたものであり、原稿の画像全体の特徴に基づき当該原稿の画像の分類を特定することを可能にし、特定された分類に対応するフォルダに、当該原稿の画像を示す画像データを保存することを可能することを目的とする。 The present invention has been made in view of the above circumstances, and makes it possible to specify the classification of the image of the manuscript based on the characteristics of the entire image of the manuscript. The purpose is to be able to save image data indicating an image.

本発明の一局面にかかる画像処理装置は、原稿の画像データを取得する画像取得部と、ユーザーによる操作で設定及び指示が入力される操作部と、前記操作部に入力される指示に従ってトレーニングモード又は分類モードを設定する制御部と、を備え、前記制御部は、前記操作部への操作により前記トレーニングモードが設定された場合には、前記画像取得部により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴を示すデータを、当該原稿の分類を判別するための学習データとして収集し、前記操作部への操作により前記分類モードが設定された場合には、前記画像取得部により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴及び前記学習データに基づき当該原稿の分類を判別し、当該判別した分類を示す情報を当該原稿の画像データに付加し、予め定められた記憶先のフォルダ内において当該判別した分類と一致する名称の宛先フォルダの有無を確認し、当該一致する名称の宛先フォルダがない場合、当該一致する名称の宛先フォルダを作成させて、当該宛先フォルダに当該原稿の画像データを記憶させるものである。 The image processing apparatus according to one aspect of the present invention has an image acquisition unit for acquiring image data of a document, an operation unit for inputting settings and instructions by user operation, and a training mode according to instructions input to the operation unit. Alternatively, the control unit includes a control unit for setting the classification mode, and the control unit is an image of a document whose image data is acquired by the image acquisition unit when the training mode is set by operating the operation unit. When the characteristics of the original are extracted, data showing the characteristics of the image of the original is collected as learning data for determining the classification of the original, and the classification mode is set by the operation to the operation unit. , The characteristics of the image of the manuscript whose image data has been acquired by the image acquisition unit are extracted, the classification of the manuscript is discriminated based on the characteristics of the image of the manuscript and the learning data, and the information indicating the discriminated classification is obtained. It is added to the image data of the manuscript, and it is confirmed whether there is a destination folder with a name that matches the determined classification in the predetermined storage destination folder, and if there is no destination folder with the matching name, the match is made. A destination folder with a name is created, and the image data of the manuscript is stored in the destination folder.

また、本発明の一局面にかかる情報処理システムは、上記の画像処理装置と、情報処理装置とを備え、ネットワークを介して前記画像処理装置と前記情報処理装置とが接続可能な情報処理システムであって、前記情報処理装置は、前記予め定められた記憶先のフォルダとしての共有フォルダを有する記憶部を備え、前記画像処理装置の前記制御部は、前記操作部に対する接続確立のための情報入力により、前記情報処理装置への接続状態を確立し、当該情報処理装置の前記記憶部の前記共有フォルダへのアクセスが可能な状態とし、当該共有フォルダ内において当該判別した分類と一致する名称の宛先フォルダの有無を確認し、当該一致する名称の宛先フォルダがない場合、当該一致する名称の宛先フォルダを作成させて、当該宛先フォルダに当該原稿の画像データを記憶させるものである。 Further, the information processing system according to one aspect of the present invention is an information processing system including the above image processing device and the information processing device, and the image processing device and the information processing device can be connected to each other via a network. Therefore, the information processing device includes a storage unit having a shared folder as a predetermined storage destination folder, and the control unit of the image processing device inputs information for establishing a connection to the operation unit. Establishes a connection state to the information processing device, makes it possible to access the shared folder of the storage unit of the information processing device, and a destination having a name matching the determined classification in the shared folder. The existence of the folder is confirmed, and if the destination folder with the matching name does not exist, the destination folder with the matching name is created, and the image data of the manuscript is stored in the destination folder.

本発明によれば、原稿の画像を読み取って、原稿の画像全体の特徴に基づき当該原稿の画像を分類することができ、特定された分類に対応するフォルダに、当該原稿の画像を示す画像データを保存することができる。 According to the present invention, the image of the manuscript can be read and the image of the manuscript can be classified based on the characteristics of the entire image of the manuscript, and the image data showing the image of the manuscript can be stored in the folder corresponding to the specified classification. Can be saved.

本発明の第1実施形態の画像処理装置を示す断面図である。It is sectional drawing which shows the image processing apparatus of 1st Embodiment of this invention. 第1実施形態の画像処理装置の主要内部構成を示すブロック図である。It is a block diagram which shows the main internal structure of the image processing apparatus of 1st Embodiment. ディープラーニングの学習データを生成するためのトレーニングモードの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the training mode for generating the learning data of deep learning. 表示部に表示された分類機能入力画面を示す図である。It is a figure which shows the classification function input screen displayed on the display part. 表示部に表示されたトレーニングモード設定画面の一例を示す図である。It is a figure which shows an example of the training mode setting screen displayed on the display part. ディープラーニングの概念を示す図である。It is a figure which shows the concept of deep learning. 原稿の画像の特徴である画像の色相、コントラスト、色数、濃度と、タグ名である招待状、領収書との対応関係を例示する図表である。It is a chart exemplifying the correspondence between the hue, contrast, the number of colors, and the density of the image, which are the characteristics of the image of the manuscript, and the invitation letter and the receipt, which are the tag names. 分類モードでの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure in a classification mode. 表示部に表示された分類モード設定画面を示す図である。It is a figure which shows the classification mode setting screen displayed on the display part. 表示部に表示されたポップアップ画面を示す図である。It is a figure which shows the pop-up screen displayed on the display part. 表示部に表示された他のポップアップ画面を示す図である。It is a figure which shows the other pop-up screens displayed on the display part. 表示部に表示された原稿の画像のプロパティを示す図である。It is a figure which shows the property of the image of the original which was displayed on the display part. 表示部に表示された原稿の画像の他のプロパティを示す図である。It is a figure which shows the other property of the image of a manuscript displayed on the display part. 表示部に表示されたファイルの一覧を示す図である。It is a figure which shows the list of the file displayed on the display part. 第1実施形態の原稿画像管理処理の一例を示すフローチャートである。It is a flowchart which shows an example of the manuscript image management processing of 1st Embodiment. 表示部に表示された分類別管理の設定画面の一例を示す図である。It is a figure which shows an example of the setting screen of the management by classification displayed on the display part. ピクセルマッチングを説明するための図である。It is a figure for demonstrating pixel matching. ピクセルマッチングを用いて相関値を算出するための式と相関値の算出例とを示す図である。It is a figure which shows the formula for calculating a correlation value using pixel matching, and the calculation example of a correlation value. 読み取った原稿の分類に一致する名称のフォルダが共有フォルダ内にない場合の原稿データを保存する一例を示す図である。It is a figure which shows an example of saving the manuscript data when the folder of the name which matches the classification of the scanned manuscript does not exist in the shared folder. 読み取った原稿の分類に一致する名称のフォルダが共有フォルダ内にある場合の原稿データを保存する一例を示す図である。It is a figure which shows an example of saving the manuscript data when the folder of the name which matches the classification of the scanned manuscript is in a shared folder. 今回読み取った原稿の分類に一致する名称のフォルダが共有フォルダ内になく、他の名称のフォルダがある場合の原稿データを保存する一例を示す図である。It is a figure which shows an example of saving the manuscript data when the folder of the name matching the classification of the manuscript read this time is not in a shared folder, and there is a folder of another name. 読み取った原稿の分類に一致する名称のフォルダが共有フォルダ内にあり、当該名称のフォルダ内に複数の画像データが保存されている場合の原稿データを保存する一例を示す図である。It is a figure which shows an example of saving the manuscript data when a folder of a name matching the classification of a scanned manuscript is in a shared folder, and a plurality of image data are saved in the folder of the said name. 第2実施形態の情報処理システムの主要内部構成を示すブロック図である。It is a block diagram which shows the main internal structure of the information processing system of 2nd Embodiment. 第2実施形態の原稿画像管理処理の一例を示すフローチャートである。It is a flowchart which shows an example of the manuscript image management processing of 2nd Embodiment. 表示部に表示された送信設定画面の一例を示す図である。It is a figure which shows an example of the transmission setting screen displayed on the display part.

以下、本発明の一実施形態にかかる画像処理装置について図面を参照して説明する。 Hereinafter, the image processing apparatus according to the embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の第1実施形態にかかる画像処理装置を示す断面図である。図1に示すように本実施形態の画像処理装置10は、例えばコピー機能、プリンター機能、ファクシミリ機能のような複数の機能を兼ね備えたMFP(画像形成装置)である。この画像処理装置10は、画像読取部11と、画像形成部12とを備えている。 FIG. 1 is a cross-sectional view showing an image processing apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 10 of the present embodiment is an MFP (image forming apparatus) having a plurality of functions such as a copy function, a printer function, and a facsimile function. The image processing device 10 includes an image reading unit 11 and an image forming unit 12.

画像読取部11は、原稿の画像を光学的に読み取る撮像素子を有しており、この撮像素子のアナログ出力がデジタル信号に変換されて、原稿の画像を示す画像データが生成される。画像読取部11は、特許請求の範囲における画像取得部の一例である。 The image reading unit 11 has an image pickup element that optically reads the image of the document, and the analog output of the image pickup element is converted into a digital signal to generate image data indicating the image of the document. The image reading unit 11 is an example of an image acquisition unit within the scope of claims.

画像形成部12は、上記画像データによって示される画像を記録紙に形成するものであり、マゼンタ用の画像形成ユニット3M、シアン用の画像形成ユニット3C、イエロー用の画像形成ユニット3Y、及びブラック用の画像形成ユニット3Bkを備えている。各画像形成ユニット3M、3C、3Y、及び3Bkのいずれにおいても、感光体ドラム4の表面を均一帯電させ、感光体ドラム4の表面を露光して、感光体ドラム4の表面に静電潜像を形成し、感光体ドラム4の表面の静電潜像をトナー像に現像して、感光体ドラム4の表面のトナー像を中間転写ベルト5に1次転写する。これにより、カラーのトナー像が中間転写ベルト5上に形成される。このカラーのトナー像は、中間転写ベルト5と2次転写ローラー6の間のニップ域Nにおいて給紙部14から搬送路8を通じて搬送されてきた記録紙Pに2次転写される。 The image forming unit 12 forms the image shown by the image data on the recording paper, and is used for the image forming unit 3M for magenta, the image forming unit 3C for cyan, the image forming unit 3Y for yellow, and the black. It is equipped with an image forming unit 3Bk. In each of the image forming units 3M, 3C, 3Y, and 3Bk, the surface of the photoconductor drum 4 is uniformly charged, the surface of the photoconductor drum 4 is exposed, and an electrostatic latent image is formed on the surface of the photoconductor drum 4. Is formed, the electrostatic latent image on the surface of the photoconductor drum 4 is developed into a toner image, and the toner image on the surface of the photoconductor drum 4 is primarily transferred to the intermediate transfer belt 5. As a result, a color toner image is formed on the intermediate transfer belt 5. The toner image of this color is secondarily transferred to the recording paper P conveyed from the paper feed unit 14 through the transfer path 8 in the nip area N between the intermediate transfer belt 5 and the secondary transfer roller 6.

この後、定着装置15で記録紙Pが加熱及び加圧されて、記録紙P上のトナー像が熱圧着により定着され、更に記録紙Pが排出ローラー16を通じて排出トレイ17に排出される。 After that, the recording paper P is heated and pressurized by the fixing device 15, the toner image on the recording paper P is fixed by thermocompression bonding, and the recording paper P is discharged to the discharge tray 17 through the discharge roller 16.

次に、図2は、本実施形態の画像処理装置10の主要内部構成を示すブロック図である。図2に示すように本実施形態の画像処理装置10は、画像読取部11と、画像形成部12と、表示部21と、操作部22と、タッチパネル23と、ネットワークインターフェイス部91と、画像メモリー26と、画像処理部27と、記憶部28と、制御ユニット29とを備えている。これらの構成要素は、互いにバスを通じてデータ又は信号の送受信が可能とされている。 Next, FIG. 2 is a block diagram showing a main internal configuration of the image processing apparatus 10 of the present embodiment. As shown in FIG. 2, the image processing device 10 of the present embodiment includes an image reading unit 11, an image forming unit 12, a display unit 21, an operation unit 22, a touch panel 23, a network interface unit 91, and an image memory. 26, an image processing unit 27, a storage unit 28, and a control unit 29 are provided. These components are capable of transmitting and receiving data or signals through the bus to each other.

表示部21は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(OLED:Organic Light-Emitting Diode)ディスプレイなどの表示装置である。操作部22は、テンキー、決定キー、スタートキーなどの物理キーを備えている。 The display unit 21 is a display device such as a liquid crystal display (LCD) or an organic EL (OLED: Organic Light-Emitting Diode) display. The operation unit 22 includes physical keys such as a numeric keypad, an enter key, and a start key.

表示部21の画面には、タッチパネル23が配置されている。タッチパネル23は、所謂抵抗膜方式や静電容量方式などのタッチパネルであって、タッチパネル23に対するユーザーの指などの接触(タッチ)をその接触位置とともに検知して、その接触位置の座標を示す検知信号を制御ユニット29の後述する制御部31などに出力する。 A touch panel 23 is arranged on the screen of the display unit 21. The touch panel 23 is a touch panel of a so-called resistance film method or a capacitance method, and detects contact (touch) of a user's finger or the like with the touch panel 23 together with the contact position, and a detection signal indicating the coordinates of the contact position. Is output to the control unit 31 or the like, which will be described later, of the control unit 29.

ネットワークインターフェイス部91は、ローカルエリア内、又はインターネット上の端末装置やサーバー等の外部装置と種々のデータの送受信を行うものである。ネットワークインターフェイス部91は、特許請求の範囲における画像取得部の一例である。本発明の一実施形態に係る画像処理装置は、画像読取部11又はネットワークインターフェイス部91の少なくとも一方を備える。 The network interface unit 91 transmits and receives various data to and from an external device such as a terminal device or a server in the local area or on the Internet. The network interface unit 91 is an example of an image acquisition unit within the scope of claims. The image processing apparatus according to the embodiment of the present invention includes at least one of an image reading unit 11 and a network interface unit 91.

画像メモリー26には、画像読取部11により読取られた原稿の画像を示す画像データが記憶される。また、制御部31は、画像処理部27として機能する。画像処理部27は、画像メモリー26内の画像データに対して、シェーディング補正などの様々な画像処理を施す。 The image memory 26 stores image data indicating an image of a document read by the image reading unit 11. Further, the control unit 31 functions as an image processing unit 27. The image processing unit 27 performs various image processing such as shading correction on the image data in the image memory 26.

なお、画像処理部27は、制御部31及び制御ユニット29とは別個に設けられていてもよい。この場合、制御部31及び画像処理部27が特許請求の範囲における制御部の一例となる。 The image processing unit 27 may be provided separately from the control unit 31 and the control unit 29. In this case, the control unit 31 and the image processing unit 27 are examples of the control unit within the scope of the claims.

記憶部28は、SSD(Solid State Drive)、HDD(Hard Disk Drive)などの大容量の記憶装置であって、各種のアプリケーションプログラムや種々のデータを記憶している。 The storage unit 28 is a large-capacity storage device such as an SSD (Solid State Drive) or an HDD (Hard Disk Drive), and stores various application programs and various data.

制御ユニット29は、プロセッサー、RAM(Random Access Memory)、及びROM(Read Only Memory)などから構成される。プロセッサーは、例えばCPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、又はMPU(Micro Processing Unit)等である。制御ユニット29は、上記のROM又は記憶部28に記憶された制御プログラムが上記のプロセッサーで実行されることにより、制御部31として機能する。 The control unit 29 is composed of a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The processor is, for example, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), an MPU (Micro Processing Unit), or the like. The control unit 29 functions as the control unit 31 when the control program stored in the ROM or the storage unit 28 is executed by the processor.

制御部31は、画像処理装置10を統括的に制御する。制御ユニット29は、画像読取部11、画像形成部12、表示部21、操作部22、タッチパネル23、ネットワークインターフェイス部91、画像メモリー26、画像処理部27、及び記憶部28などと接続されている。制御部31は、これらの構成要素の動作制御や、該各構成要素との間での信号またはデータの送受信を行う。 The control unit 31 comprehensively controls the image processing device 10. The control unit 29 is connected to an image reading unit 11, an image forming unit 12, a display unit 21, an operation unit 22, a touch panel 23, a network interface unit 91, an image memory 26, an image processing unit 27, a storage unit 28, and the like. .. The control unit 31 controls the operation of these components and transmits / receives signals or data to / from each component.

制御部31は、画像処理装置10による画像形成に必要な各種の処理などを実行する処理部としての役割を果たす。また、制御部31は、タッチパネル23から出力される検知信号あるいは操作部22の物理キーの操作に基づき、ユーザーにより入力された操作指示を受け付ける。更に、制御部31は、表示部21の表示動作を制御する機能、及びネットワークインターフェイス部91の通信動作を制御する機能を有する。 The control unit 31 serves as a processing unit that executes various processes necessary for image formation by the image processing device 10. Further, the control unit 31 receives an operation instruction input by the user based on the detection signal output from the touch panel 23 or the operation of the physical key of the operation unit 22. Further, the control unit 31 has a function of controlling the display operation of the display unit 21 and a function of controlling the communication operation of the network interface unit 91.

このような構成の画像処理装置10において、例えば、ユーザーが、原稿を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、コピーの実行を指示すると、制御部31は、画像読取部11により原稿の画像を読取らせ、該原稿の画像を示す画像データを画像メモリー26に記憶させる。画像処理部27は、画像データに対して各種の処理を施す。画像形成部12は、画像データを画像メモリー26から取得して、該画像データによって示される原稿の画像を記録紙に形成する。 In the image processing device 10 having such a configuration, for example, when the user sets the document in the image reading unit 11 and operates the operation unit 22 or the touch panel 23 to instruct the execution of copying, the control unit 31 displays the image. The image of the original is read by the reading unit 11, and the image data indicating the image of the original is stored in the image memory 26. The image processing unit 27 performs various processes on the image data. The image forming unit 12 acquires the image data from the image memory 26 and forms the image of the original document indicated by the image data on the recording paper.

また、ユーザーによる操作で操作部22又はタッチパネル23に、原稿の種類(つまり、分類)を示すタグ名と、トレーニングモードの設定と、画像読取部11による原稿の画像の読取りの実行指示が入力され、制御部31が、トレーニングモードの設定、当該タグ名、及び読取実行指示を受け付けた場合、制御部31は、画像処理装置10をトレーニングモードに設定し、画像読取部11による原稿の画像の読取り、画像メモリー26への画像データの記憶、及び画像処理部27による画像データの処理を行わせる。更に、制御部31は、画像メモリー26に記憶された当該画像データに基づき、読み取られた原稿の画像の特徴を抽出する処理を実行する。そして、制御部31は、このように抽出した、該原稿の画像の特徴を示すデータを、上記タグ名により示される原稿の分類を判別するための学習データとして収集する。 Further, by the user's operation, the tag name indicating the type (that is, classification) of the original, the setting of the training mode, and the execution instruction of the image reading unit 11 to read the image of the original are input to the operation unit 22 or the touch panel 23. When the control unit 31 receives the training mode setting, the tag name, and the reading execution instruction, the control unit 31 sets the image processing device 10 to the training mode, and the image reading unit 11 reads the image of the original. , The image data is stored in the image memory 26, and the image data is processed by the image processing unit 27. Further, the control unit 31 executes a process of extracting the features of the image of the read original based on the image data stored in the image memory 26. Then, the control unit 31 collects the data indicating the characteristics of the image of the manuscript extracted in this way as learning data for discriminating the classification of the manuscript indicated by the tag name.

この後、ユーザーが、更なる原稿を画像読取部11にセットし、当該ユーザーによる操作で、操作部22又はタッチパネル23に、分類モードの設定と、画像読取部11による原稿の画像の読取りの実行指示とが受け付けられると、制御部31は、分類モードを設定し、画像読取部11による当該原稿の画像の読取り、画像メモリー26への画像データの記憶、及び画像処理部27による画像データの処理を行わせる。この後、制御部31は、更に、画像メモリー26内の当該画像データに基づき当該原稿の画像の特徴を抽出する処理を実行し、当該原稿の画像の特徴、及び上記のようにして収集されている学習データに基づき、当該原稿の分類を示すタグ名を判別し、当該判定したタグ名を示す情報を、当該原稿の画像データに付加する。すなわち、制御部31は、このようにタグ名を示す情報を付加することにより該他の原稿を分類する。 After that, the user sets a further document in the image reading unit 11, and the user operates the operation unit 22 or the touch panel 23 to set the classification mode and execute the image reading unit 11 to read the image of the document. When the instruction is received, the control unit 31 sets the classification mode, the image reading unit 11 reads the image of the original, the image data is stored in the image memory 26, and the image processing unit 27 processes the image data. To do. After that, the control unit 31 further executes a process of extracting the features of the image of the manuscript based on the image data in the image memory 26, and collects the features of the image of the manuscript and as described above. Based on the learning data, the tag name indicating the classification of the manuscript is determined, and the information indicating the determined tag name is added to the image data of the manuscript. That is, the control unit 31 classifies the other manuscript by adding the information indicating the tag name in this way.

従って、制御部31は、トレーニングモードに設定している状態では、画像読取部11により読取られた原稿の画像の特徴を示すデータを、操作部22又はタッチパネル23に入力されたタグ名が示す原稿の分類として判別するための学習データとして収集する。また、制御部31は、分類モードに設定している状態では、画像読取部11により読み取られた原稿の画像から抽出した当該原稿の画像の特徴と、この時点で収集されている学習データとを比較することで、当該原稿の画像の特徴と一致又は近似する特徴を示す学習データに対応付けられているタグ名を判別する。そして、制御部31は、当該タグ名を示す情報を、当該読み取られた原稿の画像に付加することにより、当該読み取られた原稿の画像を分類する。なお、制御部31は、分類モードに設定している状態でも、画像読取部11により読取られた原稿の画像の特徴を示すデータを、タグ名を判別するための学習データとして収集する。 Therefore, in the state where the control unit 31 is set to the training mode, the data indicating the characteristics of the image of the document read by the image reading unit 11 is the document indicated by the tag name input to the operation unit 22 or the touch panel 23. It is collected as learning data for discriminating as a classification of. Further, in the state where the control unit 31 is set to the classification mode, the characteristics of the image of the original document extracted from the image of the original document read by the image reading unit 11 and the learning data collected at this time are obtained. By comparing, the tag name associated with the learning data indicating the feature that matches or approximates the feature of the image of the manuscript is determined. Then, the control unit 31 classifies the image of the scanned document by adding the information indicating the tag name to the image of the scanned document. The control unit 31 collects data indicating the characteristics of the image of the original document read by the image reading unit 11 as learning data for discriminating the tag name even in the state of being set to the classification mode.

次に、上記トレーニングモードでの処理手順を、図3に示すフローチャートなどを参照して詳細に説明する。 Next, the processing procedure in the training mode will be described in detail with reference to the flowchart shown in FIG.

まず、管理者(特定のユーザー)は、操作部22又はタッチパネル23を操作して、ドキュメント分類機能の実行の指示を入力する。操作部22又はタッチパネル23が当該指示の入力を受け付けると、制御部31は、当該指示に応じて図4に示すような分類機能入力画面G1を表示部21に表示させる(S101)。この図4に示す分類機能入力画面G1には、トレーニングモードの実行指示を入力するためのキーK11、分類モードの実行指示を入力するためのキーK12、及び識別情報IDを入力するためのテキストボックスTB1が表示されている。 First, the administrator (specific user) operates the operation unit 22 or the touch panel 23 to input an instruction to execute the document classification function. When the operation unit 22 or the touch panel 23 receives the input of the instruction, the control unit 31 causes the display unit 21 to display the classification function input screen G1 as shown in FIG. 4 in response to the instruction (S101). In the classification function input screen G1 shown in FIG. 4, a key K11 for inputting a training mode execution instruction, a key K12 for inputting a classification mode execution instruction, and a text box for inputting an identification information ID are entered. TB1 is displayed.

管理者による操作部22又はタッチパネル23の操作により、当該管理者の識別情報IDがテキストボックスTB1に入力され、トレーニングモードのキーK11が押下されると、制御部31は、テキストボックスTB1に入力された識別情報IDが当該管理者の識別情報IDに一致するか否かを認証する(S102)。制御部31が、テキストボックスTB1に入力された識別情報IDが当該管理者の識別情報IDに一致すると判定した場合(S102でYES)、画像処理装置10をトレーニングモードに設定する(S103)。尚、制御部31が、テキストボックスTB1に入力された識別情報IDが当該管理者の識別情報IDに一致しないと判定した場合(S102でNO)、制御部31は、トレーニングモードを設定せず、処理は終了する。 By the operation of the operation unit 22 or the touch panel 23 by the administrator, the identification information ID of the administrator is input to the text box TB1, and when the key K11 of the training mode is pressed, the control unit 31 is input to the text box TB1. It authenticates whether or not the identification information ID matches the identification information ID of the administrator (S102). When the control unit 31 determines that the identification information ID input to the text box TB1 matches the identification information ID of the administrator (YES in S102), the image processing device 10 is set to the training mode (S103). When the control unit 31 determines that the identification information ID input to the text box TB1 does not match the identification information ID of the administrator (NO in S102), the control unit 31 does not set the training mode. The process ends.

このようにトレーニングモードが設定されている状態で、管理者が、原稿を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、スキャンの実行指示を入力すると、制御部31は、当該入力されたスキャンの実行指示に従って、画像読取部11により原稿の画像を読取らせ、画像読取部11から出力された原稿の画像を示す画像データを画像メモリー26に記憶させる。画像処理部27は、画像データに対して各種の処理を施す(S104)。このトレーニングモードでの画像処理部27による各種の処理は、後で述べるS109において原稿の画像の特徴を正確に抽出させるために行われる予備処理であって、画像の濃度、コントラスト、エッジ、及びコーナーについてこれらを強調する処理等である。 When the administrator sets the document in the image reading unit 11 and operates the operation unit 22 or the touch panel 23 in the state where the training mode is set in this way, the control unit 31 inputs a scan execution instruction. According to the input scan execution instruction, the image reading unit 11 reads the image of the original, and the image data indicating the image of the original output from the image reading unit 11 is stored in the image memory 26. The image processing unit 27 performs various processes on the image data (S104). Various processes by the image processing unit 27 in this training mode are preliminary processes performed in order to accurately extract the features of the image of the original in S109 described later, and are image density, contrast, edges, and corners. It is a process to emphasize these.

この後、制御部31は、図5に示すようなトレーニングモード設定画面G2を表示部21に表示させる(S105)。この図5に示すトレーニングモード設定画面G2には、画像読取部11により読取られた原稿の画像D1、既に設定されている各タグ名に対応付けられたそれぞれのキーK21、K22、K23、K24、K25…、新たな原稿の分類を示すタグ名を記入するためのテキストボックスTB2、及びOKキーK20が表示されている。 After that, the control unit 31 causes the display unit 21 to display the training mode setting screen G2 as shown in FIG. 5 (S105). On the training mode setting screen G2 shown in FIG. 5, the image D1 of the document read by the image reading unit 11, the respective keys K21, K22, K23, K24 associated with each tag name already set, are displayed. K25 ..., a text box TB2 for entering a tag name indicating a new document classification, and an OK key K20 are displayed.

管理者は、表示部21に表示されている原稿の画像D1を確認し、各キーK21、K22、…が示すいずれかのタグ名が、該原稿の分類を示すと判断した場合は、各キーK21、K22、…のうち、当該原稿の分類を示すタグ名を示すキーにタッチ操作し、また各キーK21、K22、…が示すいずれのタグ名も、該原稿の分類を示すタグ名ではないと判断した場合は、操作部22又はタッチパネル23を操作して、新たな原稿の分類を示すタグ名をテキストボックスTB2に入力して、OKキーK20にタッチ操作する。 When the administrator confirms the image D1 of the manuscript displayed on the display unit 21 and determines that any of the tag names indicated by the keys K21, K22, ... Indicates the classification of the manuscript, each key. Of K21, K22, ..., Touch the key indicating the tag name indicating the classification of the manuscript, and none of the tag names indicated by the keys K21, K22, ... Is the tag name indicating the classification of the manuscript. If it is determined, the operation unit 22 or the touch panel 23 is operated, a tag name indicating a new classification of the original document is input to the text box TB2, and the OK key K20 is touch-operated.

制御部31は、タッチパネル23を通じて各キーK21、K22、…のいずれかのタッチ操作を検出すると(S106「キー」)、該指示されたキーに対応付けられているタグ名を取得する(S107)。また、制御部31は、タッチパネル23を通じてOKキーK20のタッチ操作を検出すると(S106「タグ名」)、テキストボックスTB2に入力されたタグ名を取得する(S108)。 When the control unit 31 detects a touch operation of any of the keys K21, K22, ... Through the touch panel 23 (S106 "key"), the control unit 31 acquires the tag name associated with the instructed key (S107). .. Further, when the control unit 31 detects the touch operation of the OK key K20 through the touch panel 23 (S106 “tag name”), the control unit 31 acquires the tag name input to the text box TB2 (S108).

そして、制御部31は、画像メモリー26内の原稿の画像D1を示す画像データを解析して、原稿の画像D1の特徴を抽出する(S109)。 Then, the control unit 31 analyzes the image data indicating the image D1 of the original in the image memory 26 and extracts the characteristics of the image D1 of the original (S109).

更に、制御部31は、S109で抽出した当該原稿の画像D1の特徴を示すデータを、S107又はS108で取得したタグ名が示す、当該原稿の分類を判別するための例えばディープラーニング用の学習データとして収集する(S110)。制御部31は、このディープラーニングの学習データを記憶部28に記憶させる(S110)。 Further, the control unit 31 uses the data indicating the characteristics of the image D1 of the manuscript extracted in S109 as the learning data for, for example, deep learning for discriminating the classification of the manuscript indicated by the tag name acquired in S107 or S108. Collect as (S110). The control unit 31 stores the deep learning learning data in the storage unit 28 (S110).

上記では、制御部31による画像データの解析及び画像の特徴抽出の対象とされるのは、画像読取部11により読み取られた原稿画像とされているが、これに代えて、ネットワークインターフェイス部91により上記端末装置又はサーバー等から取得された画像を、画像データの解析及び画像の特徴抽出の対象としてもよい。 In the above, the target of image data analysis and image feature extraction by the control unit 31 is the original image read by the image reading unit 11, but instead of this, the network interface unit 91 uses the network interface unit 91. An image acquired from the terminal device, a server, or the like may be used as a target for image data analysis and image feature extraction.

例えば、原稿の分類を示すタグ名は、契約書、領収書、証明書、招待状、又はポスターなどである。また、制御部31は、画像処理部27により、原稿の画像の特徴として、画像の色相、コントラスト、色数、又は濃度などの要素を抽出する。学習データは、制御部31が行う上記ディープラーニングによる学習に用いられる。 For example, the tag name indicating the classification of the manuscript may be a contract, a receipt, a certificate, an invitation, or a poster. Further, the control unit 31 extracts elements such as hue, contrast, number of colors, or density of the image as features of the image of the original by the image processing unit 27. The learning data is used for learning by the deep learning performed by the control unit 31.

例えば、管理者が、招待状を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、トレーニングモードの設定を入力し、「招待状」をタグ名として入力すると共に、スキャンの実行を指示したものとする。制御部31は、タグ名として「招待状」を取得し、画像読取部11により招待状の画像を読取らせて、招待状の画像を示す画像データを画像メモリー26に記憶させ、画像処理部27により画像データに対して各種の処理を施させる。そして、制御部31は、招待状の画像の特徴を抽出し、該招待状の画像の特徴を示すデータを、当該原稿の分類を判別するための学習データとして収集する。 For example, the administrator sets the invitation card in the image reading unit 11, operates the operation unit 22 or the touch panel 23, inputs the training mode setting, inputs the "invitation card" as the tag name, and scans. It is assumed that the execution is instructed. The control unit 31 acquires an "invitation card" as a tag name, causes the image reading unit 11 to read the image of the invitation card, stores the image data indicating the image of the invitation card in the image memory 26, and stores the image data indicating the image of the invitation card in the image processing unit. In 27, various processes are applied to the image data. Then, the control unit 31 extracts the features of the image of the invitation and collects the data showing the features of the image of the invitation as learning data for discriminating the classification of the manuscript.

図7は、原稿の画像の特徴である画像の色相、コントラスト、色数、濃度と、タグ名である招待状、領収書との対応関係を例示する図表Aである。トレーニングモードでは、図7の図表Aに示すように、管理者により入力された各タグ名に対応する画像の特徴として、画像の色相、コントラスト、色数、濃度の組み合わせが用いられる例を示している。この例では、タグ名として、招待状及び領収書が用いられる場合を示している。 FIG. 7 is Chart A illustrating the correspondence between the hue, contrast, number of colors, and densities of the image, which are the characteristics of the image of the manuscript, and the invitation letter and the receipt, which are the tag names. In the training mode, as shown in Chart A of FIG. 7, an example is shown in which a combination of hue, contrast, number of colors, and density of an image is used as a feature of an image corresponding to each tag name input by the administrator. There is. In this example, an invitation and a receipt are used as the tag name.

トレーニングモードが設定された状態で、管理者は、原稿を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、原稿の分類を示すタグ名を入力すると共に、スキャンの実行を指示する。制御部31は、画像読取部11により読取られた原稿の画像の特徴を抽出し、当該原稿の画像の特徴を示すデータを、該原稿の分類を判別するための学習データとして収集する。 With the training mode set, the administrator sets the document in the image reading unit 11, operates the operation unit 22 or the touch panel 23, inputs a tag name indicating the classification of the document, and executes scanning. Instruct. The control unit 31 extracts the characteristics of the image of the original document read by the image reading unit 11, and collects the data indicating the characteristics of the image of the original document as learning data for discriminating the classification of the original document.

本実施形態では、原稿の分類を判別するための処理に、ディープラーニングが用いられる。図6は、制御部31が行うディープラーニングの概念を示す図である。この図6に示すディープラーニングでは、入力層ILから画像の特徴を入力し、中間層(複数のノードML)を経由して出力層OLからタグ名を出力する。各ノードMLをどのように接続するか、あるいは各ノードMLが「どのような入力に対して、どのような出力を行うか」などを調整していくことで、つまり学習データを学習して生成するかあるいは更新することで、入力された画像の特徴に基づき取得されるタグ名を決定して出力するものとなっている。 In the present embodiment, deep learning is used for the process for determining the classification of the manuscript. FIG. 6 is a diagram showing the concept of deep learning performed by the control unit 31. In the deep learning shown in FIG. 6, the feature of the image is input from the input layer IL, and the tag name is output from the output layer OL via the intermediate layer (plurality of nodes ML). By adjusting how each node ML is connected, or "what kind of input and what kind of output is performed" by each node ML, that is, learning data is learned and generated. By doing or updating, the tag name to be acquired is determined and output based on the characteristics of the input image.

このディープラーニングにおいて、トレーニングモードでは、管理者により入力されたタグ名に対応する画像の特徴として入力層ILから入力した画像の特徴を示す各要素を、ノードMLとして記憶する。当該ノードMLの集合が学習データの一例である。 In this deep learning, in the training mode, each element indicating the characteristics of the image input from the input layer IL as the characteristics of the image corresponding to the tag name input by the administrator is stored as a node ML. The set of the node ML is an example of learning data.

また、分類モードでは、出力層OLでは、入力層ILから入力した画像の特徴に対応するタグ名を暫定的に決定して出力する。この暫定的なタグ名が、管理者により正式なタグ名を示しているとして承認された場合は、各ノードMLを、当該承認されたタグ名と対応付けて記憶する。また、この暫定的なタグ名が、管理者により変更された場合には、各ノードMLが更新され、暫定的に決定されるタグ名が、管理者により変更されたタグ名に一致するまでその更新が行われる(すなわち、学習データが更新される)。各ノードMLの階層が深くなり、各ノードMLが多くなる程、複雑な分類や判断ができるようになり、入力された画像の特徴に対応するタグ名を正確に判定可能となる。従って、ディープラーニングの学習データは、トレーニングモード及び分類モードで処理された原稿の画像が多くなり、これにより各ノードMLの階層が深くなって、各ノードMLが多くなることでより有効なものとなる。好ましくは、正確なタグ名の取得率(暫定的に決定されたタグ名が、管理者により正式なタグ名を示しているとして承認される率)が例えば95%以上となるように、トレーニングモードで処理された原稿の画像を増やすようにする。 Further, in the classification mode, in the output layer OL, the tag name corresponding to the feature of the image input from the input layer IL is tentatively determined and output. If this provisional tag name is approved by the administrator as indicating a formal tag name, each node ML is stored in association with the approved tag name. If this tentative tag name is changed by the administrator, each node ML is updated, and the tentatively determined tag name matches the tag name changed by the administrator. Updates are made (ie, the training data is updated). The deeper the hierarchy of each node ML and the larger the number of each node ML, the more complicated classification and judgment can be performed, and the tag name corresponding to the feature of the input image can be accurately determined. Therefore, the learning data of deep learning becomes more effective by increasing the number of images of the manuscript processed in the training mode and the classification mode, thereby deepening the hierarchy of each node ML and increasing the number of each node ML. Become. Preferably, the training mode is such that the acquisition rate of the correct tag name (the rate at which the tentatively determined tag name is approved by the administrator as indicating the official tag name) is, for example, 95% or more. Increase the number of images of the original processed in.

なお、制御部31は、原稿の分類を判別するための処理に、ディープラーニングを用いずに、タグ名に対応付けて収集した原稿の画像の特徴を用い、タグ名と、収集した原稿の画像の特徴との対応関係に基づいて、原稿の分類を判別するものとしてもよい。 In addition, the control unit 31 uses the characteristics of the image of the collected manuscript in association with the tag name without using deep learning in the process for determining the classification of the manuscript, and the tag name and the image of the collected manuscript. The classification of the manuscript may be determined based on the correspondence with the characteristics of.

次に、上記分類モードでの処理手順を、図8に示すフローチャートなどを参照して詳細に説明する。 Next, the processing procedure in the classification mode will be described in detail with reference to the flowchart shown in FIG.

ユーザーは、操作部22又はタッチパネル23を操作して、ドキュメント分類機能の実行を指示する。制御部31は、ドキュメント分類機能の実行の指示に応じて図4に示す分類機能入力画面G1を表示部21に表示させる(S201)。 The user operates the operation unit 22 or the touch panel 23 to instruct the execution of the document classification function. The control unit 31 causes the display unit 21 to display the classification function input screen G1 shown in FIG. 4 in response to an instruction to execute the document classification function (S201).

ユーザーは、操作部22又はタッチパネル23を操作して、自己の識別情報IDをテキストボックスTB1に記入して、分類モードのキーK12を操作する。制御部31は、この操作に基づいて分類モードの設定指示が操作部22又はタッチパネル23に入力されたとき(S202でYES)、分類モードを設定する(S203)。なお、この設定指示の入力がないときは(S202でNO)、処理は終了する。 The user operates the operation unit 22 or the touch panel 23, enters his / her identification information ID in the text box TB1, and operates the key K12 in the classification mode. The control unit 31 sets the classification mode when the classification mode setting instruction is input to the operation unit 22 or the touch panel 23 based on this operation (YES in S202) (S203). If this setting instruction is not input (NO in S202), the process ends.

このように分類モードが設定された状態で、ユーザーが、原稿を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、スキャンの実行を指示すると、制御部31は、画像読取部11により原稿の画像を読取らせ、原稿の画像を示す画像データを画像メモリー26に記憶させ、画像処理部27により画像データに対して各種の処理を施させる(S204)。この分類モードでの画像処理部27による各種の処理も、トレーニングモードと同様に、原稿の画像の特徴を正確に抽出させるために行われる画像の濃度、コントラスト、エッジ、コーナーを強調する処理等である。 With the classification mode set in this way, when the user sets the document in the image reading unit 11 and operates the operation unit 22 or the touch panel 23 to instruct the execution of scanning, the control unit 31 reads the image. The image of the original is read by the unit 11, the image data indicating the image of the original is stored in the image memory 26, and the image processing unit 27 performs various processing on the image data (S204). Similar to the training mode, the various processes by the image processing unit 27 in this classification mode are also the processes for emphasizing the density, contrast, edges, and corners of the image, which are performed to accurately extract the features of the image of the original. be.

また、制御部31は、図9に示すような分類モード設定画面G3を表示部21に表示させる(S205)。この図9に示す分類モード設定画面G3には、画像読取部11により読取られた原稿の画像D2を示す画像データ、及び開始キーK31が表示されている。 Further, the control unit 31 causes the display unit 21 to display the classification mode setting screen G3 as shown in FIG. 9 (S205). The classification mode setting screen G3 shown in FIG. 9 displays image data showing an image D2 of a document read by the image reading unit 11 and a start key K31.

例えば、ユーザーが、表示部21に表示されている開始キーK31にタッチ操作すると、制御部31は、タッチパネル23を通じて開始キーK31のタッチ操作に基づいて分類処理の実行指示を受け付け、この指示に従って、画像処理部27により画像メモリー26内の原稿の画像D2を示す画像データを解析して、原稿の画像D2の特徴を抽出すると共に、原稿の画像D2の特徴、及び記憶部28に記憶されている上記ディープラーニングで得た学習データに基づいて、原稿の画像D2の分類(つまり、タグ名)を判別する(S206)。そして、制御部31は、図10に示すようなポップアップ画面P1を分類モード設定画面G3内に表示させる。この図10に示すポップアップ画面P1には、S206で判別された原稿の画像D2のタグ名と共に、OKキーK32、及びNGキーK33が表示される。 For example, when the user touches the start key K31 displayed on the display unit 21, the control unit 31 receives an instruction to execute the classification process based on the touch operation of the start key K31 through the touch panel 23, and follows this instruction. The image processing unit 27 analyzes the image data indicating the image D2 of the original in the image memory 26, extracts the characteristics of the image D2 of the original, and stores the characteristics of the image D2 of the original and the storage unit 28. Based on the learning data obtained by the deep learning, the classification (that is, the tag name) of the image D2 of the manuscript is determined (S206). Then, the control unit 31 displays the pop-up screen P1 as shown in FIG. 10 in the classification mode setting screen G3. On the pop-up screen P1 shown in FIG. 10, the OK key K32 and the NG key K33 are displayed together with the tag name of the image D2 of the original document determined in S206.

ユーザーは、ポップアップ画面P1の原稿の画像D2のタグ名が正しいと判断すると、OKキーK32にタッチ操作する。制御部31は、タッチパネル23を通じてOKキーK32のタッチ操作を検出すると(S207「OK」)、S206で判別したタグ名を示す情報を原稿の画像D2を示す画像データに付加する(S208)。すなわち、制御部31は、原稿の画像D2を分類する。そして、制御部31はS206で抽出した当該原稿の画像D2の特徴を用いて、当該原稿の分類を示すタグ名を判別するためのディープラーニングの学習データを更新し、この学習データを記憶部28に記憶させる(S209)。 When the user determines that the tag name of the image D2 of the document on the pop-up screen P1 is correct, the user touches the OK key K32. When the control unit 31 detects the touch operation of the OK key K32 through the touch panel 23 (S207 “OK”), the control unit 31 adds information indicating the tag name determined in S206 to the image data indicating the image D2 of the document (S208). That is, the control unit 31 classifies the image D2 of the original. Then, the control unit 31 updates the deep learning learning data for determining the tag name indicating the classification of the manuscript by using the feature of the image D2 of the manuscript extracted in S206, and stores this learning data in the storage unit 28. To memorize (S209).

また、ユーザーは、ポップアップ画面P1の原稿の画像D2のタグ名が誤っていると判断すると、NGキーK33にタッチ操作する。制御部31は、タッチパネル23を通じてNGキーK33のタッチ操作を検出すると(S207「NG」)、図11に示すようなポップアップ画面P2を分類モード設定画面G3内に表示させる。この図11に示すポップアップ画面P2には、新たな原稿の分類を示すタグ名を入力するためのテキストボックスTB3、既に設定されている各タグ名に対応付けられたそれぞれのキーK21、K22、K23、K24、K25…、及びOKキーK41が表示されている。 Further, when the user determines that the tag name of the image D2 of the document on the pop-up screen P1 is incorrect, the user touches the NG key K33. When the control unit 31 detects the touch operation of the NG key K33 through the touch panel 23 (S207 “NG”), the pop-up screen P2 as shown in FIG. 11 is displayed in the classification mode setting screen G3. In the pop-up screen P2 shown in FIG. 11, a text box TB3 for inputting a tag name indicating a new document classification, and keys K21, K22, and K23 associated with each already set tag name are displayed. , K24, K25 ..., And OK key K41 are displayed.

ユーザーは、表示部21に表示されている原稿の画像D2を確認し、各キーK21、K22、…のいずれかが該原稿の分類を示すタグ名に対応付けられていれば、該当するキーを指示し、また各キーK21、K22、…のいずれも該原稿の分類を示すタグ名に対応付けられていなければ、操作部22又はタッチパネル23を操作して、新たな原稿の分類を示すタグ名をテキストボックスTB3に記入し、OKキーK41にタッチ操作する。制御部31は、タッチパネル23を通じて各キーK21、K22、…のいずれかのタッチ操作を検出すると、該指示されたキーに対応付けられている原稿の分類を示すタグ名を、当該原稿の画像データに付加すべき正式なタグ名として取得する(S208)。一方、制御部31は、OKキーK41のタッチ操作を検出した場合は、テキストボックスTB3に記入された新たな原稿の分類を示すタグ名を、当該原稿の画像に付加すべき正式なタグ名として取得する(S210)。制御部31は、S210で取得したタグ名を示す情報を原稿の画像D2を示す画像データに付加する。 The user confirms the image D2 of the manuscript displayed on the display unit 21, and if any of the keys K21, K22, ... Is associated with the tag name indicating the classification of the manuscript, the corresponding key is used. If none of the keys K21, K22, ... Is associated with the tag name indicating the classification of the original, the operation unit 22 or the touch panel 23 is operated to indicate the new classification of the original. Is entered in the text box TB3, and the OK key K41 is touch-operated. When the control unit 31 detects a touch operation of any of the keys K21, K22, ... Through the touch panel 23, the control unit 31 assigns a tag name indicating the classification of the document associated with the instructed key to the image data of the document. It is acquired as a formal tag name to be added to (S208). On the other hand, when the control unit 31 detects the touch operation of the OK key K41, the control unit 31 adds a tag name indicating the classification of the new manuscript entered in the text box TB3 as a formal tag name to be added to the image of the manuscript. Acquire (S210). The control unit 31 adds the information indicating the tag name acquired in S210 to the image data indicating the image D2 of the original.

そして、制御部31は、ここで用いた原稿の画像D2の特徴を、S210またはS208で取得したタグ名を判別するための学習データとして収集し、この原稿の画像D2の特徴を用いて、上述したようにしてディープラーニングにより学習データを更新し、更新した学習データを記憶部28に記憶させる(S209)。 Then, the control unit 31 collects the characteristics of the image D2 of the manuscript used here as learning data for discriminating the tag name acquired in S210 or S208, and uses the characteristics of the image D2 of this manuscript to describe the above. The learning data is updated by deep learning in this manner, and the updated learning data is stored in the storage unit 28 (S209).

上記では、制御部31による画像データの解析及び画像の特徴抽出の対象とされるのは、画像読取部11により読み取られた原稿画像とされているが、これに代えて、ネットワークインターフェイス部91により上記端末装置又はサーバー等から取得された画像を、画像データの解析及び画像の特徴抽出の対象としてもよい。 In the above, the target of image data analysis and image feature extraction by the control unit 31 is the original image read by the image reading unit 11, but instead of this, the network interface unit 91 uses the network interface unit 91. An image acquired from the terminal device, a server, or the like may be used as a target for image data analysis and image feature extraction.

従って、ユーザーは、分類モードを設定し、画像読取部11により原稿の画像を読取らせるだけで、該原稿の画像の分類を自動的に行わせることができ、該原稿の画像が正しく分類されなければ、新たな原稿の分類を示す正しいタグ名を入力して、新たな原稿の画像の特徴に基づきその入力した正しいタグ名が導出されるようにディープラーニングの学習データを更新させることができる。 Therefore, the user can automatically classify the image of the original by simply setting the classification mode and having the image reading unit 11 read the image of the original, and the image of the original is correctly classified. If not, you can enter the correct tag name to indicate the classification of the new manuscript and update the deep learning training data so that the correct tag name you entered is derived based on the characteristics of the image of the new manuscript. ..

図12乃至図14は、原稿の画像データに対するタグ名を示す情報の付加の例を示している。 12 to 14 show an example of adding information indicating a tag name to the image data of the manuscript.

図12は、表示部21に表示された原稿の画像のプロパティPR1を示している。制御部31は、原稿の画像データに、当該原稿の画像に対するタグ名を示す情報を付加して当該原稿の画像データとともに記憶しておき、当該タグ名を、当該原稿の画像について表示するプロパティ画像としてのプロパティPR1において、その表示項目の一つとして項目Q1(ドキュメントの分類)に表示させる。 FIG. 12 shows the property PR1 of the image of the original displayed on the display unit 21. The control unit 31 adds information indicating a tag name for the image of the manuscript to the image data of the manuscript and stores it together with the image data of the manuscript, and displays the tag name for the image of the manuscript. In the property PR1 as, it is displayed in the item Q1 (document classification) as one of the display items.

図13は、表示部21に表示された原稿の画像のプロパティPR2を示している。制御部31は、原稿の画像データに、当該原稿の画像に対するタグ名を示す情報を付加して当該原稿の画像データとともに記憶しておき、当該タグ名を、当該原稿の画像について表示するプロパティ画像としてのプロパティPR2において、その表示項目の一つとして項目Q2(タグ)に表示させる。 FIG. 13 shows the property PR2 of the image of the original displayed on the display unit 21. The control unit 31 adds information indicating a tag name for the image of the manuscript to the image data of the manuscript and stores it together with the image data of the manuscript, and displays the tag name for the image of the manuscript. In the property PR2 as, it is displayed in the item Q2 (tag) as one of the display items.

図14は、制御部31により表示部21に表示されるファイルの一覧FRを示している。制御部31は、原稿の画像データに、当該原稿の画像に対するタグ名を示す情報を付加して当該原稿の画像データとともに記憶しておき、当該タグ名を、ファイルの一覧を示す画像である一覧画像FRにおけるタグ名の項目Q3に表示させる。 FIG. 14 shows a list FR of files displayed on the display unit 21 by the control unit 31. The control unit 31 adds information indicating a tag name for the image of the manuscript to the image data of the manuscript and stores it together with the image data of the manuscript, and stores the tag name as an image showing a list of files. It is displayed in the item Q3 of the tag name in the image FR.

このようなプロパティやファイルの一覧に対するタグ名の表示により、実行された原稿の画像の分類が容易に確認可能となる。 By displaying the tag name for such a property or a list of files, it is possible to easily confirm the classification of the image of the executed manuscript.

図8に戻って、制御部31は、S209の処理のあと、S204にて画像読取部11により読み取った原稿の画像D2を示す画像データを、予め定められた記憶先のフォルダに保存管理するための原稿画像管理処理(S300)を行う。原稿画像管理処理(S300)について、図15を用いて説明する。図15は、第1実施形態の原稿画像管理処理の一例を示すフローチャートである。 Returning to FIG. 8, the control unit 31 saves and manages the image data indicating the image D2 of the original document read by the image reading unit 11 in S204 in a predetermined storage destination folder after the processing of S209. Manuscript image management process (S300) is performed. The manuscript image management process (S300) will be described with reference to FIG. FIG. 15 is a flowchart showing an example of the manuscript image management process of the first embodiment.

本実施形態では、画像処理装置10の記憶部28は、予め定められた記憶先のフォルダとして、例えば共有フォルダを有している。制御部31は、記憶部28の共有フォルダ内において、S206にて判別したタグ名(つまり、分類)又はS210にて訂正されたタグ名(つまり、分類)と一致する名称の宛先フォルダの有無を確認し、当該一致する名称の宛先フォルダがない場合、当該一致する名称の宛先フォルダを作成させて、当該宛先フォルダに当該原稿の画像D2を示す画像データを記憶させる。 In the present embodiment, the storage unit 28 of the image processing device 10 has, for example, a shared folder as a predetermined storage destination folder. The control unit 31 determines whether or not there is a destination folder having a name matching the tag name (that is, classification) determined in S206 or the tag name corrected in S210 (that is, classification) in the shared folder of the storage unit 28. If there is no destination folder with the matching name, the destination folder with the matching name is created, and the image data indicating the image D2 of the manuscript is stored in the destination folder.

制御部31は、図16に示す分類別管理の設定画面G4を表示部21に表示させる(S301)。図16は、表示部に表示された分類別管理の設定画面の一例を示す図である。分類別管理の設定画面G4には、画像読取部11により読取られた原稿の画像D2、既に設定されているタグ名(分類)が「招待状」であることを示す表示DP1、分類別管理を行うことを示す「オン」に対応付けられたキーK51、分類別管理を行わないことを示す「オフ」に対応付けられたキーK52、予め定められた感度値Senを入力するための入力ボックスNB1、及びOKキーK54が表示されている。 The control unit 31 causes the display unit 21 to display the classification management setting screen G4 shown in FIG. 16 (S301). FIG. 16 is a diagram showing an example of a setting screen for management by classification displayed on the display unit. On the classification management setting screen G4, the image D2 of the original read by the image reading unit 11, the display DP1 indicating that the tag name (classification) already set is "invitation", and the classification management are displayed. Key K51 associated with "on" indicating to perform, key K52 associated with "off" indicating not to perform classification management, and input box NB1 for inputting a predetermined sensitivity value Sen. , And the OK key K54 are displayed.

制御部31は、分類別管理の設定指示(例えば、分類別管理のオン又はオフ、及び感度値Sen)が入力されたか否かを判定する(S302)。制御部31は、ユーザーによる操作部22又はタッチパネル23への操作により、分類別管理の有無、感度値Senの入力を受け付け、OKキーK54の操作があった場合(S302でYES)、感度値Senを設定する(S303)。 The control unit 31 determines whether or not a setting instruction for classification management (for example, on or off of classification management and sensitivity value Sen) has been input (S302). The control unit 31 accepts the presence / absence of classification management and the input of the sensitivity value Sen by the user's operation on the operation unit 22 or the touch panel 23, and when the OK key K54 is operated (YES in S302), the sensitivity value Sen. Is set (S303).

ここでは、ユーザーは、キーK51をタッチ操作し、分類別管理を行うことを示す「オン」に設定し、入力ボックスNB1をタッチ操作して操作部22にて例えば「70」の数値を入力され、OKキーK54が操作された場合(S302でYES)、制御部31は、感度値Senを「70%(=+0.7)」に設定する(S303)。 Here, the user touch-operates the key K51 to set it to "on" indicating that the management by classification is performed, and touch-operates the input box NB1 to input a numerical value of, for example, "70" in the operation unit 22. When the OK key K54 is operated (YES in S302), the control unit 31 sets the sensitivity value Sen to "70% (= +0.7)" (S303).

なお、制御部31は、S303において、入力ボックスNB1への数値入力について、感度値Senとして予め定められた範囲(「51」以上~「100」以下、「70」以上~「100」以下など)内の数値のみを受け付けるとしてもよい。この場合には、適切な感度値Senが設定され、後述する原稿の画像の類似度を好適に判別することが可能になる。また、制御部31は、管理者がログインしているときに感度値Senが設定可能であり、図16に示す分類別管理の設定画面G4では、ユーザーに対して感度値Senが「70%」であることを表示するとしてもよい。 In S303, the control unit 31 has a predetermined range (“51” or more to “100” or less, “70” or more to “100” or less, etc.) as the sensitivity value Sen for the numerical input to the input box NB1. Only the numerical values in the above may be accepted. In this case, an appropriate sensitivity value Sen is set, and it becomes possible to suitably determine the similarity between the images of the original document described later. Further, the control unit 31 can set the sensitivity value Sen when the administrator is logged in, and on the classification management setting screen G4 shown in FIG. 16, the sensitivity value Sen is "70%" for the user. It may be displayed that it is.

制御部31は、タグ名の分類を設定する(S304)。タグ名(分類)である「招待状」を分類として設定する。 The control unit 31 sets the classification of the tag name (S304). Set the tag name (classification) "invitation" as the classification.

制御部31は、宛先フォルダを確認する(S305)。例えば、制御部31は、記憶部28に、予め定められた記憶先のフォルダとして共有フォルダを有するか否かを確認する。なお、制御部31は、共有フォルダが無ければ、共有フォルダを生成する。そして、制御部31は、共有フォルダ内に宛先フォルダを有するか否かを確認する。 The control unit 31 confirms the destination folder (S305). For example, the control unit 31 confirms whether or not the storage unit 28 has a shared folder as a predetermined storage destination folder. If there is no shared folder, the control unit 31 creates a shared folder. Then, the control unit 31 confirms whether or not the destination folder is included in the shared folder.

制御部31は、共有フォルダ内に、タグ名(分類)である「招待状」の名称のフォルダの有無を判定し(S306)、「招待状」の名称のフォルダがあれば(S306でYES)、「招待状」の名称のフォルダ内に原稿の画像データがあるか否かを判定する(S307)。制御部31は、「招待状」の名称のフォルダ内に原稿の画像データがあれば(S307でYES)、ピクセルマッチングを実行する(S308)。 The control unit 31 determines whether or not there is a folder named "invitation" which is a tag name (classification) in the shared folder (S306), and if there is a folder named "invitation" (YES in S306). , It is determined whether or not the image data of the manuscript is in the folder named "invitation" (S307). If the image data of the manuscript is in the folder named "invitation" (YES in S307), the control unit 31 executes pixel matching (S308).

図17は、ピクセルマッチングを説明するための図である。制御部31は、既知のピクセルマッチングを用いて、共有フォルダの宛先フォルダ内に、画像読取部11により読取られた原稿の画像(スキャンされた原稿の画像)と類似した原稿の画像が保存されているか否かを判定する。ピクセルマッチングは、入力画像(ここではスキャンされた原稿の画像)と、出力画像(ここではフォルダ内に記憶済みの原稿の画像)との類似度を、ピクセル単位で判定する既知のマッチング技術である。ピクセルマッチングでは、入力画像を出力画像のすべての可能な位置に移動し、入力画像がその位置で出力画像に対してどの程度一致しているかを示す数値インデックスを計算する。マッチングはピクセル単位で行う。ピクセルマッチングでは、各ピクセルのグレイ値を取得する。これは、各ピクセルの R,G,Bの平均値によって計算される。例えば、あるピクセルのR,G,Bが、R=229、G=255、B=204の場合、このピクセルのグレイ値は、(229+255+204)/3≒230となる。 FIG. 17 is a diagram for explaining pixel matching. Using known pixel matching, the control unit 31 stores an image of a document similar to the image of the document read by the image reader 11 (the image of the scanned document) in the destination folder of the shared folder. Determine if it is. Pixel matching is a known matching technique that determines the degree of similarity between an input image (here, an image of a scanned document) and an output image (here, an image of a document stored in a folder) on a pixel-by-pixel basis. .. Pixel matching moves the input image to all possible positions in the output image and calculates a numerical index that indicates how well the input image matches the output image at that position. Matching is done on a pixel-by-pixel basis. Pixel matching gets the gray value of each pixel. This is calculated by the average value of R, G, B of each pixel. For example, when R, G, B of a certain pixel is R = 229, G = 255, B = 204, the gray value of this pixel is (229 + 255 + 204) / 3≈230.

具体的には、制御部31は、図18に示す式(1)を用いて、入力画像(ここではスキャンされた原稿の画像)と、出力画像(ここではフォルダ内に記憶済みの原稿の画像)との相関関係を示す相関値Colを、「-1」から「+1」までの何れかの値として算出する。また、予め定められた感度値Senは、「+1」以下の正の相関を持つ値であって、「0」よりも「+1」に近い値である。本実施形態では、感度値Senは、「+0.7(=70%)」の値としている。 Specifically, the control unit 31 uses the equation (1) shown in FIG. 18 to input an input image (here, an image of a scanned document) and an output image (here, an image of a document stored in a folder). ), The correlation value Col indicating the correlation with) is calculated as any value from “-1” to “+1”. Further, the predetermined sensitivity value Sen is a value having a positive correlation of "+1" or less, and is a value closer to "+1" than "0". In the present embodiment, the sensitivity value Sen is set to a value of "+0.7 (= 70%)".

図18は、ピクセルマッチングを用いて相関値を算出するための式と相関値の算出例とを示す図である。図18に示すように、制御部31が、式(1)を用いて、4画素のソース画像(スキャンされた原稿の画像)と4画素の宛先画像(フォルダ内に記憶済みの原稿の画像)との相関値を求める場合について、説明する。4画素のソース画像のグレイ値はそれぞれ、100、120、70、及び30であり、4画素の宛先画像のグレイ値はそれぞれ、100、125、60、及び30であるとする。そして、制御部31が、式(1)を用いて、相関値Colが「0.991」であると算出する。つまり、制御部31は、4画素のソース画像(スキャンされた原稿の画像)と4画素の宛先画像(フォルダ内に記憶済みの原稿の画像)との類似度が99.1%(=+0.991)であると算出する。そして、図16に示したように、感度値Senが70%(=+0.7)に設定されており、制御部31は、相関値Col(=99.1%)>感度値Sen(=70%)であると判定し、4画素のソース画像(スキャンされた原稿の画像)と4画素の宛先画像(フォルダ内に記憶済みの原稿の画像)とが類似すると判定する。相関値Colが100%であれば、同一と判定する。なお、制御部31は、相関値Col<感度値Senであると判定した場合、4画素のソース画像(スキャンされた原稿の画像)と4画素の宛先画像(フォルダ内に記憶済みの原稿の画像)とが非類似であると判定する。 FIG. 18 is a diagram showing an equation for calculating a correlation value using pixel matching and an example of calculating the correlation value. As shown in FIG. 18, the control unit 31 uses the equation (1) to obtain a 4-pixel source image (scanned original image) and a 4-pixel destination image (image of the original stored in the folder). The case of obtaining the correlation value with and will be described. It is assumed that the gray values of the four-pixel source image are 100, 120, 70, and 30, respectively, and the gray values of the four-pixel destination image are 100, 125, 60, and 30, respectively. Then, the control unit 31 calculates that the correlation value Col is "0.991" by using the equation (1). That is, the control unit 31 has a similarity between the 4-pixel source image (scanned original image) and the 4-pixel destination image (image of the original stored in the folder) of 99.1% (= +0. It is calculated as 991). Then, as shown in FIG. 16, the sensitivity value Sen is set to 70% (= + 0.7), and the control unit 31 controls the correlation value Col (= 99.1%)> the sensitivity value Sen (= 70). %), And it is determined that the 4-pixel source image (scanned original image) and the 4-pixel destination image (image of the original stored in the folder) are similar. If the correlation value Col is 100%, it is determined to be the same. When the control unit 31 determines that the correlation value Col <sensitivity value Sen, the control unit 31 has a 4-pixel source image (scanned original image) and a 4-pixel destination image (image of the original stored in the folder). ) Is dissimilar.

制御部31は、相関値Col≧感度値Sen(=70%)であるか否かを判定する(S309)。制御部31は、相関値Col≧感度値Sen(=70%)であると判定すると(S309でYES)、画像読取部11により読取られた原稿の画像D2が、「招待状」の名称のフォルダ内の記憶済みの原稿と類似するため、上書き保存するか否かの指示を受け付ける(S310)。 The control unit 31 determines whether or not the correlation value Col ≧ sensitivity value Sen (= 70%) (S309). When the control unit 31 determines that the correlation value Col ≧ sensitivity value Sen (= 70%) (YES in S309), the image D2 of the manuscript read by the image reading unit 11 is a folder named “invitation”. Since it is similar to the stored original in the above, it accepts an instruction as to whether or not to overwrite and save (S310).

制御部31は、ユーザーによる操作部22又はタッチパネル23への上書き保存の操作があると(S310でYES)、画像読取部11により読取られた原稿の画像D2を示す画像データを、「招待状」の名称のフォルダ内の記憶済みの原稿の画像データに対して上書き保存し(S311)、ユーザーによる操作部22又はタッチパネル23への別保存の操作があると(S310でNO)、「招待状」の名称のフォルダ内の記憶済みの原稿の画像データを残したままで、画像読取部11により読取られた原稿の画像D2を示す画像データを保存する(S312)。 When the control unit 31 has an operation of overwriting and saving to the operation unit 22 or the touch panel 23 by the user (YES in S310), the control unit 31 uses the image data indicating the image D2 of the document read by the image reading unit 11 as an “invitation letter”. When the image data of the stored manuscript in the folder named is overwritten and saved (S311) and there is another operation of saving to the operation unit 22 or the touch panel 23 by the user (NO in S310), "invitation letter" The image data indicating the image D2 of the original document read by the image reading unit 11 is saved while leaving the image data of the stored original document in the folder named (S312).

なお、制御部31は、図15に示すS302において、ユーザーがキーK52をタッチ操作し、分類別管理を行わないことを示す「オフ」に設定し、OKキーK54が操作された場合(S302でNO)、画像読取部11により読取られた原稿の画像D2を示す画像データを、分類別で保存するのではなく、「招待状」の名称のフォルダ以外の予め定められたフォルダに通常の保存を行う(S314)。 In S302 shown in FIG. 15, the control unit 31 is set to "Off" indicating that the user touch-operates the key K52 and does not perform classification-specific management, and the OK key K54 is operated (in S302). NO), instead of saving the image data indicating the image D2 of the document read by the image reading unit 11 by classification, normal saving is performed in a predetermined folder other than the folder named "invitation". Do (S314).

また、制御部31は、図15に示すS306において、「招待状」の名称のフォルダがないと判定した場合(S306でNO)、共有フォルダ内に「招待状」の名称のフォルダを生成し(S313)、画像読取部11により読取られた原稿の画像D2を示す画像データを、生成された「招待状」の名称のフォルダに保存する(S312)。 Further, when the control unit 31 determines in S306 shown in FIG. 15 that there is no folder named "invitation" (NO in S306), the control unit 31 creates a folder named "invitation" in the shared folder (NO). S313), the image data showing the image D2 of the original document read by the image reading unit 11 is saved in the generated folder named "invitation" (S312).

制御部31は、S311の処理のあと、S312の処理のあと、又は、S314の処理のあと、本処理を終了させる。 The control unit 31 terminates this process after the process of S311, after the process of S312, or after the process of S314.

ここで、図19~図21の場合について、具体的に説明する。図19は、読み取った原稿の分類に一致する名称のフォルダが共有フォルダ内にない場合の原稿データを保存する一例を示す図である。 Here, the cases of FIGS. 19 to 21 will be specifically described. FIG. 19 is a diagram showing an example of saving manuscript data when there is no folder having a name matching the classification of the scanned manuscript in the shared folder.

制御部31は、画像読取部11により読取られた原稿の画像D3を示す画像データについて、図8に示すS206において当該原稿の分類(タグ名)が、図19に示すように、「招待状」であると判別したとする。そして、制御部31は、図8に示す原稿画像管理処理(S300)の内容を示す図15のS306において、図19に示すように、共有フォルダ内に判別された分類名(ここでは「招待状」)のフォルダがないと判定された場合(S306でNO)、共有フォルダ内に「招待状」の名称のフォルダを生成し(S313)、画像読取部11により読取られた原稿の画像D3を示す画像データを、生成された「招待状」の名称のフォルダに保存する(S312)。 Regarding the image data showing the image D3 of the original document read by the image reading unit 11, the control unit 31 indicates that the classification (tag name) of the original document in S206 shown in FIG. 8 is an “invitation letter” as shown in FIG. It is assumed that it is determined to be. Then, as shown in FIG. 19, the control unit 31 determines the classification name (here, “invitation letter”) in the shared folder in S306 of FIG. 15 showing the contents of the document image management process (S300) shown in FIG. If it is determined that there is no folder (NO in S306), a folder with the name of "invitation" is generated in the shared folder (S313), and the image D3 of the manuscript read by the image reading unit 11 is shown. The image data is saved in the generated folder named "invitation" (S312).

次に、図20の場合について説明する。図20は、読み取った原稿の分類に一致する名称のフォルダが共有フォルダ内にある場合の原稿データを保存する一例を示す図である。 Next, the case of FIG. 20 will be described. FIG. 20 is a diagram showing an example of saving manuscript data when a folder having a name matching the classification of the scanned manuscript is in the shared folder.

制御部31は、共有フォルダ内に、タグ名(分類)である「招待状」の名称のフォルダの有無を判定し(S306)、「招待状」の名称のフォルダがあれば(S306でYES)、「招待状」の名称のフォルダ内に原稿の画像データがあるか否かを判定する(S307)。図20では、制御部31は、「招待状」の名称のフォルダ内に原稿の画像D31を示す画像データがあると判定し(S307でYES)、画像読取部11により読取られた原稿の画像D3と、「招待状」の名称のフォルダ内の記憶済みの原稿の画像D31とについて、ピクセルマッチングを実行して相関値Colを算出し(S308)、相関値Col≧感度値Sen(=70%)であれば(S309でYES)、画像D3が画像D31に同一又は類似すると判定し、「招待状」の名称のフォルダ内で、画像D3の画像データを画像D31の画像データに対して上書き保存する(S311)。 The control unit 31 determines whether or not there is a folder named "invitation" which is a tag name (classification) in the shared folder (S306), and if there is a folder named "invitation" (YES in S306). , It is determined whether or not the image data of the manuscript is in the folder named "invitation" (S307). In FIG. 20, the control unit 31 determines that there is image data indicating the image D31 of the original in the folder named “invitation” (YES in S307), and the image D3 of the original read by the image reading unit 11. And the image D31 of the stored manuscript in the folder named "invitation", pixel matching is executed to calculate the correlation value Col (S308), and the correlation value Col ≧ sensitivity value Sen (= 70%). If (YES in S309), it is determined that the image D3 is the same as or similar to the image D31, and the image data of the image D3 is overwritten and saved over the image data of the image D31 in the folder named "invitation". (S311).

一方、制御部31は、相関値Col<感度値Sen(=70%)であれば(S309でNO)、画像D3が画像D31に非類似であると判定し、「招待状」の名称のフォルダ内で、画像D3の画像データを画像D31の画像データとは別に保存する(S312)。 On the other hand, if the correlation value Col <sensitivity value Sen (= 70%) (NO in S309), the control unit 31 determines that the image D3 is dissimilar to the image D31, and the folder named "invitation". The image data of the image D3 is stored separately from the image data of the image D31 (S312).

次に、図21の場合について説明する。図21は、今回読み取った原稿の分類に一致する名称のフォルダが共有フォルダ内になく、他の名称のフォルダがある場合の原稿データを保存する一例を示す図である。 Next, the case of FIG. 21 will be described. FIG. 21 is a diagram showing an example of saving manuscript data when there is no folder having a name matching the classification of the manuscript read this time in the shared folder and there is a folder having another name.

制御部31は、画像読取部11により読取られた原稿の画像D4を示す画像データについて、図8に示すS206において当該原稿の分類(タグ名)が、図21に示すように、「領収書」であると判別したとする。そして、制御部31は、図8に示す原稿画像管理処理(S300)の内容を示す図15のS306において、図21に示すように、共有フォルダ内に、タグ名(分類)である「領収書」の名称のフォルダの有無を判定する(S306)。ここでは、制御部31は、共有フォルダ内に、タグ名(分類)である「招待状」の名称のフォルダがあると判定し、タグ名(分類)である「領収書」の名称のフォルダがないと判定する(S306でNO)。そして、制御部31は、共有フォルダ内に「領収書」の名称のフォルダを生成し(S313)、画像読取部11により読取られた原稿の画像D4を示す画像データを、生成された「領収書」の名称のフォルダに保存する(S312)。なお、「領収書」の名称のフォルダ以外のフォルダについては画像データの変更を行う必要がないので、「招待状」の名称のフォルダ内の画像D31の画像データはそのまま保存されている。 The control unit 31 has a "receipt" for the image data indicating the image D4 of the original document read by the image reading unit 11 so that the classification (tag name) of the original document is as shown in FIG. 21 in S206 shown in FIG. It is assumed that it is determined to be. Then, in S306 of FIG. 15, which shows the contents of the manuscript image management process (S300) shown in FIG. 8, the control unit 31 has a tag name (classification) “receipt” in the shared folder as shown in FIG. It is determined whether or not there is a folder named "" (S306). Here, the control unit 31 determines that there is a folder named "invitation" which is a tag name (classification) in the shared folder, and a folder named "receipt" which is a tag name (classification) is created. No (NO in S306). Then, the control unit 31 creates a folder named "receipt" in the shared folder (S313), and generates image data indicating the image D4 of the original document read by the image reading unit 11 in the generated "receipt". It is saved in the folder named "(S312). Since it is not necessary to change the image data for the folders other than the folder named "receipt", the image data of the image D31 in the folder named "invitation" is saved as it is.

上記の第1実施形態によれば、制御部31は、操作部22又はタッチパネル23への操作によりトレーニングモードが設定された場合には、画像取得部(画像読取部11又はネットワークインターフェイス部91)により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴を示すデータを、当該原稿の分類を判別するための学習データとして収集する。また、制御部31は、操作部22又はタッチパネル23への操作により分類モードが設定された場合には、画像取得部(画像読取部11又はネットワークインターフェイス部91)により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴及び学習データに基づき当該原稿の分類を判別し、当該判別した分類を示す情報を当該原稿の画像データに付加し、予め定められた記憶先のフォルダ(共有フォルダ)内において当該判別した分類(タグ名)と一致する名称の宛先フォルダの有無を確認し、当該一致する名称の宛先フォルダがない場合、当該一致する名称の宛先フォルダを作成させて、当該宛先フォルダに当該原稿の画像データを記憶させる。これにより、原稿の画像全体の特徴に基づき当該原稿の画像の分類(タグ名)を特定することができ、特定された分類(タグ名)に対応する宛先フォルダに原稿の画像データを記憶させることができる。 According to the first embodiment described above, when the training mode is set by operating the operation unit 22 or the touch panel 23, the control unit 31 is subjected to an image acquisition unit (image reading unit 11 or network interface unit 91). The characteristics of the image of the manuscript from which the image data has been acquired are extracted, and the data indicating the characteristics of the image of the manuscript is collected as training data for determining the classification of the manuscript. Further, when the classification mode is set by operating the operation unit 22 or the touch panel 23, the control unit 31 is a document whose image data has been acquired by the image acquisition unit (image reading unit 11 or network interface unit 91). The characteristics of the image are extracted, the classification of the manuscript is discriminated based on the characteristics of the image of the manuscript and the learning data, and the information indicating the discriminated classification is added to the image data of the manuscript, and a predetermined storage destination is specified. Check if there is a destination folder with a name that matches the identified classification (tag name) in the folder (shared folder), and if there is no destination folder with the matching name, create a destination folder with the matching name. The image data of the manuscript is stored in the destination folder. As a result, the classification (tag name) of the image of the manuscript can be specified based on the characteristics of the entire image of the manuscript, and the image data of the manuscript is stored in the destination folder corresponding to the specified classification (tag name). Can be done.

また、制御部31は、予め定められた記憶先のフォルダ(共有フォルダ)内において一致する名称の宛先フォルダがある場合、当該宛先フォルダ内の記憶済みの画像データが示す画像と、原稿の画像データが示す画像との相関関係を示す相関値Colを算出し、(i)当該算出した相関値Colが予め定められた感度値Sen未満である場合に、当該原稿の画像データが記憶済みの画像データと非類似であると判定し、当該宛先フォルダに当該原稿の画像データを記憶させ、(ii)当該算出した相関値Colが予め定められた感度値Sen以上である場合に、当該原稿の画像データが記憶済みの画像データと同一又は類似すると判定し、当該原稿の画像データを上書き記憶させる。このため、宛先フォルダに保存する際に、原稿の画像データの内容と同一又は類似する画像データが宛先フォルダ内に既に存在するか否かを判定でき、同一又は類似であれば、当該原稿の画像データを上書き記憶することができ、非類似であれば、重複した画像データとはならないので、当該原稿の画像データを記憶する。これにより、特定された分類(タグ名)に対応する宛先フォルダに、読取られた文書の画像データと同一又は類似する原稿の画像データが重複して複数個保存されることを防止できる。 Further, when the control unit 31 has a destination folder having a matching name in a predetermined storage destination folder (shared folder), the control unit 31 has the image indicated by the stored image data in the destination folder and the image data of the manuscript. The correlation value Col indicating the correlation with the image shown by is calculated, and (i) the image data of the manuscript is stored image data when the calculated correlation value Col is less than the predetermined sensitivity value Sen. The image data of the manuscript is stored in the destination folder, and (ii) the image data of the manuscript is obtained when the calculated correlation value Col is equal to or higher than the predetermined sensitivity value Sen. Is determined to be the same as or similar to the stored image data, and the image data of the original is overwritten and stored. Therefore, when saving in the destination folder, it is possible to determine whether or not image data that is the same as or similar to the content of the image data of the manuscript already exists in the destination folder, and if it is the same or similar, the image of the manuscript. The data can be overwritten and stored, and if they are dissimilar, the image data will not be duplicated, so the image data of the original is stored. As a result, it is possible to prevent a plurality of image data of the original document that is the same as or similar to the image data of the read document from being duplicately stored in the destination folder corresponding to the specified classification (tag name).

また、制御部31は、(ii)算出した相関値Colが予め定められた感度値Sen以上である場合に、原稿の画像データが記憶済みの画像データと同一又は類似すると判定し、操作部22又はタッチパネル23への操作により上書き指示があった場合に当該原稿の画像データを上書き記憶させ、操作部22又はタッチパネル23への操作により別記憶の指示があった場合に当該原稿の画像データを記憶済みの画像データとは別に記憶させる。これにより、宛先フォルダ内に、読取られた文書の画像データと同一又は類似する記憶済みの画像データが既に記憶されている場合、ユーザーによる上書き指示又は別記憶の指示に従って、当該読取られた文書の画像データを上書き記憶又は別記憶とすることができる。すなわち、原稿の画像データを上書き保存するのか別個に保存するのかを選択することができる。このため、画像データの記憶についての選択の自由度を拡張できる。 Further, the control unit 31 determines that the image data of the manuscript is the same as or similar to the stored image data when the calculated correlation value Col is equal to or higher than the predetermined sensitivity value Sen, and the operation unit 22 determines. Alternatively, when an overwrite instruction is given by operating the touch panel 23, the image data of the manuscript is overwritten and stored, and when another storage instruction is given by operating the operation unit 22 or the touch panel 23, the image data of the manuscript is stored. Store it separately from the completed image data. As a result, if stored image data that is the same as or similar to the image data of the read document is already stored in the destination folder, the read document can be read according to an overwrite instruction or another storage instruction by the user. The image data can be overwritten or stored separately. That is, it is possible to select whether to save the image data of the original by overwriting or to save it separately. Therefore, the degree of freedom of choice regarding the storage of image data can be expanded.

また、制御部31は、宛先フォルダ内の記憶済みの画像データが示す保存画像と、原稿の画像データが示すソース画像とについてピクセルマッチングを行うことにより、保存画像とソース画像との相関関係を示す相関値Colを、「-1」から「+1」までの何れかの値として算出する。予め定められた感度値Senは、「+1」以下の正の相関を持つ値であって、「0」よりも「+1」に近い値である。本実施形態では、感度値Senは、「+0.7(=70%)」の値としている。相関値が「+1」であれば同一であると判定でき、相関値が予め定められた感度値以上(つまり、「0」よりも「+1」に近い値以上)であれば類似であると判定できる。これにより、保存画像とソース画像とが同一又は類似であるかを好適に判定することができる。 Further, the control unit 31 shows the correlation between the saved image and the source image by performing pixel matching between the saved image indicated by the stored image data in the destination folder and the source image indicated by the image data of the original. The correlation value Col is calculated as any value from "-1" to "+1". The predetermined sensitivity value Sen is a value having a positive correlation of "+1" or less, and is a value closer to "+1" than "0". In the present embodiment, the sensitivity value Sen is set to a value of "+0.7 (= 70%)". If the correlation value is "+1", it can be determined to be the same, and if the correlation value is equal to or greater than a predetermined sensitivity value (that is, a value closer to "+1" than "0"), it is determined to be similar. can. This makes it possible to preferably determine whether the stored image and the source image are the same or similar.

なお、図20では、「招待状」の名称のフォルダ内に、1つの画像データが保存されているとしているが、複数の画像データが保存されている場合について、図22を用いて説明する。 In addition, although it is assumed that one image data is stored in the folder named "invitation" in FIG. 20, a case where a plurality of image data are stored will be described with reference to FIG. 22.

図22は、読み取った原稿の分類に一致する名称のフォルダが共有フォルダ内にあり、当該名称のフォルダ内に複数の画像データが保存されている場合の原稿データを保存する一例を示す図である。 FIG. 22 is a diagram showing an example of saving manuscript data when a folder having a name matching the classification of the scanned manuscript is in the shared folder and a plurality of image data are saved in the folder having the name. ..

制御部31は、共有フォルダ内に、タグ名(分類)である「招待状」の名称のフォルダの有無を判定し(S306)、「招待状」の名称のフォルダがあれば(S306でYES)、「招待状」の名称のフォルダ内に原稿の画像データがあるか否かを判定する(S307)。図22では、制御部31は、「招待状」の名称のフォルダ内に複数(3つ)の原稿の各画像D32~D34の画像データがあると判定する(S307でYES)。 The control unit 31 determines whether or not there is a folder named "invitation" which is a tag name (classification) in the shared folder (S306), and if there is a folder named "invitation" (YES in S306). , It is determined whether or not the image data of the manuscript is in the folder named "invitation" (S307). In FIG. 22, the control unit 31 determines that there is image data of each image D32 to D34 of a plurality of (three) documents in the folder named “invitation” (YES in S307).

そして、制御部31は、画像読取部11により読取られた原稿の画像D3と、「招待状」の名称のフォルダ内の記憶済みの3つの原稿の各画像D32~D34とについて、ピクセルマッチングを実行して相関値Colをそれぞれ算出する(S308)。 Then, the control unit 31 executes pixel matching for the image D3 of the document read by the image reading unit 11 and the images D32 to D34 of the three stored documents in the folder named "invitation". Then, the correlation value Col is calculated (S308).

そして、制御部31は、(i)当該算出した各相関値Colが全て前記予め定められた感度値Sen(=70%)未満である場合(S309でNO)、図22に示すように、当該原稿の画像D3が3つの記憶済みの画像データが示す各画像D32~D34とそれぞれ非類似であると判定し、「招待状」の名称のフォルダに、各画像D32~D34を示す各画像データとは別に、当該原稿の画像D3を示す画像データを記憶させる(S312)。 Then, when (i) all the calculated correlation value Cols are all less than the predetermined sensitivity value Sen (= 70%) (NO in S309), the control unit 31 said, as shown in FIG. 22. It is determined that the image D3 of the manuscript is dissimilar to each of the images D32 to D34 indicated by the three stored image data, and the folder named "invitation" contains the image data indicating each image D32 to D34. Separately, image data indicating the image D3 of the manuscript is stored (S312).

一方、制御部31は、(ii)当該算出した各相関値Colのうちで前記予め定められた感度値Sen(=70%)以上である相関値Colが1つ以上ある場合に、当該原稿の画像データが複数の記憶済みの画像データのうちで感度値Sen(=70%)以上である相関値Colを示す1つ以上の記憶済みの画像データと同一又は類似すると判定し(S309でYES)、当該原稿の画像データを上書き記憶させ、当該1つ以上の記憶済みの画像データを削除する(S311)。 On the other hand, when (ii) one or more of the calculated correlation value Cols have one or more correlation value Cols having the predetermined sensitivity value Sen (= 70%) or more, the control unit 31 of the manuscript. It is determined that the image data is the same as or similar to one or more stored image data indicating a correlation value Col having a sensitivity value of Sen (= 70%) or more among a plurality of stored image data (YES in S309). , The image data of the manuscript is overwritten and stored, and the one or more stored image data is deleted (S311).

具体的には、図22に示すように、画像D3と「招待状」の名称のフォルダ内の画像D32との相関値Colが感度値Sen(=70%)以上であり、画像D3と「招待状」の名称のフォルダ内の画像D33との相関値Colが感度値Sen(=70%)以上であり、画像D3と「招待状」の名称のフォルダ内の画像D34との相関値Colが感度値Sen(=70%)未満であったとする。すなわち、画像D3と、画像D32及び画像D33とが類似し、画像D3と画像D34とが非類似であったとする。制御部31は、「招待状」の名称のフォルダに画像D3の画像データを上書き保存し、画像D32及び画像D33の各画像データを削除する(S311)。なお、画像D3と画像D34とが非類似であるため、画像D34の画像データはそのまま保存されている。 Specifically, as shown in FIG. 22, the correlation value Col between the image D3 and the image D32 in the folder named "invitation" is the sensitivity value Sen (= 70%) or more, and the image D3 and the "invitation". The correlation value Col with the image D33 in the folder named "like" is the sensitivity value Sen (= 70%) or more, and the correlation value Col with the image D3 and the image D34 in the folder named "invitation" is the sensitivity. It is assumed that the value is less than Sen (= 70%). That is, it is assumed that the image D3 is similar to the image D32 and the image D33, and the image D3 and the image D34 are dissimilar. The control unit 31 overwrites and saves the image data of the image D3 in the folder named "invitation", and deletes the image data of the image D32 and the image D33 (S311). Since the image D3 and the image D34 are dissimilar, the image data of the image D34 is stored as it is.

これにより、特定された分類(タグ名)に対応する宛先フォルダに、読取られた文書の画像データと同一又は類似する原稿の画像データが1つ以上ある場合に、当該1つ以上の類似する記憶済みの画像データを削除して、読取られた文書の画像データを上書き保存することができ、宛先フォルダ内の画像データを的確に管理することができる。 As a result, when there is one or more image data of a manuscript that is the same as or similar to the image data of the read document in the destination folder corresponding to the specified classification (tag name), the one or more similar storages. It is possible to delete the completed image data and overwrite and save the image data of the read document, and it is possible to accurately manage the image data in the destination folder.

次に、第2実施形態の情報処理システム100について、図面を用いて説明する。図23は、第2実施形態の情報処理システムの主要内部構成を示すブロック図である。 Next, the information processing system 100 of the second embodiment will be described with reference to the drawings. FIG. 23 is a block diagram showing a main internal configuration of the information processing system of the second embodiment.

第1実施形態では、画像読取部11により読取られた原稿の分類を判別し、画像処理装置10の記憶部28における共有フォルダ内の分類名のフォルダに、画像読取部11により読取られた原稿の画像データを保存している。これに対して、第2実施形態の情報処理システム100では、図23に示すように、ネットワークNを介して接続可能な画像処理装置10と情報処理装置40(例えばコンピューター)とを備え、画像処理装置10に接続された情報処理装置40内の記憶部42における共有フォルダ内の分類名のフォルダに、画像読取部11により読取られた原稿の画像データを保存する点が、前述の第1実施形態とは異なる。 In the first embodiment, the classification of the document read by the image reading unit 11 is determined, and the document read by the image reading unit 11 is placed in the folder with the classification name in the shared folder in the storage unit 28 of the image processing device 10. Image data is saved. On the other hand, as shown in FIG. 23, the information processing system 100 of the second embodiment includes an image processing device 10 and an information processing device 40 (for example, a computer) that can be connected via the network N, and performs image processing. The point of storing the image data of the original document read by the image reading unit 11 in the folder of the classification name in the shared folder in the storage unit 42 in the information processing device 40 connected to the device 10 is the above-mentioned first embodiment. Is different.

情報処理装置40は、予め定められた記憶先のフォルダとしての共有フォルダを有する記憶部42を備えている。 The information processing apparatus 40 includes a storage unit 42 having a shared folder as a predetermined storage destination folder.

図24は、第2実施形態の原稿画像管理処理の一例を示すフローチャートである。第2実施形態では、第1実施形態の図15に示す処理と比べて、図24に示すS330の処理が追加されている点が、第1実施形態とは異なる。このため、図24に示すS330について詳細に説明する。 FIG. 24 is a flowchart showing an example of the manuscript image management process of the second embodiment. The second embodiment is different from the first embodiment in that the process of S330 shown in FIG. 24 is added as compared with the process shown in FIG. 15 of the first embodiment. Therefore, S330 shown in FIG. 24 will be described in detail.

画像処理装置10及び情報処理装置40には、ファイル共有プロトコル(例えば、SMB(Server Message Block))のプログラムがインストールされており、画像処理装置10において情報処理装置40への接続が確立されると(S330)、画像処理装置10は、情報処理装置40の記憶部42の共有フォルダへのアクセスが可能となる。 When a file sharing protocol (for example, SMB (Server Message Block)) program is installed in the image processing device 10 and the information processing device 40, and the connection to the information processing device 40 is established in the image processing device 10. (S330), the image processing device 10 can access the shared folder of the storage unit 42 of the information processing device 40.

具体的には、画像処理装置10の制御部31は、操作部22又はタッチパネル23に対する接続確立のための情報(例えば、ホスト名、パス、ユーザー名、及びパスワード)が正しく入力されることにより、情報処理装置40への接続状態を確立する(S330)。制御部31は、情報処理装置40への接続状態が確立されると(S330)、当該情報処理装置40の記憶部42の共有フォルダへのアクセスが可能な状態となる(S305)。 Specifically, the control unit 31 of the image processing device 10 correctly inputs information for establishing a connection to the operation unit 22 or the touch panel 23 (for example, a host name, a path, a user name, and a password). The connection state to the information processing apparatus 40 is established (S330). When the connection state to the information processing device 40 is established (S330), the control unit 31 becomes accessible to the shared folder of the storage unit 42 of the information processing device 40 (S305).

そして、制御部31は、記憶部42の共有フォルダ内において当該判別した分類(タグ名)と一致する名称の宛先フォルダの有無を確認する(S306)。そして、制御部31は、当該一致する名称の宛先フォルダがない場合(S306でNO)、当該一致する名称の宛先フォルダを作成させて(S313)、当該宛先フォルダに当該原稿の画像データを送信させて記憶させる(S312)。 Then, the control unit 31 confirms whether or not there is a destination folder having a name matching the determined classification (tag name) in the shared folder of the storage unit 42 (S306). Then, when the destination folder with the matching name does not exist (NO in S306), the control unit 31 causes the destination folder with the matching name to be created (S313), and causes the image data of the original to be transmitted to the destination folder. And memorize (S312).

また、制御部31は、当該一致する名称の宛先フォルダがある場合(S306でYES)、当該宛先フォルダ内に原稿の画像データがあれば(S307でYES)、ピクセルマッチングを実行し(S308)、相関値Col≧感度値Sen(=70%)であるか否かを判定する(S309)。制御部31は、相関値Col≧感度値Sen(=70%)であると判定すると(S309でYES)、画像読取部11により読取られた原稿の画像が、宛先フォルダ内の記憶済みの原稿と類似するため、上書き保存する指示を受け付けた場合(S310でYES)、当該宛先フォルダに当該原稿の画像データを送信させて上書き記憶させる(S311)。 Further, when the control unit 31 has a destination folder with the matching name (YES in S306) and there is image data of the original in the destination folder (YES in S307), the control unit 31 executes pixel matching (S308). It is determined whether or not the correlation value Col ≧ sensitivity value Sen (= 70%) (S309). When the control unit 31 determines that the correlation value Col ≧ sensitivity value Sen (= 70%) (YES in S309), the image of the manuscript read by the image reading unit 11 is the stored manuscript in the destination folder. Therefore, when the instruction to overwrite and save is received (YES in S310), the image data of the original is transmitted to the destination folder and stored by overwriting (S311).

図25は、制御部31により表示部21に表示される送信設定画面の一例を示す。制御部31は、原稿の画像データに当該原稿の画像に対するタグ名を示す情報を付加して当該原稿の画像データとともに記憶しておき、原稿の画像データを画像処理装置10に接続された情報処理装置40の記憶部42の共有フォルダ内の宛先フォルダに向けて送信するときの送信設定を行う設定画面G5を表示部21に表示させるとき、当該タグ名を、設定画面G5におけるプレビュー画像表示領域FR2におけるタグ名の項目Q5に表示させる。すなわち、当該タグ名はプレビュー表示時に原稿に関する情報として表示される。そして、制御部31は、宛先フォルダに類似する画像を示す画像データがある場合に、「招待状のフォルダ内に類似する画像データがあります。」というメッセージM1と、「上書き保存、又は、別保存?」というメッセージM2と、を設定画面G5に表示させる。制御部31は、図25に示す上書き保存を示すキーK61がユーザーによりタッチ操作されると(S310でYES)、情報処理装置40の記憶部42の共有フォルダ内の宛先フォルダに向けて、当該原稿の画像データを送信させて上書き記憶させる(S311)。なお、制御部31は、図25に示す別保存を示すキーK62がユーザーによりタッチ操作されると(S310でNO)、情報処理装置40の記憶部42の共有フォルダ内の宛先フォルダに向けて、当該原稿の画像データを送信させて別に記憶させる(S312)。 FIG. 25 shows an example of a transmission setting screen displayed on the display unit 21 by the control unit 31. The control unit 31 adds information indicating a tag name for the image of the manuscript to the image data of the manuscript, stores it together with the image data of the manuscript, and processes the image data of the manuscript connected to the image processing device 10. When displaying the setting screen G5 for setting transmission when transmitting to the destination folder in the shared folder of the storage unit 42 of the device 40 on the display unit 21, the tag name is displayed in the preview image display area FR2 on the setting screen G5. It is displayed in the item Q5 of the tag name in. That is, the tag name is displayed as information about the manuscript when the preview is displayed. Then, when the control unit 31 has image data indicating an image similar to the destination folder, the message M1 "There is similar image data in the invitation folder" and "Overwrite save or separate save". The message M2 and "?" Are displayed on the setting screen G5. When the key K61 indicating overwrite saving shown in FIG. 25 is touch-operated by the user (YES in S310), the control unit 31 points the manuscript toward the destination folder in the shared folder of the storage unit 42 of the information processing apparatus 40. The image data of the above is transmitted and overwritten and stored (S311). When the key K62 indicating another storage shown in FIG. 25 is touch-operated by the user (NO in S310), the control unit 31 points toward the destination folder in the shared folder of the storage unit 42 of the information processing apparatus 40. The image data of the manuscript is transmitted and stored separately (S312).

上記の第2実施形態によれば、画像処理装置10は、ネットワークNで接続された情報処理装置40の記憶部42の共有フォルダへのアクセスが可能となり、共有フォルダ内の特定された分類(タグ名)に対応する宛先フォルダに、読取られた文書の画像データと同一又は類似する原稿の画像データがある場合に、読取られた文書の画像データを上書き保存するので、読取られた文書の画像データと同一又は類似する原稿の画像データが重複して複数個保存されることを防止できる。 According to the second embodiment described above, the image processing device 10 can access the shared folder of the storage unit 42 of the information processing device 40 connected by the network N, and the specified classification (tag) in the shared folder is possible. If there is image data of the original document that is the same as or similar to the image data of the scanned document in the destination folder corresponding to (name), the image data of the scanned document is overwritten and saved, so that the image data of the scanned document is saved. It is possible to prevent multiple image data of the same or similar originals from being stored in duplicate.

上記第2実施形態では、情報処理装置40としてコンピューターを例に挙げているが、サーバーであってもよい。この場合は、画像処理装置10及び情報処理装置40には、ファイル共有プロトコル(例えば、FTP(File Transfer Protocol)のプログラムがインストールされており、画像処理装置10において情報処理装置40への接続が確立されると(S330)、画像処理装置10は、情報処理装置40の記憶部42の共有フォルダへのアクセスが可能となる。 In the second embodiment, the computer is taken as an example of the information processing apparatus 40, but it may be a server. In this case, a file sharing protocol (for example, FTP (File Transfer Protocol) program) is installed in the image processing device 10 and the information processing device 40, and the image processing device 10 establishes a connection to the information processing device 40. Then (S330), the image processing device 10 can access the shared folder of the storage unit 42 of the information processing device 40.

なお、上記実施形態では、ユーザーによる上書き保存の指示があった場合(S310でYES)、上書き保存を実行しているが、同一又は類似であれば、上記指示を待たずに上書き保存を実行するとしてもよい。 In the above embodiment, when the user gives an instruction for overwrite saving (YES in S310), the overwrite save is executed, but if they are the same or similar, the overwrite save is executed without waiting for the above instruction. May be.

なお、上記実施形態では、本発明の一実施形態を、画像処理装置(複合機)を用いて説明しているが、これは一例に過ぎず、コピー機、プリンター、ファクシミリ装置等の他の画像処理装置でもよい。 In the above embodiment, one embodiment of the present invention is described using an image processing device (multifunction device), but this is only an example, and other images such as a copier, a printer, and a facsimile machine. It may be a processing device.

また、図1乃至図25を用いて説明した上記実施形態の構成及び処理は、本発明の一例に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。 Further, the configuration and processing of the above-described embodiment described with reference to FIGS. 1 to 25 are merely examples of the present invention, and the present invention is not intended to be limited to the configuration and processing.

10 画像処理装置
11 画像読取部(画像取得部)
12 画像形成部
21 表示部
22 操作部
23 タッチパネル
28 記憶部
29 制御ユニット
31 制御部
40 情報処理装置
42 記憶部
91 ネットワークインターフェイス部(画像取得部)
100 情報処理システム
10 Image processing device 11 Image reading unit (image acquisition unit)
12 Image forming unit 21 Display unit 22 Operation unit 23 Touch panel 28 Storage unit 29 Control unit 31 Control unit 40 Information processing device 42 Storage unit 91 Network interface unit (image acquisition unit)
100 Information processing system

Claims (9)

原稿の画像データを取得する画像取得部と、
ユーザーによる操作で設定及び指示が入力される操作部と、
前記操作部に入力される指示に従ってトレーニングモード又は分類モードを設定する制御部と、を備え、
前記制御部は、
前記操作部への操作により前記トレーニングモードが設定された場合には、前記画像取得部により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴を示すデータを、当該原稿の分類を判別するための学習データとして収集し、
前記操作部への操作により前記分類モードが設定された場合には、前記画像取得部により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴及び前記学習データに基づき当該原稿の分類を判別し、当該判別した分類を示す情報を当該原稿の画像データに付加し、予め定められた記憶先のフォルダ内において当該判別した分類と一致する名称の宛先フォルダの有無を確認し、当該一致する名称の宛先フォルダがない場合、当該一致する名称の宛先フォルダを作成させて、当該宛先フォルダに当該原稿の画像データを記憶させる画像処理装置。
The image acquisition unit that acquires the image data of the manuscript, and
The operation unit where settings and instructions are input by user operation,
A control unit for setting a training mode or a classification mode according to an instruction input to the operation unit is provided.
The control unit
When the training mode is set by operating the operation unit, the characteristics of the image of the manuscript whose image data has been acquired by the image acquisition unit are extracted, and the data indicating the characteristics of the image of the manuscript is obtained. Collected as learning data to determine the classification of the manuscript,
When the classification mode is set by the operation to the operation unit, the characteristics of the image of the manuscript whose image data has been acquired by the image acquisition unit are extracted, and the characteristics of the image of the manuscript and the learning data are used. Based on this, the classification of the manuscript is discriminated, information indicating the discriminated classification is added to the image data of the manuscript, and the presence or absence of a destination folder with a name matching the discriminated classification is found in the predetermined storage destination folder. An image processing device that checks and if there is no destination folder with the matching name, creates a destination folder with the matching name and stores the image data of the manuscript in the destination folder.
前記制御部は、前記予め定められた記憶先のフォルダ内において前記一致する名称の宛先フォルダがある場合、当該宛先フォルダ内の記憶済みの画像データが示す画像と、前記原稿の画像データが示す画像との相関関係を示す相関値を算出し、(i)当該算出した相関値が予め定められた感度値未満である場合に、当該原稿の画像データが前記記憶済みの画像データと非類似であると判定し、当該宛先フォルダに当該原稿の画像データを記憶させ、(ii)当該算出した相関値が前記予め定められた感度値以上である場合に、当該原稿の画像データが前記記憶済みの画像データと同一又は類似すると判定し、当該原稿の画像データを上書き記憶させる請求項1に記載の画像処理装置。 When the control unit has a destination folder with the matching name in the predetermined storage destination folder, the control unit has an image indicated by the stored image data in the destination folder and an image indicated by the image data of the manuscript. A correlation value indicating a correlation with is calculated, and (i) the image data of the manuscript is dissimilar to the stored image data when the calculated correlation value is less than a predetermined sensitivity value. The image data of the manuscript is stored in the destination folder, and (ii) the image data of the manuscript is the stored image when the calculated correlation value is equal to or higher than the predetermined sensitivity value. The image processing apparatus according to claim 1, wherein it is determined that the data is the same as or similar to the data, and the image data of the manuscript is overwritten and stored. 前記制御部は、(ii)前記算出した相関値が前記予め定められた感度値以上である場合に、前記原稿の画像データが前記記憶済みの画像データと同一又は類似すると判定し、前記操作部への操作により上書き指示があった場合に当該原稿の画像データを上書き記憶させ、前記操作部への操作により別記憶の指示があった場合に当該原稿の画像データを前記記憶済みの画像データとは別に記憶させる請求項2に記載の画像処理装置。 The control unit determines that (ii) the image data of the manuscript is the same as or similar to the stored image data when the calculated correlation value is equal to or higher than the predetermined sensitivity value, and the operation unit. When an overwrite instruction is given by the operation to, the image data of the manuscript is overwritten and stored, and when another storage instruction is given by the operation to the operation unit, the image data of the manuscript is combined with the stored image data. Is the image processing apparatus according to claim 2, which is stored separately. 前記制御部は、前記予め定められた記憶先のフォルダ内において前記一致する名称の宛先フォルダがある場合、当該宛先フォルダ内に複数の記憶済みの画像データがあれば、前記複数の記憶済みの画像データが示す画像と前記原稿の画像データが示す画像との相関関係を示す相関値をそれぞれ算出し、(i)当該算出した各相関値が全て前記予め定められた感度値未満である場合に、当該原稿の画像データが前記複数の記憶済みの画像データとそれぞれ非類似であると判定し、当該宛先フォルダに当該原稿の画像データを記憶させ、(ii)当該算出した各相関値のうちで前記予め定められた感度値以上である相関値が1つ以上ある場合に、当該原稿の画像データが前記複数の記憶済みの画像データのうちで前記予め定められた感度値以上である相関値を示す1つ以上の記憶済みの画像データと同一又は類似すると判定し、当該原稿の画像データを上書き記憶させ、当該1つ以上の記憶済みの画像データを削除する請求項1に記載の画像処理装置。 When the control unit has a destination folder having the matching name in the predetermined storage destination folder and has a plurality of stored image data in the destination folder, the control unit has the plurality of stored images. Correlation values indicating the correlation between the image shown by the data and the image shown by the image data of the manuscript are calculated, and (i) when all the calculated correlation values are less than the predetermined sensitivity value. It is determined that the image data of the manuscript is dissimilar to the plurality of stored image data, and the image data of the manuscript is stored in the destination folder. When there is one or more correlation values that are equal to or higher than the predetermined sensitivity value, the correlation value in which the image data of the manuscript is equal to or higher than the predetermined sensitivity value among the plurality of stored image data is shown. The image processing apparatus according to claim 1, wherein it is determined that the image data is the same as or similar to one or more stored image data, the image data of the original is overwritten and stored, and the one or more stored image data is deleted. 前記制御部は、前記宛先フォルダ内の記憶済みの画像データが示す保存画像と、前記原稿の画像データが示すソース画像とについてピクセルマッチングを行うことにより、当該保存画像と当該ソース画像との相関関係を示す相関値を、「-1」から「+1」までの何れかの値として算出し、
前記予め定められた感度値は、「+1」以下の正の相関を持つ値であって、「0」よりも「+1」に近い値である請求項2乃至請求項4の何れか1つに記載の画像処理装置。
The control unit performs pixel matching between the saved image indicated by the stored image data in the destination folder and the source image indicated by the image data of the manuscript, thereby correlating the saved image with the source image. The correlation value indicating the above is calculated as any value from "-1" to "+1".
The predetermined sensitivity value is one of claims 2 to 4, which is a value having a positive correlation of "+1" or less and is closer to "+1" than "0". The image processing device described.
前記制御部は、前記分類モードでの前記原稿の分類の判別後、前記操作部への操作により異なる原稿の分類が入力された場合、前記判別した分類に代えて、当該入力された分類を示す情報を前記原稿の画像データに付加すると共に、当該判別に用いた学習データを、当該入力された異なる原稿の分類に対応付けて記憶させる請求項1乃至請求項5の何れか1つに記載の画像処理装置。 When a different classification of a document is input by an operation to the operation unit after the classification of the original is determined in the classification mode, the control unit indicates the input classification instead of the determined classification. The invention according to any one of claims 1 to 5, wherein the information is added to the image data of the manuscript, and the learning data used for the discrimination is stored in association with the classification of the input different manuscript. Image processing device. 前記制御部は、前記原稿の画像の特徴として、当該画像データの色相、コントラスト、色数、又は濃度を抽出する請求項1乃至請求項6の何れか1つに記載の画像処理装置。 The image processing device according to any one of claims 1 to 6, wherein the control unit extracts the hue, contrast, number of colors, or density of the image data as a feature of the image of the document. 表示部を更に備え、
前記制御部は、前記分類モードで判別した原稿の分類を、前記取得された原稿の画像データに対応付けて前記表示部に表示させる請求項1乃至請求項7の何れか1つに記載の画像処理装置。
With more display
The image according to any one of claims 1 to 7, wherein the control unit associates the classification of the manuscript determined in the classification mode with the image data of the acquired manuscript and displays it on the display unit. Processing equipment.
請求項1乃至請求項4の何れか1つに記載の画像処理装置と、情報処理装置とを備え、ネットワークを介して前記画像処理装置と前記情報処理装置とが接続可能な情報処理システムであって、
前記情報処理装置は、前記予め定められた記憶先のフォルダとしての共有フォルダを有する記憶部を備え、
前記画像処理装置の前記制御部は、前記操作部に対する接続確立のための情報入力により、前記情報処理装置への接続状態を確立し、当該情報処理装置の前記記憶部の前記共有フォルダへのアクセスが可能な状態とし、当該共有フォルダ内において当該判別した分類と一致する名称の宛先フォルダの有無を確認し、当該一致する名称の宛先フォルダがない場合、当該一致する名称の宛先フォルダを作成させて、当該宛先フォルダに当該原稿の画像データを記憶させる情報処理システム。
An information processing system comprising the image processing device according to any one of claims 1 to 4 and an information processing device, and the image processing device and the information processing device can be connected to each other via a network. hand,
The information processing apparatus includes a storage unit having a shared folder as a predetermined storage destination folder.
The control unit of the image processing device establishes a connection state to the information processing device by inputting information for establishing a connection to the operation unit, and accesses the shared folder of the storage unit of the information processing device. Check if there is a destination folder with a name that matches the identified classification in the shared folder, and if there is no destination folder with the matching name, create a destination folder with the matching name. , An information processing system that stores the image data of the manuscript in the destination folder.
JP2020123889A 2020-07-20 2020-07-20 Image processing device and information processing system Pending JP2022020412A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020123889A JP2022020412A (en) 2020-07-20 2020-07-20 Image processing device and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020123889A JP2022020412A (en) 2020-07-20 2020-07-20 Image processing device and information processing system

Publications (1)

Publication Number Publication Date
JP2022020412A true JP2022020412A (en) 2022-02-01

Family

ID=80216075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020123889A Pending JP2022020412A (en) 2020-07-20 2020-07-20 Image processing device and information processing system

Country Status (1)

Country Link
JP (1) JP2022020412A (en)

Similar Documents

Publication Publication Date Title
US7797150B2 (en) Translation system using a translation database, translation using a translation database, method using a translation database, and program for translation using a translation database
US10755092B2 (en) Image forming apparatus that gives color respectively different from one another to text area for each of various kinds of languages or selectively deletes text area for each of various kinds of language
US20170315963A1 (en) Image processing apparatus and image processing system
JP6885318B2 (en) Image processing device
US8189219B2 (en) Image processing system, information processing apparatus, image processing apparatus, and image processing method
CN112839141A (en) Image processing system, image processing method, and storage medium
US11765292B2 (en) Information processing apparatus used for converting image to file, image processing system, method of controlling information processing apparatus, and storage medium
JP2019109628A5 (en)
US11297199B2 (en) Image processing apparatus that generates cover page from source image
JP2020104505A (en) Image formation apparatus
US11223743B2 (en) Image processing system, image processing apparatus, method of controlling the image processing apparatus, and storage medium
WO2020230447A1 (en) Image forming system
JP2008070777A (en) Image forming apparatus and image forming system
JP6885319B2 (en) Image processing device
JP2022020412A (en) Image processing device and information processing system
US11720294B2 (en) Information processing apparatus managing use of document and document management method therefor
JP2019109629A5 (en)
JP2020134964A (en) Image processing apparatus and image processing method
US10725414B2 (en) Image forming apparatus that displays job list
US11849086B2 (en) Image processing apparatus capable of extracting portion of document image specified by preset index and subjecting character string in extracted portion to processing associated with index
JP2018077794A (en) Image processing device and image forming apparatus
JP2020086536A (en) Electronic apparatus and image forming device
JP2020038576A (en) Electronic apparatus, image formation apparatus, electronic mail preparation support method and electronic mail preparation support program
JP5988149B2 (en) Item entry device, item entry system and program
JP2021137980A (en) Printer

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221006