JP2020134964A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2020134964A
JP2020134964A JP2019022831A JP2019022831A JP2020134964A JP 2020134964 A JP2020134964 A JP 2020134964A JP 2019022831 A JP2019022831 A JP 2019022831A JP 2019022831 A JP2019022831 A JP 2019022831A JP 2020134964 A JP2020134964 A JP 2020134964A
Authority
JP
Japan
Prior art keywords
image
manuscript
unit
document
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019022831A
Other languages
Japanese (ja)
Inventor
リチェル・ロペズ
Ropez Richell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2019022831A priority Critical patent/JP2020134964A/en
Publication of JP2020134964A publication Critical patent/JP2020134964A/en
Pending legal-status Critical Current

Links

Abstract

To read an image of a document and classify the image of the document based on the characteristics of the entire image of the document.SOLUTION: In an image processing apparatus 10, when a training mode is set by an operation from an operation unit (operation unit 22 or touch panel 23), a control unit 31 extracts the characteristics of an image of a document read by an image reading unit 11, and learns learning data from which the type of the document input by the operation from the operation unit is derived based on the characteristics of the document. When a classification mode is set by an operation from the operation unit, the control unit 31 extracts the characteristics of the image of the document read by the image reading unit 11, determines the type of the document based on the characteristics of the image of the document and the learning data, and adds information indicating the determined type to image data of the document.SELECTED DRAWING: Figure 2

Description

本発明は、原稿の画像データを取得する画像処理装置及び画像処理方法に関し、特に原稿の画像データを分類するための技術に関する。 The present invention relates to an image processing apparatus and an image processing method for acquiring image data of a manuscript, and more particularly to a technique for classifying image data of a manuscript.

画像処理装置としては、複合機(MFP)、コピー機、ファクシミリ装置などがある。このような画像処理装置においては、読取った原稿の画像データを自動的に分類できることが望ましい。 Image processing devices include multifunction devices (MFPs), copiers, facsimile machines, and the like. In such an image processing apparatus, it is desirable that the image data of the scanned document can be automatically classified.

例えば、特許文献1に記載の文書管理システムでは、読取られた文書画像データを文章領域、表領域、罫線、図領域などに分けて、各領域のレイアウト情報を抽出し、文書の画像データにおける特定の位置にある領域に対して文字認識あるいはバーコード認識を実行し、文字認識やバーコード認識によって読み取られた情報を属性として文書画像データに付加して保存し、その属性を用いることで文書画像データを検索できるようにしている。 For example, in the document management system described in Patent Document 1, the read document image data is divided into a text area, a table area, a ruled line, a figure area, and the like, layout information of each area is extracted, and the document is specified in the image data of the document. Character recognition or bar code recognition is executed for the area at the position of, and the information read by character recognition or bar code recognition is added to the document image data as an attribute and saved, and the document image is used by using that attribute. The data can be searched.

特開2002−342343号公報JP-A-2002-342343

しかしながら、特許文献1に記載の文書管理システムにおいては、文書画像における特定の位置の領域に対する文字認識やバーコード認識により読取られた情報を文書画像の属性としているので、この属性は、特定の位置の領域の特徴に基づくものであって、文書画像全体の特徴に基づくものではなく、文書画像の分類が適確に行われているとは言い難い。 However, in the document management system described in Patent Document 1, since the information read by character recognition or bar code recognition for a region at a specific position in the document image is used as an attribute of the document image, this attribute is a specific position. It is hard to say that the document images are properly classified because they are based on the characteristics of the area of the document image and not based on the characteristics of the entire document image.

本発明は、上記の事情に鑑みなされたものであり、原稿の画像全体の特徴に基づき該原稿の画像を分類することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to classify the images of the manuscript based on the characteristics of the entire image of the manuscript.

本発明の一局面にかかる画像処理装置は、原稿の画像データを取得する画像取得部と、ユーザーによる操作で設定及び指示が入力される操作部と、前記操作部に入力される指示に従ってトレーニングモード又は分類モードを設定する制御部とを備え、前記制御部は、前記操作部への操作により前記トレーニングモードの設定が入力された場合に、前記画像取得部により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴を示すデータを、該原稿の種類を判別するための学習データとして収集し、前記操作部への操作により前記分類モードが設定された場合には、前記画像取得部により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴及び前記学習データに基づき当該原稿の種類を判別し、該判別した種類を示す情報を当該原稿の画像データに付加するものである。 The image processing device according to one aspect of the present invention includes an image acquisition unit for acquiring image data of a document, an operation unit for inputting settings and instructions by user operation, and a training mode according to instructions input to the operation unit. Alternatively, the control unit includes a control unit for setting the classification mode, and the control unit is an image of a manuscript whose image data has been acquired by the image acquisition unit when the training mode setting is input by operating the operation unit. When the characteristics of the original are extracted, data indicating the characteristics of the image of the original is collected as learning data for determining the type of the original, and the classification mode is set by operating the operation unit. , The feature of the image of the manuscript whose image data has been acquired by the image acquisition unit is extracted, the type of the manuscript is discriminated based on the feature of the image of the manuscript and the learning data, and the information indicating the discriminated type is obtained. It is added to the image data of the manuscript.

また、本発明の一局面にかかる画像処理方法は、原稿の画像データを取得する画像取得ステップと、ユーザーによる操作部の操作を受け付ける操作ステップと、前記操作ステップでトレーニングモードが設定された場合に、前記画像取得ステップで画像データを取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴を示すデータを、該原稿の種類を判別するための学習データとして収集し、前記操作ステップで分類モードが設定された場合には、前記画像取得ステップで画像データを取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴及び前記学習データに基づき当該原稿の種類を判別し、該判別した種類を示す情報を当該原稿の画像データに付加する制御ステップと、を含むものである。 Further, the image processing method according to one aspect of the present invention includes an image acquisition step for acquiring image data of a document, an operation step for accepting an operation of an operation unit by a user, and a training mode set in the operation step. , The feature of the image of the manuscript whose image data was acquired in the image acquisition step is extracted, and the data showing the feature of the image of the manuscript is collected as learning data for discriminating the type of the manuscript, and the operation is performed. When the classification mode is set in the step, the characteristics of the image of the manuscript whose image data was acquired in the image acquisition step are extracted, and the type of the manuscript is determined based on the characteristics of the image of the manuscript and the learning data. It includes a control step of discriminating and adding information indicating the discriminated type to the image data of the manuscript.

本発明によれば、原稿の画像を読み取って、原稿の画像全体の特徴に基づき該原稿の画像を分類することができる。 According to the present invention, an image of a manuscript can be read and the image of the manuscript can be classified based on the characteristics of the entire image of the manuscript.

本発明の一実施形態にかかる画像処理装置を示す断面図である。It is sectional drawing which shows the image processing apparatus which concerns on one Embodiment of this invention. 本実施形態の画像処理装置の主要内部構成を示すブロック図である。It is a block diagram which shows the main internal structure of the image processing apparatus of this embodiment. ディープラーニングの学習データを生成するためのトレーニングモードの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the training mode for generating the learning data of deep learning. 表示部に表示された分類機能入力画面を示す図である。It is a figure which shows the classification function input screen displayed on the display part. 表示部に表示されたトレーニングモード設定画面を示す図である。It is a figure which shows the training mode setting screen displayed on the display part. ディープラーニングの概念を示す図である。It is a figure which shows the concept of deep learning. 原稿の画像の特徴である画像の色相、コントラスト、色数、濃度と、タグ名である招待状、領収書との対応関係を例示する図表である。It is a chart exemplifying the correspondence between the hue, contrast, the number of colors, and the density of the image, which are the features of the image of the manuscript, and the invitation and the receipt, which are the tag names. 分類モードでの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure in a classification mode. 表示部に表示された分類モード設定画面を示す図である。It is a figure which shows the classification mode setting screen displayed on the display part. 表示部に表示されたポップアップ画面を示す図である。It is a figure which shows the pop-up screen displayed on the display part. 表示部に表示された他のポップアップ画面を示す図である。It is a figure which shows the other pop-up screen displayed on the display part. 表示部に表示された原稿の画像のプロパティを示す図である。It is a figure which shows the property of the image of the original which was displayed on the display part. 表示部に表示された原稿の画像の他のプロパティを示す図である。It is a figure which shows the other property of the image of a manuscript displayed on the display part. 表示部に表示されたファイルの一覧を示す図である。It is a figure which shows the list of the file displayed on the display part. 表示部に表示された送信設定画面の一例を示す図である。It is a figure which shows an example of the transmission setting screen displayed on the display part.

以下、本発明の一実施形態にかかる画像処理装置について図面を参照して説明する。 Hereinafter, the image processing apparatus according to the embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態にかかる画像処理装置を示す断面図である。図1に示すように本実施形態の画像処理装置10は、例えばコピー機能、プリンター機能、ファクシミリ機能のような複数の機能を兼ね備えたMFP(画像形成装置)である。この画像処理装置10は、画像読取部11と、画像形成部12とを備えている。 FIG. 1 is a cross-sectional view showing an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 10 of the present embodiment is an MFP (image forming apparatus) having a plurality of functions such as a copy function, a printer function, and a facsimile function. The image processing device 10 includes an image reading unit 11 and an image forming unit 12.

画像読取部11は、原稿の画像を光学的に読み取る撮像素子を有しており、この撮像素子のアナログ出力がデジタル信号に変換されて、原稿の画像を示す画像データが生成される。画像読取部11は、特許請求の範囲における画像取得部の一例である。 The image reading unit 11 has an image sensor that optically reads the image of the document, and the analog output of the image sensor is converted into a digital signal to generate image data indicating the image of the document. The image reading unit 11 is an example of an image acquisition unit within the scope of claims.

画像形成部12は、上記画像データによって示される画像を記録紙に形成するものであり、マゼンタ用の画像形成ユニット3M、シアン用の画像形成ユニット3C、イエロー用の画像形成ユニット3Y、及びブラック用の画像形成ユニット3Bkを備えている。各画像形成ユニット3M、3C、3Y、及び3Bkのいずれにおいても、感光体ドラム4の表面を均一帯電させ、感光体ドラム4の表面を露光して、感光体ドラム4の表面に静電潜像を形成し、感光体ドラム4の表面の静電潜像をトナー像に現像して、感光体ドラム4の表面のトナー像を中間転写ベルト5に1次転写する。これにより、カラーのトナー像が中間転写ベルト5上に形成される。このカラーのトナー像は、中間転写ベルト5と2次転写ローラー6の間のニップ域Nにおいて給紙部14から搬送路8を通じて搬送されてきた記録紙Pに2次転写される。 The image forming unit 12 forms the image indicated by the image data on the recording paper, and is used for the image forming unit 3M for magenta, the image forming unit 3C for cyan, the image forming unit 3Y for yellow, and the black. The image forming unit 3Bk of the above is provided. In each of the image forming units 3M, 3C, 3Y, and 3Bk, the surface of the photoconductor drum 4 is uniformly charged, the surface of the photoconductor drum 4 is exposed, and an electrostatic latent image is formed on the surface of the photoconductor drum 4. Is formed, the electrostatic latent image on the surface of the photoconductor drum 4 is developed into a toner image, and the toner image on the surface of the photoconductor drum 4 is primarily transferred to the intermediate transfer belt 5. As a result, a color toner image is formed on the intermediate transfer belt 5. The toner image of this color is secondarily transferred to the recording paper P conveyed from the paper feeding unit 14 through the transfer path 8 in the nip area N between the intermediate transfer belt 5 and the secondary transfer roller 6.

この後、定着装置15で記録紙Pが加熱及び加圧されて、記録紙P上のトナー像が熱圧着により定着され、更に記録紙Pが排出ローラー16を通じて排出トレイ17に排出される。 After that, the recording paper P is heated and pressurized by the fixing device 15, the toner image on the recording paper P is fixed by thermocompression bonding, and the recording paper P is discharged to the discharge tray 17 through the discharge roller 16.

次に、図2は、本実施形態の画像処理装置10の主要内部構成を示すブロック図である。図2に示すように本実施形態の画像処理装置10は、画像読取部11と、画像形成部12と、表示部21と、操作部22と、タッチパネル23と、ネットワークインターフェイス部91と、画像メモリー26と、画像処理部27と、記憶部28と、制御ユニット29とを備えている。これらの構成要素は、互いにバスを通じてデータ又は信号の送受信が可能とされている。 Next, FIG. 2 is a block diagram showing a main internal configuration of the image processing device 10 of the present embodiment. As shown in FIG. 2, the image processing device 10 of the present embodiment includes an image reading unit 11, an image forming unit 12, a display unit 21, an operation unit 22, a touch panel 23, a network interface unit 91, and an image memory. 26, an image processing unit 27, a storage unit 28, and a control unit 29 are provided. These components are capable of transmitting and receiving data or signals through the bus to each other.

表示部21は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(OLED:Organic Light-Emitting Diode)ディスプレイなどから構成される。操作部22は、テンキー、決定キー、スタートキーなどの物理キーを備えている。 The display unit 21 is composed of a liquid crystal display (LCD), an organic EL (OLED: Organic Light-Emitting Diode) display, and the like. The operation unit 22 includes physical keys such as a numeric keypad, an enter key, and a start key.

表示部21の画面には、タッチパネル23が配置されている。タッチパネル23は、所謂抵抗膜方式や静電容量方式などのタッチパネルであって、タッチパネル23に対するユーザーの指などの接触(タッチ)をその接触位置とともに検知して、その接触位置の座標を示す検知信号を制御ユニット29の後述する制御部31などに出力する。 A touch panel 23 is arranged on the screen of the display unit 21. The touch panel 23 is a touch panel of a so-called resistance film type or capacitance type, and detects contact (touch) of a user's finger or the like with the touch panel 23 together with the contact position, and a detection signal indicating the coordinates of the contact position. Is output to the control unit 31 or the like described later of the control unit 29.

ネットワークインターフェイス部91は、ローカルエリア内、又はインターネット上の端末装置やサーバー等の外部装置と種々のデータの送受信を行うものである。ネットワークインターフェイス部91は、特許請求の範囲における画像取得部の一例である。本発明の一実施形態に係る画像処理装置は、画像読取部11又はネットワークインターフェイス部91の少なくとも一方を備える。 The network interface unit 91 transmits and receives various data to and from an external device such as a terminal device or a server in the local area or on the Internet. The network interface unit 91 is an example of an image acquisition unit within the scope of claims. The image processing apparatus according to the embodiment of the present invention includes at least one of an image reading unit 11 and a network interface unit 91.

画像メモリー26には、画像読取部11により読取られた原稿の画像を示す画像データが記憶される。また、制御部31は、画像処理部27として機能し、画像処理部27として、画像メモリー26内の画像データに対して、シェーディング補正などの様々な画像処理を施す。 The image memory 26 stores image data indicating an image of the original document read by the image reading unit 11. Further, the control unit 31 functions as an image processing unit 27, and as the image processing unit 27, performs various image processing such as shading correction on the image data in the image memory 26.

なお、画像処理部27は、制御部31及び制御ユニット29とは別個に設けられていてもよい。この場合、制御部31及び画像処理部27が特許請求の範囲における制御部の一例となる。 The image processing unit 27 may be provided separately from the control unit 31 and the control unit 29. In this case, the control unit 31 and the image processing unit 27 are examples of the control unit within the scope of the claims.

記憶部28は、SSD(Solid State Drive)、HDD(Hard Disk Drive)などの大容量の記憶装置であって、各種のアプリケーションプログラムや種々のデータを記憶している。 The storage unit 28 is a large-capacity storage device such as an SSD (Solid State Drive) or an HDD (Hard Disk Drive), and stores various application programs and various data.

制御ユニット29は、プロセッサー、RAM(Random Access Memory)、及びROM(Read Only Memory)などから構成される。プロセッサーは、例えばCPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、又はMPU(Micro Processing Unit)等である。制御ユニット29は、上記のROM又は記憶部28に記憶された制御プログラムが上記のプロセッサーで実行されることにより、制御部31として機能する。 The control unit 29 is composed of a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The processor is, for example, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), an MPU (Micro Processing Unit), or the like. The control unit 29 functions as the control unit 31 when the control program stored in the ROM or the storage unit 28 is executed by the processor.

制御部31は、画像処理装置10を統括的に制御する。制御ユニット29は、画像読取部11、画像形成部12、表示部21、操作部22、タッチパネル23、ネットワークインターフェイス部91、画像メモリー26、画像処理部27、及び記憶部28などと接続されている。制御部31は、これらの構成要素の動作制御や、該各構成要素との間での信号またはデータの送受信を行う。 The control unit 31 comprehensively controls the image processing device 10. The control unit 29 is connected to an image reading unit 11, an image forming unit 12, a display unit 21, an operation unit 22, a touch panel 23, a network interface unit 91, an image memory 26, an image processing unit 27, a storage unit 28, and the like. .. The control unit 31 controls the operation of these components and transmits / receives signals or data to / from each component.

制御部31は、画像処理装置10による画像形成に必要な各種の処理などを実行する処理部としての役割を果たす。また、制御部31は、タッチパネル23から出力される検知信号あるいは操作部22の物理キーの操作に基づき、ユーザーにより入力された操作指示を受け付ける。更に、制御部31は、表示部21の表示動作を制御する機能、及びネットワークインターフェイス部91の通信動作を制御する機能を有する。 The control unit 31 serves as a processing unit that executes various processes necessary for image formation by the image processing device 10. Further, the control unit 31 receives an operation instruction input by the user based on the detection signal output from the touch panel 23 or the operation of the physical key of the operation unit 22. Further, the control unit 31 has a function of controlling the display operation of the display unit 21 and a function of controlling the communication operation of the network interface unit 91.

このような構成の画像処理装置10において、例えば、ユーザーが、原稿を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、コピーの実行を指示すると、制御部31は、画像読取部11により原稿の画像を読取らせ、該原稿の画像を示す画像データを画像メモリー26に記憶させる。画像処理部27は、画像データに対して各種の処理を施す。画像形成部12は、画像データを画像メモリー26から取得して、該画像データによって示される原稿の画像を記録紙に形成する。 In the image processing device 10 having such a configuration, for example, when the user sets the document in the image reading unit 11 and operates the operation unit 22 or the touch panel 23 to instruct the execution of copying, the control unit 31 displays the image. The image of the original is read by the reading unit 11, and the image data indicating the image of the original is stored in the image memory 26. The image processing unit 27 performs various processes on the image data. The image forming unit 12 acquires image data from the image memory 26 and forms an image of the original document indicated by the image data on the recording paper.

また、ユーザーによる操作で操作部22又はタッチパネル23に、原稿の種類を示すタグ名と、トレーニングモードの設定と、画像読取部11による原稿の画像の読取りの実行指示が入力され、制御部31が、トレーニングモードの設定、当該タグ名、及び読取実行指示を受け付けた場合、制御部31は、画像処理装置10をトレーニングモードに設定し、画像読取部11による原稿の画像の読取り、画像メモリー26への画像データの記憶、及び画像処理部27による画像データの処理を行わせる。更に、制御部31は、画像メモリー26に記憶された当該画像データに基づき、読み取られた原稿の画像の特徴を抽出する処理を実行する。そして、制御部31は、このように抽出した、該原稿の画像の特徴を示すデータを、上記タグ名により示される原稿の種類を判別するための学習データとして収集する。 Further, the user operates the operation unit 22 or the touch panel 23 to input a tag name indicating the type of the original, a training mode setting, and an instruction to execute the image reading of the original by the image reading unit 11, and the control unit 31 presses. When the training mode setting, the tag name, and the reading execution instruction are received, the control unit 31 sets the image processing device 10 to the training mode, and the image reading unit 11 reads the image of the original to the image memory 26. The image data is stored and the image data is processed by the image processing unit 27. Further, the control unit 31 executes a process of extracting the features of the image of the scanned document based on the image data stored in the image memory 26. Then, the control unit 31 collects the data showing the characteristics of the image of the manuscript extracted in this way as learning data for discriminating the type of the manuscript indicated by the tag name.

この後、ユーザーが、更なる原稿を画像読取部11にセットし、当該ユーザーによる操作で、操作部22又はタッチパネル23に、分類モードの設定と、画像読取部11による原稿の画像の読取りの実行指示とが受け付けられると、制御部31は、分類モードを設定し、画像読取部11による当該原稿の画像の読取り、画像メモリー26への画像データの記憶、及び画像処理部27による画像データの処理を行わせる。この後、制御部31は、更に、画像メモリー26内の当該画像データに基づき当該原稿の画像の特徴を抽出する処理を実行し、当該原稿の画像の特徴、及び上記のようにして収集されている学習データに基づき、当該原稿の種類を示すタグ名を判別し、当該判定したタグ名を示す情報を、当該原稿の画像データに付加する。すなわち、制御部31は、このようにタグ名を示す情報を付加することにより該他の原稿を分類する。 After that, the user sets a further document in the image reading unit 11, and the user operates the operation unit 22 or the touch panel 23 to set the classification mode and execute the image reading unit 11 to read the image of the document. When the instruction is received, the control unit 31 sets the classification mode, the image reading unit 11 reads the image of the original, the image data 26 stores the image data, and the image processing unit 27 processes the image data. To do. After that, the control unit 31 further executes a process of extracting the features of the image of the manuscript based on the image data in the image memory 26, and collects the features of the image of the manuscript and as described above. Based on the learning data, the tag name indicating the type of the manuscript is determined, and the information indicating the determined tag name is added to the image data of the manuscript. That is, the control unit 31 classifies the other manuscript by adding the information indicating the tag name in this way.

従って、制御部31は、トレーニングモードに設定している状態では、画像読取部11により読取られた原稿の画像の特徴を示すデータを、操作部22又はタッチパネル23に入力されたタグ名が示す原稿の種類として判別するための学習データとして収集する。また、制御部31は、分類モードに設定している状態では、画像読取部11により読み取られた原稿の画像から抽出した当該原稿の画像の特徴と、この時点で収集されている学習データとを比較することで、当該原稿の画像の特徴と一致又は近似する特徴を示す学習データに対応付けられているタグ名を判別する。そして、制御部31は、当該タグ名を示す情報を、当該読み取られた原稿の画像に付加することにより、当該読み取られた原稿の画像を分類する。なお、制御部31は、分類モードに設定している状態でも、画像読取部11により読取られた原稿の画像の特徴を示すデータを、タグ名を判別するための学習データとして収集する。 Therefore, in the state where the control unit 31 is set to the training mode, the data indicating the characteristics of the image of the document read by the image reading unit 11 is the document indicated by the tag name input to the operation unit 22 or the touch panel 23. It is collected as training data for determining the type of. Further, in the state where the control unit 31 is set to the classification mode, the characteristics of the image of the original document extracted from the image of the original document read by the image reading unit 11 and the learning data collected at this time are obtained. By comparing, the tag name associated with the learning data indicating the feature that matches or approximates the feature of the image of the manuscript is determined. Then, the control unit 31 classifies the image of the scanned document by adding the information indicating the tag name to the image of the scanned document. Even when the classification mode is set, the control unit 31 collects data indicating the characteristics of the image of the original document read by the image reading unit 11 as learning data for determining the tag name.

次に、上記トレーニングモードでの処理手順を、図3に示すフローチャートなどを参照して詳細に説明する。 Next, the processing procedure in the training mode will be described in detail with reference to the flowchart shown in FIG.

まず、管理者(特定のユーザー)は、操作部22又はタッチパネル23を操作して、ドキュメント分類機能の実行の指示を入力する。操作部22又はタッチパネル23が当該指示の入力を受け付けると、制御部31は、当該指示に応じて図4に示すような分類機能入力画面G1を表示部21に表示させる(S101)。この図4に示す分類機能入力画面G1には、トレーニングモードの実行指示を入力するためのキーK11、分類モードの実行指示を入力するためのキーK12、及び識別情報IDを入力するためのテキストボックスTB1が表示されている。 First, the administrator (specific user) operates the operation unit 22 or the touch panel 23 to input an instruction to execute the document classification function. When the operation unit 22 or the touch panel 23 receives the input of the instruction, the control unit 31 causes the display unit 21 to display the classification function input screen G1 as shown in FIG. 4 in response to the instruction (S101). In the classification function input screen G1 shown in FIG. 4, a key K11 for inputting a training mode execution instruction, a key K12 for inputting a classification mode execution instruction, and a text box for inputting an identification information ID TB1 is displayed.

管理者による操作部22又はタッチパネル23の操作により、当該管理者の識別情報IDがテキストボックスTB1に入力され、トレーニングモードのキーK11が押下されると、制御部31は、テキストボックスTB1に入力された識別情報IDが当該管理者の識別情報IDに一致するか否かを認証する(S102)。制御部31が、テキストボックスTB1に入力された識別情報IDが当該管理者の識別情報IDに一致すると判定した場合(S102でYES)、画像処理装置10をトレーニングモードに設定する(S103)。尚、制御部31が、テキストボックスTB1に入力された識別情報IDが当該管理者の識別情報IDに一致しないと判定した場合(S102でNO)、制御部31は、トレーニングモードを設定せず、処理は終了する。 By the operation of the operation unit 22 or the touch panel 23 by the administrator, the identification information ID of the administrator is input to the text box TB1, and when the training mode key K11 is pressed, the control unit 31 is input to the text box TB1. Authenticate whether or not the identification information ID matches the identification information ID of the administrator (S102). When the control unit 31 determines that the identification information ID entered in the text box TB1 matches the identification information ID of the administrator (YES in S102), the image processing device 10 is set to the training mode (S103). If the control unit 31 determines that the identification information ID entered in the text box TB1 does not match the identification information ID of the administrator (NO in S102), the control unit 31 does not set the training mode. The process ends.

このようにトレーニングモードが設定されている状態で、管理者が、原稿を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、スキャンの実行指示を入力すると、制御部31は、当該入力されたスキャンの実行指示に従って、画像読取部11により原稿の画像を読取らせ、画像読取部11から出力された原稿の画像を示す画像データを画像メモリー26に記憶させる。画像処理部27は、画像データに対して各種の処理を施す(S104)。このトレーニングモードでの画像処理部27による各種の処理は、後で述べるS109において原稿の画像の特徴を正確に抽出させるために行われる予備処理であって、画像の濃度、コントラスト、エッジ、及びコーナーについてこれらを強調する処理等である。 When the administrator sets the document in the image reading unit 11 and operates the operation unit 22 or the touch panel 23 in the state where the training mode is set in this way, the control unit 31 inputs a scan execution instruction. In accordance with the input scan execution instruction, the image reading unit 11 reads the image of the original, and the image data 26 indicating the image of the original output from the image reading unit 11 is stored in the image memory 26. The image processing unit 27 performs various processes on the image data (S104). The various processes performed by the image processing unit 27 in this training mode are preliminary processes performed in order to accurately extract the features of the image of the original in S109 described later, and are image density, contrast, edges, and corners. It is a process to emphasize these.

この後、制御部31は、図5に示すようなトレーニングモード設定画面G2を表示部21に表示させる(S105)。この図5に示すトレーニングモード設定画面G2には、画像読取部11により読取られた原稿の画像D1、既に設定されている各タグ名に対応付けられたそれぞれのキーK21、K22、K23、K24、K25…、新たな原稿の種類を示すタグ名を記入するためのテキストボックスTB2、及びOKキー20が表示されている。 After that, the control unit 31 causes the display unit 21 to display the training mode setting screen G2 as shown in FIG. 5 (S105). On the training mode setting screen G2 shown in FIG. 5, the image D1 of the document read by the image reading unit 11, and the keys K21, K22, K23, K24 associated with each tag name already set, are displayed. K25 ..., a text box TB2 for entering a tag name indicating a new type of manuscript, and an OK key 20 are displayed.

管理者は、表示部21に表示されている原稿の画像D1を確認し、各キーK21、K22、…が示すいずれかのタグ名が、該原稿の種類を示すと判断した場合は、各キーK21、K22、…のうち、当該原稿の種類を示すタグ名を示すキーにタッチ操作し、また各キーK21、K22、…が示すいずれのタグ名も、該原稿の種類を示すタグ名ではないと判断した場合は、操作部22又はタッチパネル23を操作して、新たな原稿の種類を示すタグ名をテキストボックスTB2に入力して、OKキー20にタッチ操作する。 When the administrator confirms the image D1 of the manuscript displayed on the display unit 21 and determines that any of the tag names indicated by the keys K21, K22, ... Indicates the type of the manuscript, each key Of K21, K22, ..., Touch operation is performed on the key indicating the tag name indicating the type of the manuscript, and none of the tag names indicated by the keys K21, K22, ... Is the tag name indicating the type of the manuscript. If it is determined, the operation unit 22 or the touch panel 23 is operated, a tag name indicating a new document type is input into the text box TB2, and the OK key 20 is touch-operated.

制御部31は、タッチパネル23を通じて各キーK21、K22、…のいずれかのタッチ操作を検出すると(S106「キー」)、該指示されたキーに対応付けられているタグ名を取得する(S107)。また、制御部31は、タッチパネル23を通じてOKキー20のタッチ操作を検出すると(S106「タグ名」)、テキストボックスTB2に入力されたタグ名を取得する(S108)。 When the control unit 31 detects a touch operation of any of the keys K21, K22, ... Through the touch panel 23 (S106 "key"), the control unit 31 acquires the tag name associated with the instructed key (S107). .. Further, when the control unit 31 detects the touch operation of the OK key 20 through the touch panel 23 (S106 “tag name”), the control unit 31 acquires the tag name input in the text box TB2 (S108).

そして、制御部31は、画像メモリー26内の原稿の画像D1を示す画像データを解析して、原稿の画像D1の特徴を抽出する(S109)。 Then, the control unit 31 analyzes the image data indicating the image D1 of the original in the image memory 26 and extracts the features of the image D1 of the original (S109).

更に、制御部31は、S109で抽出した当該原稿の画像D1の特徴を示すデータを、S107又はS108で取得したタグ名が示す、当該原稿の種類を判別するための例えばディープラーニング用の学習データとして収集する(S110)。制御部31は、このディープラーニングの学習データを記憶部28に記憶させる(S110)。 Further, the control unit 31 uses the data indicating the characteristics of the image D1 of the manuscript extracted in S109, which is indicated by the tag name acquired in S107 or S108, for example, learning data for deep learning for determining the type of the manuscript. Collect as (S110). The control unit 31 stores the deep learning learning data in the storage unit 28 (S110).

上記では、制御部31による画像データの解析及び画像の特徴抽出の対象とされるのは、画像読取部11により読み取られた原稿画像とされているが、これに代えて、ネットワークインターフェイス部91により上記端末装置又はサーバー等から取得された画像を、画像データの解析及び画像の特徴抽出の対象としてもよい。 In the above, the target of image data analysis and image feature extraction by the control unit 31 is the original image read by the image reading unit 11, but instead, the network interface unit 91 An image acquired from the terminal device, server, or the like may be a target for image data analysis and image feature extraction.

例えば、原稿の種類を示すタグ名は、契約書、領収書、証明書、招待状、又はポスターなどである。また、制御部31は、画像処理部27により、原稿の画像の特徴として、画像の色相、コントラスト、色数、又は濃度などの要素を抽出する。学習データは、制御部31が行う上記ディープラーニングによる学習に用いられる。 For example, the tag name indicating the type of manuscript may be a contract, receipt, certificate, invitation, poster, or the like. Further, the control unit 31 extracts elements such as hue, contrast, number of colors, and density of the image as features of the image of the original by the image processing unit 27. The learning data is used for learning by the deep learning performed by the control unit 31.

例えば、管理者が、招待状を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、トレーニングモードの設定を入力し、「招待状」をタグ名として入力すると共に、スキャンの実行を指示したものとする。制御部31は、タグ名として「招待状」を取得し、画像読取部11により招待状の画像を読取らせて、招待状の画像を示す画像データを画像メモリー26に記憶させ、画像処理部27により画像データに対して各種の処理を施させる。そして、制御部31は、招待状の画像の特徴を抽出し、該招待状の画像の特徴を示すデータを、当該原稿の種類を判別するための学習データとして収集する。 For example, the administrator sets the invitation card in the image reading unit 11, operates the operation unit 22 or the touch panel 23, inputs the training mode setting, inputs the "invitation card" as the tag name, and scans. It is assumed that the execution is instructed. The control unit 31 acquires an "invitation card" as a tag name, causes the image reading unit 11 to read the image of the invitation card, stores the image data indicating the image of the invitation card in the image memory 26, and stores the image data indicating the image of the invitation card in the image processing unit. 27 causes various processing on the image data. Then, the control unit 31 extracts the features of the image of the invitation and collects the data showing the features of the image of the invitation as learning data for determining the type of the manuscript.

図7は、原稿の画像の特徴である画像の色相、コントラスト、色数、濃度と、タグ名である招待状、領収書との対応関係を例示する図表Aである。トレーニングモードでは、図7の図表Aに示すように、管理者により入力された各タグ名に対応する画像の特徴として、画像の色相、コントラスト、色数、濃度の組み合わせが用いられる例を示している。この例では、タグ名として、招待状及び領収書が用いられる場合を示している。 FIG. 7 is Chart A illustrating the correspondence between the hue, contrast, number of colors, and density of the image, which are the characteristics of the image of the manuscript, and the invitation and the receipt, which are the tag names. In the training mode, as shown in Chart A of FIG. 7, an example is shown in which a combination of hue, contrast, number of colors, and density of an image is used as an image feature corresponding to each tag name input by the administrator. There is. In this example, an invitation and a receipt are used as the tag name.

トレーニングモードが設定された状態で、管理者は、原稿を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、原稿の種類を示すタグ名を入力すると共に、スキャンの実行を指示する。制御部31は、画像読取部11により読取られた原稿の画像の特徴を抽出し、当該原稿の画像の特徴を示すデータを、該原稿の種類を判別するための学習データとして収集する。 With the training mode set, the administrator sets the document in the image reading unit 11, operates the operation unit 22 or the touch panel 23, inputs a tag name indicating the type of the document, and executes scanning. Instruct. The control unit 31 extracts the characteristics of the image of the original document read by the image reading unit 11, and collects data indicating the characteristics of the image of the original document as learning data for determining the type of the original document.

本実施形態では、原稿の種類を判別するための処理に、ディープラーニングが用いられる。図6は、制御部31が行うディープラーニングの概念を示す図である。この図6に示すディープラーニングでは、入力層ILから画像の特徴を入力し、中間層(複数のノードML)を経由して出力層OLからタグ名を出力する。各ノードMLをどのように接続するか、あるいは各ノードMLが「どのような入力に対して、どのような出力を行うか」などを調整していくことで、つまり学習データを学習して生成するかあるいは更新することで、入力された画像の特徴に基づき取得されるタグ名を決定して出力するものとなっている。 In the present embodiment, deep learning is used for the process for determining the type of the original. FIG. 6 is a diagram showing a concept of deep learning performed by the control unit 31. In the deep learning shown in FIG. 6, the features of the image are input from the input layer IL, and the tag name is output from the output layer OL via the intermediate layer (plurality of nodes ML). By adjusting how each node ML is connected, or "what kind of input and what kind of output is performed" by each node ML, that is, learning data is learned and generated. By doing or updating, the tag name to be acquired is determined based on the characteristics of the input image and output.

このディープラーニングにおいて、トレーニングモードでは、管理者により入力されたタグ名に対応する画像の特徴として入力層ILから入力した画像の特徴を示す各要素を、ノードMLとして記憶する。当該ノードMLの集合が学習データの一例である。 In this deep learning, in the training mode, each element indicating the characteristics of the image input from the input layer IL as the characteristics of the image corresponding to the tag name input by the administrator is stored as the node ML. The set of the node ML is an example of learning data.

また、分類モードでは、出力層OLでは、入力層ILから入力した画像の特徴に対応するタグ名を暫定的に決定して出力する。この暫定的なタグ名が、管理者により正式なタグ名を示しているとして承認された場合は、各ノードMLを、当該承認されたタグ名と対応付けて記憶する。また、この暫定的なタグ名が、管理者により変更された場合には、各ノードMLが更新され、暫定的に決定されるタグ名が、管理者により変更されたタグ名に一致するまでその更新が行われる(すなわち、学習データが更新される)。各ノードMLの階層が深くなり、各ノードMLが多くなる程、複雑な分類や判断ができるようになり、入力された画像の特徴に対応するタグ名を正確に判定可能となる。従って、ディープラーニングの学習データは、トレーニングモード及び分類モードで処理された原稿の画像が多くなり、これにより各ノードMLの階層が深くなって、各ノードMLが多くなることでより有効なものとなる。好ましくは、正確なタグ名の取得率(暫定的に決定されたタグ名が、管理者により正式なタグ名を示しているとして承認される率)が例えば95%以上となるように、トレーニングモードで処理された原稿の画像を増やすようにする。 Further, in the classification mode, the output layer OL tentatively determines the tag name corresponding to the feature of the image input from the input layer IL and outputs the tag name. When this provisional tag name is approved by the administrator as indicating a formal tag name, each node ML is stored in association with the approved tag name. If this provisional tag name is changed by the administrator, each node ML is updated until the provisionally determined tag name matches the tag name changed by the administrator. Updates are made (ie, the training data is updated). The deeper the hierarchy of each node ML and the larger the number of each node ML, the more complicated classification and judgment can be performed, and the tag name corresponding to the feature of the input image can be accurately determined. Therefore, the deep learning learning data is more effective because the number of images of the manuscript processed in the training mode and the classification mode increases, which deepens the hierarchy of each node ML and increases each node ML. Become. Preferably, the training mode is such that the correct tag name acquisition rate (the rate at which the tentatively determined tag name is approved by the administrator as indicating the official tag name) is, for example, 95% or more. Try to increase the number of images of the original processed in.

なお、制御部31は、原稿の種類を判別するための処理に、ディープラーニングを用いずに、タグ名に対応付けて収集した原稿の画像の特徴を用い、タグ名と、収集した原稿の画像の特徴との対応関係に基づいて、原稿の種類を判別するものとしてもよい。 In addition, the control unit 31 uses the characteristics of the image of the original document collected in association with the tag name without using deep learning in the process for determining the type of the original, and the tag name and the image of the collected original document. The type of the original may be determined based on the correspondence with the characteristics of.

次に、上記分類モードでの処理手順を、図8に示すフローチャートなどを参照して詳細に説明する。 Next, the processing procedure in the above classification mode will be described in detail with reference to the flowchart shown in FIG.

ユーザーは、操作部22又はタッチパネル23を操作して、ドキュメント分類機能の実行を指示する。制御部31は、ドキュメント分類機能の実行の指示に応じて図4に示す分類機能入力画面G1を表示部21に表示させる(S201)。 The user operates the operation unit 22 or the touch panel 23 to instruct the execution of the document classification function. The control unit 31 causes the display unit 21 to display the classification function input screen G1 shown in FIG. 4 in response to an instruction to execute the document classification function (S201).

ユーザーは、操作部22又はタッチパネル23を操作して、自己の識別情報IDをテキストボックスTB1に記入して、分類モードのキーK12を操作する。制御部31は、この操作に基づいて分類モードの設定指示が操作部22又はタッチパネル23に入力されたとき(S202でYES)、分類モードを設定する(S203)。なお、この設定指示の入力がないときは(S202でNO)、処理は終了する。 The user operates the operation unit 22 or the touch panel 23 to enter his / her identification information ID in the text box TB1 and operates the key K12 in the classification mode. The control unit 31 sets the classification mode when the classification mode setting instruction is input to the operation unit 22 or the touch panel 23 based on this operation (YES in S202) (S203). If there is no input of this setting instruction (NO in S202), the process ends.

このように分類モードが設定された状態で、ユーザーが、原稿を画像読取部11にセットし、操作部22又はタッチパネル23を操作して、スキャンの実行を指示すると、制御部31は、画像読取部11により原稿の画像を読取らせ、原稿の画像を示す画像データを画像メモリー26に記憶させ、画像処理部27により画像データに対して各種の処理を施させる(S204)。この分類モードでの画像処理部27による各種の処理も、トレーニングモードと同様に、原稿の画像の特徴を正確に抽出させるために行われる画像の濃度、コントラスト、エッジ、コーナーを強調する処理等である。 With the classification mode set in this way, when the user sets the document in the image reading unit 11 and operates the operation unit 22 or the touch panel 23 to instruct the execution of scanning, the control unit 31 reads the image. The image of the original is read by the unit 11, the image data indicating the image of the original is stored in the image memory 26, and the image processing unit 27 performs various processing on the image data (S204). Similar to the training mode, the various processes performed by the image processing unit 27 in this classification mode are also the processes for emphasizing the density, contrast, edges, and corners of the image, which are performed to accurately extract the features of the image of the original. is there.

また、制御部31は、図9に示すような分類モード設定画面G3を表示部21に表示させる(S205)。この図9に示す分類モード設定画面G3には、画像読取部11により読取られた原稿の画像データD2、及び開始キーK31が表示されている。 Further, the control unit 31 causes the display unit 21 to display the classification mode setting screen G3 as shown in FIG. 9 (S205). On the classification mode setting screen G3 shown in FIG. 9, the image data D2 of the document read by the image reading unit 11 and the start key K31 are displayed.

例えば、ユーザーが、表示部21に表示されている開始キーK31にタッチ操作すると、制御部31は、タッチパネル23を通じて開始キーK31のタッチ操作に基づいて分類処理の実行指示を受け付け、この指示に従って、画像処理部27により画像メモリー26内の原稿の画像データD2を示す画像データを解析して、原稿の画像データD2の特徴を抽出すると共に、原稿の画像データD2の特徴、及び記憶部28に記憶されている上記ディープラーニングで得た学習データに基づいて、原稿の画像データD2のタグ名を判別する(S206)。そして、制御部31は、図10に示すようなポップアップ画面P1を分類モード設定画面G3内に表示させる。この図10に示すポップアップ画面P1には、S206で判別された原稿の画像データD2のタグ名と共に、OKキーK32、及びNGキーK33が表示される。 For example, when the user touches the start key K31 displayed on the display unit 21, the control unit 31 receives an instruction to execute the classification process based on the touch operation of the start key K31 through the touch panel 23, and follows this instruction. The image processing unit 27 analyzes the image data indicating the image data D2 of the original in the image memory 26, extracts the characteristics of the image data D2 of the original, and stores the characteristics of the image data D2 of the original and the storage unit 28. The tag name of the image data D2 of the manuscript is determined based on the learning data obtained by the above-mentioned deep learning (S206). Then, the control unit 31 displays the pop-up screen P1 as shown in FIG. 10 in the classification mode setting screen G3. On the pop-up screen P1 shown in FIG. 10, the OK key K32 and the NG key K33 are displayed together with the tag name of the image data D2 of the original document determined in S206.

ユーザーは、ポップアップ画面P1の原稿の画像データD2のタグ名が正しいと判断すると、OKキーK32にタッチ操作する。制御部31は、タッチパネル23を通じてOKキーK32のタッチ操作を検出すると(S207「OK」)、S206で判別したタグ名を示す情報を原稿の画像データD2に付加する(S208)。すなわち、制御部31は、原稿の画像データD2を分類する。そして、制御部31はS206で抽出した当該原稿の画像データD2の特徴を用いて、当該原稿の種類を示すタグ名を判別するためのディープラーニングの学習データを更新し、この学習データを記憶部28に記憶させる(S209)。 When the user determines that the tag name of the image data D2 of the document on the pop-up screen P1 is correct, he / she touches the OK key K32. When the control unit 31 detects the touch operation of the OK key K32 through the touch panel 23 (S207 “OK”), the control unit 31 adds information indicating the tag name determined in S206 to the image data D2 of the document (S208). That is, the control unit 31 classifies the image data D2 of the original. Then, the control unit 31 updates the deep learning learning data for determining the tag name indicating the type of the manuscript by using the feature of the image data D2 of the manuscript extracted in S206, and stores this learning data. It is stored in 28 (S209).

また、ユーザーは、ポップアップ画面P1の原稿の画像データD2のタグ名が誤っていると判断すると、NGキーK33にタッチ操作する。制御部31は、タッチパネル23を通じてNGキーK33のタッチ操作を検出すると(S207「NG」)、図11に示すようなポップアップ画面P2を分類モード設定画面G3内に表示させる。この図11に示すポップアップ画面P2には、新たな原稿の種類を示すタグ名を入力するためのテキストボックスTB3、既に設定されている各タグ名に対応付けられたそれぞれのキーK21、K22、K23、K24、K25…、及びOKキーK41が表示されている。 Further, when the user determines that the tag name of the image data D2 of the document on the pop-up screen P1 is incorrect, the user touches the NG key K33. When the control unit 31 detects the touch operation of the NG key K33 through the touch panel 23 (S207 “NG”), the control unit 31 displays the pop-up screen P2 as shown in FIG. 11 in the classification mode setting screen G3. In the pop-up screen P2 shown in FIG. 11, a text box TB3 for inputting a tag name indicating a new document type, and keys K21, K22, and K23 associated with each tag name already set are displayed. , K24, K25 ..., And OK key K41 are displayed.

ユーザーは、表示部21に表示されている原稿の画像データD2を確認し、各キーK21、K22、…のいずれかが該原稿の種類を示すタグ名に対応付けられていれば、該当するキーを操作し、制御部31は、タッチパネル23を通じて各キーK21、K22、…のいずれかのタッチ操作を検出すると、該操作されたキーに対応付けられている原稿の種類を示すタグ名を、当該原稿の画像データに付加すべき正式なタグ名として取得する(S210)。一方、各キーK21、K22、…のいずれも該原稿の種類を示すタグ名に対応付けられていなければ、ユーザーは操作部22又はタッチパネル23を操作して、新たな原稿の種類を示すタグ名をテキストボックスTB3に記入し、OKキーK41にタッチ操作する。制御部31は、OKキーK41のタッチ操作を検出した場合は、テキストボックスTB3に記入された新たな原稿の種類を示すタグ名を、当該原稿の画像に付加すべき正式なタグ名として取得する(S210)。制御部31は、S210で取得したタグ名を示す情報を原稿の画像データD2に付加する。 The user confirms the image data D2 of the manuscript displayed on the display unit 21, and if any of the keys K21, K22, ... Is associated with the tag name indicating the type of the manuscript, the corresponding key. When the control unit 31 detects a touch operation of any of the keys K21, K22, ... Through the touch panel 23, the control unit 31 assigns a tag name indicating the type of the document associated with the operated key. Obtained as a formal tag name to be added to the image data of the manuscript (S210). On the other hand, if none of the keys K21, K22, ... Is associated with the tag name indicating the type of the original, the user operates the operation unit 22 or the touch panel 23 to indicate the new type of the original. Is entered in the text box TB3, and the OK key K41 is touch-operated. When the control unit 31 detects the touch operation of the OK key K41, the control unit 31 acquires the tag name indicating the new document type entered in the text box TB3 as the official tag name to be added to the image of the document. (S210). The control unit 31 adds information indicating the tag name acquired in S210 to the image data D2 of the original.

そして、制御部31は、ここで用いた原稿の画像データD2の特徴を、S210で取得したタグ名を判別するための学習データとして収集し、この原稿の画像データD2の特徴を用いて、上述したようにしてディープラーニングにより学習データを更新し、更新した学習データを記憶部28に記憶させる(S209)。 Then, the control unit 31 collects the characteristics of the image data D2 of the manuscript used here as learning data for discriminating the tag name acquired in S210, and uses the characteristics of the image data D2 of the manuscript to describe the above. In this way, the learning data is updated by deep learning, and the updated learning data is stored in the storage unit 28 (S209).

上記では、制御部31による画像データの解析及び画像の特徴抽出の対象とされるのは、画像読取部11により読み取られた原稿画像とされているが、これに代えて、ネットワークインターフェイス部91により上記端末装置又はサーバー等から取得された画像を、画像データの解析及び画像の特徴抽出の対象としてもよい。 In the above, the target of image data analysis and image feature extraction by the control unit 31 is the original image read by the image reading unit 11, but instead, the network interface unit 91 An image acquired from the terminal device, server, or the like may be a target for image data analysis and image feature extraction.

従って、ユーザーは、分類モードを設定し、画像読取部11により原稿の画像を読取らせるだけで、該原稿の画像の分類を自動的に行わせることができ、該原稿の画像が正しく分類されなければ、新たな原稿の種類を示す正しいタグ名を入力して、新たな原稿の画像の特徴に基づきその入力した正しいタグ名が導出されるようにディープラーニングの学習データを更新させることができる。 Therefore, the user can automatically classify the image of the original by simply setting the classification mode and having the image reading unit 11 read the image of the original, and the image of the original is correctly classified. If not, it is possible to input the correct tag name indicating the new manuscript type and update the deep learning learning data so that the input correct tag name is derived based on the characteristics of the image of the new manuscript. ..

図12乃至図15は、原稿の画像データに対するタグ名を示す情報の付加の例を示している。 12 to 15 show an example of adding information indicating a tag name to the image data of the manuscript.

図12は、表示部21に表示された原稿の画像のプロパティPR1を示している。制御部31は、原稿の画像データに、当該原稿の画像に対するタグ名を示す情報を付加して当該原稿の画像データとともに記憶しておき、当該タグ名を、当該原稿の画像について表示するプロパティ画像としてのプロパティPR1において、その表示項目の一つとして項目Q1(ドキュメントの種類)に表示させる。 FIG. 12 shows the property PR1 of the image of the original displayed on the display unit 21. The control unit 31 adds information indicating a tag name for the image of the manuscript to the image data of the manuscript, stores it together with the image data of the manuscript, and displays the tag name for the image of the manuscript. In the property PR1 as, it is displayed in the item Q1 (document type) as one of the display items.

図13は、表示部21に表示された原稿の画像のプロパティPR2を示している。制御部31は、原稿の画像データに、当該原稿の画像に対するタグ名を示す情報を付加して当該原稿の画像データとともに記憶しておき、当該タグ名を、当該原稿の画像について表示するプロパティ画像としてのプロパティPR2において、その表示項目の一つとして項目Q2(タグ)に表示させる。 FIG. 13 shows the property PR2 of the image of the original displayed on the display unit 21. The control unit 31 adds information indicating a tag name for the image of the manuscript to the image data of the manuscript, stores it together with the image data of the manuscript, and displays the tag name for the image of the manuscript. In the property PR2 as, it is displayed in the item Q2 (tag) as one of the display items.

図14は、制御部31により表示部21に表示されるファイルの一覧FRを示している。制御部31は、原稿の画像データに、当該原稿の画像に対するタグ名を示す情報を付加して当該原稿の画像データとともに記憶しておき、当該タグ名を、ファイルの一覧を示す画像である一覧画像FRにおけるタグ名の項目Q3に表示させる。 FIG. 14 shows a list FR of files displayed on the display unit 21 by the control unit 31. The control unit 31 adds information indicating a tag name for the image of the manuscript to the image data of the manuscript and stores it together with the image data of the manuscript, and stores the tag name as an image indicating a list of files. It is displayed in the item Q3 of the tag name in the image FR.

図15は、制御部31により表示部21に表示される送信設定画面の一例を示す。制御部31は、原稿の画像データに当該原稿の画像に対するタグ名を示す情報を付加して当該原稿の画像データとともに記憶しておき、原稿の画像データを画像処理装置10に接続された例えばコンピューター内の記憶部にあるフォルダに向けて送信するときの送信設定を行う設定画面G5を表示部21に表示させるとき、当該タグ名を、設定画面G5におけるプレビュー画像表示領域FR2におけるタグ名の項目Q5に表示させる。すなわち、当該タグ名はプレビュー表示時に原稿に関する情報として表示される。 FIG. 15 shows an example of a transmission setting screen displayed on the display unit 21 by the control unit 31. The control unit 31 adds information indicating a tag name for the image of the manuscript to the image data of the manuscript and stores it together with the image data of the manuscript, and stores the image data of the manuscript together with the image data of the manuscript, for example, a computer connected to the image processing device 10. When the setting screen G5 for setting the transmission when transmitting to the folder in the storage unit is displayed on the display unit 21, the tag name is displayed in the item Q5 of the tag name in the preview image display area FR2 on the setting screen G5. To display. That is, the tag name is displayed as information about the original when the preview is displayed.

このようなプロパティやファイルの一覧に対するタグ名の表示により、実行された原稿の画像の分類が容易に確認可能となる。 By displaying the tag name for such a property or a list of files, it is possible to easily confirm the classification of the image of the executed manuscript.

尚、上記実施形態では、本発明の一実施形態を、画像処理装置(複合機)を用いて説明しているが、これは一例に過ぎず、コピー機、プリンター、ファクシミリ装置等の他の画像処理装置でもよい。 In the above embodiment, one embodiment of the present invention is described using an image processing device (multifunction device), but this is only an example, and other images such as a copier, a printer, and a facsimile machine. It may be a processing device.

また、図1乃至図15を用いて説明した上記実施形態の構成及び処理は、本発明の一例に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。 Further, the configuration and processing of the above-described embodiment described with reference to FIGS. 1 to 15 are merely examples of the present invention, and the present invention is not intended to be limited to the configuration and processing.

10 画像処理装置
11 画像読取部
12 画像形成部
21 表示部
22 操作部
23 タッチパネル
28 記憶部
29 制御ユニット
31 制御部
91 ネットワークインターフェイス部
10 Image processing device 11 Image reading unit 12 Image forming unit 21 Display unit 22 Operation unit 23 Touch panel 28 Storage unit 29 Control unit 31 Control unit 91 Network interface unit

Claims (5)

原稿の画像データを取得する画像取得部と、
ユーザーによる操作で設定及び指示が入力される操作部と、
前記操作部に入力される指示に従ってトレーニングモード又は分類モードを設定する制御部とを備え、
前記制御部は、
前記操作部への操作により前記トレーニングモードの設定が入力された場合に、前記画像取得部により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴を示すデータを、該原稿の種類を判別するための学習データとして収集し、
前記操作部への操作により前記分類モードが設定された場合には、前記画像取得部により画像データが取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴及び前記学習データに基づき当該原稿の種類を判別し、該判別した種類を示す情報を当該原稿の画像データに付加する画像処理装置。
The image acquisition unit that acquires the image data of the manuscript and
The operation unit where settings and instructions are input by user operation,
A control unit for setting a training mode or a classification mode according to an instruction input to the operation unit is provided.
The control unit
When the training mode setting is input by operating the operation unit, the characteristics of the image of the manuscript whose image data has been acquired by the image acquisition unit are extracted, and the data indicating the characteristics of the image of the manuscript is obtained. , Collected as learning data to determine the type of the manuscript,
When the classification mode is set by the operation to the operation unit, the feature of the image of the manuscript whose image data has been acquired by the image acquisition unit is extracted, and the feature of the image of the manuscript and the learning data are used. An image processing device that discriminates the type of the manuscript based on the above and adds information indicating the discriminated type to the image data of the manuscript.
前記制御部は、前記分類モードでの前記原稿の種類の判別後、前記操作部への操作により異なる原稿の種類が入力された場合、前記判別した種類に代えて、当該入力された種類を示す情報を前記原稿の画像データに付加すると共に、当該判別に用いた学習データを、当該入力された異なる原稿の種類に対応付けて記憶させる請求項1に記載の画像処理装置。 When a different document type is input by operating the operation unit after determining the type of the document in the classification mode, the control unit indicates the input type instead of the determined type. The image processing apparatus according to claim 1, wherein the information is added to the image data of the manuscript, and the learning data used for the determination is stored in association with the input different types of manuscripts. 前記制御部は、前記原稿の画像の特徴として、該画像データの色相、コントラスト、色数、又は濃度を抽出する請求項1又は請求項2に記載の画像処理装置。 The image processing device according to claim 1 or 2, wherein the control unit extracts the hue, contrast, number of colors, or density of the image data as a feature of the image of the original document. 表示部を更に備え、
前記制御部は、前記分類モードで判別した原稿の種類を、前記取得された原稿の画像データに対応付けて前記表示部に表示させる請求項1乃至請求項3のいずれか1つに記載の画像処理装置。
With a further display
The image according to any one of claims 1 to 3, wherein the control unit associates the type of the original document determined in the classification mode with the image data of the acquired original document and displays it on the display unit. Processing equipment.
原稿の画像データを取得する画像取得ステップと、
ユーザーによる操作部の操作を受け付ける操作ステップと、
前記操作ステップでトレーニングモードが設定された場合に、前記画像取得ステップで画像データを取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴を示すデータを、該原稿の種類を判別するための学習データとして収集し、前記操作ステップで分類モードが設定された場合には、前記画像取得ステップで画像データを取得された原稿の画像の特徴を抽出して、当該原稿の画像の特徴及び前記学習データに基づき当該原稿の種類を判別し、該判別した種類を示す情報を当該原稿の画像データに付加する制御ステップと、を含む画像処理方法。
The image acquisition step to acquire the image data of the manuscript and
Operation steps that accept user operations on the operation unit,
When the training mode is set in the operation step, the characteristics of the image of the manuscript whose image data has been acquired in the image acquisition step are extracted, and the data indicating the characteristics of the image of the manuscript is used to obtain the type of the manuscript. Collected as learning data for discrimination, when the classification mode is set in the operation step, the characteristics of the image of the document for which the image data was acquired in the image acquisition step are extracted, and the image of the document is An image processing method including a control step of discriminating the type of the manuscript based on the features and the learning data and adding information indicating the discriminated type to the image data of the manuscript.
JP2019022831A 2019-02-12 2019-02-12 Image processing apparatus and image processing method Pending JP2020134964A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019022831A JP2020134964A (en) 2019-02-12 2019-02-12 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022831A JP2020134964A (en) 2019-02-12 2019-02-12 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2020134964A true JP2020134964A (en) 2020-08-31

Family

ID=72263073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022831A Pending JP2020134964A (en) 2019-02-12 2019-02-12 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2020134964A (en)

Similar Documents

Publication Publication Date Title
US7797150B2 (en) Translation system using a translation database, translation using a translation database, method using a translation database, and program for translation using a translation database
US10755092B2 (en) Image forming apparatus that gives color respectively different from one another to text area for each of various kinds of languages or selectively deletes text area for each of various kinds of language
JP6885318B2 (en) Image processing device
EP2879036A1 (en) Display input device, image forming apparatus, and control method of display input device
JP2019109628A5 (en)
CN111510576A (en) Image forming apparatus with a toner supply device
US11297199B2 (en) Image processing apparatus that generates cover page from source image
JP6885319B2 (en) Image processing device
JP2020134964A (en) Image processing apparatus and image processing method
JP2019109629A5 (en)
US11849086B2 (en) Image processing apparatus capable of extracting portion of document image specified by preset index and subjecting character string in extracted portion to processing associated with index
JP7115162B2 (en) ELECTRONIC DEVICE, IMAGE FORMING APPARATUS, E-MAIL CREATION SUPPORT METHOD AND E-MAIL CREATION SUPPORT PROGRAM
CN114661254A (en) Information processing apparatus and document management method
JP2018077794A (en) Image processing device and image forming apparatus
JP2022020412A (en) Image processing device and information processing system
US10725414B2 (en) Image forming apparatus that displays job list
JP2020086536A (en) Electronic apparatus and image forming device
JP6702262B2 (en) Image forming apparatus and image forming system
CN115297215B (en) Image processing apparatus and image forming apparatus
JP7419942B2 (en) Image processing device and image forming device
US11825041B2 (en) Image processing apparatus and image forming apparatus capable of classifying respective images of plurality of pages of original document based on plurality of topic words
JP2012247918A (en) File name creating device and file name creating program
WO2021033603A1 (en) Image-reading device
JP6705430B2 (en) Image forming device
JP2021137980A (en) Printer

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200619