JP2024032563A - Information processing device, control method and program for information processing device - Google Patents

Information processing device, control method and program for information processing device Download PDF

Info

Publication number
JP2024032563A
JP2024032563A JP2022136284A JP2022136284A JP2024032563A JP 2024032563 A JP2024032563 A JP 2024032563A JP 2022136284 A JP2022136284 A JP 2022136284A JP 2022136284 A JP2022136284 A JP 2022136284A JP 2024032563 A JP2024032563 A JP 2024032563A
Authority
JP
Japan
Prior art keywords
information
series
processes
learned
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022136284A
Other languages
Japanese (ja)
Inventor
要 會澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022136284A priority Critical patent/JP2024032563A/en
Publication of JP2024032563A publication Critical patent/JP2024032563A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】情報処理装置、情報処理装置の制御方法及びプログラムを提供する。【解決手段】帳票のスキャン画像データから文字領域の情報を抽出し、学習データと照合して類似帳票を判定し、対応する文字領域の文字列の認識し学習を行い、学習データをワークフロー毎に記憶する情報処理装置であって、ワークフローで取得する文字領域を学習時に、類似帳票で学習済みのワークフローの一覧を表示しS901、一覧から選択された学習済みのワークフローの抽出する文字領域と、情報の項目のリストを表示しS903、学習済みのワークフローでの情報項目との関連付けを受け付けS904、ワークフローの学習データをワークフローに引き継ぐS909。【効果】表示画面上で学習済みのワークフローと新たなワークフローの抽出する文字領域が容易に関連付けすることができ、学習データを引き継ぐことにより、メタデータの設定するための学習の手間を軽減することができる。【選択図】図9An information processing device, a method for controlling the information processing device, and a program are provided. [Solution] Extract character area information from scanned image data of a form, compare it with learning data to determine similar forms, recognize and learn character strings in the corresponding character area, and use the learning data for each workflow. An information processing device for storing, at the time of learning a character region to be acquired in a workflow, displays a list of learned workflows with similar forms in step S901, and displays a character region to be extracted in a learned workflow selected from the list and information. A list of items is displayed in step S903, an association with information items in the learned workflow is accepted in step S904, and learning data of the workflow is carried over to the workflow in step S909. [Effect] It is possible to easily associate the extracted character area of a learned workflow with a new workflow on the display screen, and by inheriting the learning data, the effort of learning to set metadata is reduced. Can be done. [Selection diagram] Figure 9

Description

本発明は、一連の処理であるワークフローで設定する値をMFP又はPCの画面で表示するスキャン画像から文字領域を学習し抽出し、別のワークフローに学習データを引き継ぐ処理を行う情報処理装置、情報処理装置の制御方法及びプログラムに関する。 The present invention relates to an information processing apparatus and information processing apparatus that learns and extracts character areas from a scanned image displayed on an MFP or PC screen to set values in a workflow, which is a series of processing, and carries over the learning data to another workflow. The present invention relates to a control method and program for a processing device.

従来、紙帳票をスキャンして電子化し、該帳票の記載内容に基づいて電子化した帳票画像のファイル名やクラウドサービスなどの管理装置内で使用するメタデータとして設定することで帳票管理をするシステムがある。このファイル名やメタデータを設定する方法として、帳票画像に文字認識処理を実行した認識結果に基づいて設定する方法がある。また、ユーザがファイル名やメタデータの設定で使用した文字領域を学習することにより、類似するフォーマットの帳票が学習されているかを判定し、スキャンされた際にファイル名やメタデータで使用する文字列をユーザに提示することが可能となる。またスキャン処理からファイル名やメタデータの値を設定、情報処理装置への送信などをワークフローとして定義することで使用用途ごとに一連の処理として複数設定が可能となる。 Conventionally, a system that manages forms by scanning paper forms and digitizing them, and setting the file name of the digitized form image based on the contents of the form and metadata used in a management device such as a cloud service. There is. As a method for setting the file name and metadata, there is a method of setting the file name and metadata based on the recognition result obtained by performing character recognition processing on the form image. In addition, by learning the character area used by the user in file name and metadata settings, it is possible to determine whether a form with a similar format has been learned, and to use the characters used in the file name and metadata when scanned. It becomes possible to present columns to the user. In addition, by defining scan processing, setting file names and metadata values, sending data to an information processing device, etc. as a workflow, multiple settings can be made as a series of processes for each usage.

上記のようなシステムにおいて、各ワークフローが帳票からどの情報をファイル名やメタデータとして使用するかが異なるため、抽出する文字領域についてはワークフローごとに学習する必要がある。また帳票を管理する情報処理装置を変更するときや、用途ごとに別の情報処理装置と使い分ける状況又は抽出する文字領域を変更する必要があるとき、ワークフローを新たに作成する必要がある。その際、帳票フォーマットごとに新しく各項目を学習する必要がある。例えば帳票管理に使用していたクラウドサービスを新しいクラウドサービスに移行した際、使用するメタデータの項目が変わることがある。以前メタデータ「Name」として学習した文字領域の文字列を、新しいクラウドサービスのメタデータ「Title」として使用したいとき、同じ情報を使用したい場合でも帳票をフォーマットごとに学習し直さなければならない。そのため既に以前のワークフローで多くのフォーマットの帳票を学習していた場合、同じ種類の数だけ学習し直す必要がありユーザの作業の負荷となる。
特許文献1には、第一メタデータを別の第二メタデータに引き継ぐ技術が開示されている。第一メタデータの項目を定義したファイルを用意し、そのファイルに第一のメタデータと同一情報を使用する他の第二メタデータとの対応関係を記載する。この定義ファイルを基にメタデータを設定するUIを表示し、第一のメタデータに値を設定すると、第二のメタデータにも同じ情報が付与される。
In the above system, each workflow uses different information from the form as a file name or metadata, so it is necessary to learn the character areas to be extracted for each workflow. Furthermore, when changing the information processing device that manages the form, when using a different information processing device for each purpose, or when it is necessary to change the character area to be extracted, it is necessary to create a new workflow. At that time, it is necessary to newly learn each item for each form format. For example, when migrating a cloud service used for form management to a new cloud service, the metadata items used may change. If you want to use a character string in a character area that was previously learned as metadata ``Name'' as metadata ``Title'' for a new cloud service, you will have to relearn the form for each form even if you want to use the same information. Therefore, if many formats of forms have already been learned in the previous workflow, it is necessary to relearn the same number of formats, which becomes a burden on the user.
Patent Document 1 discloses a technique for inheriting first metadata to another second metadata. A file defining items of first metadata is prepared, and a correspondence relationship between the first metadata and other second metadata that uses the same information is described in the file. When a UI for setting metadata based on this definition file is displayed and a value is set for the first metadata, the same information is given to the second metadata.

特開2008-134915号公報Japanese Patent Application Publication No. 2008-134915

しかしながら特許文献1に記載のものでは、メタデータ間の対応関係の定義をファイルとして用意する必要があり、メタデータの項目が変わる度に定義したファイルを修正する必要がありユーザに作業負荷がかかる。また、メタデータ名のみからメタデータ同士を対応付けようとすると、類似のメタデータ名が複数あったときやメタデータの項目数が多いと対応付け誤る可能性がある。
本発明では、スキャンした帳票の内容からファイル名やメタデータを設定する際、既に別のワークフローで同じ文字領域を学習済みであった場合、学習データの引き継ぎ作業を容易にし、ファイル名やメタデータの設定を可能とすることを目的とする。また、ファイル名やメタデータの引き継ぎする際、引き継ぎ元が帳票内のどの情報を選択しているか確認できるようにし、引き継ぎ先が取得したい情報と同じであるか確認できるようにすることで誤りを軽減させる。
However, in the method described in Patent Document 1, it is necessary to prepare a definition of the correspondence between metadata as a file, and the defined file must be modified every time an item of metadata changes, which imposes a workload on the user. . Furthermore, if you attempt to associate metadata with each other based only on the metadata name, there is a possibility that the association will be incorrect if there are multiple similar metadata names or if there are a large number of metadata items.
In the present invention, when setting a file name and metadata from the contents of a scanned form, if the same character area has already been learned in another workflow, it is possible to easily carry over the learning data and set the file name and metadata. The purpose is to enable the setting of In addition, when transferring file names and metadata, it is possible to check which information in the form has been selected by the transfer source, and to check whether the transfer destination is the same information as the information you want to obtain. reduce.

本発明は、帳票のスキャン画像データから文字領域の情報を抽出する抽出手段と、該抽出された文字領域の情報に基づき、学習データと照合して類似帳票を判定する判定手段と、該類似帳票に対応する文字領域の文字列の認識を行う認識手段と、該文字領域の学習を行う学習手段と、前記文字領域の学習データを一連の処理ごとに記憶する記憶手段とを有する情報処理装置であって、第1の一連の処理において取得する文字領域を学習する際、スキャン画像の類似帳票を学習済みの一連の処理の一覧を表示する第1の表示手段と、ユーザが前記学習済みの一連の処理の一覧から学習済みの第2の一連の処理を選択することにより、前記第2の一連の処理の学習済みの抽出する文字領域と、情報の項目のリストを表示する第2の表示手段と、前記学習済みの第2の一連の処理で抽出する情報の項目と学習を行う第1の一連の処理で送信する情報の項目との関連付けを受け付ける受付手段と、該関連付けに基づいて第2の一連の処理の学習データを第1の一連の処理の学習データに複製する複製手段を有することを特徴とする。 The present invention provides an extraction means for extracting character area information from scanned image data of a form, a determination means for comparing the extracted character area information with learning data to determine a similar form, and An information processing apparatus comprising: a recognition means for recognizing a character string in a character region corresponding to a character region; a learning means for learning the character region; and a storage means for storing learning data for the character region for each series of processing. When learning character regions to be acquired in the first series of processing, a first display means for displaying a list of a series of learned processes for similar forms of scanned images; a second display means for displaying a list of learned character regions to be extracted and information items of the second series of processes by selecting a learned second series of processes from a list of processes; a receiving means for accepting an association between an item of information to be extracted in the learned second series of processing and an item of information to be transmitted in the first series of processing for learning; The method is characterized by having a duplication means for duplicating the learning data of the series of processes into the learning data of the first series of processes.

本発明によれば、表示画面上で学習済みのワークフローと新たなワークフローの抽出する文字領域が容易に関連付けすることができ、学習データを引き継ぐことにより、メタデータの設定するための学習の手間を軽減することができる。 According to the present invention, it is possible to easily associate the extracted character area of a learned workflow with a new workflow on the display screen, and by taking over the learning data, the effort of learning for setting metadata is reduced. It can be reduced.

本システムの全体構成を示す図Diagram showing the overall configuration of this system MFPのハードウェア構成図MFP hardware configuration diagram クライアントPC及びMFP連携サービスのハードウェア構成図Hardware configuration diagram of client PC and MFP cooperation service 本システムのソフトウェア構成図Software configuration diagram of this system 各機器間の処理の流れを示すシーケンス図Sequence diagram showing the flow of processing between each device MFP又はクライアントPCが表示する画面の一例を示す図Diagram showing an example of a screen displayed by the MFP or client PC MFP又はクライアントPCが表示する画面の一例を示す図Diagram showing an example of a screen displayed by the MFP or client PC 画像処理部が行う画像解析処理のフローチャートFlowchart of image analysis processing performed by the image processing unit 画像処理部が行う解析結果保存処理で保存するデータのデータ構造Data structure of data saved in analysis result saving processing performed by the image processing unit 学習データの引き継ぎ処理の詳細を示すフローチャートFlowchart showing details of learning data transfer process MFP又はクライアントPCが表示する学習データの引き継ぎ画面Learning data transfer screen displayed by MFP or client PC MFP又はクライアントPCが表示する学習データの引き継ぎ画面Learning data transfer screen displayed by MFP or client PC MFP又はクライアントPCが表示する学習データの引き継ぎ画面Learning data transfer screen displayed by MFP or client PC MFP又はクライアントPCが表示する学習データの引き継ぎ画面Learning data transfer screen displayed by MFP or client PC MFP又はクライアントPCが表示する学習データの引き継ぎ画面Learning data transfer screen displayed by MFP or client PC

以下、本発明を実施するための形態について図面を用いて説明する。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。 EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing this invention is demonstrated using drawings. Note that the following embodiments do not limit the claimed invention, and not all combinations of features described in the embodiments are essential to the solution of the invention.

〔第1実施形態〕
<システム構成>
図1は、情報処理システムの全体構成を示す図である。情報処理システムは、MFP(Multifunction Peripheral)110、クライアントPC111、MFP連携サービス120および外部のクラウドサービス130を含んでいる。MFP110及びクライアントPC111は、LAN(Local Area Network)経由でインターネット上の各種サービスを提供する各種装置に対して通信可能に接続されている。
MFP110は、スキャナやプリンタといった複数の機能を有する複合機であり、画像処理装置の一例である。クライアントPC111は、インターネットを介して外部のクラウドサービスの提供を受けることが可能なデスクトップ端末やモバイル端末等の情報処理装置である。
MFP連携サービス120は、MFP110から受け取ったスキャン画像に対し画像解析を行い、また別のサービスに対しMFP110からのリクエストを転送する機能を持つサービスであり、サーバーなどの情報処理装置が実行する。
クラウドサービス130は、クラウドストレージやドキュメント管理を行う外部のクラウドサービスである。インターネットを介してのファイルの保存や、ファイルに対するメタデータの設定のほか、ウェブブラウザでファイルを取得しメタデータの確認などができるサービスであり、サーバーなどの情報処理装置が実行する。
本実施形態の情報処理システムは、MFP110、クライアントPC111、MFP連携サービス120及びクラウドサービス130からなる構成としているがこれに限定されない。例えば、MFP110がクライアントPC111やMFP連携サービス120の役割を兼ね備えてもよい。また、MFP連携サービス120はインターネット上ではなくLAN上に配置されていてもよい。また、クラウドサービス130はメールサーバーなどに置き換えて、スキャンした画像をメールに添付し送信するようにしてもよい。
[First embodiment]
<System configuration>
FIG. 1 is a diagram showing the overall configuration of an information processing system. The information processing system includes an MFP (Multifunction Peripheral) 110, a client PC 111, an MFP cooperation service 120, and an external cloud service 130. The MFP 110 and the client PC 111 are communicably connected to various devices that provide various services on the Internet via a LAN (Local Area Network).
The MFP 110 is a multifunction device having multiple functions such as a scanner and a printer, and is an example of an image processing device. The client PC 111 is an information processing device such as a desktop terminal or a mobile terminal that can receive external cloud services via the Internet.
The MFP cooperation service 120 is a service that performs image analysis on a scanned image received from the MFP 110 and has a function of forwarding a request from the MFP 110 to another service, and is executed by an information processing device such as a server.
The cloud service 130 is an external cloud service that performs cloud storage and document management. It is a service that allows you to save files over the Internet, set metadata for files, and check metadata by acquiring files with a web browser, and is executed by an information processing device such as a server.
The information processing system of this embodiment has a configuration including an MFP 110, a client PC 111, an MFP cooperation service 120, and a cloud service 130, but is not limited thereto. For example, the MFP 110 may also serve as the client PC 111 and the MFP cooperation service 120. Furthermore, the MFP cooperation service 120 may be located on a LAN instead of on the Internet. Further, the cloud service 130 may be replaced with a mail server or the like, and the scanned image may be attached to an e-mail and sent.

<MFPのハードウェア構成>
図2は、MFP110のハードウェア構成図である。MFP110は、制御部210、操作部220、プリンタ部221、スキャナ部222、モデム223で構成される。
制御部210は、MFP110全体の動作を制御する。
CPU211は、ROM212に記憶された制御プログラムを読み出して、読取/印刷/通信などMFP110が有する各種機能を実行・制御する。
RAM213は、CPU211の主メモリ、ワークエリア等の一時記憶領域として用いられる。なお、本実施形態では1つのCPU211が1つのメモリ(RAM213又はHDD214)を用いて後述のフローチャートに示す各処理を実行するものとするが、これに限定されない。例えば、複数のCPUや複数のRAM又はHDDを協働させて各処理を実行してもよい。
<MFP hardware configuration>
FIG. 2 is a hardware configuration diagram of the MFP 110. The MFP 110 includes a control section 210, an operation section 220, a printer section 221, a scanner section 222, and a modem 223.
Control unit 210 controls the overall operation of MFP 110.
The CPU 211 reads a control program stored in the ROM 212 and executes and controls various functions of the MFP 110 such as reading/printing/communication.
The RAM 213 is used as a main memory of the CPU 211, a temporary storage area such as a work area, etc. In this embodiment, it is assumed that one CPU 211 uses one memory (RAM 213 or HDD 214) to execute each process shown in a flowchart described later, but the present invention is not limited to this. For example, each process may be executed by making multiple CPUs, multiple RAMs, or HDDs work together.

HDD214は、画像データや各種プログラムを記憶する大容量記憶部である。
操作部I/F215は、操作部220と制御部210とを接続するインタフェースである。
操作部220には、タッチパネルやキーボードなどが備えられており、ユーザによる操作/入力/指示を受け付ける。
プリンタI/F216は、プリンタ部221と制御部210とを接続するインタフェースである。印刷用の画像データはプリンタI/F216を介して制御部210からプリンタ部221へ転送され、記録媒体上に印刷される。
スキャナI/F217は、スキャナ部222と制御部210とを接続するインタフェースである。
スキャナ部222は、不図示の原稿台やADF(Auto Document Feeder)にセットされた原稿を読み取ってスキャン画像データを生成し、スキャナI/F217を介して制御部210に入力する。MFP110は、スキャナ部222で生成された画像データをプリンタ部221から印刷出力(コピー)する他、ファイル送信又はメール送信することができる。
モデムI/F218は、モデム223と制御部210とを接続するインタフェースである。
モデム223は、PSTN上のファクシミリ装置との間で画像データをファクシミリ通信する。
ネットワークI/F219は、制御部210(MFP110)をLANに接続するインタフェースである。MFP110は、ネットワークI/F219を用いて、インターネット上の各サービスに画像データや情報を送信したり、各種情報を受信したりする。
以上説明したMFP110のハードウェア構成は一例であり、必要に応じてその他の構成を備えるものであってもよいし、一部の構成を有していなくてもよい。
The HDD 214 is a large capacity storage unit that stores image data and various programs.
The operation unit I/F 215 is an interface that connects the operation unit 220 and the control unit 210.
The operation unit 220 is equipped with a touch panel, a keyboard, etc., and receives operations/inputs/instructions from the user.
The printer I/F 216 is an interface that connects the printer section 221 and the control section 210. Image data for printing is transferred from the control unit 210 to the printer unit 221 via the printer I/F 216 and printed on a recording medium.
Scanner I/F 217 is an interface that connects scanner section 222 and control section 210.
The scanner unit 222 reads a document set on a document table (not shown) or an ADF (Auto Document Feeder), generates scanned image data, and inputs the data to the control unit 210 via the scanner I/F 217. The MFP 110 can print out (copy) the image data generated by the scanner unit 222 from the printer unit 221, and can also send a file or email.
Modem I/F 218 is an interface that connects modem 223 and control unit 210.
The modem 223 performs facsimile communication of image data with a facsimile device on the PSTN.
The network I/F 219 is an interface that connects the control unit 210 (MFP 110) to the LAN. The MFP 110 uses the network I/F 219 to transmit image data and information to various services on the Internet, and to receive various information.
The hardware configuration of the MFP 110 described above is an example, and the MFP 110 may include other configurations as necessary, or may not include some of the configurations.

<クライアントPC、MFP連携サービスのハードウェア構成>
図3は、クライアントPC111又はMFP連携サービス120のハードウェア構成図である。クライアントPC111又はMFP連携サービス120は、少なくともCPU311、ROM312、RAM313、HDD314及びネットワークI/F315で構成される情報処理装置である。
CPU311は、ROM312に記憶された制御プログラムを読み出して各種処理を実行することで、全体の動作を制御する。
RAM313は、CPU311の主メモリ、ワークエリア等の一時記憶領域として用いられる。
HDD314は、画像データや各種プログラムを記憶する大容量記憶部である。
ネットワークI/F315は、クライアントPC又はMFP連携サービス120をインターネットに接続するインタフェースである。MFP連携サービス120及びクラウドサービス130は、ネットワークI/F315を介して他の装置(MFP110など)から処理リスエストを受けて各種情報を送受信する。
<Hardware configuration of client PC and MFP cooperation service>
FIG. 3 is a hardware configuration diagram of the client PC 111 or the MFP cooperation service 120. The client PC 111 or the MFP cooperation service 120 is an information processing device that includes at least a CPU 311, a ROM 312, a RAM 313, an HDD 314, and a network I/F 315.
The CPU 311 controls the overall operation by reading a control program stored in the ROM 312 and executing various processes.
The RAM 313 is used as a temporary storage area such as a main memory and a work area of the CPU 311.
The HDD 314 is a large capacity storage unit that stores image data and various programs.
The network I/F 315 is an interface that connects the client PC or the MFP cooperation service 120 to the Internet. The MFP cooperation service 120 and the cloud service 130 receive processing requests from other devices (such as the MFP 110) via the network I/F 315, and transmit and receive various information.

<情報処理システムのソフトウェア構成>
図4は、本実施例に係る画像処理システムのソフトウェア構成図である。
(MFP)
MFP110のソフトウェアは、ネイティブ機能部410と追加機能部420の大きく2つに分けられる。ネイティブ機能部410に含まれる各部はMFP110に標準的に備えられたものであるのに対し、追加機能部420はMFP110に追加インストールされたアプリケーションである。追加機能部420はJava(登録商標)をベースとしたアプリケーションであり、MFP110への機能追加を容易に実現できる。なお、MFP110には図示しない他の追加アプリケーションがインストールされていてもよい。
ネイティブ機能部410は、スキャン実行部411および画像データ保存部412を有する。
追加機能部420は、表示制御部421、スキャン指示部422、連携サービスリクエスト部423を有する。
表示制御部421は、MFP110の操作部220のタッチパネル機能を有する液晶表示部に、ユーザによる操作を受け付けるためのUI画面を表示する。例えば、MFP連携サービス120へアクセスするための認証情報の入力、一連の処理であるワークフロー選択、ならびに、スキャン開始の操作、プレビュー画面などのUI画面を表示する。
スキャン指示部422は、UI画面を介して入力されたユーザ指示に応じたスキャン設定と共にスキャン実行部411にスキャン処理を要求する。
<Software configuration of information processing system>
FIG. 4 is a software configuration diagram of the image processing system according to this embodiment.
(MFP)
The software of the MFP 110 is roughly divided into two parts: a native function section 410 and an additional function section 420. Each unit included in the native function unit 410 is provided as standard in the MFP 110, whereas the additional function unit 420 is an application that is additionally installed in the MFP 110. The additional function unit 420 is an application based on Java (registered trademark), and can easily add functions to the MFP 110. Note that other additional applications (not shown) may be installed in the MFP 110.
The native function section 410 includes a scan execution section 411 and an image data storage section 412.
The additional function section 420 includes a display control section 421, a scan instruction section 422, and a cooperation service request section 423.
The display control unit 421 displays a UI screen for accepting user operations on a liquid crystal display unit having a touch panel function of the operation unit 220 of the MFP 110. For example, input of authentication information for accessing the MFP cooperation service 120, selection of a workflow which is a series of processing, operations for starting a scan, and displaying a UI screen such as a preview screen.
The scan instruction unit 422 requests the scan execution unit 411 to perform a scan process along with scan settings according to a user instruction input via the UI screen.

スキャン実行部411は、スキャン指示部422からのスキャン設定を含んだスキャン要求を受け取る。スキャン実行部411は、スキャン要求に従い、スキャナI/F217を介してスキャナ部222で、原稿台ガラスに置かれた原稿を読み取ることでスキャン画像データを生成する。生成したスキャン画像データは、画像データ保存部412に送られる。スキャン実行部411は、保存したスキャン画像データを一意に示すスキャン画像識別子をスキャン指示部422へ送る。スキャン画像識別子はMFP110においてスキャンした画像をユニークに識別するための番号や記号、アルファベットなどである(不図示)。画像データ保存部412は、スキャン実行部411から受け取ったスキャン画像データをスキャン画像識別子と対応付けてHDD214に保存する。
スキャン指示部422は、スキャン実行部411から受け取ったスキャン画像識別子に対応するスキャン画像データを画像データ保存部412から取得する。スキャン指示部422は、取得したスキャン画像データにMFP連携サービス120で処理を行う指示を連携サービスリクエスト部423に要求する。
連携サービスリクエスト部423は、MFP連携サービス120に対して各種処理の要求を行う。例えば、ログイン、スキャン画像の解析、スキャン画像の送信などの要求を行う。MFP連携サービス120とのやり取りはRESTやSOAPなどのプロトコルを使用するが、その他の通信手段を用いてもよい。
(MFP連携サービス)
MFP連携サービス120は、リクエスト制御部431、画像処理部432、ワークフロー管理部433、クラウドサービスアクセス部434、データ管理部435、表示制御部436を有する。
リクエスト制御部431は、外部装置からの要求を受信できる状態で待機している。処理要求を受けると要求に応じて適宜、画像処理部432、ワークフロー管理部433、クラウドサービスアクセス部434、データ管理部435に処理を指示する。
The scan execution unit 411 receives a scan request including scan settings from the scan instruction unit 422. The scan execution unit 411 generates scan image data by reading the document placed on the document platen glass with the scanner unit 222 via the scanner I/F 217 in accordance with the scan request. The generated scan image data is sent to the image data storage unit 412. The scan execution unit 411 sends a scan image identifier that uniquely indicates the saved scan image data to the scan instruction unit 422. The scanned image identifier is a number, symbol, alphabet, or the like (not shown) for uniquely identifying an image scanned by the MFP 110. The image data storage unit 412 stores the scan image data received from the scan execution unit 411 in the HDD 214 in association with the scan image identifier.
The scan instruction unit 422 acquires scan image data corresponding to the scan image identifier received from the scan execution unit 411 from the image data storage unit 412. The scan instruction unit 422 requests the cooperation service request unit 423 to instruct the MFP cooperation service 120 to process the acquired scan image data.
The cooperation service request unit 423 requests the MFP cooperation service 120 for various processes. For example, requests such as login, analysis of scanned images, and transmission of scanned images are made. Exchanges with the MFP cooperation service 120 use protocols such as REST and SOAP, but other communication means may also be used.
(MFP cooperation service)
The MFP cooperation service 120 includes a request control section 431, an image processing section 432, a workflow management section 433, a cloud service access section 434, a data management section 435, and a display control section 436.
The request control unit 431 is on standby in a state where it can receive a request from an external device. Upon receiving a processing request, it instructs the image processing unit 432, workflow management unit 433, cloud service access unit 434, and data management unit 435 to perform processing as appropriate according to the request.

画像処理部432は、画像に対して文字領域解析、解析した文字領域に対する文字認識処理(以下OCR(Optical Character Recognition)処理という。)、類似帳票判定、画像の回転や傾き補正などの画像に対する認識処理や画像の加工処理を行う。類似帳票判定は、追って図5のS509~S510の処理で詳細に説明する。
ワークフロー管理部433は、ユーザがあらかじめ作成したスキャンから外部のクラウドサービスへの送信までの一連の処理方法、設定を定義したワークフローの管理を行う。具体的には、スキャンの読み込みに関する設定や、送信するクラウドサービスの送信先設定、格納先ディレクトリ設定、ファイル名の設定ルールの定義などの一連の設定等を管理する。
クラウドサービスアクセス部434は、クラウドサービスに対する処理の要求を行う。クラウドサービスは一般的にRESTやSOAPなどのプロトコルで、クラウドサービスにファイルを保存やメタデータを設定したり、保存したファイルを取得したりするための様々なインタフェースを公開している。クラウドサービスアクセス部434は、公開されたクラウドサービスのインタフェースを使用してクラウドサービスの操作を行う。
データ管理部435は、MFP連携サービス120で管理するユーザ情報や各種設定データ等を保持する。
表示制御部436は、インターネット経由で接続されたPCやモバイル等の別端末(不図示)上で動作しているウェブブラウザからのリクエストを受けて画面表示に必要な画面構成情報(HTML、CSS等)を返す。ユーザは、ウェブブラウザで表示される画面経由でMFP連携サービス120に登録しているユーザ情報を確認したり、スキャンする際の設定を変更したりする。
なお図4ではMFP110に追加機能部420をインストールする構成の例について説明したが、本件はこの構成に限定せず、クライアントPC111に追加機能部420の機能が含まれていてもかまわない。
The image processing unit 432 performs character region analysis on the image, character recognition processing on the analyzed character region (hereinafter referred to as OCR (Optical Character Recognition) processing), similar form determination, and image recognition such as image rotation and tilt correction. Perform processing and image processing. Similar document determination will be explained in detail later in the processing of S509 to S510 in FIG.
The workflow management unit 433 manages a workflow that defines a series of processing methods and settings created by the user in advance from scanning to sending to an external cloud service. Specifically, it manages a series of settings such as scan reading settings, cloud service destination settings, storage directory settings, and file name setting rules definitions.
The cloud service access unit 434 requests processing from the cloud service. Cloud services generally use protocols such as REST and SOAP to expose various interfaces for storing files in cloud services, setting metadata, and retrieving stored files. The cloud service access unit 434 operates the cloud service using the published cloud service interface.
The data management unit 435 holds user information, various setting data, etc. managed by the MFP cooperation service 120.
The display control unit 436 receives a request from a web browser running on another terminal (not shown) such as a PC or mobile connected via the Internet, and generates screen configuration information (HTML, CSS, etc.) necessary for screen display. )return it. The user checks user information registered in the MFP cooperation service 120 and changes settings for scanning via a screen displayed on a web browser.
Although FIG. 4 describes an example of a configuration in which the additional function unit 420 is installed in the MFP 110, the present invention is not limited to this configuration, and the function of the additional function unit 420 may be included in the client PC 111.

<全体の処理シーケンス>
図5は、MFP110でスキャンした画像をファイル化してクラウドサービス130に送信する際の各装置間の処理の流れを示すシーケンス図である。ここでは、各装置間のやり取りを中心に説明する。なお、図5ではMFP110がMFP連携サービス120とやり取りを行う記載としているが、後述する解析結果取得、画面の表示、学習の指示等はMFP110でなくクライアントPC111が実行する構成でも構わない。
MFP110は、通常の状態では提供する各機能を実施するためのボタンを並べたメイン画面をタッチパネル上に表示する。
MFP110にスキャン帳票をクラウドストレージサービスに送信するための追加アプリケーション(以下「スキャンアプリ」という。)をインストールすることで、アプリケーションの機能を使用するボタンがMFP110のメイン画面に表示される。このボタンを押すとスキャンした帳票をクラウドサービスに送信するための画面が表示され、図5のシーケンスで示す処理が行われる。
S501で、スキャンアプリは、MFP連携サービス120にアクセスするための認証情報を入力するログイン画面を表示する。
S502で、ユーザはログインのための認証情報を入力し、MFP110は該情報をログイン要求としてMFP連携サービス120に送信する。
S503で、MFP連携サービス120は、ログイン要求に含まれるユーザ名とパスワードが正しいか検証し、正しければアクセストークンをMFP110に返す。以降のMFP110からMFP連携サービス120に対して行う各種リクエストにはこのアクセストークンと共に要求が出され、この情報により処理対象のユーザを特定することができる。ユーザ認証の方法は一般的に公知な手法(Basic認証、Digest認証、OAuthを用いた認可等)を用いて行う。
S504で、MFP連携サービス120は、事前にユーザが作成したスキャンの読み込み設定や、どのクラウドサービスに送信するかの送信先設定、格納先ディレクトリ設定、ファイル名の設定ルールを定義したワークフローの一覧をMFP110に送信する。
<Overall processing sequence>
FIG. 5 is a sequence diagram showing the flow of processing between devices when an image scanned by the MFP 110 is converted into a file and transmitted to the cloud service 130. Here, we will mainly explain the exchange between each device. Although FIG. 5 shows that the MFP 110 interacts with the MFP cooperation service 120, the client PC 111 may execute the acquisition of analysis results, screen display, learning instructions, etc., which will be described later, instead of the MFP 110.
In a normal state, the MFP 110 displays a main screen on the touch panel on which buttons are arranged for implementing each function provided.
By installing an additional application (hereinafter referred to as "scan application") on the MFP 110 for sending scanned forms to a cloud storage service, buttons for using the functions of the application will be displayed on the main screen of the MFP 110. When this button is pressed, a screen for transmitting the scanned form to the cloud service is displayed, and the process shown in the sequence of FIG. 5 is performed.
In S501, the scan application displays a login screen for entering authentication information for accessing the MFP cooperation service 120.
In S502, the user inputs authentication information for login, and the MFP 110 transmits the information to the MFP cooperation service 120 as a login request.
In S503, the MFP cooperation service 120 verifies whether the user name and password included in the login request are correct, and if correct, returns an access token to the MFP 110. Various subsequent requests made from the MFP 110 to the MFP cooperation service 120 are issued together with this access token, and the user to be processed can be specified using this information. User authentication is performed using generally known methods (Basic authentication, Digest authentication, authorization using OAuth, etc.).
In S504, the MFP cooperation service 120 generates a list of workflows that define scan read settings created by the user in advance, destination settings for sending to which cloud service, storage directory settings, and file name setting rules. Send to MFP 110.

S505で、MFP110は受信したワークフローの一覧をワークフロー選択画面に表示する。その後、ユーザは、ワークフロー選択画面からワークフローを選択し、原稿台ガラス又はADFにスキャンする対象の紙帳票を置き、「スキャン開始」ボタンを押下する。
S506で、MFP120はスキャンを実行して紙帳票を電子化した画像データを生成する。
そして、S507でMFP120はスキャン処理により生成した画像とともにスキャン画像の解析要求をMFP連携サービス120に送信する。
S508で、MFP連携サービス120は、スキャン画像の解析要求をリクエスト制御部431にて受信するとMFP連携サービス120の画像処理部432に画像解析を依頼する。その後、MFP連携サービス120は、画像解析処理の終了を待たずに、MFP連携サービス120に依頼した解析を一意に示す識別子である”processId”をMFP110に返す。
MFP連携サービス120は、要求受信後、画像処理部432で画像解析処理を行う。
画像解析処理では、まずS509で、画像処理部432は画像内に存在する文字領域の解析を行う。
続いてS510で、画像処理部432は、帳票内の文字領域の配置情報を利用して類似帳票判定の処理を行う。具体的には、使用したワークフローで過去にスキャンした画像の文字領域の配置情報と今回スキャンした画像の文字領域の配置情報を比較し、類似した文字領域の配置を持つ画像かどうかの判定を行う。この判定で使用する過去のスキャン画像の情報は後述するS518の処理により保存、蓄積されたものである。
続いてS511で、画像処理部432は、判定結果に基づいて、解析した領域に対して文字認識処理(OCR処理)を行う。なおS509~S511のOCR処理の詳細については図7で説明を行う。
MFP110は、S512でS507のレスポンスで受け取った”processId”を使用してMFP連携サービス120に定期的(例えば数百ミリ秒から数ミリ秒程度毎など)に”processId”の画像解析の処理状況の確認を行う。図では省略するが、S512の処理はMFP連携サービス120の画像処理完了のレスポンスが取得できるまで(S513のタイミングまで)継続して行う。MFP連携サービス120は、S512の処理状況確認の要求を受けると”processId”の処理の状況を確認し、レスポンスを返す。
In S505, the MFP 110 displays the list of received workflows on the workflow selection screen. Thereafter, the user selects a workflow from the workflow selection screen, places the paper form to be scanned on the document table glass or ADF, and presses the "Start Scan" button.
In S506, the MFP 120 performs scanning to generate image data of the paper form in electronic format.
Then, in S507, the MFP 120 transmits an analysis request for the scanned image to the MFP cooperation service 120 together with the image generated by the scanning process.
In S508, when the MFP cooperation service 120 receives the scan image analysis request at the request control unit 431, it requests the image processing unit 432 of the MFP cooperation service 120 to analyze the image. After that, the MFP cooperation service 120 returns "processId", which is an identifier uniquely indicating the analysis requested to the MFP cooperation service 120, to the MFP 110 without waiting for the end of the image analysis process.
After receiving the request, the MFP cooperation service 120 performs image analysis processing in the image processing unit 432.
In the image analysis process, first in S509, the image processing unit 432 analyzes a character area existing within the image.
Subsequently, in S510, the image processing unit 432 performs similar form determination processing using information on the arrangement of character areas within the form. Specifically, the text area placement information of images scanned in the past using the workflow used is compared with the text area placement information of the currently scanned image, and it is determined whether the images have similar text area placements. . Information on past scan images used in this determination is saved and accumulated through the process of S518, which will be described later.
Subsequently, in S511, the image processing unit 432 performs character recognition processing (OCR processing) on the analyzed area based on the determination result. Note that details of the OCR processing in S509 to S511 will be explained with reference to FIG.
The MFP 110 uses the "processId" received in the response of S507 in S512 to periodically (for example, every several hundred milliseconds to several milliseconds) inform the MFP cooperation service 120 of the processing status of the image analysis of "processId". Check. Although not shown in the figure, the process of S512 is continued until a response indicating the completion of image processing from the MFP cooperation service 120 is obtained (until the timing of S513). Upon receiving the request to confirm the processing status in S512, the MFP cooperation service 120 confirms the processing status of "processId" and returns a response.

レスポンスには、”status”に現在の処理状況を示す文字列が格納される。例えば”status”が”processing”の時は、MFP連携サービス120で「処理中」であることを示し、”completed”の時は処理が「完了」している状態であることを示す。なお、処理が「失敗」した場合に”failed”など、この他のステータスが返ることもある。また処理完了時(“status”が“completed”の場合)のレスポンスは、ステータスと共にスキャン画像を解析した結果やスキャン設定等の情報を含む。
続くS513で、MFP110が、処理の完了を検知すると、S514でレスポンスに含まれる結果情報が格納されたURLから結果情報を取得する。
そして、S515においてS514で取得した結果情報を使用してファイル名やメタデータを設定するための属性設定画面を表示する。図6Bは、MFP110で表示する属性設定画面の一例を示したものである。属性設定画面の詳細については後述する。
属性設定画面でワークフローの設定に基づきスキャン帳票にファイル名やメタデータを設定し、[OK]ボタン623を押す。
S516でファイル名やメタデータを設定するために使用した文字領域の情報をMFP連携サービス120に送信する。
S517で学習のリクエストを受信したMFP連携サービス120のリクエスト制御部431は、画像処理部432に帳票学習を依頼する。
S518で画像処理部432は画像全体の文字領域の情報とS516で受け取った、ユーザがファイル名やメタデータに使用した文字領域の入力情報を保存する。
また、ユーザが属性設定画面でOCR処理によって抽出した文字列の修正を行っている場合、S519でリクエスト制御部431は画像処理部432にOCR処理結果修正の学習を依頼する。
S520で画像処理部432はOCR処理結果の修正情報を保存する。S520の詳細については後述する。
In the response, a character string indicating the current processing status is stored in "status". For example, when "status" is "processing", it indicates that the MFP cooperation service 120 is "processing", and when "status" is "completed", it indicates that the processing is "completed". Note that if the process "failed", other statuses such as "failed" may be returned. In addition, the response upon completion of processing (when "status" is "completed") includes information such as the results of analyzing the scanned image and scan settings as well as the status.
In subsequent S513, when the MFP 110 detects the completion of the process, in S514 it acquires result information included in the response from the URL where the result information is stored.
Then, in S515, an attribute setting screen for setting a file name and metadata is displayed using the result information obtained in S514. FIG. 6B shows an example of an attribute setting screen displayed on the MFP 110. Details of the attribute setting screen will be described later.
On the attribute setting screen, set the file name and metadata for the scanned form based on the workflow settings, and press the [OK] button 623.
In S516, information on the character area used to set the file name and metadata is sent to the MFP cooperation service 120.
The request control unit 431 of the MFP cooperation service 120, which received the learning request in S517, requests the image processing unit 432 to perform form learning.
In S518, the image processing unit 432 saves the information on the character area of the entire image and the input information on the character area used by the user for the file name and metadata, which was received in S516.
Further, if the user is modifying a character string extracted by OCR processing on the attribute setting screen, the request control unit 431 requests the image processing unit 432 to learn to modify the OCR processing result in S519.
In S520, the image processing unit 432 saves the correction information of the OCR processing result. Details of S520 will be described later.

その後、S521でMFP110はスキャン画像とスキャン画像をファイル化した後に設定するファイル名、メタデータ等の情報をMFP連携サービス120に送信する。
MFP連携サービス120はリクエストを受信するとファイル生成処理を開始するとともにリクエストを正常に受けたことをMFP110に返す。MFP110は送信のレスポンスを受けると処理を終了し、S505のワークフロー選択画面に戻る。
S522で、MFP連携サービス120は、MFP連携サービスに登録された一連の処理であるワークフローのスキャン設定からクラウドストレージ130に送信するファイルフォーマットの情報を取得する。そして、その設定に基づいてスキャン画像からファイルを生成する。
S523で、S521で受信したファイル名をS522で生成したファイルに設定してワークフローの設定で送信先に設定されているクラウドサービス130に送信する。クラウドサービス130からは、送信を受信したことをMFP連携サービス120に返信し、一連のシーケンスを終了する。
Thereafter, in S521, the MFP 110 sends the scanned image and information such as a file name and metadata to be set after converting the scanned image into a file to the MFP cooperation service 120.
When the MFP cooperation service 120 receives the request, it starts file generation processing and returns to the MFP 110 that the request has been successfully received. When the MFP 110 receives the transmission response, it ends the process and returns to the workflow selection screen in S505.
In S522, the MFP cooperation service 120 obtains information on the file format to be sent to the cloud storage 130 from the scan settings of the workflow, which is a series of processes registered in the MFP cooperation service. Then, a file is generated from the scanned image based on the settings.
In S523, the file name received in S521 is set in the file generated in S522, and the file is sent to the cloud service 130 set as the destination in the workflow settings. The cloud service 130 replies to the MFP cooperation service 120 that the transmission has been received, and the sequence ends.

(MFP、クライアントPCの表示画面)
図6A,BはMFP110又はクライアントPC111が表示する画面の一例を示す図である。
図6Aはスキャン済み帳票一覧画面600の一例を示す図である。本画面はスキャン及び画像解析処理が完了し、クラウドサービス130に送信前の帳票の一覧を閲覧することができる。また本画面はスキャン済み帳票一覧601、送信ボタン602、編集ボタン603、削除ボタン604から構成されている。
スキャン済み帳票一覧601はスキャン及び画像解析(S506~S511)が完了した帳票の一覧を表示する。スキャン済み帳票一覧601は帳票名605、送信先606、ステータス607、ワークフロー608から構成されている。帳票名605は帳票の名前を一意に識別する識別子である。送信先606は帳票のファイルを送信するクラウドサービス130の名前である。ステータス607は帳票に対して類似帳票判定を行った際の結果を示しており、「未学習」又は「学習済」のいずれかが表示される。「未学習」は使用したワークフローにおいて類似帳票が存在しないと判定された、「学習済」は類似帳票が存在したと判定されたことを意味している。ワークフロー608はS504で選択し実行したワークフロー名が表示される。例えばクラウドサービスAに送信するワークフローの1つを「ワークフローA1」の名称で作成した場合、「ワークフローA1」が表示される。またクラウドサービスAに送信するが、スキャン設定やファイル名、メタデータの設定ルールが異なる場合、「ワークフローA2」として別に作成可能であり、「ワークフローA2」が表示される。
送信ボタン602はクラウドサービス130に対して帳票を送信するためのボタンである。スキャン済み帳票一覧601から任意の帳票を選択し(マウスなどで選択することによりグレーアウト表示してもよい。)、送信ボタン602を押下することで送信先606に表示されているクラウドサービス130に対して送信を行う。なお送信が正常に完了した場合、その帳票は一覧から削除される。
編集ボタン603は、後述する図6Bの属性設定画面610に移動するためのボタンである。スキャン済み帳票一覧601から任意の帳票を選択し、編集ボタン603を押下することで選択した帳票の属性設定画面610へと移動する。
削除ボタン604は帳票の削除を行うボタンである。スキャン済み帳票一覧601から任意の帳票を選択し、削除ボタン604を押下することで選択した帳票を削除することができる。
(MFP, client PC display screen)
FIGS. 6A and 6B are diagrams showing examples of screens displayed by the MFP 110 or the client PC 111.
FIG. 6A is a diagram showing an example of a scanned form list screen 600. On this screen, it is possible to view a list of forms that have undergone scanning and image analysis processing and have not yet been sent to the cloud service 130. This screen also includes a list of scanned forms 601, a send button 602, an edit button 603, and a delete button 604.
A list of scanned forms 601 displays a list of forms for which scanning and image analysis (S506 to S511) have been completed. The scanned form list 601 includes a form name 605, a destination 606, a status 607, and a workflow 608. The form name 605 is an identifier that uniquely identifies the name of the form. The destination 606 is the name of the cloud service 130 to which the form file is sent. Status 607 indicates the result of similar document determination for a document, and either "unlearned" or "learned" is displayed. "Unlearned" means that it has been determined that no similar forms exist in the used workflow, and "Learned" means that it has been determined that similar forms exist. In the workflow 608, the name of the workflow selected and executed in S504 is displayed. For example, if one of the workflows to be sent to cloud service A is created with the name "Workflow A1", "Workflow A1" is displayed. Furthermore, if the scan settings, file name, and metadata setting rules are different when sending to cloud service A, it can be created separately as "Workflow A2", and "Workflow A2" is displayed.
The send button 602 is a button for sending a form to the cloud service 130. Select any form from the scanned form list 601 (it may be grayed out by selecting it with a mouse, etc.) and press the send button 602 to send it to the cloud service 130 displayed in the destination 606. and send it. Note that if the transmission is successfully completed, the form will be deleted from the list.
The edit button 603 is a button for moving to an attribute setting screen 610 in FIG. 6B, which will be described later. By selecting an arbitrary form from the scanned form list 601 and pressing the edit button 603, the screen moves to the attribute setting screen 610 of the selected form.
The delete button 604 is a button for deleting a form. By selecting an arbitrary form from the scanned form list 601 and pressing the delete button 604, the selected form can be deleted.

図6Bは属性設定画面610の一例を示す図である。
ファイル名設定領域611は、ワークフローの作成時にユーザが定義したルールに基づきファイル名を設定する領域である。図6Bはワークフロー作成時に「{会社名}_{帳票番号}」のように帳票内の文字列を使用して“{会社名}”、“{帳票番号}”に該当する文字列を選択し、「{会社名}_{帳票番号}」に代入することでファイル名を決定する一例である。
ファイル名設定領域611には帳票から抽出する情報を示す項目名612と項目に対する情報を入力するテキストフィールド613と後述する文字領域の切り抜き画像614が表示される。S510で類似帳票がないと判定され未学習の帳票の場合、文字領域が選択されていない状態となり、テキストフィールドは空であり、切り抜き画像は設定されていない状態で表示される。S510で類似帳票があると判定された場合は、類似帳票で選択した文字領域を用いて、テキストフィールド613と切り抜き画像614が設定された状態となる。
ファイル名表示部615は、ユーザが設定したファイル名の設定ルールに基づきファイル名が表示される。また、項目名612に対応したテキストフィールド613の値が入力されている場合、ファイル名表示部615に記載の項目名はテキストフィールド613の値に置き換えられる。
FIG. 6B is a diagram showing an example of the attribute setting screen 610.
The file name setting area 611 is an area for setting a file name based on rules defined by the user when creating a workflow. Figure 6B shows that when creating a workflow, character strings in the form, such as "{company name}_{document number}" are used to select the string that corresponds to "{company name}" and "{document number}". This is an example in which the file name is determined by substituting "{company name}_{form number}".
Displayed in the file name setting area 611 are an item name 612 indicating information to be extracted from the form, a text field 613 for inputting information for the item, and a cutout image 614 of a character area to be described later. If it is determined in S510 that there is no similar document and the document is an unlearned document, the text area is not selected, the text field is empty, and the cutout image is displayed without being set. If it is determined in S510 that there is a similar document, a text field 613 and a cutout image 614 are set using the character area selected in the similar document.
The file name display section 615 displays file names based on the file name setting rules set by the user. Further, if the value of the text field 613 corresponding to the item name 612 has been input, the item name written in the file name display section 615 is replaced with the value of the text field 613.

メタデータ設定領域616は、クラウドサービスに送信するメタデータの値を設定する領域である。メタデータ設定領域616には、ファイル名設定領域611と同様に項目名612Mとテキストフィールド613Mと文字領域の切り抜き画像614Mが表示される。メタデータ設定領域616内の項目名612Mは送信先のクラウドサービスで設定するメタデータ名が表示される。また送信先のクラウドサービスで複数のメタデータを設定可能な場合、項目名612Mとテキストフィールド613Mと文字領域の切り抜き画像614Mはそれぞれメタデータの数だけ表示しても良い。また送信先のクラウドサービスにメタデータの設定がない場合メタデータ設定領域616はなくてもよい。学習済みワークフローリスト617は、現在表示している帳票と同じ形状情報を持つ類似帳票を学習しているワークフロー一覧を表示し、項目名612ごとに学習情報の引き継ぎを行う。詳細の学習情報の引き継ぎ処理は図9、図10A~Eで説明する。プレビュー領域618は、スキャン画像を表示する。画像の文字領域をマウスオーバーすると、当該文字領域に線、枠線などの形状や色を付与する。さらに、テキストフィールド613に当該文字領域の文字列が表示される。また、切り抜き画像614に当該文字領域の切り抜き画像が表示される。マウスオーバーされる文字領域が変わるたびにテキストフィールド613及び切り抜き画像614が切り替わる。 The metadata setting area 616 is an area for setting metadata values to be sent to the cloud service. Similar to the file name setting area 611, the metadata setting area 616 displays an item name 612M, a text field 613M, and a cutout image 614M of the character area. The item name 612M in the metadata setting area 616 displays the metadata name set in the destination cloud service. Furthermore, if multiple pieces of metadata can be set in the destination cloud service, the item name 612M, text field 613M, and character area cutout image 614M may each be displayed as many times as the number of pieces of metadata. Further, if there is no metadata setting in the destination cloud service, the metadata setting area 616 may not be provided. The learned workflow list 617 displays a list of workflows that are learning similar forms that have the same shape information as the currently displayed form, and transfers learning information for each item name 612. The detailed learning information transfer process will be explained with reference to FIG. 9 and FIGS. 10A to 10E. Preview area 618 displays the scanned image. When you hover over a text area in an image, shapes such as lines and frames and colors are added to the text area. Further, the text field 613 displays the character string of the character area. Further, a cutout image of the character area is displayed in the cutout image 614. Each time the mouse-over character area changes, the text field 613 and cutout image 614 change.

[文字領域削除]ボタン619は、設定した文字領域に対応する文字を削除する。[プレビュー拡大]ボタン620は、プレビュー領域に表示している画像の拡大倍率を大きくする。[プレビュー縮小]ボタン621プレビュー領域に表示している画像の拡大倍率を小さくする。拡大および縮小時にプレビュー領域の中央の座標が拡大および縮小前と同一となるように表示位置の調整を行う。[プレビュー初期表示]ボタン622は、スワイプによるプレビュー画像の表示位置の移動や[プレビュー拡大]ボタン620や[プレビュー縮小]ボタン621を押して表示倍率を変更していた場合に、初期状態の倍率と表示位置に戻す。[OK]ボタン623は、属性設定画面で設定したファイル名とメタデータと共にスキャン画像をMFP連携サービス120へ送信し、帳票とOCR処理結果修正の学習処理(S516~S520)を実行する。このタイミングで、以降説明を行うOCR処理結果修正の学習処理も実行される。送信が完了するとスキャン済み帳票一覧画面600に戻る。 The [Delete text area] button 619 deletes the characters corresponding to the set text area. [Enlarge preview] button 620 increases the enlargement magnification of the image displayed in the preview area. [Reduce preview] button 621 Reduces the magnification of the image displayed in the preview area. When enlarging and reducing, the display position is adjusted so that the coordinates of the center of the preview area are the same as before enlarging and reducing. The [Initial Preview Display] button 622 displays the initial magnification when you move the display position of the preview image by swiping or change the display magnification by pressing the [Enlarge Preview] button 620 or [Reduce Preview] button 621. Return to position. The [OK] button 623 transmits the scanned image together with the file name and metadata set on the attribute setting screen to the MFP cooperation service 120, and executes a learning process (S516 to S520) for modifying the form and OCR processing results. At this timing, learning processing for correcting OCR processing results, which will be described later, is also executed. When the transmission is completed, the screen returns to the scanned form list screen 600.

・画像解析処理
図7は、本システムにおける画像処理部432が行う画像解析処理の詳細を示すフローチャートである。本フローは図5におけるS508~S511に相当する。
はじめにS701において、入力画像の文字領域を解析し、帳票内の文字領域群を取得する。
続いて、S702において、学習データと照合することにより類似帳票を推定する類似帳票判定を行う。これらのステップは図5で説明を行ったため詳細な説明は省略する。
判定の結果、S703において類似する帳票が見つかった場合(S703でYes)は、S704に進み、類似する帳票が見つからなかった場合(S703でNo)はS708に進む。
(類似帳票が見つかった場合)
S704では、見つかった類似帳票に登録されている文字領域に対応する対象帳票の文字領域を取得する。
そしてS705において、S704で取得した対応する文字領域に対して文字認識処理を実施し、文字列を抽出する。この処理により、対象帳票においてユーザが所望すると思われるファイル名やメタデータを、類似帳票のファイル名設定ルールやメタデータ設定ルールに基づいて提示することができる。
その後S706において、解析結果を学習済み帳票の保存領域に追加する。
最後にS707で学習済み帳票としてリクエスト制御部431に通知し本フローを終了する。
(類似帳票が見つからなかった場合)
S708では帳票の全文字領域に対して文字認識処理を実施し、文字列を抽出する。ここで全文字領域に対して文字認識処理を行うのは、類似帳票が存在しないと判定され、ファイル名やメタデータの設定に使用すると思われる領域が不明なためである。
その後S709において、解析結果を未学習帳票の保存領域に追加する。
S710で、未学習帳票としてリクエスト制御部431に通知し本フローを終了する。
- Image analysis processing FIG. 7 is a flowchart showing details of the image analysis processing performed by the image processing unit 432 in this system. This flow corresponds to S508 to S511 in FIG.
First, in S701, character areas of an input image are analyzed to obtain a group of character areas within a form.
Subsequently, in S702, similar form determination is performed to estimate similar forms by comparing with learning data. These steps have been explained with reference to FIG. 5, so a detailed explanation will be omitted.
As a result of the determination, if a similar document is found in S703 (Yes in S703), the process proceeds to S704, and if no similar document is found (No in S703), the process proceeds to S708.
(If similar documents are found)
In S704, the character area of the target form corresponding to the character area registered in the found similar form is acquired.
Then, in S705, character recognition processing is performed on the corresponding character area obtained in S704, and a character string is extracted. Through this process, file names and metadata that are considered desired by the user for the target form can be presented based on the file name setting rules and metadata setting rules for similar forms.
Thereafter, in S706, the analysis results are added to the learned form storage area.
Finally, in S707, the request control unit 431 is notified as a learned form, and this flow ends.
(If no similar form is found)
In S708, character recognition processing is performed on the entire character area of the form, and character strings are extracted. The reason why the character recognition process is performed on the entire character area is because it is determined that no similar form exists and the area that is expected to be used for setting the file name and metadata is unknown.
Thereafter, in S709, the analysis results are added to the unlearned form storage area.
In S710, the request control unit 431 is notified as an unlearned form, and this flow ends.

(データ構造)
図8は本システムにおける画像処理部432が行う解析結果保存処理で保存されるデータ構造の一例を示す図である。
はじめに図8(a)は解析結果のデータ構造の概要の一例を示す図である。ここでは大きく3つの保存領域が存在しており、S509の類似帳票判定処理の結果に基づいて分類されている。具体的には、類似帳票が存在しないと判定された帳票群は同一の保存領域に保存され、類似帳票が存在すると判定された場合は、最も類似する帳票毎に同一の保存領域に保存される。ワークフローごとに図8(a)の保存領域を持つ。
(data structure)
FIG. 8 is a diagram showing an example of a data structure saved in the analysis result saving process performed by the image processing unit 432 in this system.
First, FIG. 8(a) is a diagram showing an example of the outline of the data structure of the analysis result. There are roughly three storage areas here, which are classified based on the results of the similar form determination process in S509. Specifically, a group of documents for which it is determined that no similar documents exist are saved in the same storage area, and when it is determined that similar documents exist, the most similar documents are saved in the same storage area. . Each workflow has a storage area as shown in Figure 8(a).

次に図8(b)は解析結果のデータ構造の詳細の一例を示す図である。解析結果には図7のS704で解析した文字領域情報及びS705又はS708で抽出した文字列情報を含んでいる。ルートの“formList”は帳票のリストを表し、複数の帳票に関する解析結果が図8(a)で説明した単位で配列として格納される。各帳票は“formID”、“imageWidth”、“imageHeight”、“regions”を持つ。
“formID”は、帳票に付与される本システムで一意となる識別子である。
“imageWidth”は、解析した画像のX方向(横方向)のピクセル数を示す。
“imageHeight”は、解析した画像のY方向(縦方向)のピクセル数を示す。
“regions”は解析した画像から解析された文字領域の配置情報と文字情報の配列が含まれる。
次に“regions”内の情報について説明する。
“rect”には抽出した文字領域一つの座標を示す。“x”は領域の左上のX座標、“y”は領域の左上のY座標、“width”は領域のX方向のピクセル数、“height”は領域のY方向のピクセル数を示す。
“text”は”rect”の文字領域をOCRして文字認識を行った結果、抽出された文字列を示す。この“rect”と“text”の情報が解析したスキャン画像内の全文字領域分含まれる。
Next, FIG. 8(b) is a diagram showing an example of a detailed data structure of the analysis result. The analysis result includes character area information analyzed in S704 of FIG. 7 and character string information extracted in S705 or S708. The root "formList" represents a list of forms, and the analysis results regarding a plurality of forms are stored as an array in units as explained in FIG. 8(a). Each form has “formID”, “imageWidth”, “imageHeight”, and “regions”.
“formID” is an identifier that is unique in this system and is given to a form.
“imageWidth” indicates the number of pixels in the X direction (horizontal direction) of the analyzed image.
“imageHeight” indicates the number of pixels in the Y direction (vertical direction) of the analyzed image.
“regions” includes the arrangement information of character regions analyzed from the analyzed image and the arrangement of character information.
Next, the information in "regions" will be explained.
“rect” indicates the coordinates of one extracted character area. "x" indicates the X coordinate of the upper left corner of the region, "y" indicates the Y coordinate of the upper left corner of the region, "width" indicates the number of pixels in the X direction of the region, and "height" indicates the number of pixels in the Y direction of the region.
“text” indicates a character string extracted as a result of character recognition performed by OCR on the character area of “rect”. This "rect" and "text" information is included for the entire character area in the analyzed scan image.

・学習データの引き継ぎ処理
図9は、本システムにおけるS516~S520において実行中のワークフローに対して、他のワークフローで学習した抽出する文字領域の学習データの引き継ぎ処理の詳細を示すフローチャートである。図10A~Eの属性設定画面の例を用いて学習データの引き継ぎ処理のフローを説明する。なお、本処理フローは、MFP連携サーバー120のCPU311が、ROM312に格納されたプログラムをRAM313に展開して実行することにより実現される。
図10AはクラウドサービスAに送信するワークフローA1を実行した際の属性設定画面の例であり、既にスキャン画像の類似帳票を学習済みである。ワークフローA1ではファイル名を設定するために「会社名」と「帳票番号」の項目名を持ち、クラウドサービスAではメタデータNameを持つため「Name」を項目名に持つ。
図10BはクラウドサービスBに送信するワークフローB1を実行した際の属性設定画面の例であり、図10Aでスキャンした帳票と同じ画像をスキャンし、類似帳票は未学習である。ワークフローB1ではファイル名を設定するために「会社名」の項目名を持ち、クラウドサービスBではメタデータTitleを持つため「Title」を項目名に持つ。本実施例ではワークフローB1の「会社名」と「Title」に、ワークフローA1で学習した「会社名」と「Name」の文字領域の学習データの引き継ぎを行う例を用いて説明する。なお図10C、図10D、図10Eは属性設定画面における学習データの引き継ぎ時の画面遷移の例である。
S901で、CPU311は、図10Cの現在のプレビュー画面1001に表示されているスキャン画像の類似帳票を学習しているワークフローを取得する。
S902で、CPU311は、取得したワークフローの一覧を学習済みワークフローリストのプルダウンリスト1002に表示し、学習データを引き継ぎたいワークフローの選択が可能とする。またプルダウンリスト1002の選択肢にはワークフローからの引き継ぎしない場合も考慮し、引き継ぎしない主旨の項目も含まれている。S902においてワークフローが選択された場合(S902でYes)は、S903に進み、引き継ぎをしない選択肢を選択された場合(S902でNo)は、S906に進む。
- Handover process of learning data FIG. 9 is a flowchart showing details of the process of handing over the learning data of the character area to be extracted, which has been learned in another workflow, to the workflow being executed in S516 to S520 in this system. The flow of learning data handover processing will be explained using examples of attribute setting screens shown in FIGS. 10A to 10E. Note that this processing flow is realized by the CPU 311 of the MFP cooperation server 120 loading a program stored in the ROM 312 into the RAM 313 and executing it.
FIG. 10A is an example of an attribute setting screen when workflow A1 to be sent to cloud service A is executed, and similar forms of scanned images have already been learned. Workflow A1 has the item names "Company Name" and "Form Number" to set the file name, and cloud service A has the metadata Name, so it has "Name" as the item name.
FIG. 10B is an example of an attribute setting screen when executing workflow B1 for sending to cloud service B. The same image as the document scanned in FIG. 10A is scanned, and similar documents have not been learned. Workflow B1 has the item name "Company Name" to set the file name, and cloud service B has the item name "Title" because it has metadata Title. This embodiment will be described using an example in which the learning data of the character areas of "Company Name" and "Name" learned in Workflow A1 is inherited to "Company Name" and "Title" of Workflow B1. Note that FIGS. 10C, 10D, and 10E are examples of screen transitions when learning data is transferred on the attribute setting screen.
In S901, the CPU 311 acquires a workflow that is learning a form similar to the scanned image displayed on the current preview screen 1001 in FIG. 10C.
In S902, the CPU 311 displays the list of acquired workflows in the pull-down list 1002 of the learned workflow list, allowing selection of the workflow to which the learning data is to be inherited. In addition, the options in the pull-down list 1002 include an item that does not take over from the workflow, considering the case where the workflow is not taken over. If the workflow is selected in S902 (Yes in S902), the process advances to S903, and if the option of not taking over is selected (No in S902), the process advances to S906.

図10DはS902でワークフローA1を選択したときの例である。
S903では、CPU311は、S902で選択したワークフローの各項目名が抽出する文字領域を、プレビュー画面に線、枠線などの形状や色を付与する。これにより、図10Dの学習済み文字領域1003のように強調表示し文字領域を目視で確認できるようにする。またワークフローの各設定項目にS902で選択したワークフローの項目名のリストである学習済み項目リスト1004を表示する。学習済み項目リスト1004内にある引き継ぎ項目名1005にマウスオーバーすることにより、引き継ぎ項目名1005とその項目に対応する文字領域1006を、学習済み文字領域1003とは異なる同じ強調表示に変えて表示する。これにより引き継ぎ項目名1005と文字領域1006の対応関係を明確に分るようになる。
S904で、CPU311は、表示されている引き継ぎ項目1005がクリックやタッチ動作で関連付けのために選択されたことを受付ける。引き継ぎ項目1005を関連付けのための選択を受付けた場合(S904でYes)は、S905に進み、引き継ぎ項目1005の選択を受付けなかった場合(S904でNo)は、S906に進む。
S905で、CPU311は、プレビュー画面から対応する文字領域1006が選択状態になり、図6Bの説明と同様にテキストフィールド613と文字領域の切り抜き画像614が引き継ぎ項目1005と関連付けられて設定された状態で表示する。
S906では、CPU311は、図6Bで説明した方法でプレビュー画面から文字領域を選択してテキストフィールド613と文字領域の切り抜き画像614を項目名と関連付けて設定する。
FIG. 10D is an example when workflow A1 is selected in S902.
In S903, the CPU 311 adds shapes and colors such as lines and frames to the preview screen for character areas extracted by each item name of the workflow selected in S902. This allows the character area to be visually confirmed by highlighting it as shown in the learned character area 1003 in FIG. 10D. Further, a learned item list 1004, which is a list of item names of the workflow selected in S902, is displayed for each setting item of the workflow. By mousing over the inherited item name 1005 in the learned item list 1004, the inherited item name 1005 and the character area 1006 corresponding to that item are displayed with the same highlighted display different from the learned character area 1003. . This makes it possible to clearly see the correspondence between the inherited item name 1005 and the character area 1006.
In S904, the CPU 311 accepts that the displayed inheritance item 1005 has been selected for association by a click or touch operation. If the selection for associating the handover item 1005 is accepted (Yes in S904), the process advances to S905, and if the selection of the handover item 1005 is not accepted (No in S904), the process advances to S906.
In S905, the CPU 311 selects the corresponding character area 1006 from the preview screen, and displays the text field 613 and the cutout image 614 of the character area associated with the inheritance item 1005, as described in FIG. 6B. indicate.
In S906, the CPU 311 selects a character area from the preview screen using the method described in FIG. 6B, and sets a text field 613 and a cutout image 614 of the character area in association with the item name.

図10EはS904、S905において、「会社名」の項目にワークフローA1の「会社名」と同じ文字領域を、「Title」の項目にワークフローA1の「Name」と同じ文字領域を選択したときの例である。
S907で、CPU311は、図10Eの[OK]ボタン1007が押され学習を行う。
S908ではCPU311は、各項目名で選択されている文字領域がS902で選択した学習済みのワークフローと同じ文字領域であるか判断する。実行中のワークフローが学習済みのワークフローと同じ文字領域を使用した場合(S908でYes)は、S909に進む。そうでない場合(S908でのNo)は、S910に進み、帳票の抽出する文字領域を学習する。
S909で、CPU311は、学習済みのワークフローの学習データから類似帳票を判定するための帳票の形状情報(文字領域の配置情報等)を全種と、抽出する文字領域の文字列の情報を実行中のワークフローの項目が抽出する情報に複製する。これにより学習済みのワークフローが学習したことがある帳票の類似帳票であれば、実行中のワークフローが未学習であっても、同じ文字領域を抽出できるようになる。図10Eの例ではワークフローB1の項目名「会社名」はワークフローA1の項目名「会社名」の学習データが複製される。そうすると、ワークフローB1が一度も類似帳票をスキャンしたことがない帳票であっても、ワークフローA1が既に学習済みであれば、自動的に文字領域が選択された状態となる。またワークフローB1の項目名「Title」も同様にワークフローA1の「Name」の学習データが複製される。そのためクラウドサービス毎に設定されているメタデータ名が異なっていても同じ情報を帳票から取得したい場合、引き継ぎ処理を行うことで、スキャンした帳票の類似帳票以外の学習データも引き継ぐため、新たに帳票の形状ごとに学習し直す必要がなくなる。これにより例えば50種の帳票を学習済みのワークフローから別のワークフローに移行した際も、一度の引き継ぎ処理を行うことで50種類の帳票を学習した状態になる。
FIG. 10E is an example when the same text area as "Company Name" of Workflow A1 is selected in the "Company Name" item and the same text area as "Name" of Workflow A1 is selected in the "Title" item in S904 and S905. It is.
In S907, the CPU 311 performs learning when the [OK] button 1007 in FIG. 10E is pressed.
In S908, the CPU 311 determines whether the character area selected for each item name is the same character area as the learned workflow selected in S902. If the workflow being executed uses the same character area as the learned workflow (Yes in S908), the process advances to S909. If not (No in S908), the process advances to S910 and learns the character area to be extracted from the form.
In S909, the CPU 311 is executing all types of form shape information (character area arrangement information, etc.) for determining similar forms from the training data of the learned workflow, and character string information of the character area to be extracted. Replicate the information that workflow items extract. As a result, if the learned workflow is similar to a previously learned form, the same character area can be extracted even if the currently executed workflow has not been learned. In the example of FIG. 10E, the learning data for the item name "Company Name" of Workflow A1 is duplicated for the item name "Company Name" of Workflow B1. Then, even if the workflow B1 has never scanned a similar document, if the workflow A1 has already been trained, the character area will be automatically selected. Similarly, the learning data for the item name "Title" of the workflow B1 "Name" of the workflow A1 is duplicated. Therefore, if you want to obtain the same information from a form even if the metadata name set for each cloud service is different, by performing the transfer process, learning data other than similar forms of the scanned form will also be inherited, so you can create a new form. There is no need to re-learn each shape. As a result, even if, for example, 50 types of forms are transferred from a learned workflow to another workflow, the 50 types of forms will be in a learned state by performing the transfer process once.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

110 MFP
120 MFP連携サービス
130 クラウドサービス
110 MFP
120 MFP cooperation service
130 Cloud Services

Claims (7)

帳票のスキャン画像データから文字領域の情報を抽出する抽出手段と、
該抽出された文字領域の情報に基づき、学習データと照合して類似帳票を判定する判定手段と、
該類似帳票に対応する文字領域の文字列の認識を行う認識手段と、
該文字領域の学習を行う学習手段と、
前記文字領域の学習データを一連の処理ごとに記憶する記憶手段とを有する情報処理装置であって、
第1の一連の処理において取得する文字領域を学習する際、スキャン画像の類似帳票を学習済みの一連の処理の一覧を表示する第1の表示手段と、
ユーザが前記学習済みの一連の処理の一覧から学習済みの第2の一連の処理を選択することにより、前記第2の一連の処理の学習済みの抽出する文字領域と、情報の項目のリストを表示する第2の表示手段と、
前記学習済みの第2の一連の処理で抽出する情報の項目と学習を行う第1の一連の処理で送信する情報の項目との関連付けを受け付ける受付手段と、
該関連付けに基づいて第2の一連の処理の学習データを第1の一連の処理の学習データに複製する複製手段
を有することを特徴とする情報処理装置。
an extraction means for extracting character area information from the scanned image data of the form;
a determination unit that determines similar forms by comparing the information with learning data based on the information of the extracted character area;
recognition means for recognizing a character string in a character area corresponding to the similar form;
a learning means for learning the character area;
An information processing device comprising a storage means for storing learning data of the character area for each series of processing,
a first display means for displaying a list of a series of processes that have been learned for similar forms of scanned images when learning character areas to be obtained in the first series of processes;
When the user selects a learned second series of processes from the list of learned processes, a list of learned character regions to be extracted and information items of the second series of processes is displayed. a second display means for displaying;
a reception unit that accepts an association between an item of information to be extracted in the learned second series of processes and an item of information to be transmitted in the first series of processes to perform learning;
An information processing apparatus comprising: duplication means for duplicating the learning data of the second series of processes into the learning data of the first series of processes based on the association.
前記第1の表示手段は、類似帳票を学習済みの一連の処理をプルダウンリストに表示することを特徴とする請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein the first display means displays a series of learned processes for similar forms in a pull-down list. 前記文字領域の情報は、文字領域の配置情報と、文字列の情報であることを特徴とする請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the information on the character area is arrangement information on the character area and information on a character string. 前記抽出された情報は、ネットワークで接続された外部のサービスにスキャン画像とともに送信されることを特徴とする請求項3に記載の情報処理装置。 4. The information processing apparatus according to claim 3, wherein the extracted information is transmitted together with the scanned image to an external service connected via a network. さらにスキャナ部を備えることを特徴とする請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4, further comprising a scanner section. 帳票のスキャン画像データから文字領域の情報を抽出する抽出工程と、
該抽出された文字領域の情報に基づき、学習データと照合して類似帳票を判定する判定工程と、
該類似帳票に対応する文字領域の文字列の認識を行う認識工程と、
該文字領域の学習を行う学習工程と、
前記文字領域の学習データを一連の処理ごとに記憶手段に記憶する記憶工程とを有する情報処理装置の制御方法であって、
第1の一連の処理において取得する文字領域を学習する際、スキャン画像の類似帳票を学習済みの一連の処理の一覧を表示する第1の表示工程と、
ユーザが前記学習済みの一連の処理の一覧から学習済みの第2の一連の処理を選択することにより、前記第2の一連の処理の学習済みの抽出する文字領域と、情報の項目のリストを表示する第2の表示工程と、
前記学習済みの第2の一連の処理で抽出する情報の項目と学習を行う第1の一連の処理で送信する情報の項目との関連付けを受け付ける受付工程と、
該関連付けに基づいて第2の一連の処理の学習データを第1の一連の処理の学習データに複製する複製工程
を有することを特徴とする情報処理装置の制御方法。
an extraction step of extracting character area information from the scanned image data of the form;
a determination step of comparing the extracted character area information with learning data to determine similar forms;
a recognition step of recognizing a character string in a character area corresponding to the similar form;
a learning step of learning the character area;
A method for controlling an information processing device, comprising: storing learning data of the character area in a storage means for each series of processing,
a first display step of displaying a list of a series of processes that have been learned for similar forms of the scanned image when learning character areas to be obtained in the first series of processes;
When the user selects a learned second series of processes from the list of learned processes, a list of learned character regions to be extracted and information items of the second series of processes is displayed. a second display step of displaying;
a reception step of accepting an association between an item of information to be extracted in the learned second series of processes and an item of information to be transmitted in the first series of processes for learning;
A method for controlling an information processing apparatus, comprising: a duplication step of duplicating learning data for a second series of processes into learning data for a first series of processes based on the association.
請求項6に記載の情報処理装置の制御方法を、コンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method for controlling an information processing apparatus according to claim 6.
JP2022136284A 2022-08-29 2022-08-29 Information processing device, control method and program for information processing device Pending JP2024032563A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022136284A JP2024032563A (en) 2022-08-29 2022-08-29 Information processing device, control method and program for information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022136284A JP2024032563A (en) 2022-08-29 2022-08-29 Information processing device, control method and program for information processing device

Publications (1)

Publication Number Publication Date
JP2024032563A true JP2024032563A (en) 2024-03-12

Family

ID=90192869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022136284A Pending JP2024032563A (en) 2022-08-29 2022-08-29 Information processing device, control method and program for information processing device

Country Status (1)

Country Link
JP (1) JP2024032563A (en)

Similar Documents

Publication Publication Date Title
JP6953230B2 (en) A device for setting a file name, etc. on a scanned image, its control method, and a program.
JP7391672B2 (en) Image processing system, control method and program for digitizing documents
EP3890295A1 (en) Information processing apparatus for obtaining character string
JP7317561B2 (en) Image processing device for character input using touch panel, its control method and program
JP7271149B2 (en) Apparatus, method and program
JP7225017B2 (en) Image processing device for character input using touch panel, its control method and program
US11503170B2 (en) Image processing apparatus, image processing method, and storage medium
US11800032B2 (en) Apparatus, information processing method, and storage medium
JP2023072812A (en) Information processing apparatus, method for controlling information processing apparatus, program therefor, and image processing system
US11528372B2 (en) Image processing system for providing attribute information, image processing method and storage medium
JP2024032563A (en) Information processing device, control method and program for information processing device
JP2021190834A (en) Information processing device, processing method and program of the same
JP7358663B2 (en) Image processing device for character input using a touch panel, its control method, and program
JP2020178280A (en) Image processing device for setting properties on scanned image, control method of the same, and program
JP7387282B2 (en) Image processing device that displays a preview of a scanned image, its control method, and program
US11620840B2 (en) Image processing apparatus for extracting a desired character string from a scanned image
US20230085170A1 (en) Server, method of controlling the server, and storage medium
JP2024040612A (en) Information processing device, control method for information processing device, and program
US20230368558A1 (en) Image processing apparatus, image processing method, and storage medium
JP2022069405A (en) Information processing device, information processing system and method and program for controlling information processing device
JP2023071227A (en) Information processing device, method for controlling information processing device and program
JP2024034740A (en) Image processing device, image processing system, image processing method, and program
JP2022083074A (en) Information processing system
JP2023167871A (en) Image processing apparatus, information processing apparatus, image processing system, image processing method, information processing method, and program
JP2021118534A (en) Image processing system for digitizing document, control method of the same, and program