JP7379051B2 - Information processing device, control method for information processing device, and its program - Google Patents

Information processing device, control method for information processing device, and its program Download PDF

Info

Publication number
JP7379051B2
JP7379051B2 JP2019179738A JP2019179738A JP7379051B2 JP 7379051 B2 JP7379051 B2 JP 7379051B2 JP 2019179738 A JP2019179738 A JP 2019179738A JP 2019179738 A JP2019179738 A JP 2019179738A JP 7379051 B2 JP7379051 B2 JP 7379051B2
Authority
JP
Japan
Prior art keywords
page
image data
screen
character recognition
recognition process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019179738A
Other languages
Japanese (ja)
Other versions
JP2021057783A5 (en
JP2021057783A (en
Inventor
崇 宮内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019179738A priority Critical patent/JP7379051B2/en
Priority to US17/032,083 priority patent/US11620844B2/en
Publication of JP2021057783A publication Critical patent/JP2021057783A/en
Priority to US18/179,816 priority patent/US20230206672A1/en
Publication of JP2021057783A5 publication Critical patent/JP2021057783A5/en
Priority to JP2023186748A priority patent/JP2024012448A/en
Application granted granted Critical
Publication of JP7379051B2 publication Critical patent/JP7379051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/418Document matching, e.g. of document images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Facsimiles In General (AREA)
  • Character Discrimination (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、複数の文書をスキャンした際にファイル分割を行い、それぞれの文書に対してファイル名等をレコメンドする機能を備えた画像処理装置、画像処理装置の制御方法及びそのプログラムに関するものである。 The present invention relates to an image processing device, a method for controlling the image processing device, and a program therefor, which has a function of dividing files when multiple documents are scanned and recommending file names, etc. for each document. .

帳票等の紙文書を画像読み取り装置でスキャンしてデジタル化する業務フローが存在する。その際には、一般的に、デジタル化した文書画像に、文書の種類・内容に応じたファイル名やメタ情報をつけて、所定のフォルダに格納することが行われる。ここで、ファイル名づけ、メタ情報づけ、送付先の振り分けフォルダの指定を人手で行うことは、デジタル化する紙原稿の枚数が多くなると大きな負荷となる。特に、複合機(MFP)では、ユーザインターフェース(UI)の制約により、ソフトウェアキーボードでファイル名やメタ情報を入力する必要がある場合にはユーザへの負荷はより大きくなる。また、送付先を指定することも、新たなフォルダを作成することが必要な場合は、同様にユーザへの負荷が大きくなる。 There is a business flow in which paper documents such as forms are scanned with an image reading device and digitized. In this case, the digitized document image is generally given a file name and meta information according to the type and content of the document, and then stored in a predetermined folder. Here, manually naming files, assigning meta information, and specifying destination folders becomes a heavy burden when the number of paper manuscripts to be digitized increases. In particular, in a multifunction peripheral (MFP), due to restrictions on the user interface (UI), when it is necessary to input file names and meta information using a software keyboard, the load on the user becomes heavier. Furthermore, if it is necessary to specify a destination or create a new folder, the burden on the user will similarly increase.

これを解決する手法として、特許文献1の手法がある。この手法では、まず、あらかじめ、文書の種類と、ファイル名づけルール、メタ情報づけルール、送付先ルールなどのインデックス抽出ルールを関連づけして登録しておく。次に、同じ種類の文書がスキャンされた場合には、文書の種類を認識し、関連付けられたインデックス抽出ルールを利用して、自動的にファイル名、メタ情報、送付先を決定し、ユーザにレコメンドする。このようにすれば、ユーザ作業負荷を大きく軽減することが可能となる。
また、特許文献2の手法では、登録済み文書のレコメンドを行うだけでなく、ユーザによるレコメンド結果の修正や、未登録文書の命名操作を受け付ける確認用のUIを提供する。これにより、インデックス抽出ルールの初期設定を行うことなく、ユーザが命名操作や修正操作を繰り返して行うだけで、インデックス抽出ルールを自動的に学習することが可能となる。
As a method for solving this problem, there is a method disclosed in Patent Document 1. In this method, first, document types and index extraction rules such as file naming rules, meta information assignment rules, and destination rules are associated and registered in advance. Next, if a document of the same type is scanned, it will recognize the document type and use the associated index extraction rules to automatically determine the file name, meta information, and destination, and then notify the user. Recommend. In this way, it is possible to greatly reduce the user's workload.
Furthermore, the method disclosed in Patent Document 2 not only recommends registered documents, but also provides a confirmation UI that accepts users' correction of recommendation results and naming of unregistered documents. This makes it possible for the user to automatically learn index extraction rules simply by repeatedly performing naming and modification operations without having to initialize the index extraction rules.

特開2011-15348号公報Japanese Patent Application Publication No. 2011-15348 特開2018-124656号公報Japanese Patent Application Publication No. 2018-124656

かしながら、特許文献2に記載されているレコメンドからUIを通じてユーザの確認結果を受け付けるまでの一連の処理を、ファイル数分繰り返す場合、各ファイルの確認の前にレコメンドに係る処理時間分の待ち時間が毎回発生してしまう。 However , when repeating the series of processes described in Patent Document 2 from the recommendation to receiving the user's confirmation result through the UI for the number of files, the processing time related to the recommendation is Waiting time occurs every time .

本発明は、ユーザによりセットされ一連の複数枚の原稿がスキャナで連続的にスキャンされと、当該スキャンによって得られた複数のページからなる画像データに対して、当該画像データに対する当該ユーザの操作を待たずして、当該複数のページの先頭ページから順に文字認識処理を開始していく制御手段と、前記画像データのうちの先頭ページの画像データに対する前記文字認識処理の結果に対応する文字列を表示する画面であって、当該文字列に対して当該ユーザからの修正指示を受け付けることが可能な修正画面を提供する提供手段、としてコンピュータを機能させる処理プログラムであって、前記提供手段により提供される前記先頭ページの画像データについての前記修正画面が表示されている間に、前記先頭ページの後続ページ画像データに対する前記文字認識処理が、前記制御手段により実行される、ことを特徴とする。 According to the present invention, when a series of multiple originals set by a user is continuously scanned by a scanner , the user's information regarding the image data is a control means that starts character recognition processing sequentially from the first page of the plurality of pages without waiting for an operation ; and a character corresponding to the result of the character recognition processing for the image data of the first page of the image data. A processing program that causes a computer to function as a providing means for providing a correction screen that displays a string and is capable of accepting correction instructions from a user for the character string, the processing program comprising While the correction screen for the provided image data of the first page is being displayed, the character recognition process for the image data of the subsequent page of the first page is executed by the control means. do.

本発明によれば、レコメンドからUIを通じてユーザの確認結果を受け付けるまでの一連の処理を、ファイル数分繰り返す場合、各ファイルの確認の前にレコメンドに係る処理時間分の待ち時間を軽減できる。 According to the present invention, when a series of processes from a recommendation to receiving a user's confirmation result through the UI is repeated for the number of files, the waiting time corresponding to the processing time related to the recommendation can be reduced before confirmation of each file.

実施例に係るシステムの全体構成を示す図Diagram showing the overall configuration of a system according to an example 実施例に係る画像処理装置のハードウェア構成示す図A diagram showing the hardware configuration of an image processing device according to an embodiment 実施例に係る画像処理手順のフローチャートFlowchart of image processing procedure according to the embodiment 実施例に係るファイル分割位置の決定処理例を示す図A diagram showing an example of file division position determination processing according to the embodiment 実施例に係るOCR関連処理の処理手順のフローチャートFlowchart of processing procedure of OCR-related processing according to the embodiment 実施例に係るブロックセレクション処理の例を示す図A diagram showing an example of block selection processing according to the embodiment 実施例に係る確認・修正処理のフローチャートFlowchart of confirmation/correction processing according to the example 実施例に係るファイル分割後の先頭ページの画像例Image example of the first page after file division according to the example 実施例に係るインデックス抽出ルールの例Example of index extraction rule according to the embodiment 実施例に係るインデックス抽出ルールの例Example of index extraction rule according to the embodiment 実施例に係るレコメンド内容の生成処理のフローチャートFlowchart of recommendation content generation processing according to the embodiment 実施例に係る確認・修正画面を利用したファイル名指定の例Example of specifying a file name using the confirmation/correction screen according to the example 実施例に係る確認・修正画面を利用したファイル名指定の例Example of specifying a file name using the confirmation/correction screen according to the example 実施例に係る確認・修正画面を利用したファイル名レコメンドの例Example of file name recommendation using the confirmation/correction screen according to the example 他の実施例に係る処理手順のフローチャートFlowchart of processing procedures according to other embodiments 他の実施例に係る確認・修正処理のフローチャートFlowchart of confirmation/correction processing according to other embodiments 他の実施例に係る第二のインデックス抽出ルールの例Example of second index extraction rule according to other embodiments 他の実施例に係る第二のインデックス抽出ルールの例Example of second index extraction rule according to other embodiments 他の実施例に係るレコメンド内容の生成処理のフローチャートFlowchart of recommendation content generation processing according to another embodiment

以下、添付図面を参照して本発明の実施例を詳しく説明する。なお、以下の実施例は特許請求の範囲に係る本発明を限定するものでなく、また本実施例で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Note that the following examples do not limit the claimed invention, and not all combinations of features described in the examples are essential to the solution of the invention. .

<システム構成>
図1は、本実施例を適用可能なシステムの全体構成を示す図である。図1に示すように、画像処理装置100はLAN102に接続され、Internet 103等を介してPCなどの端末101等と通信可能になっている。なお、本実施例の実現にあたっては、PCなどの端末101に関しては、必ずしも必要なくてもよく、画像処理装置100のみの構成だけでも良い。
画像処理装置100は、例えば、表示・操作部、スキャナ部及び、プリンタ部を有する複合機(MFP)であり、スキャナ部を用いて文書原稿をスキャンするスキャン端末として利用することが可能である。また、タッチパネルやハードボタンなどの表示・操作部を有し、ファイル名や格納先のレコメンド結果を表示したり、ユーザからの指示を受け付けたりするためのユーザインタフェースの表示を行う。
なお、本実施例では、画像処理装置100単体で、スキャン処理、ファイル分割処理、OCR関連処理、レコメンド内容の生成処理、ファイル送信を行う例について説明するが、その一部を他の端末101で行うように構成したシステムであっても構わない。例えば、まず、スキャン処理とファイル分割処理とを画像処理装置100で実行して、スキャン画像を他の端末101にネットワークを介して送信する。そして、他の端末101においてOCR関連処理やレコメンド内容の生成処理を実行し、レコメンド結果を画像処理装置100に返信して、画像処理装置100でファイルを生成してファイル送信を行うようにしてもよい。
<System configuration>
FIG. 1 is a diagram showing the overall configuration of a system to which this embodiment can be applied. As shown in FIG. 1, the image processing apparatus 100 is connected to a LAN 102 and can communicate with a terminal 101 such as a PC via the Internet 103 or the like. Note that in realizing this embodiment, the terminal 101 such as a PC is not necessarily required, and only the image processing apparatus 100 may be configured.
The image processing apparatus 100 is, for example, a multifunction peripheral (MFP) having a display/operation section, a scanner section, and a printer section, and can be used as a scanning terminal that scans a document using the scanner section. It also has a display/operation unit such as a touch panel and hard buttons, and displays a user interface for displaying file name and storage destination recommendation results and accepting instructions from the user.
In this embodiment, an example will be described in which the image processing apparatus 100 alone performs scanning processing, file division processing, OCR-related processing, recommendation content generation processing, and file transmission. It does not matter if the system is configured to do so. For example, first, the image processing apparatus 100 executes a scan process and a file division process, and transmits the scanned image to another terminal 101 via the network. Then, the other terminal 101 executes OCR-related processing and recommendation content generation processing, sends the recommendation results back to the image processing device 100, generates a file in the image processing device 100, and sends the file. good.

<画像処理装置のハードウェア構成>
図2は、画像処理装置100の構成を示すブロック図である。制御部110は、CPU111、記憶装置112、プリンタI/F部113、ネットワークI/F部114、スキャナI/F部115、表示・操作I/F部116がシステムバス117を介して互いに通信可能に接続されている。制御部110は、画像処理装置100全体の動作を制御する。
CPU111は、記憶装置112に記憶された制御プログラムを読み出し実行することにより、後述のフローチャートにおける各処理(読取制御や画像処理、表示制御など)を実行する手段として機能する。
記憶装置112は、上記プログラム、画像データ、メタデータ、設定データ及び処理結果データなどを格納し保持する。記憶装置112には、不揮発性メモリであるROM118、揮発性メモリであるRAM119及び大容量記憶領域であるHDD120などがある。
ROM118は、制御プログラムなどを保持する不揮発性メモリであり、CPU111はその制御プログラムを読み出し制御を行う。
RAM119は、CPU111の主メモリ、ワークエリア等の一時記憶領域として用いられる揮発性メモリである。
ネットワークI/F部114は、制御部110を、システムバス117を介してLAN102に接続する。ネットワークI/F部114は、LAN102上の外部装置に画像データを送信したり、LAN102上の外部装置から各種情報を受信したりする。
<Hardware configuration of image processing device>
FIG. 2 is a block diagram showing the configuration of the image processing device 100. In the control unit 110, a CPU 111, a storage device 112, a printer I/F unit 113, a network I/F unit 114, a scanner I/F unit 115, and a display/operation I/F unit 116 can communicate with each other via a system bus 117. It is connected to the. Control unit 110 controls the overall operation of image processing device 100.
The CPU 111 functions as a means for executing each process (reading control, image processing, display control, etc.) in the flowchart described later by reading and executing a control program stored in the storage device 112.
The storage device 112 stores and holds the programs, image data, metadata, setting data, processing result data, and the like. The storage device 112 includes a ROM 118 which is a nonvolatile memory, a RAM 119 which is a volatile memory, and an HDD 120 which is a large capacity storage area.
The ROM 118 is a nonvolatile memory that holds control programs, etc., and the CPU 111 reads the control programs and performs control.
The RAM 119 is a volatile memory used as a temporary storage area such as the main memory and work area of the CPU 111.
Network I/F section 114 connects control section 110 to LAN 102 via system bus 117. The network I/F unit 114 transmits image data to an external device on the LAN 102 and receives various information from the external device on the LAN 102.

スキャナI/F部115は、スキャナ部122と制御部110とを、システムバス117を介して接続する。スキャナ部122は、文書原稿を読み取ってスキャン画像データを生成し、スキャナI/F部115を介してスキャン画像データを制御部110に入力する。なお、スキャナ部122は、原稿フィーダを備え、トレイに置かれた複数の原稿を1枚ずつフィードして、連続的に読み取ることを可能とする。
表示・操作部I/F部116は、表示・操作部123と制御部110とを、システムバス117を介して接続する。表示・操作部123には、タッチパネル機能を有する液晶表示部やハードボタンなどが備えられている。
プリンタI/F部113は、プリンタ部121と制御部110とを、システムバス117を介して接続する。プリンタ部121は、CPU111で生成された画像データをプリンタI/F部113を介して受信し、当該受信した画像データを用いて記録紙へのプリント処理が行われる。
以上のように、本実施例に係る画像処理装置100では、上記のハードウェア構成によって、画像処理機能を提供することが可能である。
Scanner I/F section 115 connects scanner section 122 and control section 110 via system bus 117. The scanner unit 122 reads a document, generates scanned image data, and inputs the scanned image data to the control unit 110 via the scanner I/F unit 115. Note that the scanner unit 122 includes a document feeder, and is capable of feeding a plurality of documents placed on a tray one by one and reading them continuously.
The display/operation unit I/F unit 116 connects the display/operation unit 123 and the control unit 110 via the system bus 117. The display/operation section 123 includes a liquid crystal display section with a touch panel function, hard buttons, and the like.
The printer I/F section 113 connects the printer section 121 and the control section 110 via the system bus 117. The printer unit 121 receives image data generated by the CPU 111 via the printer I/F unit 113, and performs printing processing on recording paper using the received image data.
As described above, the image processing apparatus 100 according to the present embodiment can provide image processing functions with the above hardware configuration.

<画像処理装置が実行する処理手順>
本実施例における処理の概要は、画像処理装置100が複数の文書原稿を読み取り、ファイル分割設定にしたがって画像データを複数のファイルに分割する。そして、それぞれのファイルに付与するファイル名を、インデックス抽出ルールに基づいて、各ファイルの先頭ページのOCR結果の文字列を利用して生成し、表示・操作部123を通じてユーザにレコメンド内容を提示する。ユーザは、表示・操作部123において、ファイル名が正しくレコメンド内容が提示されているかどうかを確認し、間違っている場合には修正指示を行う。ユーザの操作結果に基づいて、修正があった場合にはインデックス抽出ルールを更新する。分割後の全てのファイルについて、ユーザによる確認・修正処理が終わると、ファイル名を各ファイルに付与して送信する。
続いて、本実施例における画像処理装置100が実行する処理手順を図3のフローチャートを用いて詳述する。なお、画像処理装置100のCPU111が、ROM118に格納されている処理プログラムをRAM119にロードして実行することにより、図3の各ステップの処理を実行する処理部として機能する。
ステップS301において、画像処理装置100は、表示・操作部123からユーザの指示を受け付けると、スキャナ部122において、原稿フィーダのトレイから複数の文書原稿を1枚ずつ読み取り、画像データを取得する。
ステップS302において、CPU111は、記憶装置112からファイル分割設定を取得する。なお、ファイル分割設定は、事前に表示・操作部123からユーザの指示を受け付けたものを取得してもよいし、予め決められた固定の設定を取得してもよい。
<Processing procedure executed by the image processing device>
An overview of the processing in this embodiment is that the image processing apparatus 100 reads a plurality of documents and divides the image data into a plurality of files according to file division settings. Then, based on the index extraction rules, a file name to be given to each file is generated using the character string of the OCR result of the first page of each file, and the recommended content is presented to the user through the display/operation unit 123. . The user checks on the display/operation unit 123 whether the file name is correct and the recommended content is presented, and if the file name is incorrect, gives a correction instruction. Based on the user's operation results, the index extraction rule is updated if there is a modification. After the user has finished checking and correcting all the files after division, a file name is given to each file and sent.
Next, the processing procedure executed by the image processing apparatus 100 in this embodiment will be described in detail using the flowchart of FIG. Note that the CPU 111 of the image processing apparatus 100 functions as a processing unit that executes the processing of each step in FIG. 3 by loading a processing program stored in the ROM 118 into the RAM 119 and executing it.
In step S301, when the image processing apparatus 100 receives a user's instruction from the display/operation unit 123, the scanner unit 122 reads a plurality of documents one by one from the tray of the document feeder to obtain image data.
In step S302, the CPU 111 obtains file division settings from the storage device 112. Note that the file division settings may be obtained by receiving instructions from the user from the display/operation unit 123 in advance, or may be fixed settings determined in advance.

ステップS303において、CPU111は、ステップS302で取得したファイル分割設定に基づいて、ステップS301で取得した複数の画像データの分割位置を決定する。そして、分割位置にしたがって、S301で取得した画像データをグループ化する。このグループは、後述するファイル作成の際に1ファイルにする画像データであり、1つのグループには少なくとも1枚の画像データが含まれる。よって、画像データを分割して複数のファイルを生成する。ファイル分割の設定と分割位置決定の例については、図4を用いて後述する。
ステップS304において、CPU111は、ステップS309で示す確認・修正処理を並列で起動し、処理をステップS305へ進める。
以下のステップS305~ステップS307のOCR関連処理が終わり未確認属性の付与がされたファイルから並列にステップS309の処理が実行される。
ステップS305において、CPU111は、ステップS303で決定した画像グループのうち、OCR関連処理を実行していないファイルの1つを、読み取りの早い順にしたがって選択する。
ステップS306において、CPU111は、ステップS305で選択したファイルの先頭ページの画像に対して、OCR関連処理を実行する。OCR関連処理の詳細については後述する。
ステップS307において、CPU111は、ステップS305で選択し、ステップS306でOCR関連処理を実行したファイルについて、未確認属性を付与する。未確認属性とは、ステップS304で並列起動した確認・修正処理の処理待ちであることを表す属性のことである。
In step S303, the CPU 111 determines the division positions of the plurality of image data acquired in step S301 based on the file division settings acquired in step S302. Then, the image data acquired in S301 is grouped according to the division position. This group is image data that will be made into one file when creating a file, which will be described later, and one group includes at least one piece of image data. Therefore, the image data is divided to generate multiple files. Examples of file division settings and division position determination will be described later using FIG. 4.
In step S304, the CPU 111 starts the confirmation/correction process shown in step S309 in parallel, and advances the process to step S305.
After the OCR-related processing in steps S305 to S307 below is completed, the processing in step S309 is executed in parallel from the file to which the unconfirmed attribute has been added.
In step S305, the CPU 111 selects one of the files for which OCR-related processing has not been performed from among the image groups determined in step S303, in the order of earliest read.
In step S306, the CPU 111 executes OCR-related processing on the image of the first page of the file selected in step S305. Details of the OCR-related processing will be described later.
In step S307, the CPU 111 assigns an unconfirmed attribute to the file selected in step S305 and subjected to OCR-related processing in step S306. The unconfirmed attribute is an attribute that indicates that the confirmation/correction processing started in parallel in step S304 is pending.

ステップS308において、CPU111は、ステップS303で決定したすべての画像グループについて、ステップS306のOCR関連処理が終わったかどうかを判定する。すべての画像グループについて、OCR関連処理が終わっていない場合、処理をステップS305に戻し、すべての画像グループについて、OCR関連処理が終わっている場合、処理をステップS310に進める。
一方、並列処理されるステップS309において、CPU111は、ステップS303で決定したすべての画像グループについて、ユーザにレコメンド内容であるファイル名を提示する。その後、ユーザの確認・修正指示に基づいてファイル名を確定する確認・修正処理を実行する。確認・修正処理の詳細については後述する。
ステップS310において、CPU111は、ステップS303で決定したすべての画像グループについて、確認・修正処理が終わったかどうかを判定する。すべての画像グループについて、確認・修正処理が終わるまで待機し、終わった場合には処理をステップS311に進める。
ステップS311において、CPU111は、ステップS309で確認・修正を終えて決定されたファイル名の一覧を、表示・操作部123に表示する。
ステップS312において、CPU111は、ステップS303で決定した画像グループのそれぞれからファイルを作成する。それぞれのファイルには、ステップS309において、ユーザによる確認・修正を終えて決定されたファイル名を付与する。本実施例ではPDF(Portable Document Format)化し、保存する例を示す。PDFの場合には、画像をページに分け保存することが可能であり、ステップS303で決定した画像グループ内の各画像データを、別々のページとして1つのファイルに保存する。
ステップS313において、CPU111は、ステップS312で作成したファイルを、LAN102を通じて送信先に送信する。
In step S308, the CPU 111 determines whether the OCR-related processing in step S306 has been completed for all image groups determined in step S303. If OCR-related processing has not been completed for all image groups, the process returns to step S305, and if OCR-related processing has been completed for all image groups, the process proceeds to step S310.
On the other hand, in step S309, which is processed in parallel, the CPU 111 presents the user with file names as recommendation contents for all the image groups determined in step S303. Thereafter, a confirmation/correction process is executed to finalize the file name based on the user's confirmation/correction instructions. Details of the confirmation/correction process will be described later.
In step S310, the CPU 111 determines whether the confirmation/correction process has been completed for all image groups determined in step S303. The process waits until the confirmation/correction process is completed for all image groups, and if the process is completed, the process advances to step S311.
In step S311, the CPU 111 displays on the display/operation unit 123 a list of file names determined after checking and correcting in step S309.
In step S312, the CPU 111 creates a file from each of the image groups determined in step S303. Each file is given a file name determined after confirmation and modification by the user in step S309. In this embodiment, an example will be shown in which the data is converted into PDF (Portable Document Format) and saved. In the case of PDF, images can be saved in pages, and each image data within the image group determined in step S303 is saved as a separate page in one file.
In step S313, the CPU 111 transmits the file created in step S312 to the destination via the LAN 102.

<分割位置決定処理>
次に、ステップS303における分割位置決定処理について説明する。
図4に、ファイル分割設定ごとの、ページ分割処理の処理イメージを示す。
図4(A)は、ファイル分割設定として、ページ数分割を設定した場合の分割位置の例である。ページ数分割とは、あらかじめ設定されたページ数ごとに分割位置を決定する方法である。ページ数は、ユーザによって表示・操作部123で指示されたり、スキャン設定に従ってあらかじめ固定のページ数が指定されたりする。
例として、ステップS301で、6ページ分の画像データを取得され、2ページごとの分割が設定された場合、分割位置は2ページ目と3ページ目の間、4ページ目と5ページ目の間に設定される。
図4(B)は、ファイル分割設定として、仕切りページ分割を設定した場合の例である。仕切りページ分割とは、画像データを解析し、仕切りページとして認識した場合に、その仕切りページを取り除いた上で、仕切りページのあった位置に分割位置を設定する方法である。ユーザは、分割したい文書と文書の間に仕切りページを挿入した上で、原稿フィーダに文書群をセットする必要がある。
例として、ステップS301で、6ページ分の画像データを取得され、3ページ目と5ページ目が仕切りページであった場合には、まず、3ページ目と5ページ目の画像データが取り除かれる。そして、分割位置は2ページ目と4ページ目、4ページ目と6ページ目の画像の間に設定される。
仕切りページとしては、何も印刷されていない白紙や、バーコードや二次元コードを印刷した用紙を使用すればよい。白紙を仕切りページとして使用する場合には、画像データ内に含まれる一定の画素値以下の画素数や、一定の面積以上の有色画素塊が含まれるかなどを利用して、白紙であるかどうかを判定することで仕切りページの認識を行う。バーコードや二次元コードを印刷した用紙を使用する場合には、まず、画像データ内からバーコードや二次元コードを検出する。そして、検出したバーコードや二次元コードをデコードした結果に、仕切りページであることを識別する情報が含まれるかどうかによって仕切りページの認識を行う。バーコードや二次元コードを用いた仕切りページ用紙は、特定のPCアプリケーションを用いて印刷してもよい。または、画像処理装置100内のアプリケーションを用いて、表示・操作部123から枚数や用紙サイズなどを受け付け、プリンタ部121で印刷してもよい。
<Split position determination process>
Next, the division position determination process in step S303 will be explained.
FIG. 4 shows a processing image of page division processing for each file division setting.
FIG. 4(A) is an example of division positions when page number division is set as the file division setting. Page number division is a method of determining division positions for each preset number of pages. The number of pages is specified by the user on the display/operation unit 123, or a fixed number of pages is specified in advance according to scan settings.
For example, if 6 pages of image data are acquired in step S301 and division into every 2 pages is set, the division position will be between the 2nd and 3rd pages, and between the 4th and 5th pages. is set to
FIG. 4(B) is an example where partition page division is set as the file division setting. Divider page division is a method in which image data is analyzed and when it is recognized as a divider page, that divider page is removed and the dividing position is set at the position where the divider page was. The user needs to insert a partition page between the documents to be divided, and then set the document group in the document feeder.
For example, in step S301, if six pages of image data are acquired and the third and fifth pages are partition pages, first the image data of the third and fifth pages are removed. Then, the division positions are set between the images of the second page and the fourth page, and between the images of the fourth page and the sixth page.
As the partition page, blank paper with nothing printed on it or paper with a barcode or two-dimensional code printed on it may be used. When using a blank page as a partition page, check whether the page is blank or not based on the number of pixels included in the image data that is less than a certain pixel value, or whether it contains colored pixel clusters that are larger than a certain area. The partition page is recognized by determining the . When using paper with a barcode or two-dimensional code printed on it, first, the barcode or two-dimensional code is detected from within the image data. Then, the partition page is recognized based on whether or not the result of decoding the detected barcode or two-dimensional code includes information that identifies it as a partition page. Partition page sheets using barcodes or two-dimensional codes may be printed using a specific PC application. Alternatively, an application within the image processing device 100 may be used to receive the number of sheets, paper size, etc. from the display/operation unit 123, and the printer unit 121 may print the information.

図4(C)は、ファイル分割設定として、表紙ページ分割を設定した場合の例である。表紙ページ分割とは、画像データを解析し、表紙ページとして認識した場合に、その1ページ前との間に分割位置を設定する方法である。
例として、ステップS301で、6ページ分の画像データが取得され、1ページ目、3ページ目、5ページ目が表紙ページとして認識された場合、分割位置は2ページ目と3ページ目の間、4ページ目と5ページ目の間に設定される。表示ページの認識方法としては、例えば表紙ページの画像データを事前に登録しておき、画像の比較によって認識する。表紙ページの画像データは、画像処理装置100内のアプリケーションを用いて、表紙ページとなる文書原稿をスキャナ部122で読み込んで登録してもよいし、外部からLAN102、ネットワークI/F部114を通じて登録してもよい。画像の比較では、画像から算出した局所特徴量の一致度に基づいて、登録された表紙ページと同じであるかどうかを認識する。なお、表紙ページの認識は、画像の比較に限定するものではない。
その他の方法として、例えば、画像内の文書に含まれる文字や罫線の配置といったレイアウト特徴を抽出し、レイアウト特徴の比較によって認識してもよい。また、表紙ページを事前に登録するのではなく、表紙ページに特定の文字列やバーコード、二次元コードが含まれるかどうかで認識してもよい。
FIG. 4(C) is an example where cover page division is set as the file division setting. Cover page division is a method of analyzing image data and setting a division position between one page and the previous page when it is recognized as a cover page.
For example, if six pages of image data are acquired in step S301 and the first, third, and fifth pages are recognized as cover pages, the dividing position is between the second and third pages. It is set between the 4th and 5th pages. As a method for recognizing displayed pages, for example, image data of a cover page is registered in advance, and recognition is performed by comparing the images. The image data for the cover page may be registered by using an application within the image processing device 100 to read the document that will become the cover page with the scanner unit 122, or may be registered from the outside via the LAN 102 or the network I/F unit 114. You may. In image comparison, it is recognized whether the page is the same as the registered cover page based on the degree of matching of local feature amounts calculated from the images. Note that the recognition of the cover page is not limited to the comparison of images.
As another method, for example, layout features such as the arrangement of characters and ruled lines included in the document in the image may be extracted and recognized by comparing the layout features. Further, instead of registering the cover page in advance, recognition may be performed based on whether the cover page contains a specific character string, barcode, or two-dimensional code.

<OCR関連処理>
次にステップS306におけるOCR関連処理の詳細について、図5を用いて説明する。図5は、画像データ一枚に対して、OCRとその前処理を含めたOCR関連処理を実行する処理手順を示すフローチャートである。
ステップS501において、CPU111は、画像データから傾きの角度を検出し、検出した傾きだけ逆方向に画像を回転することで、傾きを補正した画像データを取得する。
傾き補正の対象となる傾きとは、スキャナ部122による読み取り時に、原稿フィーダ内のローラの摩耗などが原因でまっすぐに原稿が読み取られなかったり、原稿の印刷時にまっすぐ印字できなかったりするような傾きである。
傾き検出では、まず、画像データ内に含まれるオブジェクトを検出し、水平方向あるいは鉛直方向に隣り合うオブジェクト群を連結する。そして、連結されたオブジェクトの中心位置を結んだ角度が、水平方向あるいは鉛直方向からどれだけ傾いているかを取得することで傾きを求める。なお、傾き検出は上記の方法に限るものではない。例えば、画像データ内に含まれるオブジェクトの中心座標を取得し、0.1度単位で中心座標群を回転させながら、中心座標群が水平方向あるいは垂直方向に並ぶ割合がもっとも高い角度を傾きとして求めてもよい。この傾き補正によって、画像の傾きを補正することで、後述する回転補正およびブロックセレクション処理、OCRのそれぞれの処理精度を上げることが可能となる。
<OCR related processing>
Next, details of the OCR-related processing in step S306 will be explained using FIG. 5. FIG. 5 is a flowchart showing a processing procedure for executing OCR-related processing including OCR and its preprocessing on one piece of image data.
In step S501, the CPU 111 detects the angle of inclination from the image data, and rotates the image in the opposite direction by the detected inclination, thereby obtaining image data with the inclination corrected.
The skew that is subject to skew correction is the skew that causes the document to not be read straight when being read by the scanner unit 122 due to wear of the rollers inside the document feeder, or the document cannot be printed straight when printing the document. It is.
In tilt detection, first, objects included in image data are detected, and groups of objects that are adjacent in the horizontal or vertical direction are connected. Then, the inclination is determined by obtaining how much the angle connecting the center positions of the connected objects is inclined from the horizontal or vertical direction. Note that the tilt detection is not limited to the above method. For example, you can obtain the center coordinates of an object included in image data, rotate the center coordinates in 0.1 degree increments, and find the angle at which the center coordinates are aligned horizontally or vertically at the highest angle. good. By correcting the tilt of the image by this tilt correction, it becomes possible to improve the processing precision of rotation correction, block selection processing, and OCR, which will be described later.

ステップS502において、CPU111は、ステップS501で取得した傾き補正後の画像に対して、原稿内の文字が正立する向きになるように、90度単位で画像を回転補正した画像を得る。ステップS501で取得した傾き補正後の画像を基準画像として、基準画像と90回転した画像、180度回転した画像、270度回転した画像の4枚の画像を用意する。そして、それぞれの画像に対し、高速処理が可能で簡易的なOCR処理を実行して、一定値以上の確信度を持って認識された文字の数が最も多い画像を回転補正後画像として取得する。なお、回転補正の方法は上記に限るものではない。
ステップS503において、CPU111は、ステップS502で取得した回転補正後画像に対し、ブロックセレクション処理を実行する。ブロックセレクション処理とは、画像を前景領域と背景領域に分類した上で、前景領域をテキストブロックやそれ以外のブロックに分割する判定処理である。
In step S502, the CPU 111 obtains an image by correcting the rotation of the image obtained in step S501 by rotating it in units of 90 degrees so that the characters in the document are oriented upright. Using the tilt-corrected image obtained in step S501 as a reference image, four images are prepared: an image rotated by 90 degrees, an image rotated by 180 degrees, and an image rotated by 270 degrees from the reference image. Then, a simple OCR process that is capable of high-speed processing is executed on each image, and the image with the largest number of characters recognized with a confidence level higher than a certain value is obtained as the image after rotation correction. . Note that the rotation correction method is not limited to the above.
In step S503, the CPU 111 executes block selection processing on the rotationally corrected image obtained in step S502. The block selection process is a determination process that classifies an image into a foreground area and a background area, and then divides the foreground area into text blocks and other blocks.

具体的には、まず白黒に二値化されたクエリ画像に対し輪郭線追跡を行って、黒画素輪郭で囲まれる画素の塊を抽出する。そして、面積が所定の面積よりも大きい黒画素の塊については、内部にある白画素に対しても輪郭線追跡を行い、白画素の塊を抽出し、さらに一定面積以上の白画素の塊の内部から再帰的に黒画素の塊を抽出する。こうして得られた黒画素の塊を前景領域とし、大きさ及び形状で分類し、異なる属性を持つ領域へ分類していく。例えば、縦横比が1に近く、大きさが一定の範囲のものを文字相当の画素塊とし、さらに近接する文字が整列良くグループ化され得る部分を文字領域(TEXT)とする。また、扁平な画素塊を線領域(LINE)とする。一定大きさ以上でかつ矩形の白画素塊を整列よく内包する黒画素塊の占める範囲を表領域(TABLE)とする。不定形の画素塊が散在している領域を写真領域(PHOTO)とする。そして、それ以外の任意形状の画素塊を図画領域(PICTURE)とする。こうしてオブジェクトの属性毎に領域分割されたものの中から、文字属性を持つと判定されたブロックがテキストブロックとして特定される。 Specifically, first, contour tracing is performed on a query image that has been binarized into black and white, and a cluster of pixels surrounded by a black pixel contour is extracted. Then, for a block of black pixels whose area is larger than a predetermined area, contour tracing is also performed on the white pixels inside, the block of white pixels is extracted, and the block of white pixels with an area larger than a certain area is further extracted. Recursively extract a block of black pixels from inside. The cluster of black pixels obtained in this way is used as a foreground region, and is classified by size and shape into regions having different attributes. For example, a pixel block with an aspect ratio close to 1 and a size within a certain range is defined as a pixel block corresponding to a character, and a portion where adjacent characters can be grouped in a well-aligned manner is defined as a character area (TEXT). Furthermore, a flat pixel block is defined as a line area (LINE). The range occupied by a black pixel block that is larger than a certain size and includes a well-aligned rectangular white pixel block is defined as a table area (TABLE). An area where irregularly shaped pixel clusters are scattered is defined as a photo area (PHOTO). Then, a pixel block of any other shape is defined as a picture area (PICTURE). In this way, blocks determined to have character attributes are specified as text blocks from among the regions divided for each attribute of the object.

図6は、ブロックセレクション処理の結果の一例を示す図である。図6(A)は回転補正後の画像を示し、図6(B)は当該クエリ画像のブロックセレクション処理結果を示している。本ステップで得られた各テキストブロックの情報(属性と各ブロックの位置を示す情報)は、後述のOCR処理や類似度計算等で用いられる。なお、本ステップでテキストブロックだけを抽出するのは、文字列の位置は文書画像の構造を良く表現し、スキャンアシスト情報と密接に関連するためである。したがって、写真領域や表領域等の他の属性を持つと判定されたブロックの情報を後続の処理で利用することを排除するものではない。
図5のフローチャートの説明に戻ると、ステップS504において、CPU111は、ステップS503で取得したテキストブロックに対してOCRを実行し、各テキストブロックに対応する文字列を結果として取得する。
FIG. 6 is a diagram showing an example of the result of block selection processing. FIG. 6(A) shows the image after rotation correction, and FIG. 6(B) shows the block selection processing result of the query image. The information on each text block (information indicating attributes and the position of each block) obtained in this step is used in OCR processing, similarity calculation, etc., which will be described later. Note that the reason why only text blocks are extracted in this step is that the position of the character string well represents the structure of the document image and is closely related to the scan assist information. Therefore, this does not preclude the use of information about blocks determined to have other attributes, such as photo areas and table areas, in subsequent processing.
Returning to the explanation of the flowchart in FIG. 5, in step S504, the CPU 111 performs OCR on the text blocks obtained in step S503, and obtains character strings corresponding to each text block as a result.

<確認・修正処理>
確認・修正処理(図3のS309)の詳細について説明する。本実施例において、確認・修正処理(S309)は、図3のステップS304で起動され、図3の処理フロー(S305~S308)と並列で動作する。確認・修正処理は、分割後の各ファイルに付与するファイル名をユーザにレコメンド内容を提示し、ユーザの指示に基づいて確定する処理である。図7は、確認・修正処理の処理ステップを表すフローチャートである。図8は、各画像グループの先頭ページの画像データであり、図8(A)、図8(B)、図8(C)の並び順は読み取りの早い順である。図8(A)と図8(B)は同じ種類の文書で、記載内容が一部異なる文書であり、図8(C)は異なる種類の文書である。以下に、図8の画像データを読み込んだ際の確認・修正処理の振る舞いを、図7のフローチャートを用いて説明する。
<Confirmation/correction process>
The details of the confirmation/correction process (S309 in FIG. 3) will be explained. In this embodiment, the confirmation/correction process (S309) is started in step S304 of FIG. 3, and operates in parallel with the process flow (S305 to S308) of FIG. The confirmation/correction process is a process in which the file name to be given to each divided file is presented to the user as a recommendation and is determined based on the user's instructions. FIG. 7 is a flowchart showing the processing steps of the confirmation/correction process. FIG. 8 shows the image data of the first page of each image group, and the order of arrangement in FIGS. 8(A), 8(B), and 8(C) is in the order of earliest reading. 8(A) and FIG. 8(B) are documents of the same type, but have partially different written contents, and FIG. 8(C) is a document of a different type. Below, the behavior of the confirmation/correction process when the image data of FIG. 8 is read will be explained using the flowchart of FIG. 7.

ステップS701において、CPU111は、図3のステップS301でスキャンされ、ステップS303で決定した画像グループのうち、未確認属性が付与されたグループがあるかどうかを確認する。未確認属性とは、図3のステップS307で付与される属性で本確認・修正処理の実行前であることを意味している。未確認属性の付与された画像グループが現れるまで待機し、1つでもあった場合には、処理をステップS702へ進める。
ステップS702において、CPU111は、未確認属性の付与された画像グループの1つを、読み取りの早い順にしたがって選択する。
ステップS703において、CPU111は、HDD120からインデックス抽出ルールを取得し、RAM119に展開した上で取得する。インデックス抽出ルールの例を図9A,Bに示す。図9Aは、文書ID「0001」という文書1種類が登録されている状態を表し、図9Bは、それに加え、文書ID「0002」という文書が登録されている状態を表す。インデックス抽出ルールは、登録文書1つについて、文書IDと文書識別情報とレコメンド情報の組み合わせであり、登録済み文書の数だけこれらの組み合わせを保持する。文書IDとは文書の種類を表すユニークなIDである。文書識別情報は、後述する文書マッチングで使用する文書の種類を識別するために必要な情報であり、OCR関連処理を実行して得られるテキストブロック群を利用する。レコメンド情報は、レコメンドする内容を、入力文書から抽出するためのルールであり、登録済み文書内の特定のテキストブロック群の座標および、そのテキストブロック群のOCR結果をどの順番でつなげてファイル名とするかという順番の情報を持つ。なお、本実施例では、ファイル名をレコメンドする場合の例の詳細を後述するが、レコメンド情報としてファイルの送付先のフォルダ情報や、テキストブロック群のOCR結果をメタデータとして付与するための情報を保持してもよい。また、図9A,Bに示したように、読み取った画像データのサムネイルを一緒に保持してもよい。
ステップS704において、CPU111は、ステップS703で取得したインデックス抽出ルールに基づいて、ステップS702で選択した画像グループに対してレコメンドするファイル名を生成するレコメンド内容生成処理を実行する。レコメンド内容生成処理の処理手順を示したフローチャートが図10である。
In step S701, the CPU 111 checks whether there is a group to which an unconfirmed attribute has been added among the image groups scanned in step S301 of FIG. 3 and determined in step S303. The unconfirmed attribute is an attribute assigned in step S307 in FIG. 3 and means that it is before the actual confirmation/correction process is executed. The process waits until an image group with an unconfirmed attribute appears, and if there is even one image group, the process advances to step S702.
In step S702, the CPU 111 selects one of the image groups to which the unconfirmed attribute has been added in the order of earliest reading.
In step S703, the CPU 111 acquires the index extraction rule from the HDD 120, develops it in the RAM 119, and acquires it. Examples of index extraction rules are shown in FIGS. 9A and 9B. FIG. 9A shows a state in which one type of document with document ID "0001" is registered, and FIG. 9B shows a state in which a document with document ID "0002" is also registered. The index extraction rule is a combination of document ID, document identification information, and recommendation information for one registered document, and these combinations are retained as many as the number of registered documents. The document ID is a unique ID representing the type of document. The document identification information is information necessary to identify the type of document used in document matching, which will be described later, and uses a group of text blocks obtained by executing OCR-related processing. Recommendation information is a rule for extracting the content to be recommended from an input document, and the coordinates of a specific text block group in a registered document and the OCR results of that text block group are connected in what order to create a file name. It has information on the order in which it should be done. In addition, in this embodiment, details of an example of recommending a file name will be described later, but the recommendation information includes folder information of the destination of the file and information for adding OCR results of a group of text blocks as metadata. May be retained. Furthermore, as shown in FIGS. 9A and 9B, thumbnails of the read image data may be held together.
In step S704, the CPU 111 executes recommendation content generation processing to generate a file name to be recommended for the image group selected in step S702, based on the index extraction rule acquired in step S703. FIG. 10 is a flowchart showing the procedure of the recommendation content generation process.

<レコメンド内容の生成処理>
ステップS1000において、CPU111は、文書マッチングを実行する。文書マッチングとは、入力された文書と同じ種類の文書が、インデックス抽出ルールと共に画像処理装置のデータベースに登録されている登録済みの文書の中にあるかどうかを判定し、同じ種類の文書があった場合にはその文書の種類を判別する処理である。本実施例では、まず、入力文書と各登録済み文書との間で、1対1で、OCR関連処理で得られるテキストブロックの形状や配置がどれだけ類似しているかを表す類似度の算出を行う。類似度算出では、まず、入力文書のテキストブロック全体と、登録済み文書のテキストブロック全体で位置合わせを行う。次に、入力文書内の各テキストブロックと、登録済み文書のテキストブロックと重なる面積の総和の二乗を、入力文書のテキストブロック面積の総和と登録済み文書のテキストブロック面積の総和の積で割った値を類似度とする。上述した類似度算出を、入力文書とすべての登録済み文書との間で行い、最も高い類似度が一定値以上であれば、その登録済み文書と同じ種類と判定し、最も高い類似度が一定値より小さければ、入力済み文書は登録済み文書内に無い種類であると判定する。なお、文書マッチングは上記の方法に限るものではない。例えば、文書識別情報として、OCR関連処理の結果として得られる文書内に含まれる文字列群を保持し、その類似性によってマッチングを行ってもよい。また、文書識別情報として画像データや画像データから得られる画像特徴量を保持しておき、画像特徴量の類似性を使っても行ってもよい。
ステップS1001において、CPU111は、ステップS1000で実行した文書マッチングの結果として、入力された文書が登録済み文書であった場合には、処理をステップS1002に進め、登録済み文書でなかった場合には、処理を終了する。
ステップS1002において、CPU111は、入力文書に対し、ステップS1000で同じ種類の文書であると判別された文書と、同じ文書IDを付与する。
<Recommendation content generation process>
In step S1000, CPU 111 executes document matching. Document matching is to determine whether a document of the same type as the input document is among the registered documents registered in the database of the image processing device along with index extraction rules, and to check whether there is a document of the same type. In this case, the type of document is determined. In this example, first, the degree of similarity, which indicates how similar the shape and arrangement of text blocks obtained through OCR-related processing are, is calculated on a one-to-one basis between the input document and each registered document. conduct. In the similarity calculation, first, the entire text block of the input document is aligned with the entire text block of the registered document. Next, the square of the sum of the areas where each text block in the input document overlaps with the text blocks of the registered document is divided by the product of the sum of the text block areas of the input document and the sum of the text block areas of the registered documents. Let the value be the similarity. The above similarity calculation is performed between the input document and all registered documents, and if the highest similarity is greater than a certain value, it is determined that the document is of the same type as the registered document, and the highest similarity is fixed. If it is smaller than the value, it is determined that the inputted document is of a type that is not included in the registered documents. Note that document matching is not limited to the above method. For example, a group of character strings included in a document obtained as a result of OCR-related processing may be held as the document identification information, and matching may be performed based on the similarity. Alternatively, image data or image feature amounts obtained from the image data may be retained as document identification information, and similarity of the image feature amounts may be used.
In step S1001, if the input document is a registered document as a result of the document matching executed in step S1000, the CPU 111 advances the process to step S1002, and if it is not a registered document, Finish the process.
In step S1002, the CPU 111 gives the input document the same document ID as the document determined to be of the same type in step S1000.

ステップS1003において、CPU111は、インデックス抽出ルールの中から、ステップS1000で判別した文書の文書IDに紐づいたレコメンド情報を取得し、そのルールに基づいて、レコメンド内容であるファイル名を生成する。具体的には、まず、文書の種類毎に設定された位置のレコメンド用のテキストブロック群に対応する入力文書内のレコメンド用のテキストブロック群を取得する。その際、入力文書と登録文書とでは、スキャンタイミングによって画像全体の位置がずれていたり、記載内容にテキストブロックの大きさが変わったりすることがある。そこで、入力文書のテキストブロック全体と、登録済み文書のテキストブロック全体で位置合わせを行った上で、登録済み文書におけるレコメンド用テキストブロックと重なる入力文書内のレコメンド用のテキストブロック群を取得する。そして、取得された入力文書内のレコメンド用のテキストブロック群のOCR結果として得られる文字列をつなげた結果を、ファイル名としてレコメンドする。 In step S1003, the CPU 111 obtains recommendation information linked to the document ID of the document determined in step S1000 from among the index extraction rules, and generates a file name as recommendation content based on the rule. Specifically, first, a group of text blocks for recommendations in the input document corresponding to a group of text blocks for recommendations at positions set for each type of document is obtained. At this time, the position of the entire image may be shifted between the input document and the registered document depending on the scan timing, or the size of the text block may change depending on the written content. Therefore, after aligning the entire text block of the input document with the entire text block of the registered document, a group of recommendation text blocks in the input document that overlap with the recommendation text blocks in the registered document are obtained. Then, the result of connecting character strings obtained as the OCR result of a group of recommendation text blocks in the acquired input document is recommended as a file name.

<確認・修正画面>
図7のフローチャートの説明に戻る。
図7のステップS705において、CPU111は、操作・表示部123に、確認・修正画面を表示する。この確認・修正画面について図11A,Bを参照し説明する。なお、以下では、図11A及び図11Bを併せて図11という。
図11において、表示・操作部123は、タッチパネルディスプレイ領域1101と、ハードキー1102(数字キーや各種処理のスタートキーなど)とを備える。タッチパネルディスプレイ領域1101には、入力文書の読み取り画像データをプレビュー画像が表示される。プレビュー画像上をユーザがスワイプ操作することで、プレビュー画像を任意の方向のスクロールすることができる。また、ファイル名を表示・編集するためのテキストフィールド1103と、ファイル名を削除するための削除ボタン1104、プレビュー画像の表示倍率を拡大および縮小を可能とするボタン1105、1106が表示される。また、ファイル名の決定をキャンセルし、ひとつ前のファイルに戻るためのボタン1107と、ファイル名を決定するボタン1108が表示される。
ここで、図8(A)に示した文書が、ステップS702で選択され、図9Aに示したインデックス抽出ルールがステップS703で取得された場合、ステップS704では、選択中の文書は未登録の文書であると判定される。そのため、レコメンド内容であるファイル名が生成されず、図11(A)に示すように、ファイル名のテキストフィールド1103は空白の状態で表示される。ユーザは、この確認・修正画面において、プレビュー表示されている画像データ上のテキストブロックをタッチすることで、ファイルに付与するファイル名を指示することができる。例えば、図11(B)に示すように、送信元企業を表すテキストブロック1109をタッチした場合、テキストブロック1109がプレビュー上でハイライト表示される。そして、ファイル名のテキストフィールド1103には、テキストブロック1109のOCR結果のテキストである「ABCCo.」が表示される。同様に、書類番号を表すテキストブロック1110、日付を表すテキストブロック1111を順にタッチした結果を、それぞれ図11(C)と図11(D)に示す。このように、複数のテキストブロックをタッチした場合には、あらかじめ決められたセパレータであるアンダースコアでつなげた結果がファイル名となる。
一方、ステップS704において、レコメンド内容であるファイル名が生成された場合には、最初から、図11(D)に示すように、ファイル名に使用するテキストブロックがハイライトされ、ファイル名が表示された確認・修正画面が表示される。なお、必ずしもOCR結果のテキストをそのままファイル名に使用する必要はない。たとえば、図11(D)に示すように、テキストブロック1111のOCR結果として得られる「2019/04/01」というテキストであるとする。このテキストデータが日付であるYYYY/MM/DD形式であることを識別して、YYYYMMDD形式である「20190401」に変換してもよい。ユーザが決定ボタン1108を押下し、ファイル名を決定した場合には、処理をステップS706に進める。
<Confirmation/correction screen>
Returning to the explanation of the flowchart in FIG. 7.
In step S705 in FIG. 7, the CPU 111 displays a confirmation/correction screen on the operation/display unit 123. This confirmation/correction screen will be explained with reference to FIGS. 11A and 11B. In addition, below, FIG. 11A and FIG. 11B will be collectively referred to as FIG. 11.
In FIG. 11, the display/operation unit 123 includes a touch panel display area 1101 and hard keys 1102 (number keys, start keys for various processes, etc.). A preview image of the read image data of the input document is displayed in the touch panel display area 1101. The preview image can be scrolled in any direction by the user swiping the preview image. Also displayed are a text field 1103 for displaying and editing the file name, a delete button 1104 for deleting the file name, and buttons 1105 and 1106 for enlarging and reducing the display magnification of the preview image. Also displayed are a button 1107 for canceling the determination of the file name and returning to the previous file, and a button 1108 for determining the file name.
Here, if the document shown in FIG. 8(A) is selected in step S702 and the index extraction rule shown in FIG. 9A is obtained in step S703, in step S704, the selected document is an unregistered document. It is determined that Therefore, the file name that is the recommendation content is not generated, and the file name text field 1103 is displayed blank as shown in FIG. 11(A). On this confirmation/correction screen, the user can instruct the file name to be given to the file by touching the text block on the image data displayed as a preview. For example, as shown in FIG. 11(B), when a text block 1109 representing a sender company is touched, the text block 1109 is highlighted on the preview. Then, in the file name text field 1103, "ABCCo.", which is the text of the OCR result of the text block 1109, is displayed. Similarly, the results of sequentially touching the text block 1110 representing the document number and the text block 1111 representing the date are shown in FIGS. 11(C) and 11(D), respectively. In this way, if you touch multiple text blocks, the file name will be the result of connecting them with a predetermined separator, the underscore.
On the other hand, if a file name that is the recommendation content is generated in step S704, the text block used for the file name is highlighted and the file name is displayed from the beginning, as shown in Figure 11(D). A confirmation/correction screen will be displayed. Note that it is not always necessary to use the text of the OCR result as it is as the file name. For example, as shown in FIG. 11(D), it is assumed that the text "2019/04/01" is obtained as the OCR result of the text block 1111. This text data may be identified as a date in YYYY/MM/DD format and converted to "20190401" in YYYYMMDD format. If the user presses the determination button 1108 and determines the file name, the process advances to step S706.

ステップS706において、CPU111は、ステップS705において、ユーザから確認・修正画面を通じて指示された内容に基づいて、選択中の文書に対応するインデックス抽出ルールを作成する。
ステップS707において、CPU111は、ステップS704において生成されたファイル名を、ステップS705において、ユーザが修正したかを判定する。レコメンド内容を修正していた場合には、処理をステップS708に進め、修正していなかった場合には、処理をステップS711に進める。なお、ステップS704において、選択中の文書が登録済み文書ではないと判別された場合には、修正された場合と同様に、処理をステップS708に進める。
ステップS708において、CPU111は、選択中の画像グループに、文書IDが付与されているかどうかを判定する。文書IDが付与されている場合には、処理をステップS709へ進め、文書IDが付与されていない場合には、処理をステップS710に進める。
ステップS709において、CPU111は、該当する文書IDの文書識別情報およびレコメンド情報を、ステップS706で作成したインデックス抽出ルールに基づいて更新し、ステップS711に処理を進める。
ステップS710において、CPU111は、新規に文書IDを発行し、ステップS706で作成した文書識別情報およびレコメンド情報と組み合わせて新規にインデックス抽出ルールを登録し、ステップS711に処理を進める。
上記ステップS706~S708,S710によれば、ユーザが確認・修正画面においてファイル名を指示した場合(図11(B)~(D))、図9Bの文書ID「0002」に対応するインデックス抽出ルールが新規に登録される。
In step S706, the CPU 111 creates an index extraction rule corresponding to the selected document based on the content instructed by the user through the confirmation/correction screen in step S705.
In step S707, the CPU 111 determines whether the user modified the file name generated in step S704 in step S705. If the recommended content has been modified, the process advances to step S708; if it has not been modified, the process advances to step S711. Note that if it is determined in step S704 that the selected document is not a registered document, the process proceeds to step S708, as in the case where the document has been modified.
In step S708, the CPU 111 determines whether a document ID has been assigned to the selected image group. If a document ID has been assigned, the process advances to step S709; if a document ID has not been assigned, the process advances to step S710.
In step S709, the CPU 111 updates the document identification information and recommendation information of the corresponding document ID based on the index extraction rule created in step S706, and advances the process to step S711.
In step S710, the CPU 111 issues a new document ID, combines it with the document identification information and recommendation information created in step S706, registers a new index extraction rule, and advances the process to step S711.
According to steps S706 to S708 and S710 above, when the user specifies a file name on the confirmation/correction screen (Fig. 11(B) to (D)), the index extraction rule corresponding to the document ID "0002" in Fig. 9B is newly registered.

ステップS711において、CPU111は、選択中の画像グループの属性を、未確認属性から、確認済み属性に変更する。
ステップS712において、CPU111は、ステップS303で決定したすべての画像グループについて、確認済み属性が付与されているかどうか判定する。すべての画像グループについて、確認済み属性が付与されていれば、処理を終了し、そうでなければ、処理をステップS701へ戻る。
上述した確認・修正処理によって、図8(B)および図8(C)に示した画像を続けて処理する場合について説明する。
まず、ステップS702で図8(B)に示した文書が選択されると、ステップS703において、図9Bに示した更新済みのインデックス抽出ルールが取得される。ステップS704において、登録済み文書(文書ID「0002」)であると判定され、レコメンド結果のファイル名が取得される。この場合の、ステップS705において表示される確認・修正画面を、図12(A)に示す。このように、スキャン前に未登録であった同じ種類の文書が、一度にスキャンされた場合でも、1つの文書について、確認・修正画面においてユーザがファイル名を指示することで、もう1つの文書のファイル名をレコメンドすることができる。
In step S711, the CPU 111 changes the attribute of the currently selected image group from an unconfirmed attribute to a confirmed attribute.
In step S712, the CPU 111 determines whether the confirmed attribute has been assigned to all the image groups determined in step S303. If the confirmed attribute has been assigned to all image groups, the process ends; otherwise, the process returns to step S701.
A case will be described in which the images shown in FIGS. 8(B) and 8(C) are successively processed through the above-described confirmation/correction process.
First, when the document shown in FIG. 8(B) is selected in step S702, the updated index extraction rule shown in FIG. 9B is acquired in step S703. In step S704, it is determined that the document is a registered document (document ID "0002"), and the file name of the recommendation result is obtained. The confirmation/correction screen displayed in step S705 in this case is shown in FIG. 12(A). In this way, even if documents of the same type that were unregistered before scanning are scanned at the same time, the user can specify the file name for one document on the confirmation/edit screen, and the other document can be scanned at the same time. can recommend file names.

次に、ステップS702において、図8(C)に示した文書が選択され、ステップS703において、図9Bに示した更新済みのインデックス抽出ルールが取得された場合について説明する。ステップS704において、選択中の文書は登録済み文書(文書ID「0001」)であると判定され、過去に登録していたインデックス抽出ルールに基づき、ファイル名がレコメンドされる。この場合の、ステップS705において表示される確認・修正画面を、図12(B)に示す。このように、一度に別々の種類のファイルがスキャンされた場合でも、過去に登録されているインデックス抽出ルールに基づいて、それぞれの文書の種類に応じたファイル名のレコメンドが可能になる。
以上、本実施例1によれば、複数の文書をスキャンした際にファイル分割を行い、それぞれの文書に対してファイル名等のインデックス項目をレコメンドする機能において、ユーザの手間を減らすことができる。また、同一スキャン内に複数の同じ種類の文書があった場合でも、その場で登録・修正したルールを適用することができる。さらに、ユーザによる確認・修正を行っているバックエンドで、先にすべての文書についてOCR関連の処理を実行しておくことで、ユーザの待ち時間を大きく減らすことができる。
Next, a case will be described in which the document shown in FIG. 8(C) is selected in step S702, and the updated index extraction rule shown in FIG. 9B is acquired in step S703. In step S704, it is determined that the selected document is a registered document (document ID "0001"), and a file name is recommended based on the previously registered index extraction rule. The confirmation/correction screen displayed in step S705 in this case is shown in FIG. 12(B). In this way, even if different types of files are scanned at the same time, it is possible to recommend file names according to each document type based on previously registered index extraction rules.
As described above, according to the first embodiment, the user's effort can be reduced in the function of dividing files when a plurality of documents are scanned and recommending index items such as file names for each document. Furthermore, even if there are multiple documents of the same type in the same scan, rules registered and modified on the spot can be applied. Furthermore, by first performing OCR-related processing on all documents at the backend where the user is checking and making corrections, the user's waiting time can be greatly reduced.

実施例1では、確認・修正処理のバックエンドで、全画像グループについて図3のステップS306のOCR関連処理を実行し、各画像グループの確認・修正画面の表示前に、図7のS704に示すレコメンド内容生成処理を実行する例について説明した。実施例2では、確認・修正処理のバックエンドで、OCR関連処理だけでなく、レコメンド内容の生成までを行う。そして、各画像グループの確認・修正画面の表示前に、レコメンド内容を再生成する必要があるかどうかを判別し、再生成が必要な場合にのみ、インデックス抽出ルールの再生成処理を行う例について説明する。なお、以下では、実施例1と差異がある箇所についてのみ説明する。
図13は、本実施例に係る処理手順のフローチャートである。まず、図13と、図3に示した実施例1のフローチャートとの差異について説明する。
ステップS304において、確認/修正処理を並列起動した後、ステップS1301において、CPU111は、HDD120から第一のインデックス抽出ルールを取得し、RAM119に展開した上で取得する。第一のインデックス抽出ルールとは、本実施例において、一度だけ読み込まれ、ステップS303で分割された画像グループのそれぞれに対して一度適用されるものである。そして、後述するステップS1302のレコメンド内容生成処理において、利用されるインデックス抽出ルールである。
ステップS305~S306で、OCR関連処理が行われた後、ステップS1302において、CPU111は、レコメンド内容生成処理を実行する。ここでは、CPU111は、ステップS1301で取得した第一のインデックス抽出ルールに基づいて、ステップS305で選択した画像グループに対してレコメンドするファイル名を生成する。レコメンド内容生成処理の詳細は、実施例1において、図10を用いて説明した内容と同様である。
In the first embodiment, the back end of the confirmation/correction process executes the OCR-related process of step S306 in FIG. 3 for all image groups, and before displaying the confirmation/correction screen for each image group, the OCR-related process shown in step S704 of FIG. 7 is executed. An example of executing recommendation content generation processing has been described. In the second embodiment, the back end of the confirmation/correction process not only performs OCR-related processing but also generates recommendation contents. Then, before displaying the confirmation/correction screen for each image group, it is determined whether or not the recommendation content needs to be regenerated, and only when regeneration is necessary, the index extraction rule regeneration process is performed. explain. In addition, below, only the portions that are different from the first embodiment will be explained.
FIG. 13 is a flowchart of the processing procedure according to this embodiment. First, the difference between FIG. 13 and the flowchart of the first embodiment shown in FIG. 3 will be explained.
After starting the confirmation/correction process in parallel in step S304, in step S1301, the CPU 111 acquires the first index extraction rule from the HDD 120, develops it in the RAM 119, and acquires it. In this embodiment, the first index extraction rule is read only once and applied once to each of the image groups divided in step S303. This is an index extraction rule used in the recommendation content generation process in step S1302, which will be described later.
After OCR-related processing is performed in steps S305 and S306, the CPU 111 executes recommendation content generation processing in step S1302. Here, the CPU 111 generates a file name to be recommended for the image group selected in step S305 based on the first index extraction rule obtained in step S1301. The details of the recommendation content generation process are the same as those explained using FIG. 10 in the first embodiment.

並列処理のステップS1303では、CPU111は、ステップS303で分割したすべての画像グループについて、ユーザにファイル名をレコメンドし、ユーザの確認・修正指示に基づいてファイル名を確定する確認・修正処理を実行する。確認・修正処理の詳細については後述する。
<確認・修正処理の詳細説明>
図13のS1303で示す確認・修正処理の詳細について、図14のフローチャートを用いて説明する。本実施例において、確認・修正処理は、図13のステップS304で起動され、図13の処理フローと並列で動作する。なお、図14と、図7に示した実施例1のフローチャートとの差異についてのみ説明する。
ステップS1401において、CPU111は、第二のインデックス抽出ルールを作成し、RAM119に展開する。第二のインデックス抽出ルールとは、図13のステップS1301で取得した第一のインデックス抽出ルールに対して、確認・修正処理によってルールの更新や新規登録があった場合に、更新後の状態を一時的に保持するインデックス抽出ルールである。第二のインデックス抽出ルールでは、第一のインデックス抽出ルールに加えて、更新の有無や新規登録されたかといった更新情報を属性として持つ。第二のインデックス抽出ルールの初期状態は、ステップS1301で取得した第一のインデックス抽出ルールの内容である文書IDや文書識別情報、レコメンド情報と同じ内容で、初期の更新情報としては、更新なしの状態である。第二のインデックス抽出ルールの例を図15A,Bに示す。図15Aは、文書ID「0001」という文書1種類が登録されている第一のインデックス抽出ルールを元に生成した状態である。図15Bは、文書ID「0002」に対応するインデックス抽出ルールが新規に登録された状態を示している。
In step S1303 of parallel processing, the CPU 111 recommends file names to the user for all image groups divided in step S303, and performs confirmation/correction processing to determine the file names based on the user's confirmation/correction instructions. . Details of the confirmation/correction process will be described later.
<Detailed explanation of confirmation/correction process>
Details of the confirmation/correction process shown in S1303 in FIG. 13 will be explained using the flowchart in FIG. 14. In this embodiment, the confirmation/correction process is started in step S304 of FIG. 13 and operates in parallel with the process flow of FIG. 13. Note that only the differences between FIG. 14 and the flowchart of the first embodiment shown in FIG. 7 will be explained.
In step S1401, the CPU 111 creates a second index extraction rule and deploys it in the RAM 119. The second index extraction rule means that when the first index extraction rule obtained in step S1301 of FIG. 13 is updated or newly registered through confirmation/correction processing, the updated state is temporarily This is an index extraction rule that is maintained. In addition to the first index extraction rule, the second index extraction rule has update information such as whether or not it has been updated and whether it has been newly registered as an attribute. The initial state of the second index extraction rule is the same as the document ID, document identification information, and recommendation information that are the contents of the first index extraction rule obtained in step S1301, and the initial update information is the one without update. state. Examples of the second index extraction rule are shown in FIGS. 15A and 15B. FIG. 15A shows a state generated based on the first index extraction rule in which one type of document with document ID "0001" is registered. FIG. 15B shows a state in which an index extraction rule corresponding to document ID "0002" has been newly registered.

ステップS1402において、CPU111は、RAM119に展開された第二のインデックス抽出ルールを取得する。
ステップS1403において、CPU111は、ステップS1402で取得した第二のインデックス抽出ルールに基づいて、第二のレコメンド内容生成処理を実行する。第二のレコメンド内容生成処理の詳細については後述する。
ステップS705、S706の後、第二のインデックス抽出ルールに修正があり(S707)、文書IDがある場合には(S708)、ステップS1404に処理を進め文書IDがない場合には、S1405に処理を進める。
ステップS1404において、CPU111は、該当する文書IDの文書識別情報およびレコメンド情報を、ステップS706で作成した第二のインデックス抽出ルールに基づいて更新し、更新情報を更新ありとして保持する。
ステップS1405において、CPU111は、新規に文書IDを発行し、ステップS706で作成した文書識別情報およびレコメンド情報と組み合わせて、第二のインデックス抽出ルールに新規登録し、更新状態を新規登録として保持する。
全グループの確認/修正処理が終了した場合には、続くステップS1406において、CPU111は、第二のインデックス抽出ルールを第一のインデックス抽出ルールに反映し、HDD120に格納する。
In step S1402, the CPU 111 obtains the second index extraction rule developed in the RAM 119.
In step S1403, the CPU 111 executes a second recommendation content generation process based on the second index extraction rule acquired in step S1402. Details of the second recommendation content generation process will be described later.
After steps S705 and S706, if the second index extraction rule is modified (S707) and there is a document ID (S708), proceed to step S1404, and if there is no document ID, proceed to S1405. Proceed.
In step S1404, the CPU 111 updates the document identification information and recommendation information of the corresponding document ID based on the second index extraction rule created in step S706, and holds the updated information as updated.
In step S1405, the CPU 111 issues a new document ID, combines it with the document identification information and recommendation information created in step S706, newly registers it in the second index extraction rule, and maintains the updated status as new registration.
When the confirmation/correction process for all groups is completed, in the subsequent step S1406, the CPU 111 reflects the second index extraction rule in the first index extraction rule and stores it in the HDD 120.

<第二のレコメンド内容生成処理の詳細説明>
第二のレコメンド内容生成処理のフローチャートを図16に示す。
ステップS1601において、CPU111は、図14のステップS702で選択された画像グループに対して、図13のステップS1302のレコメンド内容生成処理で登録済み文書として判定され、文書IDが付与されているかどうかを判定する。文書IDが付与されていない場合すなわち第二のインデックス抽出ルールに登録されていない文書画像の場合、処理をステップS1602へ進め、文書IDが付与されている場合、処理をステップS1607へ進める。
ステップS1602において、CPU111は、図14のステップS1402で取得した第二のインデックス抽出ルールの中に、更新情報の属性に新規のルールがあるかどうかを判定する。新規のルールがある場合、処理をステップS1603に進み、新規のルールがない場合には処理を終了する。これにより、新規のルールがない場合には、図14のステップS705において、図13のステップS1302のレコメンド内容生成処理の結果がレコメンドされ、確認・修正画面の表示にかかる時間を減らすことができる。
ステップS1603において、CPU111は、選択中の文書と、第二のインデックス抽出ルールのうち、新規に登録された文書のみとの間で文書マッチングを実行する。一般的に、文書マッチングは、マッチング対象の登録済み文書の数に応じて処理時間が増えるため、このようにマッチング対象を新規に登録された文書のみに限定することで、処理時間を減らすことができる。
ステップS1604において、CPU111は、ステップS1603で実行した文書マッチングの結果として、入力された文書が新規登録済み文書であった場合には、処理をステップS1605に進め、そうでなかった場合には、処理を終了する。新規文書登録済み文書でなかった場合には、レコメンド内容であるファイル名が生成されず、確認・表示画面において、ユーザによるファイル名の指示を受け付ける。
<Detailed explanation of the second recommendation content generation process>
FIG. 16 shows a flowchart of the second recommendation content generation process.
In step S1601, the CPU 111 determines whether the image group selected in step S702 in FIG. 14 has been determined as a registered document in the recommendation content generation process in step S1302 in FIG. 13 and has been assigned a document ID. do. If no document ID is assigned, that is, if the document image is not registered in the second index extraction rule, the process advances to step S1602, and if a document ID is assigned, the process advances to step S1607.
In step S1602, the CPU 111 determines whether there is a new rule in the update information attribute among the second index extraction rules acquired in step S1402 of FIG. If there is a new rule, the process advances to step S1603, and if there is no new rule, the process ends. As a result, if there is no new rule, the result of the recommendation content generation process in step S1302 in FIG. 13 is recommended in step S705 in FIG. 14, and the time required to display the confirmation/correction screen can be reduced.
In step S1603, the CPU 111 executes document matching between the currently selected document and only the newly registered document of the second index extraction rule. Generally, the processing time for document matching increases depending on the number of registered documents to be matched, so by limiting the matching to only newly registered documents, processing time can be reduced. can.
In step S1604, if the input document is a newly registered document as a result of the document matching executed in step S1603, the CPU 111 advances the process to step S1605; otherwise, the process proceeds to step S1605. end. If the document is not a newly registered document, the file name that is the recommendation content is not generated, and the user's instruction for the file name is accepted on the confirmation/display screen.

ステップS1605において、CPU111は、入力文書に対し、ステップS1603の文書マッチングの結果として、同じ種類の文書であると判別された文書と、同じ文書IDを付与する。
続くステップS1606において、CPU111は、第二のインデックス抽出ルールの中から、ステップS1603で判別した文書の種類に紐づいたレコメンド情報を取得し、そのルールに基づいて、レコメンド内容であるファイル名を生成する。
一方、画像グループに文書IDがあった場合、ステップS1607において、CPU111は、第二のインデックス抽出ルールの、入力文書に付与された文書IDに紐づいた更新情報を参照し、更新ありかどうかを判定する。更新ありの場合、処理をステップS1608へ進め、更新なしの場合、処理を終了する。これにより、更新がなかった場合には、図14のステップS705において、図13のステップS1302のレコメンド内容生成処理の結果がレコメンドされ、確認・修正画面の表示にかかる時間を減らすことができる。また、更新があった場合でも、文書マッチングを行う必要がなく、後述のステップS1608において、レコメンド内容を生成するだけでよいため、確認・修正画面の表示にかかる時間を減らすことができる。
ステップS1608において、CPU111は、第二のインデックス抽出ルールの中から、入力文書の文書IDに紐づいたレコメンド情報を取得し、そのレコメンド情報に基づいて、レコメンド内容であるファイル名を生成する。
以上、実施例2によれば、ユーザによる確認・修正を行っているバックエンドで、先にすべての文書について一度レコメンド内容の生成処理を実行し、必要に応じてレコメンド内容の再生成処理を行う。これにより、1文書ごとの確認・修正画面の表示までにかかる時間を減らすことで、実施例1と比べて、さらにユーザの待ち時間を大きく減らすことができる。
In step S1605, the CPU 111 gives the input document the same document ID as the document determined to be of the same type as a result of the document matching in step S1603.
In the following step S1606, the CPU 111 obtains recommendation information associated with the document type determined in step S1603 from the second index extraction rule, and generates a file name as recommendation content based on the rule. do.
On the other hand, if there is a document ID in the image group, in step S1607, the CPU 111 refers to the update information linked to the document ID given to the input document in the second index extraction rule, and determines whether there is an update. judge. If there is an update, the process advances to step S1608, and if there is no update, the process ends. As a result, if there is no update, the result of the recommendation content generation process in step S1302 in FIG. 13 is recommended in step S705 in FIG. 14, and the time required to display the confirmation/correction screen can be reduced. Furthermore, even if there is an update, there is no need to perform document matching, and only the recommendation content needs to be generated in step S1608, which will be described later, so the time required to display the confirmation/correction screen can be reduced.
In step S1608, the CPU 111 acquires recommendation information linked to the document ID of the input document from the second index extraction rule, and generates a file name as recommendation content based on the recommendation information.
As described above, according to the second embodiment, the back end that performs confirmation and correction by the user first executes the process of generating the recommendation content once for all documents, and then regenerates the recommendation content as necessary. . As a result, by reducing the time required to display the confirmation/correction screen for each document, the user's waiting time can be further reduced significantly compared to the first embodiment.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (33)

ユーザによりセットされ一連の複数枚の原稿がスキャナで連続的にスキャンされと、当該スキャンによって得られた複数のページからなる画像データに対して、当該画像データに対する当該ユーザの操作を待たずして、当該複数のページの先頭ページから順に文字認識処理を開始していく制御手段と、
前記画像データのうちの先頭ページの画像データに対する前記文字認識処理の結果に対応する文字列を表示する画面であって、当該文字列に対して当該ユーザからの修正指示を受け付けることが可能な修正画面を提供する提供手段、
としてコンピュータを機能させる処理プログラムであって、
前記提供手段により提供される前記先頭ページの画像データについての前記修正画面が表示されている間に、前記先頭ページの後続ページ画像データに対する前記文字認識処理が、前記制御手段により実行される、
ことを特徴とする処理プログラム。
When a series of multiple originals set by a user is continuously scanned by a scanner , the image data consisting of multiple pages obtained by the scanning is processed without waiting for the user's operation on the image data. a control means that starts character recognition processing in order from the first page of the plurality of pages ;
A screen that displays a character string corresponding to the result of the character recognition process for the image data of the first page of the image data, the screen being capable of accepting correction instructions from the user for the character string. Providing means for providing the screen;
A processing program that causes a computer to function as
While the correction screen for the image data of the first page provided by the providing means is displayed, the character recognition process for the image data of the page subsequent to the first page is executed by the control means.
A processing program characterized by:
前記先頭ページの画像データについての前記修正画面における前記ユーザからの操作の受け付けに関わらず、前記後続ページの画像データに対する前記文字認識処理が前記制御手段により実行されることを特徴とする請求項1に記載の処理プログラム。 2. The character recognition process for the image data of the subsequent page is executed by the control means regardless of whether an operation from the user is accepted on the correction screen for the image data of the first page . The processing program described in . 前記提供手段は、前記先頭ページについての前記文字認識処理の完了に応答して、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項1又は2に記載の処理プログラム。
3. The processing program according to claim 1, wherein the providing means provides the modified screen for the first page in response to completion of the character recognition process for the first page.
前記提供手段は、前記先頭ページについての前記文字認識処理の完了に応答して、前記複数のページの中に前記文字認識処理が一切なされていないページがある間に、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項1又は2に記載の処理プログラム。
In response to the completion of the character recognition process for the first page, the providing means may perform the modification for the first page while there is a page for which the character recognition process has not been performed at all among the plurality of pages. 3. The processing program according to claim 1, wherein the processing program provides a screen.
前記提供手段は、前記先頭ページについての前記文字認識処理の完了に応答して、前記複数のページの残りのページに対する前記文字認識処理が完了する前に、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項1又は2に記載の処理プログラム。
The providing means provides the corrected screen for the first page before the character recognition process for the remaining pages of the plurality of pages is completed in response to completion of the character recognition process for the first page. The processing program according to claim 1 or 2, characterized in that:
前記先頭ページの画像データ及び前記後続ページの画像データの入力は、前記ユーザによる1つの動作により行われることを特徴とする請求項1~5のいずれか1項に記載の処理プログラム。 6. The processing program according to claim 1, wherein the image data of the first page and the image data of the subsequent page are input by one action by the user. 前記提供手段は、前記コンピュータのディスプレイに前記修正画面を提供することを特徴とする請求項1~のいずれか1項に記載の処理プログラム。 7. The processing program according to claim 1 , wherein the providing means provides the modified screen on a display of the computer. 前記修正画面は、前記コンピュータとは別の装置のディスプレイに表示されることを特徴とする請求項1~のいずれか1項に記載の処理プログラム。 7. The processing program according to claim 1 , wherein the correction screen is displayed on a display of a device other than the computer. 前記修正画面に表示される前記文字認識処理の結果に対応する前記文字列は、前記先頭ページの画像データに関するファイルのファイル名を示す文字列、当該ファイルが保存されるフォルダを示す文字列、及び、前記文字認識処理の結果を示す文字列の少なくとも1つであることを特徴とする請求項1~のいずれか1項に記載の処理プログラム。 The character string corresponding to the result of the character recognition process displayed on the correction screen includes a character string indicating the file name of the file related to the image data of the first page , a character string indicating the folder in which the file is saved, and , at least one of a character string indicating a result of the character recognition process. 前記修正画面には、前記先頭ページの画像データのプレビュー画像と並べて、前記修正指示の対象が表示されることを特徴とする請求項1~のいずれか1項に記載の処理プログラム。 10. The processing program according to claim 1, wherein the correction instruction target is displayed on the correction screen alongside a preview image of the image data of the first page . 前記修正画面に表示される前記文字列に用いる前記文字認識処理の結果に対応する文字領域の位置情報を、原稿の種類に対応付けて管理する管理手段と、
前記複数のページからなる画像データに対する画像処理の結果に基づいて、各ページの原稿の種類を識別する識別手段と、
をさらに有し、
前記修正画面には、前記先頭ページの原稿の種類に対応付けて管理されている前記位置情報の示す位置にある文字領域に対応する文字認識処理の結果に基づいて、前記文字列が表示されることを特徴とする請求項1~10のいずれか1項に記載の処理プログラム。
a management unit that manages positional information of a character area corresponding to the result of the character recognition process used for the character string displayed on the correction screen in association with the type of document;
Identification means for identifying the type of manuscript of each page based on the result of image processing on the image data consisting of the plurality of pages;
It further has
On the correction screen, the character string is displayed based on the result of character recognition processing corresponding to a character area located at a position indicated by the position information that is managed in association with the type of document on the first page . The processing program according to any one of claims 1 to 10 , characterized in that:
処理プログラムを実行する情報処理装置であって、
ユーザによりセットされ一連の複数枚の原稿がスキャナで連続的にスキャンされと、当該スキャンによって得られた複数のページからなる画像データに対して、前記処理プログラムにより、当該画像データに対する当該ユーザの操作を待たずして、当該複数のページの先頭ページから順に文字認識処理を開始していく制御手段と、
前記画像データのうちの先頭ページの画像データに対する前記文字認識処理の結果に対応する文字列を表示する画面であって、当該文字列に対して当該ユーザからの修正指示を受け付けることが可能な修正画面を、前記処理プログラムにより提供する提供手段と、
を有し、
前記提供手段により提供される前記先頭ページの画像データについての前記修正画面が表示されている間に、前記先頭ページの後続ページ画像データに対する前記文字認識処理が、前記制御手段により実行される、
ことを特徴とする情報処理装置。
An information processing device that executes a processing program,
When a series of multiple originals set by a user is continuously scanned by a scanner, the processing program processes the image data made up of multiple pages obtained by the scanning by the user . a control means that starts character recognition processing sequentially from the first page of the plurality of pages without waiting for an operation ;
A screen that displays a character string corresponding to the result of the character recognition process for the image data of the first page of the image data, the screen being capable of accepting correction instructions from the user for the character string. providing means for providing a screen using the processing program;
has
While the correction screen for the image data of the first page provided by the providing means is displayed, the character recognition process for the image data of the page subsequent to the first page is executed by the control means.
An information processing device characterized by:
前記先頭ページの画像データについての前記修正画面における前記ユーザからの操作の受け付けに関わらず、前記後続ページの画像データに対する前記文字認識処理が前記制御手段により実行されることを特徴とする請求項12に記載の情報処理装置。 12. The character recognition process for the image data of the subsequent page is executed by the control means regardless of acceptance of an operation from the user on the correction screen for the image data of the first page. The information processing device described in . 前記提供手段は、前記先頭ページについての前記文字認識処理の完了に応答して、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項12又は13に記載の情報処理装置。
14. The information processing apparatus according to claim 12 , wherein the providing means provides the modified screen for the first page in response to completion of the character recognition process for the first page.
前記提供手段は、前記先頭ページについての前記文字認識処理の完了に応答して、前記複数のページの中に前記文字認識処理が一切なされていないページがある間に、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項12又は13に記載の情報処理装置。
In response to the completion of the character recognition process for the first page, the providing means may perform the modification for the first page while there is a page for which the character recognition process has not been performed at all among the plurality of pages. The information processing device according to claim 12 or 13 , wherein the information processing device provides a screen.
前記提供手段は、前記先頭ページについての前記文字認識処理の完了に応答して、前記複数のページの残りのページに対する前記文字認識処理が完了する前に、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項12又は13に記載の情報処理装置。
The providing means provides the corrected screen for the first page before the character recognition process for the remaining pages of the plurality of pages is completed in response to completion of the character recognition process for the first page. The information processing device according to claim 12 or 13 , characterized in that:
前記先頭ページの画像データ及び前記後続ページの画像データの入力は、前記ユーザによる1つの動作により行われることを特徴とする請求項1216のいずれか1項に記載の情報処理装置。 17. The information processing apparatus according to claim 12 , wherein the image data of the first page and the image data of the subsequent page are input by one action by the user. 前記提供手段は、前記情報処理装置のディスプレイに前記修正画面を提供することを特徴とする請求項1217のいずれか1項に記載の情報処理装置。 18. The information processing apparatus according to claim 12 , wherein the providing means provides the modified screen on a display of the information processing apparatus. 前記修正画面は、前記情報処理装置とは別の装置のディスプレイに表示されることを特徴とする請求項1217のいずれか1項に記載の情報処理装置。 The information processing device according to claim 12 , wherein the correction screen is displayed on a display of a device other than the information processing device. 前記修正画面に表示される前記文字認識処理の結果に対応する前記文字列は、前記先頭ページの画像データに関するファイルのファイル名を示す文字列、当該ファイルが保存されるフォルダを示す文字列、及び、前記文字認識処理の結果を示す文字列の少なくとも1つであることを特徴とする請求項1219のいずれか1項に記載の情報処理装置。 The character string corresponding to the result of the character recognition process displayed on the correction screen includes a character string indicating the file name of the file related to the image data of the first page , a character string indicating the folder in which the file is saved, and , at least one of a character string indicating a result of the character recognition process. 前記修正画面には、前記先頭ページの画像データのプレビュー画像と並べて、前記修正指示の対象が表示されることを特徴とする請求項1220のいずれか1項に記載の情報処理装置。 21. The information processing apparatus according to claim 12 , wherein the correction instruction target is displayed on the correction screen alongside a preview image of the image data of the first page . 前記修正画面に表示される前記文字列に用いる前記文字認識処理の結果に対応する文字領域の位置情報を、原稿の種類に対応付けて管理する管理手段と、
前記複数のページからなる画像データに対する画像処理の結果に基づいて、各ページの原稿の種類を識別する識別手段と、
をさらに有し、
前記修正画面には、前記先頭ページの原稿の種類に対応付けて管理されている前記位置情報の示す位置にある文字領域に対応する文字認識処理の結果に基づいて、前記文字列が表示されることを特徴とする請求項1221のいずれか1項に記載の情報処理装置。
a management unit that manages positional information of a character area corresponding to the result of the character recognition process used for the character string displayed on the correction screen in association with the type of document;
Identification means for identifying the type of manuscript of each page based on the result of image processing on the image data consisting of the plurality of pages;
It further has
On the correction screen, the character string is displayed based on the result of character recognition processing corresponding to a character area located at a position indicated by the position information that is managed in association with the type of document on the first page . The information processing device according to any one of claims 12 to 21 .
処理プログラムを実行する情報処理装置の制御方法であって、
ユーザによりセットされ一連の複数枚の原稿がスキャナで連続的にスキャンされと、当該スキャンによって得られた複数のページからなる画像データに対して、前記処理プログラムにより、当該画像データに対する当該ユーザの操作を待たずして、当該複数のページの先頭ページから順に文字認識処理を開始していく制御工程と、
前記画像データのうちの先頭ページの画像データに対する前記文字認識処理の結果に対応する文字列を表示する画面であって、当該文字列に対して当該ユーザからの修正指示を受け付けることが可能な修正画面を、前記処理プログラムにより提供する提供工程と、
を有し、
前記提供工程において提供される前記先頭ページの画像データについての前記修正画面が表示されている間に、前記先頭ページの後続ページ画像データに対する前記文字認識処理が、前記制御工程により実行される、
ことを特徴とする情報処理装置の制御方法。
A method for controlling an information processing device that executes a processing program, the method comprising:
When a series of multiple originals set by a user is continuously scanned by a scanner, the processing program processes the image data made up of multiple pages obtained by the scanning by the user . a control step that starts character recognition processing sequentially from the first page of the plurality of pages without waiting for the operation ;
A screen that displays a character string corresponding to the result of the character recognition process for the image data of the first page of the image data, the screen being capable of accepting correction instructions from the user for the character string. a providing step of providing the screen by the processing program;
has
While the correction screen for the image data of the first page provided in the providing step is displayed, the character recognition process for the image data of the page subsequent to the first page is executed by the control step.
A method for controlling an information processing device, characterized in that:
前記先頭ページの画像データについての前記修正画面における前記ユーザからの操作の受け付けに関わらず、前記後続ページの画像データに対する前記文字認識処理が前記制御工程により実行されることを特徴とする請求項23に記載の情報処理装置の制御方法。 23. The character recognition process for the image data of the subsequent page is executed by the control step regardless of acceptance of an operation from the user on the correction screen for the image data of the first page. A method for controlling an information processing device according to . 前記提供工程において、前記先頭ページについての前記文字認識処理の完了に応答して、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項23又は24に記載の情報処理装置の制御方法。
Control of the information processing apparatus according to claim 23 or 24, wherein in the providing step, the correction screen for the first page is provided in response to completion of the character recognition process for the first page. Method.
前記提供工程において、前記先頭ページについての前記文字認識処理の完了に応答して、前記複数のページの中に前記文字認識処理が一切なされていないページがある間に、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項23又は24に記載の情報処理装置の制御方法。
In the providing step, in response to the completion of the character recognition process for the first page, while there is a page for which the character recognition process has not been performed at all among the plurality of pages, the correction for the first page is performed. 25. The method for controlling an information processing apparatus according to claim 23 or 24 , further comprising providing a screen.
前記提供工程において、前記先頭ページについての前記文字認識処理の完了に応答して、前記複数のページの残りのページに対する前記文字認識処理が完了する前に、前記先頭ページについての前記修正画面を提供する
ことを特徴とする請求項23又は24に記載の情報処理装置の制御方法。
In the providing step, in response to completion of the character recognition process for the first page, and before the character recognition process for the remaining pages of the plurality of pages is completed, the modified screen for the first page is provided. 25. The method of controlling an information processing apparatus according to claim 23 or 24 , characterized in that:
前記先頭ページの画像データ及び前記後続ページの画像データの入力は、前記ユーザによる1つの動作により行われることを特徴とする請求項2327のいずれか1項に記載の情報処理装置の制御方法。 28. The method of controlling an information processing apparatus according to claim 23 , wherein inputting the image data of the first page and the image data of the subsequent page is performed by one operation by the user. . 前記提供工程において、前記情報処理装置のディスプレイに前記修正画面を提供することを特徴とする請求項2328のいずれか1項に記載の情報処理装置の制御方法。 29. The method for controlling an information processing apparatus according to claim 23 , wherein in the providing step , the modified screen is provided on a display of the information processing apparatus. 前記修正画面は、前記情報処理装置とは別の装置のディスプレイに表示されることを特徴とする請求項2328のいずれか1項に記載の情報処理装置の制御方法。 29. The method for controlling an information processing device according to claim 23 , wherein the correction screen is displayed on a display of a device other than the information processing device. 前記修正画面に表示される前記文字認識処理の結果に対応する前記文字列は、前記先頭ページの画像データに関するファイルのファイル名を示す文字列、当該ファイルが保存されるフォルダを示す文字列、及び、前記文字認識処理の結果を示す文字列の少なくとも1つであることを特徴とする請求項2330のいずれか1項に記載の情報処理装置の制御方法。 The character string corresponding to the result of the character recognition process displayed on the correction screen includes a character string indicating the file name of the file related to the image data of the first page , a character string indicating the folder in which the file is saved, and , at least one of a character string indicating a result of the character recognition process. 前記修正画面には、前記先頭ページの画像データのプレビュー画像と並べて、前記修正指示の対象が表示されることを特徴とする請求項2331のいずれか1項に記載の情報処理装置の制御方法。 32. The control of the information processing apparatus according to claim 23 , wherein the modification screen displays the target of the modification instruction alongside a preview image of the image data of the first page. Method. 前記修正画面に表示される前記文字列に用いる前記文字認識処理の結果に対応する文字領域の位置情報を、原稿の種類に対応付けて管理する管理工程と、
前記複数のページからなる画像データに対する画像処理の結果に基づいて、各ページの原稿の種類を識別する識別工程と、
をさらに有し、
前記修正画面には、前記先頭ページの原稿の種類に対応付けて管理されている前記位置情報の示す位置にある文字領域に対応する文字認識処理の結果に基づいて、前記文字列が表示されることを特徴とする請求項2332のいずれか1項に記載の情報処理装置の制御方法。
a management step of managing position information of a character area corresponding to the result of the character recognition process used for the character string displayed on the correction screen in association with the type of manuscript;
an identification step of identifying the type of manuscript of each page based on the result of image processing on the image data consisting of the plurality of pages;
It further has
On the correction screen, the character string is displayed based on the result of character recognition processing corresponding to a character area located at a position indicated by the position information that is managed in association with the type of document on the first page . The method for controlling an information processing apparatus according to any one of claims 23 to 32 .
JP2019179738A 2019-09-30 2019-09-30 Information processing device, control method for information processing device, and its program Active JP7379051B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019179738A JP7379051B2 (en) 2019-09-30 2019-09-30 Information processing device, control method for information processing device, and its program
US17/032,083 US11620844B2 (en) 2019-09-30 2020-09-25 Image processing apparatus, control method of image processing apparatus, and storage medium
US18/179,816 US20230206672A1 (en) 2019-09-30 2023-03-07 Image processing apparatus, control method of image processing apparatus, and storage medium
JP2023186748A JP2024012448A (en) 2019-09-30 2023-10-31 Image processing device, control method of image processing device and program of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019179738A JP7379051B2 (en) 2019-09-30 2019-09-30 Information processing device, control method for information processing device, and its program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023186748A Division JP2024012448A (en) 2019-09-30 2023-10-31 Image processing device, control method of image processing device and program of the same

Publications (3)

Publication Number Publication Date
JP2021057783A JP2021057783A (en) 2021-04-08
JP2021057783A5 JP2021057783A5 (en) 2023-04-06
JP7379051B2 true JP7379051B2 (en) 2023-11-14

Family

ID=75161960

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019179738A Active JP7379051B2 (en) 2019-09-30 2019-09-30 Information processing device, control method for information processing device, and its program
JP2023186748A Pending JP2024012448A (en) 2019-09-30 2023-10-31 Image processing device, control method of image processing device and program of the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023186748A Pending JP2024012448A (en) 2019-09-30 2023-10-31 Image processing device, control method of image processing device and program of the same

Country Status (2)

Country Link
US (2) US11620844B2 (en)
JP (2) JP7379051B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11709640B2 (en) * 2021-05-25 2023-07-25 Toshiba Tec Kabushiki Kaisha Method and system for managing pages of documents on a multi-function printer

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213304A (en) 2002-12-27 2004-07-29 Canon Sales Co Inc Data processor, data processing method, recording medium, and program
JP2015215878A (en) 2014-04-21 2015-12-03 株式会社リコー Image processor and image processing system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5251273A (en) * 1992-04-15 1993-10-05 International Business Machines Corporation Data processing system and method for sequentially repairing character recognition errors for scanned images of document forms
JP3558493B2 (en) * 1997-06-10 2004-08-25 富士通株式会社 Paper alignment device, paper alignment method, and computer-readable recording medium recording paper alignment program
US6289342B1 (en) * 1998-01-05 2001-09-11 Nec Research Institute, Inc. Autonomous citation indexing and literature browsing using citation context
US20030042319A1 (en) * 2001-08-31 2003-03-06 Xerox Corporation Automatic and semi-automatic index generation for raster documents
US8176004B2 (en) * 2005-10-24 2012-05-08 Capsilon Corporation Systems and methods for intelligent paperless document management
JP5121557B2 (en) * 2008-05-12 2013-01-16 キヤノン株式会社 Information processing apparatus, information processing method, and program
US8990235B2 (en) * 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
JP4940270B2 (en) 2009-07-06 2012-05-30 シャープ株式会社 Image forming apparatus
US8824803B2 (en) * 2012-08-31 2014-09-02 Ancestry.Com Operations Inc. Automated field position linking of indexed data to digital images
US9588971B2 (en) * 2014-02-03 2017-03-07 Bluebeam Software, Inc. Generating unique document page identifiers from content within a selected page region
JP6881990B2 (en) * 2017-01-30 2021-06-02 キヤノン株式会社 Image processing device, its control method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213304A (en) 2002-12-27 2004-07-29 Canon Sales Co Inc Data processor, data processing method, recording medium, and program
JP2015215878A (en) 2014-04-21 2015-12-03 株式会社リコー Image processor and image processing system

Also Published As

Publication number Publication date
US20210097275A1 (en) 2021-04-01
US20230206672A1 (en) 2023-06-29
JP2024012448A (en) 2024-01-30
US11620844B2 (en) 2023-04-04
JP2021057783A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
US10984233B2 (en) Image processing apparatus, control method, and non-transitory storage medium that obtain text data for an image
JP4405831B2 (en) Image processing apparatus, control method therefor, and program
JP4251629B2 (en) Image processing system, information processing apparatus, control method, computer program, and computer-readable storage medium
JP4181892B2 (en) Image processing method
JP4371965B2 (en) Image processing apparatus and image processing method
JP4533273B2 (en) Image processing apparatus, image processing method, and program
JP6849387B2 (en) Image processing device, image processing system, control method of image processing device, and program
JP2018124656A (en) Image processing apparatus, control method thereof and program
US11144189B2 (en) Determination and relocation of movement targets based on a drag-and-drop operation of a thumbnail across document areas
KR20240020719A (en) Information processing apparatus, storage medium, and storing method
JP2024012448A (en) Image processing device, control method of image processing device and program of the same
US11301675B2 (en) Image processing apparatus, image processing method, and storage medium
JP2022162908A (en) Image processing apparatus, image processing method, and program
JP2022170175A (en) Information processing apparatus, information processing method, and program
CN111580758B (en) Image forming apparatus having a plurality of image forming units
JP2009048096A (en) Image processing apparatus, image forming apparatus, processing condition setting method and processing condition setting program
JP2006333248A (en) Image processing apparatus, image processing method, program and storage medium
JP2005149323A (en) Image processing system, image processing apparatus, and image processing method
US20230273952A1 (en) Image processing apparatus, image processing method, and storage medium
JP7124859B2 (en) data output system, information processing system, data output method, program
JP2022044454A (en) Program and device
JP2021144673A (en) Image processing apparatus, image processing method and program
JP2023170130A (en) Information processing device, information processing method, and program
JP2022092498A (en) Image processing apparatus, image processing method, and program
JP2021068289A (en) Image processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231101

R151 Written notification of patent or utility model registration

Ref document number: 7379051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151