JP7358663B2 - Image processing device for character input using a touch panel, its control method, and program - Google Patents

Image processing device for character input using a touch panel, its control method, and program Download PDF

Info

Publication number
JP7358663B2
JP7358663B2 JP2023018221A JP2023018221A JP7358663B2 JP 7358663 B2 JP7358663 B2 JP 7358663B2 JP 2023018221 A JP2023018221 A JP 2023018221A JP 2023018221 A JP2023018221 A JP 2023018221A JP 7358663 B2 JP7358663 B2 JP 7358663B2
Authority
JP
Japan
Prior art keywords
area
character
preview
character area
file name
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023018221A
Other languages
Japanese (ja)
Other versions
JP2023058616A (en
Inventor
健太 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019080362A external-priority patent/JP7225017B2/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2023018221A priority Critical patent/JP7358663B2/en
Publication of JP2023058616A publication Critical patent/JP2023058616A/en
Priority to JP2023096501A priority patent/JP2023120267A/en
Application granted granted Critical
Publication of JP7358663B2 publication Critical patent/JP7358663B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、タッチパネルを用いた文字入力技術に関する。 The present invention relates to character input technology using a touch panel.

従来、タッチパネルで入力した文字列の削除には専用の削除ボタンが設けられることが多かった。しかし、一般的な削除ボタンの場合は、一文字ずつしか削除できないことから、例えば自動入力された長すぎるファイル名を短くしたいと考えたユーザは、所望のファイル名にするために繰り返し削除ボタンを操作する必要があった。また、誤って文字列を入力してしまった場合も、ユーザはその都度、削除ボタンにまで指を移動させて操作しなければならなかった。この点、特許文献1には、予測変換で間違って文字列が入力された際に、削除ボタン1回の操作によって変換前の状態まで戻すことで、ボタン操作の繰り返しを不要にする技術が開示されている。また、特許文献2には、タッチ操作を誤って意図しない文字が入力されてしまった際に、同じ文字をタッチしてスライドする操作に応答して、本来入力したかった周囲の文字に置き換える技術が開示されている。 Conventionally, a dedicated delete button has often been provided to delete character strings input on a touch panel. However, since the general delete button can only delete one character at a time, for example, a user who wants to shorten an auto-entered file name that is too long may repeatedly press the delete button to achieve the desired file name. I needed to. Furthermore, even if a character string is entered by mistake, the user has to move his/her finger to the delete button each time. In this regard, Patent Document 1 discloses a technology that eliminates the need for repeated button operations by returning to the pre-conversion state with a single operation of the delete button when a character string is incorrectly input during predictive conversion. has been done. In addition, Patent Document 2 describes a technology in which when an unintended character is input by mistake during a touch operation, in response to an operation of touching and sliding the same character, it is replaced with the surrounding characters that were originally intended to be input. is disclosed.

特開2016-186717号公報Japanese Patent Application Publication No. 2016-186717 特開2012-243229号公報Japanese Patent Application Publication No. 2012-243229

上記特許文献1及び特許文献2には、画像データのプレビュー画像を表示するプレビュー領域と、前記画像データについての情報が表示される表示領域と、を含むUI画面を表示する制御手段を有し、前記制御手段は、前記プレビュー画像内で選択されていた領域の選択を解除するための、前記プレビュー画像上でのユーザ操作に応じて、当該領域の選択により前記表示領域に表示された当該領域の文字認識結果を削除するように制御する、ことを特徴とする情報処理装置は開示されていなかった。 Patent Document 1 and Patent Document 2 have a control means for displaying a UI screen including a preview area for displaying a preview image of image data and a display area for displaying information about the image data, The control means controls the area displayed in the display area by selecting the area in response to a user operation on the preview image to deselect the area selected in the preview image. An information processing device characterized by controlling to delete character recognition results has not been disclosed.

本発明は、上記課題に対応するべくなされたものである The present invention has been made to address the above problems .

本開示に係る情報処理装置は、スキャン画像データのプレビュー画像を表示するプレビュー領域と、前記スキャン画像データについての情報が表示される表示領域と、を含むUI画面を表示するように制御する制御手段と、保存手段と、を有し、前記制御手段は、前記プレビュー領域に含まれる前記プレビュー画像内の所望の文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御し、前記文字領域の前記選択を解除するための、選択されている前記文字領域に対する前記プレビュー画像上でのユーザ操作に応じて、前記表示領域に表示された前記選択されている文字領域の前記文字認識結果を削除するように制御し、前記保存手段は、前記プレビュー画像内の、選択され、かつ、前記表示領域に表示された文字認識結果に対応する文字領域を示す情報を保存し、前記保存手段により保存された前記文字領域を示す情報は、前記スキャン画像データと同じ種類の別のスキャン画像データを含むファイルのファイル名を生成する際に用いることができ、当該情報は、前記同じ種類の別のスキャン画像データにおいて当該情報に対応する領域を特定するために用いられ、当該特定された領域における文字認識結果が前記ファイル名の生成に用いられることを特徴とする。

An information processing apparatus according to the present disclosure includes a control unit that controls to display a UI screen that includes a preview area that displays a preview image of scanned image data, and a display area that displays information about the scanned image data. and a storage means, wherein the control means stores a character recognition result of a desired character area in the preview image in response to a user operation for selecting the desired character area in the preview image. displayed in the display area in response to a user operation on the preview image for the selected text area to control display in the display area and cancel the selection of the text area. The storage means controls to delete the character recognition result of the selected character area, and the storage means deletes the character recognition result of the character recognition result that is selected and displayed in the display area in the preview image. Information indicating an area is stored, and the information indicating the character area saved by the storage means can be used when generating a file name of a file containing another scanned image data of the same type as the scanned image data. and that the information is used to identify a region corresponding to the information in another scanned image data of the same type, and that the character recognition result in the identified region is used to generate the file name. Features.

本開示の技術によれば、プレビュー画像内で選択されていた領域の選択を解除するための、前記プレビュー画像上でのユーザ操作に応じて、当該領域の選択により前記表示領域に表示された当該領域の文字認識結果を削除することができる。 According to the technology of the present disclosure, in response to a user operation on the preview image to deselect an area that has been selected in the preview image, the area displayed in the display area due to the selection of the area Character recognition results for an area can be deleted.

画像処理システムの全体構成を示す図Diagram showing the overall configuration of the image processing system MFPのハードウェア構成を示すブロック図Block diagram showing the hardware configuration of MFP MFP連携サーバ及びストレージサーバのハードウェア構成を示すブロック図Block diagram showing the hardware configuration of the MFP cooperation server and storage server 画像処理システムのソフトウェア構成を示すブロック図Block diagram showing the software configuration of the image processing system 画像処理システム全体の処理の流れを示すシーケンス図Sequence diagram showing the processing flow of the entire image processing system メイン画面の一例を示す図Diagram showing an example of the main screen ログイン画面の一例を示す図Diagram showing an example of a login screen スキャン設定画面の一例を示す図Diagram showing an example of the scan settings screen (a)はリクエストIDの一例を示す図、(b)及び(c)は処理状況の問合せに対するレスポンスの一例を示す図(a) is a diagram showing an example of a request ID, (b) and (c) are diagrams showing an example of a response to an inquiry about processing status. ファイル名設定画面の一例を示す図Diagram showing an example of the file name setting screen 学習リクエストの一例を示す図Diagram showing an example of a learning request MFPにおける処理の流れを示すフローチャートFlowchart showing the flow of processing in MFP スキャン画像の一例を示す図Diagram showing an example of a scanned image ファイル名条件設定画面の一例を示す図Diagram showing an example of the file name condition setting screen 文字認識結果の一例を示す図Diagram showing an example of character recognition results 類似帳票判定結果の一例を示す図Diagram showing an example of similar document determination results スキャン画像の一例を示す図Diagram showing an example of a scanned image MFPでのファイル名設定処理の流れを示すフローチャートFlowchart showing the flow of file name setting processing on the MFP MFPでのファイル名設定処理の流れを示すフローチャートFlowchart showing the flow of file name setting processing on the MFP プレビュー領域の初期表示部分を示す図Diagram showing the initial display part of the preview area ファイル名設定画面の一例を示す図Diagram showing an example of the file name setting screen ソフトキーボードの一例を示す図Diagram showing an example of a soft keyboard 操作ガイダンスが表示されたファイル名設定画面の一例を示す図Diagram showing an example of a file name setting screen with operational guidance displayed 文字領域に対してタッチ操作がなされたときのファイル名設定画面の一例を示す図Diagram showing an example of a file name setting screen when a touch operation is performed on a character area 初期変倍率を調整した場合の、プレビュー領域の初期表示部分を示す図Diagram showing the initial display part of the preview area when the initial magnification is adjusted

以下、本発明を実施するための形態について図面を用いて説明する。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。 EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing this invention is demonstrated using drawings. Note that the following embodiments do not limit the claimed invention, and not all combinations of features described in the embodiments are essential to the solution of the invention.

[実施形態1]
<システム構成>
図1は、本実施形態に係る、画像処理システムの全体構成を示す図である。画像処理システムは、MFP(Multifunction Peripheral)110と、インターネット上でクラウドサービスを提供するサーバ装置120及び130とを含む。MFP110は、インターネットを介してサーバ装置120及び130と通信可能に接続されている。
[Embodiment 1]
<System configuration>
FIG. 1 is a diagram showing the overall configuration of an image processing system according to this embodiment. The image processing system includes an MFP (Multifunction Peripheral) 110 and server devices 120 and 130 that provide cloud services on the Internet. MFP 110 is communicably connected to server devices 120 and 130 via the Internet.

MFP110は、スキャン機能を有する情報処理装置の一例である。MFP110は、スキャン機能に加え印刷機能やBOX保存機能といった複数の機能を有する複合機である。サーバ装置120及び130は、共にクラウドサービスを提供する情報処理装置の一例である。本実施形態のサーバ装置120は、MFP110から受け取ったスキャン画像に対し画像解析を行ったり、別のサービスを提供するサーバ装置130に対しMFP110からのリクエストを転送したりするクラウドサービスを提供する。以下、サーバ装置120が提供するクラウドサービスを「MFP連携サービス」と呼ぶこととする。サーバ装置130は、インターネットを介して送られてきたファイルを保存したり、モバイル端末(不図示)などのウェブブラウザからの要求に応じて保存ファイルを提供したりするクラウドサービス(以下、「ストレージサービス」と呼ぶ)を提供する。本実施形態では、MFP連携サービスを提供するサーバ装置120を「MFP連携サーバ」と呼び、ストレージサービスを提供するサーバ装置130を「ストレージサーバ」と呼ぶこととする。 MFP 110 is an example of an information processing device having a scanning function. The MFP 110 is a multifunction device that has multiple functions such as a printing function and a BOX storage function in addition to a scanning function. The server devices 120 and 130 are both examples of information processing devices that provide cloud services. The server device 120 of this embodiment provides a cloud service that performs image analysis on a scanned image received from the MFP 110 and forwards a request from the MFP 110 to a server device 130 that provides another service. Hereinafter, the cloud service provided by the server device 120 will be referred to as an "MFP cooperation service." The server device 130 is a cloud service (hereinafter referred to as a "storage service") that stores files sent via the Internet and provides stored files in response to a request from a web browser such as a mobile terminal (not shown). ). In this embodiment, the server device 120 that provides MFP cooperation services will be referred to as an "MFP cooperation server," and the server device 130 that provides storage services will be referred to as a "storage server."

図1に示す画像処理システム100の構成は一例であって、これに限定されない。例えば、MFP連携サーバ120の機能をMFP110が兼ね備えていてもよい。また、MFP連携サーバ120はインターネット上ではなくLAN(Local Area Network)経由でMFP110と接続されていてもよい。また、ストレージサーバ130を、メール配信サービスを行うメールサーバに置き換えて、文書のスキャン画像をメールに添付し送信する場面に適用してもよい。 The configuration of the image processing system 100 shown in FIG. 1 is an example, and the configuration is not limited thereto. For example, the MFP 110 may have the functions of the MFP cooperation server 120. Further, the MFP cooperation server 120 may be connected to the MFP 110 not on the Internet but via a LAN (Local Area Network). Furthermore, the storage server 130 may be replaced with a mail server that provides a mail distribution service, and the present invention may be applied to a situation where a scanned image of a document is attached to an email and sent.

<MFPのハードウェア構成>
図2は、MFP110のハードウェア構成を示すブロック図である。MFP110は、制御部210、操作部220、プリンタ部221、スキャナ部222、モデム223で構成される。制御部210は、以下の各部211~219で構成され、MFP110全体の動作を制御する。CPU211は、ROM212に記憶された様々な制御プログラム(後述のソフトウェア構成図で示す各種機能に対応するプログラム)を読み出して実行する。RAM213は、CPU211の主メモリ、ワークエリア等の一時記憶領域として用いられる。なお、本実施例では1つのCPU211が1つのメモリ(RAM213またはHDD214)を用いて後述のフローチャートに示す各処理を実行するものとするが、これに限定されない。例えば、複数のCPUや複数のRAMまたはHDDを協働させて各処理を実行してもよい。HDD214は、画像データや各種プログラムを記憶する大容量記憶部である。操作部I/F215は、操作部220と制御部210とを接続するインタフェースである。操作部220には、タッチパネルやキーボードなどが備えられており、ユーザによる操作/入力/指示を受け付ける。なお、タッチパネルへのタッチ操作には、人の指による操作やタッチペンによる操作が含まれる。プリンタI/F216は、プリンタ部221と制御部210とを接続するインタフェースである。印刷用の画像データはプリンタI/F216を介して制御部210からプリンタ部221へ転送され、紙等の記録媒体上に印刷される。スキャナI/F217は、スキャナ部222と制御部210とを接続するインタフェースである。スキャナ部222は、不図示の原稿台やADF(Auto Document Feeder)にセットされた原稿を光学的に読み取ってスキャン画像データを生成し、スキャナI/F217を介して制御部210に入力する。スキャナ部222で生成されたスキャン画像データは、プリンタ部221にて印刷したり(コピー出力)、HDD214に保存したり、LANを介してMFP連携サーバ120等の外部装置にファイル送信したりすることができる。モデムI/F218は、モデム223と制御部210とを接続するインタフェースである。モデム223は、PSTN上のファクシミリ装置(不図示)との間で画像データをファクシミリ通信する。ネットワークI/F219は、制御部210(MFP110)をLANに接続するインタフェースである。MFP110は、ネットワークI/F219を用いて、スキャン画像データをMFP連携サーバ120に送信したり、MFP連携サーバ120から各種データを受信したりする。以上説明したMFP110のハードウェア構成は一例であり、必要に応じてその他の構成を備えるものであってもよいし、一部の構成を有していなくてもよい。
<MFP hardware configuration>
FIG. 2 is a block diagram showing the hardware configuration of MFP 110. The MFP 110 includes a control section 210, an operation section 220, a printer section 221, a scanner section 222, and a modem 223. The control unit 210 includes the following units 211 to 219, and controls the overall operation of the MFP 110. The CPU 211 reads and executes various control programs (programs corresponding to various functions shown in a software configuration diagram described later) stored in the ROM 212. The RAM 213 is used as a main memory of the CPU 211 and a temporary storage area such as a work area. Note that in this embodiment, one CPU 211 uses one memory (RAM 213 or HDD 214) to execute each process shown in a flowchart described later, but the present invention is not limited to this. For example, each process may be executed by making multiple CPUs, multiple RAMs, or HDDs work together. The HDD 214 is a large capacity storage unit that stores image data and various programs. The operation unit I/F 215 is an interface that connects the operation unit 220 and the control unit 210. The operation unit 220 includes a touch panel, a keyboard, and the like, and receives operations/inputs/instructions from the user. Note that touch operations on the touch panel include operations using a human finger and operations using a touch pen. The printer I/F 216 is an interface that connects the printer section 221 and the control section 210. Image data for printing is transferred from the control unit 210 to the printer unit 221 via the printer I/F 216 and printed on a recording medium such as paper. The scanner I/F 217 is an interface that connects the scanner section 222 and the control section 210. The scanner unit 222 optically reads a document set on a document table or an ADF (Auto Document Feeder) (not shown), generates scanned image data, and inputs the scanned image data to the control unit 210 via the scanner I/F 217 . The scanned image data generated by the scanner unit 222 can be printed by the printer unit 221 (copy output), stored in the HDD 214, or sent as a file to an external device such as the MFP cooperation server 120 via the LAN. I can do it. Modem I/F 218 is an interface that connects modem 223 and control unit 210. The modem 223 performs facsimile communication of image data with a facsimile device (not shown) on the PSTN. The network I/F 219 is an interface that connects the control unit 210 (MFP 110) to the LAN. The MFP 110 uses the network I/F 219 to transmit scan image data to the MFP cooperation server 120 and to receive various data from the MFP cooperation server 120. The hardware configuration of the MFP 110 described above is an example, and the MFP 110 may include other configurations as necessary, or may not include some of the configurations.

<サーバ装置のハードウェア構成>
図3は、MFP連携サーバ120/ストレージサーバ130のハードウェア構成を示すブロック図である。MFP連携サーバ120とストレージサーバ130は共通のハードウェア構成を有し、CPU311、ROM312、RAM313、HDD314及びネットワークI/F315で構成される。CPU311は、ROM312に記憶された制御プログラムを読み出して各種処理を実行することで、全体の動作を制御する。RAM313は、CPU311の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD314は、画像データや各種プログラムを記憶する大容量記憶部である。ネットワークI/F315は、制御部310をインターネットに接続するインタフェースである。MFP連携サーバ120及びストレージサーバ130は、ネットワークI/F315を介して他の装置(MFP110など)から様々な処理のリクエストを受け、当該リクエストに応じた処理結果を返す。
<Hardware configuration of server device>
FIG. 3 is a block diagram showing the hardware configuration of the MFP cooperation server 120/storage server 130. The MFP cooperation server 120 and the storage server 130 have a common hardware configuration, and are composed of a CPU 311, ROM 312, RAM 313, HDD 314, and network I/F 315. The CPU 311 controls the overall operation by reading a control program stored in the ROM 312 and executing various processes. The RAM 313 is used as a temporary storage area such as the main memory and work area of the CPU 311. The HDD 314 is a large capacity storage unit that stores image data and various programs. Network I/F 315 is an interface that connects control unit 310 to the Internet. The MFP cooperation server 120 and the storage server 130 receive various processing requests from other devices (such as the MFP 110) via the network I/F 315, and return processing results according to the requests.

<画像処理システムのソフトウェア構成>
図4は、本実施形態に係る、画像処理システム100のソフトウェア構成を示すブロック図である。以下、画像処理システム100を構成するMFP110及び、MFP連携サーバ120及びストレージサーバ130それぞれの役割に対応したソフトウェア構成を、順に説明する。なお、以下では、各装置が有する諸機能のうち、文書をスキャンしてファイル化し、ストレージサーバ130に保存を行うまでの処理に関わる機能に絞って説明を行うものとする。
<Software configuration of image processing system>
FIG. 4 is a block diagram showing the software configuration of the image processing system 100 according to this embodiment. Below, software configurations corresponding to the respective roles of the MFP 110, the MFP cooperation server 120, and the storage server 130 that constitute the image processing system 100 will be explained in order. Note that among the various functions possessed by each device, the following description will focus on functions related to processing from scanning a document to creating a file and storing it in the storage server 130.

≪MFPのソフトウェア構成≫
MFP110の機能モジュールは、ネイティブ機能モジュール410とアディショナル機能モジュール420の2つに大別される。ネイティブ機能モジュール410はMFP110に標準的に備えられたアプリケーションであるのに対し、アディショナル機能モジュール420はMFP110に追加的にインストールされたアプリケーションである。アディショナル機能モジュール420は、Java(登録商標)をベースとしたアプリケーションであり、MFP110への機能追加を容易に実現できる。なお、MFP110には図示しない他の追加アプリケーションがインストールされていてもよい。
<<Software configuration of MFP>>
The functional modules of the MFP 110 are roughly divided into two: a native functional module 410 and an additional functional module 420. Native function module 410 is an application that is standardly provided in MFP 110, whereas additional function module 420 is an application that is additionally installed in MFP 110. The additional function module 420 is a Java (registered trademark)-based application, and can easily add functions to the MFP 110. Note that other additional applications (not shown) may be installed in the MFP 110.

ネイティブ機能モジュール410は、スキャン実行部411およびスキャン画像管理部412を有する。また、アディショナル機能モジュール420は、表示制御部421、スキャン制御部422、連携サービスリクエスト部423、画像処理部424を有する。 The native function module 410 includes a scan execution section 411 and a scan image management section 412. Further, the additional function module 420 includes a display control section 421, a scan control section 422, a cooperation service request section 423, and an image processing section 424.

表示制御部421は、操作部220のタッチパネルに、各種のユーザ操作を受け付けるためのユーザインタフェース画面(UI画面)を表示する。各種のユーザ操作には、例えば、MFP連携サーバ120へアクセスするためのログイン認証情報の入力、スキャン設定、スキャンの開始指示、ファイル名設定、ファイルの保存指示などがある。 The display control unit 421 displays a user interface screen (UI screen) for accepting various user operations on the touch panel of the operation unit 220. Various user operations include, for example, inputting login authentication information for accessing the MFP cooperation server 120, scan settings, scan start instructions, file name settings, file save instructions, and the like.

スキャン制御部422は、UI画面でなされたユーザ操作(例えば「スキャン開始」ボタンの押下)に応じて、スキャン設定の情報と共にスキャン実行部411に対しスキャン処理の実行を指示する。スキャン実行部411は、スキャン制御部422からのスキャン処理の実行指示に従い、スキャナI/F217を介してスキャナ部240に文書の読み取り動作を実行させ、スキャン画像データを生成する。生成したスキャン画像データは、スキャン画像管理部412によってHDD214に保存される。この際、保存されたスキャン画像データを一意に示すスキャン画像識別子の情報が、スキャン制御部422へ通知される。スキャン画像識別子は、MFP110においてスキャンした画像をユニークに識別するための番号や記号、アルファベットなどである。スキャン制御部422は、例えばファイル化する対象のスキャン画像データを上記のスキャン画像識別子を使ってスキャン画像管理部412から取得する。そして、ファイル化のために必要な処理のリクエストをMFP連携サーバ120に対して行うよう、連携サービスリクエスト部423に対して指示する。 The scan control unit 422 instructs the scan execution unit 411 to execute scan processing along with scan setting information in response to a user operation performed on the UI screen (for example, pressing a "start scan" button). The scan execution unit 411 causes the scanner unit 240 to execute a document reading operation via the scanner I/F 217 in accordance with an instruction to execute a scan process from the scan control unit 422, and generates scan image data. The generated scan image data is stored in the HDD 214 by the scan image management unit 412. At this time, information on a scan image identifier that uniquely indicates the saved scan image data is notified to the scan control unit 422. The scanned image identifier is a number, symbol, alphabet, or the like for uniquely identifying an image scanned by the MFP 110. For example, the scan control unit 422 acquires scan image data to be converted into a file from the scan image management unit 412 using the above scan image identifier. Then, it instructs the cooperation service request unit 423 to request the MFP cooperation server 120 for processing necessary for file creation.

連携サービスリクエスト部423は、MFP連携サーバ120に対して各種処理のリクエストを行ったり、そのレスポンスを受け取ったりする。各種処理には、例えば、ログイン認証、スキャン画像の解析、スキャン画像データの送信などが含まれる。MFP連携サーバ120とのやり取りはRESTやSOAPなどの通信プロトコルを使用される。 The cooperation service request unit 423 makes requests for various processes to the MFP cooperation server 120 and receives responses thereto. Various processes include, for example, login authentication, analysis of scanned images, and transmission of scanned image data. Communication protocols such as REST and SOAP are used for communication with the MFP cooperation server 120.

画像処理部424は、スキャン画像データに対し所定の画像処理を行って、表示制御部421が表示するUI画面で用いられる画像を生成する。所定の画像処理の詳細については後述する。 The image processing unit 424 performs predetermined image processing on the scanned image data to generate an image used on the UI screen displayed by the display control unit 421. Details of the predetermined image processing will be described later.

≪サーバ装置のソフトウェア構成≫
まず、MFP連携サーバ120のソフトウェア構成について説明する。MFP連携サーバ120は、リクエスト制御部431、画像処理部432、ストレージサーバアクセス部433、データ管理部434、表示制御部435を有する。リクエスト制御部431は、外部装置からのリクエストを受信できる状態で待機しており、受信したリクエスト内容に応じて、画像処理部432、ストレージサーバアクセス部433、データ管理部434に対し所定の処理の実行を指示する。画像処理部432は、MFP110から送られてくるスキャン画像データに対して、文字領域の検出処理、文字認識処理、類似文書の判定処理といった画像解析処理の他、回転や傾き補正といった画像加工処理を行う。ストレージサーバアクセス部433は、ストレージサーバ130に対する処理のリクエストを行う。クラウドサービスでは、RESTやSOAPなどのプロトコルを用いてストレージサーバにファイルを保存したり、保存したファイルを取得したりするための様々なインタフェースを公開している。ストレージサーバアクセス部433は、公開されたインタフェースを使用して、ストレージサーバ130に対するリクエストを行う。データ管理部434は、MFP連携サーバ120で管理するユーザ情報や各種設定データ等を保持・管理する。表示制御部435は、インターネット経由で接続されたPCやモバイル端末(いずれも不図示)上で動作しているウェブブラウザからのリクエストを受けて、画面表示に必要な画面構成情報(HTML、CSS等)を返す。ユーザは、ウェブブラウザで表示される画面経由で、登録されているユーザ情報を確認したり、スキャン設定を変更したりできる。
≪Software configuration of server device≫
First, the software configuration of the MFP cooperation server 120 will be explained. The MFP cooperation server 120 includes a request control section 431, an image processing section 432, a storage server access section 433, a data management section 434, and a display control section 435. The request control unit 431 is on standby ready to receive requests from external devices, and instructs the image processing unit 432, storage server access unit 433, and data management unit 434 to perform predetermined processing according to the content of the received request. Instruct execution. The image processing unit 432 performs image processing such as rotation and tilt correction on the scanned image data sent from the MFP 110 in addition to image analysis processing such as character area detection processing, character recognition processing, and similar document determination processing. conduct. The storage server access unit 433 requests the storage server 130 for processing. Cloud services expose various interfaces for saving files on storage servers and retrieving saved files using protocols such as REST and SOAP. The storage server access unit 433 makes a request to the storage server 130 using the published interface. The data management unit 434 holds and manages user information, various setting data, etc. managed by the MFP cooperation server 120. The display control unit 435 receives a request from a web browser running on a PC or mobile terminal (both not shown) connected via the Internet, and generates screen configuration information (HTML, CSS, etc.) necessary for screen display. )return it. Users can check registered user information and change scan settings via the screen displayed on a web browser.

次に、ストレージサーバ130のソフトウェア構成について説明する。ストレージサーバ130は、リクエスト制御部441、ファイル管理部442、表示制御部443を有する。リクエスト制御部441は、外部装置からのリクエストを受信できる状態で待機しており、本実施形態においてはMFP連携サーバ120からのリクエストに応じて、受信したファイルの保存や保存ファイルの読み出しをファイル管理部442に指示する。そして、リクエストに応じたレスポンスをMFP連携サーバ120に返す。表示制御部443は、インターネット経由で接続されたPCやモバイル端末(いずれも不図示)上で動作しているウェブブラウザからのリクエストを受けて、画面表示に必要な画面構成情報(HTML、CSS等)を返す。ユーザは、ウェブブラウザで表示される画面経由で、保存ファイルを確認したり取得したりすることができる。 Next, the software configuration of the storage server 130 will be explained. The storage server 130 includes a request control section 441, a file management section 442, and a display control section 443. The request control unit 441 is on standby in a state where it can receive requests from external devices, and in this embodiment performs file management such as saving received files and reading saved files in response to requests from the MFP cooperation server 120. 442. Then, a response according to the request is returned to the MFP cooperation server 120. The display control unit 443 receives a request from a web browser running on a PC or mobile terminal (both not shown) connected via the Internet, and generates screen configuration information (HTML, CSS, etc.) necessary for screen display. )return it. Users can check and retrieve saved files via the screen displayed on a web browser.

<画像処理システム全体の処理の流れ>
図5は、MFP110で文書をスキャンし、得られたスキャン画像をファイル化してストレージサーバに保存する際の、装置間の処理の流れを示すシーケンス図である。図6はMFP110の起動時に表示されるメインメニューのUI画面(以下、「メイン画面」と表記)の一例を示す図である。文書をスキャンしてファイル化し、クラウドストレージサービスの利用に必要な専用のアプリケーションをMFP110にインストールすることで、メイン画面600上に「スキャンしてクラウドストレージに保存」ボタン601が表示されるようになる。そして、ユーザがメイン画面600内に表示されたメニューボタンの中から「スキャンしてクラウドストレージに保存」ボタン601を押下すると、図5のシーケンス図で示される一連の処理が開始する。以下、図5のシーケンス図に沿って、装置間のやり取りを時系列に説明する。なお、以下の説明において記号「S」はステップを表す。
<Processing flow of the entire image processing system>
FIG. 5 is a sequence diagram showing the flow of processing between devices when a document is scanned by the MFP 110 and the obtained scanned image is converted into a file and saved in a storage server. FIG. 6 is a diagram showing an example of a main menu UI screen (hereinafter referred to as "main screen") that is displayed when the MFP 110 is started. By scanning a document into a file and installing a dedicated application necessary for using the cloud storage service on the MFP 110, a "scan and save to cloud storage" button 601 will be displayed on the main screen 600. . When the user presses the "scan and save to cloud storage" button 601 from among the menu buttons displayed on the main screen 600, a series of processes shown in the sequence diagram of FIG. 5 starts. Hereinafter, the exchange between the devices will be explained in chronological order along the sequence diagram of FIG. 5. Note that in the following description, the symbol "S" represents a step.

MFP110は、MFP連携サーバ120にアクセスするためのログイン認証の情報を入力するUI画面(以下、「ログイン画面」と表記)を操作部220に表示する(S501)。図7にログイン画面の一例を示す。ユーザが、予め登録されているユーザIDとパスワードを、ログイン画面700上の入力欄702及び703にそれぞれ入力し「ログイン」ボタン701を押下すると、ログイン認証のリクエストがMFP連携サーバ120に送信される(S502)。 The MFP 110 displays a UI screen (hereinafter referred to as "login screen") on the operation unit 220 for inputting login authentication information for accessing the MFP cooperation server 120 (S501). FIG. 7 shows an example of a login screen. When the user enters the previously registered user ID and password into input fields 702 and 703 on the login screen 700 and presses the "Login" button 701, a request for login authentication is sent to the MFP cooperation server 120. (S502).

ログイン認証のリクエストを受けたMFP連携サーバ120は、当該リクエストに含まれるユーザIDとパスワードを用いて認証処理を行う(S503)。認証処理の結果、正規のユーザであることが確認されれば、MFP連携サーバ120は、アクセストークンをMFP110に返す。以後、MFP110からMFP連携サーバ120に対して行う各種リクエストの際にこのアクセストークンを一緒に送ることで、ログイン中のユーザが特定される。本実施形態では、MFP連携サーバ120へのログインの完了によって、ストレージサーバ130へのログインも同時に完了するものとする。このためにユーザは、インターネット上のPC(不図示)のウェブブラウザ等を介して、MFP連携サービスを利用するためのユーザIDとストレージサービスを利用するためのユーザIDとの紐づけを予め行っておく。これにより、MFP連携サーバ120へのログイン認証に成功すれば同時にストレージサーバ130へのログイン認証も完了し、ストレージサーバ130にログインするための操作を省略できる。そして、MFP連携サーバ120においては、自装置にログインしたユーザからのストレージサービスに関するリクエストにも対応可能となる。なお、ログイン認証の方法は一般的に公知な手法(Basic認証、Digest認証、OAuthを用いた認可等)を用いて行えばよい。 Upon receiving the request for login authentication, the MFP cooperation server 120 performs authentication processing using the user ID and password included in the request (S503). If it is confirmed that the user is an authorized user as a result of the authentication process, the MFP cooperation server 120 returns an access token to the MFP 110. Thereafter, the logged-in user is identified by sending this access token together with various requests made from the MFP 110 to the MFP cooperation server 120. In this embodiment, when the login to the MFP cooperation server 120 is completed, the login to the storage server 130 is also completed at the same time. For this purpose, the user must link the user ID for using the MFP cooperation service and the user ID for using the storage service in advance via a web browser or the like on a PC (not shown) on the Internet. put. As a result, if the login authentication to the MFP cooperation server 120 is successful, the login authentication to the storage server 130 is also completed at the same time, and the operation for logging into the storage server 130 can be omitted. The MFP cooperation server 120 can also respond to requests regarding storage services from users who have logged in to its own device. Note that the login authentication may be performed using a generally known method (Basic authentication, Digest authentication, authorization using OAuth, etc.).

ログインが完了すると、MFP110は、スキャン設定用のUI画面(以下、「スキャン設定画面」と表記)が操作部220に表示される(S507)。図8にスキャン設定画面の一例を示す。スキャン設定画面800には、「スキャン開始」ボタン801、カラー設定欄802、解像度設定欄803が存在する。「スキャン開始」ボタン801は、原稿台にセットした文書(本実施形態では見積書や請求書といった帳票を想定)に対するスキャン処理の開始を指示するためのボタンである。カラー設定欄802では、スキャン時のカラーモードを設定する。例えばフルカラーやモノクロといった選択肢の中から指定できるようになっている。解像度設定欄803では、スキャン時の解像度を設定する。例えば600dpiや1200dpiといった選択肢の中から指定できるようになっている。なお、カラーモードと解像度は設定項目の一例であって、これらすべてが存在しなくてもよいし、これら以外の設定項目が存在してもよい。また、カラーモードや解像度に関する選択肢を、ストレージサービスの要求する設定値のみに限定したりしてもよい。ログインユーザは、このようなスキャン設定画面800を介してスキャン処理についての詳細な条件設定を行なう。スキャン設定を終えたログインユーザが、MFP110の原稿台にスキャン対象の文書をセットし、「スキャン開始」ボタン801を押下するとスキャンが実行される(S505)。これにより、紙文書を電子化した画像データが生成される。スキャンの完了後、MFP110は、スキャンによって得られた画像データを、その解析リクエストと共にMFP連携サーバ120に送信する(S506)。 When the login is completed, the MFP 110 displays a UI screen for scan settings (hereinafter referred to as "scan settings screen") on the operation unit 220 (S507). FIG. 8 shows an example of a scan setting screen. The scan setting screen 800 includes a "start scan" button 801, a color setting field 802, and a resolution setting field 803. A “start scan” button 801 is a button for instructing the start of scanning processing for a document (assumed to be a form such as an estimate or an invoice in this embodiment) set on the document table. In the color setting field 802, the color mode at the time of scanning is set. For example, you can choose from options such as full color or monochrome. In the resolution setting column 803, the resolution at the time of scanning is set. For example, it is possible to specify from among options such as 600 dpi and 1200 dpi. Note that the color mode and resolution are examples of setting items, and all of them may not be present, or setting items other than these may be present. Further, the options regarding color mode and resolution may be limited to only the setting values required by the storage service. The logged-in user sets detailed conditions for scan processing via the scan setting screen 800. When the logged-in user who has completed the scan settings sets the document to be scanned on the document table of the MFP 110 and presses the "Start Scan" button 801, the scan is executed (S505). As a result, image data obtained by digitizing the paper document is generated. After the scan is completed, the MFP 110 transmits the image data obtained by the scan to the MFP cooperation server 120 along with a request for analysis thereof (S506).

スキャン画像の解析リクエストを受けたMFP連携サーバ120では、リクエスト制御部431が画像処理部432に対し、画像解析処理の実行を指示する(S507)。その際、リクエスト制御部431は、受信した解析リクエストを一意に特定可能なリクエストIDをMFP110に返す。図9(a)にリクエストIDの一例を示す。一方、解析処理の実行指示を受けた画像処理部432は、スキャン画像に対する解析処理を実行する(S508)。この画像解析処理では、まずスキャン画像内に存在する文字領域を検出する処理を行う。文字領域の検出は、例えば、ある閾値で2値化を行った画像から文字と推測される矩形領域を抽出する方法等、既知の方法を適用すればよい。次に、文字領域検出処理によって見つかった各文字領域に対して、文字認識処理(OCR:Optical Character Recognition)を行う。そして、今回のスキャン対象の帳票が、過去のスキャン対象の帳票と類似しているかどうかを判定する処理(類似文書判定処理)を行う。この類似帳票の判定では、スキャン画像内に存在する各文字領域が当該スキャン画像のどこに位置するかを示す配置情報を用いる。具体的には、過去のスキャン画像についての配置情報と今回のスキャン画像についての配置情報とを比較し、文字領域の配置が類似しているかどうかを判定する。これは、文字領域の配置が類似していれば、それらは同一のフォーマットを用いて作成された帳票であると推測できることに基づいている。この類似帳票の判定で使用する過去のスキャン画像の配置情報は、後述の「帳票学習処理」によって蓄積される。これら画像解析処理によって得られた結果は、リクエスト制御部431に渡される。なお、本実施形態では、文字領域の配置の類似度合いのみに基づき帳票の類否を判定しているが、例えば、OCR結果から帳票の種別(見積書、請求書など)を特定し、得られた種別の情報を加味して類否を判定してもよい。 In the MFP cooperation server 120 that has received the scan image analysis request, the request control unit 431 instructs the image processing unit 432 to execute image analysis processing (S507). At this time, the request control unit 431 returns a request ID that can uniquely identify the received analysis request to the MFP 110. An example of the request ID is shown in FIG. 9(a). On the other hand, the image processing unit 432 that has received the instruction to perform the analysis process executes the analysis process on the scanned image (S508). In this image analysis process, first, a process of detecting a character area existing in a scanned image is performed. To detect a character area, a known method may be applied, such as a method of extracting a rectangular area presumed to be a character from an image that has been binarized using a certain threshold. Next, character recognition processing (OCR: Optical Character Recognition) is performed on each character region found by the character region detection processing. Then, a process (similar document determination process) is performed to determine whether the form to be scanned this time is similar to the form to be scanned in the past. This determination of similar forms uses placement information indicating where each character area existing in the scanned image is located in the scanned image. Specifically, the arrangement information about the past scan image and the arrangement information about the current scan image are compared to determine whether the arrangement of the character areas is similar. This is based on the fact that if the layout of character areas is similar, it can be inferred that the documents were created using the same format. The arrangement information of past scanned images used in this determination of similar forms is accumulated through a "form learning process" described later. The results obtained by these image analysis processes are passed to the request control unit 431. In this embodiment, the similarity of forms is determined based only on the degree of similarity in the arrangement of character areas, but for example, the type of form (estimate, invoice, etc.) is specified from the OCR result, Similarity may be determined by taking into consideration information on the type.

上記画像解析処理が行われている間、MFP110は、上述のリクエストIDを使用して、MFP連携サーバ120に対して定期的(例えば数百ミリ秒から数ミリ秒程度毎)に処理状況の問合せを行う(S509~S509’)。この問合せは、MFP連携サーバ120からの画像解析処理の完了レスポンス(S510)が取得できるまで繰り返し実行される。MFP連携サーバ120は、処理状況の問合せを受けると、リクエストIDに対応する画像解析処理の進行状況を確認し、完了していない場合は処理中を表すレスポンス(図9(b)を参照)を返す。また、完了していた場合は完了を表すレスポンス(図9(c)を参照)を返す。このレスポンスの“status”には現在の処理状況を示す文字列、具体的には、MFP連携サーバ120で処理が行われている最中である場合には“processing”が入り、処理が完了している場合には“completed”が入る。なお、処理が失敗した場合の“failed”など、他のステータスを表す文字列が入ることもある。図9(c)に示すとおり、処理完了時のレスポンスには、ステータス情報に加え、スキャン画像の解析結果に関する情報などを含む。 While the above image analysis processing is being performed, the MFP 110 uses the above request ID to periodically (for example, every several hundred milliseconds to several milliseconds) inquire about the processing status to the MFP cooperation server 120. (S509 to S509'). This inquiry is repeatedly executed until an image analysis processing completion response (S510) can be obtained from the MFP cooperation server 120. When receiving an inquiry about the processing status, the MFP cooperation server 120 checks the progress status of the image analysis process corresponding to the request ID, and if it is not completed, sends a response indicating that the process is in progress (see FIG. 9(b)). return. Furthermore, if the process has been completed, a response indicating completion (see FIG. 9(c)) is returned. The “status” of this response is a character string indicating the current processing status, specifically “processing” if the MFP cooperation server 120 is in the middle of processing, and indicates that the processing is completed. If it is, “completed” is entered. Note that character strings representing other statuses may also be included, such as "failed" if the process fails. As shown in FIG. 9C, the response upon completion of the process includes information regarding the scan image analysis results in addition to status information.

処理完了レスポンスを受信した後、MFP110は、当該レスポンスに含まれる、画像解析結果の格納先を示すURLを用いて、画像解析処理の結果を、MFP連携サーバ120に対してリクエストする(S511)。この場合のURLには、“ocrResultUrl”と“matchingResultUrl”がある。リクエストを受けてMFP連携サーバ120のリクエスト制御部431は、画像解析処理の結果情報を返す。 After receiving the processing completion response, the MFP 110 requests the MFP cooperation server 120 for the results of the image analysis process using the URL included in the response and indicating the storage location of the image analysis results (S511). The URLs in this case include "ocrResultUrl" and "matchingResultUrl". Upon receiving the request, the request control unit 431 of the MFP cooperation server 120 returns information on the results of the image analysis process.

そして、MFP110は、取得した結果情報を使用して、ファイル名を設定するためのUI画面(以下、「ファイル名設定画面」と表記)を表示する(S512)。図10に、ファイル名設定画面の一例を示す。ユーザが、ファイル名を設定して送信ボタン1007を押下すると、MFP110は、まず、当該ファイル名を設定する際にユーザが行った入力操作に関する情報(設定時入力情報)を含んだ学習リクエストをMFP連携サーバ120に送信する(S513)。図11に、学習リクエストの一例を示す。“learningContent”において学習内容が特定され、その中には、ファイル名に使用された文字領域に関する“rectInfoArray”とメタデータに関する“metadataArray”がある。“rectInfoArray”には、ファイル名設定時に使用した文字領域の座標情報が入る。“metadataArray”には、ファイル名に使用した文字列に対応する文字領域の情報と、当該文字列に付随する区切り文字(セパレータ)の情報が入る。図11の例では、先頭が“fileRegion0”の文字領域の文字列、その次が区切り文字、そして末尾が“fileRegion1”の文字領域の文字列、の順に並ぶファイル名構成であることを示している。 Then, the MFP 110 uses the obtained result information to display a UI screen (hereinafter referred to as "file name setting screen") for setting a file name (S512). FIG. 10 shows an example of a file name setting screen. When the user sets a file name and presses the send button 1007, the MFP 110 first sends a learning request containing information regarding the input operation performed by the user when setting the file name (input information at the time of setting) to the MFP. It is transmitted to the cooperation server 120 (S513). FIG. 11 shows an example of a learning request. The learning content is specified in "learningContent", which includes "rectInfoArray" related to the character area used in the file name and "metadataArray" related to metadata. “rectInfoArray” contains the coordinate information of the character area used when setting the file name. “metadataArray” contains information on the character area corresponding to the character string used for the file name and information on the delimiter (separator) associated with the character string. The example in Figure 11 shows a file name structure in which the first character string is "fileRegion0", followed by the delimiter, and the last character string is "fileRegion1". .

学習リクエストを受信したMFP連携サーバ120では、リクエスト制御部431が、画像処理部432に対し帳票学習処理の実行を指示する(S514)。この指示を受けて画像処理部432は、スキャン画像に存在する各文字領域の配置情報と、S513で受け取った学習リクエストに含まれるファイル名設定時の入力情報(ファイル名の構成情報)を保存する(S515)。 In the MFP cooperation server 120 that has received the learning request, the request control unit 431 instructs the image processing unit 432 to execute the form learning process (S514). In response to this instruction, the image processing unit 432 saves the arrangement information of each character area existing in the scanned image and the input information when setting the file name (file name configuration information) included in the learning request received in S513. (S515).

その後、MFP110は、スキャン画像のデータとそのファイル化の際に設定するファイル名等の情報と共に、当該スキャン画像の保存リクエストをMFP連携サーバ120に送信する(S516)。保存リクエストを受信したMFP連携サーバ120では、リクエスト制御部431が、ファイル生成処理を開始すると共に保存リクエストを正常に受けたことを示すレスポンスをMFP110に返す。そのレスポンスを受け取ったMFP110は、処理を終了し、スキャン設定画面の表示状態(S504)に戻る。一方、MFP連携サーバ120では、事前に登録されたスキャン設定からファイルフォーマットの情報を取得し、当該ファイルフォーマットに従ってスキャン画像をファイル化する(S517)。この際、生成されたファイルには保存リクエストにて指定されたファイル名が付されることになる。こうして生成されたスキャン画像ファイルは、ストレージサーバ130に送信され、保存される(S518)。 After that, the MFP 110 transmits a request to save the scanned image to the MFP cooperation server 120, together with the data of the scanned image and information such as the file name set when the file is created (S516). In the MFP cooperation server 120 that has received the save request, the request control unit 431 starts file generation processing and returns a response to the MFP 110 indicating that the save request has been successfully received. Upon receiving the response, the MFP 110 ends the process and returns to the scan setting screen display state (S504). On the other hand, the MFP cooperation server 120 obtains file format information from the scan settings registered in advance, and converts the scanned image into a file according to the file format (S517). At this time, the generated file will be given the file name specified in the save request. The scan image file generated in this way is transmitted to the storage server 130 and stored (S518).

以上が、画像処理システム全体の処理の流れである。 The above is the process flow of the entire image processing system.

<MFPの処理詳細>
続いて、MFP110における動作に着目して、上述の画像処理システムでストレージサービスを利用する場合の処理について詳しく説明する。図12は、MFP110における処理の流れを示すフローチャートである。この一連の処理は、制御部210において、CPU211がHDD214に記憶された制御プログラムを実行することにより実現され、前述のメイン画面600での「スキャンしてクラウドストレージに保存」ボタン601の押下に応答して開始される。以下、図12に示すフローチャートに沿って詳しく説明する。なお、各処理の冒頭における記号「S」はステップを意味する。
<MFP processing details>
Next, focusing on the operation of the MFP 110, processing when the storage service is used in the above-described image processing system will be described in detail. FIG. 12 is a flowchart showing the flow of processing in MFP 110. This series of processing is realized by the CPU 211 executing the control program stored in the HDD 214 in the control unit 210, and responds to the pressing of the "Scan and save to cloud storage" button 601 on the main screen 600 mentioned above. is started. Hereinafter, a detailed explanation will be given along the flowchart shown in FIG. 12. Note that the symbol "S" at the beginning of each process means a step.

S1201において、表示制御部421は、前述のログイン画面700を表示する。ログイン画面700上でユーザ名とパスワードが入力欄702及び703にそれぞれ入力され、「ログイン」ボタン701の押下が検知されると、S1202に進む。 In S1201, the display control unit 421 displays the login screen 700 described above. When the user name and password are input into input fields 702 and 703 on the login screen 700, and pressing of the "login" button 701 is detected, the process advances to S1202.

S1202において、連携サービスリクエスト部423は、ログイン認証リクエストをMFP連携サーバ120に送信する。MFP連携サーバ120でのログイン認証によって正規のユーザであることが確認されると、連携サービスリクエスト部423は、アクセストークンをMFP連携サーバ120から受信する。 In S1202, the cooperation service request unit 423 transmits a login authentication request to the MFP cooperation server 120. When it is confirmed that the user is an authorized user through login authentication at the MFP cooperation server 120, the cooperation service request unit 423 receives an access token from the MFP cooperation server 120.

S1203において、アクセストークンを受信したMFP110では、表示制御部421が、前述のスキャン設定画面800を操作部220に表示する。ログインユーザによって原稿台に文書がセットされ、「スキャン開始」ボタン801の押下が検知されると、表示制御部421は、スキャン制御部422に対してその旨を通知する。 In S1203, in the MFP 110 that has received the access token, the display control unit 421 displays the aforementioned scan setting screen 800 on the operation unit 220. When a logged-in user sets a document on the document table and presses the "start scan" button 801, the display control unit 421 notifies the scan control unit 422 of this fact.

S1204において、上記通知を受けたスキャン制御部422は、スキャン実行部411に対してスキャン処理の実行を指示する。当該指示を受けてスキャン実行部411は、原稿台に置かれた文書をスキャンする。本フローの説明においては、スキャン対象として帳票(より具体的には見積書)を例に説明を行うものとする。これにより、図13に示すような見積書のスキャン画像が得られる。スキャンによって生成されたスキャン画像データは、画像データ保存部412に保存され、当該スキャン画像を特定可能な識別子がスキャン制御部421に通知される。この際、スキャンの実行中である旨を示すメッセージ画面(不図示)が操作部220上に表示されるようにしてもよい。 In S1204, the scan control unit 422 that has received the notification instructs the scan execution unit 411 to execute the scan process. Upon receiving the instruction, the scan execution unit 411 scans the document placed on the document table. In the description of this flow, a document (more specifically, an estimate) will be used as an example to be scanned. As a result, a scanned image of the estimate as shown in FIG. 13 is obtained. The scan image data generated by the scan is stored in the image data storage unit 412, and the scan control unit 421 is notified of an identifier that can identify the scan image. At this time, a message screen (not shown) indicating that the scan is in progress may be displayed on the operation unit 220.

次に、S1205において、連携サービスリクエスト部423は、スキャン制御部421を介してスキャン画像データを取得し、MFP連携サーバ120にその解析リクエストと共に送信する。当該解析リクエストに基づき、MFP連携サーバ120では、受信したスキャン画像データに対して、前述の画像解析処理が実行される。その際、MFP連携サーバ120のリクエスト制御部431からリクエストIDが返される。 Next, in S1205, the cooperation service request unit 423 acquires scanned image data via the scan control unit 421, and transmits it to the MFP cooperation server 120 together with the analysis request. Based on the analysis request, the MFP cooperation server 120 executes the above-described image analysis process on the received scan image data. At this time, the request ID is returned from the request control unit 431 of the MFP cooperation server 120.

S1206において、リクエストIDを取得した連携サービスリクエスト部423は、処理ステータスの取得リクエストをリクエストIDと共にMFP連携サーバ120に送信する。当該取得リクエストに基づき、MFP連携サーバ120は、リクエストIDで特定される画像解析処理の進行状況に応じたレスポンスをMFP110に返す。 In S1206, the cooperation service request unit 423 that has acquired the request ID transmits a processing status acquisition request to the MFP cooperation server 120 together with the request ID. Based on the acquisition request, the MFP cooperation server 120 returns a response to the MFP 110 according to the progress status of the image analysis process specified by the request ID.

S1207において、連携サービスリクエスト部423は、受け取ったレスポンスにおけるステータスが処理中を示す“processing”であった場合はS1206に戻る。そして、所定時間の経過を待って、再び処理ステータスの取得リクエストをMFP連携サーバ120に送信する。受け取ったレスポンスにおけるステータスが完了を示す“completed”であった場合は、S1208に進む。ここで、本実施形態における処理完了時のレスポンスに含まれる画像解析結果の情報について、前述の図9(c)を参照しつつ説明する。画像解析結果の情報には、“ocrResultUrl”、“matchingResultUrl”、“formKeys”の3種類の情報がある。“ocrResultUrl”は、画像解析処理のうちOCR処理の結果を取得するためのURLの情報である。“matchingResultUrl”は、画像解析処理のうち類似帳票判定処理の結果を取得するためのURLの情報である。“formKeys”は、ファイル名、メタデータ、フォルダパスといったプロパティをスキャン画像に設定するための設定値の情報であり、MFP連携サーバ120において事前設定されている。“formKeys”の中には以下の情報が含まれる。
・key:スキャン画像に設定する設定値を一意に示す値
・keyType:keyの設定値の種別を示す値
・value:設定値の初期値(例えば、スキャン画像であることを示す“scan”)
・type:設定値に入力する値の種類を示す値
(例えば、文字列なら“string”、数値なら“number”、日付なら“date”など)
・displayName:MFPのタッチパネル上に設定画面を表示するときの表示名
・required:その設定値を入力することが必須かどうかを示す値
・multiSelect:ファイル名に複数の文字領域の文字列を使用するかどうかを示す値
・separator:複数の文字領域の文字列を使用する場合の文字列間を繋ぐ区切り文字の内容
・autoInput:初期ファイル名の自動入力を行うかどうかを示す値
In S1207, if the status in the received response is "processing" indicating that processing is in progress, the cooperative service request unit 423 returns to S1206. Then, after a predetermined period of time has elapsed, the processing status acquisition request is sent to the MFP cooperation server 120 again. If the status in the received response is "completed" indicating completion, the process advances to S1208. Here, the information on the image analysis results included in the response upon completion of processing in this embodiment will be explained with reference to the above-mentioned FIG. 9(c). The image analysis result information includes three types of information: "ocrResultUrl", "matchingResultUrl", and "formKeys". “ocrResultUrl” is information on a URL for acquiring the result of OCR processing among image analysis processing. “matchingResultUrl” is information on a URL for acquiring the result of similar form determination processing among image analysis processing. “formKeys” is information on setting values for setting properties such as a file name, metadata, and folder path to a scanned image, and is preset in the MFP cooperation server 120. “formKeys” contains the following information.
・key: A value that uniquely indicates the setting value to be set for the scanned image ・keyType: A value that indicates the type of the key setting value ・value: The initial value of the setting value (for example, “scan” indicating that it is a scanned image)
・type: Value indicating the type of value to be input as the setting value
(For example, “string” for a string, “number” for a number, “date” for a date, etc.)
・displayName: Display name when displaying the settings screen on the touch panel of the MFP ・required: Value indicating whether it is mandatory to enter the setting value ・multiSelect: Use character strings from multiple character areas in the file name・Separator: Contents of the delimiter that connects strings when using strings from multiple character areas ・autoInput: Value indicating whether to automatically input the initial file name

図9(c)には、スキャン画像にファイル名を設定する場合の“formKeys”が示されている。この図9(c)の場合を例に、“value”、“displayName”、“required”、“multiSelect”の各値が、次のS1209で表示されるファイル名設定画面(図10)にどのような影響をあたえるかを説明する。いま、“value”の内容は空である。この場合、ファイル名設定画面1000のファイル名入力欄1001には初期値が表示されないことになる。また、“displayName”は「ファイル名」となっている。この場合、図10のファイル名設定画面1000のように設定のタイトルやラベルを示す「ファイル名」の文字列が画面上部に(この例では白抜き文字で)表示されることになる。また、“required”は「true」となっている。この場合、ファイル名入力欄1001に文字列が入っていない空の状態では送信ボタン1007を押下することができなくなる。また、“multiSelect”が「true」となっている。この場合、スキャン画像から検出された複数の文字領域を選択することが可能になり、これによって各文字領域に対応した文字列を繋げたファイル名を設定できることになる。これら“formKeys”に含まれる上記の内容は、MFP連携サーバ120の表示制御部435が表示するファイル名条件設定画面を介してユーザが設定する。図14にファイル名条件設定画面の一例を示す。ファイル名条件設定画面1400内のチェックボックス1401は、以前にスキャン画像のファイル名設定時に用いた文字領域の情報を使用して自動的にファイル名を入力するか否かをユーザが選択するために用いる。設定欄1402には、ファイル名に複数の文字領域に対応する複数の文字列を使用する場合に、文字列間に挿入する区切り文字に何を使用するかをプルダウン表示される選択肢(アンダースコア、ハイフンなど)の中から設定する。ここでは、アンダースコアが選択されている。設定欄1403には、ファイル名設定画面(図10)の初期表示の際に予め入力状態にしておき、ユーザにファイル名の候補として提示する文字列(初期ファイル名)を設定する。このファイル名条件設定画面1400で設定した内容はデータ管理部434で保持され、処理完了時のレスポンスを作成する際に参照される。 FIG. 9(c) shows "formKeys" when setting a file name to a scanned image. Using the case in Figure 9(c) as an example, how will each value of "value", "displayName", "required", and "multiSelect" be displayed on the file name setting screen (Figure 10) displayed in the next step S1209? Explain how it will have a significant impact. The contents of “value” are now empty. In this case, the initial value will not be displayed in the file name input field 1001 of the file name setting screen 1000. Furthermore, “displayName” is a “file name”. In this case, as in the file name setting screen 1000 of FIG. 10, a character string "file name" indicating the title or label of the setting is displayed at the top of the screen (in this example, in outline letters). Furthermore, “required” is “true”. In this case, if the file name input field 1001 is empty and does not contain any character strings, the send button 1007 cannot be pressed. Also, “multiSelect” is “true”. In this case, it becomes possible to select a plurality of character areas detected from the scanned image, and thereby a file name can be set by connecting character strings corresponding to each character area. The above contents included in these “formKeys” are set by the user via the file name condition setting screen displayed by the display control unit 435 of the MFP cooperation server 120. FIG. 14 shows an example of the file name condition setting screen. A check box 1401 in the file name condition setting screen 1400 allows the user to select whether or not to automatically input the file name using the character area information previously used when setting the file name of the scanned image. use In the settings field 1402, when multiple character strings corresponding to multiple character areas are used in a file name, a pull-down menu is displayed to select which character to use as a delimiter to be inserted between character strings (underscore, (hyphen, etc.). Here, an underscore is selected. In the setting field 1403, a character string (initial file name) that is set in advance to be input when the file name setting screen (FIG. 10) is initially displayed and presented to the user as a file name candidate is set. The contents set on this file name condition setting screen 1400 are held in the data management unit 434 and are referenced when creating a response upon completion of processing.

S1208において、連携サービスリクエスト部423は、処理完了時のレスポンスに含まれるURLにアクセスして、画像解析結果を取得する。図9(c)の例では“ocrResultUrl”と“matchingResultUrl”に情報が格納されているので、この2つのURLにアクセスして画像解析結果を取得する。以下の表1は、図13のスキャン画像から検出された文字領域の座標と、各文字領域についての文字認識結果(認識された文字列)を示している。 In S1208, the cooperative service request unit 423 accesses the URL included in the response upon completion of the process and obtains the image analysis result. In the example of FIG. 9(c), information is stored in "ocrResultUrl" and "matchingResultUrl", so these two URLs are accessed to obtain the image analysis results. Table 1 below shows the coordinates of character areas detected from the scanned image of FIG. 13 and the character recognition results (recognized character strings) for each character area.

Figure 0007358663000001
Figure 0007358663000001

そして、図15は、“ocrResultUrl”にアクセスして取得される、図13のスキャン画像についての文字認識結果を示している。“imageWidth”は、解析対象のスキャン画像のX方向(横方向)のピクセル数を示す。“imageHeight”は、解析対象のスキャン画像のY方向(縦方向)のピクセル数を示す。“regions”は、スキャン画像から検出した文字領域の座標情報(“rect”)と、その文字領域に対応する文字列情報(“Text”)が含まれる。“rect”には、検出した文字領域を特定する情報が含まれ、“x”は文字領域の左上隅のX座標、“y”は文字領域の左上隅のY座標、“width”は文字領域のX(幅)方向のピクセル数、“height”は文字領域のY(高さ)方向のピクセル数を示す。“text”は、“rect”で特定される文字領域をOCR処理して得られた文字列の情報を示す。この“rect”と“text”の情報が、解析対象のスキャン画像内で検出された全ての文字領域分だけ含まれる。ただし、図15ではその一部を省略している。 FIG. 15 shows the character recognition result for the scanned image of FIG. 13, which is obtained by accessing "ocrResultUrl." “imageWidth” indicates the number of pixels in the X direction (horizontal direction) of the scanned image to be analyzed. “imageHeight” indicates the number of pixels in the Y direction (vertical direction) of the scanned image to be analyzed. “regions” includes coordinate information (“rect”) of a character region detected from a scanned image and character string information (“Text”) corresponding to the character region. “rect” includes information that identifies the detected character area, “x” is the X coordinate of the upper left corner of the character area, “y” is the Y coordinate of the upper left corner of the character area, and “width” is the character area The number of pixels in the X (width) direction, and "height" indicates the number of pixels in the Y (height) direction of the character area. “text” indicates information on a character string obtained by performing OCR processing on the character area specified by “rect”. This "rect" and "text" information is included for all character areas detected in the scanned image to be analyzed. However, a part of it is omitted in FIG. 15.

そして、図16は、“matchingResultUrl”にアクセスして取得される、図13のスキャン画像についての類似帳票判定結果を示している。“matched”には、前述の類似帳票判定処理によって、今回解析対象のスキャン画像と類似しているものが過去のスキャン画像の中から見つかったかどうかを示す値として“true”又は“false”が入る。値が“true”であれば、今回のスキャン対象の帳票が以前にスキャンした帳票と類似していることを示し、“false”であれば類似していないことを表す。“formId”には、類似する帳票が見つかった場合は、過去の類似帳票のスキャン画像を一意に示す値(ID値)が入る。一方、類似する帳票が見つからなかった場合は、今回スキャンを行った帳票のスキャン画像を一意に示す新たに作成されたID値が入る。そして、この新たに作成されたID値は、過去に類似帳票が存在しなかった帳票のスキャン画像についてのファイル名設定時の入力情報(ファイル名の構成情報)を学習させるときに使用される。“matchingScore”には、類似する帳票があった場合に一致度合を示す値が入る。本実施形態の類似度は、過去のスキャン画像における文字領域の配置情報と今回のスキャン画像における文字領域の配置情報との一致度合を0~1までの実数値で表したものであり、その値が大きいほど類似した帳票であることを示す。“rectInfoArray”には、過去の類似帳票のスキャン画像に対するファイル名設定時に使用された文字領域に対応する、今回解析対象のスキャン画像における文字領域を示す情報が入る。 FIG. 16 shows the similar form determination result for the scanned image of FIG. 13, which is obtained by accessing "matchingResultUrl." “Matched” contains “true” or “false” as a value indicating whether an image similar to the scan image to be analyzed this time was found among past scan images through the similar document determination process described above. . If the value is "true", it indicates that the form to be scanned this time is similar to the previously scanned form; if the value is "false", it indicates that they are not similar. If a similar form is found, "formId" contains a value (ID value) that uniquely indicates a scanned image of a past similar form. On the other hand, if a similar document is not found, a newly created ID value that uniquely indicates the scanned image of the currently scanned document is entered. This newly created ID value is used when learning input information (file name configuration information) when setting a file name for a scanned image of a form for which no similar form existed in the past. “matchingScore” contains a value indicating the degree of matching when there are similar forms. The degree of similarity in this embodiment is the degree of matching between the placement information of the character area in the past scan image and the placement information of the character area in the current scan image, expressed as a real value from 0 to 1. The larger the value, the more similar the documents are. “rectInfoArray” contains information indicating the character area in the scanned image to be analyzed this time, which corresponds to the character area used when setting the file name for the scanned image of a similar form in the past.

図16の例の場合は、以前に、見積書をスキャンして得られた図13のスキャン画像に対して「見積書」と「品川株式会社」の2つの文字列を使用してファイル名を設定し、その入力情報の学習を行っている。その後に、同一フォーマットで作成した見積書をスキャンして図17に示すスキャン画像を生成し、当該スキャン画像について類似帳票判定処理を行った結果、図13のスキャン画像と類似していると判定されている。そして、図13のスキャン画像に対するファイル名の設定時に使用された文字領域の情報が、自動入力の対象となる文字領域の情報として格納された状態を、図16の例は示している。以下、図16に示す類似帳票判定処理の結果が得られるまでの過程を説明する。 In the case of the example in Figure 16, the file name was previously created using the two character strings "Quotation" and "Shinagawa Corporation" for the scanned image in Figure 13 obtained by scanning the quotation. settings and is learning the input information. After that, the estimate created in the same format was scanned to generate the scanned image shown in FIG. 17, and as a result of performing similar document determination processing on the scanned image, it was determined that it was similar to the scanned image in FIG. 13. ing. The example in FIG. 16 shows a state in which the character area information used when setting the file name for the scanned image in FIG. 13 is stored as character area information to be automatically input. Hereinafter, the process until the result of the similar form determination process shown in FIG. 16 is obtained will be explained.

前提として、前述の図11の学習リクエストに基づく学習結果が、データ管理部434に保存されているものとする。そして、類似帳票判定処理では、以前のファイル名設定時に用いた「見積書」と「品川株式会社」の文字領域の座標情報を用いて、今回のスキャン画像に含まれる文字領域の中の当該座標情報で示された文字領域とその一部が重なる文字領域が特定される。そして、一部が重なると特定された文字領域の座標情報と当該文字領域の文字列を“rectInfoArray”の“text”に格納される。“key”には、ファイル名の自動入力に使用する文字領域を一意に示す値が入る。“region”には“key”が一意に示す文字領域の座標情報と当該文字領域に対するOCR処理によって得られた文字列が格納される。そして、“rect”には、“key”が一意に示す文字領域を特定する情報が含まれる。この場合において、“x”は文字領域の左上隅のX座標、“y”は文字領域の左上隅のY座標、“width”は文字領域のX(幅)方向のピクセル数、“height”は文字領域のY(高さ)方向のピクセル数を示す。そして、“rect”で特定される文字領域をOCR処理して得られた文字列の情報が“text”に入っている。“metadataArray”には、ファイル名を自動入力する際に使用する文字領域の順番と区切り文字がどこに入るかを示す情報が格納される。ファイル名以外にメタデータなどのプロパティ情報が設定されている場合は、“rectInfoArray”や“metadataArray”において、必要な情報が追加される。“key”には、スキャン画像に設定する設定値を一意に示す値が格納される。“keyType”には、“key”の設定値の種別を示す値が格納される。ファイル名に使用する場合は、“key”には“filename”が入り、“keyType”には“filename”が入る。“value”には、“key”の値に使用する文字領域と区切り文字の情報が格納される。図16の例では、“rectInfoArray”の中の“fileRegion0”の“key”を持つ文字領域の文字列が1番目、区切り文字が2番目、“fileRegion1”の“key”を持つ文字領域の文字列が3番目となっている。そして、この順番でファイル名入力欄1001に自動入力され、初期ファイル名として表示されることになる。 As a premise, it is assumed that the learning results based on the learning request shown in FIG. 11 described above are stored in the data management unit 434. Then, in the similar document determination process, the coordinate information of the character area of "Estimate" and "Shinagawa Co., Ltd." used when setting the previous file name is used to determine the corresponding coordinates in the character area included in the current scan image. A character area that partially overlaps the character area indicated by the information is specified. Then, when a portion thereof overlaps, the coordinate information of the specified character area and the character string of the character area are stored in "text" of "rectInfoArray". “key” contains a value that uniquely indicates the character area used for automatic input of file names. “region” stores coordinate information of a character region uniquely indicated by “key” and a character string obtained by OCR processing for the character region. "rect" includes information that specifies the character area uniquely indicated by "key". In this case, "x" is the X coordinate of the upper left corner of the character area, "y" is the Y coordinate of the upper left corner of the character area, "width" is the number of pixels in the X (width) direction of the character area, and "height" is Indicates the number of pixels in the Y (height) direction of the character area. Then, "text" contains information on a character string obtained by performing OCR processing on the character area specified by "rect". “metadataArray” stores information indicating the order of character areas used when automatically inputting file names and where delimiters are placed. If property information such as metadata is set in addition to the file name, the necessary information is added in "rectInfoArray" and "metadataArray". “key” stores a value that uniquely indicates a setting value to be set for the scanned image. “keyType” stores a value indicating the type of setting value of “key”. When used in a file name, “key” will contain “filename” and “keyType” will contain “filename”. “value” stores information about the character area and delimiter used for the value of “key”. In the example in Figure 16, the string in the character area with the “key” of “fileRegion0” in “rectInfoArray” is the first, the delimiter is the second, and the string in the character area with the “key” of “fileRegion1” is is the third. Then, in this order, the files are automatically input into the file name input field 1001 and displayed as the initial file name.

S1209において、表示制御部421が、前述のファイル名設定画面1000を操作部220に表示して、ユーザが、スキャン画像に対するファイル名の設定を行えるようにする。このファイル名設定処理の詳細については後述する。 In S1209, the display control unit 421 displays the aforementioned file name setting screen 1000 on the operation unit 220 to enable the user to set a file name for the scanned image. Details of this file name setting process will be described later.

S1210において、連携サービスリクエスト部423が、S1206の処理ステータスのリクエストに対するレスポンスを参照して、ファイル名の自動入力を行う設定となっているか否かを判定し、次の処理を決定する。具体的には、前述の図9(c)で示した処理完了時のレスポンスに含まれる“autoInput”の値を参照し、自動入力を行う設定を意味する“true”の場合はS1211へ進む。一方、自動入力を行わない設定を意味する“false”の場合はS1214へ進む。 In S1210, the cooperative service request unit 423 refers to the response to the processing status request in S1206, determines whether automatic file name input is set, and determines the next process. Specifically, the value of "autoInput" included in the response upon completion of the process shown in FIG. 9(c) is referred to, and if it is "true" meaning a setting for automatic input, the process advances to S1211. On the other hand, if the setting is "false", meaning that automatic input is not performed, the process advances to S1214.

S1211において、連携サービスリクエスト部423は、今回のスキャン画像に類似するスキャン画像が過去に存在していたかどうかを、S1208で取得した画像解析結果に基づき判定する。具体的には、前述の図16で示した類似帳票判定処理の結果に含まれる“matched”の値を参照し、過去のスキャン画像の中に類似したものが存在することを示す“true”の場合はS1212へ進む。一方、類似したものが存在しないことを示す“false”の場合はS1214へ進む。 In S1211, the cooperative service request unit 423 determines whether a scan image similar to the current scan image existed in the past, based on the image analysis result obtained in S1208. Specifically, by referring to the "matched" value included in the result of the similar form determination process shown in FIG. If so, the process advances to S1212. On the other hand, in the case of "false" indicating that there is no similar item, the process advances to S1214.

S1212において、連携サービスリクエスト部423は、S1209のファイル名設定処理において、ファイル名入力欄1001に自動入力されていた初期ファイル名に対して、ユーザが変更を加えたかどうかを判定する。この場合の変更には、例えば今回のファイル名に使用する文字領域を、初期ファイル名で使用されている文字領域と異なるものにしたり、区切り文字を追加したり或いは削除したりすることを含む。そして、この判定は、図16の類似帳票判定処理の結果に含まれる“metadataArray”の“value”の値と、今回のスキャン画像に対するファイル名設定を行った後のファイル名入力欄1001への入力情報との比較により行う。比較の結果、差異があれば初期ファイル名に対して変更がなされたと判断してS1213へ進み、一致していれば初期ファイル名に対して変更がなされていないと判断してS1214へ進む。なお、“formKeys”の“value”によって自動入力されていたファイル名の先頭文字列については、ユーザによって削除されていても入力情報が変わったとみなさずにS1214に進んでもよい。 In S1212, the cooperative service request unit 423 determines whether the user has changed the initial file name that was automatically input into the file name input field 1001 in the file name setting process of S1209. Changes in this case include, for example, making the character area used for the current file name different from the character area used for the initial file name, and adding or deleting delimiters. This determination is made based on the value of “value” of “metadataArray” included in the result of the similar form determination process in FIG. This is done by comparing with information. As a result of the comparison, if there is a difference, it is determined that a change has been made to the initial file name and the process proceeds to S1213; if there is a match, it is determined that no change has been made to the initial file name and the process proceeds to S1214. Note that even if the first character string of the file name that was automatically input by the "value" of "formKeys" has been deleted by the user, the input information may not be considered to have changed and the process may proceed to S1214.

S1213では、連携サービスリクエスト部423が、今回のスキャン画像に対して設定されたファイル名の構成を表す設定時入力情報の学習リクエスト(前述の図11を参照)を、MFP連携サーバ120へ送信する。この場合の学習リクエストに含まれる“formId”には、S1208で取得した画像解析結果の類似判定処理結果に含まれる“formId”の値が使用される。図16の例では、“formId”の値として“aaaaaaaa-ffff-49ab-acf8-55558888eeee”が入っているので、これが学習リクエストに格納されることになる。また、“learningContent”には、ファイル名設定時に使用した入力情報の内容が格納される。まず、“rectInfoArray”には、ファイル名に使用した文字列が属する文字領域の座標情報が、その文字領域の数分だけ格納される。そして、“metadataArray”には、ファイル名の設定に用いた文字領域と区切り文字の情報が格納される。前述の表1を参照して、このときのユーザが行った操作を説明すると、ファイル名設定画面1000のプレビュー領域1002において、最初に番号1の「見積書」をタッチする。その次に、番号8の「品川株式会社」をタッチし、最後に送信ボタン1007を押下している。学習リクエストを受けたMFP連携サーバ120は、このようなユーザ操作に基づく入力情報を蓄積し、当該蓄積した入力情報を次回以降の画像解析処理から使用することになる。学習リクエストを送信後、当該学習リクエストを正常に処理した旨のレスポンスをMFP連携サーバ120から受け取ると、S1214に進む。 In S1213, the cooperation service request unit 423 sends a learning request for setting input information (see FIG. 11 described above) representing the configuration of the file name set for the current scanned image to the MFP cooperation server 120. . In this case, the value of "formId" included in the similarity determination processing result of the image analysis result obtained in S1208 is used for "formId" included in the learning request. In the example of FIG. 16, "aaaaaaaa-ffff-49ab-acf8-55558888eeee" is included as the value of "formId", so this will be stored in the learning request. Furthermore, “learningContent” stores the contents of the input information used when setting the file name. First, "rectInfoArray" stores the coordinate information of character areas to which the character string used for the file name belongs, as many times as there are character areas. Then, "metadataArray" stores information on the character area and delimiter used to set the file name. Referring to Table 1 above, to explain the operation performed by the user at this time, the user first touches the number 1 "Estimate" in the preview area 1002 of the file name setting screen 1000. Next, he touches number 8, "Shinagawa Corporation," and finally presses the send button 1007. The MFP cooperation server 120 that receives the learning request stores input information based on such user operations, and uses the stored input information from the next image analysis process onward. After transmitting the learning request, if a response indicating that the learning request has been successfully processed is received from the MFP cooperation server 120, the process advances to S1214.

S1214では、連携サービスリクエスト部423が、処理対象のスキャン画像データとS1209で設定されたファイル名とを対応付けて、MFP連携サーバ120に送信する。この送信完了によって本処理が終了する。なお、本実施形態ではスキャン画像データとそのファイル名の送信を最後に行っているが、スキャン処理が終わり、スキャン画像管理部412によるスキャン画像データの保存の時点で並行して、MFP連携サーバ120に送信しておいてもよい。 In S1214, the cooperation service request unit 423 associates the scan image data to be processed with the file name set in S1209, and transmits it to the MFP cooperation server 120. This process ends when this transmission is completed. Note that in this embodiment, the scan image data and its file name are sent at the end, but when the scan process is finished and the scan image data is saved by the scan image management unit 412, the MFP cooperation server 120 You can also send it to

以上が、MFP110における動作に着目したストレージサービスを利用する場合の処理の流れである。なお、上記の説明では、1枚の見積書をスキャンして得られた1つのスキャン画像をファイル化する際のファイル名設定を行う場面を想定していた。しかし、本実施形態はこれに限定されるものではなく、複数の文書をスキャンして得られた複数のスキャン画像をファイル化する際のファイル名設定を行う場面にも同様に適用可能である。この場合、ファイル名設定画面1000内にページめくりをするためのボタンを設け、2ページ目や3ページ目のスキャン画像の文字領域からもファイル名の設定を行えるようにしてもよい。 The above is the flow of processing when using a storage service that focuses on the operation of the MFP 110. Note that in the above description, it is assumed that a file name is set when one scanned image obtained by scanning one estimate sheet is converted into a file. However, the present embodiment is not limited to this, and can be similarly applied to a situation where file name settings are performed when a plurality of scanned images obtained by scanning a plurality of documents are converted into a file. In this case, a button for turning pages may be provided in the file name setting screen 1000 so that the file name can also be set from the character area of the scanned image of the second or third page.

(ファイル名設定処理)
続いて、前述のS1209にて表示制御部421が実行するファイル名設定処理について、図18及び図19に示すフローチャートに沿って詳しく説明する。
(File name setting process)
Next, the file name setting process executed by the display control unit 421 in S1209 described above will be described in detail with reference to the flowcharts shown in FIGS. 18 and 19.

S1801では、前述のファイル名設定画面1000のファイル名入力欄1001に初期状態で表示されるファイル名(初期ファイル名)が生成される。初期ファイル名は、以下の手順で生成される。まず、前述の処理完了時のレスポンスを参照し、“formKeys”の“value”に何らかの値が入っていれば、当該値をファイル名の先頭に設定する。例えば、“formKeys”の“value”として“scan”の文字列が入っていた場合は、初期ファイル名の先頭に“scan”を設定する。次に、“matchingResultUrl”にアクセスして取得した類似帳票判定結果に従って所定の文字列を設定する。すなわち、“matched”の値が“true”であり、かつ、“matchingScore”が一定以上の数値(例えば0.6以上)であると、“metadataArray”の“value”で指定されるファイル名構成に従って文字列を設定する。具体的には、“value”において指定された順番に従って“rectInfoArray”で特定される文字領域の文字列を設定する。図16の類似帳票判定結果の例では、“matched”の値が“true”であり、かつ、“matchingScore”が“0.74・・・”なので一定以上の数値である。そして、“metadataArray”の“value”にて、最初が“fileRegion0”、次が“separator”、最後が“fileRegion1”の並びであることが指定されている。よって、“fileRegion0”の“text”の値である「見積書」、処理完了レスポンスに含まれる“separator”の値である「_(アンダースコア)」、“fileRegion1”の“text”の値である「下丸子株式会社」が順に連結される。こうして「見積書_下丸子株式会社」が、初期ファイル名として生成されることになる。もし、“formKeys”の“value”に何らかの値(例えば“scan_”)が入っていた場合は、その文字を先頭に追加した「scan_見積書_下丸子株式会社」が初期ファイル名となる。類似帳票判定結果において、“matched”の値が“false”で、“matchingScore”が一定未満の数値の場合は、“formKeys”の“value”に文字列が入っていればその文字列がそのまま初期ファイル名となる。また、“formKeys”の“value”に文字列が入っていなければ初期ファイル名なし(空欄)となる。なお、本実施形態では、“matched”の値と“matchingScore”の値の2つを、“metadataArray”の“value”の順番に従って“rectInfoArray”で指定された情報を初期ファイル名生成の条件とした。しかし、これに限定されず、いずれか一方の結果のみを条件としてもよい。例えば、“matched”の値が“true”であることのみを条件に初期ファイル名を生成してもよいし、類似度合いを示す値が閾値以上であることのみを条件にファイル名を生成してもよい。 In S1801, a file name (initial file name) to be initially displayed in the file name input field 1001 of the file name setting screen 1000 described above is generated. The initial file name is generated using the following steps. First, refer to the response when the above-mentioned process is completed, and if "value" of "formKeys" contains some value, set that value at the beginning of the file name. For example, if the string "scan" is included as the "value" of "formKeys", set "scan" at the beginning of the initial file name. Next, a predetermined character string is set according to the similar form determination result obtained by accessing "matchingResultUrl". In other words, if the value of “matched” is “true” and “matchingScore” is a value above a certain value (for example, 0.6 or more), a string is created according to the file name structure specified by “value” of “metadataArray”. Set. Specifically, the character string of the character area specified by "rectInfoArray" is set according to the order specified in "value". In the example of the similar form determination result in FIG. 16, the value of "matched" is "true" and the "matchingScore" is "0.74...", which is a value above a certain value. The "value" of the "metadataArray" specifies that the first is "fileRegion0", the next is "separator", and the last is "fileRegion1". Therefore, the value of “text” of “fileRegion0” is “estimate”, the value of “separator” included in the processing completion response is “_ (underscore)”, and the value of “text” of “fileRegion1” is "Shimomaruko Co., Ltd." will be consolidated in turn. In this way, "Quotation_Shimomaruko Co., Ltd." is generated as the initial file name. If "value" of "formKeys" contains some value (for example, "scan_"), the initial file name will be "scan_estimate_Shimomaruko Co., Ltd." with that character added to the beginning. In the similar form judgment result, if the value of “matched” is “false” and “matchingScore” is a value less than a certain value, if a string is included in “value” of “formKeys”, that string is used as the initial value. This will be the file name. Also, if the "value" of "formKeys" does not contain a character string, there will be no initial file name (blank). In addition, in this embodiment, the two values "matched" and "matchingScore" are set as the conditions for initial file name generation using the information specified in "rectInfoArray" according to the order of "value" in "metadataArray". . However, the present invention is not limited to this, and only one of the results may be used as a condition. For example, the initial file name may be generated only on the condition that the value of “matched” is “true,” or the file name may be generated only on the condition that the value indicating the degree of similarity is greater than or equal to a threshold. Good too.

S1802では、ファイル名設定画面1000のプレビュー領域1002に初期状態で表示する際にスキャン画像をどの程度縮小して表示するか(以下、「初期変倍率」と呼ぶ)が決定される。この初期変倍率の決定には、“ocrResultUrl”にアクセスして取得した文字認識結果を用いる。まず、スキャン画像内で検出された全ての文字領域のうち最も左にある文字領域と最も右にある文字領域をそれぞれ求める。この場合において、最も左の文字領域となるのは、全文字領域の中で、x座標の値が最小値の文字領域である。また、最も右の文字領域となるのは、全文字領域の中で、x座標の値と文字領域幅(width)の値とを足した合計値が最大となる文字領域である。こうして決定した最も左にある文字領域の左辺がプレビュー領域1002の左辺と、最も右にある文字領域の右辺がプレビュー領域1002の右辺とそれぞれ一致するような変倍率を、初期変倍率として決定する。なお、決定した文字領域の端とプレビュー領域の端とを完全に一致させてしまうと、当該文字領域が小さい場合にユーザが選択(押下)しづらくなることがあるため、一定量のマージンを持たせて初期変倍率を決定してもよい。例えば、プレビュー領域1002内で最も左に表示されることになる文字領域の左端と、最も右に表示されることになる文字領域の右端からそれぞれ10ピクセル分の余白が確保されるように初期変倍率を決定するといった具合である。また、プレビュー領域1002上に各種操作ボタン等のUIコンポーネントが重畳表示される場合には、当該UIコンポーネントに文字領域が重ならないように初期変倍率を決定してもよい。具体的には、UIコンポーネントの幅分をプレビュー領域1002の幅から差し引いた上で、最も左の文字領域と最も右の文字領域とが残りの領域の幅内に収まるように初期変倍率を決定してもよい。前述の図10のファイル名設定画面1000の例では、プレビュー領域1002内に3つの操作ボタン(拡大ボタン1004、縮小ボタン1005、復帰ボタン1006)が存在しているので、これらのボタンに文字領域が重ならないように初期変倍率を決定する。また、スキャン対象となる帳票の上下左右の端部付近には印刷処理に関わるヘッダ情報等が印刷されていることがあり、このようなヘッダ情報等に対応する文字領域の文字列がファイル名の一部に採択される可能性は低い。そこで、スキャン画像の上下左右の端から一定量(例えば50ピクセル)以内に存在する文字領域は、上記最も左及び最も右の文字領域を求める際に除外するようにしてもよい。 In step S1802, it is determined how much the scanned image is to be reduced and displayed when it is displayed in the preview area 1002 of the file name setting screen 1000 in its initial state (hereinafter referred to as "initial scaling ratio"). The character recognition result obtained by accessing "ocrResultUrl" is used to determine this initial scaling factor. First, among all the character areas detected in the scanned image, the leftmost character area and the rightmost character area are determined. In this case, the leftmost character area is the character area with the minimum x-coordinate value among all character areas. Furthermore, the rightmost character area is the character area where the total value of the x-coordinate value and the character area width (width) value is the largest among all the character areas. A scaling factor such that the left side of the leftmost character area thus determined matches the left side of the preview area 1002, and the right side of the rightmost character area matches the right side of the preview area 1002 are determined as the initial scaling factor. Note that if the edge of the determined character area and the edge of the preview area completely match, it may be difficult for the user to select (press) the character area if it is small, so it is important to keep a certain amount of margin. The initial magnification ratio may also be determined. For example, initial changes may be made to ensure a margin of 10 pixels from the left edge of the character area that will be displayed on the leftmost side in the preview area 1002 and from the right edge of the character area that will be displayed on the rightmost side in the preview area 1002. This includes determining the magnification. Further, when UI components such as various operation buttons are displayed superimposed on the preview area 1002, the initial magnification ratio may be determined so that the text area does not overlap with the UI component. Specifically, after subtracting the width of the UI component from the width of the preview area 1002, the initial scaling ratio is determined so that the leftmost character area and the rightmost character area fall within the width of the remaining area. You may. In the example of the file name setting screen 1000 in FIG. 10 described above, there are three operation buttons (enlarge button 1004, reduce button 1005, and return button 1006) in the preview area 1002, so these buttons have text areas. Determine the initial magnification ratio so that they do not overlap. In addition, header information related to the printing process may be printed near the top, bottom, left, and right edges of the form to be scanned, and the character strings in the character area corresponding to such header information are included in the file name. It is unlikely that it will be adopted by some. Therefore, character areas existing within a certain amount (for example, 50 pixels) from the top, bottom, left, and right edges of the scanned image may be excluded when determining the leftmost and rightmost character areas.

S1803では、S1802で決定した初期変倍率による拡縮後のスキャン画像のどの部分を、ファイル名設定画面1000のプレビュー領域1002内に初期状態で表示するかが決定される。上記S1802で決定された変倍率にて拡縮した後のスキャン画像においては、最も左の文字領域と最も右の文字領域とが収まる幅が、プレビュー領域1002の幅と略一致する。したがって、まず、左右方向についてはプレビュー領域1002の中にこれら左右の文字領域がちょうど収まるように、例えば最も左の文字領域の左辺がプレビュー領域1002の左辺と一致するように初期状態で表示する部分(以下、「初期表示部分」と呼ぶ。)が決まる。その上で、最も上にある文字領域がプレビュー領域1002の上端付近に位置するように、上下方向の初期表示部分を決定する。このとき、初期変倍率の決定時にマージンを考慮していた場合は、同様にマージン分を考慮して、初期表示部分を決定すればよい。例えば、スキャン画像の上端から一定量(例えば50ピクセル)以内に存在する文字領域は表示対象から除外し、それ以外の文字領域の中で最も上にある文字領域が、プレビュー領域1002の上端に表示されるように決定してもよい。図20は、図13のスキャン画像について決定された初期表示部分を示す図である。図20における線の枠が、プレビュー領域1002に初期状態で表示されるスキャン画像の範囲を示している。なお、上述のようにして初期表示部分を決定した結果、類似帳票が存在して初期ファイル名がファイル名入力欄1001に自動で入力された場合における当該初期ファイル名に使用された文字列の文字領域が、プレビュー領域1002に表示されないケースがある。この場合には、例えば、初期ファイル名に使用した文字列の文字領域がプレビュー領域1002の中央に表示されるように、初期表示部分を決定すればよい。この時、ファイル名入力欄1001に自動入力された初期ファイル名を構成する文字列と当該初期ファイル名に使用された文字列の文字領域とを、それぞれ強調表示(例えば色を変更するなど)してもよい。図21は、図13のスキャン画像において文字列「川崎株式会社」が初期ファイル名に自動入力されている場合のスキャン設定画面1000の例である。ここでは、文字列「川崎株式会社」に対応する文字領域がプレビュー領域1002の中央に位置するように、さらに、当該文字領域とファイル名入力欄1001に入力されている文字列「川崎株式会社」の色を変更して表示している。この時、強調表示する文字領域の文字サイズが小さい場合には、適切な文字サイズとなるように初期変倍率を調整してもよい。この調整後の初期変倍率は、例えば、操作部220のタッチパネルのサイズとプレビュー領域1002に初期状態で表示する範囲とに基づき得ることができる。具体的には、初期ファイル名に使用している文字列の文字領域の高さを基に、文字サイズが何ポイントかを求め、求めたポイントが閾値以上(所定サイズ以上)になるようにプレビューの初期変倍率を調整すればよい。 In S1803, it is determined which part of the scanned image after being enlarged or reduced by the initial scaling factor determined in S1802 is to be displayed in the preview area 1002 of the file name setting screen 1000 in an initial state. In the scanned image after being enlarged or reduced at the scaling factor determined in step S1802 above, the width in which the leftmost character area and the rightmost character area fit approximately matches the width of the preview area 1002. Therefore, in the horizontal direction, the left and right character areas are displayed in the initial state so that they fit within the preview area 1002, for example, so that the left side of the leftmost character area matches the left side of the preview area 1002. (hereinafter referred to as the "initial display part") is determined. Then, the initial display portion in the vertical direction is determined so that the uppermost character area is located near the upper end of the preview area 1002. At this time, if the margin was taken into consideration when determining the initial magnification ratio, the initial display portion may be determined by taking the margin into consideration as well. For example, a character area existing within a certain amount (for example, 50 pixels) from the top of the scanned image is excluded from the display target, and the topmost character area among the other character areas is displayed at the top of the preview area 1002. You may decide to do so. FIG. 20 is a diagram showing the initial display portion determined for the scan image of FIG. 13. A line frame in FIG. 20 indicates the range of the scanned image displayed in the preview area 1002 in an initial state. In addition, as a result of determining the initial display part as described above, when a similar form exists and the initial file name is automatically input into the file name input field 1001, the characters of the character string used for the initial file name There are cases where the area is not displayed in the preview area 1002. In this case, for example, the initial display portion may be determined so that the character area of the character string used for the initial file name is displayed in the center of the preview area 1002. At this time, the character string constituting the initial file name that was automatically input into the file name input field 1001 and the character area of the character string used for the initial file name are highlighted (for example, by changing their colors). It's okay. FIG. 21 is an example of the scan setting screen 1000 when the character string "Kawasaki Corporation" is automatically input as the initial file name in the scanned image of FIG. 13. Here, the text area corresponding to the character string "Kawasaki Corporation" is positioned in the center of the preview area 1002, and the character string "Kawasaki Corporation" input in the text area and the file name input field 1001 is is displayed by changing its color. At this time, if the character size of the character area to be highlighted is small, the initial magnification ratio may be adjusted to obtain an appropriate character size. This initial magnification ratio after adjustment can be obtained based on, for example, the size of the touch panel of the operation unit 220 and the range displayed in the preview area 1002 in the initial state. Specifically, based on the height of the character area of the character string used for the initial file name, calculate the number of points for the character size, and preview it so that the calculated points are greater than a threshold (a predetermined size or more). All you have to do is adjust the initial scaling factor.

S1804では、S1801~S1803までの処理結果を用いて、前述のファイル名設定画面1000が操作部220に表示される。ユーザは、図10に例示したファイル名設定画面1000を用いて、ストレージサーバ130に保存するスキャン画像についてのファイル名を設定する。以下、詳しく説明する。 In S1804, the aforementioned file name setting screen 1000 is displayed on the operation unit 220 using the processing results from S1801 to S1803. The user uses the file name setting screen 1000 illustrated in FIG. 10 to set a file name for the scanned image to be stored in the storage server 130. This will be explained in detail below.

1)ファイル名入力欄
ユーザが、ファイル名入力欄1001をタッチすると、操作部220のタッチパネルの表示がソフトキーボードに切り替わり、任意の文字を入力したり自動入力された文字列を編集したりすることができる。例えば、前述の図21の例のように「川崎株式会社」が自動入力された状態のファイル名入力欄1001の文字列部分をタッチすると、図22に示すソフトキーボード2200が表示される。この際、図22に示すように、入力エリア2201にタッチされた文字列が入力された状態で表示される。これにより、ユーザは、ソフトキーボード2200を操作して、タッチした「川崎株式会社」の文字列を修正することができる。また、図10に示すような文字列が未入力状態のファイル名入力欄1001がタッチされた場合は、入力エリア2201が未入力状態のソフトキーボード2200が表示され、ユーザはこれを操作して任意の文字列をファイル名入力欄1001に入力することができる。
1) File name input field When the user touches the file name input field 1001, the display on the touch panel of the operation unit 220 switches to a soft keyboard, allowing him to input arbitrary characters or edit the automatically input character string. I can do it. For example, if the user touches the character string portion of the file name input field 1001 in which "Kawasaki Corporation" is automatically entered as in the example shown in FIG. 21, the soft keyboard 2200 shown in FIG. 22 is displayed. At this time, as shown in FIG. 22, the character string touched in the input area 2201 is displayed in an input state. This allows the user to operate the soft keyboard 2200 to modify the touched character string "Kawasaki Corporation." In addition, if the file name input field 1001 in which no character string has been entered as shown in FIG. The character string can be input into the file name input field 1001.

2)プレビュー領域
プレビュー領域1002には、前述のとおり、変倍処理が施されたスキャン画像の特定部分が表示される。そして、プレビュー領域1002内の任意の文字領域をタッチして選択すると、当該選択した文字領域の文字列がファイル名入力欄1001に追加される。この際、選択したことが分かるよう、選択に係る文字領域に対して下線を付したり、枠で囲んだり、色を付すなどして強調表示してもよい。また、選択した文字領域が中央になるよう表示部分を変更したり或いは表示倍率を変更したりしてもよい。さらに、複数の文字領域が選択された場合においては、それぞれの文字領域に対して異なる色を付す等、文字領域毎に表示態様を異ならせてもよい。そして、ユーザは、一度選択した文字領域を再度タッチすると、選択状態が解除(すなわち、文字領域に付した線や色を削除し元の状態に戻す。)され、ファイル名入力欄1002内の当該文字領域に対応する文字列も削除される。なお、本実施形態では、文字領域が未選択の状態では、プレビュー領域1002に各文字領域を示す枠等は表示しないこととしている。しかし、ユーザがタッチ可能な部分を認識できるよう各文字領域を示す枠等を予め表示しておき、選択された際にはその色を変える等してもよい。また、各文字領域が分かるようにする表示を行うかどうかをユーザがボタン等で切り替えられるようにしてもよい。そして、ユーザは、プレビュー領域1002においてスワイプ操作を行うことで、表示される画像部分を移動することができる。
2) Preview Area As described above, a specific portion of the scanned image that has been subjected to the scaling process is displayed in the preview area 1002. When an arbitrary character area in the preview area 1002 is touched and selected, the character string of the selected character area is added to the file name input field 1001. At this time, the character area related to the selection may be underlined, surrounded by a frame, or colored in a highlighted manner so that the selection can be recognized. Furthermore, the display area may be changed or the display magnification may be changed so that the selected character area is centered. Furthermore, when a plurality of character areas are selected, the display mode may be made different for each character area, such as by giving each character area a different color. Then, when the user touches the selected character area again, the selected state is canceled (that is, the lines and colors attached to the character area are deleted and the original state is restored), and the corresponding character area in the file name input field 1002 is The character string corresponding to the character area is also deleted. Note that in this embodiment, when no character area is selected, frames or the like indicating each character area are not displayed in the preview area 1002. However, a frame or the like indicating each character area may be displayed in advance so that the user can recognize the touchable portion, and the color of the frame may be changed when selected. Further, the user may be able to use a button or the like to switch whether or not to display each character area so that it can be seen. The user can then move the displayed image portion by performing a swipe operation in the preview area 1002.

3)各種操作ボタン
「×」マークのボタン1003は、ファイル名入力欄101に入力中の文字列のうち末尾の文字列を削除するための削除ボタンである。「+」マークのボタン1004は、プレビュー領域1002に表示中の画像を拡大して表示させるための拡大ボタンであり、各文字領域をより大きく表示させたいときなどに用いる。「-」マークのボタン1005は、プレビュー領域1002に表示中の画像を縮小して表示させるための縮小ボタンであり、より広い範囲を表示させたいときなどに用いる。拡大や縮小を行う時には、プレビュー領域1002の中央の座標が拡大や縮小を行う前と同一となるように表示位置の調整がなされる。「Uターン矢印」マークのボタン1006は、スワイプ操作による表示位置の移動や、拡大ボタン1004や縮小ボタン1005の押下による表示倍率の変更を行っていた場合に、プレビュー領域1002を初期表示状態に戻すための復帰ボタンである。「送信」ボタン1007は、ファイル名設定画面1000で設定したファイル名にてスキャン画像をファイル化してストレージサーバ130に保存させるためのボタンである。この「送信」ボタン1007の押下に応答して、設定されたファイル名の情報と共にスキャン画像データがMFP連携サーバ120へ送信される。
3) Various operation buttons A button 1003 marked with an "x" is a delete button for deleting the last character string among the character strings being input in the file name input field 101. A "+" mark button 1004 is an enlargement button for enlarging and displaying the image being displayed in the preview area 1002, and is used when it is desired to display each character area larger. A button 1005 with a "-" mark is a reduction button for displaying a reduced image in the preview area 1002, and is used when a wider range is desired to be displayed. When enlarging or reducing, the display position is adjusted so that the coordinates of the center of preview area 1002 are the same as before enlarging or reducing. A button 1006 with a "U-turn arrow" mark returns the preview area 1002 to the initial display state when the display position is moved by a swipe operation or the display magnification is changed by pressing the enlarge button 1004 or reduce button 1005. This is the return button for The “Send” button 1007 is a button for converting the scanned image into a file with the file name set on the file name setting screen 1000 and saving it in the storage server 130. In response to pressing the "send" button 1007, the scanned image data is sent to the MFP cooperation server 120 together with information on the set file name.

S1805では、初期表示状態のファイル名設定画面1000内に、操作ガイダンスが表示される。この操作ガイダンスによって、初めて操作するユーザでも、プレビュー領域1002内の文字領域をタッチして選択することでファイル名が設定できるということを容易に理解することができる。図23は、図10に示すファイル名設定画面1000におけるプレビュー領域1002の上部に、操作ガイダンスとしてのメッセージ2301を重畳表示した状態を示している。このような操作ガイダンスは、操作方法を既に知っているユーザにとっては不要となるため、タッチ操作やスワイプ操作など何らかのユーザ操作を検知した時点で、当該操作ガイダンスは非表示にされる。また、一般的な文書の上部には例えば文書タイトル、会社名、帳票番号、日付といった、当該文書にとって重要な意味を持つ文字や数字が存在することが多い。よって、これら重要な意味を持つ文字列の文字領域と操作ガイダンスとが重ならないよう、文字列の属性に応じて、プレビュー領域1002に表示する画像部分を下にずらす等してもよい。また、いずれかの文字領域に操作ガイダンスが重なってしまったり或いは文字領域から一定距離以内に入ってしまうときは、重なったり近づきすぎたりしないように操表示位置を決定すればよい。このように、操作ガイダンスの表示位置を固定せずに柔軟に決定することで、ユーザが文字領域を選択しやすくなる。 In S1805, operation guidance is displayed within the file name setting screen 1000 in the initial display state. With this operation guidance, even a first-time user can easily understand that a file name can be set by touching and selecting a character area within the preview area 1002. FIG. 23 shows a state in which a message 2301 as operation guidance is displayed superimposed on the top of the preview area 1002 on the file name setting screen 1000 shown in FIG. Such operation guidance is unnecessary for users who already know the operation method, so the operation guidance is hidden when some user operation such as a touch operation or a swipe operation is detected. Additionally, characters and numbers that have important meanings for the document are often present at the top of a typical document, such as the document title, company name, form number, and date. Therefore, the image portion displayed in the preview area 1002 may be shifted downward, depending on the attribute of the character string, so that the character area of these character strings with important meanings does not overlap with the operation guidance. Further, when the operation guidance overlaps with any character area or comes within a certain distance from the character area, the operation display position may be determined so as not to overlap or come too close. In this way, by flexibly determining the display position of the operation guidance without fixing it, it becomes easier for the user to select the character area.

S1806は、ユーザ操作の有無の監視処理である。所定間隔でユーザ操作の有無をチェックし、何らかのユーザ操作が検知されればS1807に進む。そして、S1807では、前述のとおり、操作ガイダンスが非表示にされる。 S1806 is a process of monitoring whether or not there is a user operation. The presence or absence of a user operation is checked at predetermined intervals, and if any user operation is detected, the process advances to S1807. Then, in S1807, the operation guidance is hidden, as described above.

S1808~S1815は、検知されたユーザ操作の内容に応じて次の処理を決定する判定処理である。なお、検知されたユーザ操作に対応する処理が完了するとS1806に戻り、次のユーザ操作が検知されるのを待つ。 S1808 to S1815 are determination processes that determine the next process according to the content of the detected user operation. Note that when the processing corresponding to the detected user operation is completed, the process returns to S1806 and waits for the next user operation to be detected.

S1808では、検知されたユーザ操作が、プレビュー領域1002内のいずれかの文字領域へのタッチ操作であったかどうかが判定される。具体的には、まず、タッチされた位置の座標をスキャン画像の座標に対応付けて変換する。そして、変換後の座標が、前述の文字認識結果(図15を参照)の“regions”で特定される各文字領域のうちいずれかの領域内に含まれれば、文字領域へのタッチであると判定する。判定の結果、文字領域へのタッチであればS1816に進み、文字領域へのタッチでなければS1809に進む。文字領域へのタッチであった場合のS1816では、タッチされた文字領域が、既に選択されているかどうかが判定される。タッチされたのが未選択の文字領域の場合はS1817に進み、タッチされたのが選択済みの文字領域の場合はS1818に進む。 In S1808, it is determined whether the detected user operation is a touch operation on any character area within the preview area 1002. Specifically, first, the coordinates of the touched position are associated with the coordinates of the scanned image and converted. If the coordinates after conversion are included in any one of the character regions specified by "regions" in the character recognition result (see Figure 15), it is determined that the touch is to the character region. judge. As a result of the determination, if the touch is to the character area, the process advances to S1816, and if the touch is not to the character area, the process advances to S1809. In S1816 when the touch is to a text area, it is determined whether the touched text area has already been selected. If the touched character area is an unselected character area, the process advances to S1817, and if the touched character area is the selected character area, the process advances to S1818.

S1817では、タッチされた文字領域の文字列がファイル名入力欄1001に追加され、当該文字領域に対して、選択されたことを示す強調表示処理がなされる。この際、ファイル名入力欄1001に他の文字列が入力されていなければ、そのまま文字列が追加される。そして、当該文字領域をファイル名設定に使用したことが、ファイル名設定時の入力情報として記憶される。一方、ファイル名入力欄1001に既に他の文字領域の文字列が入力されていた場合は、区切り文字が追加された後、タッチされた文字領域の文字列が追加される。この場合、当該文字領域をファイル名設定に使用したこと事実に加え、「第1の文字領域」、「区切り文字」、「第2の文字領域」といったように、文字列間に区切り文字を挿入したことも記憶される。図24は、「見積書」と文字認識された文字領域が最初に選択され、続いて「下丸子株式会社」と文字認識された文字領域が選択された場合のファイル設定画面1000を示した図である。ファイル名入力欄1001には、タッチした文字領域の順に対応する2つの文字列が入力されており、当該2つの文字列の間にセパレータとしてのアンダースコアが入力されている。 In S1817, the character string of the touched character area is added to the file name input field 1001, and the character string is highlighted to indicate that it has been selected. At this time, if no other character string is entered in the file name input field 1001, the character string is added as is. The fact that the character area was used for setting the file name is stored as input information when setting the file name. On the other hand, if a character string from another character area has already been input in the file name input field 1001, the delimiter is added, and then the character string from the touched character area is added. In this case, in addition to the fact that the relevant character area was used to set the file name, delimiters are inserted between character strings such as "first character area", "delimiter", and "second character area". What you did will also be remembered. FIG. 24 is a diagram showing the file setting screen 1000 when a character area recognized as "Estimate" is first selected, and then a character area recognized as "Shimomaruko Co., Ltd." is selected. be. In the file name input field 1001, two character strings corresponding to the touched character areas are input, and an underscore as a separator is input between the two character strings.

S1818では、タッチされた文字領域の文字列がファイル名入力欄1001から削除され、当該文字領域についての選択されたことを示す強調表示が取り消され、選択されていないことを示す通常表示の状態に戻る。また、その文字列に区切り文字が付いていた場合は、当該区切り文字も一緒に削除される。例えば、初期ファイル名の生成に用いたファイル名構成が[「第1の文字領域」、「区切り文字」、「第2の文字領域」]であったとする。この場合において、「第1の文字領域」となっている文字領域をユーザがタッチした場合は、当該第1の文字領域の文字列と一緒に区切り文字も削除され、ファイル名入力欄1001には「第2の文字領域」の文字列のみが残ることになる。 In S1818, the character string in the touched character area is deleted from the file name input field 1001, the highlighted display indicating that the character area has been selected is canceled, and the character string is returned to the normal display state indicating that it is not selected. return. Additionally, if the character string has a delimiter, that delimiter is also deleted. For example, assume that the file name structure used to generate the initial file name is ["first character area", "delimiter", "second character area"]. In this case, if the user touches the character area that is the "first character area," the delimiter is deleted together with the character string in the first character area, and the file name input field 1001 is Only the character string in the "second character area" remains.

検知されたユーザ操作が文字領域へのタッチでなかった場合のS1809では、検知されたユーザ操作が、プレビュー領域1002内でのスワイプ操作であったかどうかが判定される。スワイプ操作が検知された場合はS1819に進み、そうでなければS1810に進む。 In S1809 when the detected user operation is not a touch on the text area, it is determined whether the detected user operation is a swipe operation within the preview area 1002. If a swipe operation is detected, the process advances to S1819; otherwise, the process advances to S1810.

S1819では、プレビュー領域1002に表示する画像部分をスワイプされた方向に移動させる処理が実行される。具体的には、ユーザがタッチパネル上で指を動かした移動量に応じて、プレビュー領域1002に表示する画像部分を更新する。この処理は、プレビュー領域1002内の文字領域以外の領域でのタッチ操作を検知した場合に限定して行ってもよい。また、文字領域へのタッチ操作であった場合もその後のユーザが指を移動させた量に応じて文字領域へのタッチとして扱わずにスワイプ操作として扱ってもよい。 In S1819, processing is executed to move the image portion displayed in the preview area 1002 in the swiped direction. Specifically, the image portion displayed in the preview area 1002 is updated according to the amount of movement of the user's finger on the touch panel. This process may be performed only when a touch operation is detected in an area other than the character area within the preview area 1002. Furthermore, even if the touch operation is to a character area, it may be treated as a swipe operation instead of being treated as a touch to the character area, depending on the amount by which the user subsequently moves his or her finger.

S1810では、検知されたユーザ操作が、拡大ボタン1004又は縮小ボタン1005の押下であったかどうかが判定される。拡大ボタン1004又は縮小ボタン1005の押下であった場合はS1820に進み、そうでなければS1811に進む。 In S1810, it is determined whether the detected user operation is a press of the enlarge button 1004 or the reduce button 1005. If the enlarge button 1004 or the reduce button 1005 was pressed, the process advances to S1820; otherwise, the process advances to S1811.

S1820では、プレビュー領域1002に表示中の画像部分を、拡大又は縮小する処理が実行される。具体的には、拡大ボタン1004が押下されていた場合はスキャン画像の変倍率を一定量増やし、縮小ボタン1005が押下されていた場合はスキャン画像の変倍率を一定量減らす処理がなされる。ここでの一定量は任意であるが、例えば現状の倍率を基準として10%程度である。この際、一定量の拡大又は縮小を行うまでの間に、初期変倍率が存在したり、スキャン画像の幅/高さとプレビュー領域1002の幅/高さとが一致する倍率が存在したときは、その倍率で留めてもよい。なお、プレビュー領域1002内にスキャン画像全体が収まる倍率(最小倍率)未満は縮小されず、最小の文字領域が一定サイズの大きさになる倍率(最大倍率)以上には拡大できないように制御される。 In S1820, processing for enlarging or reducing the image portion being displayed in the preview area 1002 is executed. Specifically, when the enlarge button 1004 is pressed, the magnification of the scanned image is increased by a certain amount, and when the reduce button 1005 is pressed, the magnification of the scanned image is decreased by a certain amount. The fixed amount here is arbitrary, but is, for example, about 10% based on the current magnification. At this time, if there is an initial scaling factor or a scaling factor at which the width/height of the scanned image and the width/height of the preview area 1002 match before enlarging or reducing a certain amount, You can also use magnification. Note that it is controlled so that it will not be reduced below the magnification (minimum magnification) that allows the entire scanned image to fit within the preview area 1002, and will not be enlarged beyond the magnification (maximum magnification) at which the smallest character area will be a certain size. .

S1811では、検知されたユーザ操作が、復帰ボタン1006の押下であったかどうかが判定される。復帰ボタン1006の押下であった場合はS1821に進み、そうでなければS1812に進む。 In S1811, it is determined whether the detected user operation is a press of the return button 1006. If the return button 1006 was pressed, the process advances to S1821; otherwise, the process advances to S1812.

S1821では、プレビュー領域1002を初期表示状態に戻す処理が実行される。具体的には、プレビュー領域1002に表示するスキャン画像の変倍率をS1802で決定した初期変倍率に戻し、さらに、プレビュー領域1002への表示部分をS1803で決定した初期表示部分に戻す処理がなされる。この際、初期変倍率や初期表示部分の調整がなされていた場合には、当該調整後の初期変倍率や初期表示部分に戻すのが望ましい。 In S1821, processing for returning the preview area 1002 to the initial display state is executed. Specifically, processing is performed to return the scaling factor of the scanned image displayed in the preview area 1002 to the initial scaling factor determined in S1802, and further to return the display portion in the preview area 1002 to the initial display portion determined in S1803. . At this time, if the initial magnification ratio or initial display portion has been adjusted, it is desirable to return to the initial magnification ratio or initial display portion after the adjustment.

S1812では、検知されたユーザ操作が、ファイル名入力欄1001に入力されている文字列へのタッチ操作であったかどうかが判定される。この際、ファイル名入力欄1001に入力されている文字列の後ろの空白領域に対してのタッチ操作が検知された場合は、最後尾の文字列へのタッチ操作と扱えばよい。ファイル名入力欄1001に入力されている文字列へのタッチ操作であればS1822に進み、そうでなければS1813に進む。 In S1812, it is determined whether the detected user operation is a touch operation on the character string input in the file name input field 1001. At this time, if a touch operation is detected on a blank area after the character string input in the file name input field 1001, it may be treated as a touch operation on the last character string. If the touch operation is on a character string input in the file name input field 1001, the process advances to S1822; otherwise, the process advances to S1813.

S1822では、タッチ操作がなされた文字列が入力エリア2201に入力された状態の編集用ソフトキーボードが操作部220に表示される。いま、ファイル名設定画面1000が図24に示す状態であったと仮定する。この状態下で、ファイル名入力欄1001の「見積書」の文字列へのタッチ操作が検知された場合は、ソフトキーボードの入力エリア2201に「見積書」の文字列が入力された状態のソフトキーボード2200が表示されることになる。また、「下丸子株式会社」の文字列へのタッチ操作或いはその後ろの空白領域へのタッチ操作が検知された場合は、末尾の文字列である「_下丸子株式会社」の文字が入力エリア2201に入力された状態のソフトキーボード2200が表示されることになる。なお、ソフトキーボード2200の操作は一般的なキーボードの操作と同じであるためその説明を省略する。続くS1823は、ユーザ操作の有無の監視処理である。ソフトキーボード2200におけるOKボタン2202の押下の有無を所定間隔でチェックし、OKボタン2202の押下が検知されればS1824に進む。なお、OKボタン以外のキーが押下された場合は、当該押下されたキーに応じて、入力エリア2201に表示されている文字列の編集が行なわれることになる。例えば、ユーザは、ソフトキーボード2200を用いて、文字認識処理で誤認識していた文字列の修正を行うことができる。 In S1822, the editing soft keyboard is displayed on the operation unit 220, with the character string that was touched being input into the input area 2201. Now, assume that the file name setting screen 1000 is in the state shown in FIG. 24. In this state, if a touch operation is detected on the character string "estimate" in the file name input field 1001, the software with the character string "estimate" entered in the input area 2201 of the soft keyboard will be displayed. A keyboard 2200 will be displayed. Additionally, if a touch operation on the character string "Shimomaruko Co., Ltd." or a touch operation on the blank area after it is detected, the last character string "_Shimomaruko Co., Ltd." is displayed in the input area 2201. The soft keyboard 2200 in an input state will be displayed. Note that the operation of the soft keyboard 2200 is the same as that of a general keyboard, so a description thereof will be omitted. The following S1823 is a process of monitoring whether or not there is a user operation. Whether or not the OK button 2202 is pressed on the soft keyboard 2200 is checked at predetermined intervals, and if pressing of the OK button 2202 is detected, the process advances to S1824. Note that if a key other than the OK button is pressed, the character string displayed in the input area 2201 will be edited in accordance with the pressed key. For example, the user can use the soft keyboard 2200 to correct a character string that was incorrectly recognized during character recognition processing.

S1824では、区切り文字を削除する変更が行われたかかが判定される。本実施形態ではこの判定は、S1812でタッチされた文字列がS1822で区切り文字とともに表示された場合にのみ行なわれ、区切り文字とともに表示されなかった文字列については、区切り文字の削除が行われなかったものとして扱うものとする。すなわち、S1822で文字列の先頭に区切り文字が付与された状態で表示された場合、OKボタン2202が押下された時点で、文字列の先頭に区切り文字が存在するかどうかに基づいて、区切り文字を削除するような文字列の編集が行われたか判定する。例えば、S1812で「下丸子株式会社」の文字列へのタッチ操作がなされると、上述のとおりソフトキーボード2200の入力エリア2201には区切り文字が先頭に付された「_下丸子株式会社」の状態で表示される。そこで、先頭に区切り文字が残っているかどうかをチェックすることで、区切り文字の削除が行われたかどうかを判定する。また、S1812で「見積書」の文字列へのタッチ操作がなされると、上述のとおり入力エリア2201には「見積書」が表示されるので、この場合は、区切り文字を削除する変更は行われなかったものとして扱う。 In S1824, it is determined whether a change to delete a delimiter has been made. In this embodiment, this determination is made only when the character string touched in S1812 is displayed with a delimiter in S1822, and the delimiter is not deleted for character strings that are not displayed with a delimiter. shall be treated as such. In other words, if the character string is displayed with a delimiter added to the beginning of the character string in S1822, when the OK button 2202 is pressed, the delimiter is added based on whether the delimiter exists at the beginning of the character string. Determine whether the string has been edited to delete it. For example, when a touch operation is performed on the character string "Shimomaruko Co., Ltd." in S1812, the input area 2201 of the soft keyboard 2200 displays "_Shimomaruko Co., Ltd." with a delimiter added at the beginning as described above. Is displayed. Therefore, by checking whether a delimiter remains at the beginning, it is determined whether the delimiter has been deleted. In addition, when a touch operation is performed on the character string "estimate" in S1812, "estimate" is displayed in the input area 2201 as described above, so in this case, the change to delete the delimiter is made on the line Treat it as if it was not.

なお、上述した例では、S1812でタッチされた文字列の前に区切り文字が存在する場合に、S1822で、区切り文字が先頭に付された文字列が入力エリア2201に表示されるものとして説明したが、これに限るものではない。例えば、S1812でタッチされた文字列の後ろに区切り文字が存在する場合に、S1822で、当該タッチされた文字列の後ろに区切り文字を付して入力エリア2201に表示するように構成した場合も、S1824で同様の判定を行うことができる。すなわち、図24の例で「見積書」の文字列へのタッチ操作に応じてソフトキーボード2200の入力エリア2201に「見積書_」のように末尾に区切り文字を付して表示するように構成した場合について説明する。この場合は、本ステップS1824において末尾に区切り文字が残っているかどうかをチェックすることで、区切り文字の削除が行われたかどうかを判定すればよい。 Note that in the above example, if a delimiter exists before the character string touched in S1812, the character string with the delimiter prefixed is displayed in the input area 2201 in S1822. However, it is not limited to this. For example, if a delimiter exists after the character string touched in S1812, the delimiter is added to the end of the touched character string and displayed in the input area 2201 in S1822. , a similar determination can be made in S1824. That is, in the example of FIG. 24, in response to a touch operation on the character string "estimate," the input area 2201 of the soft keyboard 2200 is configured to display "estimate_" with a delimiter at the end. Let's explain the case. In this case, it may be determined whether the delimiter has been deleted by checking whether the delimiter remains at the end in step S1824.

S1824で区切り文字の削除が行われたと判定された場合はS1825に進む。そして、S1825では、区切り文字がファイル名から削除されたことが記憶される。例えば、初期ファイル名の生成に用いたファイル名構成が[「第1の文字領域」、「区切り文字」、「第2の文字領域」]であったとする。この時に、ファイル名入力欄1001における「第2の文字領域」に対応する文字列をタッチし、ソフトキーボード2200を使用して区切り文字を削除すると、変更後のファイル名構成は[「第1の文字領域」、「第2の文字領域」]となる。そして、この変更後のファイル名構成の情報が保持されることになる。 If it is determined in S1824 that the delimiter has been deleted, the process advances to S1825. Then, in S1825, it is stored that the delimiter has been deleted from the file name. For example, assume that the file name structure used to generate the initial file name is ["first character area", "delimiter", "second character area"]. At this time, if you touch the character string corresponding to the "second character area" in the file name input field 1001 and delete the delimiter using the soft keyboard 2200, the changed file name structure will be "character area" and "second character area"]. Then, the information on the file name structure after this change is retained.

続くS1826では、ファイル名に区切り文字を追加する変更が行われたかかが判定される。区切り文字の追加が行われたと判定された場合はS1827に進む。そして、S1827では、区切り文字がファイル名に追加されたことが記憶される。例えば、初期ファイル名の生成に用いたファイル名構成が[「第1の文字領域」、「第2の文字領域」]であったとする。この時に、ファイル名入力欄1001における「第2の文字領域」に対応する文字列をタッチし、ソフトキーボード2200を使用して区切り文字を先頭に追加すると、変更後のファイル名構成は[「第1の文字領域」、「区切り文字」、「第2の文字領域」]となる。そして、この変更後のファイル名構成の情報が保持されることになる。 In the following S1826, it is determined whether a change has been made to add a delimiter to the file name. If it is determined that a delimiter has been added, the process advances to S1827. Then, in S1827, it is stored that the delimiter has been added to the file name. For example, assume that the file name structure used to generate the initial file name is ["first character area", "second character area"]. At this time, if you touch the character string corresponding to the "second character area" in the file name input field 1001 and add a delimiter character to the beginning using the soft keyboard 2200, the changed file name structure will be 1 character area," ``delimiter,'' and ``second character area.'' Then, the information on the file name structure after this change is retained.

そして、S1828では、操作部220の表示画面が、ソフトキーボード2200からファイル名設定画面1000に戻された上で、変更後の内容にファイル名が修正される。この際、修正を行った文字列に対応する文字領域がプレビュー領域1002の中央にくるようにスキャン画像の表示部分を変更してもよい。なお、ファイル名に使用されている文字列の一部が修正されても、ファイル名構成が変わっていなければ、ファイル名構成の情報が新たに保持されることはない。ただし、ある文字列に含まれる全ての文字を削除する修正を行った場合はファイル名構成も変わる。よってこの場合にも(フローチャートでは省略しているが、)、変更後のファイル名の構成情報が保持されることになる。例えば、初期ファイル名の生成に用いたファイル名構成が[「第1の文字領域」、「区切り文字」、「第2の文字領域」]であったとする。この時に、ファイル名入力欄1001における「第2の文字領域」に対応する文字列をタッチし、ソフトキーボード2200を使用してすべての文字を削除したとする。この場合、不要となった区切り文字も削除されて変更後のファイル名構成は[「第1の文字領域」]に変わるので、当該変更後のファイル名構成の情報が保持されることになる。 Then, in S1828, the display screen of the operation unit 220 is returned from the soft keyboard 2200 to the file name setting screen 1000, and the file name is corrected to the changed contents. At this time, the display portion of the scanned image may be changed so that the character area corresponding to the corrected character string is placed in the center of the preview area 1002. Note that even if a part of the character string used in the file name is modified, if the file name structure remains unchanged, no new file name structure information is retained. However, if a modification is made to delete all characters included in a string, the file name structure will also change. Therefore, even in this case (although omitted in the flowchart), the configuration information of the changed file name is retained. For example, assume that the file name structure used to generate the initial file name is ["first character area", "delimiter", "second character area"]. At this time, it is assumed that a character string corresponding to the "second character area" in the file name input field 1001 is touched and all characters are deleted using the soft keyboard 2200. In this case, the delimiter that is no longer needed is also deleted and the changed file name structure changes to ["first character area"], so the information about the changed file name structure is retained.

S1813では、検知されたユーザ操作が、文字列が入力されていない状態の空欄のファイル名入力欄1001へのタッチ操作であったかどうかが判定される。空欄のファイル名入力欄1001へのタッチ操作であればS1829に進み、そうでなければS1814に進む。 In S1813, it is determined whether the detected user operation is a touch operation on the blank file name input field 1001 in which no character string has been input. If the touch operation is on the blank file name input field 1001, the process advances to S1829; otherwise, the process advances to S1814.

S1829では、入力エリア2201に何も入力されていない状態の文字列追加用ソフトキーボードが操作部220に表示される。続くS1830は、ユーザ操作の有無の監視処理である。ソフトキーボード2200におけるOKボタン2202の押下の有無を所定間隔でチェックし、OKボタン2202の押下が検知されればS1831に進む。そして、S1831では、操作部220の表示画面が、ソフトキーボード2200からファイル名設定画面1000に戻された上で、入力された文字列がファイル名に追加される。 In S1829, a soft keyboard for adding a character string is displayed on the operation unit 220 with nothing input in the input area 2201. The following S1830 is a process of monitoring whether or not there is a user operation. Whether or not the OK button 2202 is pressed on the soft keyboard 2200 is checked at predetermined intervals, and if pressing of the OK button 2202 is detected, the process advances to S1831. Then, in S1831, the display screen of the operation unit 220 is returned from the soft keyboard 2200 to the file name setting screen 1000, and the input character string is added to the file name.

S1814では、検知されたユーザ操作が、削除ボタン1003の押下であったかどうかが判定される。削除ボタン1003の押下であった場合はS1832に進み、そうでなければS1815に進む。S1832では、ファイル名入力欄1001に入力されている文字列のうち末尾の文字列が削除される。例えば、初期ファイル名の生成に用いたファイル名構成が[「第1の文字領域」、「区切り文字」、「第2の文字領域」でれば、削除ボタン1003の押下によって「第2の文字領域」に対応する文字列が削除される。この結果、削除後のファイル名構成は[「第1の文字領域1]となり、ファイル名は「第1の文字領域」に対応した文字列のみとなる。この際、削除された文字列に対応する文字領域については、プレビュー領域1002において非選択を示す状態に戻される。そして、変更後のファイル名構成の情報が保持されることになる。 In S1814, it is determined whether the detected user operation is a press of the delete button 1003. If the delete button 1003 was pressed, the process advances to S1832; otherwise, the process advances to S1815. In S1832, the last character string of the character strings input in the file name input field 1001 is deleted. For example, if the file name structure used to generate the initial file name is ['first character area', 'delimiter', 'second character area', pressing the delete button 1003 will result in 'second character area'. The character string corresponding to "area" is deleted. As a result, the file name structure after deletion becomes ["first character area 1"], and the file name becomes only the character string corresponding to "first character area". At this time, the character area corresponding to the deleted character string is returned to a state indicating non-selection in the preview area 1002. Information on the file name structure after the change is then retained.

S1815では、検知されたユーザ操作が、送信ボタン1007の押下であったかどうかが判定される。送信ボタン1007の押下であった場合は、本処理を終了し、図12のフローチャートのS1210に進む。 In S1815, it is determined whether the detected user operation is a press of the send button 1007. If the send button 1007 was pressed, the process ends and the process advances to S1210 in the flowchart of FIG. 12.

以上が、S1209にて実行されるファイル名設定処理の内容である。 The above is the content of the file name setting process executed in S1209.

<変形例1>
上述のS1802(初期変倍率の決定)において、最も左の文字領域と最も右の文字領域とに基づき決定した初期変倍率に従うと、プレビュー表示される各文字領域の高さ平均が所定の閾値未満となる場合は、所定の閾値以上となるように初期変倍率を変更してもよい。この場合において、「高さの平均」は、全文字領域についての平均でもよいし、一部の文字領域についての平均でもよい。一部の文字領域についての平均の例としては、決定された初期変倍率にてプレビュー領域1002に表示されることになる文字領域の高さの平均や、スキャン画像の特定部分(例えば上半分)の文字領域の高さの平均などが挙げられる。具体例を説明する。いま、最も左の文字領域の左端と最も右の文字領域の右端との間隔(幅)が2000px、プレビュー領域1002の幅が800px、所定の閾値が15pxであったとする。ここで、全文字領域の高さの平均が60pxであった場合に算出される初期変倍率は0.4(=800÷2000)であり、全文字領域の高さの平均は24px(=60×0.4)で所定の閾値未満ではないため0.4がそのまま初期変倍率となる。一方、全文字領域の高さの平均が30pxであった場合には、全文字領域の高さの平均は12px(=30×0.4)となる。この場合、所定の閾値未満となるため、全文字領域の高さの平均が所定の閾値以上(ここでは閾値と同じ値)になるように、初期変倍率を0.5(=0.4×15÷12)に変更する。図25に、文字領域の高さの平均が閾値を満たせずに初期変倍率を調整した場合の、スキャン設定画面1000の初期表示の一例を示す。この例では、初期変倍率の値を大きくする調整を行った後、S1803において最も左の文字領域の左端と最も上の文字領域の上端に合わせて表示部分が決定されている。その結果、帳票の右側に相当する領域が表示部分に含まれなくなるが、プレビュー領域1002内に存在する各文字領域については視認性が確保されることになる。
<Modification 1>
In S1802 (determining the initial magnification ratio) described above, if the initial magnification ratio determined based on the leftmost character area and the rightmost character area is followed, the average height of each character area previewed is less than a predetermined threshold. In this case, the initial magnification ratio may be changed so that it is equal to or higher than a predetermined threshold value. In this case, the "average height" may be the average of all character areas or the average of some character areas. Examples of the average for some character areas include the average height of the character area that will be displayed in the preview area 1002 at the determined initial scaling factor, and a specific part of the scanned image (for example, the upper half). Examples include the average height of the character area. A specific example will be explained. Now, assume that the interval (width) between the left end of the leftmost character area and the right end of the rightmost character area is 2000px, the width of the preview area 1002 is 800px, and the predetermined threshold is 15px. Here, if the average height of all character areas is 60px, the initial scaling factor calculated is 0.4 (=800÷2000), and the average height of all character areas is 24px (=60×0.4 ) is not less than the predetermined threshold, so 0.4 remains the initial magnification ratio. On the other hand, when the average height of all character areas is 30px, the average height of all character areas is 12px (=30×0.4). In this case, it is less than the predetermined threshold, so the initial scaling factor is set to 0.5 (=0.4×15÷12) so that the average height of all character areas is greater than or equal to the predetermined threshold (here, the same value as the threshold). Change to FIG. 25 shows an example of the initial display of the scan setting screen 1000 when the initial magnification is adjusted because the average height of the character area does not satisfy the threshold. In this example, after adjusting to increase the value of the initial scaling factor, the display portion is determined in step S1803 to match the left end of the leftmost character area and the upper end of the uppermost character area. As a result, although the area corresponding to the right side of the form is no longer included in the display portion, the visibility of each character area existing within the preview area 1002 is ensured.

<変形例2>
上述のS1803(初期表示部分の決定)において、初期ファイル名に使用した文字領域が複数ある場合は、使用した文字領域のうち一番上にある文字領域がプレビュー領域1002に表示されるようにしてもよい。また、各文字領域における文字列の意味種別を判断し、ファイル名に使用する可能性の高い文字領域がプレビュー領域1002内に表示されるように表示部分を調整してもよい。また、予め指定した文字領域の数分の文字領域がプレビュー領域1002に表示されるように、表示部分を決定してもよい。さらに、初期ファイル名に使用する文字列の文字領域のうち、一番上にある文字領域と一番下にある文字領域の中間地点が、プレビュー領域1002の中央にくるように表示部分を決定してもよい。
<Modification 2>
In S1803 (determining the initial display area) described above, if there are multiple character areas used for the initial file name, the topmost character area among the used character areas is displayed in the preview area 1002. Good too. Further, the meaning type of the character string in each character area may be determined, and the display portion may be adjusted so that a character area that is likely to be used for a file name is displayed in the preview area 1002. Further, the display portion may be determined so that a predetermined number of character areas are displayed in the preview area 1002. Furthermore, the display area is determined so that the midpoint between the top character area and the bottom character area of the character string used for the initial file name is in the center of the preview area 1002. It's okay.

<変形例3>
上述のS1805(操作ガイダンスの表示)において、類似帳票のファイル名構成に従った初期ファイル名がファイル名入力欄1001に自動入力されている場合、当該初期ファイル名に使用されている文字列の文字領域に重ならないように表示してもよい。この際、初期ファイル名に使用されている文字列が複数存在し、それらの文字領域に対して重ならないように表示することが困難な場合も考えられる。このような場合には、初期ファイル名の先頭にある文字列の文字領域を優先し、末尾にある文字列の文字領域の一部又は全部に重ねて表示してもよい。また、初期ファイル名以外の文書プロパティ、例えばメタデータなどを設定する場合には、その文書プロパティのタイプに応じて操作ガイダンスの重なりを避ける文字領域を判定し、操作ガイダンスの表示位置を決めてもよい。例えば、タイプが日付型の文書プロパティに値をセットする場合であれば、対象文書における日付の文字領域には重ならないように操作ガイダンスを表示する。このとき、各文字領域に対応する文字列が日付かどうかは、スキャン画像から抽出された文字列が特定の文字配列に当て嵌るかによって判断する。例えば、yy/mm/ddの形式における、「yy」、「mm」、「dd」のそれぞれに数字が入る場合は、日付であると判断することができる。
<Modification 3>
In S1805 (displaying operation guidance) described above, if the initial file name according to the file name structure of similar forms is automatically input into the file name input field 1001, the characters of the character string used in the initial file name It may be displayed so as not to overlap the area. At this time, there may be a case where there are multiple character strings used in the initial file name, and it is difficult to display these character strings in a manner that they do not overlap. In such a case, priority may be given to the character area of the character string at the beginning of the initial file name, and the character area may be displayed overlapping part or all of the character area of the character string at the end. Also, when setting document properties other than the initial file name, such as metadata, you can determine the character area to avoid overlapping operation guidance according to the type of document property, and decide the display position of the operation guidance. good. For example, when setting a value to a document property whose type is date, operation guidance is displayed so as not to overlap the date character area in the target document. At this time, whether the character string corresponding to each character area is a date is determined based on whether the character string extracted from the scanned image fits into a specific character arrangement. For example, if a number is included in each of "yy", "mm", and "dd" in the format yy/mm/dd, it can be determined that it is a date.

<変形例4>
上述のS1822(編集用ソフトキーボードの表示)において、入力エリア2201内に、タッチされた文字列を入力状態にして表示するのに代えて、ファイル名全体を入力状態にして表示してもよい。この場合、編集対象をユーザが誤認しないよう、他の文字列と区別する強調表示(色を変える、枠を付すなど)を行ったり、カーソルをその末尾に表示するなどし、編集対象の範囲が分かるように表示する。また、ファイル名入力欄1001に入力されている文字列に対するタッチ操作に応答して編集用ソフトキーボードを表示するのに代えて、さらに追加的なユーザ操作(例えば不図示の専用ボタンの押下)を待って編集用ソフトキーボードを表示するようにしてもよい。
<Modification 4>
In step S1822 (displaying the editing software keyboard) described above, instead of displaying the touched character string in the input state in the input area 2201, the entire file name may be displayed in the input state. In this case, in order to prevent the user from misidentifying the text to be edited, the range of text to be edited may be highlighted (by changing the color, adding a frame, etc.) to distinguish it from other text strings, or by displaying the cursor at the end of the text. Display it in an easy-to-understand manner. Additionally, instead of displaying the editing soft keyboard in response to a touch operation on the character string input in the file name input field 1001, additional user operations (for example, pressing a dedicated button (not shown)) can be performed. The editing soft keyboard may be displayed after waiting.

<変形例5>
また、本実施形態の説明では、ユーザによる文字領域へのタッチ操作が検出された場合には、タッチされた文字領域の文字列をファイル名に追加或いは削除する処理(S1817、S1818)が実行される。しかしながら、システムの応答が遅く、タッチ操作を検知してからその対象文字列の追加や削除がファイル名に反映されるまでに時間が掛かることがある。この場合、ユーザは自身のタッチ操作にシステムが反応していないと勘違いし、何度も同じ文字領域に対してタッチ操作を繰り返すことが考えられる。こうなると、同じ文字領域の文字列の追加と削除が繰り返し行われて、ユーザが所望する状態で止めることができない場合がありうる。例えば、削除対象の文字列を複数回タッチすると、削除対象の文字列が再入力されたりといったことが起こり得る。そこで、追加・削除処理中に同じ文字領域に対するタッチ操作が繰り返し行われないよう、追加・削除処理が完了するまでは同じ文字領域に対する新たな追加・削除のためのタッチ操作を受け付けないようにしてもよい。この際、処理中であることを示すメッセージの表示を併せて行うようにしてもよい。これにより、ファイル名設定時の入力操作において、ユーザが意図しない文字列の追加や削除が実行されてしまうのを防ぐことができる。
<Modification 5>
In addition, in the description of this embodiment, when a touch operation on a character area by a user is detected, a process (S1817, S1818) of adding or deleting a character string in the touched character area to a file name is executed. Ru. However, the system response is slow, and it may take some time after a touch operation is detected until the addition or deletion of the target character string is reflected in the file name. In this case, the user may mistakenly believe that the system is not responding to his or her touch operations, and may repeat the touch operation on the same character area over and over again. In this case, addition and deletion of character strings in the same character area are repeated, and the user may not be able to stop the addition and deletion in the desired state. For example, if a character string to be deleted is touched multiple times, the character string to be deleted may be re-entered. Therefore, in order to prevent repeated touch operations on the same character area during addition/deletion processing, new touch operations for addition/deletion on the same character area are not accepted until the addition/deletion process is complete. Good too. At this time, a message indicating that processing is in progress may also be displayed. This can prevent the user from adding or deleting unintended character strings during the input operation when setting a file name.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (25)

スキャン画像データのプレビュー画像を表示するプレビュー領域と、前記スキャン画像データについての情報が表示される表示領域と、を含むUI画面を表示するように制御する制御手段と、
保存手段と、を有し、
前記制御手段は、
前記プレビュー領域に含まれる前記プレビュー画像内の所望の文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御し、
前記文字領域の前記選択を解除するための、選択されている前記文字領域に対する前記プレビュー画像上でのユーザ操作に応じて、前記表示領域に表示された前記選択されている文字領域の前記文字認識結果を削除するように制御し、
前記保存手段は、前記プレビュー画像内の、選択され、かつ、前記表示領域に表示された文字認識結果に対応する文字領域を示す情報を保存し、
前記保存手段により保存された前記文字領域を示す情報は、前記スキャン画像データと同じ種類の別のスキャン画像データを含むファイルのファイル名を生成する際に用いることができ、当該情報は、前記同じ種類の別のスキャン画像データにおいて当該情報に対応する領域を特定するために用いられ、当該特定された領域における文字認識結果が前記ファイル名の生成に用いられる
ことを特徴とする情報処理装置。
A control unit configured to display a UI screen including a preview area for displaying a preview image of scanned image data and a display area for displaying information about the scanned image data ;
storage means ;
The control means includes:
In response to a user operation for selecting a desired character area in the preview image included in the preview area, control is performed to display a character recognition result of the character area in the display area,
the character recognition of the selected character area displayed in the display area in response to a user operation on the preview image for the selected character area to cancel the selection of the character area; control to delete results ,
The storage means stores information indicating a character area in the preview image that corresponds to the character recognition result selected and displayed in the display area,
The information indicating the character area stored by the storage means can be used when generating a file name of a file containing another scanned image data of the same type as the scanned image data, and the information It is used to identify an area corresponding to the information in another type of scan image data, and the character recognition result in the identified area is used to generate the file name.
An information processing device characterized by:
前記制御手段は、前記表示領域に文字認識結果が表示されていない状態で、前記プレビュー領域に含まれる前記プレビュー画像内の未だ選択されていなかった文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御することを特徴とする請求項1に記載の情報処理装置。 The control means is configured to control the control means in response to a user operation for selecting a character area that has not yet been selected in the preview image included in the preview area while the character recognition result is not displayed in the display area. 2. The information processing apparatus according to claim 1, wherein the information processing apparatus controls to display a character recognition result of the character area in the display area. 前記制御手段は、前記プレビュー領域に含まれる前記プレビュー画像内で未だ選択されていなかった文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御することを特徴とする請求項1に記載の情報処理装置。 The control means displays a character recognition result of the character area in the display area in response to a user operation for selecting a character area that has not yet been selected in the preview image included in the preview area. The information processing apparatus according to claim 1, wherein the information processing apparatus is controlled as follows. 前記文字認識結果は、前記文字領域が選択される前に文字認識処理された結果であることを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the character recognition result is a result of character recognition processing performed before the character area is selected. 前記プレビュー領域に含まれる前記プレビュー画像内の文字領域が選択されるためのユーザ操作は、前記プレビュー領域上でユーザが位置を指定する操作であり、当該位置に基づいて、前記情報処理装置により前記文字領域が特定されることを特徴とする請求項1に記載の情報処理装置。 A user operation for selecting a character area in the preview image included in the preview area is an operation in which the user specifies a position on the preview area, and based on the position, the information processing device selects the character area in the preview image. The information processing apparatus according to claim 1, wherein a character area is specified. 前記プレビュー領域と前記表示領域は重ならないことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the preview area and the display area do not overlap. 前記スキャン画像データは、スキャナによりスキャンされることで得られた画像データであることを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the scan image data is image data obtained by scanning with a scanner. 前記文字領域は、文字が含まれる領域であり、
前記選択されている文字領域に対する前記プレビュー画像上でのユーザ操作は、前記プレビュー領域に含まれる前記プレビュー画像内の前記選択されている文字領域をタッチするユーザ操作である
ことを特徴とする請求項1に記載の情報処理装置。
The character area is an area containing characters,
A user operation on the preview image for the selected character area is a user operation of touching the selected character area in the preview image included in the preview area. 1. The information processing device according to 1.
情報処理装置の制御方法であって、
スキャン画像データのプレビュー画像を表示するプレビュー領域と、前記スキャン画像データについての情報が表示される表示領域と、を含むUI画面を表示するように制御する制御工程と、
保存工程と、
を有し、
前記制御工程において
前記プレビュー領域に含まれる前記プレビュー画像内の所望の文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御し
前記文字領域の前記選択を解除するための、選択されている前記文字領域に対する前記プレビュー画像上でのユーザ操作に応じて、前記表示領域に表示された前記選択されている文字領域の前記文字認識結果を削除するように制御し
前記保存工程において、前記プレビュー画像内の、選択され、かつ、前記表示領域に表示された文字認識結果に対応する文字領域を示す情報を保存し、
前記保存工程において保存された前記文字領域を示す情報は、前記スキャン画像データと同じ種類の別のスキャン画像データを含むファイルのファイル名を生成する際に用いることができ、当該情報は、前記同じ種類の別のスキャン画像データにおいて当該情報に対応する領域を特定するために用いられ、当該特定された領域における文字認識結果が前記ファイル名の生成に用いられる
ことを特徴とする制御方法。
A method for controlling an information processing device, the method comprising:
a control step of controlling to display a UI screen including a preview area for displaying a preview image of scanned image data and a display area for displaying information about the scanned image data;
preservation process,
has
In the control step ,
In response to a user operation for selecting a desired character area in the preview image included in the preview area, control is performed to display a character recognition result of the character area in the display area,
the character recognition of the selected character area displayed in the display area in response to a user operation on the preview image for the selected character area to cancel the selection of the character area; control to delete results,
In the storage step, information indicating a character area corresponding to the character recognition result selected and displayed in the display area in the preview image is stored;
The information indicating the character area saved in the saving step can be used when generating a file name of a file containing another scanned image data of the same type as the scanned image data, and the information It is used to identify an area corresponding to the information in another type of scan image data, and the character recognition result in the identified area is used to generate the file name.
A control method characterized by:
コンピュータを、
スキャン画像データのプレビュー画像を表示するプレビュー領域と、前記スキャン画像データについての情報が表示される表示領域と、を含むUI画面を表示するように制御する制御手段及び保存手段として機能させるためのプログラムであって、
前記制御手段は、
前記プレビュー領域に含まれる前記プレビュー画像内の所望の文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御し、
前記文字領域の前記選択を解除するための、選択されている前記文字領域に対する前記プレビュー画像上でのユーザ操作に応じて、前記表示領域に表示された前記選択されている文字領域の前記文字認識結果を削除するように制御
前記保存手段は、前記プレビュー画像内の、選択され、かつ、前記表示領域に表示された文字認識結果に対応する文字領域を示す情報を保存し、
前記保存手段により保存された前記文字領域を示す情報は、前記スキャン画像データと同じ種類の別のスキャン画像データを含むファイルのファイル名を生成する際に用いることができ、当該情報は、前記同じ種類の別のスキャン画像データにおいて当該情報に対応する領域を特定するために用いられ、当該特定された領域における文字認識結果が前記ファイル名の生成に用いられる
ことを特徴とするプログラム。
computer,
A program for controlling to display a UI screen including a preview area for displaying a preview image of scanned image data and a display area for displaying information about the scanned image data, and a program for functioning as a storage means. And,
The control means includes:
In response to a user operation for selecting a desired character area in the preview image included in the preview area, control is performed to display a character recognition result of the character area in the display area,
the character recognition of the selected character area displayed in the display area in response to a user operation on the preview image for the selected character area to cancel the selection of the character area; control to delete results,
The storage means stores information indicating a character area in the preview image that corresponds to the character recognition result selected and displayed in the display area,
The information indicating the character area stored by the storage means can be used when generating a file name of a file containing another scanned image data of the same type as the scanned image data, and the information It is used to identify an area corresponding to the information in another type of scan image data, and the character recognition result in the identified area is used to generate the file name.
A program characterized by:
前記制御手段は、前記表示領域に文字認識結果が表示されていない状態で、前記プレビュー領域に含まれる前記プレビュー画像内の未だ選択されていなかった文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御することを特徴とする請求項10に記載のプログラム。 The control means is configured to control the control means in response to a user operation for selecting a character area that has not yet been selected in the preview image included in the preview area while the character recognition result is not displayed in the display area. 11. The program according to claim 10 , wherein the program controls the character recognition result of the character area to be displayed in the display area. 前記制御手段は、前記プレビュー領域に含まれる前記プレビュー画像内で未だ選択されていなかった文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御することを特徴とする請求項10に記載のプログラム。 The control means displays a character recognition result of the character area in the display area in response to a user operation for selecting a character area that has not yet been selected in the preview image included in the preview area. 11. The program according to claim 10 , wherein the program performs control as follows. 前記文字認識結果は、前記文字領域が選択される前に文字認識処理された結果であることを特徴とする請求項10に記載のプログラム。 11. The program according to claim 10, wherein the character recognition result is a result of character recognition processing performed before the character area is selected. 前記プレビュー領域に含まれる前記プレビュー画像内の文字領域が選択されるためのユーザ操作は、前記プレビュー領域上でユーザが位置を指定する操作であり、当該位置に基づいて、前記コンピュータにより前記文字領域が特定されることを特徴とする請求項10に記載のプログラム。 A user operation for selecting a character area in the preview image included in the preview area is an operation in which the user specifies a position on the preview area, and based on the position, the computer selects the character area. 11. The program according to claim 10 , wherein: is specified. 前記プレビュー領域と前記表示領域は重ならないことを特徴とする請求項10に記載のプログラム。 11. The program according to claim 10 , wherein the preview area and the display area do not overlap. 前記スキャン画像データは、スキャナによりスキャンされることで得られた画像データであることを特徴とする請求項10に記載のプログラム。 11. The program according to claim 10 , wherein the scan image data is image data obtained by scanning with a scanner. 前記文字領域は、文字が含まれる領域であり、
前記選択されている文字領域に対する前記プレビュー画像上でのユーザ操作は、前記プレビュー領域に含まれる前記プレビュー画像内の前記選択されている文字領域をタッチするユーザ操作である
ことを特徴とする請求項10に記載のプログラム。
The character area is an area containing characters,
A user operation on the preview image for the selected character area is a user operation of touching the selected character area in the preview image included in the preview area. The program described in 10 .
スキャン画像データのプレビュー画像を表示するプレビュー領域と、前記スキャン画像データについての情報が表示される表示領域と、を含むUI画面を表示するように制御する制御手段と、
保存手段と、
を有し、
前記制御手段は、
前記プレビュー領域に含まれる前記プレビュー画像内の所望の文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御し、
前記文字領域の前記選択を解除するための、選択されている前記文字領域に対する前記プレビュー画像上でのユーザ操作に応じて、前記表示領域に表示された前記選択されている文字領域の前記文字認識結果を削除するように制御し、
前記保存手段は、前記プレビュー画像内の、選択され、かつ、前記表示領域に表示された文字認識結果に対応する文字領域を示す情報を保存し、
前記保存手段により保存された前記文字領域を示す情報は、前記スキャン画像データと同じ種類の別のスキャン画像データを含むファイルのファイル名を生成する際に用いることができ、当該情報は、前記同じ種類の別のスキャン画像データにおいて当該情報に対応する領域を特定するために用いられ、当該特定された領域における文字認識結果が前記ファイル名の生成に用いられる
ことを特徴とするシステム。
A control unit configured to display a UI screen including a preview area for displaying a preview image of scanned image data and a display area for displaying information about the scanned image data ;
storage means,
has
The control means includes:
In response to a user operation for selecting a desired character area in the preview image included in the preview area, control is performed to display a character recognition result of the character area in the display area,
the character recognition of the selected character area displayed in the display area in response to a user operation on the preview image for the selected character area to cancel the selection of the character area; control to delete results ,
The storage means stores information indicating a character area in the preview image that corresponds to the character recognition result selected and displayed in the display area,
The information indicating the character area stored by the storage means can be used when generating a file name of a file containing another scanned image data of the same type as the scanned image data, and the information It is used to identify an area corresponding to the information in another type of scan image data, and the character recognition result in the identified area is used to generate the file name.
A system characterized by:
前記制御手段は、前記表示領域に文字認識結果が表示されていない状態で、前記プレビュー領域に含まれる前記プレビュー画像内の未だ選択されていなかった文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御することを特徴とする請求項18に記載のシステム。 The control means is configured to control the control means in response to a user operation for selecting a character area that has not yet been selected in the preview image included in the preview area while the character recognition result is not displayed in the display area. 19. The system according to claim 18 , wherein the system controls the character recognition result of the character area to be displayed in the display area. 前記制御手段は、前記プレビュー領域に含まれる前記プレビュー画像内で未だ選択されていなかった文字領域が選択されるためのユーザ操作に応じて、当該文字領域の文字認識結果を前記表示領域に表示するように制御することを特徴とする請求項18に記載のシステム。 The control means displays a character recognition result of the character area in the display area in response to a user operation for selecting a character area that has not yet been selected in the preview image included in the preview area. 19. The system according to claim 18 , wherein the system controls: 前記文字認識結果は、前記文字領域が選択される前に文字認識処理された結果であることを特徴とする請求項18に記載のシステム。 19. The system according to claim 18 , wherein the character recognition result is a result of character recognition processing performed before the character area is selected. 前記プレビュー領域に含まれる前記プレビュー画像内の文字領域が選択されるためのユーザ操作は、前記プレビュー領域上でユーザが位置を指定する操作であり、当該位置に基づいて、情報処理装置により前記文字領域が特定されることを特徴とする請求項18に記載のシステム。 A user operation for selecting a character area in the preview image included in the preview area is an operation in which the user specifies a position on the preview area, and the information processing device selects the character area based on the position. 19. The system of claim 18 , wherein a region is identified. 前記プレビュー領域と前記表示領域は重ならないことを特徴とする請求項18に記載のシステム。 19. The system of claim 18 , wherein the preview area and the display area do not overlap. 前記スキャン画像データは、スキャナによりスキャンされることで得られた画像データであることを特徴とする請求項18に記載のシステム。 The system according to claim 18 , wherein the scan image data is image data obtained by scanning with a scanner. 前記文字領域は、文字が含まれる領域であり、
前記選択されている文字領域に対する前記プレビュー画像上でのユーザ操作は、前記プレビュー領域に含まれる前記プレビュー画像内の前記選択されている文字領域をタッチするユーザ操作である
ことを特徴とする請求項18に記載のシステム。
The character area is an area containing characters,
A user operation on the preview image for the selected character area is a user operation of touching the selected character area in the preview image included in the preview area. 18. The system according to 18 .
JP2023018221A 2019-04-19 2023-02-09 Image processing device for character input using a touch panel, its control method, and program Active JP7358663B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023018221A JP7358663B2 (en) 2019-04-19 2023-02-09 Image processing device for character input using a touch panel, its control method, and program
JP2023096501A JP2023120267A (en) 2023-02-09 2023-06-12 Image processing device for inputting text using touch panel, control method for the same, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019080362A JP7225017B2 (en) 2019-04-19 2019-04-19 Image processing device for character input using touch panel, its control method and program
JP2023018221A JP7358663B2 (en) 2019-04-19 2023-02-09 Image processing device for character input using a touch panel, its control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019080362A Division JP7225017B2 (en) 2019-04-19 2019-04-19 Image processing device for character input using touch panel, its control method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023096501A Division JP2023120267A (en) 2023-02-09 2023-06-12 Image processing device for inputting text using touch panel, control method for the same, and program

Publications (2)

Publication Number Publication Date
JP2023058616A JP2023058616A (en) 2023-04-25
JP7358663B2 true JP7358663B2 (en) 2023-10-10

Family

ID=87890795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023018221A Active JP7358663B2 (en) 2019-04-19 2023-02-09 Image processing device for character input using a touch panel, its control method, and program

Country Status (1)

Country Link
JP (1) JP7358663B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172905A (en) 2002-11-19 2004-06-17 Canon Electronics Inc Network scanning system
JP2006018522A (en) 2004-06-30 2006-01-19 Canon Inc Image edition system, method, and program
JP2014089694A (en) 2012-10-01 2014-05-15 Canon Marketing Japan Inc Portable terminal, method of controlling the portable terminal, program, and recording medium
JP2017068355A (en) 2015-09-28 2017-04-06 シャープ株式会社 Image processing device and image processing method
JP2019041150A (en) 2017-08-22 2019-03-14 キヤノン株式会社 Device for setting file name or the like to scan image, control method therefor and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172905A (en) 2002-11-19 2004-06-17 Canon Electronics Inc Network scanning system
JP2006018522A (en) 2004-06-30 2006-01-19 Canon Inc Image edition system, method, and program
JP2014089694A (en) 2012-10-01 2014-05-15 Canon Marketing Japan Inc Portable terminal, method of controlling the portable terminal, program, and recording medium
JP2017068355A (en) 2015-09-28 2017-04-06 シャープ株式会社 Image processing device and image processing method
JP2019041150A (en) 2017-08-22 2019-03-14 キヤノン株式会社 Device for setting file name or the like to scan image, control method therefor and program

Also Published As

Publication number Publication date
JP2023058616A (en) 2023-04-25

Similar Documents

Publication Publication Date Title
JP6953230B2 (en) A device for setting a file name, etc. on a scanned image, its control method, and a program.
JP7317561B2 (en) Image processing device for character input using touch panel, its control method and program
JP7297510B2 (en) IMAGE PROCESSING APPARATUS FOR DISPLAYING GUIDANCE FOR USER OPERATION, CONTROL METHOD AND PROGRAM THEREOF
JP2019128715A (en) Device, method and program for setting information associated with scanned image
JP2021114736A (en) Image processing system converting document into electronic data, its control method and program
JP7225017B2 (en) Image processing device for character input using touch panel, its control method and program
JP2021163178A (en) Information processing apparatus
JP2021184190A (en) Image processing device, image processing method, and program
JP7330742B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD AND PROGRAM FOR SETTING PROPERTIES ON SCANNED IMAGES
JP7358663B2 (en) Image processing device for character input using a touch panel, its control method, and program
JP7387282B2 (en) Image processing device that displays a preview of a scanned image, its control method, and program
JP7467737B2 (en) Image processing device that displays guidance for user operations, and control method and program thereof
JP2023053602A (en) Apparatus, information processing method, and program
JP2021164132A (en) Image processing system and program
JP2023120267A (en) Image processing device for inputting text using touch panel, control method for the same, and program
JP2020177526A (en) Image processing device for displaying preview of scanned image, control method therefor, and program
JP2020178284A (en) Image processing device for displaying preview of scanned image, control method of the same, and program
JP2020177523A (en) Image processing device for displaying preview of scanned image, control method therefor, and program
JP2024040612A (en) Information processing device, control method for information processing device, and program
JP2024032563A (en) Information processing device, control method and program for information processing device
JP2023071227A (en) Information processing device, method for controlling information processing device and program
JP2022113038A (en) Image processing apparatus, method, and program
JP2021076975A (en) Image processing apparatus, image processing method, and program
JP2023167871A (en) Image processing apparatus, information processing apparatus, image processing system, image processing method, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230313

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230927

R151 Written notification of patent or utility model registration

Ref document number: 7358663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151