JP6795770B2 - Information processing device and its processing method and program - Google Patents

Information processing device and its processing method and program Download PDF

Info

Publication number
JP6795770B2
JP6795770B2 JP2019019392A JP2019019392A JP6795770B2 JP 6795770 B2 JP6795770 B2 JP 6795770B2 JP 2019019392 A JP2019019392 A JP 2019019392A JP 2019019392 A JP2019019392 A JP 2019019392A JP 6795770 B2 JP6795770 B2 JP 6795770B2
Authority
JP
Japan
Prior art keywords
area
character string
value
acquired
key character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019019392A
Other languages
Japanese (ja)
Other versions
JP2019071134A (en
Inventor
新一 三浦
新一 三浦
孝文 白波瀬
孝文 白波瀬
真一 鷲田
真一 鷲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2019019392A priority Critical patent/JP6795770B2/en
Publication of JP2019071134A publication Critical patent/JP2019071134A/en
Application granted granted Critical
Publication of JP6795770B2 publication Critical patent/JP6795770B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)

Description

本発明は、文書画像の所望の箇所の値を容易に取得可能とする画像処理技術に関する。 The present invention relates to an image processing technique that makes it possible to easily obtain a value of a desired portion of a document image.

従来、様々な画像処理技術が開示されている。その中で、ブロックセレクション技術というものが存在する。 Conventionally, various image processing techniques have been disclosed. Among them, there is a block selection technology.

ブロックセレクション技術とは、1ページ内の画像データの認識を行い、文字領域、図領域、写真領域、表領域等のブロックに分類を行うものである。このブロックセレクション技術により得られた文字領域を文字認識することが行われている。ブロックセレクション技術については、特許文献1に開示されている。 The block selection technique recognizes image data in one page and classifies the blocks into blocks such as a character area, a figure area, a photographic area, and a table area. Character recognition is performed for the character area obtained by this block selection technique. The block selection technique is disclosed in Patent Document 1.

また、ブロックセレクションを用いないで文字認識する場合には、事前に文字認識領域をテンプレートとして定義することが必要となる。文字認識領域を定義する技術については、特許文献2に開示されている。 In addition, when character recognition is performed without using block selection, it is necessary to define the character recognition area as a template in advance. A technique for defining a character recognition area is disclosed in Patent Document 2.

特開2006−195887号公報Japanese Unexamined Patent Publication No. 2006-195887 特開2005−267394号公報Japanese Unexamined Patent Publication No. 2005-267394

ブロックセレクション技術を用いると、様々なフォームから文字情報を取得できるため、利便性が高い一方、所定の範囲(例えば、文字列が複数行にわたる範囲)でブロック分けするため、ブロック内の文字列をすべて抽出することになり、必要な文字列の取得することは技術的に困難であった。 Using the block selection technology, character information can be obtained from various forms, which is highly convenient. On the other hand, the character string in the block is divided into blocks within a predetermined range (for example, a range in which the character string extends over multiple lines). It was technically difficult to obtain the necessary character strings because all of them had to be extracted.

また、文字認識領域を定義して文字列を取得する技術においては、設定が煩雑であった。さらに、フォームごとに設定を作る必要があり、容易に文字列を取得することができなかった。 Further, in the technique of defining a character recognition area and acquiring a character string, the setting is complicated. Furthermore, it was necessary to create a setting for each form, and it was not possible to easily obtain the character string.

そこで、本発明の目的は、文書画像から所望の箇所の値を容易に取得できる仕組みを提供することである。 Therefore, an object of the present invention is to provide a mechanism capable of easily obtaining a value of a desired portion from a document image.

本発明の目的を達成するための、複数の行ごとの文字列の行領域を取得可能な画像データを用いる情報処理装置であって、前記画像データから値を取得する行領域を特定する位置条件として、前記画像データから取得される行領域に含まれるキー文字列と、当該キー文字列のある行領域と前記値を取得する行領域との相対的な方向と、前記キー文字列のある行領域から前記相対的な方向における前記値を取得する行領域を特定する数とを設定する設定手段と、前記画像データから取得された前記キー文字列のある行領域に基づいて、当該キー文字列に対応する位置条件を満たす行領域から値を取得する取得手段とを備え、行領域がキー文字列と取得する値とを含む領域である場合に、前記取得手段は、前記行領域から前記取得する値に対して予め設定された出力条件に基づいて値を取得することを特徴とする。 An information processing device that uses image data capable of acquiring a line area of a character string for each of a plurality of lines in order to achieve the object of the present invention, and a position condition for specifying a line area for acquiring a value from the image data. As a key character string included in the line area acquired from the image data, the relative direction of the line area containing the key character string and the line area for acquiring the value, and the line containing the key character string. The key character string is based on a setting means for setting a number of row areas for acquiring the value in the relative direction from the area and a line area having the key character string acquired from the image data. When the row area includes the key character string and the value to be acquired, the acquisition means includes the acquisition means for acquiring the value from the row area satisfying the position condition corresponding to the above. It is characterized in that the value is acquired based on the output condition set in advance for the value to be performed.

本発明によれば、文書画像から所望の箇所の値を容易に取得できる。 According to the present invention, the value of a desired portion can be easily obtained from a document image.

画像処理システムの構成例を示す図であるIt is a figure which shows the configuration example of an image processing system. PC201の概略構成を示すブロック図であるIt is a block diagram which shows the schematic structure of PC201. 画像処理システムにて実行される画像処理の概略を示すフローチャートであるIt is a flowchart which shows the outline of the image processing executed by the image processing system. 設定条件(設定ファイル)作成処理のフローチャートであるIt is a flowchart of the setting condition (setting file) creation process. 設定条件による値取得処理のフローチャートであるIt is a flowchart of the value acquisition process by a setting condition. ブロック情報の一例を示すデータ図であるIt is a data diagram which shows an example of block information. 文字認識領域情報の一例を示すデータ図であるIt is a data figure which shows an example of character recognition area information. 設定ファイルの一例を示すデータ図であるIt is a data figure which shows an example of a setting file. 読み込む文書画像の一例を示すイメージ図であるIt is an image diagram which shows an example of the document image to read. ブロック情報を文書画像上で表示した場合のイメージ図であるIt is an image diagram when the block information is displayed on the document image. 文字認識領域情報を選択領域として文書画像上で表示した場合のイメージ図であるIt is an image diagram when the character recognition area information is displayed on a document image as a selection area. 設定情報を生成するための設定画面の一例を示す図であるIt is a figure which shows an example of the setting screen for generating the setting information. 値取得領域の選択を受け付けた場合に設定画面の一例を示す図であるIt is a figure which shows an example of the setting screen when the selection of the value acquisition area is accepted. 値取得処理により取得された値を表示した画面の一例を示す図であるIt is a figure which shows an example of the screen which displayed the value acquired by the value acquisition process.

以下、本発明の実施形態を、図面を参照して詳細に説明する。
図1は、本発明の実施形態に係る画像処理方法が適用された画像処理システムの構成例を示す図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing a configuration example of an image processing system to which the image processing method according to the embodiment of the present invention is applied.

図1において、画像処理システムは、例えば、情報処理装置としてのパーソナルコンピュータ(PC)201と、画像読取装置としてのスキャナ202と、印刷装置としてのプリンタ203とを備え、これらがネットワーク204を介して互いに接続されている。 In FIG. 1, the image processing system includes, for example, a personal computer (PC) 201 as an information processing device, a scanner 202 as an image reading device, and a printer 203 as a printing device, which are connected via a network 204. Connected to each other.

スキャナ202は、紙文書を光学的に読み取って電子化し、その画像データをPC201に送ることができる。PC201は、受信した画像データに対して所定の画像処理を実行する。その際、オペレータがキーボードやマウス等を操作して処理結果の確認および修正を行うことができる。プリンタ203は、所定の画像処理が行われた画像データをPC201から受信して印刷を行う。 The scanner 202 can optically read a paper document, digitize it, and send the image data to the PC 201. The PC 201 executes a predetermined image processing on the received image data. At that time, the operator can operate the keyboard, mouse, or the like to check and correct the processing result. The printer 203 receives the image data subjected to the predetermined image processing from the PC 201 and prints the image data.

ネットワーク204は、インターネット、LANやWAN、電話回線、専用デジタル回線、ATMやフレームリレー回線、通信衛星回線、ケーブルテレビ回線、データ放送用無線回線等のいずれか、またはこれらの組み合わせにより実現される、いわゆる通信ネットワークであり、データの送受信が可能であればよい。 The network 204 is realized by any one of the Internet, LAN and WAN, telephone line, dedicated digital line, ATM and frame relay line, communication satellite line, cable TV line, wireless line for data broadcasting, etc., or a combination thereof. It is a so-called communication network, as long as it can send and receive data.

なお、本発明の実施形態に係る画像処理方法を図示の画像処理システムに適用した形態について説明するが、これに限定されず、スキャナやプリンタが一体的に構成された複合機に適用した形態であってもよい。また、PC201は、スキャナ202から入力された画像データに限らず、デジタルカメラ等で撮影された文書画像データに対して本発明の画像処理方法を実行してもよく、画像データの入力先や入力方法を限定するものではない。 The form in which the image processing method according to the embodiment of the present invention is applied to the illustrated image processing system will be described, but the present invention is not limited to this, and is applied to a multifunction device in which a scanner and a printer are integrally configured. There may be. Further, the PC 201 is not limited to the image data input from the scanner 202, and the image processing method of the present invention may be executed on the document image data taken by a digital camera or the like, and the input destination or input of the image data may be executed. It does not limit the method.

図2は、図1のPC201の概略構成を示すブロック図である。 FIG. 2 is a block diagram showing a schematic configuration of PC 201 of FIG.

PC201において、CPU101は、ROM102に格納されている制御プログラムに従って装置全体の制御を行う。ROM102は、CPU101が実行する後述する処理等の制御プログラムを含む各種プログラムや各種パラメータデータを格納する。RAM103は、記憶装置104からロードされたプログラムを一時的に記憶したり、エリア画像や各種データを記憶する。また、RAM103は、データの作業領域や一時待避領域として機能する。 In the PC 201, the CPU 101 controls the entire device according to the control program stored in the ROM 102. The ROM 102 stores various programs including control programs such as processes executed by the CPU 101, which will be described later, and various parameter data. The RAM 103 temporarily stores the program loaded from the storage device 104, and stores the area image and various data. Further, the RAM 103 functions as a data work area or a temporary save area.

記憶装置104は、例えば、ハードディスクやCD−ROM等で構成され、画像データを管理するデータベースを含む各種データを記憶する。ディスプレイ105は、例えば、LCDやCRTで構成される。入力装置106は、例えば、マウスやキーボード、ペンタブレット等で構成される。 The storage device 104 is composed of, for example, a hard disk, a CD-ROM, or the like, and stores various data including a database for managing image data. The display 105 is composed of, for example, an LCD or a CRT. The input device 106 is composed of, for example, a mouse, a keyboard, a pen tablet, or the like.

ネットワークインターフェース(I/F)109は、ネットワーク204上に接続されている外部装置(スキャナ202やプリンタ203に限らず、不図示のサーバや外部記憶装置等)と通信し、プログラムやデータを読み込んだり、書き込んだりする。 The network interface (I / F) 109 communicates with an external device (not limited to the scanner 202 and the printer 203, but also a server and an external storage device (not shown)) connected on the network 204 to read programs and data. , Write.

図3は、図1の画像処理システムにて実行される画像処理の概略を示すフローチャートである。本処理は、PC201内の画像処理プログラムに基づいてCPU101により実行される処理である。なお、図3の詳細な処理を示すフローチャートは、図4と図5を用いて説明する。 FIG. 3 is a flowchart showing an outline of image processing executed by the image processing system of FIG. This process is a process executed by the CPU 101 based on the image processing program in the PC 201. A flowchart showing the detailed processing of FIG. 3 will be described with reference to FIGS. 4 and 5.

まず、ステップS301では、PC201は、スキャナ202を制御して紙文書の画像を読み取らせて、その画像データを取得する。次に、PC201は、画像に対してブロックセレクション処理を行って、画像から表、文字、絵や図、枠、線の各領域を抽出する。 First, in step S301, the PC 201 controls the scanner 202 to read an image of a paper document and acquire the image data. Next, the PC 201 performs a block selection process on the image to extract each area of the table, characters, pictures and figures, frames, and lines from the image.

ブロックセレクション処理とは、図9のように読み取った一頁のイメージデータをオブジェクト毎の塊として認識し、該ブロック各々を文字/ 図画/ 写真/線/表等の属性に判定し、異なる属性を持つ領域に分割する処理である。 The block selection process recognizes the image data of one page read as shown in FIG. 9 as a block for each object, determines each of the blocks as attributes such as characters / drawings / photographs / lines / tables, and sets different attributes. It is a process to divide into the area to have.

具体的には、先ず、入力画像を白黒に二値化し、輪郭線追跡をおこなって黒画素輪郭で囲まれる画素の塊を抽出する。面積の大きい黒画素の塊については、内部にある白画素に対しても輪郭線追跡をおこない白画素の塊を抽出、さらに一定面積以上の白画素の塊の内部からは再帰的に黒画素の塊を抽出する。 Specifically, first, the input image is binarized to black and white, and contour line tracking is performed to extract a pixel block surrounded by a black pixel contour. For a block of black pixels with a large area, the outline is traced to the white pixel inside to extract the block of white pixels, and the block of black pixels recursively from the inside of the block of white pixels over a certain area. Extract the mass.

このようにして得られた黒画素の塊を、大きさおよび形状で分類し、異なる属性を持つ領域へ分類していく。たとえば、縦横比が1に近く、大きさが一定の範囲のものを文字相当の画素塊とし、さらに近接する文字が整列良くグループ化可能な部分を文字領域、扁平な画素塊を線領域、一定大きさ以上でかつ四角系の白画素塊を整列よく内包する黒画素塊の占める範囲を表領域、不定形の画素塊が散在している領域を写真領域、それ以外の任意形状の画素塊を図画領域、などとする。 The black pixel mass thus obtained is classified by size and shape, and classified into regions having different attributes. For example, a pixel block having an aspect ratio close to 1 and a constant size is defined as a pixel block equivalent to a character, a part where adjacent characters can be grouped in a well-aligned manner is a character area, and a flat pixel block is a line area. The area occupied by the black pixel block that is larger than the size and contains the square white pixel block in a well-aligned manner is the table area, the area where the irregular pixel block is scattered is the photographic area, and the pixel block of any other shape is defined. The drawing area, etc.

ブロックセレクション処理で得られた各ブロックに対するブロック情報を図6に示す。図6に示すブロック情報に対応する画像の例が図10である。なお、各ブロック情報は画面上で表示されないが、説明のために図10で各ブロックを示すものとする。 The block information for each block obtained by the block selection process is shown in FIG. FIG. 10 is an example of an image corresponding to the block information shown in FIG. Although each block information is not displayed on the screen, each block is shown in FIG. 10 for the sake of explanation.

このブロックセレクション処理で得られたブロックのうち、テキスト属性(種別)を持つブロックを取得し、このブロックについて文字認識処理を行う。文字認識技術については既知の技術であるため説明を省略する。 Of the blocks obtained by this block selection process, a block having a text attribute (type) is acquired, and character recognition processing is performed on this block. Since the character recognition technology is a known technology, the description thereof will be omitted.

文字認識をした結果得られた文字列から、複数行にわたる領域かを判定し、複数行にわたる場合には、各行に分割して、領域として登録する。1行はそのままの領域として登録する。文字認識した場合に得られた領域(座標)も取得できるため、その座標を登録する。領域として登録されたデータの例が図7である。図6のブロック4が5つの領域として分割され、登録されている(701)。
なお、文字認識の結果によっては、行が分かれる「個人番号」「123456789012」場合は、702のように、わかれて登録される。
From the character string obtained as a result of character recognition, it is determined whether the area extends over a plurality of lines, and if it extends over a plurality of lines, it is divided into each line and registered as an area. One line is registered as the area as it is. Since the area (coordinates) obtained when the character is recognized can also be acquired, the coordinates are registered. FIG. 7 shows an example of data registered as an area. Block 4 of FIG. 6 is divided into five areas and registered (701).
In addition, depending on the result of character recognition, in the case of "individual number" and "12345678901" in which lines are separated, they are divided and registered as 702.

この登録された領域を用いて、設定画面上(図13)で、ユーザにより選択し、値取得領域を特定するための条件(設定条件)を作成する。作成された設定条件を、設定ファイル(図8)に保存して、記憶装置104に記憶する。 Using this registered area, a condition (setting condition) for specifying a value acquisition area is created by the user on the setting screen (FIG. 13). The created setting conditions are saved in a setting file (FIG. 8) and stored in the storage device 104.

ステップS302では、PC201は、実際に値を取得したい画像を読み込み、ステップS301で作成した設定条件に従って、値を取得する領域を特定する。この特定は、ステップS301で説明した処理と同様に、ブロックセレクションにより得られたブロックに対して文字認識処理を行い、行分割して、領域を登録する。この領域から、設定条件のキー領域の検索文字列(例えば、通知カード)を基に、キー領域を検索して、このキー領域から、条件(例えば、下、1)を用いて、キー領域の下の1つ目の領域を値取得領域として特定する。 In step S302, the PC 201 reads the image for which the value is actually acquired, and specifies the area for acquiring the value according to the setting condition created in step S301. In this specification, the character recognition process is performed on the block obtained by the block selection, the line is divided, and the area is registered, as in the process described in step S301. From this area, the key area is searched based on the search character string (for example, notification card) of the key area of the setting condition, and from this key area, the condition (for example, 1 below) is used to obtain the key area. The first area below is specified as the value acquisition area.

ステップS303では、PC201は、値取得領域として特定された領域に登録されている文字列(数字)を取得して、ディスプレイ105に表示する。ディスプレイへの表示例は、図14である。また、ユーザからの出力指示によりCSVファイル等に取得した値のデータ群をエクスポートして出力する。 In step S303, the PC 201 acquires a character string (number) registered in the area specified as the value acquisition area and displays it on the display 105. A display example on the display is shown in FIG. In addition, a data group of values acquired in a CSV file or the like is exported and output according to an output instruction from the user.

次に図4〜図5を用いて、本実施形態における詳細処理について説明する。なお、図4〜図5は、図1の画像処理システムにて実行される画像処理の詳細を示すフローチャートである。本処理は、PC201内の画像処理プログラムに基づいてCPU101により実行される処理である。図4は、設定条件(設定ファイル)作成処理のフローチャートであり、図5は、設定条件による値取得処理のフローチャートである。
まず、図4のフローチャートを用いて説明する。
Next, the detailed processing in the present embodiment will be described with reference to FIGS. 4 to 5. 4 to 5 are flowcharts showing details of image processing executed by the image processing system of FIG. 1. This process is a process executed by the CPU 101 based on the image processing program in the PC 201. FIG. 4 is a flowchart of a setting condition (setting file) creation process, and FIG. 5 is a flowchart of a value acquisition process based on the setting condition.
First, it will be described with reference to the flowchart of FIG.

ステップS401では、PC201は、ユーザの操作により、画像処理プログラムを実行させ、不図示のメニューから設定条件作成機能が選択されたか。値取得機能が選択されたかを判定する。設定条件作成機能が選択された場合にはステップS402へ処理を移す。値取得機能が選択された場合には、図5へ処理を移す。 In step S401, has the PC 201 executed the image processing program by the user's operation, and has the setting condition creation function selected from the menu (not shown)? Determine if the value acquisition function is selected. When the setting condition creation function is selected, the process proceeds to step S402. When the value acquisition function is selected, the process is moved to FIG.

ステップS402では、PC201はスキャナから取り込まれた画像、或いは所定のフォルダに格納されている画像を読み込む。読み込まれた画像の例が、図8である。 In step S402, the PC 201 reads an image captured from the scanner or an image stored in a predetermined folder. An example of the read image is shown in FIG.

ステップS403では、PC201は、読み込まれた画像を用いて、ブロックセレクション処理を実行する。なお、ブロックセレクション処理については、ステップS301の通りである。このブロックセレクションは、ブロックセレクションライブラリを用いて実行する。ブロックセレクションで得られるブロック情報は図6である。 In step S403, the PC 201 executes the block selection process using the read image. The block selection process is as in step S301. This block selection is executed using the block selection library. The block information obtained by the block selection is shown in FIG.

ここで、図6を説明する。ブロックID、種別(テキスト、図、表・・・)領域情報(座標X、座標Y、幅、高さ)を有している。これらのブロック情報は、ブロックセレクションライブラリが生成するものである。 Here, FIG. 6 will be described. It has block ID, type (text, figure, table ...) area information (coordinates X, coordinates Y, width, height). These block information is generated by the block selection library.

ステップS404では、PC201は、ブロックセレクションライブラリからテキスト種別、表種別を有するブロック情報を取得する。 In step S404, the PC 201 acquires block information having a text type and a table type from the block selection library.

ステップS405では、PC201は、取得したブロックに対して、文字認識処理を行う。文字認識処理は既知の技術であり説明を省略するが、例えば、パターンマッチングを用いて、記入文字と文字のテンプレートを照合して、文字候補を抽出する技術がある。 In step S405, the PC 201 performs character recognition processing on the acquired block. The character recognition process is a known technique and the description thereof will be omitted. However, for example, there is a technique of collating the entered character with the character template and extracting the character candidate by using pattern matching.

文字認識処理により、文字列(数字含む)と、その文字列の領域情報(座標)が取得できる。領域情報は、文字列を囲む枠を示す領域である。文字認識した結果は、ブロックごとにメモリで管理されるものとする。 By the character recognition process, a character string (including numbers) and area information (coordinates) of the character string can be acquired. The area information is an area indicating a frame surrounding the character string. The result of character recognition shall be managed in memory for each block.

ステップS405では、すべてのブロックに対して、まず文字認識を実行し、ステップS408の処理へ移行するようにしているが、1ブロックごとに、文字認識を行い、S408の判定を行ってもよい。すなわち、すべてのブロックに対して文字認識を実行したあとに、ステップS408の判定を実行する手順に限定されるものではない。 In step S405, character recognition is first executed for all blocks, and the process proceeds to step S408. However, character recognition may be performed for each block to determine S408. That is, the procedure is not limited to the procedure of executing the determination in step S408 after executing the character recognition for all the blocks.

ステップS406では、PC201は、すべてのブロックに対して、処理を実行したか否かを判定する。すべてのブロックに対して処理が行われていない場合、次に処理するブロックの文字列を取得するべくステップS407へ処理を移す。すべてのブロックに対して処理を実行した場合には、ステップS411へ処理を移す。 In step S406, the PC 201 determines whether or not the processing has been executed for all the blocks. If the processing has not been performed for all the blocks, the processing is moved to step S407 in order to acquire the character string of the block to be processed next. When the processing is executed for all the blocks, the processing is moved to step S411.

ステップS407では、PC201は、処理対象のブロックの文字認識結果(文字列)をメモリから取得する。 In step S407, the PC 201 acquires the character recognition result (character string) of the block to be processed from the memory.

ステップS408では、PC201は、取得した文字列が複数行の文字列かを判定する。図10を参照し、ブロック4を例にとると、5行にわたる文字列が取得できるため、ステップS410へ処理を移す。また、ブロック1を例にとると、1行の文字列が取得できるため、ステップS409へ処理を移す。 In step S408, the PC 201 determines whether the acquired character string is a character string having a plurality of lines. Taking block 4 as an example with reference to FIG. 10, since a character string extending over 5 lines can be acquired, the process is moved to step S410. Further, taking block 1 as an example, since a character string of one line can be acquired, the process is moved to step S409.

ステップS409では、PC201は、文字認識結果を、図7の文字認識領域情報に登録する。図7では、領域IDと、文字認識結果から得られる文字列と、文字列がある位置を示す領域情報(座標)を登録する。 In step S409, the PC 201 registers the character recognition result in the character recognition area information of FIG. In FIG. 7, the area ID, the character string obtained from the character recognition result, and the area information (coordinates) indicating the position where the character string is located are registered.

ステップS410では、PC201は、行ごとに分割して、文字認識領域情報に登録する。図7の701に示す通り、ブロック4の文字列が、5つの領域に分けて登録される。なお、領域情報(座標)は、それぞれの行の文字列のある位置の座標が登録される。
なお、この図7に登録された領域が、後述する設定画面で選択可能な選択領域となる。
In step S410, the PC 201 is divided into lines and registered in the character recognition area information. As shown in 701 of FIG. 7, the character string of the block 4 is registered by dividing it into five areas. As the area information (coordinates), the coordinates of the position where the character string of each line is located are registered.
The area registered in FIG. 7 is a selection area that can be selected on the setting screen described later.

ステップS411では、PC201は、図7の文字認識領域情報の座標を用いて、選択領域を表示する。選択領域を表示した例が、図11であり、選択領域は、破線で示されている。すなわち、設定情報を生成すべく、文字認識処理により得られた文字認識領域を表示する表示処理の一例を示すステップである。 In step S411, the PC 201 displays the selected area using the coordinates of the character recognition area information of FIG. 7. An example of displaying the selected area is shown in FIG. 11, and the selected area is shown by a broken line. That is, it is a step showing an example of a display process for displaying the character recognition area obtained by the character recognition process in order to generate setting information.

ステップS412では、PC201は、選択領域を表示する際に、設定画面を合わせて表示する。設定画面の例が、図12である。なお、設定画面の表示は、S402の画面を読み込む際に事前に表示されている構成であってもよく、手順を限定するものではない。 In step S412, the PC 201 also displays the setting screen when displaying the selected area. An example of the setting screen is shown in FIG. The display of the setting screen may be configured to be displayed in advance when the screen of S402 is read, and the procedure is not limited.

ステップS413では、PC201は、ユーザの操作により、キー領域とする領域の選択を受ける。図12の例を基に詳述すると、1200にフォーカスがある状態で、1201の領域を選択すると、1200に選択された領域名がインプットされる。領域名は、図7の文字列から取得して表示する。何文字目までを領域名とするか、スペースなどの区切りまでを領域名とするかは予め設定されているものとする。
すなわち、キーとなる領域を、表示された文字認識領域から選択する第1の選択処理の一例を示すステップである。
In step S413, the PC 201 receives the selection of the area to be the key area by the operation of the user. To elaborate based on the example of FIG. 12, if the region 1201 is selected while the focus is on 1200, the selected region name is input to 1200. The area name is acquired from the character string of FIG. 7 and displayed. It is assumed that the number of characters up to the area name and the area name up to the delimiter such as a space are set in advance.
That is, it is a step showing an example of the first selection process of selecting the key area from the displayed character recognition area.

1201と1202は、実線で示されている通り、キー領域として選択されたことを示している。また、未選択の領域と識別できるように表示する。これにより、キー領域としてどの領域を選択しているのかを把握しやすくなる。 1201 and 1202 indicate that they have been selected as key regions, as shown by the solid lines. In addition, it is displayed so that it can be identified as an unselected area. This makes it easier to understand which area is selected as the key area.

条件(and、or)については、ユーザが任意に選択するものとする。位置については、後述するが、値取得領域として領域が選択された場合に、表示される。 The conditions (and, or) shall be arbitrarily selected by the user. The position will be described later, but it is displayed when the area is selected as the value acquisition area.

ステップS414では、PC201は、上述したように選択した領域の領域名を設定画面に表示する。複数のキー領域を選択する場合には、次の領域を繰り返し選択する。 In step S414, the PC 201 displays the area name of the selected area on the setting screen as described above. To select multiple key areas, repeat the next area.

ステップS415では、PC201は、値取得領域とする領域の選択を受け付ける。図13の例を基に詳述すると、1300にフォーカスがある状態で、1301の領域を選択すると、1300に選択された領域名がインプットされる。領域名は、図7の文字列から取得して表示する。何文字目までを領域名とするか、スペースなどの区切りまでを領域名とするかは予め設定されているものとする。
すなわち、値取得領域となる領域を、表示された文字認識領域から選択する第2の選択処理の一例を示すステップである。
In step S415, the PC 201 accepts the selection of the area to be the value acquisition area. To elaborate based on the example of FIG. 13, if the region 1301 is selected while the focus is on the 1300, the selected region name is input to the 1300. The area name is acquired from the character string of FIG. 7 and displayed. It is assumed that the number of characters up to the area name and the area name up to the delimiter such as a space are set in advance.
That is, it is a step showing an example of the second selection process of selecting the area to be the value acquisition area from the displayed character recognition area.

1301は、斜め線で網掛け表示されている通り、値取得領域として選択されたことを示している。また、未選択の領域、キー領域と識別できるように表示する。これにより、キー領域として、また値取得領域としてどの領域を選択しているのかを把握しやすくなり、設定作業が容易になる。 Reference numeral 1301 indicates that the value acquisition area has been selected as shaded by diagonal lines. In addition, it is displayed so that it can be identified as an unselected area or a key area. As a result, it becomes easy to grasp which area is selected as the key area and the value acquisition area, and the setting work becomes easy.

すなわち、第1の選択処理で選択されたキーとなる領域と、第2の選択処理で選択された値取得領域となる領域とを識別可能に表示する識別表示処理の一例を示すステップものである。 That is, it is a step showing an example of an identification display process for identifiablely displaying the area that is the key selected in the first selection process and the area that is the value acquisition area selected in the second selection process. ..

ステップS416では、PC201は、上述したように選択した領域(値取得領域)の領域名を設定画面に表示する。 In step S416, the PC 201 displays the area name of the selected area (value acquisition area) on the setting screen as described above.

ステップS417では、PC201は、キー領域と値取得領域の関係(位置)取得する。具体的には、キー領域として選択した領域の領域情報(座標)と、値取得領域として選択した領域の領域情報(座標)から位置関係を算出する。例えば、値取得領域がキー領域の下に位置すると判定された場合には、キー領域から下方向で、何個目の領域かを決定する。図13の例では、1301は、通知カードの領域の下にある領域と判定され、1個目の領域と決定される。この位置の決定を、選択されたキー領域ごとに行い、関係の位置情報を取得する。 In step S417, the PC 201 acquires the relationship (position) between the key area and the value acquisition area. Specifically, the positional relationship is calculated from the area information (coordinates) of the area selected as the key area and the area information (coordinates) of the area selected as the value acquisition area. For example, when it is determined that the value acquisition area is located below the key area, the number of the area is determined downward from the key area. In the example of FIG. 13, 1301 is determined to be an area below the area of the notification card and is determined to be the first area. This position is determined for each selected key area, and the position information of the relationship is acquired.

すなわち、第1の選択処理により選択されたキーとなる領域の領域情報と第2の選択処理により選択された値取得領域の領域情報に従って、キーとなる領域に対応する値取得領域の位置を特定する特定処理の一例を示すステップである。 That is, the position of the value acquisition area corresponding to the key area is specified according to the area information of the key area selected by the first selection process and the area information of the value acquisition area selected by the second selection process. This is a step showing an example of specific processing to be performed.

ステップS418では、PC201は、ステップS417で取得した位置情報を1302に条件として設定して、表示する。
ステップS419では、PC201は、その他の条件設定の入力を受け付ける。例えば、取得値属性、桁数などである。
In step S418, the PC 201 sets the position information acquired in step S417 as a condition in 1302 and displays it.
In step S419, the PC 201 accepts inputs for other condition settings. For example, the acquired value attribute, the number of digits, and the like.

なお、ステップS413〜ステップS419の処理に対応する操作は、ユーザが任意の順番で入力操作ができるため、フローチャートに記載の手順に限定されるものではない。 The operations corresponding to the processes of steps S413 to S419 are not limited to the procedures described in the flowchart because the user can perform input operations in any order.

ステップS420では、PC201は、ユーザの操作により登録ボタンが押下されると、設定画面で入力された条件(設定情報)を設定ファイルに保存する。すなわち、特定処理により特定された位置を位置条件として設定し、第1の選択処理で選択されたキーとなる領域の文字列をキー文字列として設定する処理の一例を示すステップである。なお、図13の設定画面での各項目へインプットも設定処理の一例である。 In step S420, when the registration button is pressed by the user's operation, the PC 201 saves the conditions (setting information) input on the setting screen in the setting file. That is, it is a step showing an example of the process of setting the position specified by the specific process as the position condition and setting the character string of the key area selected in the first selection process as the key character string. The input to each item on the setting screen of FIG. 13 is also an example of the setting process.

設定ファイルの保存例は、図8である。801は、701のように領域が登録された場合の例であり、802は、702のように個人番号と、数字の領域が別の行として認識され、領域が登録された場合の例である。そして、キー領域として、通知カード、個人番号が選択された場合の例である。 An example of saving the setting file is shown in FIG. 801 is an example when an area is registered as in 701, and 802 is an example when an individual number and a number area are recognized as separate lines and an area is registered as in 702. .. Then, this is an example when a notification card and an individual number are selected as the key area.

なお、図8の設定ファイルの設定情報は、キーとなる領域を特定するためのキー文字列(例えば、キー領域の検索文字列:通知カード)と、キーとなる領域に基づき文字列を取得する領域を特定するための位置条件(条件:下、1)を含む設定情報と言い換えることが可能である。 The setting information of the setting file of FIG. 8 acquires a key character string for specifying a key area (for example, a search character string of the key area: notification card) and a character string based on the key area. It can be rephrased as setting information including a position condition (condition: lower 1) for specifying an area.

続いて、図5を用いて、設定条件による値取得処理のフローチャートについて説明する。 Subsequently, the flowchart of the value acquisition process according to the setting condition will be described with reference to FIG.

ステップS501では、PC201は、設定ファイルから設定情報を読み込む。利用する設定ファイルは、ユーザが任意に選択して読み込んでもよい。
ステップS502では、PC201は、PC201はスキャナから取り込まれた画像、或いは所定のフォルダに格納されている画像を読み込む。
In step S501, the PC 201 reads the setting information from the setting file. The user may arbitrarily select and read the configuration file to be used.
In step S502, the PC 201 reads an image captured from the scanner or an image stored in a predetermined folder.

ステップS503では、PC201は、PC201は、読み込まれた画像を用いて、ブロックセレクション処理を実行する。このブロックセレクションは、ブロックセレクションライブラリを用いて実行する。なお、ブロックセレクション処理については、ステップS301の通りである。また、ブロック情報は図6と同様である。さらに、ブロックセレクションライブラリで文字認識処理を実行してもよい。 In step S503, the PC 201 executes the block selection process using the read image. This block selection is executed using the block selection library. The block selection process is as in step S301. The block information is the same as in FIG. Further, the character recognition process may be executed in the block selection library.

ステップS504では、PC201は、ブロックセレクションライブラリからテキスト種別、表種別を有するブロック情報を取得する。 In step S504, the PC 201 acquires block information having a text type and a table type from the block selection library.

ステップS505では、PC201は、取得したブロックに対して、文字認識処理を行う。文字認識処理は既知の技術であり説明を省略するが、例えば、パターンマッチングを用いて、記入文字と文字のテンプレートを照合して、文字候補を抽出する技術がある。 In step S505, the PC 201 performs character recognition processing on the acquired block. The character recognition process is a known technique and the description thereof will be omitted. However, for example, there is a technique of collating the entered character with the character template and extracting the character candidate by using pattern matching.

文字認識処理により、文字列(数字含む)と、その文字列の領域情報(座標)が取得できる。領域情報は、文字列を囲む枠を示す領域である。文字認識した結果は、ブロックごとにメモリで管理されるものとする。 By the character recognition process, a character string (including numbers) and area information (coordinates) of the character string can be acquired. The area information is an area indicating a frame surrounding the character string. The result of character recognition shall be managed in memory for each block.

ステップS505では、すべてのブロックに対して、まず文字認識を実行し、ステップS508の処理へ移行するようにしているが、1ブロックごとに、文字認識を行い、S508の判定を行ってもよい。すなわち、すべてのブロックに対して文字認識を実行したあとに、ステップS508の判定を実行する手順に限定されるものではない。 In step S505, character recognition is first executed for all blocks, and the process proceeds to step S508. However, character recognition may be performed for each block and the determination in S508 may be performed. That is, the procedure is not limited to the procedure of executing the determination in step S508 after executing the character recognition for all the blocks.

ステップS506では、PC201は、すべてのブロックに対して、処理を実行したか否かを判定する。すべてのブロックに対して処理が行われていない場合、次に処理するブロックの文字列を取得するべくステップS507へ処理を移す。すべてのブロックに対して処理を実行した場合には、ステップS509へ処理を移す。 In step S506, the PC 201 determines whether or not the processing has been executed for all the blocks. If the processing has not been performed for all the blocks, the processing is moved to step S507 in order to acquire the character string of the block to be processed next. When the processing is executed for all the blocks, the processing is moved to step S509.

ステップS507では、PC201は、処理対象のブロックの文字認識結果(文字列)をメモリから取得する。すなわち、所定の領域の画像に対する文字認識結果(ブロックの文字認識の結果)により得られる文字列を取得する取得処理の一例を示すステップである。所定の領域とは、例えば、ブロックセレクションにより得られた領域である。 In step S507, the PC 201 acquires the character recognition result (character string) of the block to be processed from the memory. That is, it is a step showing an example of an acquisition process for acquiring a character string obtained by a character recognition result (result of character recognition of a block) for an image in a predetermined area. The predetermined region is, for example, an region obtained by block selection.

ステップS508では、PC201は、取得した文字列が複数行の文字列かを判定する。ステップS408の処理と同様のため、図10を参照し説明する。ブロック4を例にとると、5行にわたる文字列が取得できるため、ステップS510へ処理を移す。また、ブロック1を例にとると、1行の文字列が取得できるため、ステップS509へ処理を移す。すなわち、ステップS508は、取得処理により取得された文字列が複数行の文字列か否かを判定する複数行判定処理の一例を示すステップである。 In step S508, the PC 201 determines whether the acquired character string is a character string having a plurality of lines. Since it is the same as the process of step S408, it will be described with reference to FIG. Taking block 4 as an example, since a character string spanning 5 lines can be acquired, the process is moved to step S510. Further, taking block 1 as an example, since a character string of one line can be acquired, the process is moved to step S509. That is, step S508 is a step showing an example of a multi-line determination process for determining whether or not the character string acquired by the acquisition process is a character string of a plurality of lines.

ステップS509では、PC201は、文字認識結果をメモリに記憶する。なお、ステップS409の処理と同様のため、図7を用いて説明する。文字認識結果は図7の文字認識領域情報に登録される。図7では、領域IDと、文字認識結果から得られる文字列と、文字列がある位置を示す領域情報(座標)を登録する。 In step S509, the PC 201 stores the character recognition result in the memory. Since it is the same as the process in step S409, it will be described with reference to FIG. The character recognition result is registered in the character recognition area information of FIG. In FIG. 7, the area ID, the character string obtained from the character recognition result, and the area information (coordinates) indicating the position where the character string is located are registered.

ステップS510では、PC201は、行ごとに領域を分割して、文字認識領域情報を生成し、登録する。図7の701に示す通り、ブロック4の文字列が、5つの領域に分けて登録される。なお、領域情報(座標)は、それぞれの行の文字列のある位置の座標が登録される。 In step S510, the PC 201 divides the area for each line to generate and register the character recognition area information. As shown in 701 of FIG. 7, the character string of the block 4 is registered by dividing it into five areas. As the area information (coordinates), the coordinates of the position where the character string of each line is located are registered.

なお、図7の文字認識領域情報は、文字認識処理により得られた文字認識領域と言い換えることが可能である。また、ステップS510は、複数行判定処理により複数行と判定された場合に、行ごとの文字認識領域を生成する生成処理の一例を示すステップである。 The character recognition area information in FIG. 7 can be rephrased as the character recognition area obtained by the character recognition process. Further, step S510 is a step showing an example of a generation process for generating a character recognition area for each line when a plurality of lines are determined by the multi-line determination process.

ステップS511では、PC201は、読み込まれた設定情報のキー領域の検索文字列(図8参照)を取得して、文字認識領域情報を検索する。キー領域の検索文字列に従って、文字認識領域情報の文字列で一致する領域を特定する。これにより、一致した領域がキー検索領域となる。すなわち、キー文字列に従って、文字認識処理により得られた文字認識領域から、キーとなる領域を特定するキー領域特定処理の一例を示すステップである。また、詳細には、生成処理により生成された文字認識領域から、キーとなる領域を特定する処理の一例を示すステップである。 In step S511, the PC 201 acquires the search character string (see FIG. 8) of the key area of the read setting information, and searches for the character recognition area information. According to the search character string of the key area, the area that matches in the character string of the character recognition area information is specified. As a result, the matched area becomes the key search area. That is, it is a step showing an example of the key area specifying process for specifying the key area from the character recognition area obtained by the character recognition process according to the key character string. Further, in detail, it is a step showing an example of a process of specifying a key area from the character recognition area generated by the generation process.

ステップS512では、PC201は、キー領域と、設定情報の条件(例えば、「下、1」)を取得して、キー領域から1つ下の領域を特定する。キー領域の座標を基に、文字認識領域情報(例えば、図7)を参照して下方向の座標を有する領域を検索し、特定する。この特定した領域が値取得領域となる。なお、下方向の座標を有する領域のうち、一番近い座標を持つ領域から順に1つ目の領域、2つ目の領域とする。
キー領域が複数ある場合には、キー領域の条件「and、or」に従って、値取得領域を特定する。
In step S512, the PC 201 acquires the key area and the condition of the setting information (for example, "lower 1"), and identifies the area one lower than the key area. Based on the coordinates of the key area, the area having the downward coordinates is searched and specified with reference to the character recognition area information (for example, FIG. 7). This specified area becomes the value acquisition area. It should be noted that, among the regions having the downward coordinates, the first region and the second region are set in order from the region having the closest coordinates.
When there are a plurality of key areas, the value acquisition area is specified according to the condition "and, or" of the key area.

すなわち、特定されたキーとなる領域と設定情報の位置条件に従って、文字認識領域から値取得領域を特定する値取得領域特定処理の一例を示すステップである。 That is, it is a step of showing an example of the value acquisition area specifying process for specifying the value acquisition area from the character recognition area according to the specified key area and the position condition of the setting information.

ステップS512で値取得領域が特定できた場合には、画像上に値取得箇所を示すように、値取得領域の座標に従って、枠等の識別表示を行う。なお、識別表示した例が、図14の1401である。図14は、図9の帳票とは異なる個人を例にした帳票の画像(文書画像)で、値取得表示と、識別表示をしている。 When the value acquisition area can be specified in step S512, the frame or the like is identified and displayed according to the coordinates of the value acquisition area so as to indicate the value acquisition location on the image. An example of identification and display is 1401 in FIG. FIG. 14 is an image (document image) of a form in which an individual different from the form of FIG. 9 is taken as an example, and the value acquisition display and the identification display are performed.

ステップS511とステップS512により、キー領域を特定したうえで、キー領域から位置条件(例えば、下、1)にある領域を特定して値を取得するため、誤った位置の値を取得することがなくなる。文字認識定義のあるテンプレートを用いた場合には、ユーザによる貼り付け誤差によって、適切な値が取得できないが、本処理を用いることにより貼り付け誤差があっても取得したい箇所の値を取得することが可能となる。 In step S511 and step S512, after the key area is specified, the area under the position condition (for example, lower 1) is specified from the key area and the value is acquired, so that the value at the wrong position can be acquired. It disappears. When a template with character recognition definition is used, an appropriate value cannot be obtained due to a paste error by the user, but by using this process, the value of the part to be acquired can be obtained even if there is a paste error. Is possible.

ステップS513では、PC201は、ステップS512で特定した値取得領域の文字列を取得する。文字列の取得は、文字認識領域情報(例えば、図7)の文字列から取得する。この時、出力条件(例えば「数字、12ケタ」)に従って、必要な文字列を取得する。 In step S513, the PC 201 acquires the character string of the value acquisition area specified in step S512. The character string is acquired from the character string of the character recognition area information (for example, FIG. 7). At this time, the necessary character string is acquired according to the output condition (for example, "number, 12 digits").

ステップS514では、PC201は、取得した文字列(値)を認識結果画面1402に表示する。すなわち、特定された値取得領域の文字列を出力する表示出力処理の一例を示すステップである。 In step S514, the PC 201 displays the acquired character string (value) on the recognition result screen 1402. That is, it is a step showing an example of the display output process that outputs the character string of the specified value acquisition area.

なお、ステップS513で出力条件に合致する値が取得できない場合にはエラーを通知する。認識結果に誤りがあった場合には、ユーザにより、修正入力エリアに修正値を入力させることが可能である。修正入力エリアに入力された場合には、入力値が登録される値となる。 If a value that matches the output condition cannot be obtained in step S513, an error is notified. If there is an error in the recognition result, the user can input the correction value in the correction input area. When input is made in the correction input area, the input value becomes the registered value.

ステップS515では、PC201は、認識結果をCSVファイルに出力する。なお、複数の画像が読み込まれた場合には、すべての画像に対して、値取得を実行し、図14の登録ボタンで値を登録して、最後の画像に対する値を登録すると、CSVファイルにて値を出力する。出力するファイルの形式は一例であり、限定されるものではない。 In step S515, the PC 201 outputs the recognition result to the CSV file. When a plurality of images are read, value acquisition is executed for all the images, the value is registered with the registration button in FIG. 14, and the value for the last image is registered, the CSV file is created. And output the value. The format of the output file is an example and is not limited.

また、ファイルの出力先を任意に指定する、出力する際には、不図示の出力ボタンを押下することで、所定の出力先に認識結果(値)を出力することが可能であることは言うまでもない。
出力する値としては、「987654321098」だけでもよいし、987654321098の領域名(個人番号)と合わせて出力してもよい。
In addition, it goes without saying that it is possible to output the recognition result (value) to a predetermined output destination by pressing an output button (not shown) when the output destination of the file is arbitrarily specified or output. No.
The value to be output may be only "987654321098" or may be output together with the area name (individual number) of 987654321098.

以上、本実施形態によれば、文書画像から所望の箇所の値を容易に取得できる。 As described above, according to the present embodiment, the value of the desired portion can be easily obtained from the document image.

特に、煩雑な設定が必要な文字認識領域を設定したテンプレートを用いることなく、容易に値取得する条件を設定することができる。また、ブロックセレクションにより複数行にわたる文字列が取得できる場合においても、所定の位置にある値を容易かつ精度よく取得させることが可能となる。 In particular, it is possible to easily set the condition for acquiring the value without using the template in which the character recognition area that requires complicated setting is set. Further, even when a character string extending over a plurality of lines can be acquired by block selection, it is possible to easily and accurately acquire a value at a predetermined position.

例えば、テンプレートと用いる文字認識技術を用いた場合に、申請書に貼り付け書類があると、貼付け位置がずれてしまうと認識領域がずれてしまい、誤った値が取得されるという技術的な課題がある。本実施形態では、貼付け位置が上下左右にずれたとしても、ブロックセレクションを用いて、キー領域を特定したうえで、キー領域から位置条件にある領域を特定して値を取得するため、誤った位置の値を取得することがなくなるという効果を得ることできる。 For example, when the character recognition technology used as a template is used, if there is a pasted document in the application form, the recognition area will shift if the pasting position shifts, and an incorrect value will be acquired. There is. In the present embodiment, even if the pasting position is shifted vertically and horizontally, the key area is specified by using the block selection, and then the area in the position condition is specified from the key area and the value is acquired. It is possible to obtain the effect that the value of the position is not acquired.

なお、上述した各種データの構成及びその内容はこれに限定されるものではなく、用途や目的に応じて、様々な構成や内容で構成されることは言うまでもない。例えば、本実施形態では、値取得領域を特定する条件として、「1つ」下の領域という形で領域単位で条件を持たせるようにしたが、キー領域からの相対的な位置を持たせるようにしてもよい。すなわち、値取得領域を特定するためのキー領域からの位置条件を持たせる構成であればよい。 It should be noted that the structure and contents of the various data described above are not limited to this, and it goes without saying that the structure and contents are various depending on the intended use and purpose. For example, in the present embodiment, as a condition for specifying the value acquisition area, a condition is given for each area in the form of an area "one" below, but a position relative to the key area is given. It may be. That is, the configuration may be such that the position condition from the key area for specifying the value acquisition area is provided.

以上、一実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。例えば、クラウド環境で実現する構成であってもよい。その場合、クラウド環境上のサーバで、設定ファイル作成ツールが実行される。 Although one embodiment has been described above, the present invention can take an embodiment as a system, an apparatus, a method, a program, a recording medium, or the like, and specifically, is composed of a plurality of devices. It may be applied to a system or a device consisting of one device. For example, it may be a configuration realized in a cloud environment. In that case, the configuration file creation tool is executed on the server in the cloud environment.

また、本発明におけるプログラムは、図3〜図5に示すフローチャートの処理方法をコンピュータが実行可能なプログラムである。なお、記憶媒体に図3〜図5の処理方法をコンピュータが実行可能なプログラムが記憶される構成であってもよい。なお、本発明におけるプログラムは図3〜図5の各装置の処理方法ごとのプログラムであってもよい。 Further, the program in the present invention is a program in which a computer can execute the processing method of the flowchart shown in FIGS. 3 to 5. The storage medium may be configured to store a program in which a computer can execute the processing methods of FIGS. 3 to 5. The program in the present invention may be a program for each processing method of each device of FIGS. 3 to 5.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, the recording medium on which the program that realizes the functions of the above-described embodiment is recorded is supplied to the system or the device, and the computer (or CPU or MPU) of the system or the device stores the program in the recording medium. Needless to say, the object of the present invention can be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。 Recording media for supplying programs include, for example, flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, magnetic tapes, non-volatile memory cards, ROMs, EEPROMs, and silicon. Disks, solid state drives, etc. can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the function of the above-described embodiment is realized, but also the OS (operating system) or the like running on the computer is actually operated based on the instruction of the program. Needless to say, there are cases where a part or all of the processing is performed and the processing realizes the functions of the above-described embodiment.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program read from the recording medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the function expansion board is based on the instruction of the program code. It goes without saying that there are cases where the CPU or the like provided in the function expansion unit performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiment.

また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Further, the present invention may be applied to a system composed of a plurality of devices or a device composed of one device. It goes without saying that the present invention can also be applied when it is achieved by supplying a program to a system or device. In this case, by reading the recording medium in which the program for achieving the present invention is stored into the system or device, the system or device can enjoy the effect of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。
Further, by downloading and reading a program for achieving the present invention from a server, database, or the like on the network by a communication program, the system or device can enjoy the effect of the present invention.
It should be noted that all the configurations in which each of the above-described embodiments and modifications thereof are combined are also included in the present invention.

101 CPU
102 RAM
104 記憶装置
201 PC
202 スキャナ
203 プリンタ
101 CPU
102 RAM
104 Storage device 201 PC
202 Scanner 203 Printer

Claims (7)

複数の行ごとの文字列の行領域を取得可能な画像データを用いる情報処理装置であって、
前記画像データから値を取得する行領域を特定する位置条件として、前記画像データから取得される行領域に含まれるキー文字列と、当該キー文字列のある行領域と前記値を取得する行領域との相対的な方向と、前記キー文字列のある行領域から前記相対的な方向における前記値を取得する行領域を特定する数とを設定する設定手段と、
前記画像データから取得された前記キー文字列のある行領域に基づいて、当該キー文字列に対応する位置条件を満たす行領域から値を取得する取得手段と
を備え、
行領域がキー文字列と取得する値とを含む領域である場合に、前記取得手段は、前記行領域から前記取得する値に対して予め設定された出力条件に基づいて値を取得することを特徴とする情報処理装置。
An information processing device that uses image data that can acquire the line area of a character string for each of a plurality of lines.
As a position condition for specifying a row area for which a value is acquired from the image data, a key character string included in the row area acquired from the image data, a row area having the key character string, and a row area for acquiring the value are used. A setting means for setting a relative direction with and a number for specifying a line area for acquiring the value in the relative direction from a line area with the key character string, and
Based on the line region of the key character string obtained from the image data, e Bei and acquisition means for acquiring a value from a position qualifying rows area corresponding to the key character string,
When the row area is an area including a key character string and a value to be acquired, the acquisition means acquires a value from the row area based on a preset output condition for the value to be acquired. Information processing device as a feature.
前記キー文字列のある行領域の指定を受け付ける第1の受付手段と、
前記値を取得する行領域の指定を受け付ける第2の受付手段と、
を更に備え、
前記設定手段は、前記第1の受付手段と、前記第2の受付手段とによる受付に従って、前記画像データから取得される行領域に含まれるキー文字列と、当該キー文字列のある行領域と前記値を取得する行領域との相対的な方向と、前記キー文字列のある行領域から前記相対的な方向における前記値を取得する行領域を特定する数とを設定することを特徴とする請求項に記載の情報処理装置。
The first receiving means for accepting the designation of the line area containing the key character string,
A second receiving means for accepting the designation of the row area for acquiring the value, and
With more
The setting means includes a key character string included in a line area acquired from the image data according to reception by the first reception means and the second reception means, and a line area containing the key character string. It is characterized in that the direction relative to the row area for acquiring the value and the number for specifying the row area for acquiring the value in the relative direction from the row area with the key character string are set. The information processing device according to claim 1 .
前記複数の行領域を表示し、前記第1の受付手段で指定されたキー文字列のある行領域と、前記第2の受付手段で指定された値を取得する行領域とを識別可能に表示する表示手段を更に備えることを特徴とする請求項に記載の情報処理装置。 The plurality of line areas are displayed, and the line area having the key character string specified by the first receiving means and the line area for acquiring the value specified by the second receiving means can be distinguished and displayed. The information processing apparatus according to claim 2 , further comprising a display means. 前記設定手段は、記憶手段に記憶されている位置条件を読み出して設定することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the setting means reads out and sets a position condition stored in the storage means. 前記画像データから取得される行領域は、ブロックセレクションに基づくブロック領域を分割した領域であることを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4 , wherein the row area acquired from the image data is an area obtained by dividing a block area based on the block selection. 複数の行ごとの文字列の行領域を取得可能な画像データを用いる情報処理装置の処理方法であって、
前記画像データから値を取得する行領域を特定する位置条件として、前記画像データから取得される行領域に含まれるキー文字列と、当該キー文字列のある行領域と前記値を取得する行領域との相対的な方向と、前記キー文字列のある行領域から前記相対的な方向における前記値を取得する行領域を特定する数とを設定する設定ステップと、
前記画像データから取得された前記キー文字列のある行領域に基づいて、当該キー文字列に対応する位置条件を満たす行領域から値を取得する取得ステップと
を含み、
行領域がキー文字列と取得する値とを含む領域である場合に、前記取得ステップでは、前記行領域から前記取得する値に対して予め設定された出力条件に基づいて値を取得することを特徴とする処理方法。
It is a processing method of an information processing device that uses image data that can acquire a line area of a character string for each of a plurality of lines.
As a position condition for specifying a row area for which a value is acquired from the image data, a key character string included in the row area acquired from the image data, a row area having the key character string, and a row area for acquiring the value are used. A setting step for setting a relative direction with and a number for specifying a line area for acquiring the value in the relative direction from a line area with the key character string, and
Including an acquisition step of acquiring a value from a row area satisfying the position condition corresponding to the key character string based on a certain line area of the key character string acquired from the image data.
When the row area is an area including the key character string and the value to be acquired, in the acquisition step, the value is acquired from the row area based on the output conditions preset for the value to be acquired. Characteristic processing method.
複数の行ごとの文字列の行領域を取得可能な画像データを用いる情報処理装置のプログラムであって、
前記情報処理装置を、
前記画像データから値を取得する行領域を特定する位置条件として、前記画像データから取得される行領域に含まれるキー文字列と、当該キー文字列のある行領域と前記値を取得する行領域との相対的な方向と、前記キー文字列のある行領域から前記相対的な方向における前記値を取得する行領域を特定する数とを設定する設定手段と、
前記画像データから取得された前記キー文字列のある行領域に基づいて、当該キー文字列に対応する位置条件を満たす行領域から値を取得する取得手段
として機能させ、
行領域がキー文字列と取得する値とを含む領域である場合に、前記取得手段は、前記行領域から前記取得する値に対して予め設定された出力条件に基づいて値を取得することを特徴とするプログラム。
An information processing device program that uses image data that can acquire the line area of a character string for each of a plurality of lines.
The information processing device
As a position condition for specifying a row area for which a value is acquired from the image data, a key character string included in the row area acquired from the image data, a row area having the key character string, and a row area for acquiring the value are used. A setting means for setting a relative direction with and a number for specifying a line area for acquiring the value in the relative direction from a line area with the key character string, and
Based on the line area of the key character string acquired from the image data, the function is made to function as an acquisition means for acquiring a value from a line area satisfying the position condition corresponding to the key character string.
When the row area is an area including a key character string and a value to be acquired, the acquisition means acquires a value from the row area based on preset output conditions for the value to be acquired. Characterized program.
JP2019019392A 2019-02-06 2019-02-06 Information processing device and its processing method and program Active JP6795770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019019392A JP6795770B2 (en) 2019-02-06 2019-02-06 Information processing device and its processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019019392A JP6795770B2 (en) 2019-02-06 2019-02-06 Information processing device and its processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015223365A Division JP6481204B2 (en) 2015-11-13 2015-11-13 Information processing apparatus, processing method thereof, and program

Publications (2)

Publication Number Publication Date
JP2019071134A JP2019071134A (en) 2019-05-09
JP6795770B2 true JP6795770B2 (en) 2020-12-02

Family

ID=66441321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019019392A Active JP6795770B2 (en) 2019-02-06 2019-02-06 Information processing device and its processing method and program

Country Status (1)

Country Link
JP (1) JP6795770B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3814320B2 (en) * 1995-12-14 2006-08-30 キヤノン株式会社 Image processing method and apparatus
JP2003223610A (en) * 2002-01-28 2003-08-08 Toshiba Corp Character recognizing device and character recognizing method
JP5810568B2 (en) * 2011-03-17 2015-11-11 富士通株式会社 Information processing apparatus, program, and data extraction method
JP6404579B2 (en) * 2014-03-05 2018-10-10 グローリー株式会社 Sales management system and sales management method

Also Published As

Publication number Publication date
JP2019071134A (en) 2019-05-09

Similar Documents

Publication Publication Date Title
JP4533273B2 (en) Image processing apparatus, image processing method, and program
JP2007279828A (en) Business form processor, business form format preparation device, business form, program for processing business form and program for preparing business form format
JP6826293B2 (en) Information information system and its processing method and program
JP2009122760A (en) Document processing apparatus, document processing method, and document processing program
US20100329577A1 (en) Image processing device
JP6931168B2 (en) Information processing device, control method, program
JP4333350B2 (en) Image management apparatus, image management method, and program
JP2010102502A (en) Image processing device, image processing method, and program
JP2008108114A (en) Document processor and document processing method
JP2008131381A (en) Form generating device, form generating method, program and record medium
JP5096989B2 (en) Document processing apparatus and document processing method
JP6795770B2 (en) Information processing device and its processing method and program
JP2009031937A (en) Form image processing apparatus and form image processing program
JP2018055256A (en) Information processing apparatus, information processing method, and program
JP6481204B2 (en) Information processing apparatus, processing method thereof, and program
JP6947971B2 (en) Information processing device, control method, program
JP6194781B2 (en) Image processing apparatus and program
JP7031465B2 (en) Information processing equipment and programs
JP2007034613A (en) Image processing apparatus and method thereof
JP2003046746A (en) Method and apparatus for processing image
JP6536542B2 (en) Information processing apparatus, control method, program
JP5528410B2 (en) Viewer device, server device, display control method, electronic comic editing method and program
US20160044197A1 (en) Method of scanning document and image forming apparatus for performing the same
JP5935376B2 (en) Copy machine
JP2005184261A (en) Color corrector

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200908

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200916

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201026

R151 Written notification of patent or utility model registration

Ref document number: 6795770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250