JP2018124854A - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP2018124854A JP2018124854A JP2017017421A JP2017017421A JP2018124854A JP 2018124854 A JP2018124854 A JP 2018124854A JP 2017017421 A JP2017017421 A JP 2017017421A JP 2017017421 A JP2017017421 A JP 2017017421A JP 2018124854 A JP2018124854 A JP 2018124854A
- Authority
- JP
- Japan
- Prior art keywords
- image
- character string
- area
- character
- recorded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Character Input (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
官公庁等に提出する書類や様々なアンケート用紙への記入等、印字された用紙(帳票やアンケート用紙等)に手書きで記入して提出する機会が多い。記入された用紙を集める側は、記入済のアンケート用紙等を自動で読み取って集計したいという要求がある。 There are many opportunities to fill out printed forms (forms, questionnaires, etc.) by hand, such as filling out documents submitted to government offices and various questionnaires. There is a demand for the side that collects the completed forms to automatically read and complete the completed questionnaire forms.
その要求に対し、特許文献1には、マークシートのように塗りつぶして回答する種類の帳票について、回答が記入されたマークシートをスキャナ等で読み取って集計する技術が開示されている。
In response to such a request,
しかしながら、上掲の特許文献1に開示された技術の場合、マークシートに記入されているマークの位置を検出することはできるが、その位置に記入されたマークが何を意味しているかは、別途の情報として事前設定しておく必要がある。
However, in the case of the technique disclosed in the above-mentioned
本発明は、特定された位置に対応する文字情報を、文字と文字の位置とを予め対応づけて設定する作業を必要とすることなく認識する画像処理装置および画像処理プログラムを提供することを目的とする。 An object of the present invention is to provide an image processing apparatus and an image processing program for recognizing character information corresponding to a specified position without requiring an operation for setting characters and character positions in association with each other in advance. And
請求項1は、
第1の画像を表わす第1の画像データと、該第1の画像データに追加記録がなされた第2の画像を表わす第2の画像データとを取得する画像取得部と、
前記第1の画像から、1文字であることを含む文字列を認識する文字列認識部と、
前記第2の画像の中から、前記第1の画像に対し追加記録された画像である追加記録画像を抽出する追加記録画像抽出部と、
前記文字列認識部で認識された文字列の中から、前記第1の画像上の、前記追加記録画像に対応する文字列を特定する文字列特定部と
を備えたことを特徴とする画像処理装置である。
An image acquisition unit configured to acquire first image data representing a first image and second image data representing a second image additionally recorded on the first image data;
A character string recognition unit for recognizing a character string including one character from the first image;
An additional recorded image extraction unit that extracts an additional recorded image that is an image additionally recorded with respect to the first image from the second image;
An image processing comprising: a character string specifying unit that specifies a character string corresponding to the additional recording image on the first image from the character strings recognized by the character string recognition unit. Device.
請求項2は、
前記文字列認識部が、前記第1の画像から、文字列の認識に加え、認識した文字列ごとに、該第1の画像上の、該文字列が記録されていた、1点もしくは複数点の座標で表現された領域であることを含む第1の領域を該文字列に対応付け、
追加記録画像抽出部が、前記追加記録画像を構成する、個別の記録ごとの個別追加記録画像ごとに、前記第2の画像上の、該個別追加記録画像が記録されていた、1点もしくは複数点の座標で表現された領域であることを含む第2の領域を抽出し、
前記文字列特定部が、前記第2の領域に対し予め定められた第1の位置関係にある第1の領域に対応づけられている文字列を特定することを特徴とする請求項1に記載の画像処理装置である。
In addition to recognizing the character string from the first image, the character string recognizing unit records one or more points on which the character string is recorded on the first image for each recognized character string. A first region including the region represented by the coordinates of
The additional recorded image extraction unit records the individual additional recorded image on the second image for each individual additional recorded image that constitutes the additional recorded image. Extracting a second region including the region represented by the coordinates of the point;
2. The character string specifying unit specifies a character string associated with a first area having a predetermined first positional relationship with respect to the second area. This is an image processing apparatus.
請求項3は、
前記文字列認識部が、認識した個々の文字の中の、1点もしくは複数点の座標で表現された領域であることを含む領域どうしが予め定められた第2の位置関係にある複数の文字を、1つの文字列として認識し、前記第1の画像上の、該文字列が記録されていた、1点もしくは複数点の座標で表現された領域であることを含む領域を、前記第1の領域として該文字列に対応付けることを特徴とする請求項2に記載の画像処理装置である。
A plurality of characters in which the character string recognition unit recognizes each of the characters including a region represented by one or a plurality of coordinates in a predetermined second positional relationship. Is recognized as one character string, and the first image includes a region including the region represented by the coordinates of one point or a plurality of points on which the character string is recorded. The image processing apparatus according to
請求項4は、
前記文字列特定部が、前記第2の領域に対し前記第1の位置関係にある前記第1の領域が存在しない場合は、該第2の領域に対しては文字列を特定しないことを特徴とする請求項2または3に記載の画像処理装置である。
The character string specifying unit does not specify a character string for the second area when the first area having the first positional relationship with the second area does not exist. The image processing apparatus according to
請求項5は、
前記文字列認識部は、前記第1の画像が罫線を含む画像の場合に、該罫線で囲まれた領域ごとに文字列を認識するものであることを特徴とする請求項2から4のうちのいずれか1項に記載の画像処理装置である。
The character string recognition unit recognizes a character string for each area surrounded by the ruled line when the first image is an image including a ruled line. The image processing apparatus according to any one of the above.
請求項6は、
前記文字列特定部が、複数の前記第2の領域に対応して、同一の前記第1の領域に対応付けられた同一の文字列が特定されたときは、該同一の文字列についての複数回の特定のうちの1回の特定を除く残りの特定における、特定された該同一の文字列を無視することを特徴とする請求項2から5のうちのいずれか1項に記載の画像処理装置である。
Claim 6
When the character string specifying unit specifies the same character string associated with the same first region corresponding to the plurality of second regions, a plurality of the same character strings The image processing according to any one of
請求項7は、
プログラムを実行する情報処理装置内で実行されて、該情報処理装置を、
第1の画像を表わす第1の画像データと、該第1の画像データに追加記録がなされた第2の画像を表わす第2の画像データとを取得する画像取得部と、
前記第1の画像から、1文字であることを含む文字列を認識する文字列認識部と、
前記第2の画像の中から、前記第1の画像に対し追加記録された画像である追加記録画像を抽出する追加記録画像抽出部と、
前記文字列認識部で認識された文字列の中から、前記第1の画像上の、前記追加記録画像に対応する前記文字列を特定する文字列特定部と
を備えた画像処理装置として動作させることを特徴とする画像処理プログラムである。
Claim 7
The information processing apparatus is executed in an information processing apparatus that executes a program.
An image acquisition unit configured to acquire first image data representing a first image and second image data representing a second image additionally recorded on the first image data;
A character string recognition unit for recognizing a character string including one character from the first image;
An additional recorded image extraction unit that extracts an additional recorded image that is an image additionally recorded with respect to the first image from the second image;
Operate as an image processing apparatus including a character string identifying unit that identifies the character string corresponding to the additional recorded image on the first image from among character strings recognized by the character string recognizing unit. This is an image processing program.
請求項1の画像処理装置および請求項7の画像処理プログラムによれば、特定された位置に対応する文字情報を、文字と文字の位置とを予め対応づけて設定する作業を必要とすることなく認識することができる。
According to the image processing apparatus of
請求項2の画像処理装置によれば、予め定められた第1の位置関係という概念なしに文字列を特定する場合と比べ、文字列をより正確に特定することができる。 According to the image processing apparatus of the second aspect, it is possible to specify the character string more accurately than in the case where the character string is specified without the concept of the predetermined first positional relationship.
請求項3の画像処理装置によれば、1つの第2の領域に対応する文字列が複数の文字からなる文字列であっても、その複数の文字からなる文字列を特定することができる。
According to the image processing apparatus of
請求項4の画像処理装置によれば、全ての第2の領域について文字列を特定する場合と比べ、誤認識が抑制される。 According to the image processing apparatus of the fourth aspect, erroneous recognition is suppressed as compared with the case where character strings are specified for all the second regions.
請求項5の画像処理装置によれば、罫線が記録されていても罫線を利用せずに座標を認識する場合と比べ、文字列をより正確に認識することができる。 According to the image processing apparatus of the fifth aspect, it is possible to recognize the character string more accurately as compared with the case where the coordinates are recognized without using the ruled line even if the ruled line is recorded.
請求項6の画像処理装置によれば、本来1つの第2の領域として認識すべき基になった図形等が掠れ等により複数に分かれていて複数の第2の領域として認識されても、文字列の正しい特定が可能となる。 According to the image processing apparatus of claim 6, even if a figure or the like that should be originally recognized as one second area is divided into a plurality of parts by drowning or the like and recognized as a plurality of second areas, The column can be identified correctly.
以下、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below.
図1は、文字認識システムの模式図である。 FIG. 1 is a schematic diagram of a character recognition system.
ここに示す文字認識システム10は、スキャナ20とノート型パーソナルコンピュータ(以下、「ノートPC」と略記する)30とを備えている。スキャナ20とノートPC30との間は、通信ケーブル40で接続されている。
The
スキャナ20は、原稿に記録されている画像を読み取って画像データを生成する装置である。このスキャナ20の原稿トレイ21上に原稿を置き、スタートボタン(不図示)を押すと、あるいは、ノートPCから指示を与えると、原稿が1枚、スキャナ20内に送り込まれる。スキャナ20内には原稿上の画像を光電的に読み取るセンサ(不図示)が備えられていて、スキャナ20内に送り込まれた原稿から、その原稿上に記録されている画像が光電的に読み取られて画像データが生成される。記録されている画像が読み取られた後の原稿は、排紙トレイ22上に排出される。この原稿トレイ21には複数枚の原稿を積み重ねて載置することができ、スキャナ20は、原稿トレイ21上の複数枚の原稿を1枚ずつ順次にスキャナ20内に送り込み、その送り込まれた原稿上の画像を読み取り、排紙トレイ22上に排出する。
The
また、このスキャナ20は、背面側に設けられた左右に延びるヒンジ(不図示)を回転中心として上蓋23を持ち上げることができる。この上蓋23を持ち上げてその下に原稿を1枚置き、上蓋23を閉じて、その置かれた原稿を読み取ることもできる。
Further, the
このスキャナ20での読み取りにより得られた画像データは、通信ケーブル40を経由してノートPC30に入力される。
Image data obtained by reading with the
ノートPC30は、表示画面31やキーボード32を備えており、また、その内部には、プログラムを実行するためのCPUやメモリ等の設備を備えている。このノートPC30ではプログラムが実行されて、その実行されたプログラムに応じた処理が行われる。本実施形態に対応しては、このノートPCでは、後述する画像処理プログラムが実行される。このノートPC30内で実行される画像処理プログラムは、本発明の画像処理プログラムの一例に相当する。そして、このノートPC30は、この画像処理プログラムの実行により、本発明の一実施形態としての画像処理装置として動作する。
The
図2は、ノートPC内での画像処理プログラムの実行により実現する画像処理装置の機能ブロック図である。 FIG. 2 is a functional block diagram of the image processing apparatus realized by executing the image processing program in the notebook PC.
本実施形態の画像処理装置60は、画像取得部61と、文字列認識部62と、追加記録画像抽出部63と、文字列特定部64とを有する。具体的な実施形態の例示は後回しにして、ここでは、各部61〜64について概括的に説明する。なお、ここでは、データ上の画像を取り扱っており、したがって、ここでは、特に区別する必要がある場合を除き、データ上の画像であっても、データ上の画像であることを特に明記することなく、単に「画像」あるいは「原稿」と称することがある。
The
画像取得部61は、アンケートの設問としての文字が記録されていてその設問に対する回答が未記入の未記入原稿の画像と、その未記入原稿に回答が追加記録された記入済原稿の画像とを取得する。未記入原稿は1枚であるが、記入済原稿は通常は複数枚存在し、画像取得部61は、それら全ての画像を取得する。これら未記入原稿および記入済原稿は、本発明にいう、それぞれ第1の画像および第2の画像の各一例に相当する。 The image acquisition unit 61 includes an image of an unfilled manuscript in which characters as questions of a questionnaire are recorded and an answer to the question is unfilled, and an image of a filled manuscript in which an answer is additionally recorded on the unfilled manuscript. get. Although there is one unwritten document, there are usually a plurality of completed documents, and the image acquisition unit 61 acquires all of these images. These unfilled manuscript and filled manuscript correspond to examples of the first image and the second image, respectively, according to the present invention.
また、文字列認識部62は、未記入原稿から、1文字であることを含む文字列を認識する。ここでいう「文字列」は、複数文字からなる文字列だけでなく、1文字のみからなるものも含む概念である。
ここで、本実施形態の文字列認識部62は、文字列の認識に加え、認識した文字列ごとに、未記入原稿上の、その文字列が記録されていた、1点もしくは複数点の座標で表現された領域であることを含む第1の領域をその文字列に対応付ける。この文字列に対応付ける「第1の領域」は、1点の座標あるいは領域の4隅の座標などで代表させたものであってもよい。
また、本実施形態の文字列認識部62はさらに、認識した個々の文字の、1点もしくは複数点の座標で表現された領域であることを含む領域どうしが予め定められた第2の位置関係(第1の位置関係については後述する)にある複数の文字を1つの文字列として認識する。その場合、未記入原稿上の、その文字列が記録されていた、1点もしくは複数点の座標で表現された領域であることを含む領域を第1の領域として、その文字列に対応付ける。この「第2の位置関係」としては、一例として、予め定められた第2の閾値距離以内で互いに左右に並んでいる、という位置関係が採用される。
さらには、本実施形態の文字列認識部62は、未記入原稿に罫線が描かれている場合には、その罫線で囲まれた領域ごとに文字列を認識する。罫線が描かれている場合は、その罫線を文字列の認識に利用したほうが認識率が向上することが期待されるからである。
また、追加記録画像抽出部63は、記入済原稿の中から、未記入原稿に対し追加記録された画像である追加記録画像を抽出する。ここでは、具体的には、例えば、記録済原稿と未記入原稿との差分の画像を算出することにより、追加記録された回答の画像である追加記録画像を抽出する。
Further, the character string recognition unit 62 recognizes a character string including one character from an unfilled document. The “character string” here is a concept including not only a character string composed of a plurality of characters but also a character string composed of only one character.
Here, the character string recognizing unit 62 of the present embodiment recognizes the character string and, for each recognized character string, the coordinates of one or more points on the unfilled document on which the character string is recorded. The first area including the area expressed by is associated with the character string. The “first region” associated with the character string may be represented by the coordinates of one point or the coordinates of the four corners of the region.
In addition, the character string recognition unit 62 of the present embodiment further has a second positional relationship in which regions including the region represented by the coordinates of one point or a plurality of points of each recognized character are determined in advance. A plurality of characters in (the first positional relationship will be described later) is recognized as one character string. In that case, an area including the area represented by the coordinates of one point or a plurality of points where the character string is recorded on the unfilled document is set as the first area and associated with the character string. As this “second positional relationship”, for example, a positional relationship in which they are arranged side by side within a predetermined second threshold distance is employed.
Furthermore, when a ruled line is drawn on the unfilled document, the character string recognition unit 62 of this embodiment recognizes the character string for each area surrounded by the ruled line. This is because when a ruled line is drawn, the recognition rate is expected to be improved by using the ruled line for character string recognition.
Further, the additional recorded image extraction unit 63 extracts an additional recorded image that is an image additionally recorded with respect to the unwritten original from the completed original. Specifically, for example, by calculating an image of the difference between the recorded document and the unfilled document, an additional recorded image that is an additionally recorded answer image is extracted.
ここで、本実施形態における追加画像抽出部63は、追加記録画像を構成する、個別の記録ごとの個別追加記録画像ごとに、記入済原稿上の、その個別追加記録画像が記録されていた記入済原稿上の、1点もしくは複数点の座標で表現された領域であることを含む領域を抽出する。ここでは、この抽出された記入済原稿上の領域を、上記の第1の領域と区別して、「第2の領域」と称する。この第2の領域は、本発明にいう第2の領域の一例に相当する。なお、「第2の領域」は未記入原稿と記入済原稿との位置合わせをした上で同一の座標系で抽出するのがよい。また、「第2の領域」は、例えば1点の座標として表現され、あるいは4点の座標の集まりとして表現されてもよい。 Here, the additional image extraction unit 63 according to the present embodiment is an entry in which the individual additional recording image on the completed document is recorded for each individual additional recording image for each individual recording constituting the additional recording image. An area on the finished document including an area represented by coordinates of one point or a plurality of points is extracted. Here, the extracted area on the completed manuscript is distinguished from the first area and is referred to as a “second area”. This second area corresponds to an example of the second area referred to in the present invention. The “second region” is preferably extracted with the same coordinate system after aligning the unfilled document and the filled document. Further, the “second region” may be expressed as, for example, a coordinate of one point or may be expressed as a collection of coordinates of four points.
さらに、文字列特定部64は、文字列認識部62で認識された文字列の中から、未記入原稿上の、追加記録画像に対応する領域に記録された文字列を特定する。
ここで、本実施形態における文字列特定部64は、上記の第2の領域に対し予め定められた第1の位置関係にある第1の領域を特定し、その第1の領域に対応付けられている文字列を特定する。ここでは、一例として、「第2の領域に重なっている第1の領域が存在する場合、あるいは、第2の領域に重なっている第1の領域が存在しなくても、その第2の領域に対し予め定められた第1の閾値距離以内であってその第2の領域の右に並ぶ第1の領域が存在する場合に、その第1の領域が、「第2の領域に対し予め定められた第1の位置関係にある」第1の領域として特定される。
また、本実施形態における文字列特定部64は、複数の第2の領域に対応して、同一の第1の領域に対応付けられた同一の文字列が特定されたときは、同一の第1の領域に対応付けられた同一の文字列についての複数回の特定のうちの1回の特定を除く残りの特定において特定された同一の文字列を無視する。例えば、本実施形態における文字列特定部64は、複数の第2の領域に対応して、同一の第1の領域に記録されていた同一の文字列が複数回にわたって特定されたときは、最初の1回目を除き2回目以降に特定された同一の文字列を無視する。
さらに、本実施形態における文字列特定部64は、第2の領域に対し上記の第1の位置関係にある第1の領域が存在しない場合は、その第2の領域に対応しては文字列を特定しない。無理に特定すると誤認識が増えるからである。
Further, the character
Here, the character
In addition, the character
Further, the character
図3は、本発明の一実施形態としての画像処理プログラムのフローチャートを示した図である。 FIG. 3 is a diagram showing a flowchart of an image processing program as an embodiment of the present invention.
図1に示すスキャナ20で原稿上の画像が読み取られて画像データが生成され、その生成された画像データが通信ケーブル40を経由してノートPC30に入力される。すると、この図3に示す画像処理プログラムが起動し、通信ケーブル40を経由してノートPC30に入力されてきた画像データが取得される(ステップS01)。なお、前述の通り、ここでは、特に必要がある場合を除き、データ上の画像であっても「データ」を省略し、「画像」あるいは「原稿」と称することがある。
The
ステップS01にて画像を取得すると、今回取得した画像が1枚目の画像であるか2枚目以降の画像であるかが判定される(ステップS02)。 When the image is acquired in step S01, it is determined whether the image acquired this time is the first image or the second and subsequent images (step S02).
本実施形態では、スキャナ20に、1枚目は未記入原稿を読み取らせ、その後、2枚目以降に記入済原稿を順次読み取らせるというルールを置いている。そこで、この画像処理プログラムは、取得した画像が1枚目の画像のときは、その画像を未記入原稿として一時保存する(ステップS03)。2枚目以降についても画像取得を繰り返し(ステップS05)、2枚目以降に取得した画像は全て記入済原稿として一時保存する(ステップS04)。
In the present embodiment, a rule is set such that the
図4は、未記入原稿と記入済原稿の第1例を示した図である。
ここで、図4(A)は、記入前のアンケート用紙、すなわち未記入原稿51Aを表している。ここでは、アンケート内容として(1)〜(3)の3つの設問があり、それら3つの設問に対する回答は、1〜5の数字のうちのいずれか1つの数字を○印で囲うことによりその数字を選択する方式のものである。
FIG. 4 is a diagram showing a first example of an unfilled document and a filled document.
Here, FIG. 4A shows a questionnaire sheet before filling, that is, an
また、図4(B)は、図4(A)に示したアンケート用紙と同一様式のアンケート用紙上に回答者が回答を記入した記入済原稿52Aを表している。記入済原稿は1枚とは限らず、スキャナ20で順次読み込まれた複数枚の原稿のうちの2枚目以降の原稿の1枚1枚それぞれが記入済原稿として取り扱われる。
FIG. 4B shows a completed
この図4(B)に示されている1枚の記入済原稿52Aでは、(1)の設問に関しては、数字の「3」が○印521で囲まれている。また、(2)の設問に関しては、数字の「1」が○印522で囲まれている。さらに、(3)の設問に関しては、数字の「5」が○印523で囲まれている。
In one completed
図5は、未記入原稿と記入済原稿の第2例を示した図である。
図4の場合と同様、図5(A)は、記入前のアンケート用紙、すなわち未記入原稿51Bを表している。また、図5(B)は、図5(A)に示したアンケート用紙と同一様式のアンケート用紙上に回答者が回答を記入した記入済原稿52Bを表している。記入済原稿は1枚とは限らず、スキャナ20で順次読み込まれた複数枚の原稿のうちの2枚目以降の原稿の1枚1枚それぞれが記入済原稿として取り扱われる。
FIG. 5 is a diagram showing a second example of a blank document and a blank document.
As in the case of FIG. 4, FIG. 5 (A) shows a questionnaire sheet before entry, that is, an
ここでは、アンケート内容として(1)から(4)の4つの設問があり、それらの設問のうちの(1)から(3)に対する回答は、「大変良い」、「良い」、「普通」、「悪い」、「大変悪い」のいずれかに重ねて○印等のマークを記入することにより、また(4)の設問に対しては、「ぜひ紹介したい」、「まあ紹介したい」、「あまり紹介したくない」のいずれかに重ねて○印等のマークを記入することにより、そのマークを記入した内容を選択する方式のものである。 Here, there are four questions (1) to (4) as the contents of the questionnaire, and the answers to (1) to (3) of those questions are “very good”, “good”, “normal”, By putting a mark such as ○ on top of either “bad” or “very bad”, and for the question (4), “I want to introduce it”, “Well to introduce”, “ This is a method of selecting the contents with the mark by putting a mark such as a circle over the item “I do not want to introduce”.
図6は、未記入原稿と記入済原稿の第3例を示した図である。
図4,図5の場合と同様、図6(A)は、記入前のアンケート用紙、すなわち未記入原稿51Cを表している。また、図6(B)は、図6(A)に示したアンケート用紙と同一様式のアンケート用紙上に回答者が回答を記入した記入済原稿52Cを表している。記入済原稿は1枚とは限らず、スキャナ20で順次読み込まれた複数枚の原稿のうちの2枚目以降の原稿の1枚1枚それぞれが記入済原稿として取り扱われる。
FIG. 6 is a diagram showing a third example of a blank document and a blank document.
As in the case of FIG. 4 and FIG. 5, FIG. 6 (A) shows a questionnaire sheet before entry, that is, an
ここでは、アンケート内容として(1)と(2)の2つの設問があり、それら2つの設問に対する回答は、図6(B)に示すように、□印内にチェックマークを記入することにより行われる。□印内にチェックマークを記入すると、そのチェックマークを記入した□印のすぐ右側に記録されている文字列が表わす内容を回答したことになる。 Here, there are two questions (1) and (2) as the contents of the questionnaire, and the answers to these two questions are made by entering a check mark in the square as shown in FIG. 6 (B). Is called. When a check mark is entered in the □ mark, the contents represented by the character string recorded on the right side of the □ mark in which the check mark is written are answered.
図7は、未記入原稿と記入済原稿の第4例を示した図である。
図4〜図6の場合と同様、図7(A)は、記入前のアンケート用紙、すなわち未記入原稿51Dを表している。また、図7(B)は、図7(A)に示したアンケート用紙と同一様式のアンケート用紙上に回答者が回答を記入した記入済原稿52Dを表している。記入済原稿は1枚とは限らず、スキャナ20で順次読み込まれた複数枚の原稿のうちの2枚目以降の原稿の1枚1枚それぞれが記入済原稿として取り扱われる。
FIG. 7 is a diagram showing a fourth example of an unfilled document and a filled document.
As in the case of FIGS. 4 to 6, FIG. 7A shows a questionnaire sheet before filling, that is, an
ここでは、アンケート内容として、図6と同じ内容の(1)と(2)の2つの設問がある。ただし、ここでは、回答候補としての文字列は、罫線で囲まれた枠内に記録されている。この設問に対する回答は、図7(B)に示すように、回答しようとしている文字列の左に並ぶ、罫線によって囲まれた枠内にチェックマークを記入することによって行われる。枠内にチェックマークを記入すると、そのチェックマークの枠のすぐ右側に並ぶ枠内に記録されている文字列が表わす内容を回答したことになる。 Here, there are two questions (1) and (2) having the same contents as those in FIG. 6 as the contents of the questionnaire. However, here, the character strings as answer candidates are recorded in a frame surrounded by ruled lines. As shown in FIG. 7B, the answer to this question is made by entering a check mark in a frame surrounded by a ruled line that is arranged to the left of the character string to be answered. When a check mark is entered in the frame, the content represented by the character string recorded in the frame arranged immediately to the right of the check mark frame is answered.
図3に戻って説明を続ける。 Returning to FIG. 3, the description will be continued.
一連の画像取得を終了すると(ステップS05)、次に、未記入原稿に記録されている文字列およびその文字列が記録されている領域の認識処理が行われる(ステップS06)。図4に示す第1例では数字のみの認識で足りるが、本実施形態における認識対象は図4〜図7に示すように多岐のアンケート用紙にわたっているため、認識すべき文字のの文字種は限定されていない。 When the series of image acquisition is completed (step S05), the character string recorded in the unfilled document and the area in which the character string is recorded are recognized (step S06). In the first example shown in FIG. 4, it is sufficient to recognize only numbers, but since the recognition target in this embodiment covers a wide variety of questionnaire forms as shown in FIGS. 4 to 7, the character types of characters to be recognized are limited. Not.
図8は、未記入原稿上の文字列および領域認識処理のフローチャートを示した図である。図3のステップS06では、この図8に示す処理が実行される。 FIG. 8 is a diagram showing a flowchart of character string and area recognition processing on an unfilled document. In step S06 of FIG. 3, the process shown in FIG. 8 is executed.
ここでは先ず、未記入原稿上に記録されている個々の文字について、文字とその文字が記録されている領域(第1の領域)とが認識される(ステップS61)。この文字と第1の領域の認識は、未記入原稿の全面にわたって行なわれる。 Here, first, for each character recorded on the unfilled document, the character and the region (first region) where the character is recorded are recognized (step S61). The recognition of the characters and the first area is performed over the entire surface of the unwritten document.
図9は、認識された文字に対応付けられる第1の領域の算出方法を例示した図である。 FIG. 9 is a diagram illustrating a method for calculating the first region associated with the recognized character.
ここでは、図9に示すように、数字の「3」が認識されたものとする。このとき、その数字の「3」に外接する長方形Rが算出されて、その長方形Rがその認識された数字「3」に対応する第1の領域として認識され、その長方形Rが、ここで認識された数字の「3」に対応する第1の領域として、その数字「3」に対応づけられる。ただし、ここで対応づけられる第1の領域は、必ずしも2次元的な広がりのある領域ではなく、例えば、その長方形Rの4隅の座標C1〜C4のセット、あるいは、その長方形Rの中心の1点の座標C0等であってもよい。 Here, as shown in FIG. 9, it is assumed that the number “3” is recognized. At this time, a rectangle R circumscribing the numeral “3” is calculated, and the rectangle R is recognized as the first region corresponding to the recognized numeral “3”, and the rectangle R is recognized here. The first area corresponding to the number “3” is associated with the number “3”. However, the first region associated here is not necessarily a two-dimensionally spread region, for example, a set of coordinates C1 to C4 at the four corners of the rectangle R, or 1 at the center of the rectangle R. The coordinates C0 of the point may be used.
図8に戻って説明を続ける。 Returning to FIG.
未記入原稿上の個々の文字および個々の文字に対応する個々の第1の領域が認識されると(ステップS61)、次に、その未記入原稿上の罫線の認識が試みられる(ステップS62)。ここでは、図4〜図6に示すような、罫線が描かれていないアンケート用紙も、図7に示すような罫線が描かれているアンケート用紙も処理対象としている。このため、アンケート用紙によっては、罫線が描かれている場合も有り得る。そこで、ここでは、未記入原稿上の罫線の有無、および罫線が描かれていた場合の、その罫線の位置や長さ等が認識される。 When the individual characters on the unwritten manuscript and the individual first areas corresponding to the individual characters are recognized (step S61), the ruled line on the unwritten manuscript is then recognized (step S62). . Here, as shown in FIG. 4 to FIG. 6, questionnaire papers without ruled lines and questionnaire papers with ruled lines as shown in FIG. 7 are also processed. For this reason, a ruled line may be drawn depending on the questionnaire sheet. Therefore, here, the presence or absence of a ruled line on the unfilled document and the position and length of the ruled line when the ruled line is drawn are recognized.
個々の文字および個々の第1の領域の認識(ステップS61)と罫線の認識(ステップS62)が終了すると、次に、未記入原稿上を左上から右下に向かって順次に検査していき(ステップS63)、認識された文字を見つけたら、その見つけた1つの文字とその文字に対応する第1の領域を取り出す(ステップS64)。そして、取り出すべき文字が無くなるまで、以下の処理を繰り返す(ステップS65)。 When the recognition of individual characters and individual first areas (step S61) and ruled line recognition (step S62) are completed, the unprinted document is inspected sequentially from upper left to lower right ( Step S63) When the recognized character is found, the found one character and the first area corresponding to the character are taken out (Step S64). The following processing is repeated until there are no more characters to be extracted (step S65).
ここでは先ず、今回取り出した1つの文字が1行の左側の先頭の文字か否かを判定するステップS66)。1行の左側の先頭の文字1つだけでは、以下の処理を実行できないため、今回取り出した1つの文字が1行の左側の先頭の文字であったときは、ステップS63に戻り、次の文字とその文字に対応する第1の領域を取り出す(ステップS64)。 Here, first, it is determined whether or not one character extracted this time is the first character on the left side of one line (step S66). The following process cannot be executed with only the first character on the left side of one line. If one character extracted this time is the first character on the left side of one line, the process returns to step S63, and the next character And a first area corresponding to the character is extracted (step S64).
そして次に、先に取り出した文字を囲う罫線が存在するか否かを判定する(ステップS67)。 Next, it is determined whether there is a ruled line surrounding the previously extracted character (step S67).
ここでは先ずは、罫線(先に取り出した文字を囲う罫線)が存在しない場合について説明する。上記の条件を満たす罫線が存在しない場合、次に、先に取り出した文字と今回取り出した文字との2つの文字に対応する2つの第1の領域どうしを結合する結合条件を満たすか否かを判定する(ステップS68)。ここでは、この結合条件として、今回取り出した文字に対応する第1の領域が、先に取り出した文字に対応する第1の領域に対し、右隣に有り、かつ、予め定められた閾値距離以内に存在すること、という条件を採用している。 Here, first, a case where there is no ruled line (ruled line surrounding the previously extracted character) will be described. If there is no ruled line that satisfies the above condition, then whether or not the join condition for joining the two first areas corresponding to the two characters of the character extracted first and the character extracted this time is satisfied. Determination is made (step S68). Here, as this combination condition, the first area corresponding to the character extracted this time is right next to the first area corresponding to the previously extracted character and is within a predetermined threshold distance. The condition that it exists is adopted.
図10は、第1の領域どうしを結合する結合条件の説明図である。 FIG. 10 is an explanatory diagram of a coupling condition for coupling the first regions.
ここには、「以下の質問にお答えください」の文字が並んでいる。そして、先に取り出した文字が「以」であって、今回取り出した文字が「下」であるとする。ここで、今回取り出した文字「下」に対応する、その文字「下」を取り巻く第1の領域(ここでは、これを、「今回の第1の領域」と称する。)は、先に取り出した文字「以」に対応する、その文字「以」を取り巻く第1の領域(ここでは、これを、「先の第1の領域」と称する。)に対し右隣に位置していて、かつ、予め定められた閾値距離以内に存在する。そして、この結合条件を満たすと、それら2つの第1の領域が、「以」と「下」という2つの文字からなる文字列「以下」に対応する1つの第1の領域となるように結合される(図8、ステップS69)。 Here are the letters “Please answer the following questions”. Then, it is assumed that the previously extracted character is “I” and the character extracted this time is “below”. Here, the first area surrounding the character “lower” corresponding to the character “lower” extracted this time (herein referred to as “the first area of this time”) is extracted first. Corresponding to the character “and”, located right next to the first region surrounding the character “and” (herein referred to as the “first region”), and It exists within a predetermined threshold distance. If this combination condition is satisfied, the two first regions are combined so that they become one first region corresponding to the character string “below” consisting of two characters “below” and “below”. (FIG. 8, step S69).
今回の第1の領域が先の第1の領域に対し予め定められた閾値距離以内に存在するか否かの判定は、特定の判定方法に限定されるものではないが、例えば以下の判定方法が採用される。 The determination as to whether or not the current first region is within a predetermined threshold distance with respect to the previous first region is not limited to a specific determination method, but for example, the following determination method: Is adopted.
例えば、図10(A)に示すように、先の第1の領域(文字「以」を囲う領域)の右辺と、今回の第1の領域(文字「下」を囲う領域)の左辺との間の距離を計算し、その距離が閾値距離以内であるか否かが判定される。 For example, as shown in FIG. 10A, the right side of the previous first area (the area surrounding the character “following”) and the left side of the current first area (the area surrounding the character “below”) A distance between the two is calculated, and it is determined whether or not the distance is within a threshold distance.
あるいは、これも図10(A)に示すように、先の第1の領域(文字「以」を囲う領域)の4隅の座標の各々と、今回の第1の領域(文字「下」を囲う領域)の4隅の座標の各々との間の距離を計算し、それらの距離の中に閾値距離以内の距離が存在するか否かで判定してもよい。 Alternatively, as shown in FIG. 10 (A), each of the coordinates of the four corners of the first region (region surrounding the character “以”) and the current first region (character “below”) It is also possible to calculate the distance between each of the four corner coordinates of the (enclosing region) and determine whether or not there is a distance within the threshold distance among these distances.
あるいは、図10(B)に示すように、先の第1の領域の中心座標と今回の第1の領域の中心座標との間の距離を計算し、その距離が閾値距離以内であるか否かで判定してもよい。 Alternatively, as shown in FIG. 10B, the distance between the center coordinates of the previous first area and the center coordinates of the current first area is calculated, and whether the distance is within a threshold distance or not. You may judge by.
ただし、これらの異なる判定方法に応じて、その判定方法に適した閾値距離が採用される。あるいは、これらの複数の判定方法を併用してもよい。 However, a threshold distance suitable for the determination method is employed according to these different determination methods. Or you may use these several determination methods together.
このような判定方法により結合条件を満たすと判定された場合は、第1の領域どうしを結合する(ステップS69)。そして、以上の処理を、未記入原稿上の全ての文字の取出しが終了するまで繰り返す(ステップS65)。図10に示す文字列の場合、この繰り返しにより、図10(C)に示すように、「以下の質問にお答えください」の文字列全体に対応する1つの第1の領域が生成される。 When it is determined that the combination condition is satisfied by such a determination method, the first regions are combined (step S69). Then, the above processing is repeated until extraction of all characters on the unfilled document is completed (step S65). In the case of the character string shown in FIG. 10, by repeating this process, as shown in FIG. 10C, one first region corresponding to the entire character string “Please answer the following question” is generated.
次に、取り出した文字を囲う罫線が存在する場合について説明する。 Next, a case where there is a ruled line surrounding the extracted character will be described.
この場合、図8のステップS67において先に取り出した文字を囲う罫線が存在すると判定されると、つぎにステップS71に進み、今回取り出した文字が、先に取り出した文字を囲う罫線領域(罫線で囲まれた枠)と同じ罫線領域内に存在するか否かが判定される。そして、それらの文字が同じ罫線領域内(罫線で囲まれた同じ枠内)に存在すると判定されると、それらの文字に対応する2つの第1の領域どうしが結合される(ステップS72)。 In this case, if it is determined in step S67 in FIG. 8 that there is a ruled line surrounding the previously extracted character, the process proceeds to step S71. It is determined whether or not it exists in the same ruled line area as the enclosed frame. If it is determined that these characters exist in the same ruled line area (in the same frame surrounded by ruled lines), the two first areas corresponding to these characters are combined (step S72).
図11は、罫線を利用した第1の領域どうしの結合例を示した図である。 FIG. 11 is a diagram illustrating an example of combining the first areas using ruled lines.
ここでは、「Ver7.0」、「Ver7.1」、「Ver8.0」、「Ver8.02」、「Ver8.05」、の各文字列が、それぞれ1つの罫線領域(罫線で囲まれた同じ枠内)に記録されている。そこで、ここでは、「Ver7.0」について例示すると、「V」「e」「r」「7」「.」「0」の個々の文字の第1の領域どうしが結合されて、文字列「Ver7.0」に対応する1つの第1の領域が生成される。その他の文字列についても同様である。 Here, each character string “Ver7.0”, “Ver7.1”, “Ver8.0”, “Ver8.02”, “Ver8.05” is surrounded by one ruled line area (ruled line). In the same frame). Therefore, here, for example, “Ver 7.0”, the first areas of the individual characters “V”, “e”, “r”, “7”, “.”, And “0” are combined, and the character string “ One first area corresponding to “Ver 7.0” is generated. The same applies to other character strings.
このようにして、図8に示した処理の実行により、文字列ごとの第1の領域が生成される。ここで、今回取り出した文字が先に取り出した文字から離れていて、さらに、次に取り出した文字も離れているときは、1文字のみからなる文字列が構成されることになる。 In this way, the first region for each character string is generated by executing the processing shown in FIG. Here, when the character extracted this time is separated from the previously extracted character, and the next extracted character is also separated, a character string composed of only one character is formed.
図8に示した処理、すなわち、図3のステップS06の処理により1文字のみであることを含む各文字列に対応する各第1の領域が生成されると、次に、図3のステップS07に進む。ここでは、ステップS04で一時保存しておいた記入済原稿のうちの1枚を取り出す(ステップS07)。ただし、ステップS09における文字認識処理が済んでいる記入済原稿は取出しの対象からは外している。そして、未処理の記入済原稿が有ったときは、すなわち、未処理の記入済原稿を取り出せたときは(ステップS08)、その取り出した1枚の未処理の記入済原稿について、文字認識処理を実行する(ステップS09)。文字認識処理の詳細については、後述する。 When the first region corresponding to each character string including only one character is generated by the process shown in FIG. 8, that is, the process of step S06 of FIG. 3, next, step S07 of FIG. Proceed to Here, one of the completed manuscripts temporarily stored in step S04 is taken out (step S07). However, the completed manuscript for which the character recognition processing in step S09 has been completed is not taken out. When there is an unprocessed completed document, that is, when an unprocessed completed document can be taken out (step S08), a character recognition process is performed on the one unprocessed completed document that has been taken out. Is executed (step S09). Details of the character recognition process will be described later.
未処理の記入済原稿を取り出せなかったとき、すなわち、全ての記入済原稿について文字認識処理(ステップS09)が終了したときは(ステップS08)、今回の文字認識ルーチンを終了する。
図12は、図3に1つのステップ(ステップS09)で示した文字認識処理の詳細フローを示した図である。
When the unprocessed completed manuscript cannot be taken out, that is, when the character recognition process (step S09) is completed for all the completed manuscripts (step S08), the current character recognition routine is terminated.
FIG. 12 is a diagram showing a detailed flow of the character recognition process shown in one step (step S09) in FIG.
ここでは先ず、図3のステップS07で取り出した1枚の記入済原稿とステップS03で一時保存しておいた未記入原稿との間の差分の画像を生成する(ステップS21)。
図13は、差分画像の一例を示した図である。
この図13に示す差分画像53Aは、図4(A)に示す未記入原稿51Aと、図4(B)に示す記入済原稿52Aのうちの一番上の1枚の記入済原稿との間の差分画像である。この差分画像53Aには、回答者によって記入された、3つの○印521,522,523が抽出される。この差分画像上に現れた追加記録画像は、本発明にいう追加記録画像の一例に相当する。また、ここでは、追加記録画像を構成している1つ1つの画像を個別追加記録画像と称する。ここで、○印521に関しては、記入時の掠れ等により、2つの部分521a,521bに分かれている。このため、2つの部分521a,521bの各々が個別追加記録画像となる。
図12に戻って説明を続ける。
図13に例示するような差分画像を生成すると(ステップS21)、次に、差分画像を左上から右下に向かって検査していき(ステップS22)、個別追加記録画像を見つけたら、その見つけた1つの個別追加記録画像を取り出す(ステップS23)。そして、今回対象としている差分画像上に未処理の個別追加記録画像が無くなるまで(ステップS24)、以下の処理を繰り返す。
ここでは先ず、領域算出処理が行われる(ステップS25)。この領域算出処理は、ステップS23で取り出した1つの個別追加記録画像の記入済原稿上の領域(第2の領域)を算出する処理である。本実施形態では、この第2の領域の算出にあたり、図9に示した、未記入原稿上の第1の領域の算出方法と同じ算出方法が採用されている。すなわち、ここでは、ステップS23で取り出した1つの個別追加記録画像に外接する長方形Rが算出され、その長方形Rがその個別追加記録画像に対応する第2の領域として、その個別追加記録画像に対応付けられる。あるいは、これも第1の領域の場合と同様、その長方形Rの4隅の座標のセット、もしくは、その長方形Rの中心座標を第2の領域としてもよい。
1つの個別追加記録画像に対応する第2の領域が算出されると(ステップS25)、次に、文字列特定処理が行われる(ステップS26)。
Here, first, an image of a difference between one completed original document taken out in step S07 in FIG. 3 and an unwritten original document temporarily stored in step S03 is generated (step S21).
FIG. 13 is a diagram illustrating an example of the difference image.
The
Returning to FIG. 12, the description will be continued.
When the difference image as illustrated in FIG. 13 is generated (step S21), the difference image is then inspected from the upper left to the lower right (step S22). One individually added recorded image is taken out (step S23). Then, the following processing is repeated until there is no unprocessed individual additional recording image on the current difference image (step S24).
Here, first, an area calculation process is performed (step S25). This area calculation process is a process for calculating the area (second area) on the completed document of one individual additional recording image taken out in step S23. In the present embodiment, in calculating the second area, the same calculation method as that of the first area on the unfilled document shown in FIG. 9 is employed. That is, here, a rectangle R circumscribing one individual additional recording image taken out in step S23 is calculated, and the rectangle R corresponds to the individual additional recording image as a second area corresponding to the individual additional recording image. Attached. Alternatively, as in the case of the first area, the coordinates of the four corners of the rectangle R or the center coordinates of the rectangle R may be set as the second area.
When the second area corresponding to one individually added recording image is calculated (step S25), a character string specifying process is performed (step S26).
図14は、文字列特定処理の詳細フローを示した図である。 FIG. 14 is a diagram showing a detailed flow of the character string specifying process.
ここでは、図12のステップS25で今回算出された第2の領域が、いずれかの第1の領域と重なっているか否かが判定される(ステップS261)。 Here, it is determined whether or not the second area calculated this time in step S25 of FIG. 12 overlaps any of the first areas (step S261).
図15は、第2の領域と第1の領域が重なっている例を示した図である。 FIG. 15 is a diagram illustrating an example in which the second region and the first region overlap.
図15(A)〜(C)のいずれにおいても、第2の領域(○印を囲う領域)と重なる第1の領域(文字列を囲う領域)とが重なっている。中心座標どうしの距離を算出して重なっているかどうかを判定するときは、第2の領域の中心座標と、文字列を構成している各文字それぞれの中心座標のうちの第2の領域の中心座標に一番接近した文字の中心座標との間の距離が閾値距離以内にあるか否かによって重なっているか否かを判定してもよい。 In any of FIGS. 15A to 15C, the first area (area surrounding the character string) overlaps with the second area (area surrounding the circle). When calculating the distance between the center coordinates to determine whether or not they overlap, the center coordinates of the second area among the center coordinates of the second area and the center coordinates of each character constituting the character string It may be determined whether or not the distance from the center coordinate of the character closest to the coordinates is within a threshold distance.
図14に戻って説明を続ける。 Returning to FIG. 14, the description will be continued.
図15に例示したように、第2の領域と重なっている第1の領域が存在するときは、その重なっている第1の領域に対応する文字列が、その第2の領域、すなわち今回の個別追加記録画像に対応する文字列として特定される(ステップS262)。 As illustrated in FIG. 15, when there is a first region that overlaps the second region, the character string corresponding to the first region that overlaps the second region, that is, the current region. It is specified as a character string corresponding to the individually added recording image (step S262).
第2の領域と重なっている第1の領域が存在しないときは(ステップS261)、その第2の領域の右側であって閾値距離以内の距離に第1の領域が存在するか否かが判定される(ステップS263)。この判定方法としては、前述した、第1の領域どうしを結合するか否かの判定方法と同様の、様々な判定方法が採用され得る。ただし、文字の中心座標どうしの距離に基づいて判定するときは、判定対象の第1の領域に対応する文字列の中の一番左側の文字の中心座標が採用される。 When there is no first area overlapping the second area (step S261), it is determined whether the first area exists on the right side of the second area and within a threshold distance. (Step S263). As this determination method, various determination methods similar to the above-described determination method for determining whether or not to combine the first regions can be employed. However, when the determination is made based on the distance between the center coordinates of the characters, the center coordinates of the leftmost character in the character string corresponding to the first region to be determined is adopted.
図16は、第2の領域の右側に第1の領域が存在している例を示した図である。 FIG. 16 is a diagram illustrating an example in which the first region exists on the right side of the second region.
ここには、□印内に記入されたチェックマークを囲う第2の領域の右側であって閾値距離以内に「Ver7.0」の文字列を囲う第1の領域が存在している。そこで、この「Ver7.0」の文字列を囲う第1の領域に対応する文字列である「Ver7.0」が、その第2の領域、すなわち今回の個別追加記録画像であるチェックマークに対応する文字列として特定される(図14、ステップS264)。なお、第2の領域の右側であって閾値距離以内に複数の第1の領域が存在するときは、それら複数の第1の領域のうちの第2の領域からの距離が最短の第1の領域に対応する文字列が、その第2の領域に対応する文字列として特定される。 Here, there is a first area that encloses the character string “Ver7.0” on the right side of the second area that encloses the check mark written in the square and within the threshold distance. Therefore, “Ver7.0”, which is a character string corresponding to the first area surrounding the character string of “Ver7.0”, corresponds to the second area, that is, the check mark which is the individual additional recording image this time. Is specified as a character string (FIG. 14, step S264). When there are a plurality of first regions on the right side of the second region and within the threshold distance, the first of the plurality of first regions having the shortest distance from the second region A character string corresponding to the area is specified as a character string corresponding to the second area.
第2の領域と重なっている第1の領域が存在せず、しかも、第2の領域の右側の閾値距離以内にも第1の領域が存在しなかったときは、今回の第2の領域、すなわち今回の個別追加記録画像に対応しては、文字列は特定されないステップS265)。 When there is no first area overlapping the second area, and there is no first area within the threshold distance on the right side of the second area, the second area of this time, That is, no character string is specified for the individual additional recording image this time (step S265).
図12に戻って説明を続ける。 Returning to FIG. 12, the description will be continued.
今回の1つの第2の領域に対応する図14に示した文字列特定処理、すなわち、今回の1つの第2の領域に対応する図12のステップS26における文字列特定処理が終了すると、次に、このようにして特定された文字列が、ステップS22で個別追加記録画像を1つづつ取り出して処理していく間に複数回通過するステップS26において先に特定された文字列に対応する第1の領域と同一の第1の領域の文字列であるか否かが判定される(ステップS27)。
例えば、図13に示す○印521は、その○印の記入時の掠れ等により、2つの部分521a,521bに分かれている。このため、各部分521a,521bのそれぞれが1つずつの個別追加記録画像として認識されることが有り得る。その場合、それら2つの部分521a,521bで同じ座標の同じ文字列(ここでは図4に示す数字の「3」)が特定される。図12のステップS27は、このような場合に、2度目以降に特定された同一の第1の領域の同一の文字列は不要なので、2度目以降に特定された同一の第1の領域の同一の文字列は無視される。
ステップS27において、これまでとは別の第1の領域の文字列が特定されたときは、その特定された文字列が保存される(ステップS28)。
ここでは以上の処理が、1枚の差分画像上の個別追加記録画像の1つ1つについて実行され(ステップS22,S23)、その1枚の差分画像上の全ての個別追加記録画像についての処理が終了すると(ステップS24)、その1枚の差分画像についての、図12に示す処理、すなわち、図3にステップS09として示す文字認識処理が終了し、未処理の次の記入済原稿に関する文字認識処理に移行する(図3のステップS07)。そして、全ての記入済原稿に関する文字認識処理が終了すると(図3のステップS08)、画像処理ルーチンの今回の実行を終了する。
このように、本実施形態によれば、マークシートのマークの各位置ごとに、その位置のマークが何を意味しているか、という情報を予めインプットしておくといったような事前設定なしに、回答者の回答を認識することができる。
When the character string specifying process shown in FIG. 14 corresponding to this one second area, that is, the character string specifying process in step S26 of FIG. 12 corresponding to this one second area is completed, The first character string corresponding to the character string identified earlier in step S26, in which the character string identified in this way passes a plurality of times while the individual additional recorded images are taken out and processed one by one in step S22. It is determined whether or not the character string of the first area is the same as the area (step S27).
For example, a ◯
In step S27, when a character string in the first area different from the previous one is specified, the specified character string is stored (step S28).
Here, the above processing is executed for each individual additional recording image on one difference image (steps S22 and S23), and processing for all the individual additional recording images on that one difference image. Is completed (step S24), the processing shown in FIG. 12 for the one difference image, that is, the character recognition processing shown as step S09 in FIG. 3 ends, and character recognition relating to the unprocessed next completed manuscript is completed. The process proceeds (step S07 in FIG. 3). When the character recognition processing for all completed originals is completed (step S08 in FIG. 3), the current execution of the image processing routine is terminated.
As described above, according to the present embodiment, for each position of the mark on the mark sheet, the respondent without any prior setting such as inputting in advance information on what the mark at that position means. Can be recognized.
ここで、本実施形態の場合、スキャナ20で複数枚の原稿を連続的に読み取り、それら複数枚の原稿のうちの1枚目の原稿を未記入原稿とし、2枚目以降の原稿を記入済原稿とするというルールが定められている。この場合、未記入原稿の画像データを容易かつ確実に取得することができる。しかしながら、本発明においては、未記入原稿を1枚目などの特定の位置に配置するというルールは必ずしも必要ではない。未記入原稿を、例えば複数枚積み重ねた記入済原稿の途中位置に挟みこんでおいてもよい。その場合、画像取得部の中に未記入原稿を複数枚の原稿から見つけ出す処理を実施すればよい。未記入原稿を見つけ出す処理の一例としては、1枚目の原稿と2枚目以降の原稿との差分を抽出する処理を順次行い、1枚目の原稿にのみ差分が出た原稿を未記入原稿とすればよい。また、未記入原稿であるか記入済原稿であるかを問わずに読取により得られたテータ上の複数枚の原稿の共通部分を抽出した画像を作成し、その作成した画像と読み込んだ各原稿とのパターンマッチングを行い、一致度が最も高かった原稿を未記入原稿としてもよい。
Here, in the case of the present embodiment, a plurality of originals are continuously read by the
あるいは、記入済原稿の読み込みが複数回に分かれていても、同種の原稿についての未記入原稿の読み込みは1回のみとし、一旦読み込んだ未記入原稿を記憶しておいて、今回読み込んだ記入済原稿とのパターンマッチングや特徴点抽出、あるいは直線で囲まれた領域の一致度を使ったフォーム認識により、今回読み込んだ記入済原稿に対応する未記入原稿を特定してもよい。 Alternatively, even if the completed manuscript is read multiple times, the unwritten manuscript is read only once for the same type of manuscript. An unfilled manuscript corresponding to the filled manuscript read this time may be specified by pattern matching with the manuscript, feature point extraction, or form recognition using the degree of coincidence of the areas surrounded by straight lines.
さらには、本発明では、未記入原稿を読み込むことすら必ずしも必要ではない。例えば、複数枚の記入済原稿から、それら複数枚の記入済原稿の共通部分を抽出することにより、データ上で未記入原稿を作成してもよい。この場合、共通部分を抽出することにより作成されたデータ上での未記入原稿が第1の画像を表す第1の画像データに対応する。 Furthermore, in the present invention, it is not always necessary to read a blank document. For example, an unfilled manuscript may be created on data by extracting a common part of the plurality of filled manuscripts from a plurality of manuscripts. In this case, the unfilled document on the data created by extracting the common part corresponds to the first image data representing the first image.
また、ここでは、図1に示すように、通信ケーブル40でスキャナ20と接続されたノートPC30からなる画像処理装置について説明したが、本発明における画像処理装置は必ずしもこの形態である必要はない。例えば、スキャナとプリンタとが合体した形態のコピー機ないしはさらに機能が増えた複合機に、本発明の画像処理装置の機能を組み込んでもよい。さらには、カメラ機能を備えた携帯型端末に本発明の画像処理装置の機能を組み込んでもよい。その場合、カメラ機能で原稿を撮影することにより得られた画像が文字認識の対象となる。
Here, as shown in FIG. 1, the image processing apparatus including the
10 文字認識システム
20 スキャナ
21 原稿トレイ
22 排紙トレイ
23 上蓋
30 ノート型パーソナルコンピュータ(ノートPC)
31 表示画面
32 キーボード
51A,51B,51C,51D 未記入原稿
52A,52B,52C,52D 記入済原稿
53A 差分画像
521,522,523 ○印
551,552 個別追加記録画像
60 画像処理装置
61 画像取得部
62 文字列認識部
63 追加記録画像抽出部
64 文字列特定部
DESCRIPTION OF
31
Claims (7)
前記第1の画像から、1文字であることを含む文字列を認識する文字列認識部と、
前記第2の画像の中から、前記第1の画像に対し追加記録された画像である追加記録画像を抽出する追加記録画像抽出部と、
前記文字列認識部で認識された文字列の中から、前記第1の画像上の、前記追加記録画像に対応する文字列を特定する文字列特定部と
を備えたことを特徴とする画像処理装置。 An image acquisition unit configured to acquire first image data representing a first image and second image data representing a second image additionally recorded on the first image data;
A character string recognition unit for recognizing a character string including one character from the first image;
An additional recorded image extraction unit that extracts an additional recorded image that is an image additionally recorded with respect to the first image from the second image;
An image processing comprising: a character string specifying unit that specifies a character string corresponding to the additional recording image on the first image from the character strings recognized by the character string recognition unit. apparatus.
追加記録画像抽出部が、前記追加記録画像を構成する、個別の記録ごとの個別追加記録画像ごとに、前記第2の画像上の、該個別追加記録画像が記録されていた、1点もしくは複数点の座標で表現された領域であることを含む第2の領域を抽出し、
前記文字列特定部が、前記第2の領域に対し予め定められた第1の位置関係にある第1の領域に対応づけられている文字列を特定することを特徴とする請求項1に記載の画像処理装置。
In addition to recognizing the character string from the first image, the character string recognizing unit records one or more points on which the character string is recorded on the first image for each recognized character string. A first region including the region represented by the coordinates of
The additional recorded image extraction unit records the individual additional recorded image on the second image for each individual additional recorded image that constitutes the additional recorded image. Extracting a second region including the region represented by the coordinates of the point;
2. The character string specifying unit specifies a character string associated with a first area having a predetermined first positional relationship with respect to the second area. Image processing apparatus.
A plurality of characters in which the character string recognition unit recognizes each of the characters including a region represented by one or a plurality of coordinates in a predetermined second positional relationship. Are recognized as one character string, and the first image includes a region including the region represented by the coordinates of one point or a plurality of points on which the character string is recorded. The image processing apparatus according to claim 2, wherein the image processing apparatus is associated with the character string as an area of the image.
The character string specifying unit does not specify a character string corresponding to the second area when the first area is not in the first positional relationship with respect to the second area. The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
第1の画像を表わす第1の画像データと、該第1の画像データに追加記録がなされた第2の画像を表わす第2の画像データとを取得する画像取得部と、
前記第1の画像から、1文字であることを含む文字列を認識する文字列認識部と、
前記第2の画像の中から、前記第1の画像に対し追加記録された画像である追加記録画像を抽出する追加記録画像抽出部と、
前記文字列認識部で認識された文字列の中から、前記第1の画像上の、前記追加記録画像に対応する文字列を特定する文字列特定部と
を備えた画像処理装置として動作させることを特徴とする画像処理プログラム。 The information processing apparatus is executed in an information processing apparatus that executes a program.
An image acquisition unit configured to acquire first image data representing a first image and second image data representing a second image additionally recorded on the first image data;
A character string recognition unit for recognizing a character string including one character from the first image;
An additional recorded image extraction unit that extracts an additional recorded image that is an image additionally recorded with respect to the first image from the second image;
Operating as an image processing apparatus including a character string specifying unit that specifies a character string corresponding to the additional recording image on the first image from among character strings recognized by the character string recognition unit. An image processing program characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017017421A JP6907565B2 (en) | 2017-02-02 | 2017-02-02 | Image processing equipment and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017017421A JP6907565B2 (en) | 2017-02-02 | 2017-02-02 | Image processing equipment and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124854A true JP2018124854A (en) | 2018-08-09 |
JP6907565B2 JP6907565B2 (en) | 2021-07-21 |
Family
ID=63109614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017017421A Active JP6907565B2 (en) | 2017-02-02 | 2017-02-02 | Image processing equipment and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6907565B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020045039A1 (en) * | 2018-08-27 | 2020-03-05 | 京セラドキュメントソリューションズ株式会社 | Ocr system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1011531A (en) * | 1996-06-21 | 1998-01-16 | Mitsubishi Electric Corp | Slip reader |
JP2002207955A (en) * | 2001-01-05 | 2002-07-26 | Sharp Corp | Information input support system |
JP2008003740A (en) * | 2006-06-21 | 2008-01-10 | Fuji Xerox Co Ltd | Input correction method, postscript information processing method, postscript information processor, and program |
JP2013218364A (en) * | 2012-04-04 | 2013-10-24 | Canon Inc | Image processing system |
-
2017
- 2017-02-02 JP JP2017017421A patent/JP6907565B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1011531A (en) * | 1996-06-21 | 1998-01-16 | Mitsubishi Electric Corp | Slip reader |
JP2002207955A (en) * | 2001-01-05 | 2002-07-26 | Sharp Corp | Information input support system |
JP2008003740A (en) * | 2006-06-21 | 2008-01-10 | Fuji Xerox Co Ltd | Input correction method, postscript information processing method, postscript information processor, and program |
JP2013218364A (en) * | 2012-04-04 | 2013-10-24 | Canon Inc | Image processing system |
Non-Patent Citations (1)
Title |
---|
石谷 康人: "モデルマッチングによる表形式文書の理解", 電子情報通信学会技術研究報告, vol. 第94巻 第242号, JPN6021007667, 22 September 1994 (1994-09-22), JP, pages 57 - 64, ISSN: 0004458372 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020045039A1 (en) * | 2018-08-27 | 2020-03-05 | 京セラドキュメントソリューションズ株式会社 | Ocr system |
CN112639818A (en) * | 2018-08-27 | 2021-04-09 | 京瓷办公信息系统株式会社 | OCR system |
JPWO2020045039A1 (en) * | 2018-08-27 | 2021-08-12 | 京セラドキュメントソリューションズ株式会社 | OCR system |
JP7176566B2 (en) | 2018-08-27 | 2022-11-22 | 京セラドキュメントソリューションズ株式会社 | OCR system |
US11972197B2 (en) | 2018-08-27 | 2024-04-30 | Kyocera Document Solutions Inc. | OCR system |
CN112639818B (en) * | 2018-08-27 | 2024-06-04 | 京瓷办公信息系统株式会社 | OCR system |
Also Published As
Publication number | Publication date |
---|---|
JP6907565B2 (en) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9582728B2 (en) | System for determining alignment of a user-marked document and method thereof | |
US20070242882A1 (en) | Image processing apparatus for identifying the position of a process target within an image | |
JP5080432B2 (en) | Image processing apparatus and method, and program | |
US9626738B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US7764923B2 (en) | Material processing apparatus and method for grading material | |
US11670067B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
US20210075919A1 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
JP4655824B2 (en) | Image recognition apparatus, image recognition method, and image recognition program | |
US11941903B2 (en) | Image processing apparatus, image processing method, and non-transitory storage medium | |
JP6662023B2 (en) | Image processing apparatus and image processing program | |
US20150261735A1 (en) | Document processing system, document processing apparatus, and document processing method | |
JP6907565B2 (en) | Image processing equipment and image processing program | |
JP4807487B2 (en) | Teaching material processing apparatus, teaching material processing method, and teaching material processing program | |
JP2017174031A (en) | Image processing apparatus and image processing program | |
JP2004504650A (en) | Methods and systems for form recognition and digitized image processing | |
US20110134494A1 (en) | Image scanning apparatus, control method for image scanning apparatus, and storage medium | |
US20060188863A1 (en) | Material processing apparatus, material processing method, and material processing program product | |
JP2011003964A (en) | Document read image processor and program | |
JP4894184B2 (en) | Teaching material processing apparatus, teaching material processing method, and teaching material processing program | |
CN110909723A (en) | Information processing apparatus and storage medium | |
JP5988149B2 (en) | Item entry device, item entry system and program | |
JP2006234996A (en) | Device, method, and program for processing educational material | |
JP6888299B2 (en) | Image processing equipment and image processing program | |
JP7069821B2 (en) | Image processing equipment, image processing system, and image processing program | |
WO2022097408A1 (en) | Image processing device and image forming device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6907565 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |