JP2021093225A - Information processing device, program, and information processing method - Google Patents
Information processing device, program, and information processing method Download PDFInfo
- Publication number
- JP2021093225A JP2021093225A JP2021045907A JP2021045907A JP2021093225A JP 2021093225 A JP2021093225 A JP 2021093225A JP 2021045907 A JP2021045907 A JP 2021045907A JP 2021045907 A JP2021045907 A JP 2021045907A JP 2021093225 A JP2021093225 A JP 2021093225A
- Authority
- JP
- Japan
- Prior art keywords
- character
- information
- setting
- image
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、文字認識処理に関する。 The present invention relates to character recognition processing.
従来、紙文書をスキャンして得た文書画像に対する文字認識処理は、文書画像から文字のアウトライン(輪郭)を検出して、一文字ごとの文字画像の切り出しを行い、当該切り出した文字画像に対して、何の文字であるかを識別する文字認識処理を行っていた。また、文字の切り出し位置が誤っていると、正しい文字が認識されないため、ユーザの指示により文字の切り出し位置を修正する技術も提供されている。例えば、1つの文字画像を、複数の文字として切り出してしまった場合(例えば、1つの漢字を、偏と旁に分割して切り出してしまった場合)、それらを1つの文字として修正する技術がある。特許文献1では、ユーザが、文字の認識結果を修正すると、未修整の箇所から同様の誤認識を行っている箇所を検索して、同様の修正を適用する技術が開示されている。 Conventionally, the character recognition process for a document image obtained by scanning a paper document detects the outline (outline) of a character from the document image, cuts out the character image for each character, and obtains the cut out character image. , Character recognition processing was performed to identify what character it was. Further, since the correct character is not recognized if the character cutout position is incorrect, a technique for correcting the character cutout position according to the user's instruction is also provided. For example, if one character image is cut out as a plurality of characters (for example, if one kanji is cut out by dividing it into a bias and a right component), there is a technique for correcting them as one character. .. Patent Document 1 discloses a technique in which when a user corrects a character recognition result, a part in which the same erroneous recognition is performed is searched from an unmodified part and the same correction is applied.
また、近年、スマートフォンやデジタルカメラなどの普及により、文字情報を含む画像情報が手軽に取れるようになってきた。これによって、より多種多様な観測環境から、文字認識処理を行って文字情報を取り込む大きな市場が開けつつある。例えば、鉱山などの採石現場では、ダンプトラックに使用されているタイヤを管理するために、タイヤに刻印されたシリアルナンバーを用いるというユースケースがある。そこで、タイヤに刻印されたシリアルナンバーをスマートフォンやデジタルカメラなどで撮影し、撮影した画像に対して文字認識処理を行い、その文字認識結果のシリアルナンバーを用いて管理することが考えられる。しかしながら、タイヤに刻印されたシリアルナンバーなど、撮影画像において、文字と背景のコントラストが小さかったり、表面に汚れが多くありノイズが多かったりすると、従来技術のように、文字のアウトラインを正確に検出すること自体が困難である。 Further, in recent years, with the spread of smartphones and digital cameras, it has become possible to easily obtain image information including text information. This is opening up a large market for capturing character information by performing character recognition processing from a wider variety of observation environments. For example, at a quarry site such as a mine, there is a use case in which a serial number stamped on a tire is used to manage the tire used for a dump truck. Therefore, it is conceivable to take a picture of the serial number engraved on the tire with a smartphone, a digital camera, or the like, perform character recognition processing on the taken image, and manage using the serial number of the character recognition result. However, if the contrast between the characters and the background is small, or if the surface is dirty and noisy, such as the serial number engraved on the tire, the outline of the characters will be detected accurately as in the conventional technology. The thing itself is difficult.
文字のアウトラインを正確に検出できないような画像に対して、文字のアウトラインに基づいて文字を切り出す従来の技術を適用すると、文字の切り出し位置を誤る頻度が高くなってしまい、ユーザが認識結果を修正する負担も大きくなる。 If the conventional technique of cutting out characters based on the outline of characters is applied to an image in which the outline of characters cannot be detected accurately, the frequency of erroneous cutting out positions of characters increases, and the user corrects the recognition result. The burden of doing it also increases.
本発明は、文字のアウトラインを正確に検出するのが困難な画像に対して、文字認識処理を適用できるようにすることを目的とする。 An object of the present invention is to make it possible to apply character recognition processing to an image in which it is difficult to accurately detect the outline of characters.
上記課題を解決するために、本発明の情報処理装置は、認識対象画像に対して、探索領域を設定する第1の設定手段と、前記探索領域内の複数カ所に、切り出し領域を設定する第2の設定手段と、前記第2の設定手段によって設定された前記複数の切り出し領域それぞれに対応する画像を抽出し、当該抽出した各画像と辞書データとの比較を行うことにより、候補文字情報と当該候補文字に対応する切り出し領域の位置情報とを検出し、当該検出された候補文字情報の中から評価値の最も高い候補文字情報を認識結果として出力する文字検出手段と、を有し、前記第1の設定手段が、さらに、前記文字検出手段で出力された前記認識結果に対応する切り出し領域の位置情報に基づいて、次の文字に関する探索領域を設定することにより、前記第2の設定手段と前記文字検出手段とによる処理が繰り返し実行されることを特徴とする。 In order to solve the above problems, the information processing apparatus of the present invention has a first setting means for setting a search area for a recognition target image, and a first setting means for setting a cutout area at a plurality of places in the search area. By extracting the images corresponding to each of the setting means 2 and the plurality of cutout areas set by the second setting means and comparing each extracted image with the dictionary data, the candidate character information can be obtained. It has a character detecting means that detects the position information of the cutout area corresponding to the candidate character and outputs the candidate character information having the highest evaluation value from the detected candidate character information as a recognition result. The first setting means further sets a search area for the next character based on the position information of the cutout area corresponding to the recognition result output by the character detecting means, thereby causing the second setting means. It is characterized in that the processing by the character detecting means and the character detecting means is repeatedly executed.
文字のアウトラインを正確に検出するのが困難な画像に対して、文字があると推定される探索領域内で位置をずらしながら複数の領域を切り出し、当該切り出した複数の領域に基づいて文字認識処理を適用することで、文字認識処理の精度を向上できる。 For an image in which it is difficult to accurately detect the outline of characters, multiple areas are cut out while shifting the position in the search area where characters are presumed to be present, and character recognition processing is performed based on the cut out multiple areas. By applying, the accuracy of character recognition processing can be improved.
(実施例1)
本実施形態に係る情報処理装置の一例として、モバイル端末(携帯端末)を例に説明する。モバイル端末は、無線通信機能などを用いて外部と通信可能な端末である。
(Example 1)
As an example of the information processing device according to the present embodiment, a mobile terminal (mobile terminal) will be described as an example. A mobile terminal is a terminal capable of communicating with the outside by using a wireless communication function or the like.
図1は、モバイル端末100(モバイル端末の前面101と背面103)の外観と、被写体105となるタイヤを示す図である。モバイル端末前面部101には、タッチパネルディスプレイ102が備えられ、表示とタッチ操作入力との2つの機能を有する。モバイル端末背面部103には、被写体を撮影して画像を取り込むためのカメラユニット104が備えられる。本実施形態では、モバイル端末100のユーザは、モバイル端末のCPUにより動作するモバイルアプリ(詳細は後述)を利用して、被写体105を撮影し、文字認識処理を実行させることができる。被写体105は、タイヤの例である。タイヤのシリアルID(シリアルナンバーもしくはセリアルナンバーともいう)が記載されている部分を、モバイル端末のカメラユニットを用いて撮影することにより、撮影画像106を取得することができる。シリアルID107はタイヤに刻印されたシリアルナンバーを示しており、タイヤを一意に識別するためのIDである。
FIG. 1 is a diagram showing the appearance of the mobile terminal 100 (
なお、本実施形態では、被写体105としてタイヤを例にして説明するが、被写体はタイヤに限るものではない。後述のモバイルアプリは、被写体105の画像を取り込み、タッチパネル102にその画像を出力することができる。
In the present embodiment, the
図2は、モバイル端末100のハードウェアの構成の一例を示す図である。CPU(Central Processing Unit)201は、各種のプログラムを実行することによって様々な機能を実現する処理ユニットである。RAM(Random Access Memory)202は、各種の情報の記憶や、CPU201の一時的な作業記憶領域として利用されるユニットである。不揮発性メモリ(例えばROM)203は、各種のプログラムやデータ等を記憶するユニットである。CPU201は、不揮発性メモリ203に記憶されているプログラムをRAM202にロードしてプログラムを実行する。すなわち、モバイル端末のCPU(コンピュータ)は、該プログラムを実行することにより、図3で説明するような各処理部として機能し、後述するシーケンスの各ステップを実行する。なお、不揮発性メモリ203は、フラッシュメモリ、HDD(Hard Disk Drive)又はSSD(Solid State Disk)などであってもよい。なお、モバイル端末100の各機能ならびに後述するシーケンスに係る処理の全部又は一部については専用のハードウェアを用いて実現してもよい。Input/Outputインターフェース204は、タッチパネル102とデータを送受信する。NIC(Network Interface Card)205は、モバイル端末100をネットワーク(不図示)に接続するためのユニットである。カメラインターフェース206は、カメラユニット104と接続し、被写体105の画像をモバイル端末100に取り込む。上述したユニットは、バス207を介してデータの送受信を行うことができる。
FIG. 2 is a diagram showing an example of the hardware configuration of the
次に、モバイル端末100におけるソフトウェア構成について説明する。図3は、モバイル端末100のソフトウェア構成の一例を示す概念図である。モバイル端末のCPUは、モバイルアプリ(モバイル端末用のアプリケーションプログラム)302を実行することにより、各処理部(各処理モジュール)303〜308として機能する。また、モバイル端末100のOS(Operating System)(不図示)は、画像管理部301として機能する。
Next, the software configuration in the
画像管理部301は、画像やアプリケーションデータを管理する。OSは、データ管理部301を利用するための制御API(Application ProgrammingInterface)を提供している。各アプリケーションは、その制御APIを利用することでデータ管理部301に対し、画像やアプリケーションデータの取得処理や保存処理を行う。
The
モバイルアプリ302は、モバイル端末100のOSのインストール機能を利用して、ダウンロードしインストールすることにより実行可能なアプリケーションである。モバイルアプリ302は、カメラインターフェース206を介して取り込んだ被写体105の画像に対する各種のデータ処理を行う。
The
メイン制御部303は、後述する各モジュール部(303〜308)に対する指示及び管理を行う。
The
情報表示部304は、メイン制御部303からの指示に従い、図6〜8に示すようなモバイルアプリ302のユーザインタフェース(UI)をタッチパネルに表示するように制御する。
The
図6〜8は、モバイルアプリ302のUI(携帯端末用のUI)の画面(モバイル端末画面600)の一例を示す図である。モバイル端末画面600は、モバイル端末100のタッチパネル102に表示される。モバイル端末画面600は、領域601にカメラ104を用いて取り込んだ画像を表示し、また、画像やUI等に対するユーザによる操作(ユーザ操作)を受け付ける。シャッターボタン602は、カメラユニットから入力された画像を、RAM202やデータ管理部301に保存するためのボタンであり、以下では、保存された画像を撮影画像と呼ぶこととする。ズームボタン603は、表示画像の拡縮を行うためのボタンである。604〜607は、認識対象を撮影すべき位置の目安となるガイドである。ユーザは、認識対象のシリアルID107を4つのガイドによって囲まれる矩形の領域内に収まるように撮影位置を調整してタイヤを撮影する。608は、シリアルID107の文字認識結果を表示するための表示領域である。認識結果が誤っている場合、ユーザは、認識結果表示領域608の中の修正対象文字をタッチして、認識結果の修正を行う。図6の画面において、ユーザが認識結果表示領域608の修正対象の文字の部分をタッチすると、図7の画面のように、当該タッチされた文字に対する修正候補文字が候補文字領域701〜703に表示される。図7の画面で候補文字領域701〜703のいずれかがタッチされると、認識結果表示領域608の文字が、選択された候補文字に更新される(図8の画面は候補文字領域702がタッチされ修正した後の例を示す)。
6 to 8 are diagrams showing an example of a screen (mobile terminal screen 600) of the UI (UI for a mobile terminal) of the
なお、モバイルアプリ302のUIの形態(位置、大きさ、範囲、配置、表示内容など)は、図に示す形態に限定されるものではなく、モバイル端末100の機能を実現することができる適宜の構成を採用することができる。
The UI form (position, size, range, arrangement, display content, etc.) of the
再び図3に戻って各モジュールの説明を行う。操作情報取得部305は、モバイルアプリのUI上で為されたユーザ操作に関する情報を取得し、当該取得した情報をメイン制御部303に通知する。例えば、領域601をユーザが手で触れると、操作情報取得部305は、触れられた画面上の位置の情報を感知し、感知した位置の情報をメイン制御部303に送信する。
Each module will be described by returning to FIG. The operation
画像処理部306は、カメラモユニット206を介して取り込んだ被写体105の撮影画像に対して、グレイスケール変換やエッジ抽出、特徴量抽出といった文字認識を行うために必要な画像処理を行う。
The
文字認識部307は、画像処理部306で処理した画像から文字が記載されていると推定される領域を複数切り出し、各領域の画像を比較対象の文字画像情報(辞書データ)と比較して、最も類似する文字を判別する。
The
文字画像管理部308は、文字認識部307が文字の認識を行う際に、比較対象として使用する文字画像情報(いわゆる文字認識辞書の辞書データとして使用される情報)を管理する。図4は、文字認識部307が、画像から文字を認識する際に、比較対象として使用する文字画像情報の例である。文字画像情報は、認識対象のタイヤで使用されている文字の種類それぞれについて用意する。文字画像情報401〜410は、数字の画像の例であるが、本実施例の認識対象であるタイヤのシリアルID107は、数字に加えて大文字のアルファベットの文字画像(不図示)を含むものとする。
The character
なお、当該文字画像管理部で管理される文字画像情報(辞書データ)は、タイヤに刻印されている文字のフォントに基づいて作成された各文字の特徴を示す特徴情報であってもよいし、各文字の画像そのものであってもよい。どのような辞書データを用いるかは、認識対象の画像と辞書データとを照合する際に用いるアルゴリズムに応じたものとすればよい。 The character image information (dictionary data) managed by the character image management unit may be characteristic information indicating the characteristics of each character created based on the font of the characters engraved on the tire. It may be the image itself of each character. What kind of dictionary data is used may be determined according to the algorithm used when collating the image to be recognized with the dictionary data.
図5は、本実施例における文字認識処理について説明した図である。認識対象画像501は、カメラユニット104およびカメラインターフェース206を介して取り込んだ被写体105の画像の一部を切り出した画像である。図6で説明したように、ユーザは、モバイルアプリ302のUIに提示されたガイド(図6の604〜607)に、シリアルID107がちょうど納まるように撮影位置を調整してタイヤを撮影する。モバイルアプリ302は、撮影された画像から、ガイドで囲まれた部分の画像を切り出して、認識対象画像501とする。
FIG. 5 is a diagram illustrating the character recognition process in this embodiment. The
なお、タイヤのシリアルID107は、メーカーごとにフォーマットが決まっており、本実施例では、桁数は9桁で、数字と大文字のアルファベットで構成されるものとして説明する。
The format of the tire
タイヤに刻印されているシリアルIDなどを撮影した画像は、文字と背景のコントラストが小さかったり、タイヤ(被写体)の表面に汚れがあったりするので、文字のアウトラインを正確に検出することが困難な画像である。したがって、文字のアウトラインに基づいて文字を切り出す従来の技術を適用すると、文字の切り出し位置を誤る可能性が高く、その結果文字認識処理の精度が悪くなってしまう。そのため、本発明では、まず、文字が存在すると考えられる領域を探索領域として設定し、当該設定された探索領域内で、位置とサイズとを変えながら複数の切り出し領域を設定して複数の領域画像の切り出しを繰り返す。そして、切り出した複数の領域画像それぞれと辞書データ(文字画像管理部で管理される比較対象の文字画像情報)とを比較して、各領域画像に対する文字認識結果とその類似度とを求める。その後、それらの結果の中から最も類似度が高い文字認識結果とその文字認識結果を得るのに用いた切り出し領域とを、その探索領域における認識結果とする。そして、その認識結果の切り出し領域の位置をもとに、次の文字に対する探索領域を設定し、同様の処理を繰り返す。本実施例においては、認識対象画像501に含まれる9桁のシリアルID107を、1桁目(左端の文字)から順に認識していく。
It is difficult to accurately detect the outline of characters in an image of a serial ID stamped on a tire because the contrast between the characters and the background is small and the surface of the tire (subject) is dirty. It is an image. Therefore, if the conventional technique of cutting out a character based on the outline of the character is applied, there is a high possibility that the character cutting position is erroneous, and as a result, the accuracy of the character recognition process deteriorates. Therefore, in the present invention, first, a region in which characters are considered to exist is set as a search region, and within the set search region, a plurality of cutout regions are set while changing the position and size, and a plurality of region images Repeat the cutting out. Then, each of the cut out plurality of region images is compared with the dictionary data (character image information to be compared, which is managed by the character image management unit), and the character recognition result for each region image and its similarity are obtained. After that, the character recognition result having the highest degree of similarity among those results and the cutout area used to obtain the character recognition result are set as the recognition result in the search area. Then, based on the position of the cutout area of the recognition result, the search area for the next character is set, and the same process is repeated. In this embodiment, the 9-digit
1桁目の文字の探索領域502は、ガイド604〜607に基づいて切り出された認識対象画像501の左端から所定座標離れた位置に設定される。この最初の探索領域502の位置は、ガイドに収まるように撮影した場合に左端の文字が存在する可能性が高い領域として予め設定しておくものとする。そして、探索領域502内に切り出し領域505を設定して、その切り出し領域505の画像を抽出し、1桁目に出現する可能性のある文字に関する辞書データと比較して、辞書データに含まれる各文字との間の類似度を評価する。また、切り出し領域505は、探索領域502内で水平方向(x軸方向)と垂直方向(y軸方向)のそれぞれをずらした複数の位置に設定され、それぞれの位置の切り出し領域の画像について辞書データと比較して類似度を評価する。すなわち、探索領域502全体を網羅するように所定サイズの切り出し領域を複数カ所に設定して、それぞれの位置の切り出し領域の画像について辞書データとの比較を行う。その後、さらに、切り出し領域505の幅と高さを変更して、再度、探索領域502全体を網羅するように複数カ所に切り出し領域を設定して画像データを抽出して辞書データとの比較を行う。例えば、切り出し領域505の幅を3パターン、高さを2パターン変更する場合、切り出し領域505のサイズは、全部で3×2=6パターンとなる。また、切り出し領域505を、水平方向に4回、垂直方向に4回スライドさせた位置それぞれに設定した場合、探索領域502に対して、切り出し領域505を(4+1)×(4+1)=25カ所に設定することになる。切り出し領域のサイズ変更が6パターンで、設定する位置が25カ所であるので、トータルで6×25=150回、探索領域502から切り出し領域の画像を切り出すことになる。そして、画像を切り出すたびに、1桁目に出現する可能性のある文字の辞書データ(比較対象の文字画像情報)と比較し、それぞれの文字に対する類似度を評価する。
The
すべての切り出し領域の画像を評価した結果のうち、最も類似度が高かった文字を1桁目の認識結果として確定するとともに、その最も類似度が高かったときの切り出し領域の位置を1桁目の文字の位置とする。504は、類似度が最も高かった「B」が1桁目の文字の認識結果として確定され、そのときの切り出し位置を示すものである。 Of the results of evaluating the images of all the cutout areas, the character with the highest similarity is determined as the recognition result of the first digit, and the position of the cutout area when the similarity is the highest is the first digit. The position of the character. In 504, "B" having the highest degree of similarity is determined as the recognition result of the first digit character, and indicates the cutout position at that time.
その後、次の隣接する文字(左から2番目の文字)の探索領域503を設定する。探索領域503は、1桁目の認識結果の位置504からの相対位置で設定される。2桁目の文字についても、1桁目の場合と同様に、探索領域503内で複数の切り出し領域506を設定してそれぞれについて評価を行い、最も類似度の高い文字を決定していく。3桁目以降も、同様に、探索領域の設定と、切り出し領域の設定と、辞書データとの類似比較とを順次行って、認識結果の文字を確定させていく。
After that, the
なお、撮影時に左右にずれて撮影されることも考慮し、1桁目の文字に対する探索領域502はやや広めにとるのが望ましい。一方、文字間のスペースは被写体の文字列に応じて予め決まっているので、2桁目以降の文字に対する探索領域503は、探索領域502より狭めに設定してもよい。
It is desirable to make the
図10は、文字画像管理部308で管理する文字画像情報(辞書データ)のデータ構造の一例である。文字画像情報リストは、複数の文字画像情報を含む。文字画像情報(文字認識辞書の辞書データ)は、各文字の文字情報(キャラクターコード)と、各文字の文字画像から抽出した特徴情報を含む。各文字の特徴情報は、例えば、HOG(Histograms of Oriented Gradients)特徴量を使用すればよいが、その他の特徴量であっても構わない。
FIG. 10 is an example of a data structure of character image information (dictionary data) managed by the character
図11は、文字認識部307により実行された文字認識処理の結果情報のデータ構造の一例である。認識結果情報は、複数の認識結果文字情報を含む。認識結果文字情報は、文字単位の認識結果に対応し、1つの認識結果文字情報に対して複数の候補文字情報を含む。本実施例のシリアルID107は9桁なので、認識結果情報は各桁に対応する9つの認識結果文字情報を含む。また、各候補文字情報は、矩形情報(各候補文字に対応する切り出し領域の位置とサイズ)と、文字情報(キャラクターコード)と、評価値とを含む。評価値は、図10の文字画像情報の特徴情報と、切り出し領域で切り出した画像から抽出した特徴情報とを比較した結果の相関係数(類似度)である。
FIG. 11 is an example of a data structure of result information of the character recognition process executed by the
図12は、モバイルアプリ302の文字認識部307が、タイヤを撮影した後に実行する文字認識処理の詳細を示すフローチャートである。
FIG. 12 is a flowchart showing details of the character recognition process executed by the
ステップS1201で、文字認識部307は、ガイドに基づいて撮影画像から切り出された認識対象画像501に対して、1桁目の文字の探索領域(図5の502)を設定する。
In step S1201, the
ステップS1202で、文字認識部307は、探索領域の画像を切り出す。
In step S1202, the
ステップS1203で、文字認識部307は、切り出した探索領域の画像に対して、切り出し領域の設定と、辞書データとの類似比較とを順次行って、切り出し領域の位置とそれぞれの位置における候補文字とを検出する(文字検出処理)。なお、ステップS1203の処理の詳細は、図14を用いて後述する。
In step S1203, the
ステップS1204で、最後の桁(9桁目)の文字かどうかを判断し、最後の桁の文字と判断した場合は、ステップS1207に進む。最後の桁の文字でないと判断した場合、ステップS1205に進む。 In step S1204, it is determined whether or not the character is the last digit (9th digit), and if it is determined to be the character of the last digit, the process proceeds to step S1207. If it is determined that the character is not the last digit, the process proceeds to step S1205.
テップS1205で、文字認識部307は、図11で示した認識結果文字情報から、評価値(類似度)の最も高い候補文字情報を検索し、矩形情報(その候補文字情報に対応する切り出し領域の位置情報)を取得する。
In TEP S1205, the
ステップS1206で、ステップS1205で取得した矩形情報に基づいて、次の桁の探索領域を設定し、ステップS1202に進む。 In step S1206, a search area for the next digit is set based on the rectangular information acquired in step S1205, and the process proceeds to step S1202.
ステップS1207で、文字認識部307は、情報表示部304を介して、認識結果を画面の認識結果表示領域608に表示して終了する。
In step S1207, the
図13は、図6〜8で説明したようにユーザの指示により文字認識結果を修正した後に、モバイルアプリ302で実行される処理のフローチャートである。
FIG. 13 is a flowchart of processing executed by the
ステップS1301で、文字認識部307は、当該修正された文字の次の桁から最後の桁までの各文字の評価値(候補文字情報の中で最も高い評価値)の和を算出する。
In step S1301, the
ステップS1302で、文字認識部307は、修正対象の文字に対応する認識結果文字情報の中から、修正後の文字と文字情報(キャラクターコード)が一致する候補文字情報を検索する。
In step S1302, the
ステップS1303で、文字認識部307は、S1302で検索された候補文字情報に含まれる矩形情報を取得する。
In step S1303, the
ステップS1304で、文字認識部307は、S1303で取得した矩形情報(修正後の文字に対応する切り出し領域の位置情報)に基づいて、次の桁の探索領域を再設定する。
In step S1304, the
ステップS1305で、文字認識部307は、探索領域の画像を切り出す。
In step S1305, the
ステップS1306で、文字認識部307は、切り出した探索領域の画像に対して、切り出し領域の設定と、辞書データとの類似比較とを順次行って、切り出し領域の位置とそれぞれの位置における候補文字とを検出する(文字検出処理)。ステップS1306の処理の詳細は、S1203の処理と同様であり、図14を用いて後述する。
In step S1306, the
ステップS1307で、文字認識部307は、最後の桁(9桁目)の文字かどうかを判断し、最後の桁の文字と判断した場合は、ステップS1310に進み、最後の桁の文字でないと判断した場合、ステップS1308に進む。
In step S1307, the
ステップS1308で、文字認識部307は、認識結果文字情報から、評価値の最も高い候補文字情報を検索し、矩形情報を取得する。ステップS1309で、ステップS1308で取得した矩形情報から、次の桁の探索領域を設定し、ステップS1305に進む。
In step S1308, the
以上のように、S1304で再設定された探索領域に基づきS1305〜S1309の処理が再実行されるので、当該修正された文字の次の桁以降の認識結果は、図12での結果と異なる可能性がある。 As described above, since the processing of S1305 to S1309 is re-executed based on the search area reset in S1304, the recognition result after the next digit of the corrected character may be different from the result in FIG. There is sex.
ステップS1310で、文字認識部307は、S1305〜S1309の処理の結果に基づいて、修正された文字の次の桁から最後の桁までの各文字の評価値(候補文字情報の中で最も高い評価値)の和を算出する。
In step S1310, the
ステップS1311で、文字認識部307は、ステップS1310で算出した(修正後に認識処理S1305〜S1309を実行した後の)評価値の和が、ステップS1301で算出した(修正前の)評価値の和より高いか判定する。ステップS1311において、ステップS1310で算出した評価値の和の方が高いと判定した場合、ステップS1312に進む。一方、ステップS1310で算出した評価値の和の方が高くないと判定した場合はそのまま終了する。
In step S1311, the
ステップS1312で、文字認識部307は、画面の認識結果表示領域608において、当該修正された文字の次の桁から最後の桁までの認識結果を、S1305〜S1309の処理で得た候補文字を用いて更新する。
In step S1312, the
図14は、図12のステップS1203、および、図13のステップS1306の文字検出処理の詳細を示すフローチャートである。特に、切り出し領域のサイズを変えながら、探索領域内の複数の位置に切り出し領域を設定して認識処理を行う処理の詳細を示すものである。 FIG. 14 is a flowchart showing details of the character detection process of step S1203 of FIG. 12 and step S1306 of FIG. In particular, it shows the details of the process of setting the cutout area at a plurality of positions in the search area and performing the recognition process while changing the size of the cutout area.
ステップSS1401で、文字認識部307は、切り出し領域(図5の505、506)の幅を、最小値に設定し、ステップS1402に進む。
In step SS1401, the
ステップS1402で、切り出し領域の幅が所定の最大値を超えたかどうかを判断する。切り出し領域の幅が最大値を超えたと判断された場合は終了する。切り出し領域の幅が最大値を超えていないと判断された場合は、ステップSS1403で、切り出し領域の高さを、最小値に設定し、ステップS1404に進む。 In step S1402, it is determined whether or not the width of the cutout region exceeds a predetermined maximum value. If it is determined that the width of the cutout area exceeds the maximum value, the process ends. If it is determined that the width of the cutout area does not exceed the maximum value, the height of the cutout area is set to the minimum value in step SS1403, and the process proceeds to step S1404.
ステップS1404で、切り出し領域の高さが所定の最大値を超えたかどうかを判断する。切り出し領域の高さが最大値を超えたと判断された場合は、ステップS1413で、切り出し領域の幅を所定量大きくして、ステップS1402に進む。ステップS1404で、切り出し領域の高さが最大値を超えていないと判断された場合は、ステップSS1405に進む。 In step S1404, it is determined whether or not the height of the cutout region exceeds a predetermined maximum value. If it is determined that the height of the cutout region exceeds the maximum value, the width of the cutout region is increased by a predetermined amount in step S1413, and the process proceeds to step S1402. If it is determined in step S1404 that the height of the cutout region does not exceed the maximum value, the process proceeds to step SS1405.
ステップS1405で、文字認識部307は、切り出し領域の左端のx座標を、初期値(探索領域の左端のx座標)に設定し、ステップS1406に進む。ステップS1406で、切り出し領域の右端のx座標が、探索領域の右端のx座標を超えたかどうかを判断する。切り出し領域の右端のx座標が、探索領域の右端のx座標を超えたと判断された場合は、ステップS1412で、切り出し領域の高さを所定量大きくして、ステップS1404に進む。ステップS1406で、切り出し領域の右端のx座標が、探索領域の右端のx座標を超えていないと判断された場合は、ステップSS1407で、切り出し領域の上端のy座標を、初期値(探索領域の上端のy座標)に設定し、ステップS1408に進む。
In step S1405, the
ステップS1408で、切り出し領域の下端のy座標が、探索領域の下端のy座標を超えたかどうかを判断する。切り出し領域の下端のy座標が、探索領域の下端のy座標を超えたと判断された場合は、ステップS1411で、切り出し領域をx軸方向にスライド(x座標を大きく)して、ステップS1406に進む。ステップS1408で、切り出し領域の下端のy座標が、探索領域の下端のy座標を超えていないと判断された場合は、ステップS1409で当該切り出し領域の画像に対して文字画像情報(辞書データ)との比較処理(文字認識処理)を行う。ステップS1409の処理の詳細は図15で説明する。ステップS1410で、切り出し領域をy軸方向にスライド(y座標を大きく)して、ステップS1408に進む。 In step S1408, it is determined whether or not the y-coordinate of the lower end of the cutout area exceeds the y-coordinate of the lower end of the search area. If it is determined that the y-coordinate of the lower end of the cut-out area exceeds the y-coordinate of the lower end of the search area, the cut-out area is slid in the x-axis direction (the x-coordinate is increased) in step S1411, and the process proceeds to step S1406. .. If it is determined in step S1408 that the y-coordinate of the lower end of the cut-out area does not exceed the y-coordinate of the lower end of the search area, the character image information (dictionary data) is added to the image of the cut-out area in step S1409. Comparison processing (character recognition processing) is performed. Details of the process in step S1409 will be described with reference to FIG. In step S1410, the cutout region is slid in the y-axis direction (y-coordinate is increased), and the process proceeds to step S1408.
図15は、図14のステップS1409の文字認識の処理の詳細なフローチャートである。 FIG. 15 is a detailed flowchart of the character recognition process in step S1409 of FIG.
ステップS1501で、文字認識部307は、切り出し領域(図5の505、506)の画像を切り出し、ステップS1502で、画像処理部306は、当該切り出した画像から特徴情報(HOG特徴量)を抽出する。
In step S1501, the
ステップS1503で、文字認識部307は、図10で示した文字画像情報リストの先頭の文字画像情報(辞書データ)を取得する。ステップS1504で、当該取得した文字画像情報に含まれる特徴情報と、ステップS1502で抽出した特徴情報とを比較して、相関係数(類似度)を評価値として求める。
In step S1503, the
ステップS1505で、文字認識部307は、図11で示した候補文字情報を作成し、ステップS1504の比較結果の相関係数を評価値として設定する。このとき、候補文字情報の文字情報(キャラクターコード)には、文字画像情報の文字情報、矩形情報には、切り出し領域の位置とサイズを設定する。
In step S1505, the
ステップS1506で、文字認識部307は、処理中の桁の文字に関して、(図11で示した)認識結果文字情報の候補文字情報を検索し、ステップS1505で作成した候補文字情報と、文字情報が一致する候補文字情報がすでに存在するかどうかを判断する。ステップS1506で、文字情報が一致する候補文字情報が存在しないと判断された場合は、ステップS1509に進む。文字情報が一致する候補文字情報がすでに存在すると判断された場合は、ステップS1507に進む。
In step S1506, the
ステップS1507で、文字認識部307は、ステップS1505で作成した候補文字情報の評価値の方が、既に存在する候補文字情報の評価値より高いかどうかを判断する。ステップS1505で作成した候補文字情報の方が高いと判断されなかった場合は、ステップS1510に進む。ステップS1505で作成した候補文字情報の方が高いと判断された場合は、ステップS1508に進み、認識結果文字情報内に既に存在する候補文字情報を削除する。そして、ステップS1509で、ステップS1505で作成した候補文字情報を、認識結果文字情報に格納し、ステップS1510へ進む。
In step S1507, the
ステップS1510で、文字画像情報リストの最後かどうかを判断し、最後でないと判断された場合は、ステップS1511で、文字画像情報リストの次の文字画像情報を取得する。ステップS1510で、文字画像情報リストの最後と判断された場合は終了する。 In step S1510, it is determined whether or not it is the last of the character image information list, and if it is determined that it is not the last, in step S1511, the next character image information of the character image information list is acquired. If it is determined in step S1510 that the end of the character image information list is reached, the process ends.
図9は、本実施例の文字認識結果に対して修正処理を行った後、切り出し領域が再設定される様子の例を示した図である。 FIG. 9 is a diagram showing an example in which the cutout area is reset after the character recognition result of this embodiment is corrected.
901は、撮影したタイヤのシリアルID107の画像である。この画像に対して図12の処理を実行することにより、最初の文字認識結果として図6の608に示したような結果が得られたものとする。この最初の文字認識結果902に対応する切り出し領域の位置は、903の位置であったとする。その後、図7を用いて説明したように、左から3番目の文字がユーザの指示により修正されると、当該修正後の文字に対応する矩形領域が検索され、当該修正された文字以降の桁に対して探索領域の再設定と切り出し領域の設定と認識処理とが再実行される。904、905は、それぞれ、図13で説明した処理を実行した結果の文字認識結果とその切り出し領域とを示している。最初の切り出し領域903は、3桁目の文字の切り出し領域を誤って判定した結果、4桁目以降の切り出し領域も不正になったため、文字認識結果も誤っている。そして、ユーザが3桁目の修正を行うと、図13の処理が実行され、その結果、修正後の切り出し領域905では4桁目以降も修正される。
901 is an image of the
以上述べたように、ユーザが認識結果を修正すると、当該修正された文字以降の文字について、探索領域の再設定と、当該再設定された探索領域内での切り出し領域の設定とを再度実行して、認識結果の修正を行う。したがって、1つの文字の誤認識に伴って生じていたそれ以降の文字の誤認識についても、当該1つの文字が修正されるとそれ以降の文字の誤認識についても修正されることになる。よって、ユーザが認識結果の誤りを修正する負担を軽減することができる。また、修正した文字に続くすべての文字の修正前の評価値と、修正後の評価値とを比較して、修正後の評価値が高かった場合に修正後の認識結果を画面に反映するため、修正前の認識結果より悪い認識結果で、画面を更新することを防ぐようにもしている。 As described above, when the user corrects the recognition result, the search area is reset and the cutout area is set in the reset search area again for the characters after the corrected character. Then, the recognition result is corrected. Therefore, the misrecognition of the subsequent characters caused by the misrecognition of one character is also corrected, and the misrecognition of the subsequent characters is also corrected when the one character is corrected. Therefore, it is possible to reduce the burden on the user to correct the error in the recognition result. In addition, in order to compare the evaluation value before correction and the evaluation value after correction of all characters following the corrected character, and to reflect the recognition result after correction on the screen when the evaluation value after correction is high. , It also prevents the screen from being updated with a recognition result that is worse than the recognition result before correction.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述した解題を解決するために、本発明の情報処理装置は、探索領域内の所定の位置に設けた第1の切り出し領域と、当該所定の位置とは異なる位置に設けた切り出し領域であって前記第一の切り出し領域とサイズの異なる第二の切り出し領域と、を含む複数の切り出し領域を前記探索領域内に設定する第一の設定手段と、前記第一の設定手段によって設定された前記複数の切り出し領域それぞれに対応する画像を抽出し、当該抽出した各画像と辞書データとの比較を行うことにより各画像の候補文字情報を取得し、当該取得した各画像の候補文字情報の中から評価値の最も高い候補文字情報を、認識結果として出力する文字検出手段と、を有することを特徴とする。 In order to solve the above-mentioned problem, the information processing apparatus of the present invention includes a first cutout area provided at a predetermined position in the search area and a cutout area provided at a position different from the predetermined position. A first setting means for setting a plurality of cutout areas including a first cutout area and a second cutout area having a size different from the first cutout area in the search area, and the plurality of pieces set by the first setting means. Image corresponding to each of the cutout areas of is extracted, candidate character information of each image is acquired by comparing each extracted image with dictionary data, and evaluation is performed from the candidate character information of each acquired image. It is characterized by having a character detecting means for outputting the candidate character information having the highest value as a recognition result.
Claims (5)
前記探索領域内の複数カ所に、切り出し領域を設定する第2の設定手段と、
前記第2の設定手段によって設定された前記複数の切り出し領域それぞれに対応する画像を抽出し、当該抽出した各画像と辞書データとの比較を行うことにより、候補文字情報と当該候補文字に対応する切り出し領域の位置情報とを検出し、当該検出された候補文字情報の中から評価値の最も高い候補文字情報を認識結果として出力する文字検出手段と、を有し、
前記第1の設定手段が、さらに、前記文字検出手段で出力された前記認識結果に対応する切り出し領域の位置情報に基づいて、次の文字に関する探索領域を設定することにより、前記第2の設定手段と前記文字検出手段とによる処理が繰り返し実行されることを特徴とする情報処理装置。 The first setting means for setting the search area for the image to be recognized, and
A second setting means for setting a cutout area at a plurality of places in the search area, and
By extracting an image corresponding to each of the plurality of cutout regions set by the second setting means and comparing each extracted image with dictionary data, the candidate character information and the candidate character are supported. It has a character detecting means that detects the position information of the cutout area and outputs the candidate character information having the highest evaluation value from the detected candidate character information as a recognition result.
The first setting means further sets a search area for the next character based on the position information of the cutout area corresponding to the recognition result output by the character detecting means, thereby setting the second setting. An information processing device characterized in that processing by the means and the character detecting means is repeatedly executed.
ユーザの指示に基づいて、前記表示手段で表示された認識結果の修正を実行する修正手段と、
前記修正手段での修正後の文字に対応する切り出し領域の位置情報を取得する取得手段と、
を更に有し、
前記取得手段で取得された位置情報に基づいて、前記第1の設定手段が、当該修正後の文字の次の文字に対する探索領域を再設定することにより、当該再設定された探索領域に基づいて、前記第2の設定手段と前記文字検出手段とによる処理が実行される
ことを特徴とする請求項1に記載の情報処理装置。 A display means for displaying the recognition result output by the character detection means, and a display means for displaying the recognition result.
Based on the user's instruction, the correction means for executing the correction of the recognition result displayed by the display means, and the correction means.
An acquisition means for acquiring the position information of the cutout area corresponding to the character after the correction by the correction means, and
With more
Based on the position information acquired by the acquisition means, the first setting means resets the search area for the next character of the modified character, based on the reset search area. The information processing apparatus according to claim 1, wherein the processing by the second setting means and the character detecting means is executed.
前記探索領域内の複数カ所に、切り出し領域を設定する第2の設定ステップと、
前記第2の設定ステップで設定された前記複数の切り出し領域それぞれに対応する画像を抽出し、当該抽出した各画像と辞書データとの比較を行うことにより、候補文字情報と当該候補文字に対応する切り出し領域の位置情報とを検出し、当該検出された候補文字情報の中から評価値の最も高い候補文字情報を認識結果として出力する文字検出ステップと、を有し、
前記第1の設定ステップで、さらに、前記文字検出手段で出力された前記認識結果に対応する切り出し領域の位置情報に基づいて、次の文字に関する探索領域を設定することにより、前記第2の設定ステップと前記文字検出ステップとにおける処理が繰り返し実行されることを特徴とする情報処理方法。 The first setting step of setting the search area for the image to be recognized, and
A second setting step for setting a cutout area at a plurality of locations in the search area, and
By extracting the images corresponding to each of the plurality of cutout regions set in the second setting step and comparing each extracted image with the dictionary data, the candidate character information and the candidate character are supported. It has a character detection step that detects the position information of the cutout area and outputs the candidate character information having the highest evaluation value from the detected candidate character information as a recognition result.
In the first setting step, the second setting is further performed by setting a search area for the next character based on the position information of the cutout area corresponding to the recognition result output by the character detecting means. An information processing method characterized in that the processes in the step and the character detection step are repeatedly executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021045907A JP2021093225A (en) | 2021-03-19 | 2021-03-19 | Information processing device, program, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021045907A JP2021093225A (en) | 2021-03-19 | 2021-03-19 | Information processing device, program, and information processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016045469A Division JP2017162148A (en) | 2016-03-09 | 2016-03-09 | Information processing device, program, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021093225A true JP2021093225A (en) | 2021-06-17 |
Family
ID=76312616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021045907A Pending JP2021093225A (en) | 2021-03-19 | 2021-03-19 | Information processing device, program, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021093225A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101224A (en) * | 1991-10-04 | 1993-04-23 | Nippon Steel Corp | Character reading method |
JPH0830731A (en) * | 1994-07-15 | 1996-02-02 | Daikin Ind Ltd | Method and device for character string confirmation |
JPH08153164A (en) * | 1994-09-29 | 1996-06-11 | Nippon Steel Corp | Method and device for handwritten character recognition |
JPH10207980A (en) * | 1997-01-21 | 1998-08-07 | Toshiba Corp | Method and device for character recognition |
JP2014164529A (en) * | 2013-02-25 | 2014-09-08 | Mitsubishi Heavy Ind Ltd | Character recognition device, character recognition method, and program |
JP2016031574A (en) * | 2014-07-28 | 2016-03-07 | 日立オムロンターミナルソリューションズ株式会社 | Paper sheet identification device, paper sheet handling device and paper sheet identification method |
-
2021
- 2021-03-19 JP JP2021045907A patent/JP2021093225A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101224A (en) * | 1991-10-04 | 1993-04-23 | Nippon Steel Corp | Character reading method |
JPH0830731A (en) * | 1994-07-15 | 1996-02-02 | Daikin Ind Ltd | Method and device for character string confirmation |
JPH08153164A (en) * | 1994-09-29 | 1996-06-11 | Nippon Steel Corp | Method and device for handwritten character recognition |
JPH10207980A (en) * | 1997-01-21 | 1998-08-07 | Toshiba Corp | Method and device for character recognition |
JP2014164529A (en) * | 2013-02-25 | 2014-09-08 | Mitsubishi Heavy Ind Ltd | Character recognition device, character recognition method, and program |
JP2016031574A (en) * | 2014-07-28 | 2016-03-07 | 日立オムロンターミナルソリューションズ株式会社 | Paper sheet identification device, paper sheet handling device and paper sheet identification method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7102103B2 (en) | Portable information processing equipment and methods and programs using the information processing equipment | |
US10803367B2 (en) | Method and apparatus for recognizing characters | |
US9734591B2 (en) | Image data processing method and electronic device supporting the same | |
US11113556B2 (en) | Information processing apparatus, program, and method that display correction candidate character for selected character based on found character string from master data | |
JP2018088116A (en) | Information processing device, program and information processing method | |
EP3518522B1 (en) | Image capturing method and device | |
US10586099B2 (en) | Information processing apparatus for tracking processing | |
US10643095B2 (en) | Information processing apparatus, program, and information processing method | |
WO2016006090A1 (en) | Electronic apparatus, method, and program | |
JP2017162148A (en) | Information processing device, program, and information processing method | |
US10452943B2 (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
JP6669390B2 (en) | Information processing apparatus, information processing method, and program | |
US10872263B2 (en) | Information processing apparatus, information processing method and storage medium | |
JP2021093225A (en) | Information processing device, program, and information processing method | |
US20190147238A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2018180746A (en) | Information processing apparatus | |
JP2021064236A (en) | Information processing apparatus, information processing method, and program | |
JP2017120455A (en) | Information processing device, program and control method | |
JP6833324B2 (en) | Information processing equipment, programs and information processing methods | |
JP2020149184A (en) | Information processor and control method thereof and program | |
JP2018180606A (en) | Image processing apparatus, image processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210413 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220927 |