JP2016035670A - Information processor, blurring level calculation method and program - Google Patents

Information processor, blurring level calculation method and program Download PDF

Info

Publication number
JP2016035670A
JP2016035670A JP2014158391A JP2014158391A JP2016035670A JP 2016035670 A JP2016035670 A JP 2016035670A JP 2014158391 A JP2014158391 A JP 2014158391A JP 2014158391 A JP2014158391 A JP 2014158391A JP 2016035670 A JP2016035670 A JP 2016035670A
Authority
JP
Japan
Prior art keywords
blur
image
line width
index
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014158391A
Other languages
Japanese (ja)
Other versions
JP6390248B2 (en
Inventor
悠介 野中
Yusuke Nonaka
悠介 野中
亜希子 楠本
Akiko Kusumoto
亜希子 楠本
馬場 孝之
Takayuki Baba
孝之 馬場
上原 祐介
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014158391A priority Critical patent/JP6390248B2/en
Publication of JP2016035670A publication Critical patent/JP2016035670A/en
Application granted granted Critical
Publication of JP6390248B2 publication Critical patent/JP6390248B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve determination accuracy of blurring level.SOLUTION: There is provided an information processor 10 which includes: a storage section 11 that stores a piece of related information which represents a relation between a blurring index as an index of blurring level of image and the blurring level according to the width of a line in a character included in an image; and a calculation unit 12 that calculates a line width and a blurring index using an image and makes a reference to the relation information stored in the storage section 11 to identify the blurring level corresponding to the line width and the blurring index. The information processor 10 determines the blurring level with a high accuracy even when a line of a character is deformed etc.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、ぼけ具合計算方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, a blur condition calculation method, and a program.

近年、様々な場面で入力画像から文字を自動認識する文字認識技術が利用されている。例えば、カメラで撮像したランドマークの画像から文字を認識し、認識した文字に応じて情報を提供する情報提供システムなどに文字認識技術が利用されている。文字認識の方法としては、例えば、設定した文字を表す辞書画像と入力画像とを画素単位で比較して類似度を計算し、最も類似度が高い辞書画像を認識結果とする方法がある。   In recent years, character recognition technology that automatically recognizes characters from input images in various scenes has been used. For example, a character recognition technique is used in an information providing system that recognizes characters from landmark images captured by a camera and provides information according to the recognized characters. As a character recognition method, for example, there is a method in which a dictionary image representing a set character and an input image are compared in pixel units to calculate a similarity, and a dictionary image with the highest similarity is used as a recognition result.

上記の方法を適用する場合、入力画像がぼけていると、辞書画像と入力画像との差分が大きくなり文字認識の精度が低下する。例えば、サイズが小さい文字や、漢字などの複雑な形状を有する文字は入力画像のぼけによる影響を受けやすい。こうした事情を受け、同じ文字についてぼけ具合の異なる複数の辞書画像を用意し、入力画像と各辞書画像とを比較して類似度の高い辞書画像を抽出する方法が提案されている。この方法を適用すれば、同じようにぼけた画像同士が比較されるため、文字認識の精度が向上する可能性がある。   When the above method is applied, if the input image is blurred, the difference between the dictionary image and the input image becomes large, and the accuracy of character recognition decreases. For example, small characters and characters having complicated shapes such as kanji are easily affected by blurring of the input image. Under such circumstances, a method has been proposed in which a plurality of dictionary images having different degrees of blur are prepared for the same character, and a dictionary image having a high degree of similarity is extracted by comparing the input image with each dictionary image. When this method is applied, images that are blurred in the same manner are compared with each other, which may improve the accuracy of character recognition.

但し、文字毎に用意した複数の辞書画像の全てと入力画像とをそれぞれ比較すると比較処理にかかる演算量が増し、文字認識にかかる処理時間が増大する。逆に、入力画像とぼけ具合が近い辞書画像を対象に比較処理を実行すれば処理時間の短縮が期待できる。   However, when all of the plurality of dictionary images prepared for each character are compared with the input image, the amount of calculation for the comparison process increases, and the processing time for character recognition increases. On the contrary, if the comparison process is executed on a dictionary image whose degree of blur is close to that of the input image, the processing time can be shortened.

なお、認識対象となる文字の劣化度合いを特定し、特定した劣化度合いに応じて文字認識の方式を選択する方法が提案されている。この方法は、入力パターンから劣化指数を求め、劣化指数に合わせた辞書を選択するものである。また、劣化度合いが大きい場合に濃度特徴を利用して文字認識を行い、劣化度合いが小さい場合には方向特徴を利用して文字認識を行う方法が提案されている。   A method has been proposed in which the degree of deterioration of a character to be recognized is specified and a character recognition method is selected according to the specified degree of deterioration. In this method, a deterioration index is obtained from an input pattern, and a dictionary matching the deterioration index is selected. Further, a method has been proposed in which character recognition is performed using density features when the degree of deterioration is large, and character recognition is performed using direction features when the degree of deterioration is small.

特開2007−304899号公報JP 2007-304899 A 特開平11−175662号公報JP-A-11-175562 特開2007−026027号公報JP 2007-026027 A

入力画像のぼけ具合に近い辞書画像を利用して上記の比較処理を実行する場合、入力画像と辞書画像とのぼけ具合にずれが生じると文字認識の精度が低下する。ぼけ具合は、例えば、文字のエッジ部分における輝度勾配やエッジ幅に基づいて計算される。ぼけた画像に含まれる文字の細部には潰れなどが生じることがある。潰れなどが生じると、輝度勾配やエッジ幅の検出に誤りが生じる可能性がある。輝度勾配やエッジ幅の検出に誤りが生じると、ぼけ具合の判断精度が低下し、文字認識の精度が低下する要因となりうる。   When the above comparison process is performed using a dictionary image that is close to the degree of blurring of the input image, the accuracy of character recognition decreases if a shift occurs in the degree of blurring between the input image and the dictionary image. The degree of blur is calculated based on, for example, the luminance gradient and the edge width at the edge portion of the character. The details of characters included in a blurred image may be crushed. When collapse or the like occurs, there is a possibility that an error occurs in the detection of the luminance gradient or the edge width. If an error occurs in the detection of the brightness gradient or the edge width, the accuracy of determining the degree of blurring may be reduced, and the accuracy of character recognition may be reduced.

そこで、1つの側面によれば、本発明の目的は、ぼけ具合の判断精度を高めることが可能な情報処理装置、ぼけ具合計算方法、及びプログラムを提供することにある。   Therefore, according to one aspect, an object of the present invention is to provide an information processing apparatus, a blur condition calculation method, and a program that can improve the determination accuracy of the blur condition.

本開示の1つの側面によれば、画像に含まれる文字の線幅に応じた、画像のぼけ具合の指標となるぼけ指標とぼけ具合との関係を示す関係情報を記憶する記憶部と、撮像画像から線幅及びぼけ指標を算出し、記憶部により記憶されている関係情報を参照して、線幅及びぼけ指標に対応するぼけ具合を特定する演算部と、を有する、情報処理装置が提供される。   According to one aspect of the present disclosure, a storage unit that stores relationship information indicating a relationship between a blur index that is an index of a blur condition of an image and a blur condition according to a line width of a character included in the image, and a captured image An information processing apparatus is provided that includes a calculation unit that calculates a line width and a blur index from the reference unit, and refers to the relationship information stored in the storage unit, and specifies a degree of blur corresponding to the line width and the blur index. The

また、本開示の他の1つの側面によれば、コンピュータが、画像に含まれる文字の線幅に応じた、画像のぼけ具合の指標となるぼけ指標とぼけ具合との関係を示す関係情報を記憶する記憶部から関係情報を取得し、撮像画像から、線幅及びぼけ指標を算出し、記憶部により記憶されている関係情報を参照して、線幅及びぼけ指標に対応するぼけ具合を特定するぼけ具合計算方法が提供される。   Further, according to another aspect of the present disclosure, the computer stores relationship information indicating a relationship between a blur index that is an index of a blur condition of an image and a blur condition according to a line width of a character included in the image. The relationship information is acquired from the storage unit, the line width and the blur index are calculated from the captured image, and the blur condition corresponding to the line width and the blur index is specified with reference to the relationship information stored in the storage unit A method for calculating the degree of blur is provided.

また、本開示の他の1つの側面によれば、コンピュータに、画像に含まれる文字の線幅に応じた、画像のぼけ具合の指標となるぼけ指標とぼけ具合との関係を示す関係情報を記憶する記憶部から関係情報を取得し、撮像画像から、線幅及びぼけ指標を算出し、記憶部により記憶されている関係情報を参照して、線幅及びぼけ指標に対応するぼけ具合を特定する処理を実行させる、プログラムが提供される。   According to another aspect of the present disclosure, the computer stores relation information indicating a relationship between a blur index that is an index of a blur condition of an image and a blur condition according to a line width of a character included in the image. The relationship information is acquired from the storage unit, the line width and the blur index are calculated from the captured image, and the blur condition corresponding to the line width and the blur index is specified with reference to the relationship information stored in the storage unit A program for executing processing is provided.

本発明によれば、ぼけ具合の判断精度を高めることが可能になる。   According to the present invention, it is possible to improve the determination accuracy of the degree of blur.

第1実施形態に係る情報処理装置の一例を示した図である。It is the figure which showed an example of the information processing apparatus which concerns on 1st Embodiment. 第2実施形態に係る文字認識システムの一例を示した図である。It is the figure which showed an example of the character recognition system which concerns on 2nd Embodiment. 第2実施形態に係る文字認識システムについて説明するための第1の図である。It is a 1st figure for demonstrating the character recognition system which concerns on 2nd Embodiment. 第2実施形態に係る文字認識システムについて説明するための第2の図である。It is a 2nd figure for demonstrating the character recognition system which concerns on 2nd Embodiment. ぼけ具合、エッジ勾配、エッジ幅の関係について説明するための図である。It is a figure for demonstrating the relationship between a blur condition, edge gradient, and edge width. エッジ部分の輝度を示す図である。It is a figure which shows the brightness | luminance of an edge part. エッジ幅を示す図である。It is a figure which shows edge width. 正規化を説明するための図である。It is a figure for demonstrating normalization. 線の潰れた画像に対する正規化を説明するための図である。It is a figure for demonstrating normalization with respect to the image where the line was crushed. エッジ勾配と錯乱円との関係を示す図である。It is a figure which shows the relationship between an edge gradient and a circle of confusion. 線の幅、エッジ勾配及び錯乱円の関係を示す図である。It is a figure which shows the relationship between the width | variety of a line, an edge gradient, and a circle of confusion. 線幅の算出に使用される領域の一例を示す図である。It is a figure which shows an example of the area | region used for calculation of line | wire width. 線幅の算出を説明するための図である。It is a figure for demonstrating calculation of line | wire width. 第2実施形態に係る画像処理装置が有する機能の一例を示したブロック図である。It is the block diagram which showed an example of the function which the image processing apparatus which concerns on 2nd Embodiment has. 第2実施形態に係る錯乱円特定情報の一例を示した図である。It is the figure which showed an example of the confusion circle specific information which concerns on 2nd Embodiment. 第2実施形態に係る辞書情報の一例を示した図である。It is the figure which showed an example of the dictionary information which concerns on 2nd Embodiment. 錯乱円特定情報選択部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a confusion circle specific information selection part. 第2実施形態に係る画像処理装置の機能を実現することが可能なハードウェアの一例を示した図である。It is the figure which showed an example of the hardware which can implement | achieve the function of the image processing apparatus which concerns on 2nd Embodiment. 第2実施形態に係る画像処理装置の動作を示したフローチャートである。6 is a flowchart illustrating an operation of the image processing apparatus according to the second embodiment.

以下に添付図面を参照しながら、本発明の実施形態について説明する。なお、本明細書及び図面において実質的に同一の機能を有する要素については、同一の符号を付することにより重複説明を省略する場合がある。   Embodiments of the present invention will be described below with reference to the accompanying drawings. In addition, about the element which has the substantially same function in this specification and drawing, duplication description may be abbreviate | omitted by attaching | subjecting the same code | symbol.

<1.第1実施形態>
図1を参照しながら、第1実施形態について説明する。なお、図1は、第1実施形態に係る情報処理装置の一例を示した図である。また、図1に示した情報処理装置10は、第1実施形態に係る情報処理装置の一例である。
<1. First Embodiment>
The first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an information processing apparatus according to the first embodiment. Moreover, the information processing apparatus 10 illustrated in FIG. 1 is an example of an information processing apparatus according to the first embodiment.

情報処理装置10は、記憶部11及び演算部12を有する。
なお、記憶部11は、RAM(Random Access Memory)などの揮発性記憶装置、或いは、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性記憶装置である。演算部12は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサである。但し、演算部12は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの電子回路であってもよい。演算部12は、例えば、記憶部11又は他のメモリに格納されたプログラムを実行する。
The information processing apparatus 10 includes a storage unit 11 and a calculation unit 12.
The storage unit 11 is a volatile storage device such as a RAM (Random Access Memory) or a non-volatile storage device such as an HDD (Hard Disk Drive) or a flash memory. The arithmetic unit 12 is a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor). However, the arithmetic unit 12 may be an electronic circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The computing unit 12 executes a program stored in the storage unit 11 or another memory, for example.

記憶部11は、画像に含まれる文字の線幅に応じた、画像のぼけ具合の指標となるぼけ指標とぼけ具合との関係を示す関係情報を記憶する。演算部12は、撮像画像から線幅及びぼけ指標を算出し、記憶部11により記憶されている関係情報を参照して、線幅及びぼけ指標に対応するぼけ具合を特定する。   The storage unit 11 stores relation information indicating a relationship between a blur index that is an index of a blur condition of an image and a blur condition according to a line width of a character included in the image. The calculation unit 12 calculates the line width and the blur index from the captured image, and refers to the relationship information stored in the storage unit 11 to identify the degree of blur corresponding to the line width and the blur index.

図1には、一例として、複数の線幅Wa、Wb、Wcにそれぞれ対応する関数曲線F1、F2、F3を示した。関数曲線F1、F2、F3は、それぞれ関係情報の一例である。但し、図1の例では連続的な曲線の関数で関係情報を表現しているが、ぼけ具合と、ぼけ指標とを対応付けるテーブル形式の情報として関係情報を表現することもできる。なお、ぼけ指標は、例えば、エッジ部分の勾配やエッジ部分の幅などである。   FIG. 1 shows, as an example, function curves F1, F2, and F3 corresponding to a plurality of line widths Wa, Wb, and Wc, respectively. The function curves F1, F2, and F3 are examples of relationship information. However, in the example of FIG. 1, the relationship information is expressed by a continuous curve function, but the relationship information can also be expressed as information in a table format that associates the degree of blur with the blur index. Note that the blur index is, for example, the gradient of the edge portion or the width of the edge portion.

例えば、演算部12が撮像画像から算出した文字の線幅がWbであったとする。また、演算部12が算出したぼけ指標がyであったとする。この場合、演算部12は、関数曲線F1、F2、F3の中から線幅Wbに対応する関数曲線F2を選択する。そして、演算部12は、関数曲線F2を利用して、ぼけ指標yに対応するぼけ具合xを特定する。   For example, it is assumed that the line width of the character calculated by the calculation unit 12 from the captured image is Wb. It is assumed that the blur index calculated by the calculation unit 12 is y. In this case, the calculation unit 12 selects the function curve F2 corresponding to the line width Wb from the function curves F1, F2, and F3. And the calculating part 12 specifies the blur condition x corresponding to the blur parameter | index y using the function curve F2.

上記のように、ぼけ指標とぼけ具合との関係を示す関係情報を予め用意し、その関係情報を利用してぼけ具合を特定することで、文字の線が潰れるなどの状況が生じても、高い精度でぼけ具合を判断することが可能になる。   As described above, the relationship information indicating the relationship between the blur index and the blur condition is prepared in advance, and the blur information is specified using the relationship information, so that even if a situation such as a broken line of the character occurs, it is high. It becomes possible to judge the degree of blur with accuracy.

以上、第1実施形態について説明した。
<2.第2実施形態>
次に、第2実施形態について説明する。
The first embodiment has been described above.
<2. Second Embodiment>
Next, a second embodiment will be described.

[2−1.システム]
第2実施形態に係る技術を適用可能なシステムの例について説明する。第2実施形態に係る技術は、デジタルカメラなどの撮像装置により対象物を撮影し、画像認識技術を用いて対象物に記載された文字や記号を自動認識するシステムに適用可能である。
[2-1. system]
An example of a system to which the technology according to the second embodiment can be applied will be described. The technology according to the second embodiment can be applied to a system in which an object is photographed by an imaging device such as a digital camera and characters and symbols written on the object are automatically recognized using an image recognition technique.

(文字認識システム)
一例として、撮像した画像から文字を認識する文字認識システムについて説明する。地上に設置されている撮像装置から文字を認識する文字認識システムの例を図2に示した。以下では、図2の例を想定して説明を進める。なお、図2は、第2実施形態に係る文字認識システムの一例を示した図である。また、図2に示した文字認識システム100は、第2実施形態に係る文字認識システムの一例である。
(Character recognition system)
As an example, a character recognition system that recognizes characters from captured images will be described. FIG. 2 shows an example of a character recognition system that recognizes characters from an imaging device installed on the ground. In the following, the description will be made assuming the example of FIG. FIG. 2 is a diagram illustrating an example of a character recognition system according to the second embodiment. The character recognition system 100 shown in FIG. 2 is an example of a character recognition system according to the second embodiment.

図2に示すように、文字認識システム100は、撮像装置101及び画像処理装置102を含む。撮像装置101は、例えば、地面から高い位置に設置され、周辺に位置する標識等の対象物に記載されている文字を撮影する。図2の例において、撮像装置101による撮像範囲は2本の破線で表現された角度θの範囲である。また、撮像装置101は、撮像範囲にピントが合うようにフォーカスが設定されている。但し、被写界深度は範囲Fであり、撮像範囲内であっても、範囲F内に位置する対象物の画像は鮮明であるが、範囲F外に位置する対象物の画像はぼける。   As shown in FIG. 2, the character recognition system 100 includes an imaging device 101 and an image processing device 102. The imaging device 101 is installed at a high position from the ground, for example, and captures characters written on an object such as a sign located in the vicinity. In the example of FIG. 2, the imaging range by the imaging device 101 is a range of the angle θ expressed by two broken lines. In addition, the imaging apparatus 101 is focused to focus on the imaging range. However, the depth of field is the range F, and even within the imaging range, the image of the object located within the range F is clear, but the image of the object located outside the range F is blurred.

例えば、範囲F外の地点Aで撮像された対象物の撮像画像PAは、図2に示すように大きくぼけた画像となる。一方、範囲F内の地点Bで撮像された対象物の撮像画像PBは、地点Aで撮像された撮像画像PAよりも鮮明な画像となる。なお、範囲F内の対象物を撮影した場合でも、被写体ブレや温度変化などに起因して撮像画像にぼけが生じる可能性はある。また、撮像装置101の経年劣化によりフォーカス位置がずれて撮像画像にぼけが生じる可能性もある。 For example, captured image P A of the imaged object at a range F outside the point A becomes larger blurred image as shown in FIG. On the other hand, the captured image P B of the object imaged at point B in the range F is than imaged image P A captured at the point A becomes clear image. Even when an object within the range F is photographed, there is a possibility that the captured image is blurred due to subject blurring or temperature change. Further, the focus position may be shifted due to the deterioration of the imaging device 101 over time, and the captured image may be blurred.

撮像画像にぼけが生じると、対象物の撮像画像から文字を認識することが難しくなる。そこで、画像処理装置102は、撮像装置101から入力された撮像画像(以下、入力画像PIN)のぼけ具合を検出し、検出したぼけ具合に応じた文字認識の処理を実行する。以下、図3及び図4を参照しながら、画像処理装置102が実行する処理の内容について、さらに説明する。なお、図3は、第2実施形態に係る文字認識システムについて説明するための第1の図である。また、図4は、第2実施形態に係る文字認識システムについて説明するための第2の図である。 When blur occurs in the captured image, it is difficult to recognize characters from the captured image of the object. Therefore, the image processing apparatus 102 detects the degree of blur of the captured image (hereinafter, input image P IN ) input from the imaging apparatus 101, and executes character recognition processing according to the detected degree of blur. Hereinafter, the contents of the processing executed by the image processing apparatus 102 will be further described with reference to FIGS. 3 and 4. FIG. 3 is a first diagram for explaining the character recognition system according to the second embodiment. FIG. 4 is a second diagram for explaining the character recognition system according to the second embodiment.

図3及び図4の例は、撮像装置101から画像処理装置102へと撮像画像PAが入力された場合に関する。つまり、この例は、入力画像PINが撮像画像PAの場合に関する。以下では、画像が有するぼけの大きさをぼけ具合Lv1、Lv2、Lv3と表現する。また、Lv1<Lv2<Lv3とする。ここでは説明の都合上、3種類のぼけ具合を例示したが、後述する技術は、2種類又は4種類以上のぼけ具合にも適用可能である。 Examples 3 and 4 relates to the case where the captured image P A is input from the imaging device 101 to the image processing apparatus 102. In other words, this example relates to the case where the input image P IN is captured image P A. In the following, the magnitude of blur of an image is expressed as blur levels Lv1, Lv2, and Lv3. Further, Lv1 <Lv2 <Lv3. Here, for convenience of explanation, three types of blur conditions are illustrated, but the technique described below can also be applied to two types or four or more types of blur conditions.

画像処理装置102は、複数のぼけ具合Lv1、Lv2、Lv3にそれぞれ対応する複数の辞書画像を保持している。辞書画像とは、文字認識の際に、入力画像PINの文字部分と比較するために予め用意された文字の画像である。例えば、入力画像PINのぼけ具合がLv3である場合、画像処理装置102は、ぼけ具合Lv3の辞書画像と入力画像PINとを比較して入力画像PINに含まれる文字を認識する。 The image processing apparatus 102 holds a plurality of dictionary images respectively corresponding to a plurality of blur levels Lv1, Lv2, and Lv3. The dictionary image is an image of characters prepared in advance for comparison with the character portion of the input image PIN during character recognition. For example, if the blurriness of the input image P IN is Lv3, the image processing apparatus 102 recognizes the characters included in the input image P IN by comparing the input image P IN and a dictionary image blurriness Lv3.

入力画像PINのぼけ具合がLv3である場合、図3に示すように、入力画像PINとぼけ具合Lv1の画像(A)との類似度SAは、入力画像PINとぼけ具合Lv2の画像(B)との類似度SBよりも小さくなる。さらに、入力画像PINとぼけ具合Lv2の画像(B)との類似度SBは、入力画像PINとぼけ具合Lv3の画像(C)との類似度SCよりも小さくなる。つまり、ぼけ具合Lv3の辞書画像と入力画像PINとを比較して入力画像PINに含まれる文字を認識することで、文字認識の精度が向上する。 If blurriness of the input image P IN is Lv3, as shown in FIG. 3, the similarity S A of the image (A) of the input image P IN blur degree Lv1 input image P IN blur images degree Lv2 ( It is smaller than the similarity S B and B). Furthermore, the similarity S B of the image (B) of the input image P IN blur degree Lv2 is smaller than the similarity S C of the image (C) of the input image P IN blur degree Lv3. That is, the accuracy of character recognition is improved by comparing the dictionary image with the blur level Lv3 and the input image PIN to recognize characters included in the input image PIN .

但し、複数の辞書画像のそれぞれに対して入力画像PINとの比較を行うと比較処理にかかる負荷が高くなるため、画像処理装置102は、図4に示すように、入力画像PINから検出したぼけ具合に適合する辞書画像を選択して両画像を照合する。 However, if each of the plurality of dictionary images is compared with the input image PIN , the load on the comparison processing increases, so that the image processing apparatus 102 detects from the input image PIN as shown in FIG. Select a dictionary image that matches the degree of blur, and collate both images.

上記のように、入力画像PINのぼけ具合に応じた辞書画像を利用することで文字認識の精度が向上する。さらに、ぼけ具合の判断結果に応じて1つの辞書画像を選択することにより、入力画像PINと辞書画像とを照合して類似度を計算する処理の負荷が低減される。 As described above, the accuracy of character recognition is improved by using a dictionary image corresponding to the degree of blur of the input image PIN . Furthermore, by selecting one dictionary image according to the determination result of the degree of blur, the processing load for calculating the similarity by comparing the input image PIN with the dictionary image is reduced.

(その他のシステム)
第2実施形態に係る技術は、上記の文字認識システム100の他、例えば、ランドマーク認識システムやOCR(Optical Character Recognition)システムなどに適用することができる。
(Other systems)
The technology according to the second embodiment can be applied to, for example, a landmark recognition system or an OCR (Optical Character Recognition) system in addition to the character recognition system 100 described above.

ランドマーク認識システムは、街中や観光地にある看板などをスマートフォンのカメラ機能などで撮像し、撮像画像から認識した文字列に基づいて地域や施設などのランドマークに関する情報を提供するシステムである。第2実施形態に係る技術をランドマーク認識システムに適用すると、撮影状況などに起因して撮像画像がぼけてしまっても文字認識が精度良く行われ、正しい情報を提供できる可能性が高まる。   The landmark recognition system is a system that captures a signboard or the like in a town or a sightseeing spot with a camera function of a smartphone and provides information related to landmarks such as areas and facilities based on a character string recognized from the captured image. When the technology according to the second embodiment is applied to the landmark recognition system, even if a captured image is blurred due to a shooting situation or the like, character recognition is performed with high accuracy, and the possibility that correct information can be provided increases.

OCRシステムは、スキャナなどの光学機器で読み取った文字列の画像から個々の文字を認識してテキストデータに変換するシステムである。第2実施形態に係る技術をOCRシステムに適用すると、読み取り原稿の文字がぼけて不鮮明である場合や、原稿表面に対向配置される透光板(ガラス面や透明プラスチック面など)の汚れなどがある場合でも文字認識を精度良く行うことができるようになる。   The OCR system is a system that recognizes individual characters from an image of a character string read by an optical device such as a scanner and converts the characters into text data. When the technology according to the second embodiment is applied to the OCR system, the character of the read original is blurred and unclear, or the light transmitting plate (glass surface, transparent plastic surface, etc.) disposed opposite to the original surface is stained. Even in some cases, character recognition can be performed with high accuracy.

以上、第2実施形態に係る技術を適用可能なシステムの例について説明した。以下では、上記の文字認識システム100を例に説明を進めるが、第2実施形態に係る技術の適用範囲はこれに限定されない。画像から文字認識を行う任意のシステムに対して第2実施形態に係る技術を適用することが可能である。   Heretofore, an example of a system to which the technology according to the second embodiment can be applied has been described. In the following, description will be given by taking the character recognition system 100 as an example, but the scope of application of the technology according to the second embodiment is not limited to this. The technique according to the second embodiment can be applied to any system that performs character recognition from an image.

[2−2.ぼけ具合の特定]
ぼけ具合の特定について説明する。
(ぼけ具合とぼけ指標)
画像処理装置102では、上記のような辞書選択を行って文字を認識するが、この場合にぼけ具合の特定を行う。以降、画像処理装置102によるぼけ具合特定動作について説明する。最初に、ぼけ具合とぼけ指標について説明する。
[2-2. Determining the degree of blur]
Described below is how to specify the degree of blur.
(Blur condition and blur index)
The image processing apparatus 102 recognizes characters by performing dictionary selection as described above. In this case, the degree of blur is specified. Hereinafter, the blur condition specifying operation by the image processing apparatus 102 will be described. First, the degree of blur and the blur index will be described.

図5は、ぼけ具合、エッジ勾配、エッジ幅の関係について説明するための図である。ぼけ具合の大きさを表す尺度となるぼけ指標には、例えば、エッジ勾配やエッジ幅などが利用される。図5に示すように、エッジ部分の輝度をグラフ化すると、ぼけ具合が大きい画像(A)は、エッジ勾配(角度η1)が小さく、エッジ幅(最小輝度から最大輝度までの距離W1)が大きい。一方、ぼけ具合が小さい画像(B)は、エッジ勾配(角度η2)が大きく、エッジ幅(最小輝度から最大輝度までの距離W2)が小さい。このような特性を利用すると、エッジ勾配やエッジ幅に基づいてぼけ具合を評価することができる。 FIG. 5 is a diagram for explaining the relationship between the degree of blur, the edge gradient, and the edge width. For example, an edge gradient, an edge width, or the like is used as a blur index serving as a scale representing the degree of blur. As shown in FIG. 5, when the luminance of the edge portion is graphed, an image (A) with a large degree of blur has a small edge gradient (angle η 1 ) and an edge width (distance W 1 from the minimum luminance to the maximum luminance). Is big. On the other hand, the image (B) with a small degree of blur has a large edge gradient (angle η 2 ) and a small edge width (distance W 2 from the minimum luminance to the maximum luminance). By using such characteristics, the degree of blur can be evaluated based on the edge gradient and the edge width.

但し、撮影エリアが広い場合や、入力画像に含まれる文字の解像度が低いような場合、入力画像のぼけにより細部が潰れてしまうため、エッジ勾配やエッジ幅からぼけ具合の大きさが正しく評価されないことがある。   However, if the shooting area is large or the resolution of the characters included in the input image is low, the details of the input image will be lost and the details will be crushed. Sometimes.

図6は、エッジ部分の輝度を示す図である。(A)は、画像p1におけるエッジ部分の輝度のグラフg1を示している。画像p1は、画像ぼけによって潰れない程度に十分な太さの文字の線L1の撮像画像である。   FIG. 6 is a diagram illustrating the luminance of the edge portion. (A) has shown the graph g1 of the brightness | luminance of the edge part in the image p1. The image p1 is a captured image of the character line L1 having a sufficient thickness so as not to be crushed by the image blur.

(B)は、画像p2におけるエッジ部分の輝度のグラフg2を示している。画像p2は、画像ぼけによって潰れてしまう程度の細さである文字の線L2の撮像画像である。
(A)の画像p1のエッジ部分における最小輝度はb1である。これに対し、(B)の画像p2のエッジ部分における最小輝度はb2(>b1)になっており、画像p1、p2との間で、輝度に差Δが生じている。
(B) shows a graph g2 of the luminance of the edge portion in the image p2. The image p2 is a captured image of the character line L2 that is thin enough to be crushed by the image blur.
The minimum luminance at the edge portion of the image p1 in (A) is b1. On the other hand, the minimum luminance at the edge portion of the image p2 in (B) is b2 (> b1), and there is a difference Δ in luminance between the images p1 and p2.

このように、撮影エリアが広角、又は解像度が低いなどの理由で、文字の線が細い場合、入力画像のぼけによって線が潰れて、本来の線の輝度に差Δが生じてしまう可能性がある。すると、ぼけ具合の指標としての正しいエッジ勾配やエッジ幅の値が得られなくなる。   As described above, when the character line is thin due to a wide-angle shooting area or a low resolution, the line may be crushed due to the blur of the input image, and a difference Δ may occur in the luminance of the original line. is there. As a result, correct edge gradient and edge width values as an index of the degree of blur cannot be obtained.

(線の潰れた画像から正しいエッジ幅が算出できない理由)
図7はエッジ幅を示す図である。線の潰れが生じた図6の画像p2におけるエッジ部分の輝度のグラフg2を示している。画像p2のエッジ部分における輝度はb2であり、エッジ幅はW11になっている。なお、輝度b1は本来の文字の輝度である。
(Reason why the correct edge width cannot be calculated from the broken image)
FIG. 7 is a diagram showing the edge width. The graph g2 of the brightness | luminance of the edge part in the image p2 of FIG. 6 where the line collapse occurred is shown. The luminance at the edge portion of the image p2 is b2, and the edge width is W11. The luminance b1 is the original luminance of the character.

画像p2からエッジ幅を算出すれば、図7に示すように、エッジ幅=W11が算出されることになるが、画像p2は線の潰れが生じた画像であるため、線の潰れがなければ最小輝度はb2よりも小さくなる可能性が高い。その場合は、エッジ幅もW11とは異なる値になる。従って、線の潰れが生じた画像p2から算出されたエッジ幅は正しい値ではなく、ぼけ具合の判断基準として使用しないことが望ましい。   If the edge width is calculated from the image p2, the edge width = W11 is calculated as shown in FIG. 7, but since the image p2 is an image in which the line is crushed, there is no line crushed. The minimum luminance is likely to be smaller than b2. In that case, the edge width is also different from W11. Therefore, it is desirable that the edge width calculated from the image p2 in which the line is crushed is not a correct value and not used as a criterion for determining the degree of blur.

これまで線の潰れた画像から得られるエッジ幅について説明したが、線の潰れた画像から得られるエッジ勾配についても、ぼけ具合の指標としての適用について説明する。まず、画像の明るさを補正するための正規化について説明する。   The edge width obtained from an image with a broken line has been described so far, but the application of an edge gradient obtained from an image with a broken line as an index of the degree of blur will be described. First, normalization for correcting the brightness of an image will be described.

図8は正規化を説明するための図である。(A)は、画像p3におけるエッジ部分の輝度のグラフgaと、その正規化グラフga1とを示している。(B)は、画像p4におけるエッジ部分の輝度のグラフgbと、その正規化グラフgb1とを示している。   FIG. 8 is a diagram for explaining normalization. (A) shows the graph ga of the luminance of the edge portion in the image p3 and its normalized graph ga1. (B) shows a graph gb of the luminance of the edge portion in the image p4 and its normalized graph gb1.

なお、画像p3、p4のエッジ幅は同一であるが、画像の明るさは互いに異なり、画像p3の方が画像p4よりも明るいとする。
(A)のグラフgaにおいて、画像p3のエッジ部分におけるエッジ幅はW12であり、エッジ勾配はSL1になっている。これに対し、(B)のグラフgbにおいて、画像p4のエッジ部分におけるエッジ幅はW12であり、エッジ勾配はSL2になっている。
Note that the edge widths of the images p3 and p4 are the same, but the brightness of the images is different from each other, and the image p3 is brighter than the image p4.
In the graph ga of (A), the edge width at the edge portion of the image p3 is W12, and the edge gradient is SL1. On the other hand, in the graph gb in (B), the edge width at the edge portion of the image p4 is W12, and the edge gradient is SL2.

このように、画像p3、p4のエッジ幅は同じであっても、画像の明るさが異なるとエッジ勾配に差異が生じ、この例では、画像p3のエッジ勾配SL1の方が画像p4のエッジ勾配SL2よりも大きくなっている。   Thus, even if the edge widths of the images p3 and p4 are the same, if the brightness of the images is different, the edge gradient is different. In this example, the edge gradient SL1 of the image p3 is the edge gradient of the image p4. It is larger than SL2.

上記のように、互いに観測できるエッジ幅は同一であるが、画像の明るさが異なっているような場合、互いに異なる文字輝度及び背景輝度をそれぞれ、基準文字輝度及び基準背景輝度に補正する正規化が行われる。   As described above, when the edge widths that can be observed are the same, but the image brightness is different, normalization that corrects the different character luminance and background luminance to the reference character luminance and the reference background luminance, respectively. Is done.

(A)のグラフga1、(B)のグラフgb1では、共に基準文字輝度をbr1にし、基準背景輝度をbr2に補正している。この補正により、互いのエッジ勾配はSL0と等しくなっている。このような正規化を行うことにより、グラフga1、gb1に示すように、明るさが異なってもエッジ幅が同じ画像に対しては、エッジ勾配を同じ値にすることができる。   In both the graph ga1 in (A) and the graph gb1 in (B), the reference character luminance is corrected to br1 and the reference background luminance is corrected to br2. By this correction, the edge gradients of each other are equal to SL0. By performing such normalization, as shown in the graphs ga1 and gb1, the edge gradient can be set to the same value for images having the same edge width even if the brightness is different.

図9は線の潰れた画像に対する正規化を説明するための図である。(A)は、線の潰れのない画像p5におけるエッジ部分の輝度のグラフg11を示している。(A)の画像p5のエッジ部分における輝度はb11であり、本来の文字輝度(つまり、潰れが生じていない場合と同じ文字輝度)である。   FIG. 9 is a diagram for explaining normalization for a line-broken image. (A) shows a graph g11 of the luminance of the edge portion in the image p5 without line collapse. The luminance at the edge portion of the image p5 in (A) is b11, which is the original character luminance (that is, the same character luminance as when no crushing occurs).

(B)は、線の潰れた画像p6におけるエッジ部分の輝度のグラフg12を示している。(B)の画像p6のエッジ部分における輝度はb11aであり、観測される文字輝度(つまり、潰れが生じた場合の文字輝度)である。なお、画像p5、p6は同じ明るさの画像とする。   (B) shows a graph g12 of the luminance of the edge portion in the image p6 where the line is crushed. The luminance at the edge portion of the image p6 in (B) is b11a, which is the observed character luminance (that is, the character luminance when crushing occurs). The images p5 and p6 are images having the same brightness.

(B)の画像p6のように、線の潰れた画像に対して正規化を行うと、本来の文字輝度でなく、観測できる文字輝度を基準に正規化が行われる。この場合、本来の文字輝度が認識されず、正規化に失敗し、線の潰れが生じた画像p6から正しいエッジ勾配が算出されない。こうした理由から、線の潰れが生じて線の幅が正しく認識されない画像については、エッジ勾配やエッジ幅などのぼけ指標を正しく算出することができない可能性があり、精度の高いぼけ指標を算出するには、正確な線幅を求めることが望まれる。   When normalization is performed on an image with a broken line as in the image p6 in (B), normalization is performed based on observable character luminance instead of original character luminance. In this case, the original character luminance is not recognized, normalization fails, and the correct edge gradient cannot be calculated from the image p6 in which the line is crushed. For these reasons, it may not be possible to correctly calculate blur indices such as edge gradients and edge widths for images in which line collapse occurs and the line width is not correctly recognized. Therefore, it is desired to obtain an accurate line width.

(錯乱円)
ここで、ぼけ具合を表す錯乱円について説明する。ある点光源から出た光が結像面で広がる円を錯乱円と呼ぶ。焦点が合っている位置から被写体が離れる程、錯乱円は大きくなる。
(Circle of confusion)
Here, the circle of confusion representing the degree of blur will be described. A circle in which light emitted from a point light source spreads on the image plane is called a circle of confusion. As the subject moves away from the in-focus position, the circle of confusion increases.

また、認識対象の文字と背景との境界部分において、この境界部分の明暗が変化するエッジ周辺の画素には、文字部分からの反射光と、背景部分からの反射光とが足し合わされて入射する。このため、文字と背景との境界部分の錯乱円内の画素は、明暗の中間の輝度をもつ画素となるので、錯乱円の大きさ(例えば、錯乱円の直径)は、ぼけ具合の程度を表す。   In addition, at the boundary portion between the character to be recognized and the background, the reflected light from the character portion and the reflected light from the background portion are incident on the pixels around the edge where the brightness of the boundary portion changes. . For this reason, the pixels in the circle of confusion at the boundary between the character and the background are pixels having intermediate brightness between light and dark, so the size of the circle of confusion (for example, the diameter of the circle of confusion) is the degree of blur. Represent.

(エッジ勾配と錯乱円との関係)
以降、ぼけ指標としてエッジ勾配を使用する例を示すが、ぼけ指標にエッジ幅を使用することも可能である。図10はエッジ勾配と錯乱円との関係を示す図である。縦軸はエッジ勾配、横軸は錯乱円(の大きさ)である。エッジ勾配と錯乱円との間には、エッジ勾配の減少に伴って、錯乱円が増加する関係が存在する。この関係は、関数(以下、ぼけ具合関数)の形で表現することができる。もちろん、エッジ勾配と錯乱円の大きさとを対応付けるテーブルを利用して上記関係を表現することもできる。
(Relationship between edge gradient and circle of confusion)
Hereinafter, an example in which an edge gradient is used as a blur index is shown, but an edge width can also be used as a blur index. FIG. 10 is a diagram showing the relationship between the edge gradient and the circle of confusion. The vertical axis is the edge gradient, and the horizontal axis is the circle of confusion. Between the edge gradient and the circle of confusion, there is a relationship in which the circle of confusion increases as the edge gradient decreases. This relationship can be expressed in the form of a function (hereinafter referred to as a blur function). Of course, the above relationship can also be expressed using a table that associates the edge gradient with the size of the circle of confusion.

上記のぼけ具合関数又はテーブルは、エッジ勾配と錯乱円の大きさとを予め実験又はシミュレーションにより計算し、計算結果から解析的手法又は統計的手法などにより関数又はテーブルの形で求めることができる。例えば、最小二乗法や多変量解析などにより関数を特定する手法や、上記計算の結果をテーブルとして保持する手法などを適用可能である。   The blur function or table can be obtained in the form of a function or a table by calculating the edge gradient and the size of the circle of confusion by experiment or simulation in advance and using the analytical method or the statistical method from the calculation result. For example, a method of specifying a function by a least square method, multivariate analysis, or the like, a method of holding the result of the calculation as a table, or the like can be applied.

上記のぼけ具合関数を利用すれば、あるステップエッジを持つ被写体に対して計算されたエッジ勾配から、その被写体の錯乱円の大きさを特定することが可能である。
但し、線が細い場合には線に潰れが生じるので、ステップエッジを前提に算出したぼけ具合関数を適用すると、正確なエッジ勾配と錯乱円との関係が成り立たないことがある。この場合、エッジ勾配から錯乱円の大きさを正しく特定できない可能性がある。
If the above blur condition function is used, the size of the circle of confusion of the subject can be specified from the edge gradient calculated for the subject having a certain step edge.
However, when the line is thin, the line is crushed. Therefore, when the blur condition function calculated on the assumption of the step edge is applied, the relationship between the accurate edge gradient and the circle of confusion may not be established. In this case, there is a possibility that the size of the circle of confusion cannot be correctly specified from the edge gradient.

そこで、第2実施形態においては、錯乱円の大きさの変数に加えて、線幅も変数として加え、錯乱円、線幅及びエッジ勾配の関係を表す線幅毎のぼけ具合関数が適用される。もちろん、当該関係をテーブル形式で表現することもできる。   Therefore, in the second embodiment, in addition to the variable of the size of the circle of confusion, the line width is also added as a variable, and the blur condition function for each line width representing the relationship between the circle of confusion, the line width, and the edge gradient is applied. . Of course, the relationship can also be expressed in a table format.

上記のぼけ具合関数又はテーブルは、線幅毎に錯乱円の大きさとエッジ勾配との関係を予め実験又はシミュレーションにより計算し、計算結果から解析的手法又は統計的手法などにより関数又はテーブルの形で求めることができる。例えば、最小二乗法や多変量解析などにより関数を特定する手法や、上記計算の結果をテーブルとして保持する手法などを適用可能である。   The above blur condition function or table calculates the relationship between the size of the circle of confusion and the edge gradient in advance for each line width by experiment or simulation, and uses the calculation result in the form of a function or table by an analytical method or a statistical method. Can be sought. For example, a method of specifying a function by a least square method, multivariate analysis, or the like, a method of holding the result of the calculation as a table, or the like can be applied.

図11は線幅、エッジ勾配及び錯乱円の関係を示す図である。ぼけ具合関数f1は、線幅W1aにおけるエッジ勾配と錯乱円との対応関係を表し、ぼけ具合関数f2は、線幅W2aにおけるエッジ勾配と錯乱円との対応関係を表す。ぼけ具合関数f3は、線幅W3aにおけるエッジ勾配と錯乱円との対応関係を表している。なお、線幅W1a、W2a、W3aの中で、線幅W1aが最も細く、線幅W3aが最も太い(W1a<W2a<W3a)。   FIG. 11 is a diagram showing the relationship between the line width, the edge gradient, and the circle of confusion. The blur condition function f1 represents the correspondence between the edge gradient in the line width W1a and the circle of confusion, and the blur condition function f2 represents the correspondence between the edge gradient in the line width W2a and the circle of confusion. The blur condition function f3 represents the correspondence between the edge gradient in the line width W3a and the circle of confusion. Of the line widths W1a, W2a, and W3a, the line width W1a is the smallest and the line width W3a is the largest (W1a <W2a <W3a).

このように、異なる線幅毎に、エッジ勾配と錯乱円の大きさとの関係を求めてデータベース化しておく。そして、入力画像から錯乱円を特定する際には、入力画像の文字がぼけていない状態での線幅がわかれば、データベース内のどの対応関係を使用すればよいかわかるため、エッジ勾配から錯乱円の大きさが特定可能となる。   In this way, for each different line width, the relationship between the edge gradient and the size of the circle of confusion is obtained and stored in a database. And when identifying the circle of confusion from the input image, if you know the line width when the characters in the input image are not blurred, you can know which correspondence in the database should be used, so the confusion from the edge gradient The size of the circle can be specified.

(線幅の算出について)
入力画像のぼけている線から、ぼけていない状態での線幅の算出方法について以下説明する。ある領域Rに文字Lが記されているとする。この場合、文字Lの線幅に対して、領域Rのサイズの比率が決まっており、そのサイズが計測可能であって線幅よりも十分大きな場合には、領域Rに書かれている文字Lに対する線幅の算出を行うことが可能である。
(About calculation of line width)
A method for calculating the line width in the unblurred state from the blurred line in the input image will be described below. It is assumed that a letter L is written in a certain area R. In this case, the ratio of the size of the region R to the line width of the character L is determined, and when the size is measurable and sufficiently larger than the line width, the character L written in the region R It is possible to calculate the line width for.

図12は線幅の算出に使用される領域の一例を示す図である。ある領域に文字が記載されており、領域の大きさに対して文字の線の幅が決まっている場合、そのような領域(以下、標識とも呼ぶ)の撮像画像P11の幅から、書かれている文字の線幅の特定を行うことができる。   FIG. 12 is a diagram illustrating an example of a region used for calculating the line width. When a character is written in a certain area and the width of the character line is determined with respect to the size of the area, it is written from the width of the captured image P11 of such an area (hereinafter also referred to as a sign). The line width of a character can be specified.

このように、線幅とのサイズの比率が決まっている対象物又は対象領域があり、そのサイズが計測可能でかつ線幅よりも十分大きいものがあることを前提条件とし、そのサイズを計測することで相対的に線幅を算出することができる。   In this way, there is an object or target area in which the ratio of the size to the line width is determined, and the size is measured on the precondition that the size can be measured and is sufficiently larger than the line width. Thus, the line width can be calculated relatively.

図13は線幅の算出を説明するための図である。(A)は画像から直接観測した文字の線幅の算出値X1、(B)は標識の大きさの算出値X2を示している。
(A)において、様式が決まっている標識上の文字を認識しようとした場合、文字がぼけない状態で写ったときの線の太さをA1[pixel]、ぼけによる線幅の変化をB1[pixel]、ノイズによる文字幅の観測誤差をC1[pixel]とした場合、画像から直接観測した線幅の計測値X1は、以下の式(1)で算出される。
FIG. 13 is a diagram for explaining the calculation of the line width. (A) shows the calculated value X1 of the line width of the character observed directly from the image, and (B) shows the calculated value X2 of the sign size.
In (A), when trying to recognize a character on a sign with a fixed style, the thickness of the line when the character appears unblurred is A1 [pixel], and the change in line width due to blur is B1 [ When the pixel width observation error due to noise is C1 [pixel], the line width measurement value X1 observed directly from the image is calculated by the following equation (1).

X1=A1+B1+C1・・・(1)
(B)において、標識の大きさ(横幅)をA2[pixel]、ボケによる標識の大きさの測定誤差をB2[pixel]、ノイズによる標識の大きさの測定誤差をC2[pixel]とすると、標識の大きさの計測値X2は、以下の式(2)で算出される。
X1 = A1 + B1 + C1 (1)
In (B), when the sign size (width) is A2 [pixel], the measurement error of the sign size due to blur is B2 [pixel], and the measurement error of the sign size due to noise is C2 [pixel], The measured value X2 of the marker size is calculated by the following equation (2).

X2=A2+B2+C2・・・(2)
なお、ぼけの量は同一平面内にあるのでほぼ等しく、また、ノイズによる観測誤差もほぼ等しいとみなせるので、B2≒B1、C2≒C1としてよい。また、標識の横幅と文字の線幅との比は決まっているため、比例定数をMとすると、A1とA2の関係は、以下の式(3)となる。
X2 = A2 + B2 + C2 (2)
It should be noted that the amounts of blur are substantially equal since they are in the same plane, and the observation errors due to noise can be regarded as substantially equal, so B2≈B1 and C2≈C1. Further, since the ratio between the width of the sign and the line width of the character is determined, if the proportionality constant is M, the relationship between A1 and A2 is expressed by the following equation (3).

A2=M×A1・・・(3)
ここで、ぼけていない状態での線幅A1を算出する方法について述べる。上記の式(1)からA1=X1−(B1+C1)であるから、X1を観測して線幅A1の算出値として使用する場合、B1+C1が誤差となる。
A2 = M × A1 (3)
Here, a method for calculating the line width A1 in a non-blurred state will be described. Since A1 = X1− (B1 + C1) from the above formula (1), when X1 is observed and used as the calculated value of the line width A1, B1 + C1 becomes an error.

また、上記の式(2)、式(3)から、以下の式(4)が得られる。
A1=A2/M=(X2/M)−(B2+C2)/M・・・(4)
そして、B2≒B1、C2≒C1から、式(4a)となる。
Further, the following formula (4) is obtained from the above formulas (2) and (3).
A1 = A2 / M = (X2 / M)-(B2 + C2) / M (4)
Then, from B2≈B1 and C2≈C1, Expression (4a) is obtained.

A1≒(X2/M)−(B1+C1)/M・・・(4a)
X2を観測して線幅A1の算出値として使用する場合、式(4a)に示すように、(B1+C1)/Mが誤差となる。
A1≈ (X2 / M) − (B1 + C1) / M (4a)
When X2 is observed and used as the calculated value of the line width A1, (B1 + C1) / M becomes an error as shown in the equation (4a).

ここで、(B1+C1)は高々数ピクセルであることが多い。そのため、(B1+C1)の値よりも比例定数Mの値の方が大きく、(B1+C1)/M≪B1+C1となる。従って、線幅を算出する際には、X1を計測するよりも、X2を計測して比例定数Mで換算して求めた方が誤差は小さくなり、より正確に元の線幅を算出することができる。   Here, (B1 + C1) is often a few pixels at most. Therefore, the value of the proportionality constant M is larger than the value of (B1 + C1), and (B1 + C1) / M << B1 + C1. Therefore, when calculating the line width, the error is smaller when X2 is measured and converted by the proportional constant M than when X1 is measured, and the original line width is calculated more accurately. Can do.

以上、ぼけ具合の特定について説明した。
[2−3.画像処理装置の機能]
次に、図14〜図16を参照しながら、画像処理装置102の機能について、さらに説明する。
The identification of the degree of blur has been described above.
[2-3. Function of image processing apparatus]
Next, the function of the image processing apparatus 102 will be further described with reference to FIGS.

なお、図14は、第2実施形態に係る画像処理装置が有する機能の一例を示したブロック図である。図15は、第2実施形態に係る錯乱円特定情報の一例を示した図である。図16は、第2実施形態に係る辞書情報の一例を示した図である。   FIG. 14 is a block diagram illustrating an example of the functions of the image processing apparatus according to the second embodiment. FIG. 15 is a diagram showing an example of confusion circle specifying information according to the second embodiment. FIG. 16 is a diagram illustrating an example of dictionary information according to the second embodiment.

図14に示すように、画像処理装置102は、画像取得部111、認識対象検出部112、ぼけ指標算出部113、記憶部114、錯乱円特定情報選択部115、錯乱円特定部116、辞書選択部117及び文字認識部118を備える。   As shown in FIG. 14, the image processing apparatus 102 includes an image acquisition unit 111, a recognition target detection unit 112, a blur index calculation unit 113, a storage unit 114, a confusion circle specifying information selection unit 115, a confusion circle specifying unit 116, and a dictionary selection. Unit 117 and character recognition unit 118.

画像取得部111は、撮像装置から監視対象として予め設定された範囲に対応する監視範囲画像を取得する。認識対象検出部112は、画像処理技術を用いて画像内から標識を検出し、検出した標識を基準とする領域(以下、標識画像)を切り出す。切り出しには、例えば、特開2008−276291号公報などに記載の技術を適用可能である。ぼけ指標算出部113は、切り出した標識画像からぼけ指標を算出する。例えば、文字部分と背景部分の境界のエッジ幅やエッジ勾配をぼけ指標として使用することができる。   The image acquisition unit 111 acquires a monitoring range image corresponding to a range preset as a monitoring target from the imaging apparatus. The recognition target detection unit 112 detects a sign from the image using an image processing technique, and cuts out a region (hereinafter referred to as a sign image) based on the detected sign. For example, a technique described in Japanese Patent Application Laid-Open No. 2008-276291 can be applied to the cutout. The blur index calculation unit 113 calculates a blur index from the clipped marker image. For example, the edge width or edge gradient at the boundary between the character portion and the background portion can be used as a blur index.

記憶部114は、錯乱円特定情報114aと辞書情報114bとを記憶している。錯乱円特定情報114aは、図11を参照しながら説明した各線幅に応じた錯乱円とぼけ指標との関係(ぼけ具合関数)を示す情報を格納している。当該情報は、関数形式の情報(つまり、関数形と係数との組み合わせ)として格納されていてもよいし、テーブル形式の情報として格納されていてもよい。後者の場合、例えば、図15のような変換テーブルT1−1〜T1−3が用意される。変換テーブルT1−1〜T1−3はそれぞれ、線幅W1a、W2a、W3aにおけるエッジ勾配と錯乱円との大きさとの対応関係を表すテーブル情報である。   The storage unit 114 stores confusion circle specifying information 114a and dictionary information 114b. The circle of confusion specific information 114a stores information indicating the relationship (blurring condition function) between the circle of confusion and the blur index corresponding to each line width described with reference to FIG. The information may be stored as function format information (that is, a combination of a function format and a coefficient), or may be stored as table format information. In the latter case, for example, conversion tables T1-1 to T1-3 as shown in FIG. 15 are prepared. The conversion tables T1-1 to T1-3 are table information indicating the correspondence between the edge gradients in the line widths W1a, W2a, and W3a and the size of the circle of confusion.

また、辞書情報114bは、図16に示すように、文字と辞書画像とを対応付ける情報である。辞書画像は、予め設定された複数のぼけ具合のそれぞれについて用意される。図16の例では、文字「4」に対応する辞書画像として、ぼけ具合Lv1に対応する辞書画像PD1、ぼけ具合Lv2に対応する辞書画像PD2、ぼけ具合Lv3に対応する辞書画像PD3が用意されている。また、ぼけ具合毎に用意された辞書画像の集合を辞書と呼ぶことにする。図16の例において、辞書D1は、文字「4」、「6」、「9」、…に対応する辞書画像PD1の集合である。 Further, the dictionary information 114b is information associating characters and dictionary images as shown in FIG. A dictionary image is prepared for each of a plurality of preset blur conditions. In the example of FIG. 16, as the dictionary image corresponding to the character “4”, the dictionary image P D1 corresponding to the blur condition Lv1, the dictionary image P D2 corresponding to the blur condition Lv2, and the dictionary image P D3 corresponding to the blur condition Lv3 are obtained. It is prepared. A set of dictionary images prepared for each degree of blur is called a dictionary. In the example of FIG. 16, the dictionary D 1 is a set of dictionary images P D1 corresponding to the characters “4”, “6”, “9” ,.

再び図14を参照する。
錯乱円特定情報選択部115は、線幅の算出を行い、錯乱円特定情報114aを参照して、線幅とぼけ指標とから錯乱円を特定する際にどの情報(変換テーブル)を利用するかを選択する。
Refer to FIG. 14 again.
The circle of confusion specific information selection unit 115 calculates line width and refers to the circle of confusion specific information 114a to determine which information (conversion table) to use when specifying the circle of confusion from the line width and the blur index. select.

錯乱円特定部116は、錯乱円特定情報選択部115が選択した変換テーブルを利用し、ぼけ指標算出部113で求めたぼけ指標から錯乱円(撮像のぼけ具合)を特定する。例えば、図15において、錯乱円特定情報選択部115が算出した線幅が線幅W3aであり、ぼけ指標算出部113で算出したエッジ勾配が60であった場合、変換テーブルT1−3により、錯乱円の大きさは4だと特定される。   The confusion circle specifying unit 116 uses the conversion table selected by the confusion circle specifying information selecting unit 115 to specify the circle of confusion (the degree of blur of imaging) from the blur index obtained by the blur index calculating unit 113. For example, in FIG. 15, when the line width calculated by the confusion circle specifying information selection unit 115 is the line width W3a and the edge gradient calculated by the blur index calculation unit 113 is 60, the conversion table T1-3 causes the confusion. The size of the circle is specified as 4.

辞書選択部117では、錯乱円特定部116が特定した錯乱円から、文字認識に適した辞書を選択し、選択した辞書を文字認識部118に通知する。例えば、錯乱円が2画素であれば、文字部分と背景部分が2値に分かれている辞書に対して2画素分ぼかした辞書を選択する。   The dictionary selection unit 117 selects a dictionary suitable for character recognition from the circle of confusion specified by the confusion circle specifying unit 116 and notifies the character recognition unit 118 of the selected dictionary. For example, if the circle of confusion is two pixels, a dictionary in which two pixels are blurred with respect to a dictionary in which the character portion and the background portion are divided into two values is selected.

上記の辞書は予めぼかしたものを用意しておいて選択してもよいし、ぼけていない辞書のみを用意しておいて、都度生成してもよい。前者であれば処理時間はかからないが利用するメモリサイズが大きくなる。後者であればぼけていない辞書をメモリに格納しておけばよいため、メモリサイズを小さく抑えることができる一方、辞書を生成する処理を実行する分だけ処理に時間がかかる。なお、ぼかした辞書は、例えば、ぼけていない辞書にガウシアンフィルタをかけることによって生成することができる。   The above dictionary may be selected by preparing a blurred one, or only a dictionary that is not blurred may be prepared and generated each time. In the former case, processing time is not required, but the memory size to be used increases. In the latter case, it is only necessary to store a non-blurred dictionary in the memory, so that the memory size can be reduced. On the other hand, the processing takes time for executing the processing for generating the dictionary. The blurred dictionary can be generated, for example, by applying a Gaussian filter to a dictionary that is not blurred.

文字認識部118は、辞書選択部117で選択した辞書と、入力画像の文字の類似度を算出し、最も類似度が高い辞書を認識結果として出力する。
(錯乱円特定情報選択部115の動作)
ここで、錯乱円特定情報選択部115の動作について説明する。
The character recognition unit 118 calculates the similarity between the dictionary selected by the dictionary selection unit 117 and the character of the input image, and outputs the dictionary with the highest similarity as the recognition result.
(Operation of the circle of confusion specific information selection unit 115)
Here, the operation of the confusion circle specifying information selection unit 115 will be described.

図17は、錯乱円特定情報選択部の動作を示すフローチャートである。
〔S1〕錯乱円特定情報選択部115は、認識対象検出部112で検出された標識の位置情報から、標識全体の幅(画素数)を測定する。
FIG. 17 is a flowchart showing the operation of the circle of confusion specific information selection unit.
[S1] The circle of confusion specific information selection unit 115 measures the width (number of pixels) of the entire sign from the position information of the sign detected by the recognition target detection unit 112.

〔S2〕錯乱円特定情報選択部115は、標識にかかれている文字の、ぼけていない状態での線幅の算出を行う。例えば、認識対象の標識の様式が、標識の横幅がR2[mm]、文字の線幅R1[mm](R2>R1)と定められていたとし、測定した標識の横幅の画素数がX2[pixel]であったとき、標識にかかれている文字のぼけていない状態での線幅X1[pixel]を、(R1/R2)・X2と算出する。   [S2] The circle of confusion specific information selection unit 115 calculates the line width of the character on the sign when it is not blurred. For example, it is assumed that the sign form to be recognized is defined as the sign width R2 [mm] and the character line width R1 [mm] (R2> R1), and the measured sign width is X2 [ pixel], the line width X1 [pixel] in a state where the characters on the sign are not blurred is calculated as (R1 / R2) · X2.

〔S3〕錯乱円特定情報選択部115は、錯乱円特定情報114aである変換テーブルの選択を行う。記憶部114の錯乱円特定情報114aには予め各線幅に応じた錯乱円とぼけ指標との関係(例えば、図15に示したテーブル情報など)が記録されている。S2の処理で、ぼけていない状態での線幅X1を算出したので、線幅X1に対応した錯乱円とぼけ指標との関係の変換テーブルを利用する。   [S3] The confusion circle specifying information selection unit 115 selects a conversion table that is the confusion circle specifying information 114a. In the confusion circle specifying information 114a in the storage unit 114, the relationship between the confusion circle and the blur index corresponding to each line width (for example, table information shown in FIG. 15) is recorded in advance. Since the line width X1 in the unblurred state is calculated in the process of S2, a conversion table of the relationship between the circle of confusion corresponding to the line width X1 and the blur index is used.

以上、画像処理装置102の機能について説明した。
[2−4.画像処理装置のハードウェア]
ここで、図18を参照しながら、画像処理装置102の機能を実現することが可能なハードウェアの例について説明する。なお、図18は、第2実施形態に係る画像処理装置の機能を実現することが可能なハードウェアの一例を示した図である。
The function of the image processing apparatus 102 has been described above.
[2-4. Image processing device hardware]
Here, an example of hardware capable of realizing the function of the image processing apparatus 102 will be described with reference to FIG. FIG. 18 is a diagram illustrating an example of hardware capable of realizing the functions of the image processing apparatus according to the second embodiment.

画像処理装置102が有する機能は、例えば、図18に示す情報処理装置のハードウェア資源を用いて実現することが可能である。つまり、画像処理装置102が有する機能は、コンピュータプログラムを用いて図18に示すハードウェアを制御することにより実現される。なお、実施の態様に応じて、図18に例示したハードウェアの一部要素を省略したり、他の要素を新たに追加したりする変形も許容される。   The functions of the image processing apparatus 102 can be realized by using, for example, hardware resources of the information processing apparatus illustrated in FIG. That is, the functions of the image processing apparatus 102 are realized by controlling the hardware shown in FIG. 18 using a computer program. In addition, depending on the embodiment, a modification in which a part of the hardware illustrated in FIG. 18 is omitted or another element is newly added is allowed.

図18に示すように、このハードウェアは、主に、CPU902と、ROM(Read Only Memory)904と、RAM906と、ホストバス908と、ブリッジ910とを有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926とを有する。   As shown in FIG. 18, this hardware mainly includes a CPU 902, a ROM (Read Only Memory) 904, a RAM 906, a host bus 908, and a bridge 910. Further, this hardware includes an external bus 912, an interface 914, an input unit 916, an output unit 918, a storage unit 920, a drive 922, a connection port 924, and a communication unit 926.

CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータなどを格納する記憶装置の一例である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に変化する各種パラメータなどが一時的又は永続的に格納される。   The CPU 902 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928. . The ROM 904 is an example of a storage device that stores a program read by the CPU 902, data used for calculation, and the like. The RAM 906 temporarily or permanently stores, for example, a program read by the CPU 902 and various parameters that change when the program is executed.

これらの要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、タッチパッド、ボタン、スイッチ、及びレバーなどが用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラが用いられることもある。   These elements are connected to each other via, for example, a host bus 908 capable of high-speed data transmission. On the other hand, the host bus 908 is connected to an external bus 912 having a relatively low data transmission speed via a bridge 910, for example. As the input unit 916, for example, a mouse, a keyboard, a touch panel, a touch pad, a button, a switch, a lever, or the like is used. Furthermore, as the input unit 916, a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used.

出力部918としては、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、又はELD(Electro-Luminescence Display)などのディスプレイ装置が用いられる。また、出力部918として、スピーカやヘッドホンなどのオーディオ出力装置、又はプリンタなどが用いられることもある。つまり、出力部918は、情報を視覚的又は聴覚的に出力することが可能な装置である。   As the output unit 918, for example, a display device such as a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or an ELD (Electro-Luminescence Display) is used. As the output unit 918, an audio output device such as a speaker or headphones, or a printer may be used. In other words, the output unit 918 is a device that can output information visually or audibly.

記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、HDDなどの磁気記憶デバイスが用いられる。また、記憶部920として、SSD(Solid State Drive)やRAMディスクなどの半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイスなどが用いられてもよい。   The storage unit 920 is a device for storing various data. As the storage unit 920, for example, a magnetic storage device such as an HDD is used. Further, as the storage unit 920, a semiconductor storage device such as an SSD (Solid State Drive) or a RAM disk, an optical storage device, a magneto-optical storage device, or the like may be used.

ドライブ922は、着脱可能な記録媒体であるリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928としては、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどが用いられる。   The drive 922 is a device that reads information recorded on a removable recording medium 928 that is a removable recording medium or writes information on the removable recording medium 928. As the removable recording medium 928, for example, a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is used.

接続ポート924は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子など、外部接続機器930を接続するためのポートである。外部接続機器930としては、例えば、デジタルカメラやプリンタなどが用いられる。   The connection port 924 is a port for connecting an external connection device 930 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. For example, a digital camera or a printer is used as the external connection device 930.

通信部926は、ネットワーク932に接続するための通信デバイスである。通信部926としては、例えば、有線又は無線LAN(Local Area Network)用の通信回路、WUSB(Wireless USB)用の通信回路、光通信用の通信回路やルータ、ADSL(Asymmetric Digital Subscriber Line)用の通信回路やルータ、携帯電話ネットワーク用の通信回路などが用いられる。通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークであり、例えば、インターネット、LAN、放送網、衛星通信回線などを含む。   The communication unit 926 is a communication device for connecting to the network 932. As the communication unit 926, for example, a communication circuit for wired or wireless LAN (Local Area Network), a communication circuit for WUSB (Wireless USB), a communication circuit or router for optical communication, an ADSL (Asymmetric Digital Subscriber Line) Communication circuits, routers, communication circuits for mobile phone networks, and the like are used. A network 932 connected to the communication unit 926 is a wired or wireless network, and includes, for example, the Internet, a LAN, a broadcast network, a satellite communication line, and the like.

以上のようなハードウェア構成によって、本実施形態の処理機能を実現することができる。また、コンピュータで本実施形態の処理機能を実現する場合、画像処理装置102が有する機能の処理内容を記述したプログラムが提供される。   With the hardware configuration as described above, the processing functions of this embodiment can be realized. Further, when the processing functions of the present embodiment are realized by a computer, a program describing the processing contents of the functions of the image processing apparatus 102 is provided.

そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM/RWなどがある。光磁気記録媒体には、MO(Magneto Optical disk)などがある。なお、プログラムを記録する記録媒体には、一時的な伝搬信号自体は含まれない。   By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical discs include DVD, DVD-RAM, CD-ROM / RW, and the like. Magneto-optical recording media include MO (Magneto Optical disk). The recording medium for recording the program does not include a temporary propagation signal itself.

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

[2−5.処理の流れ]
ここで、図19を参照しながら、画像処理装置102の動作について、さらに説明する。図19は、第2実施形態に係る画像処理装置の動作を示したフローチャートである。なお、説明の都合上、錯乱円特定情報114aとして、記憶部114に変換テーブルT1−1、T1−2、T1−3(図15を参照)が格納されているとする。
[2-5. Process flow]
Here, the operation of the image processing apparatus 102 will be further described with reference to FIG. FIG. 19 is a flowchart showing the operation of the image processing apparatus according to the second embodiment. For convenience of explanation, it is assumed that conversion tables T1-1, T1-2, and T1-3 (see FIG. 15) are stored in the storage unit 114 as the confusion circle specifying information 114a.

〔S101〕画像取得部111は、撮像装置から監視対象として予め設定された範囲に対応する監視範囲画像を取得する。認識対象検出部112は、画像処理技術を用いて画像内から標識を検出し、検出した標識を基準とする領域(標識画像)を切り出す。   [S101] The image acquisition unit 111 acquires a monitoring range image corresponding to a range set in advance as a monitoring target from the imaging apparatus. The recognition target detection unit 112 detects a sign from the image using an image processing technique, and cuts out a region (a sign image) based on the detected sign.

〔S102〕ぼけ指標算出部113は、S101で切り出された標識画像からぼけ指標を算出する。ぼけ指標としては、例えば、文字部分と背景部分の境界のエッジ幅やエッジ勾配を適用することができる。   [S102] The blur index calculation unit 113 calculates a blur index from the sign image cut out in S101. As the blur index, for example, the edge width or edge gradient of the boundary between the character portion and the background portion can be applied.

〔S103〕錯乱円特定情報選択部115は、文字の線幅を計算する。
例えば、標識画像の大きさの測定値をX2[pixel]、文字がぼけない状態で写ったときの線の太さをA1[pixel]、ぼけによる線幅の変化をB1[pixel]、ノイズによる文字幅の観測誤差をC1[pixel]と表記する。また、標識画像から直接観測した線幅の計測値をX1、標識画像の大きさをA2[pixel]、標識画像の大きさの測定誤差をB2[pixel]、標識画像の大きさの測定誤差をC2[pixel]と表記する。この場合、錯乱円特定情報選択部115は、上記の式(4a)により、線幅としてA1を求めることができる。
[S103] The circle of confusion specific information selection unit 115 calculates the line width of the character.
For example, the measured value of the size of the sign image is X2 [pixel], the thickness of the line when the character is not blurred is A1 [pixel], the change in the line width due to blur is B1 [pixel], and the noise The observation error of character width is expressed as C1 [pixel]. Also, the measured line width measured directly from the sign image is X1, the sign image size is A2 [pixel], the sign image size measurement error is B2 [pixel], and the sign image size measurement error is Indicated as C2 [pixel]. In this case, the circle of confusion specific information selection unit 115 can obtain A1 as the line width by the above equation (4a).

〔S104〕錯乱円特定情報選択部115は、S103で計算した線幅がW1a、W2a、W3aのどれであるかを判定する。線幅がW1aの場合、処理はS105へと進む。線幅がW2aの場合、処理はS106へと進む。線幅がW3aの場合、処理はS107へと進む。なお、錯乱円特定情報114aとして他の線幅に対応する変換テーブルが用意されている場合には、その変換テーブルに対応する線幅についても同様に判定処理が実行される。   [S104] The circle of confusion specific information selection unit 115 determines whether the line width calculated in S103 is W1a, W2a, or W3a. If the line width is W1a, the process proceeds to S105. If the line width is W2a, the process proceeds to S106. If the line width is W3a, the process proceeds to S107. When a conversion table corresponding to another line width is prepared as the confusion circle specifying information 114a, the determination process is similarly performed for the line width corresponding to the conversion table.

〔S105〕錯乱円特定情報選択部115は、変換テーブルT1−1を選択する。そして、錯乱円特定部116は、錯乱円特定情報選択部115が選択した変換テーブルを利用し、S102で算出されたぼけ指標に対応する錯乱円の大きさを特定する。S105の処理が完了すると、処理はS108へと進む。   [S105] The circle of confusion specific information selection unit 115 selects the conversion table T1-1. The confusion circle specifying unit 116 uses the conversion table selected by the confusion circle specifying information selecting unit 115 to specify the size of the confusion circle corresponding to the blur index calculated in S102. When the process of S105 is completed, the process proceeds to S108.

〔S106〕錯乱円特定情報選択部115は、変換テーブルT1−2を選択する。そして、錯乱円特定部116は、錯乱円特定情報選択部115が選択した変換テーブルを利用し、S102で算出されたぼけ指標に対応する錯乱円の大きさを特定する。S106の処理が完了すると、処理はS108へと進む。   [S106] The circle of confusion specific information selection unit 115 selects the conversion table T1-2. The confusion circle specifying unit 116 uses the conversion table selected by the confusion circle specifying information selecting unit 115 to specify the size of the confusion circle corresponding to the blur index calculated in S102. When the process of S106 is completed, the process proceeds to S108.

〔S107〕錯乱円特定情報選択部115は、変換テーブルT1−3を選択する。そして、錯乱円特定部116は、錯乱円特定情報選択部115が選択した変換テーブルを利用し、S102で算出されたぼけ指標に対応する錯乱円の大きさを特定する。S107の処理が完了すると、処理はS108へと進む。   [S107] The circle of confusion specific information selection unit 115 selects the conversion table T1-3. The confusion circle specifying unit 116 uses the conversion table selected by the confusion circle specifying information selecting unit 115 to specify the size of the confusion circle corresponding to the blur index calculated in S102. When the process of S107 is completed, the process proceeds to S108.

〔S108〕辞書選択部117は、辞書情報114b(図16を参照)を参照し、S105、S106、又はS107で特定された錯乱円の大きさに対応する辞書を選択する。例えば、錯乱円が2画素であれば、辞書選択部117は、文字部分と背景部分とが2値に分かれている辞書に対して2画素分ぼかした辞書を選択する。   [S108] The dictionary selection unit 117 refers to the dictionary information 114b (see FIG. 16) and selects a dictionary corresponding to the size of the circle of confusion identified in S105, S106, or S107. For example, if the circle of confusion is two pixels, the dictionary selection unit 117 selects a dictionary in which two pixels are blurred with respect to a dictionary in which a character part and a background part are divided into two values.

〔S109〕文字認識部118は、S108で選択された辞書と、標識画像に含まれる文字の類似度を算出し、最も類似度が高い辞書画像に対応する文字を認識結果として出力する。S109の処理が完了すると、図19に示した一連の処理は終了する。   [S109] The character recognition unit 118 calculates the similarity between the dictionary selected in S108 and the character included in the sign image, and outputs the character corresponding to the dictionary image with the highest similarity as the recognition result. When the process of S109 is completed, the series of processes shown in FIG.

以上、画像処理装置102の動作に係る処理フローについて説明した。
以上説明したように、本技術によれば、ぼけ具合の特定精度が向上し、その結果、ぼけ具合の特定結果を利用した画像処理方式の精度を向上させることが可能になる。また、ぼけ具合に応じた辞書の選択をした場合、認識精度が向上し、さらに、ぼけ具合が小さくなるようにフォーカスの調整を行った場合、フォーカス調整精度の向上を図ることが可能になる。
The processing flow relating to the operation of the image processing apparatus 102 has been described above.
As described above, according to the present technology, the accuracy of specifying the degree of blur is improved, and as a result, it is possible to improve the accuracy of the image processing method using the result of specifying the degree of blur. Further, when the dictionary is selected according to the degree of blur, the recognition accuracy is improved, and when the focus is adjusted so that the degree of blur is reduced, the focus adjustment accuracy can be improved.

以上、実施形態を例示したが、実施形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。   As mentioned above, although embodiment was illustrated, the structure of each part shown by embodiment can be substituted by the other thing which has the same function. Moreover, other arbitrary structures and processes may be added.

10 情報処理装置
11 記憶部
12 演算部
F1、F2、F3 関数曲線
Wa、Wb、Wc 線幅
y ぼけ指標
x ぼけ具合
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 11 Memory | storage part 12 Calculation part F1, F2, F3 Function curve Wa, Wb, Wc Line width y Blur parameter | index x Blur condition

Claims (6)

画像に含まれる文字の線幅に応じた、前記画像のぼけ具合の指標となるぼけ指標と前記ぼけ具合との関係を示す関係情報を記憶する記憶部と、
撮像画像から前記線幅及び前記ぼけ指標を算出し、前記記憶部により記憶されている前記関係情報を参照して、前記線幅及び前記ぼけ指標に対応する前記ぼけ具合を特定する演算部と、
を有する、情報処理装置。
A storage unit that stores relationship information indicating a relationship between a blur index that is an index of a blur condition of the image and the blur condition according to a line width of a character included in the image;
A calculation unit that calculates the line width and the blur index from a captured image, refers to the relation information stored in the storage unit, and specifies the blur condition corresponding to the line width and the blur index;
An information processing apparatus.
前記演算部は、前記線幅とサイズとの比率が決まっている前記画像内の対象物の大きさを測定し、測定した前記比率からぼけていない状態での前記線幅を算出する
請求項1に記載の情報処理装置。
The arithmetic unit measures the size of an object in the image in which a ratio between the line width and the size is determined, and calculates the line width in a state where the ratio is not blurred from the measured ratio. The information processing apparatus described in 1.
前記演算部は、前記文字のエッジ部分を検出し、前記エッジ部分の勾配又は前記エッジ部分の幅を前記ぼけ指標とする
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the calculation unit detects an edge portion of the character and uses a gradient of the edge portion or a width of the edge portion as the blur index.
前記記憶部は、前記文字の認識に用いる画像である辞書画像を複数記憶し、
前記演算部は、特定した前記ぼけ具合に応じて前記辞書画像を選択し、選択した前記辞書画像を用いて前記文字を認識する
請求項1に記載の情報処理装置。
The storage unit stores a plurality of dictionary images that are images used for recognition of the characters,
The information processing apparatus according to claim 1, wherein the calculation unit selects the dictionary image according to the specified degree of blur, and recognizes the character using the selected dictionary image.
コンピュータが、
画像に含まれる文字の線幅に応じた、前記画像のぼけ具合の指標となるぼけ指標と前記ぼけ具合との関係を示す関係情報を記憶する記憶部から前記関係情報を取得し、
撮像画像から、前記線幅及び前記ぼけ指標を算出し、前記記憶部により記憶されている前記関係情報を参照して、前記線幅及び前記ぼけ指標に対応する前記ぼけ具合を特定する
ぼけ具合計算方法。
Computer
According to the line width of the character included in the image, the relationship information is acquired from a storage unit that stores relationship information indicating a relationship between a blur index that is a blur condition index of the image and the blur condition,
The line width and the blur index are calculated from the captured image, and the blur condition corresponding to the line width and the blur index is specified with reference to the relation information stored in the storage unit. Method.
コンピュータに、
画像に含まれる文字の線幅に応じた、前記画像のぼけ具合の指標となるぼけ指標と前記ぼけ具合との関係を示す関係情報を記憶する記憶部から前記関係情報を取得し、
撮像画像から、前記線幅及び前記ぼけ指標を算出し、前記記憶部により記憶されている前記関係情報を参照して、前記線幅及び前記ぼけ指標に対応する前記ぼけ具合を特定する
処理を実行させる、プログラム。
On the computer,
According to the line width of the character included in the image, the relationship information is acquired from a storage unit that stores relationship information indicating a relationship between a blur index that is a blur condition index of the image and the blur condition,
The line width and the blur index are calculated from the captured image, and the blur information corresponding to the line width and the blur index is specified with reference to the relation information stored in the storage unit. Let the program.
JP2014158391A 2014-08-04 2014-08-04 Information processing apparatus, blur condition calculation method, and program Active JP6390248B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014158391A JP6390248B2 (en) 2014-08-04 2014-08-04 Information processing apparatus, blur condition calculation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014158391A JP6390248B2 (en) 2014-08-04 2014-08-04 Information processing apparatus, blur condition calculation method, and program

Publications (2)

Publication Number Publication Date
JP2016035670A true JP2016035670A (en) 2016-03-17
JP6390248B2 JP6390248B2 (en) 2018-09-19

Family

ID=55523488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014158391A Active JP6390248B2 (en) 2014-08-04 2014-08-04 Information processing apparatus, blur condition calculation method, and program

Country Status (1)

Country Link
JP (1) JP6390248B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861148B2 (en) * 2018-04-30 2020-12-08 General Electric Company Systems and methods for improved component inspection
WO2023027133A1 (en) * 2021-08-27 2023-03-02 パナソニックIpマネジメント株式会社 Image assessment method, image assessment device, and character recognition method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175662A (en) * 1997-12-12 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for recognizing pattern and recording medium recording program for allowing computer to execute the pattern recognizing method
JP2000030052A (en) * 1998-07-13 2000-01-28 Oki Electric Ind Co Ltd Picture processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175662A (en) * 1997-12-12 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for recognizing pattern and recording medium recording program for allowing computer to execute the pattern recognizing method
JP2000030052A (en) * 1998-07-13 2000-01-28 Oki Electric Ind Co Ltd Picture processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861148B2 (en) * 2018-04-30 2020-12-08 General Electric Company Systems and methods for improved component inspection
WO2023027133A1 (en) * 2021-08-27 2023-03-02 パナソニックIpマネジメント株式会社 Image assessment method, image assessment device, and character recognition method

Also Published As

Publication number Publication date
JP6390248B2 (en) 2018-09-19

Similar Documents

Publication Publication Date Title
US9697416B2 (en) Object detection using cascaded convolutional neural networks
US11164323B2 (en) Method for obtaining image tracking points and device and storage medium thereof
CN110793544B (en) Method, device and equipment for calibrating parameters of roadside sensing sensor and storage medium
KR101417696B1 (en) Pattern measuring method, pattern measuring apparatus, and recording medium
US20230214989A1 (en) Defect detection method, electronic device and readable storage medium
WO2020063124A1 (en) Method and apparatus for acquiring depth image, and electronic device
KR20150043145A (en) Method for measuring changes of distance between the camera and the object using object tracking , Computer readable storage medium of recording the method and a device measuring changes of distance
US20220351413A1 (en) Target detection method, computer device and non-transitory readable storage medium
CN107105210A (en) Projection correction&#39;s method and device
JP6390248B2 (en) Information processing apparatus, blur condition calculation method, and program
CN113516697B (en) Image registration method, device, electronic equipment and computer readable storage medium
CN107392948B (en) Image registration method of amplitude-division real-time polarization imaging system
CN115937324B (en) Assembly quality evaluation method, device, equipment and storage medium
JP6311354B2 (en) Information processing apparatus, binarization threshold value determination method, and program
US10591300B2 (en) Fixing magnetometer based azimuth according to sun positioning
CN114926417B (en) Microscopic imaging detection method and system for weak scratches on surface of high-density flexible FPC
JP5983033B2 (en) Position relationship determination program, position relationship determination method, and position relationship determination device
JP6354186B2 (en) Information processing apparatus, blur condition calculation method, and program
WO2020095549A1 (en) Imaging device
JP2019153235A (en) Object area identification apparatus, object area identification method, and program
US9582887B2 (en) Methods and apparatus for determining field of view dependent depth map correction values
US11069084B2 (en) Object identification method and device
US20240029288A1 (en) Image processing apparatus, image processing method, and storage medium
CN117115488B (en) Water meter detection method based on image processing
CN114639079B (en) Method, device, equipment and storage medium for matching lane line data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R150 Certificate of patent or registration of utility model

Ref document number: 6390248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150