JP2017117340A - Character attribute estimation device and character attribute estimation program - Google Patents
Character attribute estimation device and character attribute estimation program Download PDFInfo
- Publication number
- JP2017117340A JP2017117340A JP2015254409A JP2015254409A JP2017117340A JP 2017117340 A JP2017117340 A JP 2017117340A JP 2015254409 A JP2015254409 A JP 2015254409A JP 2015254409 A JP2015254409 A JP 2015254409A JP 2017117340 A JP2017117340 A JP 2017117340A
- Authority
- JP
- Japan
- Prior art keywords
- character
- region
- attribute
- attribute estimation
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 74
- 238000010801 machine learning Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 description 38
- 238000012545 processing Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 2
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本発明は、文字属性推定装置、及び文字属性推定プログラムに関する。 The present invention relates to a character attribute estimation device and a character attribute estimation program.
従来、カメラで撮影した画像から、当該画像に写っている文字を認識する技術が知られている。一般に、文字を認識する場合には、まず画像から文字領域を抽出し、次に文字の形状や色等のパターンに基づいて、文字を認識する(例えば、特許文献1〜3参照)。 2. Description of the Related Art Conventionally, a technique for recognizing characters in an image captured by a camera is known. In general, when recognizing a character, a character region is first extracted from an image, and then a character is recognized based on a pattern such as the shape and color of the character (see, for example, Patent Documents 1 to 3).
なお、上述した手法では、画像に写っている文字の形状や色等を完全な状態で抽出することができず、情報の一部が欠けたり、ノイズが混入したりする。そのため、従来では、予め作成しておいた辞書を用いて補正することで、文字列を認識した際に、一部の文字の認識誤りを修正する手法が存在する(例えば、特許文献4、特許文献5参照)。 In the above-described method, the shape, color, and the like of characters in the image cannot be extracted in a complete state, and part of information is missing or noise is mixed. Therefore, conventionally, there is a method of correcting recognition errors of some characters when a character string is recognized by correcting using a dictionary created in advance (for example, Patent Document 4, Patent) Reference 5).
しかしながら、従来技術において、精度の高い文字認識を行うために、文字以外の情報に基づいて文字の属性を推定する手法は存在しなかった。 However, in the prior art, there is no method for estimating character attributes based on information other than characters in order to perform highly accurate character recognition.
そこで、本発明は、情景画像中の文字の属性を、文字以外の情報に基づいて高精度で推定できる文字属性推定装置、及び文字属性推定プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a character attribute estimation device and a character attribute estimation program capable of estimating the attribute of a character in a scene image with high accuracy based on information other than characters.
本発明の一つの態様では、文字属性推定装置において、画像から文字の領域を検出する文字領域検出部と、前記文字領域検出部により検出された前記文字の領域に隣接する画素のうちの少なくとも一部の画素値に応じた条件を満たす画素を、前記文字が記載された物体の領域として検出する物体領域検出部と、前記文字が表す内容の属性に応じた画像群をトレーニングデータとして機械学習し、前記機械学習の結果、及び前記物体領域検出部により検出された前記物体の領域の形状から、前記文字が表す内容の属性を推定する属性推定部と、を備える。 In one aspect of the present invention, in the character attribute estimation device, at least one of a character region detection unit that detects a character region from an image and pixels adjacent to the character region detected by the character region detection unit. Machine learning using, as training data, an object region detection unit that detects a pixel that satisfies a condition corresponding to a pixel value of a part as an object region in which the character is described, and an image group according to the attribute of the content represented by the character An attribute estimation unit that estimates an attribute of the content represented by the character from the result of the machine learning and the shape of the region of the object detected by the object region detection unit.
また、本発明の一つの態様では、文字属性推定装置において、画像から文字の領域を検出する文字領域検出部と、前記文字領域検出部により検出された前記文字の領域に隣接する画素のうちの少なくとも一部の画素値に応じた条件を満たす画素を、前記文字が記載された物体の領域として検出する物体領域検出部と、物体の種別に応じた画像群をトレーニングデータとして機械学習し、前記機械学習の結果、及び前記物体領域検出部により検出された前記物体の領域の形状から、前記物体の種別を判別する物体種別判定部と、前記物体種別判定部により判定された前記物体の種別から前記文字が表す内容の属性を推定する属性推定部と、を備える。 In one aspect of the present invention, in the character attribute estimation device, a character region detection unit that detects a character region from an image, and a pixel adjacent to the character region detected by the character region detection unit. An object region detection unit that detects pixels satisfying a condition corresponding to at least a part of pixel values as an object region in which the characters are described, and machine learning an image group according to the type of the object as training data, From the result of machine learning and the shape of the region of the object detected by the object region detection unit, the object type determination unit for determining the type of the object, and the type of the object determined by the object type determination unit An attribute estimation unit that estimates an attribute of content represented by the character.
開示の技術によれば、情景画像中の文字の属性を、文字以外の情報に基づいて高精度で推定することが可能となる。 According to the disclosed technology, it is possible to estimate the attribute of a character in a scene image with high accuracy based on information other than the character.
以下、図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<文字属性推定装置の概要>
図1は、本実施形態に係る文字属性推定装置の概要を説明するための図である。図1に示す文字属性推定装置1は、画像(情景画像2)を入力し、当該画像中に写っている1以上の文字の属性を推定する。なお、「文字」には、例えば、漢字、かな、英数字等に限らず、絵文字、記号、図形等、所定の情報を伝達するために記載されている情報を含む。ここで、「文字の属性」とは、例えば、「人名」、「地名」、「会社名(組織名)」等の文字が表す内容を示す情報であるが、上記の例に限定されるものではない。
<Outline of character attribute estimation device>
FIG. 1 is a diagram for explaining the outline of the character attribute estimation apparatus according to the present embodiment. A character attribute estimation apparatus 1 shown in FIG. 1 inputs an image (scene image 2), and estimates the attribute of one or more characters appearing in the image. The “character” includes, for example, information described for transmitting predetermined information such as a pictograph, a symbol, and a graphic as well as kanji, kana, and alphanumeric characters. Here, the “character attribute” is information indicating contents represented by characters such as “person name”, “place name”, “company name (organization name)”, but is limited to the above example. is not.
情景画像2中に写っている文字3は、何らかの物体4(例えば名札や看板)に記載されたものであり、文字3と物体4とには何らかの関連があることが期待できる。例えば、「名札の中央部付近に大きく記載されている文字の属性は、人名であることが多い」といった関連である。 The character 3 shown in the scene image 2 is written on some object 4 (for example, a name tag or a signboard), and it can be expected that the character 3 and the object 4 have some relationship. For example, there is a relation such as “character attributes that are largely described near the center of a name tag are often personal names”.
本実施形態に係る文字属性推定装置1は、情景画像2中に写っている文字3の画素の集合である文字領域を検出し、その文字領域の周辺の情報を利用して、文字3の属性を推定する。これにより、情景画像中の文字の属性を、高精度で推定できる。また、本実施形態では、文字の属性を出力するだけでなく、文字の属性を用いて認識した文字データを出力してもよい。 The character attribute estimation device 1 according to the present embodiment detects a character area that is a set of pixels of the character 3 shown in the scene image 2, and uses information around the character area to determine the attribute of the character 3 Is estimated. Thereby, the attribute of the character in a scene image can be estimated with high precision. In the present embodiment, not only the character attributes but also the character data recognized using the character attributes may be output.
<文字属性推定装置の機能構成>
次に、本実施形態に係る文字属性推定装置の機能構成について、図を用いて説明する。図2は、本実施形態に係る文字属性推定装置の機能構成を示す機能ブロック図である。
<Functional configuration of character attribute estimation device>
Next, the functional configuration of the character attribute estimation apparatus according to the present embodiment will be described with reference to the drawings. FIG. 2 is a functional block diagram showing a functional configuration of the character attribute estimation apparatus according to the present embodiment.
文字属性推定装置1は、画像取得部11と、文字領域検出部12と、物体領域検出部13と、物体種別判定部14と、属性推定部15と、辞書選択部16と、文字認識部17とを有する。
The character attribute estimation device 1 includes an
画像取得部11は、文字が写っている画像(情景画像)データを取得する。画像取得部11は、例えば、カメラやビデオカメラ等の撮像装置で撮影した画像でもよく、または予め蓄積されている画像でもよい。また、上述した撮像装置は、文字属性推定装置1の内部に設けられていてもよく、外部に設けられていてもよい。また、上述した画像は、静止画でもよく、動画に含まれる画像フレームでもよい。
The
文字領域検出部12は、画像取得部11により取得された画像から、文字が写っている領域である文字領域を検出する。なお、文字領域は、例えば、白地の看板等に黒い文字が写っている場合は、当該黒い部分の領域である。文字領域の検出は、近い特徴を有する画素集合の色や形状、エッジの形状等に基づいて検出することができるが、これに限定されるものではない。なお、文字領域は、例えば、当該文字を構成する各画素(座標)の集合により表すことができる。
The character
物体領域検出部13は、文字領域検出部により検出された文字領域に基づいて、画像取得部11により取得された画像から、文字が記載された物体の領域である物体領域を検出する物体領域検出処理を行う。物体領域検出部13は、物体領域検出処理において、文字領域検出部12により検出された文字の領域に隣接する画素のうちの少なくとも一部の画素を物体領域の初期範囲とし、この一部画素の外側にある画素について所定の条件を満たす画素を、物体領域として検出する。
The object
すなわち、物体領域検出部13は、物体領域検出処理において、文字領域検出部12により検出された文字領域に隣接する画素のうちの少なくとも一部を、物体領域の初期範囲として設定する。また、物体領域検出部13は、物体領域に隣接し、物体領域の画素値に応じた条件を満たす画素の有無を判断し、条件を満たす画素を、順次物体領域に含める。物体領域検出部13は、上述した処理を物体領域の初期範囲を基準に外側に順次行うことで、物体領域の拡張等を行い、最終的な物体領域を検出する。物体領域検出処理の詳細は後述する。なお、物体領域検出部13は、周知のパターン認識等の画像処理技術を用いて、画像中から、所定の物体領域を検出してもよい。
That is, the object
物体種別判定部14は、物体領域検出部13により検出された物体領域に基づいて、文字が記載されている物体の種別を判定する。物体種別判定部14は、予め、検出対象の物体の種別に応じた画像群をトレーニングデータとして機械学習しておく。そして、物体種別判定部14は、当該機械学習の結果、及び入力された物体領域の形状から、文字が記載されている物体の種別を判定する。また、物体種別判定部14は、物体領域の色を検出し、入力された物体領域の色もあわせて、文字が記載されている物体の種別を判定する。
The object
属性推定部15は、物体種別判定部14により判定された物体の種別から、文字領域検出部12により検出された文字領域の文字が表す内容の属性を推定する。属性推定部15は、物体領域における文字の位置、文字の範囲、属性の推定対象である文字の他の文字に対する相対的な大きさ、文字の数、及び文字の背景の色を検出する。属性推定部15は、例えば予め設定された属性推定テーブルを用いて、物体の種別、物体領域における文字の位置、文字の範囲、属性の推定対象である文字の他の文字に対する相対的な大きさ、文字の数、及び文字の背景の色の少なくとも一つに対応させて、物体に記載されている文字の属性(カテゴリ)を推定する属性推定処理を行う。これにより、属性推定部15は、例えば文字の属性に基づいて、文字を文字認識するための辞書(単語辞書)を適切に選択することができる。また、属性推定部15は、上述した属性推定処理により、文字に対する1以上の属性を推定した後、その属性情報を出力してもよい。なお、属性推定処理の詳細は後述する。
The
辞書選択部16は、属性推定部15により推定された文字の属性に応じた辞書を選択する。例えば、文字の属性が「人名」であれば、人名として用いられやすい文字が登録されている辞書を選択する。
The
文字認識部17は、辞書選択部16により選択された辞書のデータに基づいて、文字領域検出部12に検出された文字領域の文字を認識する。例えば、辞書に登録されている各文字と、検出された文字領域とのパターンマッチングを行い、検出された文字領域の文字を、辞書に登録されている各文字のうち、類似度が最も高い文字であると認識する。
The
なお、図2に示す文字属性推定装置1は、画像等に含まれる文字の属性を推定した後、その推定結果を用いて文字の認識まで行う構成としたが、これに限定されるものではなく、例えば文字の属性を出力するまでの構成でもよい。その場合、文字属性推定装置1は、上述した画像取得部11と、文字領域検出部12と、物体領域検出部13と、物体種別判定部14と、属性推定部15とを有し、属性推定部15から得られる文字属性情報が出力される。
The character attribute estimation apparatus 1 shown in FIG. 2 is configured to perform character recognition using the estimation result after estimating the attribute of the character included in the image or the like, but is not limited to this. For example, a configuration up to outputting a character attribute may be used. In that case, the character attribute estimation device 1 includes the
<属性推定テーブルの一例>
図3は、属性推定テーブルの一例を示す図である。属性推定テーブルの項目の一例としては、例えば、「物体の種別」、「文字の位置または範囲」、「他の文字に対する相対的な大きさ」、「文字の数」、「文字の背景の色」、「文字の属性」等があるが、これに限定されるものではない。
<Example of attribute estimation table>
FIG. 3 is a diagram illustrating an example of the attribute estimation table. Examples of items in the attribute estimation table include, for example, “object type”, “character position or range”, “relative size relative to other characters”, “number of characters”, “character background color” ”And“ character attributes ”, but are not limited thereto.
「物体の種別」は、物体種別判定部14により判定された、文字が記載されている物体の種別である。
The “object type” is the type of the object in which characters are described, determined by the object
「文字の位置または文字の範囲」は、文字が記載されている物体の領域における、文字の位置または文字の範囲である。「文字の位置」としては、例えば、「上部」、「中央部」、「下部」等を設定する。また、本実施形態では、各「物体の種別」の「文字の位置」毎に、当該位置と判定する所定の条件が設定されていてもよい。例えば、「物体の種別」が「名札」で、「文字の位置」が「上部」であると判定する条件は、「文字領域の中心が、物体領域を垂直方向に3等分した場合の一番の上の領域に位置する場合」等であるが、条件についてはこれに限定されるものではない。 “Character position or character range” is the character position or character range in the region of the object in which the character is described. As the “character position”, for example, “upper part”, “central part”, “lower part” and the like are set. In the present embodiment, a predetermined condition for determining the position may be set for each “character position” of each “object type”. For example, the condition for determining that the “object type” is “name tag” and the “character position” is “upper” is that “the center of the character area divides the object area into three equal parts in the vertical direction. In this case, the condition is not limited to this.
また、「文字の範囲」としては、例えば、「全面」等を設定する。また、本実施形態では、各「物体の種別」の「文字の範囲」毎に、当該範囲と判定する所定の条件が設定されていてもよい。例えば、「物体の種別」が「看板」で「文字の範囲」が「全面」であると判定する条件は、「物体に記載されている全ての文字領域を含む範囲(例えば、各の文字領域を含む面積最少の楕円(なお、図8の620、621のような、矩形の左右を直線に代えてそれぞれ半円で構成した図形のことも、本明細書では便宜的に「楕円」と称する)または矩形)の面積が、物体領域の面積の例えば80%以上の場合」等であるが、条件についてはこれに限定されるものではない。 Further, as the “character range”, for example, “entire surface” or the like is set. In the present embodiment, a predetermined condition for determining the range may be set for each “character range” of each “object type”. For example, the condition for determining that “object type” is “signboard” and “character range” is “entire surface” is “a range including all character regions described in the object (for example, each character region An ellipse with the smallest area including the shape (a figure such as 620 and 621 in FIG. 8 in which the left and right sides of the rectangle are replaced with straight lines and each formed by a semicircle is also referred to as an “ellipse” for the sake of convenience. ) Or rectangle) is, for example, 80% or more of the area of the object region. However, the conditions are not limited thereto.
「他の文字に対する相対的な大きさ」は、例えば、ある物体の領域に複数の文字が記載されている場合に、文字の属性の判定対象である文字の大きさを、その領域内の他の文字に対する相対的な大きさの情報として表したものである。「他の文字に対する相対的な大きさ」としては、例えば、「大」、「中」、「小」、「均等」等を設定する。また、本実施形態では、各「物体の種別」の、「他の文字に対する相対的な大きさ」毎に、当該大きさと判定する所定の条件が設定されていてもよい。例えば、「物体の種別」が「名札」で「他の文字に対する相対的な大きさ」が「大」であると判定する条件は、「一のグループに含まれる円の大きさと、他のグループに含まれる円の大きさの比が所定値以上である場合」等であるが、条件についてはこれに限定されるものではない。 “Relative size with respect to other characters” refers to, for example, when a plurality of characters are described in a region of an object, the size of the character that is the object of character attribute determination, It is expressed as relative size information for the characters. As “relative size with respect to other characters”, for example, “large”, “medium”, “small”, “equal”, etc. are set. In the present embodiment, for each “object type”, a predetermined condition for determining the size may be set for each “relative size with respect to other characters”. For example, the condition for determining that “type of object” is “name tag” and “relative size with respect to other characters” is “large” is that the size of a circle included in one group and the other group Is a case where the ratio of the sizes of the circles included in is equal to or greater than a predetermined value, etc., but the conditions are not limited thereto.
「文字の数」は、物体領域に含まれる文字領域の数である。「文字の背景の色」は、物体領域における文字領域以外の部分の色である。 The “number of characters” is the number of character regions included in the object region. The “character background color” is the color of the part other than the character area in the object area.
図3の例では、物体の属性が「名札」に対応付けて、文字の属性として「人名」と「会社名」が記憶されている。「看板」に対応付けて、「会社名」が記憶されている。これは、例えば、ニュース映像を記録する場合、最初に建物や会議室の前に設置されている看板が撮影されている場合のためである。また、「ネームプレート」に対応付けて、「人名」が記憶されている。これは、例えば、記者会見の映像を記録する場合、最初に机に置かれているネームプレートが撮影されている場合のためである。 In the example of FIG. 3, the attribute of the object is associated with “name tag”, and “person name” and “company name” are stored as character attributes. “Company name” is stored in association with “signboard”. This is because, for example, when recording a news video, a signboard installed in front of a building or conference room is first photographed. In addition, “person name” is stored in association with “name plate”. This is because, for example, when recording a video of a press conference, a name plate placed on a desk is first photographed.
<情景画像中の文字の属性を推定する処理>
次に、図4を参照して、情景画像中の文字の属性を推定する処理について説明する。図4は、情景画像中の文字の属性を推定する処理の一例を示すフローチャートである。
<Process for estimating character attributes in a scene image>
Next, with reference to FIG. 4, a process for estimating the attributes of characters in a scene image will be described. FIG. 4 is a flowchart illustrating an example of processing for estimating the attributes of characters in a scene image.
画像取得部11は、情景画像を取得する(ステップS101)。
The
文字領域検出部12は、取得された情景画像から、文字が写っている領域である文字領域を検出する(ステップS102)。
The character
物体領域検出部13は、検出した文字領域に基づいて、文字が記載されている物体の領域である物体領域を検出する物体領域検出処理を行う(ステップS103)。
Based on the detected character area, the object
物体種別判定部14は、物体領域検出部13により検出された物体領域に基づいて、文字が記載されている物体の種別を判定する(ステップS104)。
The object
属性推定部15は、判定された物体の種別に基づき、当該物体に記載されている文字の属性を推定する属性推定処理を行う(ステップS105)。
The
<物体領域検出処理>
次に、図5を参照して、図4のステップS103の、物体領域検出部13による、文字が記載されている物体の領域である物体領域を検出する物体領域検出処理の詳細について説明する。図5は、物体領域検出処理の一例を示すフローチャートである。
<Object area detection processing>
Next, with reference to FIG. 5, the details of the object region detection process for detecting the object region, which is the region of the object in which the characters are described, by the object
物体領域検出部13は、文字領域の外縁部の画素値を基に、物体領域の初期範囲を決定する(ステップS201)。
The object
次に、物体領域検出部13は、物体領域に隣接する画素のうち、未選択の一の画素を物体領域の候補として選択する(ステップS202)。次に、物体領域検出部13は、選択した画素が、物体領域に含まれる画素群に近い特徴を有するか判断する(ステップS203)。
Next, the object
近い特徴を有しない場合は(ステップS203でNO)、後述するステップS205の処理に進む。また、近い特徴を有する場合は(ステップS203でYES)、当該画素を、物体領域に含めることにより、物体領域を順次拡張する(ステップS204)。 If there is no close feature (NO in step S203), the process proceeds to step S205 described later. In addition, when it has a close feature (YES in step S203), the object region is sequentially expanded by including the pixel in the object region (step S204).
物体領域検出部13は、物体領域に隣接する画素のうち、物体領域の候補として未選択の画素があるか判断する(ステップS205)。
The object
物体領域検出部13は、未選択の画素がなければ(ステップS205でNO)、処理を終了する。また、物体領域検出部13は、未選択の画素があれば(ステップS205でYES)、ステップS202の処理に戻る。
If there is no unselected pixel (NO in step S205), the object
<物体領域検出の一例>
次に、図6を参照して、本実施形態に係る物体領域検出の一例について説明する。図6は、物体領域検出処理を説明する図である。
<Example of object area detection>
Next, an example of object region detection according to the present embodiment will be described with reference to FIG. FIG. 6 is a diagram for explaining the object region detection process.
図6(A)は、情景画像に含まれる、「1」という1文字が記載された物体の領域の例を示している。図6(A)において、文字領域601に含まれる各画素の画素値は、例えば輝度が約0であるとする。領域602は、文字領域601に接する各画素に近い特徴を有する領域である。領域602に含まれる各画素の画素値は、例えば輝度が約200であるとする。領域603は、文字領域601に接する各画素と近い特徴を有しない領域である。領域603の各画素の画素値は、例えば輝度が約125であるとする。
FIG. 6A shows an example of an object region in which one character “1” is included, which is included in the scene image. In FIG. 6A, the pixel value of each pixel included in the
物体領域検出処理により、文字領域601と、領域602を含む領域が、物体領域として検出される。
By the object region detection process, a
図6(B)は、図5のステップS201にて、文字領域601に接する各画素である外縁部の値を基に、物体領域の初期範囲を決定する例を示す図である。図6(B)の例では、文字領域601の外縁部の全ての画素を、物体領域の初期範囲604bとして決定する。なお、例えば、文字領域の外縁部の画素の中から、それらの平均値や中央値に最も近い値の画素を選ぶ等、外縁部の一部の画素を初期範囲として決定する構成としてもよい。
FIG. 6B is a diagram illustrating an example in which the initial range of the object region is determined based on the value of the outer edge that is each pixel in contact with the
次に、図5のステップS204にて、物体領域を順次拡張する。まず、物体領域の初期範囲604bに接する各画素(図6(B)における「×」を付加されている各画素)を選択する。そして、選択した各画素のうち、例えば、現在の物体領域に最も近い特徴を有する画素を、物体領域に含める処理を順次繰り返す。その場合、例えば、現在の物体領域に含まれる画素の平均値や中央値に最も近い画素を物体領域に含める処理を繰り返す。なお、図6(C)は、文字領域601の左下付近の画素が、現在の物体領域に含まれる画素の平均値や中央値に比較的近いため、先に物体領域604cに取り込まれていく場合の例を示している。この処理を順次繰り返すことにより、物体領域が、図6(B)の604bから、図6(C)の604c、図6(D)の604d、図6(E)の604e、図6(F)604fのように、順次拡張する。
Next, in step S204 in FIG. 5, the object region is sequentially expanded. First, each pixel in contact with the
または、物体領域に隣接する画素の値が、物体領域に含まれている画素の最大値と最小値の間である場合に、当該隣接する画素を物体領域に含めることにより、物体領域を順次拡張する構成としてもよい。その場合、物体領域に含める画素がなくなった場合、新たに物体領域に含める画素の最大値を1増加させ、最小値を1減少させ、隣接する画素の値が、新たな物体領域に含まれている画素の最大値と最小値の間であれば、当該隣接する画素を物体領域に含める処理を繰り返す構成としてもよい。 Or, when the value of the pixel adjacent to the object region is between the maximum value and the minimum value of the pixels included in the object region, the object region is sequentially expanded by including the adjacent pixel in the object region. It is good also as composition to do. In that case, when there are no more pixels to be included in the object region, the maximum value of the pixels to be newly included in the object region is increased by 1, the minimum value is decreased by 1, and the values of adjacent pixels are included in the new object region. As long as it is between the maximum value and the minimum value of the existing pixels, the process of including the adjacent pixels in the object region may be repeated.
図6(F)は、図5のステップS205でNOとなり、処理を終了する例を示す図である。物体領域604fは、文字領域601と、領域602を含む領域となる。物体領域に隣接する画素と、物体領域に含まれる画素群との特徴が遠い(例えば、特徴の差が所定の閾値以上)ため、物体領域の拡張が収束した時点で、処理を終了する。例えば、現在の物体領域の平均値や中央値から所定の閾値以内である画素が、現在の物体領域外に存在しなくなった場合に、処理を終了する。
FIG. 6F is a diagram illustrating an example in which NO is determined in step S205 in FIG. The object region 604f is a region including a
または、物体領域に含まれている画素の最大値と最小値の間から所定の閾値以内である画素が、現在の物体領域外に存在しなくなった場合に、処理を終了する構成としてもよい。 Alternatively, the processing may be terminated when a pixel that is within a predetermined threshold value between the maximum value and the minimum value of the pixels included in the object region does not exist outside the current object region.
なお、画素値として、RGBの3つの各画素値を用いる構成としてもよい。その場合には、例えば、RGBから選択した一つの原色(例えばR)の画素値のみを用いてもよく、複数の原色の平均値を用いてもよい。 In addition, it is good also as a structure which uses each three pixel values of RGB as a pixel value. In that case, for example, only a pixel value of one primary color (for example, R) selected from RGB may be used, or an average value of a plurality of primary colors may be used.
<物体種別判定処理>
次に、物体種別判定部14による、物体の種別を判定する処理について説明する。物体種別判定部14は、予め、検出対象の物体の種別に応じた画像群をトレーニングデータとして機械学習しておく。そして、物体種別判定部14は、物体領域検出部13により検出された物体領域の、例えば形状や色の特徴に基づいて一般物体認識または特定物体認識を行うことにより、文字が記載されている物体の種別を判定する。
<Object type determination process>
Next, processing for determining the type of an object by the object
<属性推定処理>
次に、図7を参照して、属性推定部15による、属性推定処理について説明する。図7は、属性推定処理の一例を示すフローチャートである。
<Attribute estimation processing>
Next, attribute estimation processing by the
属性推定部15は、文字領域検出部12が検出した文字領域と、物体領域検出部13が検出した物体領域に基づいて、物体領域における文字の位置を判定する(ステップS301)。
The
次に、属性推定部15は、物体領域における文字を含む領域の範囲を判定する(ステップS302)。次に、属性推定部15は、物体領域における他の文字に対する相対的な大きさを判定する(ステップS303)。次に、属性推定部15は、物体領域における文字の数を判定する(ステップS304)。次に、物体領域における文字の背景の色を判定する(ステップS305)。
Next, the
次に、属性推定部15は、属性推定テーブルに基づいて、物体の種別、物体領域における文字の位置、範囲、他の文字に対する相対的な大きさ、文字の数、背景の色に基づいて、文字が表す内容の属性を推定する(ステップS306)。
Next, based on the attribute estimation table, the
<属性推定の一例>
次に、図8を参照して、本実施形態に係る属性推定の一例について説明する。図8は、本実施形態に係る属性推定の一例を説明する図である。
<An example of attribute estimation>
Next, an example of attribute estimation according to the present embodiment will be described with reference to FIG. FIG. 8 is a diagram for explaining an example of attribute estimation according to the present embodiment.
図8(A)は、物体領域検出部13により検出された物体4の領域(物体領域)における文字を判定するための前処理を説明する図である。属性推定部15は、例えば、各文字領域を含む(内接する)円610〜619を生成し、距離(例えば最も近い円の中心同士の距離)が所定の範囲内であり、大きさ(例えば円の半径)の差が所定の範囲内である1以上の円を、同一のグループと判定する。図8(A)の例では、円610〜613が同一グループと判定され、円614〜619が同一グループと判定される。なお、円の代わりに、正方形や矩形等の多角形を用いる構成としてもよい。
FIG. 8A is a diagram for explaining preprocessing for determining characters in the region (object region) of the object 4 detected by the object
図8(B)は、図7のステップS301〜ステップS305の、物体領域における、文字の位置、文字の範囲、他の文字に対する相対的な大きさ、文字の数、背景の色を判定する処理を説明する図である。 FIG. 8B is a process of determining the character position, the character range, the relative size with respect to other characters, the number of characters, and the background color in the object region in steps S301 to S305 in FIG. FIG.
属性推定部15は、例えば、各グループの円を含み、面積が最少となる楕円620、621を生成し、生成した楕円620、621の、物体領域における位置と、範囲を判定する。
For example, the
物体領域における文字の位置は、図3の属性推定テーブルにおいて設定されている、各位置と判定する所定の条件を満たすか否かに応じて判定する。図8(B)の例では、円614〜619の中心が、物体領域を垂直方向に3等分した場合の一番の上の領域に位置するとの条件を満たすため、円614〜619に含まれる各文字の位置は「上部」であると判定する。
The position of the character in the object area is determined according to whether or not a predetermined condition for determining each position is set in the attribute estimation table of FIG. In the example of FIG. 8B, the
物体領域における文字の範囲は、図3の属性推定テーブルにおいて設定されている、各範囲と判定する所定の条件を満たすか否かに応じて判定する。 The character range in the object region is determined according to whether or not a predetermined condition for determining each range is set in the attribute estimation table of FIG.
物体領域における他の文字に対する相対的な大きさは、図3の属性推定テーブルにおいて設定されている、各大きさと判定する所定の条件を満たすか否かに応じて判定する。図8(B)の例では、楕円620に含まれる各円の大きさと、楕円621に含まれる各円の大きさの比が所定値以上であるため、楕円620に含まれる各文字の、他の文字に対する相対的な大きさを、「大」であると判定する。同様に、楕円621に含まれる各文字の、他の文字に対する相対的な大きさを、「中」であると判定する。
The relative size with respect to other characters in the object region is determined according to whether or not a predetermined condition for determining each size is set in the attribute estimation table of FIG. In the example of FIG. 8B, the ratio of the size of each circle included in the
物体領域における文字の数は、例えば、各グループに含まれる円の数に基づいて判定する。図8(B)の例では、楕円620のグループに含まれる円614〜619の数は6であるため、文字の数は6と判定される。
The number of characters in the object area is determined based on, for example, the number of circles included in each group. In the example of FIG. 8B, since the number of
物体領域における文字の背景の色は、物体領域における文字領域以外の部分の色の平均値に基づいて判定する。図8(B)の例では、文字領域以外の部分の平均値が、「白」と判定する所定範囲以内であるため、文字の背景の色を、「白」であると判定する。 The background color of the character in the object area is determined based on the average value of the color of the part other than the character area in the object area. In the example of FIG. 8B, since the average value of portions other than the character area is within a predetermined range for determining “white”, the background color of the character is determined to be “white”.
図3に示す属性推定テーブルの例を用いて、図7のステップS306による文字が表す内容の属性を推定する処理について説明する。 Using the example of the attribute estimation table shown in FIG. 3, the process for estimating the attribute of the content represented by the character in step S306 in FIG. 7 will be described.
円610〜613の文字は、物体の種別が「名刺」、物体領域における文字の位置が「中央部」、他の文字に対する相対的な大きさが「大」、物体領域における文字の数は4、物体領域における文字の背景の色が「白」である。そのため、文字が表す内容の属性は、「人名」であると推定される。同様に、円614〜619の文字は、物体の種別が「名刺」、他の文字に対する相対的な大きさが「中」であるため、文字が表す内容の属性は、「社名」であると推定される。
The characters of the
なお、上述した属性推定処理の各処理における所定範囲の値、及び所定の閾値は、物体の種別に応じた値を用いる構成としてもよい。その場合、当該値は、ユーザが設定できる構成としてもよい。 Note that the values in the predetermined range and the predetermined threshold in each of the attribute estimation processes described above may be configured to use values according to the type of the object. In that case, the value may be configured to be set by the user.
<変形例>
物体領域検出部13は、物体領域を拡張する度に、物体領域の特徴を保存しながら、情景画像全体が物体領域に含まれるまで拡張し、条件に合った領域を検出する構成としてもよい。
<Modification>
The object
例えば、物体領域検出部13は、物体領域を拡張する度に、拡張する前の物体領域内の画素値のばらつきqinternal(例えば、最小値と最大値との差や分散等)と、拡張した前の物体領域内の画素値のばらつきqexternalとを算出して保存しておく。そして、物体領域検出部13は、情景画像の全ての画素が物体領域に含まれる状態まで拡張を行った後、物体領域をある回数だけ拡張した際のばらつきの比率qinternal/qexternalが、当該回数の前後の回数だけ拡張した際の各ばらつきの比率qinternal/qexternalと比べて小さい領域を、物体領域として検出する構成としてもよい。
For example, every time the object region is expanded, the object
また、ばらつきの比率qinternal/qexternalが、物体領域を拡張した回数が所定範囲内(例えば50回〜150回)で最小となる領域を、物体領域として検出する構成としてもよい。なお、ここで、所定範囲内で最少となる領域としたのは、全範囲内で最小となる領域とすると、検出したい物体が一回り大きな別の物体の中にある場合、(例えば「人物」が写っている領域の中に「名札」が写っている領域がある場合)、当該別の物体が検出される可能性があるためである。 Alternatively, a configuration may be adopted in which a region where the variation ratio q internal / q external is the smallest when the number of times the object region is expanded is within a predetermined range (for example, 50 to 150 times) is detected as the object region. Here, the region that is the smallest within the predetermined range is the region that is the smallest within the entire range. If the object to be detected is in a slightly larger object (for example, “person”) This is because there is a possibility that another object may be detected when there is a region where “name tag” is reflected in the region where the name appears.
上記処理により、複数の領域が物体領域として検出された場合、当該複数の領域のうちの一つのみをその後の処理に用いてもよいし、当該複数の領域のうちの一以上の領域を用いて、各領域に対する文字の属性を推定し、得られた各領域に対する文字の属性を文字認識等に利用してもよい。 When a plurality of regions are detected as object regions by the above processing, only one of the plurality of regions may be used for the subsequent processing, or one or more regions of the plurality of regions are used. Thus, the attribute of the character for each area may be estimated, and the obtained attribute of the character for each area may be used for character recognition or the like.
また、属性推定部15は、物体種別判定部14の判定結果が複数あるため、文字の属性が複数推定された場合は、当該属性毎に、物体種別判定部14から取得した、判定結果の確からしさを示すスコアも出力するか、最も確からしい属性に対応付けられた文字の属性を出力する構成としてもよい。
In addition, since the
また、属性推定部15は、例えば、物体領域検出部13により検出された物体の領域に基づいて、文字の属性を推定する構成としてもよい。その場合について、以下に説明する。図9は、文字属性推定装置の機能構成の変形例を示す機能ブロック図である。図2の機能ブロック図と比較して、物体種別判定部14が存在しない点が異なる。変形例の属性推定部15は、予め、検出対象の文字が表す内容の属性に応じた画像群をトレーニングデータとして機械学習しておく。例えば、人名の文字が写っている複数の画像に「人名」の属性を付加し、当該複数の画像をトレーニングデータとして機械学習しておく。そして、変形例の属性推定部15は、当該機械学習の結果、及び物体領域検出部13により検出された物体の領域の形状等から、前記文字が表す内容の属性を推定する。図10は、情景画像中の文字の属性を推定する処理の変形例を示すフローチャートである。図10のステップS401〜ステップS403は、図4のステップS101〜ステップS103と同様である。ステップS404の属性推定処理において、変形例の属性推定部15は、物体の種別の代わりに、物体領域の形状に基づいて、文字の属性を推定する。これにより、物体種別判定部14による物体の種別の判定は不要となる。
Moreover, the
また、物体種別判定部14は、判定した物体の種別の情報を、文字認識部17に出力する構成としてもよい。これにより、文字認識部17は、例えば物体の種別がのぼり等の布である場合に、歪みが多く直線成分が少ない等の特徴を用いて文字認識することができる。
The object
文字属性推定装置1は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。その場合、例えば、辞書選択部16や文字認識部17は、別のコンピュータにより実現する構成としてもよい。
The character attribute estimation device 1 may be realized by cloud computing constituted by one or more computers, for example. In that case, for example, the
文字属性推定装置1は、例えば、文字の属性に応じて、文字認識に用いる辞書を切り替えるシステムに適用可能である。例えば、取材内容の動画や、過去の放送番組の動画を蓄積した動画データベースから、動画中の画像に写っている文字を文字認識し、当該動画の検索用のタグとして、認識した文字列を当該動画に対応付けて管理するアーカイブシステムに適用することが可能である。また、文字属性推定装置1は、例えば、カメラで撮影した画像から文字を認識するスマートフォンに適用することも可能である。 The character attribute estimation device 1 can be applied to a system that switches a dictionary used for character recognition, for example, according to a character attribute. For example, from a video database that accumulates videos of interview contents or videos of past broadcast programs, characters recognized in images in the video are recognized as characters, and the recognized character string is used as a search tag for the video. The present invention can be applied to an archive system that manages in association with a moving image. Moreover, the character attribute estimation apparatus 1 can also be applied to, for example, a smartphone that recognizes characters from an image captured by a camera.
<文字属性推定プログラムについて>
本実施形態に係る文字属性推定装置1は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)等の揮発性の記憶媒体、ROM(Read Only Memory)等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示部、並びに外部と通信するためのインターフェースを備えたコンピュータによって構成してもよい。
<About the character attribute estimation program>
The character attribute estimation apparatus 1 according to this embodiment includes, for example, a CPU (Central Processing Unit), a volatile storage medium such as a RAM (Random Access Memory), a nonvolatile storage medium such as a ROM (Read Only Memory), a mouse, and the like. Or a keyboard, an input device such as a pointing device, a display unit for displaying images and data, and a computer having an interface for communicating with the outside.
その場合、文字属性推定装置1が有する各機能は、これらの機能を記述したプログラム(文字属性推定プログラム)をCPUに実行させることによりそれぞれ実現可能となる。また、このプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。つまり、上述した各構成における処理をコンピュータ(ハードウェア)に実行させるためのプログラムを、例えば汎用のPCやサーバ等にそのプログラムをインストールすることにより、上述した処理を実現することができる。 In that case, each function of the character attribute estimation device 1 can be realized by causing the CPU to execute a program (character attribute estimation program) describing these functions. The program can also be stored and distributed on a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like. That is, the above-described processing can be realized by installing a program for causing a computer (hardware) to execute the processing in each configuration described above, for example, on a general-purpose PC or server.
また、上述した実施形態における文字属性推定装置1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。文字属性推定装置1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。 Moreover, you may implement | achieve part or all of the character attribute estimation apparatus 1 in embodiment mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each functional block of the character attribute estimation apparatus 1 may be individually made into a processor, or a part or all of them may be integrated into a processor.
<まとめ>
上述した実施形態によれば、文字領域の周辺の情報を利用して、文字の属性を推定する。これにより、情景画像中の文字の属性を、高精度で推定できる。文字の属性は、情景画像中の文字の認識精度を向上されるための単語辞書の選択等に利用可能である。文字の属性に応じて、文字認識に用いる辞書を切り替えれば、照合する辞書サイズの減少による認識速度の向上や、文字(単語)の誤認識の低減が可能となる。
<Summary>
According to the embodiment described above, the character attributes are estimated using information around the character area. Thereby, the attribute of the character in a scene image can be estimated with high precision. Character attributes can be used for selecting a word dictionary for improving the recognition accuracy of characters in a scene image. If the dictionary used for character recognition is switched according to the character attributes, the recognition speed can be improved by reducing the size of the dictionary to be collated, and erroneous recognition of characters (words) can be reduced.
また、上述した実施形態によれば、文字領域の周辺の情報を利用して、物体の領域を検出する。そのため、従来技術のように、情景画像中から、輝度等に基づいて物体の領域を検出する場合と比較して、文字が記載されている物体の領域を高精度で検出できる。 Further, according to the above-described embodiment, the area of the object is detected using information around the character area. Therefore, compared to the case where the object region is detected based on the luminance or the like from the scene image as in the conventional technique, the object region in which the characters are described can be detected with high accuracy.
以上、図面を参照して実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。また、上述した各実施形態の一部又は全部を組み合わせることも可能である。 As described above, the embodiments have been described in detail with reference to the drawings. However, the specific configuration is not limited to that described above, and various design changes and the like can be made without departing from the scope of the invention. Is possible. Moreover, it is also possible to combine a part or all of each embodiment mentioned above.
1 文字属性推定装置
11 画像取得部
12 文字領域検出部
13 物体領域検出部
14 物体種別判定部
15 属性推定部
16 辞書選択部
17 文字認識部
DESCRIPTION OF SYMBOLS 1 Character
Claims (6)
前記文字領域検出部により検出された前記文字の領域に隣接する画素のうちの少なくとも一部の画素値に応じた条件を満たす画素を、前記文字が記載された物体の領域として検出する物体領域検出部と、
前記文字が表す内容の属性に応じた画像群をトレーニングデータとして機械学習し、前記機械学習の結果、及び前記物体領域検出部により検出された前記物体の領域の形状から、前記文字が表す内容の属性を推定する属性推定部と、
を備える文字属性推定装置。 A character area detection unit for detecting a character area from an image;
Object region detection for detecting pixels satisfying a condition corresponding to at least some pixel values of pixels adjacent to the character region detected by the character region detection unit as an object region in which the character is described And
Machine learning is performed as training data on an image group corresponding to the attribute of the content represented by the character, and the content represented by the character is determined from the result of the machine learning and the shape of the region of the object detected by the object region detection unit. An attribute estimation unit for estimating attributes;
A character attribute estimation device comprising:
前記文字領域検出部により検出された前記文字の領域に隣接する画素のうちの少なくとも一部の画素値に応じた条件を満たす画素を、前記文字が記載された物体の領域として検出する物体領域検出部と、
物体の種別に応じた画像群をトレーニングデータとして機械学習し、前記機械学習の結果、及び前記物体領域検出部により検出された前記物体の領域の形状から、前記物体の種別を判別する物体種別判定部と、
前記物体種別判定部により判定された前記物体の種別から前記文字が表す内容の属性を推定する属性推定部と、
を備える文字属性推定装置。 A character area detection unit for detecting a character area from an image;
Object region detection for detecting pixels satisfying a condition corresponding to at least some pixel values of pixels adjacent to the character region detected by the character region detection unit as an object region in which the character is described And
Object type determination in which an image group corresponding to the object type is machine-learned as training data, and the object type is determined from the result of the machine learning and the shape of the object area detected by the object area detection unit And
An attribute estimation unit that estimates an attribute of the content represented by the character from the type of the object determined by the object type determination unit;
A character attribute estimation device comprising:
請求項1または2に記載の文字属性推定装置。 The object area detection unit uses at least a part of pixels adjacent to the character area as an initial range of the object area, and is adjacent to the object area and is in accordance with a pixel value of the object area. Sequentially include pixels in the region of the object,
The character attribute estimation apparatus according to claim 1 or 2.
請求項1乃至3のいずれか一項に記載の文字属性推定装置。 The attribute estimation unit is based on the position of the character in the region of the object, the range of the character, the relative size of the character with respect to other characters, the number of characters, or the background color of the character, Estimating the attributes;
The character attribute estimation apparatus as described in any one of Claims 1 thru | or 3.
前記辞書選択部により選択された辞書に基づいて、前記文字を認識する文字認識部と、
を備える、請求項1乃至4のいずれか一項に記載の文字属性推定装置。 A dictionary selection unit that selects a dictionary according to the attribute estimated by the attribute estimation unit;
A character recognition unit for recognizing the character based on the dictionary selected by the dictionary selection unit;
The character attribute estimation apparatus according to claim 1, comprising:
請求項1乃至5のいずれか一項に記載の文字属性推定装置として機能させるための文字属性推定プログラム。 Computer
The character attribute estimation program for functioning as a character attribute estimation apparatus as described in any one of Claims 1 thru | or 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015254409A JP6609181B2 (en) | 2015-12-25 | 2015-12-25 | Character attribute estimation apparatus and character attribute estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015254409A JP6609181B2 (en) | 2015-12-25 | 2015-12-25 | Character attribute estimation apparatus and character attribute estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017117340A true JP2017117340A (en) | 2017-06-29 |
JP6609181B2 JP6609181B2 (en) | 2019-11-20 |
Family
ID=59234335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015254409A Active JP6609181B2 (en) | 2015-12-25 | 2015-12-25 | Character attribute estimation apparatus and character attribute estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6609181B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021012466A (en) * | 2019-07-04 | 2021-02-04 | Jcc株式会社 | Metadata generation system, video content management system, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009099125A (en) * | 2007-09-27 | 2009-05-07 | Aisin Aw Co Ltd | Image recognition device, image recognition program, and point information collection device and navigation device using them |
JP2011138473A (en) * | 2010-06-08 | 2011-07-14 | Square Enix Co Ltd | Real-time camera dictionary |
-
2015
- 2015-12-25 JP JP2015254409A patent/JP6609181B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009099125A (en) * | 2007-09-27 | 2009-05-07 | Aisin Aw Co Ltd | Image recognition device, image recognition program, and point information collection device and navigation device using them |
JP2011138473A (en) * | 2010-06-08 | 2011-07-14 | Square Enix Co Ltd | Real-time camera dictionary |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021012466A (en) * | 2019-07-04 | 2021-02-04 | Jcc株式会社 | Metadata generation system, video content management system, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6609181B2 (en) | 2019-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9697416B2 (en) | Object detection using cascaded convolutional neural networks | |
US10846870B2 (en) | Joint training technique for depth map generation | |
US10339212B2 (en) | Detecting the bounds of borderless tables in fixed-format structured documents using machine learning | |
US20170124417A1 (en) | Facilitating Text Identification and Editing in Images | |
US10062001B2 (en) | Method for line and word segmentation for handwritten text images | |
CN109697414B (en) | Text positioning method and device | |
US9245357B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US11295495B2 (en) | Automatic positioning of textual content within digital images | |
CN110210480B (en) | Character recognition method and device, electronic equipment and computer readable storage medium | |
CN111062365B (en) | Method, apparatus, chip circuit and computer readable storage medium for recognizing mixed typeset text | |
US20160283786A1 (en) | Image processor, image processing method, and non-transitory recording medium | |
US20160343142A1 (en) | Object Boundary Detection in an Image | |
JP6609181B2 (en) | Character attribute estimation apparatus and character attribute estimation program | |
JP6441142B2 (en) | Search device, method and program | |
CN114120305B (en) | Training method of text classification model, and text content recognition method and device | |
US10025766B2 (en) | Relational database for assigning orphan fillable fields of electronic fillable forms with associated captions | |
US20170213103A1 (en) | Image retrieving device, image retrieving method, and recording medium | |
US10846878B2 (en) | Multi-axis equal spacing smart guides | |
CN113887375A (en) | Text recognition method, device, equipment and storage medium | |
JP2018055256A (en) | Information processing apparatus, information processing method, and program | |
CN115004261A (en) | Text line detection | |
US20190043495A1 (en) | Systems and methods for using image searching with voice recognition commands | |
CN111062377A (en) | Question number detection method, system, storage medium and electronic equipment | |
JP2021056796A (en) | Structure recognition system, structure recognition device, structure recognition method, and program | |
US11657511B2 (en) | Heuristics-based detection of image space suitable for overlaying media content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6609181 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |