JP2019102061A - テキスト線の区分化方法 - Google Patents

テキスト線の区分化方法 Download PDF

Info

Publication number
JP2019102061A
JP2019102061A JP2018172774A JP2018172774A JP2019102061A JP 2019102061 A JP2019102061 A JP 2019102061A JP 2018172774 A JP2018172774 A JP 2018172774A JP 2018172774 A JP2018172774 A JP 2018172774A JP 2019102061 A JP2019102061 A JP 2019102061A
Authority
JP
Japan
Prior art keywords
line
connected components
subset
lines
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018172774A
Other languages
English (en)
Other versions
JP2019102061A5 (ja
JP7132050B2 (ja
Inventor
アガワル シュバーン
Agarwal Shubham
アガワル シュバーン
チャン ヨンミャン
Yongmian Zhang
チャン ヨンミャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Laboratory USA Inc
Original Assignee
Konica Minolta Laboratory USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Laboratory USA Inc filed Critical Konica Minolta Laboratory USA Inc
Publication of JP2019102061A publication Critical patent/JP2019102061A/ja
Publication of JP2019102061A5 publication Critical patent/JP2019102061A5/ja
Application granted granted Critical
Publication of JP7132050B2 publication Critical patent/JP7132050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Character Input (AREA)

Abstract

【課題】平均の文字高さの推定のための新たな方法、およびテキスト線を識別するよりロバストな方法を用いる、ICR/IWRシステムのための改良されたテキスト線の区分化方法を提供する。【解決手段】文書画像における連結成分(CC)が、それらのサイズに基づいて、3つのサブセット(通常、大きい、小さい)に分類される。通常サイズのCCの重心は、ハフ変換を用いて線の検出を実行するために用いられる。検出された候補線のうち、ある高さよりも大きい線のバウンディングボックスの高さを有する候補線が削除される。通常サイズのCCの各々について、そのバウンディングボックスが、CCのバウンディングボックスの所定の割合よりも大きい重なり領域を有する、任意の線のバウンディングボックスと重ならない場合、このCCについて、CCの重心を通り、平均の傾斜角を有する新たな線が追加される。他の全てのCCは、最も近接する線に割り当てられる。【選択図】図2

Description

本発明は、文書画像の処理、特に文書画像に関するテキスト線(text line)の区分化のための方法に関する。
テキスト線の区分化、すなわち文書画像(例えば、手書きの文書)からテキストの線を区分化することは、インテリジェント文字/単語認識(ICR/IWR)システムの重要な部分である。
多くの方法が説明されてきたが、異なる勾配、傾き、線の相互接続を有する種々の文書のサンプルにおいて、良好に機能できる一般的なアルゴリズムを得ることは困難である。
オフラインのインテリジェント単語/文字認識の分野では、従来のICR/IWRシステムは、一般的に、入力されるテキスト文書画像を処理するために、テキスト線の区分化、単語/文字の区分化、および認識モジュール(通常、kNNのCNN)という段階を含み、出力される単語または文字を生成する。ロバストなテキスト線および単語の区分化は、主要なボトルネックである。テキスト線の区分化における誤りは、単語/文字認識モジュールに対する歪んだ入力、ひいては誤った出力をもたらす。多次元のリカレントニューラルネットワークの導入によって、線の区分化の段階を回避することを試みる提案がある。言い換えれば、入力されるテキスト文書画像は、認識されたテキストを出力する、多次元のRNNに直接入力される。RNNのアプローチは、より良好な認識精度を与えるが、非常に高い計算コストがかかり、現在、リアルタイムのオフラインのICR/IWRシステムにおいて展開することは困難である。
G.Louloudis、B.Gatos、I.PratikakisおよびC.Halatsisの、Text line and word segmentation of handwritten documents,Pattern Recognition 42,no.12(2009):3169−3183(以下「Louloudis 2009」)は、「手書きの文書をそれらの個別の要素、すなわち、テキスト線および単語に区分化する方法論」を記載している。テキスト線の区分化は、文書画像の連結成分のサブセットに、ハフ変換を適用することによって実現される。後処理の工程は、誤りの可能性があるアラームの訂正、ハフ変換が作成し損ねたテキスト線の検出、および、最後にはスケルトン化に基づく新たな方法を用いた垂直連結文字の効率的な分離を含む。
A.VinciarelliおよびJ.Luettinの、A new normalization technique for cursive handwritten words,Pattern recognition letters,22(9),1043−1050(2001)は、筆記体の手書きの単語を正規化するための方法を記載している。これは、コア領域の概念を用いて単語のベースラインを識別し、正規化のために用いる。
本発明は、平均の文字高さの推定のための新たな方法、およびテキスト線を識別するよりロバストな方法を用いる、ICR/IWRシステムのための改良されたテキスト線の区分化方法を対象とする。
本発明の追加の特徴および利点は、以下の説明において記載され、その一部は当該説明から明らかであり、または、本発明の実施によって理解され得る。本発明の目的および他の利点は、明細書およびその特許請求の範囲、ならびに添付する図面において、具体的に示された構成によって実現および達成される。
上述した目的を達成するために、本発明は、二値の文書画像に対して実行されるテキスト線の区分化方法であって、前記文書画像において連結成分を検出し、前記連結成分の重心およびバウンディングボックスを計算するステップ(a)と、前記連結成分を、前記連結成分のバウンディングボックスのサイズに基づいて、通常サイズの連結成分の第1のサブセット、大きいサイズの連結成分の第2のサブセット、および小さいサイズの連結成分の第3のサブセットを含む3つのサブセットに分類するステップ(b)と、前記連結成分の第1のサブセットの前記重心にハフ変換を適用することによって、前記連結成分の第1のサブセットから複数の候補線を検出するステップ(c)と、全ての候補線のうち、線のバウンディングボックスの平均高さの所定の乗数倍よりも大きい、線のバウンディングボックスの高さを有する候補線を削除するステップ(d)と、ここで、残りの候補線は、正当な線を構成し、前記第1のサブセットの前記連結成分の各々について、前記連結成分と前記正当な線の各々との間の重なり領域を計算し、前記重なり領域のうちの最大の領域が、前記連結成分のバウンディングボックスの領域の所定の割合よりも大きくない(所定の割合と同じ、または、所定の割合よりも小さい)場合、新たな線を正当な線として追加するステップ(e)と、ここで、前記新たな線は、前記連結成分の前記重心を通り、全ての候補線の平均の角度に等しい角度を有し、前記連結成分の第2のサブセットの各々を、2つ以上の連結成分に分解するステップ(f)と、前記第1のサブセットの前記連結成分の各々と、前記第3のサブセットの前記連結成分の各々と、前記ステップ(f)において前記第2のサブセットの前記連結成分を分解することによって取得された前記連結成分の各々とを、前記ステップ(e)において取得された前記正当な線のうちの最も近接する線に割り当てて、区分化されたテキスト線を生成するステップ(g)と、を含む方法を提供する。
いくつかの実施形態では、前記ステップ(c)は、前記連結成分の第1のサブセットの前記重心にハフ変換を適用して、複数のセルを有するアキュムレータアレイを生成するステップ(c1)と、前記セルのうち、最大の値を有する前記アキュムレータアレイのセルを特定し、当該値が所定の閾値よりも大きい場合、特定した前記セルに対応する線を候補線のリストに追加し、前記連結成分の第1のサブセットから前記候補線に属する前記連結成分を削除するステップ(c2)と、最大の値を有する前記セルの前記値が、前記所定の閾値よりも大きくなくなる(前記所定の閾値と同じになる、または、前記所定の閾値よりも小さくなる)まで、前記ステップ(c1)および(c2)を繰り返すステップと、を含む。
いくつかの実施形態では、前記ステップ(d)は、前記ステップ(c)において検出された前記候補線の各々について、前記候補線に属する前記第1のサブセットの全ての連結成分の境界を示す、線のバウンディングボックスを計算するステップと、全ての候補線の前記線のバウンディングボックスについて、線のバウンディングボックスの平均高さを計算するステップと、前記線のバウンディングボックスの平均高さの前記所定の乗数倍よりも大きい、線のバウンディングボックスの高さを有する全ての候補線を削除するステップと、を含む。
いくつかの実施形態では、前記ステップ(b)において、前記連結成分は、前記連結成分のバウンディングボックスのサイズ、および前記連結成分の平均高さに基づいて、3つのサブセットに分類される。
いくつかの実施形態では、前記方法は、前記ステップ(g)において生成された、前記区分化されたテキスト線を用いて、テキスト線の平均高さを計算するステップ(h)と、前記ステップ(a)において検出された前記連結成分を、前記連結成分のバウンディングボックスのサイズと、前記ステップ(h)において計算された前記テキスト線の平均高さとに基づいて、通常サイズの前記連結成分の第1のサブセット、大きいサイズの前記連結成分の第2のサブセット、および小さいサイズの前記連結成分の第3のサブセットを含む3つのサブセットに分類するステップ(i)と、前記ステップ(i)において取得された前記連結成分の前記3つのサブセットを用いて、前記ステップ(c)、(d)、(e)、(f)および(g)を繰り返すステップと、をさらに含む。
いくつかの実施形態では、前記ステップ(h)は、前記ステップ(g)において生成された、前記区分化されたテキスト線の各々について、前記テキスト線の各行について、画素濃度を表す画素濃度のヒストグラムを計算するステップと、k=2を用いたk平均クラスタリングの計算を前記画素濃度のヒストグラムに適用して、ヒストグラムの要素を、高濃度の行および低濃度の行に対応する2つのクラスに分類するステップと、前記テキスト線の高さとして、最も広い高濃度の領域の幅を計算するステップと、前記テキスト線の平均高さとして、全てのテキスト線の前記高さの平均を計算するステップと、を含む。
他の態様では、本発明は、データ処理装置を制御するためのコンピュータープログラム、および、コンピュータープログラムを内部に格納したコンピューター読取可能な記録媒体(例えば、メモリーまたは記憶装置)を提供し、当該コンピュータープログラムは、上述した方法をデータ処理装置に実行させるように構成される。
前述した一般的な説明、および後述する詳細な説明は共に、具体的および例示的であり、特許請求の範囲に記載された本発明のさらなる説明を提供することを目的とするものであると理解される。
従来の線の区分化方法を概略的に説明する図である。 本発明の一実施形態に係るテキスト線の検出方法を概略的に説明する図である。 本発明の他の実施形態に係るテキスト線の区分化方法を概略的に説明する図である。 手書きの単語のためのコア領域の推定の一例を示す図である。 例示的なテキスト線の画像、および対応する画素濃度のヒストグラムを示す図である。 図5Aの例の画素濃度のヒストグラムにおいて、k=2を用いたk平均クラスタリングの結果を示す図である。 本発明の一実施形態に係るテキスト線の高さを推定する方法を概略的に説明する図である。 本発明の他の実施形態に係るテキスト線の区分化方法を概略的に説明する図である。 テキスト線の区分化のためのテキストのサンプル、およびそれらの処理を示す図である。 テキスト線の区分化のためのテキストのサンプル、およびそれらの処理を示す図である。 テキスト線の区分化のためのテキストのサンプル、およびそれらの処理を示す図である。 本発明の実施形態が実装され得るコンピューターシステムを概略的に説明する図である。
図1は、Louloudis 2009に記載されているような、手書きの文書のための従来の線の区分化方法を概略的に説明する図である。当該方法は、テキストの内容を表す前景画素(すなわち、黒画素)、および背景画素(すなわち、白画素)を含む二値画像である、テキスト文書画像の入力(ステップS100)によって始まる。入力画像に連結成分解析が適用され、連結成分が抽出される(ステップS101)。連結成分(CC)は、連結された前景画素のグループである。CCの特性、例えば、それらの重心、バウンディングボックス(CCのバウンディングボックスは、CCの境界を示す横辺および縦辺を有する長方形のボックスである)、および高さ等が、当該ステップにおいて計算される。そして、平均の文字高さとしてのCCの平均高さを用いて、分類のための基準が設定され、CCが、それらのサイズに基づいて、3つのサブセットに分類される(ステップS102)。3つのサブセットを、通常サイズのための第1のサブセット、大きいサイズ(大サイズ)のための第2のサブセット、および小さいサイズ(小サイズ)のための第3のサブセットと称する。一例では、3つのサブセットのための境界線は、CCの平均高さの、第1の所定の閾値サイズs1(例えば0.5)倍と、CCの平均高さの、第2の所定の閾値サイズs2(例えば3)倍とに設定される。より具体的には、この例において、CCは、以下の条件を満たす場合、通常サイズのCCに分類される。
ここで、HおよびWは、CCの高さおよび幅であり、AHは、上記で算出された平均の文字高さであり、AWは、この例では、算出されたAHと同じになるように設定された平均の文字幅である。s3は、第3の所定の閾値サイズ(例えば0.5)である。CCは、以下の条件を満たす場合、大サイズのCCに分類される。
CCは、上述したこれらの条件を満たさない場合、小サイズのCCに分類される。
一般的な事項として、通常サイズのCCは、1つ以上のテキスト文字を含み、小サイズのCCは、句読点、ダイアクリティカルマーク(発音区別符号)、「i」等の小さい文字等であり、大サイズのCCは、通常、互いに接触して1つのCCになる複数の線からなる文字に起因する。図8Aは、サンプルのテキスト画像を示し、パネル(a)、(b)および(c)は、通常サイズのCC、大サイズのCC、および小サイズのCCのバウンディングボックス81、82および83をそれぞれ示す。
通常サイズのCCのサブセットが、CCの重心にハフ変換を適用することによって、線を検出するために用いられる(ステップS103)。
ハフ変換は、一連の点から直線を見つけるために用いられ得る、数学的手法である。ハフ変換は、以下に示すようなヘッセ標準形における直線を用いる。
ここで、ρは、原点から線までの垂直距離、θは、線の垂直方向と正のx軸との間の角度である。ハフ変換では、線は、極座標において(ρ,θ)と表される。x−y平面における対象の点について、その点を通る各直線は、(ρ,θ)空間における点を与え、その点を通る全ての直線は、(ρ,θ)空間における曲線を与える。x−y平面における一連の点について、(ρ,θ)空間におけるアキュムレータアレイ(accumulator array)が構成され、アキュムレータアレイの各セルにおける値は、当該セルの(ρ,θ)値に対応する直線上に位置する点の数を表し得る。(ρ,θ)空間におけるアキュムレータアレイは、ハフ変換である。一連の点(例えば、CCの重心)にハフ変換を適用することによって、高い値を有するアキュムレータアレイのセルは、好ましくは、点によって形成される線を表す。
図8A、図8Bのサンプルのテキスト画像を用いて、通常サイズのCCのバウンディングボックス81(パネル(d))、通常サイズCCの重心84(パネル(e))、および、ハフ変換によって検出された線85(パネル(f))を示す。
テキスト線の検出の後、大サイズのCCのサブセットは、より小さいCCに分解される(ステップS104)。一例では、これは、これらのCCにまず細線化を適用してから、線間の接合点を削除することによって行われる。接合点が見つからない場合、2つの線の中間点が接合点であるとみなされる。そして、通常サイズのCC、小サイズのCC、および大サイズのCCを分解することによって生じたCCの各々を含む各CCは、ステップS103において検出された最も近接するテキスト線に割り当てられて(ステップS105)、区分化されたテキスト線を出力として生成する。
図1に示す線の区分化方法は、ほとんどの手書きのバリエーションに対して、非常にロバストである。それは、CCの平均高さが、テキスト文書における平均の文字高さに非常に近いという仮定に基づいている。しかし、文書画像が、CCの平均高さを高くさせ得る多くの線の相互接続を有する場合、この仮定はしばしば機能しない。図8Aおよび図8Bに示すサンプルテキストでは、例えば、2つのCC81Aは、従来の方法によって通常サイズのCCに分類され(パネル(a)およびパネル(d))、パネル(f)では、それらの重心84Aが、検出された線85から離れて位置することが確認され得る。
この問題に対処するために、本発明の実施形態は、平均の線の高さおよびバウンディングボックスの重なり(重複)を用いて、新たな線を識別するための方法を提供する。また、本発明の実施形態は、Louloudis 2009に記載された方法に追加される改良段階として用いられる、テキストのコア領域を用いて平均の文字高さを概算するための方法を提供する。
図2は、本発明の一実施形態に係るテキスト線の検出方法を概略的に説明する図である。本方法は、図1の方法のステップS103における「線を算出」するモジュールを、置換するために用いられ得る。図2の方法に対する入力は、図1のステップS102によって生成される通常サイズのCCのサブセットである。CCの重心、バウンディングボックスおよび高さは、ステップS101において計算されている。
図2を参照すると、ステップS201において、CCの重心のハフ変換が計算される。いくつかの実装では、ハフ変換のρの分解能は、CCの平均高さの0.2倍に設定される。ハフ変換は、アキュムレータアレイの各(ρ,θ)セルについて、重みを与える。より高い重みを有する(ρ,θ)セルに寄与する重心は、線内に位置するより高い可能性を有する。文書画像は、(一般的なビットマップ画像と比較して)テキストが書き込まれている特殊な場合であるため、ほとんどの場合、比較的小さい傾斜または傾きの角度を有するほぼ水平な線では、テキスト線を表すとみなされる(ρ,θ)セルのθの値に、追加の制限が課せられてもよい。一実装では、ステップS201において、θは85〜95度の範囲に制限される。同様に、例えば、書き手が2つの異なるテキスト線を交差させる可能性が低いという仮定のように、他の情報が、線の検出を制限するための条件として用いられてもよい。
ステップS202では、全てのセルのうち、最大値を有する(ρ,θ)セルが分析されて、その値が所定の閾値、例えば5よりも大きいかどうかが判断される。閾値よりも大きい場合(ステップS202において「yes」)、(ρ,θ)セルは、候補線とみなされて、候補線のリストに追加され(ステップS203)、その線に属する全ての重心は、重心のリストから削除される(ステップS204)。そして、処理はステップS201に戻り、残りの重心のみを用いて、再びハフ変換が算出される。
したがって、ステップS201〜204の各々の繰り返しが、元の重心のリストから、一本の線および対応する重心を抽出する。
ステップS202において、最大値を有する(ρ,θ)セルが、閾値よりも大きい値を有しない場合(ステップS202において「no」)、全ての線が抽出されたとみなされる。結果は、候補線のリストと、残りのCCの(それらの重心およびバウンディングボックスを含む)リストとなる(ステップS205)。
各候補線について、その線に属する全てのCCの境界を示す線のバウンディングボックスが取得され、線のバウンディングボックスの高さが計算される(ステップS206)。全ての候補線の線のバウンディングボックスの平均高さと、全ての候補線の平均の傾斜角θとが計算される(ステップS206)。
そして、線のバウンディングボックスの平均高さの所定の乗数(例えば、1.2)倍よりも大きい、線のバウンディングボックスの高さを有する全ての候補線は、正当でない線とみなされて、候補線のリストから削除される(ステップS207)。残りの線は、正当な線とみなされる。
次に、任意の正当な線に属していない各重心(これは、ステップS205の結果としての、任意の候補線の一部ではない重心と、ステップS207において、線のリストから削除された正当でない線に属する重心とを含む)について、対応するCC、およびそのバウンディングボックスが取得され、CCのバウンディングボックスと、候補線の各々との間の重なりが計算される(ステップS208)。CCのバウンディングボックスが、CCのバウンディングボックスの領域の所定の割合(例えば、3分の1)よりも大きい、正当な線のいずれかとの重なりを有しない場合(ステップS209において「NO」)、新たな線が追加される。新たな線は、以下のパラメーターを有する(ステップS210)。
ここで、cxおよびcyはそれぞれ、CCの重心のx座標およびy座標である。言い換えれば、新たな線は、CCの重心を通り、平均の傾斜角を有するものである。
ステップS209において、CCのバウンディングボックスが、CCのバウンディングボックスの領域の所定の割合(例えば、3分の1)よりも大きい、正当な線の少なくとも1つとの重なりを有する場合(ステップS209において「YES」)、何の措置もなされない。
ステップS209およびS210は、任意の正当な線に属しない各重心について、全てのこのような重心が処理される(ステップS211において「NO」になる)まで、繰り返される。これにより、テキスト線の検出ステップが終了し、検出されたテキスト線が出力される。
上述したように、Louloudis 2009に記載されたアルゴリズムは、ほとんどの現実世界のシナリオについて良好に機能する。それは、CCの平均高さに応じた、CCの3つのカテゴリーへの分類に基づいている。しかし、線が、CCの平均高さについての高い値、ひいては誤ったサブ分類をもたらす、多数の相互接続を有する場合、当該方法はしばしば機能しない。このことは、線の相互接続のいくつかが、通常サイズのCCのカテゴリーに分類されることにつながり、ひいては、それらが分解されずに、線の1つに割り当てられてしまう。図8Aおよび図8Bにおけるサンプルのテキスト画像は、2つの例である81Aを示す。
図3に示す、本発明の他の実施形態に係る線の区分化方法は、この問題を解決するのに役立つ改良モジュールを提供する。改良モジュールは、テキスト線のコア領域を用いて、線の高さを判断する。ローマ字のコア領域は、文字の中央領域であり、全ての文字は、コア領域を含み、いくつかの文字は、コア領域のみを含み、いくつかの他の文字は、コア領域の上および/または下の部分も含む。図4は、コア領域の近似の例を与える。コア領域の概念は、単語のベースがコア領域を用いて計算され、テキストの勾配および傾きを推定するために用いられる、単語正規化のためのテキスト文書の区分化において広く用いられる。
図3の改良モジュールは、図1(ステップS300)に示す従来の線の区分化方法を用いて取得される、一連のテキスト線の画像を入力として取り込み、より正確なテキスト線の区分化を表す、新たな一連のテキスト線を出力する。上述した問題によって、入力されるテキスト線は、単一の線に割り当てられた、いくつかの大きい複数の線のCCを有してもよい。テキスト線のほとんどは正しく区分化されているため、入力されるテキスト線が用いられて、コアテキスト領域が抽出され得る。上述したように、コア領域は、ローマ字の主要な部分を表し、長い文字についての外れ値を無視し、平均の文字高さについて良好な近似を与えることができる。より詳細に後述されるステップS301は、コア領域のアプローチを用いて、テキスト線の平均高さを算出する。
図3の方法のステップS302は、入力画像におけるCCを計算し、平均の文字高さを用いてCCを3つのサブセットに分類する、図1の従来の方法のステップS101およびS102と同様である。しかし、ステップS302は、(ステップS102のように)CCを用いて算出された平均の文字高さではなく、ステップS301において算出されたテキスト線の平均高さを用いて、CCをサブセットに分類するための基準を設定する。言い換えれば、ステップS102の式において、ここでは、AHはテキスト線の平均高さAH’に置換され、AWはAH’と等しいAW’に置換される。ステップS303の線の算出は、図2の方法を用いて実行され得る。ステップS304(大きいCCの分解)およびS305(最も近接する線に対するCCの割り当て)は、図1のステップS104およびS105と同様である。
コア領域を用いてテキスト線の高さを計算するステップS301について、図6を参照して詳細に説明する。
ステップS301に入力されたテキスト線の画像の各々について、当該画像の各行における前景画素の数を計算することによって、画素濃度のヒストグラムが生成される(ステップS601)。一般的な手書きのような、比較的低い傾斜角を有するテキスト線の画像について、ヒストグラムは、線の中心が当該線の上端および下端と比較して高い画素濃度を有する、およそガウス分布となる。図5Aは、例示的な線の画像と、右側に対応する画素濃度のヒストグラムとを示す図である。このヒストグラムの表現では、縦軸が、画素位置の行インデックスであり、横軸が、当該行における前景画素の数または濃度である。
ヒストグラムを生成した後、k平均(k−means)クラスタリングの計算が、ヒストグラムの値に適用されて、ヒストグラムの要素が、高濃度の行および低濃度の行に対応する2つのクラスに分類される(ステップS602)。図5Bは、図5Aの例における画素濃度データにおいて、k=2を用いたk平均クラスタリングの結果を示す図である。高濃度の行の行インデックスが、ヒストグラムの単一の連続領域にあるという通常の状況では、高濃度の領域の幅が、コア領域の高さとして取得される(ステップS603)。この状況が、図5Bに示される。
入力されるテキスト線の画像が、1つ以上の実際のテキスト線からなるテキストを含む場合に発生し得る、高密度の行が、ヒストグラムの2つ以上の連続領域において現れるという状況では、高密度の領域の各々の幅が計算され、最大幅がコア領域の高さとして取得される(ステップS603)。
ステップS601からS603は、入力される全てのテキスト線の画像について、コア領域の高さを計算するために繰り返される(ステップS604)。そして、入力される全てのテキスト線のコア領域の高さの平均が算出され(ステップS605)、図3のステップS302において平均の文字高さとして用いられて、通常サイズのサブセット、大サイズのサブセットおよび小サイズのサブセットに、CCが分類される。
図8Cは、図8Aにおけるサンプルのテキスト画像と同じものを用いて、ステップS302の結果として図3の方法を用いて、CCを3つのサブセットに分類した結果を示す図である。パネル(g)、(h)および(i)は、ステップS302によって取得された、通常サイズのCC、大サイズのCCおよび小サイズのCCのバウンディングボックスをそれぞれ示す。図8Aのパネル(a)および(b)と比較すると、従来の方法によって、誤って通常サイズのCCに分類された2つのCC(パネル(a))が、ここでは、大サイズのCC82に分類される(パネル(h))ことがわかる。したがって、これらの大サイズのCCは、ステップS304において適切に分解され、ステップS305においてテキスト線に正しく割り当てられ得る。
改良モジュール、すなわち、図3の方法は、任意の線の区分化アルゴリズムに適用され、その制度を向上させ得る。言い換えれば、ある区分化方法を用いたテキスト線の区分化の1回のパスの後に、線の区分化の改良された結果を生み出すために、図3の方法が適用され得る。
図7は、本発明の他の実施形態に係る線の区分化方法を示すフローチャートである。図1の方法と同様に、入力されるデータは、二値のテキスト文書画像である。図7の方法において、ステップS701〜S705は、図1の方法のステップS101〜S105とそれぞれ同様である。1回目にステップS702が実行されるとき、ステップS701において算出されたCCの平均高さは、CCを3つのサブセットに分類するための基準を設定するのに用いられる。ステップS703における線の検出は、上述した図2の方法を用いて、あるいは、従来の線の検出方法によって、実行されてもよい。ステップS701〜S705が一回実行された後、ステップS705によって出力されるテキスト線を用いて、コア領域の平均高さを計算するという、コア領域の高さの計算ステップ(ステップS707)が実行される。ステップS707のコア領域の高さの計算は、上述した図6の方法を用いて実行される。そして、処理はステップS702に戻り、CCを3つのサブセットに分類するが、今回は、ステップS707において取得されたコア領域の平均高さを用いて、分類のための基準が設定される。
図7の処理フローは、フラグ「出力」によって制御される。処理が始まったとき、フラグは「NO」に初期化され、ステップS705の後、フラグが「NO」である場合(ステップS706)、ステップS707が実行される。ステップS707は、ステップS702に戻る前に、フラグを「YES」に設定する。ステップS702では、フラグが「NO」である場合、ステップS701によって取得された平均高さが用いられ(1回目)、フラグが「YES」である場合、ステップS707によって取得された平均高さが用いられる(2回目)。2回目のステップS706が実行され、フラグは「YES」に設定されて、処理は終了する。
図7の方法は、図3の方法と同じ改良された結果を達成できる。
本発明の実施形態は、ICR/IWRのためのテキスト線の区分化に関するロバストな方法を提供する。本方法は、Louloudis 2009に記載された従来の方法に対して、以下に挙げるいくつかの利益および利点を有する。本方法は、相互接続から独立した、コア領域を用いて平均の文字高さを概算するための、ロバストな方法を提供する。本方法は、連結成分からテキスト線を見つけるための、より正確な方法を提供する。高さおよび線のより正確な計算は、ICR/IWRのための、より良好な認識精度をもたらす。図2の線の検出方法では、初期段階における誤った線の削除(例えば、平均高さの1.2倍よりも高い線の削除、ステップS207)は、線の区分化、およびICR/IWRシステムの計算の複雑性を低減させる。文字高さは、続く単語/文字の区分化段階のために再使用され得る。図3の方法は、任意の他の線の区分化方法によって生成される、線の区分化結果を改良するために用いられ得る。
上述した種々の方法は、ハードウェア、ソフトウェアまたはファームウェアにおいて実装され得る。例えば、図9は、本発明の実施形態が実装され得る例示的なコンピューターを示す図である。図9に示すように、このコンピューター10は、中央処理装置(CPU)101、メモリー102、キーボード等の入力部103、コンピューターモニター等の表示部104、およびネットワークインターフェース105を備え、(図示されない構成要素も含む)これらの全ての構成要素は、バス106を介して、相互に内部的に通信する。ネットワークインターフェース105を通して、コンピューター10は、LANまたはWAN等のネットワーク20に接続され、当該ネットワークに接続される他の装置と通信する。通常、メモリー102は、動作中に必要に応じてソフトウェアプログラムを実行するように構成されるCPU101がアクセス可能な、コンピューターが実行可能な指示、またはソフトウェアプログラムを記憶する。好ましくは、そのようなソフトウェアプログラムは、GUI(グラフィックユーザーインターフェース)を実装するコンピューターオペレーティングシステムにおいて、動作するように設計される。一実施形態では、メモリー102におけるそのようなソフトウェアは、CPU101によって実行されると、コンピューター10が上述したテキスト線の区分化方法を実行することを可能にする、プログラム100を含む。また、CPU101は、他の種類のソフトウェア(例えば、管理ソフトウェア)、アプリケーション(例えば、ネットワーク通信アプリケーション)、オペレーティングシステム等を実行するようにも構成される。
当業者には明らかなように、本発明の思想または範囲から逸脱することなく、本発明のテキスト線の区分化方法および関連する装置において、種々の改良および変更が行われ得る。したがって、本発明は、添付する特許請求の範囲およびその均等物の範囲に入る改良および変更を包含することが意図される。

Claims (12)

  1. 二値の文書画像に対して実行されるテキスト線の区分化方法であって、
    前記文書画像において連結成分を検出し、前記連結成分の重心およびバウンディングボックスを計算するステップ(a)と、
    前記連結成分を、前記連結成分のバウンディングボックスのサイズに基づいて、通常サイズの連結成分の第1のサブセット、大きいサイズの連結成分の第2のサブセット、および小さいサイズの連結成分の第3のサブセットを含む3つのサブセットに分類するステップ(b)と、
    前記連結成分の第1のサブセットの前記重心にハフ変換を適用することによって、前記連結成分の第1のサブセットから複数の候補線を検出するステップ(c)と、
    全ての候補線のうち、線のバウンディングボックスの平均高さの所定の乗数倍よりも大きい、線のバウンディングボックスの高さを有する候補線を削除するステップ(d)と、ここで、残りの候補線は、正当な線を構成し、
    前記第1のサブセットの前記連結成分の各々について、前記連結成分と前記正当な線の各々との間の重なり領域を計算し、前記重なり領域のうちの最大の領域が、前記連結成分のバウンディングボックスの領域の所定の割合よりも大きくない場合、新たな線を正当な線として追加するステップ(e)と、ここで、前記新たな線は、前記連結成分の前記重心を通り、全ての候補線の平均の角度に等しい角度を有し、
    前記連結成分の第2のサブセットの各々を、2つ以上の連結成分に分解するステップ(f)と、
    前記第1のサブセットの前記連結成分の各々と、前記第3のサブセットの前記連結成分の各々と、前記ステップ(f)において前記第2のサブセットの前記連結成分を分解することによって取得された前記連結成分の各々とを、前記ステップ(e)において取得された前記正当な線のうちの最も近接する線に割り当てて、区分化されたテキスト線を生成するステップ(g)と、
    を含む方法。
  2. 前記所定の乗数は、1.2である請求項1に記載の方法。
  3. 前記所定の割合は、3分の1である請求項1または2に記載の方法。
  4. 前記ステップ(c)は、
    前記連結成分の第1のサブセットの前記重心にハフ変換を適用して、複数のセルを有するアキュムレータアレイを生成するステップ(c1)と、
    前記セルのうち、最大の値を有する前記アキュムレータアレイのセルを特定し、当該値が所定の閾値よりも大きい場合、特定した前記セルに対応する線を候補線のリストに追加し、前記連結成分の第1のサブセットから前記候補線に属する前記連結成分を削除するステップ(c2)と、
    最大の値を有する前記セルの前記値が、前記所定の閾値よりも大きくなくなるまで、前記ステップ(c1)および(c2)を繰り返すステップと、
    を含む請求項1〜3のいずれか一項に記載の方法。
  5. 前記ステップ(c1)において、前記ハフ変換の角度は、85〜95度の範囲に制限される請求項4に記載の方法。
  6. 前記所定の閾値は、5である請求項4または5に記載の方法。
  7. 前記ステップ(d)は、
    前記ステップ(c)において検出された前記候補線の各々について、前記候補線に属する前記第1のサブセットの全ての連結成分の境界を示す、線のバウンディングボックスを計算するステップと、
    全ての候補線の前記線のバウンディングボックスについて、線のバウンディングボックスの平均高さを計算するステップと、
    前記線のバウンディングボックスの平均高さの前記所定の乗数倍よりも大きい、線のバウンディングボックスの高さを有する全ての候補線を削除するステップと、
    を含む請求項1〜6のいずれか一項に記載の方法。
  8. 前記ステップ(b)において、前記連結成分は、前記連結成分のバウンディングボックスのサイズ、および前記連結成分の平均高さに基づいて、3つのサブセットに分類され、前記連結成分は、
    という条件を満たす場合、通常サイズの前記連結成分の第1のサブセットに分類され、ここで、HおよびWは、前記連結成分の高さおよび幅であり、AHは、前記連結成分の平均高さであり、AWは、AHに等しい平均の文字幅であり、s1、s2およびs3は、所定の閾値サイズであり、前記連結成分は、
    という条件を満たす場合、大きいサイズの前記連結成分の第2のサブセットに分類され、上述した前記条件を満たさない場合、小さいサイズの前記連結成分の第3のサブセットに分類される請求項1〜7のいずれか一項に記載の方法。
  9. 前記ステップ(g)において生成された、前記区分化されたテキスト線を用いて、テキスト線の平均高さを計算するステップ(h)と、
    前記ステップ(a)において検出された前記連結成分を、前記連結成分のバウンディングボックスのサイズと、前記ステップ(h)において計算された前記テキスト線の平均高さとに基づいて、通常サイズの前記連結成分の第1のサブセット、大きいサイズの前記連結成分の第2のサブセット、および小さいサイズの前記連結成分の第3のサブセットを含む3つのサブセットに分類するステップ(i)と、ここで、前記連結成分は、
    という条件を満たす場合、通常サイズの前記連結成分の第1のサブセットに分類され、ここで、HおよびWは、前記連結成分の高さおよび幅であり、AH’は、前記テキスト線の平均高さであり、AW’は、AH’に等しく、s1、s2およびs3は、所定の閾値サイズであり、前記連結成分は、
    という条件を満たす場合、大きいサイズの前記連結成分の第2のサブセットに分類され、上述した前記条件を満たさない場合、小さいサイズの前記連結成分の第3のサブセットに分類され、
    前記ステップ(i)において取得された前記連結成分の前記3つのサブセットを用いて、前記ステップ(c)、(d)、(e)、(f)および(g)を繰り返すステップと、
    をさらに含む請求項8に記載の方法。
  10. 前記ステップ(h)は、
    前記ステップ(g)において生成された、前記区分化されたテキスト線の各々について、
    前記テキスト線の各行について、画素濃度を表す画素濃度のヒストグラムを計算するステップと、
    k=2を用いたk平均クラスタリングの計算を前記画素濃度のヒストグラムに適用して、ヒストグラムの要素を、高濃度の行および低濃度の行に対応する2つのクラスに分類するステップと、
    前記テキスト線の高さとして、最も広い高濃度の領域の幅を計算するステップと、
    前記テキスト線の平均高さとして、全てのテキスト線の前記高さの平均を計算するステップと、
    を含む請求項9に記載の方法。
  11. データ処理装置を制御するためのコンピュータープログラムであって、請求項1〜10のいずれか一項に記載の方法を前記データ処理装置に実行させるように構成されるコンピュータープログラム。
  12. 請求項11に記載のコンピュータープログラムを格納したコンピューター読取可能な記録媒体。
JP2018172774A 2017-11-30 2018-09-14 テキスト行の区分化方法 Active JP7132050B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/828,110 2017-11-30
US15/828,110 US10318803B1 (en) 2017-11-30 2017-11-30 Text line segmentation method

Publications (3)

Publication Number Publication Date
JP2019102061A true JP2019102061A (ja) 2019-06-24
JP2019102061A5 JP2019102061A5 (ja) 2019-07-25
JP7132050B2 JP7132050B2 (ja) 2022-09-06

Family

ID=66634070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018172774A Active JP7132050B2 (ja) 2017-11-30 2018-09-14 テキスト行の区分化方法

Country Status (2)

Country Link
US (1) US10318803B1 (ja)
JP (1) JP7132050B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107471648B (zh) * 2017-05-23 2018-10-12 珠海赛纳打印科技股份有限公司 用于打印技术的图像数据处理方法以及打印系统
US10956730B2 (en) * 2019-02-15 2021-03-23 Wipro Limited Method and system for identifying bold text in a digital document
CN110619333B (zh) * 2019-08-15 2022-06-14 平安国际智慧城市科技股份有限公司 一种文本行分割方法、文本行分割装置及电子设备
CN111695540B (zh) * 2020-06-17 2023-05-30 北京字节跳动网络技术有限公司 视频边框识别方法及裁剪方法、装置、电子设备及介质
CN112561928B (zh) * 2020-12-10 2024-03-08 西藏大学 一种藏文古籍的版面分析方法及系统
CN112926590B (zh) * 2021-03-18 2023-12-01 上海晨兴希姆通电子科技有限公司 线缆上字符的分割识别方法及其系统
CN115290661B (zh) * 2022-09-28 2022-12-16 江苏浚荣升新材料科技有限公司 基于计算机视觉的橡胶圈缺陷识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031716A (ja) * 1996-05-13 1998-02-03 Matsushita Electric Ind Co Ltd 文字行抽出方法および装置
JP2003281468A (ja) * 2002-03-20 2003-10-03 Toshiba Corp 文字認識装置および文字認識方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5513304A (en) * 1993-04-19 1996-04-30 Xerox Corporation Method and apparatus for enhanced automatic determination of text line dependent parameters
US5588072A (en) * 1993-12-22 1996-12-24 Canon Kabushiki Kaisha Method and apparatus for selecting blocks of image data from image data having both horizontally- and vertically-oriented blocks
US5953451A (en) * 1997-06-19 1999-09-14 Xerox Corporation Method of indexing words in handwritten document images using image hash tables
US20020037097A1 (en) * 2000-05-15 2002-03-28 Hector Hoyos Coupon recognition system
US7130445B2 (en) * 2002-01-07 2006-10-31 Xerox Corporation Systems and methods for authenticating and verifying documents
US8649600B2 (en) * 2009-07-10 2014-02-11 Palo Alto Research Center Incorporated System and method for segmenting text lines in documents
US20110052094A1 (en) * 2009-08-28 2011-03-03 Chunyu Gao Skew Correction for Scanned Japanese/English Document Images
US8606011B1 (en) * 2012-06-07 2013-12-10 Amazon Technologies, Inc. Adaptive thresholding for image recognition
US8965127B2 (en) * 2013-03-14 2015-02-24 Konica Minolta Laboratory U.S.A., Inc. Method for segmenting text words in document images
US9235755B2 (en) * 2013-08-15 2016-01-12 Konica Minolta Laboratory U.S.A., Inc. Removal of underlines and table lines in document images while preserving intersecting character strokes
US9104940B2 (en) 2013-08-30 2015-08-11 Konica Minolta Laboratory U.S.A., Inc. Line segmentation method applicable to document images containing handwriting and printed text characters or skewed text lines
US9430703B2 (en) * 2014-12-19 2016-08-30 Konica Minolta Laboratory U.S.A., Inc. Method for segmenting text words in document images using vertical projections of center zones of characters
US9852348B2 (en) * 2015-04-17 2017-12-26 Google Llc Document scanner
US20170091948A1 (en) * 2015-09-30 2017-03-30 Konica Minolta Laboratory U.S.A., Inc. Method and system for automated analysis of cell images
US10127673B1 (en) * 2016-12-16 2018-11-13 Workday, Inc. Word bounding box detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031716A (ja) * 1996-05-13 1998-02-03 Matsushita Electric Ind Co Ltd 文字行抽出方法および装置
JP2003281468A (ja) * 2002-03-20 2003-10-03 Toshiba Corp 文字認識装置および文字認識方法

Also Published As

Publication number Publication date
US10318803B1 (en) 2019-06-11
JP7132050B2 (ja) 2022-09-06
US20190163971A1 (en) 2019-05-30

Similar Documents

Publication Publication Date Title
JP7132050B2 (ja) テキスト行の区分化方法
JP2019102061A5 (ja)
Kumar et al. Handwritten Arabic text line segmentation using affinity propagation
USRE47889E1 (en) System and method for segmenting text lines in documents
US8442319B2 (en) System and method for classifying connected groups of foreground pixels in scanned document images according to the type of marking
KR101690981B1 (ko) 형태 인식 방법 및 디바이스
US8750619B2 (en) Character recognition
Namboodiri et al. Document structure and layout analysis
US8965127B2 (en) Method for segmenting text words in document images
WO2017020723A1 (zh) 一种字符分割方法、装置及电子设备
US10643094B2 (en) Method for line and word segmentation for handwritten text images
US9104940B2 (en) Line segmentation method applicable to document images containing handwriting and printed text characters or skewed text lines
CN109343920B (zh) 一种图像处理方法及其装置、设备和存储介质
CN113343740B (zh) 表格检测方法、装置、设备和存储介质
Salvi et al. Handwritten text segmentation using average longest path algorithm
WO1993020533A1 (en) Character-recognition systems and methods with means to measure endpoint features in character bit-maps
CN117612179A (zh) 图像中字符识别方法、装置、电子设备及存储介质
Jubair et al. A simplified method for handwritten character recognition from document image
Naz et al. Challenges in baseline detection of cursive script languages
Abdoli et al. Offline signature verification using geodesic derivative pattern
Bouchakour et al. Printed Arabic Characters Recognition Using Combined Features and CNN classifier
Wai et al. Text Line Segmentation on Myanmar Handwritten Documents Using Directional Gaussian Filter
AU2012268796A1 (en) Directional stroke width variation feature for script recognition
Dhanushika et al. Fine-Tuned Line Connection Accompanied Boolean Expression Generation for Hand-Drawn Logic Circuits
Trapeznikov et al. Allocation of text characters of automobile license plates on the digital image

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20190417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220825

R150 Certificate of patent or registration of utility model

Ref document number: 7132050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150