JP2023044206A - 文字認識装置、文字認識方法、および文字認識プログラム - Google Patents

文字認識装置、文字認識方法、および文字認識プログラム Download PDF

Info

Publication number
JP2023044206A
JP2023044206A JP2021152112A JP2021152112A JP2023044206A JP 2023044206 A JP2023044206 A JP 2023044206A JP 2021152112 A JP2021152112 A JP 2021152112A JP 2021152112 A JP2021152112 A JP 2021152112A JP 2023044206 A JP2023044206 A JP 2023044206A
Authority
JP
Japan
Prior art keywords
character
image
likeness
proofreading
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021152112A
Other languages
English (en)
Other versions
JP7098808B1 (ja
Inventor
遼平 田中
Ryohei Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2021152112A priority Critical patent/JP7098808B1/ja
Application granted granted Critical
Publication of JP7098808B1 publication Critical patent/JP7098808B1/ja
Publication of JP2023044206A publication Critical patent/JP2023044206A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Character Input (AREA)
  • Image Analysis (AREA)

Abstract

【課題】字認識精度の向上を図る。【解決手段】文字認識装置10は、文字列認識部24を備える。文字列認識部24は、文字を記入された記録媒体の画像50に含まれる、文字列52と該文字列52に付帯された訂正文字および挿入文字の少なくとも一方である校正用文字58とを同一行とした行ごとの第1行画像領域60から、校正用文字58によって校正された文字列52の文字認識結果80を出力する。【選択図】図2

Description

本発明の実施形態は、文字認識装置、文字認識方法、および文字認識プログラムに関する。
記録媒体に記入された文字を認識する技術が知られている。例えば、文字を記入された記録媒体の画像に含まれる文字列を行ごとに抽出し、抽出した行ごとに文字認識する技術が開示されている。また、文字の上または下に訂正文字が記入されている場合、訂正文字の文字認識結果を用いて、訂正文字の上または下の行の文字列を訂正して認識する技術が開示されている。
しかしながら従来技術では、訂正文字や挿入文字などの校正用文字が校正対象の文字を含む文字列と同一行に記入されている場合、校正用文字を抽出して校正に用いる事は困難であり、文字認識精度が低下する場合があった。
特開2020-123811号公報 特開2002-170077号公報 特開平10-116315号公報 特開昭61-36874号公報
本発明は、上記に鑑みてなされたものであって、文字認識精度の向上を図ることができる、文字認識装置、文字認識方法、および文字認識プログラムを提供することを目的とする。
実施形態の文字認識装置は、文字列認識部を備える。文字列認識部は、文字を記入された記録媒体の画像に含まれる、文字列と前記文字列に付帯された訂正文字および挿入文字の少なくとも一方である校正用文字とを同一行とした行ごとの第1行画像領域から、前記校正用文字によって校正された前記文字列の文字認識結果を出力する。
実施形態の文字認識装置の構成の一例を示すブロック図。 行抽出部および文字列認識部による処理の全体の流れの一例を示す模式図。 画像の一例を示す模式図。 画像の一例を示す模式図。 画像の一例を示す模式図。 文字認識の説明図。 行抽出部の構成の一例を示す模式図。 第1導出部および抽出部による処理の一例を示す説明図。 行抽出部の他の構成の一例を示す模式図。 第1導出部、抽出部、および第2導出部による処理の一例を示す説明図。 第1導出部、抽出部、および第2導出部による処理の一例を示す説明図。 第1導出部による処理の一例を示す説明図。 情報処理の流れの一例を示すフローチャート。 従来の文字認識の一例の説明図。 画像の一例を示す模式図。 画像の一例を示す模式図。 ハードウェア構成図。
以下に添付図面を参照して、文字認識装置、文字認識方法、および文字認識プログラムを詳細に説明する。
図1は、本実施形態の文字認識装置10の構成の一例を示すブロック図である。
文字認識装置10は、文字を記入された記録媒体の画像を認識し、文字認識結果を出力する情報処理装置である。
文字認識装置10は、記憶部12と、通信部14と、UI(ユーザ・インタフェース)部16と、制御部20と、を備える。記憶部12、通信部14、UI部16、および制御部20は、バス18などを介して通信可能に接続されている。
記憶部12は、各種のデータを記憶する。記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、記憶部12は、文字認識装置10の外部に設けられた記憶装置であってもよい。
通信部14は、ネットワーク等を介して外部の情報処理装置と通信する通信インターフェースである。
UI部16は、ユーザによる操作入力を受付ける受付機能、および、各種の情報を表示する表示機能を有する。受付機能は、例えば、マウスなどのポインティングデバイスやキーボードなどによって実現される。表示機能は、例えば、ディスプレイによって実現される。なお、UI部16は、受付機能と表示機能を一体的に構成したタッチパネルであってよい。
制御部20は、文字認識装置10において各種の情報処理を実行する。
制御部20は、行抽出部22と、文字列認識部24と、を備える。
行抽出部22および文字列認識部24は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のICなどのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
図2は、行抽出部22および文字列認識部24による処理の全体の流れの一例を示す模式図である。
行抽出部22は、画像50から第1行画像領域60を抽出する。
画像50は、文字を記入された記録媒体の画像である。図2には、画像50の一例として画像50Aを示す。なお、本実施形態では、日本語の文字を記入された記録媒体の画像50を一例として説明する。なお、文字認識装置10の文字認識対象の文字は、日本語に限定されない。
画像50Aには、手書きなどにより記録媒体に記入された文字列52が含まれる。文字列52は、書字方向に沿って記載された1または複数の文字の群である。図2には、「1234」の文字からなる文字列52Aと、「567」の文字からなる文字列52Bと、を一例として示す。文字列52Aおよび文字列52Bは、文字列52の一例である。
文字列52には、校正記号56、または、校正記号56および校正用文字58が付帯されている場合がある。
校正記号56とは、校正指示を表すための記号である。校正記号56は、例えば、文字の訂正、文字の挿入、文字の削除、などを表す記号である。具体的には、校正記号56は、例えば、取り消し線、塗りつぶし、訂正印、挿入線、などによって表される。
校正用文字58とは、校正後の文字を表す。言い換えると、校正用文字58は、訂正後の文字や挿入後の文字などである。すなわち、校正用文字58は、訂正文字および挿入文字の少なくとも一方を表す。校正用文字58は、文字列52に付帯された文字である。校正用文字58は、文字列52に示される校正記号56に対応して配置され、校正記号56によって示される校正指示に沿って文字列52を校正するとき用いられる。
図2の画像50Aには、「1234」の文字からなる文字列52Aに含まれる文字「12」に校正記号56として取り消し線が示される。このため、画像50Aの場合、文字「12」が校正対象文字54である。また、校正記号56によって取り消された校正対象文字54である「12」の近傍には、訂正後の訂正文字として「89」を表す校正用文字58が示される。すなわち、画像50Aの場合、校正用文字58である「89」は、文字列52Aに付帯されている。詳細には、校正用文字58である「89」は、文字列52Aの校正対象文字54である「12」および校正記号56である取り消し線に付帯されている。
第1行画像領域60は、文字列52と文字列52に付帯された校正用文字58とを同一行とした行ごとの行画像領域である。
画像50Aの場合、行抽出部22は、「1234」の文字からなる文字列52Aおよび文字列52Aに付帯された校正用文字58である「89」を第1行画像領域60Aとして抽出する。また、行抽出部22は、文字列52Bである「567」を第1行画像領域60Bとして抽出する。第1行画像領域60Aおよび第1行画像領域60Bは、第1行画像領域60の一例である。
すなわち、行抽出部22は、文字列52Aに付帯された校正用文字58を、文字列52Aと同一の行の第1行画像領域60Aとして抽出する。
文字列認識部24は、第1行画像領域60から文字認識結果80を出力する。
文字認識結果80は、第1行画像領域60に校正記号56および校正用文字58が含まれる場合には、校正用文字58によって校正された文字列52の文字の認識結果である。また、文字認識結果80は、第1行画像領域60に校正記号56が含まれる場合には、校正記号56によって校正された文字列52の文字の認識結果である。また、文字認識結果80は、第1行画像領域60に校正記号56および校正用文字58が含まれない場合には、第1行画像領域60に含まれる文字列52の文字認識結果である。
文字列認識部24は、同一の行として抽出された第1行画像領域60ごとに、第1行画像領域60から文字認識結果80を出力する。図2に示す例の場合、文字列認識部24は、行抽出部22で抽出された第1行画像領域60Aおよび第1行画像領域60Bの各々ごとに、文字認識結果80を出力する。
詳細には、文字列認識部24は、第1行画像領域60の文字列52に校正記号56が含まれない場合、第1行画像領域60に含まれる文字列52の文字を公知の方法で文字認識した文字認識結果80を出力する。例えば、文字列認識部24は、第1行画像領域60Bの文字列52Bに含まれる文字を認識し、文字認識結果80として「567」を出力する。
文字列認識部24は、第1行画像領域60の文字列52に校正記号56が含まれる場合、校正記号56によって表される校正指示に応じて、該校正記号56を含む文字列52に付帯された校正用文字58によって校正された文字列52の文字認識結果80を出力する。
例えば、文字列認識部24は、第1行画像領域60Aの文字列52Aに含まれる、訂正を表す校正記号56の記入された文字「12」に替えて、該校正記号56に付帯する校正用文字58である「89」を文字認識する。この処理により、文字列認識部24は、第1行画像領域60Aの文字認識結果80として「8934」を出力する。
図3Aは、挿入を表す校正記号56および挿入文字である校正用文字58の付帯された文字列52Cの画像50Bの一例を示す模式図である。画像50Bは、画像50の一例である。文字列52Cは、文字列52の一例である。
校正記号56が挿入を表す場合、文字列認識部24は、以下の処理を行えばよい。例えば、文字列認識部24は、行抽出部22から第1行画像領域60Cを受付ける。第1行画像領域60Cは、第1行画像領域60の一例である。文字列認識部24は、第1行画像領域60Cの文字列52C「124」に含まれる、挿入を表す校正記号56の記入された位置に、該校正記号56に付帯された校正用文字58である「3」を挿入した文字列52Cの文字認識結果80である「1234」を出力する。
図3Bは、複数種類の校正記号56の付与された文字列52Dの画像50Cの一例の模式図である。画像50Cは、画像50の一例である。文字列52Dは、文字列52の一例である。
文字列認識部24は、行抽出部22から第1行画像領域60Dを受付ける。第1行画像領域60Dは、第1行画像領域60の一例である。文字列認識部24は、第1行画像領域60Dの文字列52Dに含まれる、取り消しを表す塗りつぶしによって表される校正記号56および訂正印によって表される校正記号56の付与された文字を、これらの校正記号56に付帯する校正用文字58である「2」に置き換える。これらの処理により、文字列認識部24は、第1行画像領域60Dの文字認識結果80として「川崎市幸区堀川町72-34」を出力する。
図3Cは、他の画像50Dの一例を示す模式図である。図3Cには、複数種類の校正記号56の付与された文字列52Eの画像50Dを示す。画像50Dは、画像50の一例である。文字列52Eは、文字列52の一例である。文字列認識部24は、行抽出部22から第1行画像領域60Eを受付ける。第1行画像領域60Eは、第1行画像領域60の一例である。
図3Cに示すように、校正記号56が文字認識対象である文字の少なくとも一部上にかかって記入される場合がある。この場合、文字列認識部24は、第1行画像領域60Eに含まれる校正記号56を付与された校正対象文字54と、該校正対象文字54に対して文字列52Eの文字列方向の上流側および下流側の少なくとも一方に配置された文字との関係に基づいて、該校正対象文字54を文字認識対象とした文字認識結果80を出力する。
図3Cに示す例の場合、文字列認識部24は、校正記号56を付与された校正対象文字54である「日」と、該校正対象文字54に対して文字列52Eの文字列方向の上流側に配置された文字「1989年2月」との関係に基づいて、該校正対象文字54「日」を文字認識対象とする。そして、文字列認識部24は、第1行画像領域60Eの文字列52Eに含まれる、取り消しを表す塗りつぶしによって表される校正記号56および訂正印によって表される校正記号56の付与された文字である校正対象文字54の内、文字認識対象とした「日」以外の校正対象文字54を、これらの校正記号56に付帯する校正用文字58である「11」に置き換える。これらの処理により、文字列認識部24は、第1行画像領域60Eの文字認識結果80として「1989年2月11日」を出力する。
なお、文字列認識部24は、第1行画像領域60から文字認識結果80を出力する処理を、ニューラルネットワークを用いて行ってよい。
図4は、文字列認識部24によるニューラルネットワークを用いた文字認識の説明図である。
文字列認識部24は、第1NNW(ニューラルネットワーク)26Aを有する。第1NNW26Aは、第1行画像領域60を入力とし、文字認識結果80を出力とする学習モデルである。第1NNW26Aは、例えば、CNN(Convolutional Neural Network)、GCN(Graph Convolutional Network)、またはRNN(Recurrent Neural Network)などのニューラルネットワークで構成される深層学習モデル(DNN)である。
文字列認識部24は、複数の学習データ70を用いて予め第1NNW26Aを学習すればよい。学習データ70は、第1行画像領域60と文字認識結果80との対である。学習データ70に含まれる文字認識結果80は、対応する第1行画像領域60の正解データに相当する。第1NNW26Aの学習に用いる複数の学習データ70の少なくとも一部には、校正記号56および校正用文字58を付帯された文字列52を第1行画像領域60とした学習データ70を用いればよい。
すなわち、文字列認識部24は、第1行画像領域60に校正記号56および校正用文字58が含まれる場合には、校正用文字58によって校正された文字列52の文字の文字認識結果80を出力するように、予め第1NNW26Aを学習する。また、文字列認識部24は、第1行画像領域60に校正記号56が含まれる場合には、校正記号56によって校正された文字列52の文字の文字認識結果80を出力するように、予め第1NNW26Aを学習する。また、文字列認識部24は、第1行画像領域60に校正記号56および校正用文字58が含まれない場合には、第1行画像領域60に含まれる文字列52の文字の文字認識結果80を出力するように、予め第1NNW26Aを学習する。
また、文字列認識部24は、校正記号56が文字認識対象である文字の少なくとも一部上にかかって記入されている場合(図3C参照)については、以下の文字認識結果80を出力するように予め第1NNW26Aを学習すればよい。文字列認識部24は、第1行画像領域60Eに含まれる校正記号56を付与された校正対象文字54と、該校正対象文字54に対して文字列52Eの文字列方向の上流側および下流側の少なくとも一方に配置された文字との関係に基づいて、該校正対象文字54を文字認識対象とした文字認識結果80を出力するように、予め第1NNW26Aを学習すればよい。
このため、文字列認識部24が、図3Cに示す第1行画像領域60Eを第1NNW26Aに入力すると、第1NNW26Aから図3Cに示す文字認識結果80が出力される。同様に、文字列認識部24が図3Aに示す第1行画像領域60Cを第1NNW26Aに入力すると、第1NNW26Aから図3Aに示す文字認識結果80が出力される。また、同様に、文字列認識部24が図3Bに示す画像50Cを第1NNW26Aに入力すると、第1NNW26Aから図3Bに示す文字認識結果80が出力される。
次に、行抽出部22の詳細を説明する。
上述したように、行抽出部22は、画像50から、文字列52と文字列52に付帯された校正用文字58とを同一行とした行ごとの第1行画像領域60を抽出する。
図5は、行抽出部22の構成の一例を示す模式図である。
行抽出部22は、第1導出部22Aと、抽出部22Bと、を有する。
第1導出部22Aは、第2NNW26Bを用いて、画像50の画素領域ごとに文字領域らしさを導出する。画素領域とは、1画素または連続(隣接)する複数の画素からなる領域である。文字領域らしさとは、1行分の文字領域である度合いを表す。文字領域らしさは、例えば、文字領域らしさを表すスコアなどによって表される。
抽出部22Bは、第1導出部22Aで導出された画素領域ごとの文字領域らしさに応じて、画像50から第1行画像領域60を抽出する。
図6は、第1導出部22Aおよび抽出部22Bによる処理の一例の説明図である。
第1導出部22Aは、第2NNW26Bを有する。第2NNW26Bは、画像50を入力とし、画素領域の各々の文字領域らしさ62を出力とする学習モデルである。第2NNW26Bは、例えば、CNN、GCN、またはRNNなどのニューラルネットワークで構成される深層学習モデルである。
第1導出部22Aは、複数の学習データ72を用いて予め第2NNW26Bを学習する。学習データ72は、画像50と画素領域の各々の文字領域らしさ62との対である。学習データ72に含まれる画素領域の各々の文字領域らしさ62は、対応する画像50の正解データに相当する。図6には、複数の学習データ72として、学習データ72A~学習データ72Cを示す。しかし、第2NNW26Bの学習には、実際には、4個以上の大量の学習データ72が用いられることはいうまでもない。
第2NNW26Bの学習に用いる複数の学習データ72の少なくとも一部には、校正記号56および校正用文字58を付帯された文字列52の画像50を含む学習データ72を用いればよい(図6中、学習データ72C参照)。
第1導出部22Aは、学習データ72を用いて予め学習された第2NNW26Bに画像50を入力することで、第2NNW26Bからの出力として画素領域ごとの文字領域らしさ62を得る。例えば、画像50Aを第2NNW26Bに入力した場面を想定する。この場合、第1導出部22Aは、第2NNW26Bからの出力として、画像50Aに含まれる画素領域ごとの文字領域らしさ62を導出する。
図6には、文字領域らしさ62が閾値以上の領域を領域62Aとし、文字領域らしさ62が閾値未満の領域を領域62Bとして示す。画像50Aが第2NNW26Bに入力された場合、第1導出部22Aは、文字領域らしさ62が閾値以上の領域62A1と、文字領域らしさ62が閾値以上の領域62A2と、を導出する。文字領域らしさ62が閾値以上の領域62A1は、文字領域らしさ62が閾値以上の領域62Aの一例であり、文字列52Aおよび校正用文字58の領域に相当する。文字領域らしさ62が閾値以上の領域62A2は、文字領域らしさ62が閾値以上の領域62Aの一例であり、文字列52Bの領域に相当する。
抽出部22Bは、文字領域らしさ62が閾値以上の領域62Aを、第1行画像領域60として抽出する。図6に示す例の場合、抽出部22Bは、文字領域らしさ62が閾値以上の領域62A1を第1行画像領域60Aとして抽出する。また、抽出部22Bは、文字領域らしさ62が閾値以上の領域62A2を第1行画像領域60Bとして抽出する。
すなわち、第2NNW26Bは、抽出部22Bにおいて、画像50から文字列52および文字列52に付帯された校正用文字58を同一行とした行ごとの第1行画像領域60が抽出される文字領域らしさ62を出力するように、予め学習されてなる。このため、行抽出部22は、画像50から第1行画像領域60を抽出することができる。
なお、行抽出部22は、校正記号らしさを更に用いて、画像50から第1行画像領域60を抽出してもよい。
図7は、行抽出部22の他の構成の一例の模式図である。
行抽出部22は、第1導出部22Aと、抽出部22Bと、第2導出部22Cと、を有する構成であってもよい。
第2導出部22Cは、第3NNW26Cを用いて、画像50の画素領域ごとに、校正記号らしさを導出する。校正記号らしさとは、校正記号56である度合いを表す。校正記号らしさは、例えば、校正記号らしさを表すスコアなどによって表される。
この場合、第1導出部22Aは、画像50および校正記号らしさから、文字領域らしさ62を導出すればよい。
図8は、第1導出部22A、抽出部22B、および第2導出部22Cによる処理の一例の説明図である。
第2導出部22Cは、第3NNW26Cを有する。第3NNW26Cは、画像50を入力とし、画素領域の各々の校正記号らしさ64を出力とする学習モデルである。第3NNW26Cは、例えば、CNN、GCN、またはRNNなどのニューラルネットワークで構成される深層学習モデルである。
第2導出部22Cは、複数の学習データを用いて予め第3NNW26Cを学習する。第3NNW26Cの学習に用いられる学習データは、画像50と画素領域の各々の校正記号らしさ64との対である。第3NNW26Cの学習に用いる複数の学習データの少なくとも一部には、校正記号56および校正用文字58を付帯された文字列52の画像50を含む学習データを用いればよい。
第2導出部22Cは、第3NNW26Cに画像50を入力することで、第3NNW26Cからの出力として、画素領域ごとの校正記号らしさ64を得る。例えば、画像50Eを第3NNW26Cに入力した場面を想定する。画像50Eは、画像50の一例である。画像50Eは、校正記号56を付与された校正対象文字54である「34」を含む文字列52Fと、文字列52Fに付帯された校正用文字58と、を含む。この場合、第2導出部22Cは、第3NNW26Cからの出力として、画像50Eに含まれる画素領域ごとの校正記号らしさ64を導出する。
図8には、校正記号らしさ64が閾値以上の領域を領域64Aとし、校正記号らしさ64が閾値未満の領域を領域64Bとして示す。画像50Eが第3NNW26Cに入力された場合、第2導出部22Cは、校正記号らしさ64が閾値以上の領域64Aと、校正記号らしさ64が閾値未満の領域64Bと、を導出する。
第2導出部22Cは、第3NNW26Cを用いて導出した画素領域ごとの校正記号らしさ64を第1導出部22Aへ出力する。すなわち、画素領域ごとの校正記号らしさ64を第1導出部22Aへ出力することで、第2導出部22Cは、画像50に含まれる校正記号56の位置情報を第1導出部22Aへ出力することができる。
なお、第2導出部22Cは、第3NNW26Cから出力される校正記号らしさ64に関する情報を第2NNW26Bへ出力すればよい。例えば、第2導出部22Cは、第3NNW26Cの計算過程で出力される中間生成物である特徴量ベクトルを第1導出部22Aへ出力してもよい。また、第2導出部22Cは、第3NNW26Cの最終生成物である画素領域ごとの校正記号らしさ64を第1導出部22Aへ出力してもよい。第3NNW26Cの特徴量ベクトルまたは最終生成物を第2導出部22Cへ出力することで、第2導出部22Cは、画像50に含まれる校正記号56の位置情報を第1導出部22Aへ出力することができる。
第1導出部22Aは、画像50および第2導出部22Cで導出された画素領域ごとの校正記号らしさ64または画像50から校正記号らしさ64を算出する過程で計算される特徴量ベクトルを第2NNW26Bへ入力することで、第2NNW26Bからの出力として、画素領域ごとの文字領域らしさ62を導出する。
この場合、第2NNW26Bは、画像50および校正記号らしさ64または画像50から校正記号らしさ64を算出する過程で計算される特徴量ベクトルから、抽出部22Bにおいて画像50から第1行画像領域60が抽出される文字領域らしさ62を出力するように、予め学習されていればよい。
第1導出部22Aは、画像50および校正記号らしさ64から文字領域らしさ62を導出することで、画素領域ごとの校正記号らしさ64によって表される校正記号56の位置情報を更に用いて文字領域らしさ62を導出することができる。このため、第1導出部22Aは、文字列52と文字列52に付帯された訂正文字や挿入文字などの校正用文字58とを高精度に同一行の第1行画像領域60として抽出部22Bで抽出可能となるような、文字領域らしさ62を導出することができる。
なお、第2導出部22Cは、画像50の画素領域ごとに、推定認識文字らしさおよび背景領域らしさの少なくとも一方を更に導出してもよい。
図9は、第1導出部22A、抽出部22B、および第2導出部22Cによる処理の一例の説明図である。
第2導出部22Cの第3NNW26Cは、画像50を入力とし、画素領域の各々の、校正記号らしさ64と、推定認識文字らしさ66および背景領域らしさ68の少なくとも一方と、を出力する学習モデルであってもよい。
推定認識文字らしさ66とは、推定される何等かの文字である度合いを表す。推定認識文字らしさ66は、例えば、推定認識文字らしさ66を表すスコアなどによって表される。背景領域らしさ68とは、画像50における文字または線の記入されていない領域である度合いを表す。背景領域らしさ68は、例えば、背景領域らしさ68を表すスコアなどによって表される。
例えば、画像50Eを第3NNW26Cに入力した場面を想定する。この場合、第2導出部22Cは、第3NNW26Cからの出力として、画像50Eに含まれる画素領域ごとに、校正記号らしさ64、推定認識文字らしさ66、および背景領域らしさ68を導出する。
図9には、校正記号らしさ64が閾値以上の領域を領域64Aとして示す。また、推定認識文字らしさ66が閾値以上の領域を領域66Aとして示す。また、背景領域らしさ68が閾値以上の領域を領域68Aとして示す。
画像50Eが第3NNW26Cに入力された場合、第2導出部22Cは、校正記号らしさ64が閾値以上の領域64A、推定認識文字らしさ66が閾値以上の領域66A、および背景領域らしさ68が閾値以上の領域68A、を導出することとなる。
第2導出部22Cは、第3NNW26Cを用いて導出した画素領域ごとの校正記号らしさ64、推定認識文字らしさ66、および背景領域らしさ68を第1導出部22Aへ出力する。なお、第2導出部22Cは、第3NNW26Cから出力される校正記号らしさ64、推定認識文字らしさ66、および背景領域らしさ68の各々に関する情報を第1導出部22Aへ出力すればよい。例えば、第2導出部22Cは、第3NNW26Cの計算過程で出力される中間生成物である特徴量ベクトルを第1導出部22Aへ出力してもよい。また、第2導出部22Cは、第3NNW26Cの最終生成物である画素領域ごとの校正記号らしさ64、推定認識文字らしさ66、および背景領域らしさ68を第1導出部22Aへ出力してもよい。
画素領域ごとの校正記号らしさ64、推定認識文字らしさ66、および背景領域らしさ68を第1導出部22Aへ出力することで、第2導出部22Cは、画像50Eに含まれる、校正記号56、推定認識文字、および背景領域の各々の位置情報を第1導出部22Aへ出力することができる。
第1導出部22Aは、画像50と、校正記号らしさ64と、推定認識文字らしさ66および背景領域らしさ68の少なくとも一方または画像50から校正記号らしさ64と、推定認識文字らしさ66および背景領域らしさ68の少なくとも一方とを算出する過程で計算される特徴量ベクトルと、を第2NNW26Bへ入力することで、第2NNW26Bからの出力として、画素領域ごとの文字領域らしさ62を導出する。
この場合、第2NNW26Bは、画像50と、校正記号らしさ64と、推定認識文字らしさ66および背景領域らしさ68の少なくとも一方または画像50から校正記号らしさ64と、推定認識文字らしさ66および背景領域らしさ68の少なくとも一方とを算出する過程で計算される特徴量ベクトルと、から、抽出部22Bにおいて画像50から第1行画像領域60が抽出される文字領域らしさ62を出力するように、予め学習されていればよい。
第1導出部22Aは、画像50と、校正記号らしさ64と、推定認識文字らしさ66および背景領域らしさ68の少なくとも一方と、から文字領域らしさ62を導出する。この処理により、第1導出部22Aは、画素領域ごとの校正記号らしさ64、推定認識文字らしさ66、および背景領域らしさ68、によって表される、校正記号56、推定認識文字、および背景領域の各々の位置情報を更に用いて文字領域らしさ62を導出することができる。このため、第1導出部22Aは、文字列52と文字列52に付帯された訂正文字や挿入文字などの校正用文字58とを高精度に同一行の第1行画像領域60として抽出部22Bで抽出可能となるような、文字領域らしさ62を導出することができる。
なお、第1導出部22Aの第2NNW26Bは、校正文字機能が有効状態に設定されている場合に、抽出部22Bで第1行画像領域60が抽出される文字領域らしさ62を抽出するように予め学習されていてもよい。
校正文字機能が有効状態である、とは、文字列52および文字列52に付帯された校正用文字58を同一行とした行ごとの第1行画像領域60を抽出する機能が有効な状態であることを意味する。
校正文字機能が無効状態である、とは、第1行画像領域60を抽出する機能が無効な状態であることを意味する。
校正文字機能の有効状態および無効状態の切り替え指示は、例えば、ユーザによるUI部16の操作指示によって入力されればよい。
図10は、第1導出部22Aによる処理の一例の説明図である。
第1導出部22Aが校正文字機能の有効状態または無効状態の切り替え機能を有する場合を想定する。この場合、第2NNW26Bは、校正文字機能が有効状態に設定されている場合には、抽出部22Bで第1行画像領域60が抽出される文字領域らしさ62である第1文字領域らしさを抽出するように予め学習されていればよい。また、第2NNW26Bは、校正文字機能が無効状態に設定されている場合には、抽出部22Bにおいて画像50から文字列52と該文字列52に付帯された校正用文字58とを異なる行とした行ごとの第2行画像領域61が抽出される第2文字領域らしさ63を出力するように、予め学習されていればよい。
図10には、文字領域らしさ62である第1文字領域らしさが閾値以上の領域を領域62Aとし、文字領域らしさ62である第1文字領域らしさが閾値未満の領域を領域62Bとして示す。
校正文字機能が有効状態に設定されているときに画像50Eが第2NNW26Bに入力された場合、第1導出部22Aは、文字領域らしさ62である第1文字領域らしさが閾値以上の領域62A3と、閾値未満の領域62Bと、を導出することとなる。文字領域らしさ62である第1文字領域らしさが閾値以上の領域62Aは、画像50Eに含まれる文字列52Fおよび校正用文字58の領域に相当する。
抽出部22Bは、文字領域らしさ62が閾値以上の領域62Aを、第1行画像領域60として抽出する。
一方、校正文字機能が無効状態に設定されているときに画像50Eが第2NNW26Bに入力された場合、第1導出部22Aは、第2文字領域らしさ63が閾値以上の領域63A1および領域63A2の各々と、閾値未満の領域62Bと、を導出することとなる。第2文字領域らしさ63が閾値以上の領域63A1は、画像50Eに含まれる文字列52Fの領域に相当する。第2文字領域らしさ63が閾値以上の領域63A2は、画像50Eに含まれる校正用文字58の領域に相当する。
この場合、抽出部22Bは、第2文字領域らしさ63が閾値以上の領域63A1を第2行画像領域61Aとして抽出し、第2文字領域らしさ63が閾値以上の領域63A2を第2行画像領域61Bとして抽出する。第2行画像領域61Aおよび第2行画像領域61Bは、第2行画像領域61の一例である。
すなわち、第2NNW26Bは、校正文字機能が有効状態に設定されている場合、抽出部22Bにおいて画像50から、文字列52および文字列52に付帯された校正用文字58を同一行とした行ごとの第1行画像領域60が抽出される文字領域らしさ62を出力するように、予め学習されてなる。このため、校正文字機能が有効状態に設定されている場合、行抽出部22は、画像50から第1行画像領域60を抽出することができる。
また、第2NNW26Bは、校正文字機能が無効状態に設定されている場合、抽出部22Bにおいて画像50から、文字列52と、文字列52に付帯された校正用文字58と、を異なる別の行とした第2行画像領域61が抽出される第2文字領域らしさ63を出力するように、予め学習されてなる。このため、校正文字機能が無効状態に設定されている場合、行抽出部22は、画像50から第2行画像領域61を抽出することができる。
校正文字機能の有効状態、無効状態は、有効状態、無効状態をそれぞれ意味する所定のベクトルを第2NNW26Bに入力することで指定できる。すなわち、画像50と共に有効状態を表すベクトルが入力されたときには文字領域らしさ62を出力するように第2NNW26Bを学習すればよい。また、画像50と共に無効状態を表すベクトルが入力されたときには文字領域らしさ63を出力するように第2NNW26Bを学習すればよい。
よって、第1導出部22Aは、校正文字機能の設定を有効状態または無効状態に切り替えることで、1つの第2NNW26Bを用いて、用途に応じた文字領域らしさを導出することができる。また、この場合、1つの第2NNW26Bで有効状態および無効状態の2つの状態に対応することができるため、状態に応じた複数のモデルを学習する場合に比べて、省メモリおよび容易なメンテナンスを実現することができる。
次に、本実施形態の文字認識装置10で実行する情報処理の流れの一例を説明する。
図11は、文字認識装置10で実行する情報処理の流れの一例を示すフローチャートである。なお、図11には、校正文字機能が有効状態に設定されている場合の情報処理の流れを一例として示す。
行抽出部22は、画像50から第1行画像領域60を抽出する(ステップS100)。
文字列認識部24は、ステップS100で抽出された第1行画像領域60の文字認識結果80を出力する(ステップS102)。
そして、本ルーチンを終了する。
以上説明したように、本実施形態の文字認識装置10は、文字列認識部24を備える。文字列認識部24は、文字を記入された記録媒体の画像50に含まれる、文字列52と該文字列52に付帯された訂正文字および挿入文字の少なくとも一方である校正用文字58とを同一行とした行ごとの第1行画像領域60から、校正用文字58によって校正された文字列52の文字認識結果80を出力する。
このように、本実施形態の文字認識装置10では、文字列52と該文字列52に付帯された校正用文字58とを同一行とした行ごとの第1行画像領域60から文字認識結果80を出力する。
ここで、従来では、画像50に含まれる文字列52と校正用文字58とを別々の行として文字認識を行っていた。
図12Aは、従来の文字認識の一例の説明図である。例えば、画像50Aに含まれる文字を従来方式で認識する場面を想定して説明する。
従来技術では、画像50Aに含まれる文字列52Aである「1234」と、校正用文字58である「89」と、文字列52Bである「567」とを、別々の行600として認識していた。そして、文字列52Aの行600に含まれる校正記号56を付与された校正対象文字54である「12」を、校正記号56である「89」で置き換えるなどの処理を行うことで、文字認識を行っていた。
しかしながら従来技術では、訂正文字や挿入文字が校正対象文字54を含む文字列52と同一行に記入されている場合、訂正文字や挿入文字を校正用文字58として抽出して校正に用いる事は困難であった。
図12Bは、画像50Cの一例の模式図である。画像50Cは、図3Bの画像50Cと同様である。図12Bに示すように、画像50Cには、文字列52Dの領域内に校正用文字58である「2」が記入されている。このような場合、従来技術では、文字「2」を校正対象文字54に対する校正用文字58として抽出して校正に用いる事は困難であった。
一方、本実施形態の文字認識装置10では、文字列52と該文字列52に付帯された校正用文字58とを同一行とした行ごとの第1行画像領域60から文字認識結果80を出力する。
このため、図3Bを用いて説明したように、第1行画像領域60を用いて文字認識を行うことで、第1行画像領域60に含まれる校正用文字58によって校正された文字列52の高精度な文字認識結果80を出力することができる。
従って、本実施形態の文字認識装置10は、文字認識精度の向上を図ることができる。
また、本実施形態の文字認識装置10の文字列認識部24は、第1行画像領域60を入力とし文字認識結果80を出力とする第1NNW26Aを用いて、文字認識結果80を出力する。
このため、例えば、文字列認識部24は、第1行画像領域60に含まれる校正記号56を付与された校正対象文字54と、該校正対象文字54に対して文字列52の文字列方向の上流側および下流側の少なくとも一方に配置された文字との関係に基づいて、該校正対象文字54を文字認識対象とした文字認識結果80を出力するように、予め第1NNW26Aを学習すればよい。
図12Cは、画像50Dの一例の模式図である。画像50Dは、図3Cの画像50Dと同様である。図12Cに示すように、校正記号56が文字認識対象である文字の少なくとも一部上にかかって記入されている場合がある。図12Cに示す例の場合、文字認識対象の文字である「日」に訂正印によって表される校正記号56が重なって記入されている。このような場合、従来技術では校正記号56が重なって記入された文字である「日」を文字認識対象とすることが出来なかった。
一方、本実施形態の文字列認識部24は、第1行画像領域60に含まれる校正記号56を付与された校正対象文字54と、該校正対象文字54に対して文字列52の文字列方向の上流側および下流側の少なくとも一方に配置された文字との関係に基づいて、該校正対象文字54を文字認識対象とした文字認識結果80を出力するように、予め第1NNW26Aを学習する。
このため、本実施形態の文字認識装置10は、図3Cを用いて説明したように、第1行画像領域60Eの文字認識結果80として、校正記号56が重なって記入された文字である「日」を文字認識対象とした「1989年2月11日」を出力することができる。
よって、本実施形態の文字認識装置10は、上記効果に加えて、更に文字認識精度の向上を図ることができる。
次に、本実施形態の文字認識装置10のハードウェア構成を説明する。
図13は、本実施形態の文字認識装置10の一例のハードウェア構成図である。
本実施形態の文字認識装置10は、CPU91などの制御装置と、ROM(Read Only Memory)92やRAM(Random Access Memory)93などの記憶装置と、ネットワークに接続して通信を行う通信I/F94と、各部を接続するバス95と、を備える。
本実施形態の文字認識装置10で実行されるプログラムは、ROM92等に予め組み込まれて提供される。
本実施形態の文字認識装置10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、本実施形態の文字認識装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の文字認識装置10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本実施形態の文字認識装置10で実行されるプログラムは、コンピュータを、本実施形態の文字認識装置10の各部として機能させうる。このコンピュータは、CPU91がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
上記には、本発明の実施形態を説明したが、本実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。本実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 文字認識装置
22 行抽出部
22A 第1導出部
22B 抽出部
24 文字列認識部
実施形態の文字認識装置は、文字列認識部を備える。文字列認識部は、文字を記入された記録媒体の画像に含まれる、文字列と前記文字列に付帯された訂正文字および挿入文字の少なくとも一方である校正用文字とを同一行とした行ごとの第1行画像領域から、前記校正用文字によって校正された前記文字列の文字認識結果を出力する。前記文字列認識部は、校正指示を表すための校正記号が文字認識対象である文字の少なくとも一部上にかかって記入されている場合、前記第1行画像領域に含まれる前記校正記号を付与された校正対象文字と、該校正対象文字に対して文字列方向の上流側および下流側の少なくとも一方に配置された文字との関係に基づいて、前記校正対象文字を前記文字認識対象とした、前記文字認識結果を出力する。

Claims (10)

  1. 文字を記入された記録媒体の画像に含まれる、文字列と前記文字列に付帯された訂正文字および挿入文字の少なくとも一方である校正用文字とを同一行とした行ごとの第1行画像領域から、前記校正用文字によって校正された前記文字列の文字認識結果を出力する文字列認識部、
    を備える文字認識装置。
  2. 前記文字列認識部は、
    前記第1行画像領域に含まれる校正記号を付与された校正対象文字と、該校正対象文字に対して文字列方向の上流側および下流側の少なくとも一方に配置された文字との関係に基づいて、前記校正対象文字を文字認識対象とした、前記文字認識結果を出力する、
    請求項1に記載の文字認識装置。
  3. 前記文字列認識部は、
    前記第1行画像領域を入力とし前記文字認識結果を出力とする第1ニューラルネットワークを用いて、前記文字認識結果を出力する、
    請求項1または請求項2に記載の文字認識装置。
  4. 前記画像から前記第1行画像領域を抽出する行抽出部を備え、
    前記文字列認識部は、
    抽出された前記第1行画像領域から前記文字認識結果を出力する、
    請求項1~請求項3の何れか1項に記載の文字認識装置。
  5. 前記行抽出部は、
    第2ニューラルネットワークを用いて、前記画像の画素領域ごとに文字領域らしさを導出する第1導出部と、
    前記文字領域らしさに応じて前記画像から前記第1行画像領域を抽出する抽出部と、
    を有し、
    前記第2ニューラルネットワークは、
    前記抽出部において前記画像から前記第1行画像領域が抽出される前記文字領域らしさを出力するように、予め学習されてなる、
    請求項4に記載の文字認識装置。
  6. 前記行抽出部は、
    第3ニューラルネットワークを用いて、前記画像の画素領域ごとに、校正記号らしさを導出する第2導出部を更に有し、
    前記第2ニューラルネットワークは、
    前記画像および前記校正記号らしさまたは前記画像から前記校正記号らしさを算出する過程で計算される特徴量ベクトルから、前記抽出部において前記画像から前記第1行画像領域が抽出される前記文字領域らしさを出力するように、予め学習されてなる、
    請求項5に記載の文字認識装置。
  7. 前記第2導出部は、
    前記第3ニューラルネットワークを用いて、前記画像の画素領域ごとに、前記校正記号らしさと、推定認識文字らしさおよび背景領域らしさの少なくとも一方と、を導出し、
    前記第2ニューラルネットワークは、
    前記画像と、前記校正記号らしさと、前記推定認識文字らしさおよび前記背景領域らしさの少なくとも一方または前記画像から前記校正記号らしさと、推定認識文字らしさおよび背景領域らしさの少なくとも一方とを算出する過程で計算される特徴量ベクトルと、から、前記抽出部において前記画像から前記第1行画像領域が抽出される前記文字領域らしさを出力するように、予め学習されてなる、
    請求項6に記載の文字認識装置。
  8. 前記第2ニューラルネットワークは、
    校正文字機能が有効状態に設定されている場合、
    前記抽出部において前記画像から前記第1行画像領域が抽出される前記文字領域らしさである第1文字領域らしさを出力し、
    校正用文字機能が無効状態に設定されている場合、
    前記抽出部において前記画像から前記文字列と前記文字列に付帯された前記校正用文字とを異なる行とした行ごとの第2行画像領域が抽出される第2文字領域らしさを出力するように、あらかじめ学習されてなる、
    請求項5~請求項7の何れか1項に記載の文字認識装置。
  9. 文字を記入された記録媒体の画像に含まれる、文字列と前記文字列に付帯された訂正文字および挿入文字の少なくとも一方である校正用文字とを同一行とした行ごとの第1行画像領域から、前記校正用文字によって校正された前記文字列の文字認識結果を出力するステップ、
    を含む文字認識方法。
  10. 文字を記入された記録媒体の画像に含まれる、文字列と前記文字列に付帯された訂正文字および挿入文字の少なくとも一方である校正用文字とを同一行とした行ごとの第1行画像領域から、前記校正用文字によって校正された前記文字列の文字認識結果を出力するステップをコンピュータに実行させるための文字認識プログラム。
JP2021152112A 2021-09-17 2021-09-17 文字認識装置、文字認識方法、および文字認識プログラム Active JP7098808B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021152112A JP7098808B1 (ja) 2021-09-17 2021-09-17 文字認識装置、文字認識方法、および文字認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021152112A JP7098808B1 (ja) 2021-09-17 2021-09-17 文字認識装置、文字認識方法、および文字認識プログラム

Publications (2)

Publication Number Publication Date
JP7098808B1 JP7098808B1 (ja) 2022-07-11
JP2023044206A true JP2023044206A (ja) 2023-03-30

Family

ID=82361474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021152112A Active JP7098808B1 (ja) 2021-09-17 2021-09-17 文字認識装置、文字認識方法、および文字認識プログラム

Country Status (1)

Country Link
JP (1) JP7098808B1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6136874A (ja) * 1984-07-30 1986-02-21 Hitachi Ltd 光学文字読取装置における訂正文字処理方法
JPH07282186A (ja) * 1994-04-14 1995-10-27 Hitachi Ltd 訂正部処理方法
JPH0916712A (ja) * 1995-06-27 1997-01-17 Oki Electric Ind Co Ltd 文書読取装置
JPH10116315A (ja) * 1996-10-11 1998-05-06 Nec Eng Ltd 帳票及びそれを用いる光学的文字読取装置
JP2002170077A (ja) * 2000-11-30 2002-06-14 Toshiba Corp 文字認識装置及び文字認識方法
JP2020123811A (ja) * 2019-01-30 2020-08-13 京セラドキュメントソリューションズ株式会社 画像処理装置及び画像処理装置の制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6136874A (ja) * 1984-07-30 1986-02-21 Hitachi Ltd 光学文字読取装置における訂正文字処理方法
JPH07282186A (ja) * 1994-04-14 1995-10-27 Hitachi Ltd 訂正部処理方法
JPH0916712A (ja) * 1995-06-27 1997-01-17 Oki Electric Ind Co Ltd 文書読取装置
JPH10116315A (ja) * 1996-10-11 1998-05-06 Nec Eng Ltd 帳票及びそれを用いる光学的文字読取装置
JP2002170077A (ja) * 2000-11-30 2002-06-14 Toshiba Corp 文字認識装置及び文字認識方法
JP2020123811A (ja) * 2019-01-30 2020-08-13 京セラドキュメントソリューションズ株式会社 画像処理装置及び画像処理装置の制御方法

Also Published As

Publication number Publication date
JP7098808B1 (ja) 2022-07-11

Similar Documents

Publication Publication Date Title
CN106570456B (zh) 基于全卷积递归网络的手写汉字文本识别方法
CN109190131B (zh) 一种基于神经机器翻译的英语单词及其大小写联合预测方法
CN111226222B (zh) 使用人工神经网络的基于深度上下文的语法错误校正
Akmeliawati et al. Real-time Malaysian sign language translation using colour segmentation and neural network
JP4331219B2 (ja) 二言語単語対応付けの方法および装置、二言語単語対応モデルを訓練する方法および装置
CN109858488B (zh) 一种基于样本增强的手写样本识别方法与系统
Kaluri et al. Optimized feature extraction for precise sign gesture recognition using self-improved genetic algorithm
CN111914825B (zh) 文字识别方法、装置及电子设备
CN113657098B (zh) 文本纠错方法、装置、设备及存储介质
CN111598087A (zh) 不规则文字的识别方法、装置、计算机设备及存储介质
CN113408535A (zh) 一种基于中文字符级特征和语言模型的ocr纠错方法
KR20200132619A (ko) 구어에서 수어로의 주의 기반 인공신경망 기계 번역 방법 및 그 장치
CN110263631B (zh) 一种手写化学公式识别与配平方法
JP2023044206A (ja) 文字認識装置、文字認識方法、および文字認識プログラム
WO2019092868A1 (ja) 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体
CN102646201A (zh) 字符识别设备和字符识别方法
Shwetha et al. Comparison of smoothing techniques and recognition methods for online Kannada character recognition system
CN112070793A (zh) 一种目标提取方法及装置
KR102542220B1 (ko) 자가 지식 증류법 기반 의미론적 영상 분할 방법 및 자가 지식 증류법 기반 의미론적 영상 분할 장치
CN110929013A (zh) 一种基于bottom-up attention和定位信息融合的图片问答实现方法
JP2023043910A (ja) 文字列抽出装置、文字列抽出方法、および文字列抽出プログラム
CN115620314A (zh) 文本识别方法、答案文本的验证方法、装置、设备及介质
US20220207900A1 (en) Information processing apparatus, information processing method, and storage medium
CN113392772B (zh) 一种面向文字识别的文字图像收缩变形增强方法
JP7422535B2 (ja) 変換装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7098808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150