JP6698996B1 - 文字検出方法、読書補助装置及び媒体 - Google Patents

文字検出方法、読書補助装置及び媒体 Download PDF

Info

Publication number
JP6698996B1
JP6698996B1 JP2019176732A JP2019176732A JP6698996B1 JP 6698996 B1 JP6698996 B1 JP 6698996B1 JP 2019176732 A JP2019176732 A JP 2019176732A JP 2019176732 A JP2019176732 A JP 2019176732A JP 6698996 B1 JP6698996 B1 JP 6698996B1
Authority
JP
Japan
Prior art keywords
character
predetermined indicator
detected
image
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019176732A
Other languages
English (en)
Other versions
JP2020201924A (ja
Inventor
メイ ソン
メイ ソン
ツァイ ハイジャオ
ツァイ ハイジャオ
フォン シンポン
フォン シンポン
ジョウ ジィ
ジョウ ジィ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NextVPU Shanghai Co Ltd
Original Assignee
NextVPU Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NextVPU Shanghai Co Ltd filed Critical NextVPU Shanghai Co Ltd
Application granted granted Critical
Publication of JP6698996B1 publication Critical patent/JP6698996B1/ja
Publication of JP2020201924A publication Critical patent/JP2020201924A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Input (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】文字検出方法、読書補助装置及び媒体を開示する。【解決手段】該文字検出方法は、検出すべき文字対象の第1検出すべき画像を取得するステップと、該第1検出すべき画像に所定のインジケータが含まれるか否かを決定するステップと、該第1検出すべき画像に該所定のインジケータが含まれる場合、該所定のインジケータの位置を決定し、該検出すべき文字対象の第2検出すべき画像を取得するステップと、該第2検出すべき画像に該所定のインジケータが含まれるか否かを決定するステップと、該第2検出すべき画像に該所定のインジケータが含まれない場合、該所定のインジケータの位置に基づいて文字検出領域を決定するステップと、を含む。【選択図】図1

Description

本開示は、データ処理の分野に関し、特に文字検出方法、読書補助装置及びコンピュータ読み取り可能な記憶媒体に関する。
文字に関連するデータ処理は文字の検出及び認識を含んでもよい。現在の文字に関連するデータ処理の技術は様々な分野で広く使われているが、文字検出の正確性を向上する必要がある。
この部分で説明されている方法は、必ずしも以前に構想、或いは採用されている方法ではない。他の説明がない限り、この部分で説明されている方法がこの部分に含まれているという理由だけで先行技術であると見なされるべきではない。同様に、他の説明がない限り、この部分で言及されている課題が先行技術において認識されていると見なされるべきではない。
本開示の1つの態様では、検出すべき文字対象の第1検出すべき画像を取得するステップと、前記第1検出すべき画像に所定のインジケータが含まれるか否かを決定するステップと、前記第1検出すべき画像に前記所定のインジケータが含まれる場合、前記所定のインジケータの位置を決定し、前記検出すべき文字対象の第2検出すべき画像を取得するステップと、前記第2検出すべき画像に前記所定のインジケータが含まれるか否かを決定するステップと、前記第2検出すべき画像に前記所定のインジケータが含まれない場合、前記所定のインジケータの位置に基づいて文字検出領域を決定するステップと、を含む、文字検出方法を提供する。
本開示のもう1つの態様では、プロセッサと、命令を含むプログラムが記憶されているメモリと、を含み、前記命令が前記プロセッサにより実行される際に、前記プロセッサに本開示に記載の文字検出方法を実行させる、読書補助装置を提供する。
本開示のもう1つの態様では、命令を含むプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記命令が電子機器のプロセッサにより実行される際に、前記電子機器に本開示に記載の文字検出方法を実行させる、記憶媒体を提供する。
図面は実施例を例示し、明細書の一部を構成するものであり、図面及び明細書の文言の説明を参照しながら実施例の例示的な態様を説明する。示される実施例は単なる例示のためのものであり、特許請求の範囲を制限するものではない。全ての図面では、同一の符号は類似の要素を示しているが、必ずしも同一の要素ではない。
本開示の例示的な実施例に係る文字検出方法を示すフローチャートである。 本開示の例示的な実施例に係る所定のインジケータであるユーザの指の指先部分又は爪を示す模式図である。 本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定する方法を示すフローチャートである。 本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字を含む1つ又は複数の領域から文字検出領域を決定する例示的な方法を示すフローチャートである。 本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。 本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。 本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。 本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。 本開示の様々な例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。 本開示の様々な例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。 本開示の様々な例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。 本開示の他の例示的な実施例に係る文字検出方法を示すフローチャートである。 本開示の例示的な実施例に係る文字検出領域における1つ又は複数の認識すべき文字行を決定する方法を示すフローチャートである。 本開示の例示的な実施例に係る文字検出領域における1つ又は複数の認識すべき文字行を決定することを示す模式図である。 例示的な実施例に適用可能なコンピュータ装置の構成の一例を示すブロック図である。
本開示では、他の説明がない限り、様々な要素を説明するための「第1」、「第2」などの用語は、これらの要素の位置関係、時間的関係又は重要性の関係を限定するものではなく、単に1つの素子と他の素子とを区別するために用いられる。幾つかの例では、第1要素及び第2要素は、該要素の同一の例を表してもよいし、場合によって、文脈上の説明に基づいて、異なる例を表してもよい。
本開示において様々な実施例を説明するために用いられる用語は、単なる特定の例を説明するものであり、限定するものではない。文脈が明らかに他のことを示さない限り、要素の数を特に限定しない場合、該要素は1つでもよいし、複数であってもよい。また、本開示で用いられる用語「及び/又は」は、列挙された項目の何れか又は全ての可能な組み合わせを含む。
文字の検出及び認識では、文字を含む検出すべき対象から文字を検出する必要のある領域を正確に見つけて認識することが望ましい。文字の検出及び認識の応用では、ユーザとのインタラクティブのプロセスが含まれる場合はある。例えば、ユーザは、検出すべき対象における文字を検出、認識する必要のある領域を指示してもよい。
本開示の実施例は、文字検出の正確性を向上させることができる、改善された文字検出方法を提供する。以下は、図面を参照しながら本開示の文字検出方法の例示的な実施例をさらに説明する。
図1は本開示の例示的な実施例に係る文字検出方法を示すフローチャートである。図1に示すように、該文字検出方法は例えば以下のステップを含んでもよい。
ステップS101において、検出すべき文字対象の第1検出すべき画像を取得する。
検出すべき文字対象は、書籍、新聞、画面、メニュー、ロゴなどのユーザが文字検出を行うことを望む文字内容を含む任意の対象であってもよい。検出すべき文字対象は、例えばユーザが所定のインジケータ(指示物)を用いて指示するものであってもよい。該所定のインジケータは、例えばタッチペン、ポインタ、ユーザの指の指先又は爪などの指示特性を有する物体であってもよい。
検出すべき文字対象の第1検出すべき画像は、様々な方法で取得されてもよい。例えば、カメラ又はビデオカメラを用いて撮影を行うことで第1検出すべき画像を取り込んでもよいし、カメラ又は撮影機能を有する機器(例えば携帯電話、タブレットコンピュータ、ウェアラブル機器、読書補助装置など)を用いて撮影を行うことで第1検出すべき画像を取り込んでもよい。第1検出すべき画像は、他のソースからのものであってもよく、例えば他の画像取込装置からのものであってもよい。なお、第1検出すべき画像は、既存の画像であってもよく、即ち既に取り込まれて保存された画像であってもよい。本開示はこれに限定されない。
ステップS102において、第1検出すべき画像に所定のインジケータが含まれるか否かを決定する。
ユーザが所定のインジケータを用いて検出すべき文字対象を指示し、ユーザの文字検出を行いたい領域を示すことができるため、該ステップにおいて、取得された第1検出すべき画像に所定のインジケータが含まれるか否かを決定する。
様々な既存のアルゴリズムにより、第1検出すべき画像に所定のインジケータが含まれるか否かを決定してもよい。例えば、OpenCVのアルゴリズム、例えばOpenCVにおけるCascadeClassifier関数(https://docs.opencv.org/3.2.0/d1/de5/classcv_1_1CascadeClassifier.html)を用いて、第1検出すべき画像に所定のインジケータが含まれるか否かを決定してもよい。
1つの例示的な実施例では、所定のインジケータはユーザの指の指先部分又は爪である。この場合は、ユーザの肌色情報をさらに用いて、第1検出すべき画像に所定のインジケータが含まれるか否かを決定してもよい。図2は本開示の例示的な実施例に係る所定のインジケータであるユーザの指の指先部分又は爪を示す模式図である。図2に示すように、検出すべき画像における所定のインジケータは、例えばユーザの指200の指先部分201又は爪202であってもよい。検出すべき画像において決定、検出される所定のインジケータが指全体ではなく、ユーザの指の指先部分又は爪であるため、検出すべき領域は比較的に小さく、指と検出すべき文字対象との角度の変化は検出すべき画像における所定のインジケータの決定に大きな影響を与えることはない。さらに、例えばOpenCVのアルゴリズムなどの既存のアルゴリズムとユーザの肌色情報とを組み合わせ、ユーザの肌色情報を用いてユーザの指の決定、検出の結果をさらに補正してもよい。以上の方法により、ユーザの指が検出すべき文字対象に垂直する必要はなく、ユーザの指と検出すべき文字対象との角が様々な異なる角度である場合でも、ユーザの指の決定と検出を実現することができる。言い換えれば、指の位置の影響を受けることなく、ユーザを正確に認識することが確保され、ユーザ体験を向上させることができる。
1つの例示的な実施例では、第1検出すべき画像に所定のインジケータが含まれない場合、検出すべき文字対象の検出すべき画像を再度取得してもよい。言い換えれば、検出すべき文字対象に複数の第1検出すべき画像が存在する可能性はある。この例示的な実施例では、取得された検出すべき画像に所定のインジケータが含まれるまで、ステップS101及びS102により検出すべき文字対象の検出すべき画像を繰り返し取得してもよい。
ステップS103において、第1検出すべき画像に所定のインジケータが含まれる場合、所定のインジケータの位置を決定し、検出すべき文字対象の第2検出すべき画像を取得する。
第1検出すべき画像に所定のインジケータが含まれると決定された場合、所定のインジケータの位置を決定する。上述したように、様々な既存のアルゴリズムにより、所定のインジケータの位置を決定してもよい。例えば、OpenCVのアルゴリズム、例えばOpenCVにおけるCascadeClassifier関数(https://docs.opencv.org/3.2.0/d1/de5/classcv_1_1CascadeClassifier.html)を用いて、所定のインジケータの位置を決定してもよい。
所定のインジケータの位置が決定された後に、検出すべき文字対象の第2検出すべき画像を取得してもよい。第1検出すべき画像の取得方法と同様な方法を用いて第2検出すべき画像を取得してもよい。例えば、カメラ又はビデオカメラを用いて撮影を行うことで第2検出すべき画像を取り込んでもよいし、カメラ又は撮影機能を有する機器(例えば携帯電話、タブレットコンピュータ、ウェアラブル機器、読書補助装置など)を用いて撮影を行うことで第2検出すべき画像を取り込んでもよい。第2検出すべき画像は、他のソースからのものであってもよく、例えば他の画像取込装置からのものであってもよい。
1つの例示的な実施例では、所定のインジケータの位置を決定した時から所定の時間が経過した時に、検出すべき文字対象の第2検出すべき画像を取得する。例えば、所定のインジケータの位置を決定した時から1.5秒が経過した時に、検出すべき文字対象の第2検出すべき画像を取得する。所定のインジケータの位置を決定した後にすぐ検出すべき文字対象の第2検出すべき画像を取得してもよいが、応用によっては、両者の間に所定の時間間隔を空けることが有利である。例えば、ユーザがウェアラブル機器又は読書補助装置を用いて文字を検出、認識する場合、例えばユーザの指が一定の期間内で動かない可能性が高いため、例えばユーザの指などの所定のインジケータの位置の決定と、検出すべき文字対象の第2検出すべき画像の取得との間に所定の時間間隔を設定することで、画像の連続的な取得によるリソースの無駄を回避することができる。
ステップS104において、第2検出すべき画像に所定のインジケータが含まれるか否かを決定する。
第1検出すべき画像に所定のインジケータが含まれるか否かを決定する場合と同様に、様々な既存のアルゴリズムにより、第2検出すべき画像に所定のインジケータが含まれるか否かを決定してもよい。上述したように、ユーザの肌色情報をさらに用いて、第2検出すべき画像に所定のインジケータが含まれるか否かを決定してもよい。これによって、ユーザの指と検出すべき対象との角が様々な異なる角度である場合でも、ユーザの指の決定と検出を実現することができる。
1つの例示的な実施例では、第2検出すべき画像に所定のインジケータが含まれる場合、検出すべき文字対象の検出すべき画像を再度取得してもよい。言い換えれば、検出すべき文字対象に複数の第2検出すべき画像が存在する可能性はある。この例示的な実施例では、取得された検出すべき画像に所定のインジケータが含まれないまで、ステップS103及びS104により検出すべき文字対象の検出すべき画像を繰り返し取得してもよい。より具体的には、第2検出すべき画像に所定のインジケータが含まれる場合、該所定のインジケータの位置を決定し、検出すべき文字対象の第2検出すべき画像を再度取得してもよい。再度取得された第2検出すべき画像に所定のインジケータが依然として含まれる場合、該所定のインジケータの位置を再度決定し、再度取得された第2検出すべき画像に所定のインジケータが含まれない場合、その前に決定された所定のインジケータの位置に基づいて文字検出領域を決定する。言い換えれば、所定のインジケータが移動し、且つ移動後の所定のインジケータが依然として画像取込装置の検出領域内に位置する場合、所定のインジケータの位置を更新する。所定のインジケータが移動し、且つ移動後の所定のインジケータが画像取込装置の検出領域外に位置する場合、所定のインジケータの位置を更新せず、その前に決定された所定のインジケータの位置に基づいて文字検出領域を決定する。この例示的な実施例は、特定の応用では非常に有利である。例えば、ユーザがウェアラブル機器又は読書補助装置を用いて文字を検出、認識する場合、例えばユーザの指などのユーザにより用いられる所定のインジケータの位置が変化し、例えば小さな変位や震えが発生する可能性はある。このような場合、所定のインジケータの位置を継続的に更新することで、例えばユーザの指などの所定のインジケータが検出すべき文字対象から離れる前の位置をより正確に決定することができるため、ユーザが文字を検出、認識したい領域をより正確に決定することができる。
ステップS105において、第2検出すべき画像に所定のインジケータが含まれない場合、所定のインジケータの位置に基づいて文字検出領域を決定する。
第2検出すべき画像に所定のインジケータが含まれない場合、所定のインジケータが既に検出すべき文字対象から離れたと決定してもよい。よって、その前に決定された所定のインジケータの位置に基づいて、第2検出すべき画像から所定のインジケータの位置に関連する文字検出領域を決定してもよい。該文字検出領域は、検出すべき文字対象における所定のインジケータにより指示される文字を検出するための領域である。
様々な方法により所定のインジケータの位置に基づいて文字検出領域を決定してもよい。1つの例示的な実施例では、以下の方法により文字検出領域を決定してもよい。所定のインジケータが含まれない第2検出すべき画像を色情報を含む画像に変換し、該色情報を含む画像における画素はそれぞれ対応する色値を有し、画素の色値と所定の色値範囲とを比較し、所定の色値範囲内の色値を有する画素からなる少なくとも1つの画素ブロックを取得し、少なくとも1つの画素ブロックから所定のインジケータの位置を含む画素ブロックを選択し、選択された画素ブロックにおける所定のインジケータの位置に基づいて、文字検出領域を決定する。文字検出領域の決定方法は上記の方法に限定されず、例えば後述する図3に示す例示的な方法により実現されてもよい。
上述した本発明の例示的な実施例に係る文字検出方法では、所定のインジケータ(例えばタッチペン、ポインタ、ユーザの指など)が検出すべき文字対象から離れた後に検出すべき文字対象の画像を再度取得してもよく、該再度取得された画像には所定のインジケータにより遮蔽される文字部分が存在しない。そして、その前に決定された所定のインジケータの位置に基づいて文字検出領域を決定する。これによって、文字検出の正確性を向上させることができる。
以上は図1を参照しながら本開示の例示的な実施例に係る文字検出方法を説明した。以下は、図3乃至図11を参照しながら上記の方法における各ステップの例示的な態様及びその実施例をさらに詳細に説明する。なお、上述した図1を参照しながら説明された各定義、実施例、態様及び例などは後述する例示的な実施例に適用されてもよいし、それと組み合わせられてもよい。
図3は本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定する方法を示すフローチャートである。図4は本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字を含む1つ又は複数の領域から文字検出領域を決定する例示的な方法を示すフローチャートである。図5A乃至図5Dは本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。図6乃至図8は本開示の様々な例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。
図3に示すように、ステップS301において、第2検出すべき画像における1つ又は複数の文字行の各文字行の位置を決定する。
該ステップにおいて、第2検出すべき画像に1つ又は複数の文字行が存在する場合、各文字行の位置を決定してもよい。各文字行の位置は、例えば検出すべき画像における該文字行を囲む仮想外枠の位置座標により表されてもよい。
図5Aは検出すべき文字対象510の検出すべき画像を示す模式図であり、検出すべき文字対象510は例えば書籍又は新聞である。該検出すべき画像には、例えばユーザの指の所定のインジケータ520が含まれる。
図5Bは検出すべき文字対象510のもう1つの検出すべき画像を示す模式図であり、該検出すべき画像には所定のインジケータ520が含まれない。図5Bに示すように、検出すべき画像における1つ又は複数の文字行の各文字行の位置を決定する。図5Bでは、各文字行は矩形の仮想外枠により囲まれ、該仮想外枠の検出すべき画像における位置座標は対応する文字行の位置を表すことができる。例えば、文字行530を囲む仮想外枠の位置座標は文字行530の位置を表すことができる。図5Bでは各外枠が矩形の形状に示されているが、これは単なる一例であり、本開示はこれに限定されない。各文字行を囲む仮想外枠は他の形状を有してもよい。また、仮想外枠以外の方法を用いて文字行の位置を表してもよい。
ステップS302において、各文字行の位置に基づいて、第2検出すべき画像における文字を含む1つ又は複数の領域を取得する。
各文字行の位置が決定された後に、各文字行の位置に基づいて、第2検出すべき画像における文字を含む領域を取得してもよい。例えば、既存のテキストクラスタリング方法により、各文字行に対してクラスタリング及び合併を行うことで、文字を含む1つ又は複数の領域を取得してもよい。
図5Cは検出すべき文字対象510の検出すべき画像を示す模式図である。図5Cに示すように、決定された各文字行の位置に基づいて、検出すべき画像における文字を含む複数の領域541、542、543、544及び545を取得した。
ステップS303において、所定のインジケータの位置に基づいて、文字を含む1つ又は複数の領域から文字検出領域を決定する。
文字検出領域は、その前に決定された所定のインジケータの位置に基づいて、文字を含む1つ又は複数の領域から決定されてもよい。図5Dは検出すべき文字対象510の検出すべき画像を示す模式図である。図5Dに示すように、所定のインジケータの位置521に基づいて、検出すべき画像の文字を含む1つ又は複数の領域541、542、543、544及び545から文字検出領域545を決定した。
図3に示す例示的な方法により、決定された所定のインジケータの位置に基づいて文字検出領域を自動的に決定することができるため、文字検出の速度を向上させることができる。
図4は本開示の例示的な実施例に係る所定のインジケータの位置に基づいて文字を含む1つ又は複数の領域から文字検出領域を決定する例示的な方法を示すフローチャートである。
図4に示すように、ステップS401において、まず、文字を含む1つ又は複数の領域に所定のインジケータの位置の所在する領域が含まれるか否かを決定する。ユーザは、所定のインジケータ、例えば指を用いて検出すべき文字対象を指示することで文字検出すべき領域を決定したいが、意図しないスライドや震えなどの何らかの理由、又はユーザ自身の視覚障害(例えば弱視)により、所定のインジケータの位置は文字を含む領域に位置せず、検出すべき文字対象における他の位置に位置する可能性がある。よって、ステップS401において、まず文字を含む領域に所定のインジケータの位置の所在する領域が含まれるか否かを決定する。
ステップS402において、文字を含む1つ又は複数の領域に所定のインジケータの位置の所在する領域が含まれる場合、該領域を文字検出領域として選択する。言い換えれば、例えば図5Dにおける領域545に示すように、例えばユーザの指などの所定のインジケータが文字を含む領域に位置する場合、該領域を文字検出領域とする。
文字を含む1つ又は複数の領域の何れの領域にも所定のインジケータの位置が含まれない場合、ステップS403において、文字を含む1つ又は複数の領域が文字を含む1つの領域のみであるか否かを決定する。検出すべき文字対象における文字内容の分布に応じて、決定された文字を含む領域は複数の領域が含まれず、1つの領域のみである場合がある。よって、ステップS403において、検出すべき画像における文字を含む領域の数が1つであるか、それとも複数であるかを決定する。
ステップS404において、文字を含む1つ又は複数の領域が文字を含む1つの領域のみであり、即ち検出すべき画像に文字を含む領域が1つのみ存在する場合、該領域を文字検出領域として選択する。
ステップS405において、文字を含む1つ又は複数の領域が文字を含む複数の領域であり、即ち検出すべき画像に文字を含む領域が複数存在する場合、文字を含む複数の領域のうち所定のインジケータの位置に最も近い第1領域、及び所定のインジケータの位置に2番目に近い第2領域を決定する。
ここで、所定のインジケータの位置に最も近い文字を含む領域とは、領域の境界と所定のインジケータの中心との距離が他の領域の各境界と所定のインジケータの中心との対応する距離に比べて最も小さい領域を意味する。ここで、所定のインジケータの位置に2番目に近い文字を含む領域とは、検出すべき画像に文字を含む2つの領域が含まれる場合、所定のインジケータの位置に最も近い文字を含む領域以外の他の領域を意味し、検出すべき画像に文字を含む3つ以上の領域が含まれる場合、領域の境界と所定のインジケータの中心との距離が所定のインジケータの位置に最も近い領域の境界と所定のインジケータの中心との距離よりも大きく、且つ該文字を含む3つ以上の領域のうち他の領域の各境界と所定のインジケータの中心との対応する距離よりも小さい領域を意味する。
図6は本開示のもう1つの例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。図6に示すように、検出すべき文字対象610の検出すべき画像には、文字を含む複数の領域641、642、643、644及び645が存在する。このような場合は、文字を含む複数の領域641、642、643、644及び645のうち所定のインジケータ620の位置に最も近い第1領域645、及び所定のインジケータ620の位置に2番目に近い第2領域642を決定する。上述したように、所定のインジケータ620の位置に最も近い文字を含む領域645の境界と所定のインジケータ620の中心との距離は、他の領域641、642、643、644のそれぞれの境界と所定のインジケータ620の中心との対応する距離に比べて最も小さい。所定のインジケータ620の位置に2番目に近い文字を含む領域642の境界と所定のインジケータ620の中心との距離は、所定のインジケータ620の位置に最も近い領域645の境界と所定のインジケータ620の中心との距離よりも大きく、且つ他の領域641、643、644のそれぞれの境界と所定のインジケータ620の中心との対応する距離よりも小さい。
ステップS406において、所定のインジケータの位置に最も近い第1領域及び所定のインジケータの位置に2番目に近い第2領域の何れかが所定のインジケータの位置の左側に位置し、且つ所定のインジケータの位置が第1領域と第2領域との間に位置するか否かを決定する。
通常の読書習慣により、ほとんどの場合は、ユーザは書籍や新聞などの検出すべき文字対象の左から右への読書に慣れている。よって、検出すべき文字対象の検出すべき画像に文字を含む領域が複数存在している場合、所定のインジケータが該インジケータに比較的に近い2つの文字を含む領域の間に存在するか否かをさらに判定する。
例えば、図6に示すように、所定のインジケータ620の位置に最も近い第1領域645及び所定のインジケータ620の位置に2番目に近い第2領域642の1つ、即ち第2領域642が所定のインジケータ620の位置の左側に位置し、且つ所定のインジケータ620の位置が第1領域645と第2領域642との間に位置するため、所定のインジケータの位置に最も近い第1領域及び所定のインジケータの位置に2番目に近い第2領域の何れかが所定のインジケータの位置の左側に位置し、且つ所定のインジケータの位置が第1領域と第2領域との間に位置するという条件が満たされている。
ステップS407において、所定のインジケータの位置に最も近い第1領域及び所定のインジケータの位置に2番目に近い第2領域の何れかが所定のインジケータの位置の左側に位置し、且つ所定のインジケータの位置が第1領域と第2領域との間に位置する場合、所定のインジケータの位置の左側に位置する領域を文字検出領域として選択する。よって、所定のインジケータの位置の左側に位置する領域を文字検出領域として選択することで、ユーザの読書習慣により合致することができるため、ユーザ体験を改善することができる。
例えば、図6に示すように、所定のインジケータ620の位置に最も近い第1領域645及び所定のインジケータ620の位置に2番目に近い第2領域642の1つ、即ち第2領域642が所定のインジケータ620の位置の左側に位置し、且つ所定のインジケータ620の位置が第1領域645と第2領域642との間に位置する。この場合、所定のインジケータ620の位置の左側に位置する領域642を文字検出領域として選択し、即ち所定のインジケータ620の位置の左側に位置する領域を文字検出領域として優先的に選択することで、ユーザの読書習慣により合致することができる。
ステップS408において、所定のインジケータの位置に最も近い第1領域及び所定のインジケータの位置に2番目に近い第2領域の何れかが所定のインジケータの位置の左側に位置し、且つ所定のインジケータの位置が第1領域と第2領域との間に位置するという条件が満たさない場合、所定のインジケータの位置に最も近い第1領域及び所定のインジケータの位置に2番目に近い第2領域の何れかが所定のインジケータの位置の上方に位置し、且つ所定のインジケータの位置が第1領域と第2領域との間に位置するか否かを決定する。
図7は本開示のもう1つの例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。図7に示すように、検出すべき文字対象710の検出すべき画像には、文字を含む複数の領域741、742、743、744及び745が存在する。このような場合は、文字を含む複数の領域741、742、743、744及び745のうち所定のインジケータ720の位置に最も近い第1領域742、及び所定のインジケータ720の位置に2番目に近い第2領域741を決定してもよい。図7に示すように、第1領域742及び第2領域741の何れかが所定のインジケータ720の位置の左側に位置し、且つ所定のインジケータ720の位置が第1領域742と第2領域741との間に位置するという条件が満たさないため、所定のインジケータ720の位置に最も近い第1領域742及び所定のインジケータ720の位置に2番目に近い第2領域741の何れかが所定のインジケータ720の位置の上方に位置し、且つ所定のインジケータ720の位置が第1領域742と第2領域741との間に位置するか否かをさらに決定する。図7に示す例は明らかにこの条件を満たしている。
ステップS409において、所定のインジケータの位置に最も近い第1領域及び所定のインジケータの位置に2番目に近い第2領域の何れかが所定のインジケータの位置の上方に位置し、且つ所定のインジケータの位置が第1領域と第2領域との間に位置する場合、所定のインジケータの位置の上方に位置する領域を文字検出領域として選択する。よって、所定のインジケータに比較的に近く、且つ左側に位置する文字検出領域が存在しない場合、所定のインジケータの位置の上方に位置する領域を文字検出領域として優先的に選択することで、ユーザの読書習慣により合致することができるため、ユーザ体験を改善することができる。
例えば、図7に示すように、所定のインジケータ720の位置に最も近い第1領域742及び所定のインジケータ720の位置に2番目に近い第2領域741の1つ、即ち第2領域741が所定のインジケータ720の位置の上方に位置し、且つ所定のインジケータ720の位置が第1領域742と第2領域741との間に位置する。この場合、所定のインジケータ720の位置の上方に位置する領域741を文字検出領域として選択し、即ち所定のインジケータ720の位置の上方に位置する領域を文字検出領域として優先的に選択することで、ユーザの読書習慣により合致することができる。
ステップS410において、第1領域及び第2領域の何れかが所定のインジケータの位置の上方に位置し、且つ所定のインジケータの位置が第1領域と第2領域との間に位置するという条件が満たさない場合、所定のインジケータの位置に最も近い第1領域を文字検出領域として選択する。
図8は本開示のもう1つの例示的な実施例に係る所定のインジケータの位置に基づいて文字検出領域を決定することを示す模式図である。図8に示すように、検出すべき文字対象810の検出すべき画像には、文字を含む複数の領域841、842、843、844及び845が存在する。このような場合は、文字を含む複数の領域841、842、843、844及び845のうち所定のインジケータ820の位置に最も近い第1領域845、及び所定のインジケータ820の位置に2番目に近い第2領域843を決定してもよい。図8に示すように、所定のインジケータ820の位置に最も近い第1領域845及び所定のインジケータ820の位置に2番目に近い第2領域843の何れかが所定のインジケータ820の位置の左側に位置し、且つ所定のインジケータ820の位置が第1領域845と第2領域843との間に位置するという条件が満たしておらず、且つ所定のインジケータ820の位置に最も近い第1領域845及び所定のインジケータ820の位置に2番目に近い第2領域843の何れかが所定のインジケータ820の位置の上方に位置し、且つ所定のインジケータ820の位置が第1領域845と第2領域843との間に位置するという条件が満たされていない。よって、所定のインジケータ820の位置に最も近い第1領域845を文字検出領域として選択する。
上記の図6乃至図8に示すように、本発明の例示的な実施例では、例えば指などの所定のインジケータの位置に基づいて文字検出領域を決定する際に、左側に位置する文字を含む領域、上方に位置する文字を含む領域、所定のインジケータに比較的に近い文字を含む領域と文字検出領域として優先的に選択することで、ユーザの通常の読書習慣により合致することができるため、ユーザ体験を改善することができる。
図9は本開示の他の例示的な実施例に係る文字検出方法を示すフローチャートである。
図9に示すように、この例示的な実施例に係る文字検出方法は例えばステップS901乃至S914を含んでもよい。図9に示す例示的な文字検出方法では、ステップS901及びS902は、図1を参照しながら説明されたステップS101及びS102と略同様なものであるため、ここでその説明を省略する。
図9に示すように、本開示の他の例示的な実施例に係る文字検出方法は例えばステップS903をさらに含んでもよい。ステップS903において、第1音声プロンプトを出力する。言い換えれば、第1検出すべき画像に所定のインジケータが含まれる場合、第1音声プロンプトを出力する。例えば、所定のインジケータがユーザの指である場合、第1検出すべき画像にユーザの指が含まれるとき、第1音声プロンプトを出力する。該第1音声プロンプトは、任意のタイプのプロンプト音であってもよく、例えばカチカチという音である。
ステップS904において、所定のインジケータの位置を決定し、所定の時間が経過した時に検出すべき文字対象の第2検出すべき画像を取得する。例えば、該所定の時間の間隔は例えば1.5秒であってもよい。なお、具体的な応用及び/又は需要に応じて他の時間間隔を選択してもよい。
ステップS905において、第2検出すべき画像に所定のインジケータが含まれるか否かを決定する。第2検出すべき画像に所定のインジケータが含まない場合、後続のステップS906を実行する。第2検出すべき画像に所定のインジケータが含まれる場合、第1音声プロンプトを再度出力する。例えば、所定のインジケータがユーザの指である場合、第2検出すべき画像にユーザの指が含まれるか否かを決定する。第2検出すべき画像にユーザの指が含まない場合、後続のステップを実行する。第2検出すべき画像にユーザの指が含まれる場合、第1音声プロンプト、例えばカチカチという音を再度出力する。言い換えれば、例えばユーザの指などの所定のインジケータが検出すべき文字対象から動かさない場合、所定の時間間隔(例えば1.5秒)で第1音声プロンプト、例えばカチカチという音を継続的に出力する。該第1音声プロンプトの開始時間は、例えば指などの所定のインジケータが初めて検出された時間である。
図9に示すように、本開示の他の例示的な実施例に係る文字検出方法は、ステップS906をさらに含んでもよい。ステップS906において、第2音声プロンプトを出力する。言い換えれば、第2検出すべき画像に所定のインジケータが含まない場合、第2音声プロンプトを出力する。例えば、所定のインジケータがユーザの指である場合、第2検出すべき画像にユーザの指が含まないとき、第2音声プロンプトを出力する。該第2音声プロンプトは、第1音声プロンプトと同一であってもよいし、第1音声プロンプトと異なってもよい。該第2音声プロンプトは、任意のタイプのプロンプト音であってもよく、例えばカメラの焦点合わせの音である。該第2音声プロンプトにより、認識すべき対象の画像情報を取得するようにユーザに思い出せることができ、該音声プロンプト後のユーザによる画像取得プロセスの安定性を維持することができる。
図9に示すように、本発明の他の例示的な実施例に係る文字検出方法は、ステップS907をさらに含んでもよい。ステップS907において、検出すべき文字対象の第3検出すべき画像を取得する。1つの例示的な実施例では、検出すべき文字対象の第3検出すべき画像の解像度は、第1検出すべき画像の解像度及び第2検出すべき画像の解像度よりも高くてもよい。例えば、検出すべき文字対象の第1検出すべき画像及び第2検出すべき画像の解像度は比較的に低くてもよく、例えば第1検出すべき画像及び第2検出すべき画像はビデオカメラにより取得され、或いはカメラにより撮影されたプレビュー画像であってもよい。これによって、比較的に低い解像度を有する第1検出すべき画像及び第2検出すべき画像を処理することで所定のインジケータの位置を決定してもよい。第1検出すべき画像及び第2検出すべき画像の解像度が低いため、画像処理のためのデータ量が少ないため、文字検出の速度を向上させることができる。なお、第1検出すべき画像及び第2検出すべき画像は、プレビュー画像ではなく、ビデオカメラ又はカメラにより撮影された写真であってもよい。所定のインジケータが検出すべき文字対象から離れた後に、ステップS907において検出すべき文字対象のより高い解像度を有する第3検出すべき画像を再度取得してもよい。これに応じて、後続のステップにおいて、所定のインジケータの位置に基づいて第3検出すべき画像から文字検出領域を決定する。第3検出すべき画像の解像度がより高いため、文字検出の正確性を向上させることができる。
図9に示すように、本開示の他の例示的な実施例に係る文字検出方法は、ステップS908をさらに含んでもよい。ステップS908において、第3音声プロンプトを出力する。該第3音声プロンプトは、任意のタイプのプロンプト音であってもよい。例えば、該第3音声プロンプトは、第1音声プロンプト及び第2音声プロンプトと異なるプロンプト音、例えば写真撮影が成功した時のシャッター音であってもよく、該シャッター音は検出すべき文字対象の第3検出すべき画像の取得が成功したことを表す。該第3音声プロンプトは、認識の放送の前に、ユーザが待っている時の不安感を軽減させることができ、ユーザ体験を向上させることができる。
1つの具体的な実施例では、ステップS903乃至S908を実行することで、3種類の音声プロンプト、即ち第1音声プロンプト、第2音声プロンプト及び第3音声プロンプトを出力してもよい。例えば、第1検出すべき画像にユーザの指が含まれると決定された場合、即ち検出すべき文字対象に指が存在する場合、例えばカチカチ音などの第1音声プロンプトを出力してもよい。ユーザの指が検出すべき文字対象から離れない場合、所定の時間間隔(例えば1.5秒)で例えばカチカチ音などの第1音声プロンプトを継続的に出力してもよく、該カチカチ音の開始時間は指が初めて検出された時間である。第2検出すべき画像にユーザの指が含まれないと決定された場合、即ち指が検出すべき文字対象から離れた場合、例えばカメラの焦点合わせの音などの第2音声プロンプトを出力してもよい。検出すべき文字対象の第3検出すべき画像が取得された後に、例えば検出すべき文字対象の第3検出すべき画像の取得が成功したことを表すための写真撮影が成功した時のシャッター音などの第3音声プロンプトを出力してもよい。
図9に示すように、本開示の他の例示的な実施例に係る文字検出方法は、ステップS909をさらに含んでもよい。このステップにおいて、所定のインジケータの位置に基づいて第3検出すべき画像から文字検出領域を決定する。第3検出すべき画像の解像度がより高いため、文字検出の正確性を向上させることができる。
図9に示すように、本発明の他の例示的な実施例に係る文字検出方法は、ステップS910をさらに含んでもよい。このステップにおいて、文字検出領域における1つ又は複数の認識すべき文字行を決定する。多くの応用では、検出すべき文字対象に対して文字検出を行うことだけではなく、決定された文字検出領域における文字を認識することが望ましい。このため、ステップS910において、文字検出領域における1つ又は複数の認識すべき文字行を決定してもよい。
図9に示す例示的な方法は、ステップS911及びS912をさらに含んでもよい。S911において、1つ又は複数の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれるか否かを決定する。ステップS912において、1つ又は複数の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれる場合、1つ又は複数の認識すべき文字行から重複する文字行を削除する。
1つの例示的な実施例では、最初行フィルタリングの方法を用いて、1つ又は複数の認識すべき文字行から重複する文字行を削除してもよい。より具体的には、1つ又は複数の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれるか否かを決定する際に、前回の文字検出結果から認識された文字行のうち1番目の行から、1つ又は複数の認識すべき文字行の1番目の行と、前回の文字検出結果から認識された文字行の各行とを行ごとに比較する。1つ又は複数の認識すべき文字行の1番目の行と前回の文字検出結果から認識された文字行の全ての行とが異なる場合、1つ又は複数の認識すべき文字行の最後の行と、前回の文字検出結果から認識された文字行の各行とを行ごとにさらに比較し、1つ又は複数の認識すべき文字行の最後の行と前回の文字検出結果から認識された文字行の全ての行とが異なるとき、1つ又は複数の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれないと決定する。このような場合は、1つ又は複数の認識すべき文字行の全ての行について文字認識を行い、即ち1つ又は複数の認識すべき文字行の1番目の行から認識を行ごとに行う。
前回の文字検出結果から認識された文字行のうち1番目の行から、1つ又は複数の認識すべき文字行の1番目の行と、前回の文字検出結果から認識された文字行の各行とを行ごとに比較する際に、1つ又は複数の認識すべき文字行の1番目の行と前回の文字検出結果から認識された文字行の全ての行とが異なり、且つ1つ又は複数の認識すべき文字行の最後の行と、前回の文字検出結果から認識された文字行の各行とを行ごとにさらに比較する際に、1つ又は複数の認識すべき文字行の最後の行と前回の文字検出結果から認識された文字行の1行、例えばn番目の行と同一である場合、1つ又は複数の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれると決定する。このような場合は、1つ又は複数の認識すべき文字行から重複する文字行を削除し、即ち1つ又は複数の認識すべき文字行における(M−N+1)番目の行〜最後の行を削除する。ここで、Mは1つ又は複数の認識すべき文字行の行数である。それに応じて、文字の認識を行う際に、1つ又は複数の認識すべき文字行から重複する文字行を削除した後に未認識の文字行が依然として存在する場合、1つ又は複数の認識すべき文字行の1番目の行から(M−N)番目の行まで行ごとに認識を行う。1つ又は複数の認識すべき文字行から重複する文字行を削除した後に未認識の文字行が存在しない場合、認識を放棄し、検出すべき文字対象の第1検出すべき画像を再取得してもよい。
前回の文字検出結果から認識された文字行のうち1番目の行から、1つ又は複数の認識すべき文字行の1番目の行と、前回の文字検出結果から認識された文字行の各行とを行ごとに比較する際に、1つ又は複数の認識すべき文字行の1番目の行と前回の文字検出結果から認識された文字行の1行、例えばN番目の行と同一である場合、1つ又は複数の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれると決定する。このような場合は、1つ又は複数の認識すべき文字行から重複する文字行を削除し、即ち1つ又は複数の認識すべき文字行における1番目の行〜(M−N+1)番目の行を削除する。ここで、Mは1つ又は複数の認識すべき文字行の行数である。それに応じて、文字の認識を行う際に、1つ又は複数の認識すべき文字行から重複する文字行を削除した後に未認識の文字行が依然として存在する場合、1つ又は複数の認識すべき文字行の(M−N+2)番目の行から行ごとに認識を行う。1つ又は複数の認識すべき文字行から重複する文字行を削除した後に未認識の文字行が存在しない場合、認識を放棄し、検出すべき文字対象の第1検出すべき画像を再取得してもよい。
例えば、前回の文字検出結果から認識された文字行の行数及び1つ又は複数の認識すべき文字行の行数が共に5行であると仮定する。まず、前回の文字検出結果から認識された文字行のうち1番目の行から、5行の認識すべき文字行の1番目の行と、前回の文字検出結果から認識された文字行の各行とを行ごとに比較する。5行の認識すべき文字行の1番目の行と前回の文字検出結果から認識された文字行の全ての行とが異なる場合、5行の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれないと決定する。このような場合は、5行の認識すべき文字行の全ての行について文字認識を行い、即ち5行の認識すべき文字行の1番目の行から5番目の行まで認識を行ごとに行う。
前回の文字検出結果から認識された文字行のうち1番目の行から、5行の認識すべき文字行の1番目の行と、前回の文字検出結果から認識された文字行の各行とを行ごとに比較する際に、5行の認識すべき文字行の1番目の行と前回の文字検出結果から認識された文字行の1行、例えば2番目の行と同一である場合、5行の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれると決定する。このような場合は、5行の認識すべき文字行から重複する文字行を削除し、即ち5行の認識すべき文字行における1番目の行〜4番目の行(即ち(5−2+1)番目の行)を削除する。それに応じて、5行の認識すべき文字行の5番目の行(即ち(5−2+2)番目の行)から行ごとに認識を行う。
前回の文字検出結果から認識された文字行のうち1番目の行から、5行の認識すべき文字行の1番目の行と、前回の文字検出結果から認識された文字行の各行とを行ごとに比較する際に、5行の認識すべき文字行の1番目の行と前回の文字検出結果から認識された文字行の1行、例えば1番目の行と同一である場合、5行の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれると決定する。このような場合は、5行の認識すべき文字行から重複する文字行を削除し、即ち5行の認識すべき文字行における1番目の行〜5番目の行(即ち(5−1+1)番目の行)を削除する。このような場合は、1つ又は複数の認識すべき文字行から重複する文字行を削除した後に未認識の文字行が存在しないため、認識を放棄し、検出すべき文字対象の第1検出すべき画像を再取得してもよい。
ステップS911及びS912を実行することにより、時間的に隣接する前後2回の文字検出結果において重複する文字行を削除することでユーザのために重複する文字行を自動的に除去することができる。よって、後続の文字認識プロセスに出現する文字内容の重複する部分を低減、削除することができるため、文字の検出及び認識の効率を向上させ、ユーザ体験を向上させることができる。さらに、最初行フィルタリングの方法を用いて1つ又は複数の認識すべき文字行から重複する文字行を削除することで、重複する文字行を効率的に除去することができる。
認識すべき行が決定された後に、図9に示す例示的な方法は、ステップS913及びS914をさらに含んでもよい。ステップS913において、決定された1つ又は複数の認識すべき文字行における文字に対して、文字認識を行う。また、ステップS914において、認識された文字内容について音声放送を行ってもよい。これによって、特定のユーザ、例えば視覚障害及び/又は読書障害を有するユーザにとって非常に有利である。
図10は本開示の例示的な実施例に係る文字検出領域における1つ又は複数の認識すべき文字行を決定する方法を示すフローチャートである。
図10に示すように、ステップS1001において、所定のインジケータにより指示された文字行を決定する。所定のインジケータと文字行との相互の位置関係に基づいて、該所定のインジケータにより指示された文字行を決定してもよい。例えば、1つの例示的な実施例では、所定のインジケータにより指示された文字行を決定するステップは、所定のインジケータの位置と文字検出領域における1つ又は複数の文字行とが重なっているか否かを決定するステップと、所定のインジケータの位置と文字検出領域における1つ又は複数の文字行とが重なっている場合、重なっている1つ又は複数の文字行のうち最も上方に位置する文字行を、所定のインジケータにより指示された文字行として決定するステップと、所定のインジケータの位置と文字検出領域における文字行とが何れも重なっていない場合、所定のインジケータの上方に位置し、且つ所定のインジケータの位置に最も近い文字行を、所定のインジケータにより指示された文字行として決定するステップと、を含んでもよい。場合によっては、指などの所定のインジケータの位置は、文字行に位置することではなく、上下の2つの文字行の間又は文字行の傍の空白領域に位置する可能性がある。所定のインジケータの位置と文字行との重なり関係に基づいて文字行を選択することで、ユーザが選択したい文字行をある程度決定することができるため、ユーザ体験を改善させることができる。
ステップS1002において、所定のインジケータにより指示された文字行の上方に文字行が存在するか否かを決定する。そして、ステップS1003において、所定のインジケータにより指示された文字行の上方に文字行が存在しない場合、所定のインジケータにより指示された文字行を認識すべき文字行として決定する。場合によっては、所定のインジケータにより指示された文字行の上方に文字行が存在しない可能性がある。例えば、所定のインジケータにより指示された文字行が文字検出領域における最も上方の文字行である可能性がある。よって、所定のインジケータにより指示された文字行の上方に文字行が存在しない場合、例えば所定のインジケータにより指示された文字行自身を認識すべき文字行として決定してもよい。
ステップS1004において、所定のインジケータにより指示された文字行の上方の文字行の行数を決定する。ステップS1005において、所定のインジケータにより指示された文字行の上方の文字行の行数が所定数以上であるか否かを決定する。ステップS1006において、所定のインジケータにより指示された文字行の上方の文字行の行数が所定数以上である場合、所定のインジケータにより指示された文字行から上の所定数の複数の文字行を認識すべき文字行として決定する。ステップS1007において、所定のインジケータにより指示された文字行の上方の文字行の行数が所定数よりも小さい場合、所定のインジケータにより指示された文字行の上方の全ての文字行、及び所定のインジケータにより指示された文字行を共に認識すべき文字行として決定する。
ステップS1004乃至S1007において、所定のインジケータにより指示された文字行の上方の全ての文字行を認識すべき文字行として決定するとは限らない。所定のインジケータにより指示された文字行の上方の文字行の行数が所定数以上である場合、所定のインジケータにより指示された文字行から上の所定数の複数の文字行のみを認識すべき文字行として決定する。
例えば、図11は本開示の例示的な実施例に係る文字検出領域における1つ又は複数の認識すべき文字行を決定することを示す模式図である。図11に示すように、例えば書籍や新聞1110などの検出すべき文字対象の検出すべき画像には、文字を含む複数の領域1141、1142、1143、1144及び1145が含まれている。ここで、所定のインジケータの位置1121に基づいて、文字を含む領域1145を文字検出領域として決定する。文字検出領域1145では、所定のインジケータの位置1121と文字検出領域における文字行とが何れも重なっていないため、所定のインジケータの上方に位置し、且つ所定のインジケータの位置1121に最も近い文字行1151を、所定のインジケータにより指示された文字行として決定する。所定のインジケータにより指示された文字行の上方の文字行の行数の所定数が5であると仮定する。所定のインジケータにより指示された文字行1151の上方の文字行の行数が5よりも大きいため、所定のインジケータにより指示された文字行1151から上の5行の文字行を認識すべき文字行として決定し、即ち図11において括弧で示される文字行を認識すべき文字行として決定する。
以上のことから、図10に示す文字検出領域から1つ又は複数の認識すべき文字行を決定する例示的な方法によれば、局所的認識すべき文字行を決定することができる。決定された局所的認識すべき文字行がユーザの関心を持っている文字内容である可能性が高いため、ユーザ体験を向上させることができる。一方、文字段落の1番目の行から検出及び認識を行うとは限らないため、文字内容に対する重複な検出及び認識を低減、回避することができる。
本開示の1つの態様は読書補助装置を含んでもよく、該読書補助装置は、該検出すべき文字対象の画像を取り込むセンサ(例えばビデオカメラ、カメラなど)と、上記の任意の方法のステップを実行する回路部を有するプロセッサチップ回路とを含む。1つの実施例では、該プロセッサチップ回路は、文字検出結果に基づいて認識すべき文字行における文字を音声に変換する回路部をさらに含んでもよい。
読書補助装置はソフトウェアで実現されてもよく、該読書補助装置は、プロセッサと、命令を含むプログラムが記憶されているメモリとを含み、該命令が該プロセッサにより実行される際に、該プロセッサに上記任意の方法を実行させる。1つの実施例では、該プログラムは、該プロセッサにより実行される際に文字検出結果に基づいて認識すべき文字行における文字を音声に変換する命令をさらに含んでもよい。
該読書補助装置によれば、視覚障害のあるユーザは、視覚正常の読者と同様に、同様な読書姿勢により通常の読み物(例えば書籍、雑誌など)を「読む」ことができる。「読む」の過程では、読書補助装置は、文字検出を行い、上述した実施例における方法により、上記実施例に係る方法により文字検出結果に基づいて認識すべき文字行における文字を音声に自動的に変換し、スピーカ又はイヤホン等の出力装置によりユーザに音声を再生してもよい。
本開示の1つの態様は命令を含むプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を含んでもよく、該命令が電子機器のプロセッサにより実行される際に、該電子機器に上記の任意の方法を実行させる。
図12を参照しながらコンピュータ装置2000を説明し、コンピュータ装置2000は本開示の各態様のハードウェア装置に適用可能な例である。コンピュータ装置2000は、処理及び/又は計算を実行する任意の機器であってもよく、例えばワークステーション、サーバ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、パーソナルデジタルアシスタント、スマートフォン、オンボードコンピュータ、ウェアラブルデバイス又はその任意の組み合わせであってもよいが、これらに限定されない。1つの実施例では、上記の読書補助装置又は電子機器の全て又は少なくとも一部は、コンピュータ装置2000、又は類似の装置若しくはシステムにより実現されてもよい。
コンピュータ装置2000は、(場合によっては1つ又は複数のインタフェースを介して)バス2002に接続され、或いはバス2002と通信する素子を含んでもよい。例えば、コンピュータ装置2000は、バス2002、1つ又は複数の処理装置2004(上記の読書補助装置に含まれる処理装置又はチップ回路を実施するために用いられてもよい)、1つ又は複数の入力装置2006、及び1つ又は複数の出力装置2008を含んでもよい。1つ又は複数の処理装置2004は、任意のタイプの処理装置であってもよく、1つ又は複数の汎用プロセッサ及び/又は1つ又は複数の専用プロセッサ(例えば特定のプロセッサチップ)を含んでもよいが、これに限定されない。入力装置2006は、コンピュータ装置2000に情報を入力することができる任意のタイプの装置であってもよく、センサ(例えば上記の画像を取得するセンサ)、マウス、キーボード、タッチパネル、マイクロフォン、及び/又はリモコンを含んでもよいが、これに限定されない。出力装置2008は、情報を提示することができる任意のタイプの装置であってもよく、ディスプレイ、スピーカ(例えば、上述文字から変換された音声を出力する出力装置)、ビデオ/オーディオ出力端末、バイブレータ、及び/又はプリンタを含んでもよいが、これに限定されない。コンピュータ装置2000は、非一時的な記憶装置2010を含み、或いは非一時的な記憶装置2010に接続されてもよい。該非一時的な記憶装置2010(例えば上記のコンピュータ読み取り可能な記憶媒体を実施するために用いられてもよい)は、データを記憶可能な非一時的な任意の記憶装置であってもよく、ディスクドライブ、光記憶装置、固体メモリ、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ若しくは他の任意の磁気媒体、光ディスク若しくは他の任意の光学媒体、ROM(読み出し専用メモリ)、RAM(ランダムアクセスメモリ)、キャッシュメモリ及び/又は他の任意のメモリチップ若しくはカートリッジ、及び/又はコンピュータがデータ、命令及び/又はコードを読み取ることができる他の任意の媒体であってもよいが、これらに限定されない。非一時的な記憶装置2010はインタフェースから取り外すことができる。非一時的な記憶装置2010は、上記の方法及びステップを実現するためのデータ/プログラム(命令を含む)/コードを有してもよい。コンピュータ装置2000は、通信装置2012をさらに含んでもよい。通信装置2012は、外部装置及び/又はネットワークと通信を行うことが可能な任意のタイプの装置又はシステムであってもよく、モデム、ネットワークカード、赤外線通信装置、無線通信装置、及び/又はチップセット、例えばブルートゥース(登録商標)装置、1302.11デバイス、WiFiデバイス、WiMaxデバイス、セルラ通信デバイス及び/又は類似のデバイスであってもよいが、これらに限定されない。
コンピュータ装置2000は、作業用記憶装置2014(上記の読書補助装置に含まれる記憶装置を実施するために用いられてもよい)をさらに含んでもよく、該作業用記憶装置2014は、処理装置2004の作業のためのプログラム(命令を含む)及び/又はデータを記憶可能な任意の作業用記憶装置であってもよく、ランダムアクセスメモリ及び/又は読み出し専用メモリを含んでもよいが、これらに限定されない。
作業用記憶装置2014にソフトウェア要素(プログラム)があってもよく、該ソフトウェア要素は、オペレーティングシステム2016、1つ又は複数のアプリケーションプログラム2018、ドライバプログラム及び/又は他のデータ及びコードを含んでもよいが、これらに限定されない。ソフトウェア要素(プログラム)の命令の実行可能なコード又はソースコードは、非一時的なコンピュータ読み取り可能な記憶媒体(例えば上記の記憶装置2010)に記憶されてもよく、実行される際に作業用記憶装置2014に記憶されてもよい(コンバイルされ、且つ/或いはインストールされてもよい)。ソフトウェア要素(プログラム)の命令の実行可能なコード又はソースコードは遠隔地からダウンロードされてもよい。
図12に示すコンピュータ装置2000が本開示の実施形態に適用される時に、記憶装置2014は、本開示のフローチャートのステップを実行するためのプログラムコード及び/又は文字内容を含む認識されるべき画像を記憶してもよい。ここで、アプリケーション2018は、第三者により提供される光学文字認識アプリケーション(例えばAdobe)、音声変換アプリケーション、編集可能な文字処理アプリケーション等を含んでもよい。入力装置2006は、検出すべき文字対象の画像を取得するためのセンサであってもよい。出力装置2008は例えば音声再生のためのスピーカ又はイヤホンであり、処理装置2004は記憶装置2014におけるプログラムコードにより本開示の各態様の方法のステップを実行する。
なお、具体的な要求に応じて各種の変形を行ってもよい。例えば、カスタムハードウェアを用いてもよいし、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はそれらの任意の組み合せで特定の構成要素(上述のプロセッサチップ回路など)を実現してもよい。例えば、開示された方法及び装置の一部又は全部(例えば、上記のプロセッサチップ回路における各回路部)は、本開示に係る論理及びアルゴリズムに基づいて、アセンブリ言語又はハードウェアプログラミング言語(例えばVERILOG、VHDL、C++等)を用いてハードウェア(例えば、フィールドプログラマブルゲートアレイ(FPGA)及び/又はプログラマブルロジックアレイ(PLA)を含むプログラマブルロジック回路)に対してプログラミングを行うことで実現されてもよい。
コンピュータ装置2000の構成要素はネットワークに分散されてもよい。例えば、プロセッサを用いて処理を実行し、該プロセッサから離れた他のプロセッサを用いて他の処理を実行してもよい。コンピュータシステム2000の他の構成要素も同様に分散さてもよい。従って、コンピュータ装置2000は、複数の場所で処理を実行する分散コンピュータシステムとして解釈されてもよい。
図面を参照しながら本開示の実施形態又は実施例を説明したが、上述した方法、システム及び装置は例示的な実施形態又は実施例に過ぎず、本発明の範囲はこれらの実施形態又は実施例に制限されず、添付の特許請求の範囲及びその均等物によってのみ限定される。実施形態又は実施例における各要素は、省略されてもよく、それらと同等の要素によって置き換えられてもよい。また、本開示に記載されているものとは異なる順序でステップを実行してもよい。さらに、実施形態又は実施例の各要素を様々な方法で組み合わせてもよい。なお、技術の進化に伴い、本明細書で説明されている要素は本開示の後に現れる同等の要素によって置き換えられてもよい。

Claims (17)

  1. 検出すべき文字対象の第1検出すべき画像を取得するステップと、
    前記第1検出すべき画像に所定のインジケータが含まれるか否かを決定するステップと、
    前記第1検出すべき画像に前記所定のインジケータが含まれる場合、前記所定のインジケータの位置を決定し、前記検出すべき文字対象の第2検出すべき画像を取得するステップと、
    前記第2検出すべき画像に前記所定のインジケータが含まれるか否かを決定するステップと、
    前記第2検出すべき画像に前記所定のインジケータが含まれない場合、前記所定のインジケータの位置に基づいて文字検出領域を決定するステップと、を含む、文字検出方法。
  2. 前記所定のインジケータの位置に基づいて前記文字検出領域を決定した後に、
    前記文字検出領域における1つ又は複数の認識すべき文字行を決定するステップ、をさらに含む、請求項1に記載の文字検出方法。
  3. 前記文字検出領域における1つ又は複数の認識すべき文字行を決定するステップは、
    前記所定のインジケータにより指示された文字行を決定するステップ、を含む、請求項2に記載の文字検出方法。
  4. 前記所定のインジケータにより指示された文字行を決定した後に、
    前記所定のインジケータにより指示された文字行の上方に文字行が存在しない場合、前記所定のインジケータにより指示された文字行を認識すべき文字行として決定するステップ、をさらに含む、請求項3に記載の文字検出方法。
  5. 前記所定のインジケータにより指示された文字行を決定した後に、
    前記所定のインジケータにより指示された文字行の上方に文字行が存在する場合、前記所定のインジケータにより指示された文字行の上方の文字行の行数を決定するステップと、
    前記所定のインジケータにより指示された文字行の上方の文字行の行数が所定数以上である場合、前記所定のインジケータにより指示された文字行から上の所定数の複数の文字行を認識すべき文字行として決定し、そうでない場合、前記所定のインジケータにより指示された文字行の上方の全ての文字行、及び前記所定のインジケータにより指示された文字行を共に認識すべき文字行として決定するステップと、をさらに含む、請求項4に記載の文字検出方法。
  6. 前記所定のインジケータにより指示された文字行を決定するステップは、
    前記所定のインジケータの位置と前記文字検出領域における1つ又は複数の文字行とが重なっているか否かを決定するステップと、
    前記所定のインジケータの位置と前記文字検出領域における1つ又は複数の文字行とが重なっている場合、重なっている1つ又は複数の文字行のうち最も上方に位置する文字行を、前記所定のインジケータにより指示された文字行として決定するステップと、
    前記所定のインジケータの位置と前記文字検出領域における文字行とが何れも重なっていない場合、前記所定のインジケータの上方に位置し、且つ前記所定のインジケータの位置に最も近い文字行を、前記所定のインジケータにより指示された文字行として決定するステップと、を含む、請求項3に記載の文字検出方法。
  7. 前記文字検出領域における1つ又は複数の認識すべき文字行を決定した後に、
    前記1つ又は複数の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれるかを決定するステップと、
    前記1つ又は複数の認識すべき文字行に前回の文字検出結果から認識された文字行と重複する文字行が含まれる場合、前記1つ又は複数の認識すべき文字行から前記重複する文字行を削除するステップと、をさらに含む、請求項2に記載の文字検出方法。
  8. 前記所定のインジケータの位置に基づいて文字検出領域を決定するステップは、
    前記第2検出すべき画像における1つ又は複数の文字行の各文字行の位置を決定するステップと、
    前記各文字行の位置に基づいて、前記第2検出すべき画像における文字を含む1つ又は複数の領域を取得するステップと、
    前記所定のインジケータの位置に基づいて、前記文字を含む1つ又は複数の領域から前記文字検出領域を決定するステップと、を含む、請求項1に記載の文字検出方法。
  9. 前記所定のインジケータの位置に基づいて、前記文字を含む1つ又は複数の領域から前記文字検出領域を決定するステップは、
    前記文字を含む1つ又は複数の領域に前記所定のインジケータの位置の所在する領域が含まれる場合、該領域を前記文字検出領域として選択するステップ、を含む、請求項8に記載の文字検出方法。
  10. 前記所定のインジケータの位置に基づいて、前記文字を含む1つ又は複数の領域から前記文字検出領域を決定するステップは、前記文字を含む1つ又は複数の領域の何れの領域にも前記所定のインジケータの位置が含まれない場合、
    前記文字を含む1つ又は複数の領域が文字を含む1つの領域のみであるとき、該領域を前記文字検出領域として選択するステップと、
    前記文字を含む1つ又は複数の領域に文字を含む複数の領域が含まれるとき、前記文字を含む複数の領域のうち前記所定のインジケータの位置に最も近い第1領域及び前記所定のインジケータの位置に2番目に近い第2領域を決定するステップと、
    前記第1領域及び前記第2領域の何れかが前記所定のインジケータの位置の左側に位置し、且つ前記所定のインジケータの位置が前記第1領域と前記第2領域との間に位置するとき、前記所定のインジケータの位置の左側に位置する領域を前記文字検出領域として選択し、そうでないとき、前記第1領域及び前記第2領域の何れかが前記所定のインジケータの位置の上方に位置し、且つ前記所定のインジケータの位置が前記第1領域と前記第2領域との間に位置するか否かを決定するステップと、
    前記第1領域及び前記第2領域の何れかが前記所定のインジケータの位置の上方に位置し、且つ前記所定のインジケータの位置が前記第1領域と前記第2領域との間に位置するとき、前記所定のインジケータの位置の上方に位置する領域を前記文字検出領域として選択し、そうでいないとき、前記第1領域を前記文字検出領域として選択するステップと、を含む、請求項8に記載の文字検出方法。
  11. 前記第1検出すべき画像に前記所定のインジケータが含まれる場合、前記所定のインジケータの位置を決定し、前記検出すべき文字対象の第2検出すべき画像を取得するステップは、
    前記第1検出すべき画像に前記所定のインジケータが含まれる場合、前記所定のインジケータの位置を決定し、前記所定のインジケータの位置を決定した時から所定の時間が経過した時に、前記検出すべき文字対象の前記第2検出すべき画像を取得するステップ、を含む、請求項1に記載の文字検出方法。
  12. 前記第1検出すべき画像に前記所定のインジケータが含まれる場合、第1音声プロンプトを出力するステップ、をさらに含む、請求項1に記載の文字検出方法。
  13. 前記第2検出すべき画像に前記所定のインジケータが含まれない場合、前記所定のインジケータの位置に基づいて文字検出領域を決定する前に、
    第2音声プロンプトを出力するステップと、
    前記検出すべき文字対象の第3検出すべき画像を取得するステップと、をさらに含み、
    前記第3検出すべき画像の解像度は、前記第1検出すべき画像の解像度及び前記第2検出すべき画像の解像度よりも高い、請求項1に記載の文字検出方法。
  14. 前記所定のインジケータの位置に基づいて文字検出領域を決定するステップは、
    前記所定のインジケータの位置に基づいて、前記第3検出すべき画像から文字検出領域を決定するステップ、を含む、請求項13に記載の文字検出方法。
  15. プロセッサと、
    命令を含むプログラムが記憶されているメモリと、を含み、
    前記命令が前記プロセッサにより実行される際に、前記プロセッサに請求項1乃至14の何れかに記載の文字検出方法を実行させる、読書補助装置。
  16. 前記プログラムは、
    前記プロセッサにより実行される際に、文字検出結果に基づいて認識すべき文字行における文字を音声に変換する命令、をさらに含む、請求項15に記載の読書補助装置。
  17. 命令を含むプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記命令が電子機器のプロセッサにより実行される際に、前記電子機器に請求項1乃至14の何れかに記載の文字検出方法を実行させる、記憶媒体。
JP2019176732A 2019-06-10 2019-09-27 文字検出方法、読書補助装置及び媒体 Active JP6698996B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910494385.4 2019-06-10
CN201910494385.4A CN110032994B (zh) 2019-06-10 2019-06-10 文字检测方法、阅读辅助设备、电路及介质

Publications (2)

Publication Number Publication Date
JP6698996B1 true JP6698996B1 (ja) 2020-05-27
JP2020201924A JP2020201924A (ja) 2020-12-17

Family

ID=67243879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019176732A Active JP6698996B1 (ja) 2019-06-10 2019-09-27 文字検出方法、読書補助装置及び媒体

Country Status (4)

Country Link
EP (1) EP3751448B1 (ja)
JP (1) JP6698996B1 (ja)
CN (1) CN110032994B (ja)
WO (1) WO2020248346A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220027081A (ko) 2019-06-10 2022-03-07 넥스트브이피유 (상하이) 코포레이트 리미티드 텍스트 검출 방법, 판독 지원 디바이스 및 매체
CN110032994B (zh) * 2019-06-10 2019-09-20 上海肇观电子科技有限公司 文字检测方法、阅读辅助设备、电路及介质
CN110929805B (zh) * 2019-12-05 2023-11-10 上海肇观电子科技有限公司 神经网络的训练方法、目标检测方法及设备、电路和介质
KR102373960B1 (ko) 2021-09-10 2022-03-15 (주)웅진씽크빅 독서 지원 장치 및 이를 이용한 사용자 입력 감지 방법
KR102373961B1 (ko) 2021-09-10 2022-03-15 (주)웅진씽크빅 독서 지원 장치 및 이를 이용한 사용자 입력 감지 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2308213A1 (en) * 1997-10-22 1999-04-29 James T. Sears Voice-output reading system with gesture-based navigation
JPH11203403A (ja) * 1998-01-16 1999-07-30 Oki Electric Ind Co Ltd 情報処理装置
US8873890B2 (en) * 2004-04-02 2014-10-28 K-Nfb Reading Technology, Inc. Image resizing for optical character recognition in portable reading machine
JP5989479B2 (ja) * 2012-09-20 2016-09-07 シャープ株式会社 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
CN109902687B (zh) * 2013-09-05 2023-12-08 华为终端有限公司 一种图像识别方法及用户终端
WO2016092656A1 (ja) * 2014-12-10 2016-06-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
KR20180005578A (ko) * 2016-07-06 2018-01-16 주식회사 케이티 정보 유출 탐지를 위한 장치 및 방법
JP6531738B2 (ja) * 2016-08-08 2019-06-19 京セラドキュメントソリューションズ株式会社 画像処理装置
CN107992867A (zh) * 2016-10-26 2018-05-04 深圳超多维科技有限公司 用于手势指点翻译的方法、装置及电子设备
CN107393356A (zh) * 2017-04-07 2017-11-24 深圳市友悦机器人科技有限公司 控制方法、控制装置和早教机
CN108875694A (zh) * 2018-07-04 2018-11-23 百度在线网络技术(北京)有限公司 语音输出方法和装置
CN109325464A (zh) * 2018-10-16 2019-02-12 上海翎腾智能科技有限公司 一种基于人工智能的手指点读文字识别方法及翻译方法
CN110032994B (zh) * 2019-06-10 2019-09-20 上海肇观电子科技有限公司 文字检测方法、阅读辅助设备、电路及介质

Also Published As

Publication number Publication date
EP3751448B1 (en) 2022-12-21
CN110032994B (zh) 2019-09-20
EP3751448A1 (en) 2020-12-16
CN110032994A (zh) 2019-07-19
WO2020248346A1 (zh) 2020-12-17
JP2020201924A (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
JP6698996B1 (ja) 文字検出方法、読書補助装置及び媒体
KR102322820B1 (ko) 카메라 효과를 위한 사용자 인터페이스
US9479693B2 (en) Method and mobile terminal apparatus for displaying specialized visual guides for photography
EP2822267B1 (en) Method and apparatus for previewing a dual-shot image
KR102076773B1 (ko) 영상 데이터 획득 방법 및 그 방법을 처리하는 전자 장치
EP2680110B1 (en) Method and apparatus for processing multiple inputs
EP2811731B1 (en) Electronic device for editing dual image and method thereof
KR101660576B1 (ko) 시각 장애 사용자들에 의한 이미지 캡처 및 이미지 검토의 촉진
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
US9509733B2 (en) Program, communication apparatus and control method
RU2648616C2 (ru) Способ и устройство для добавления шрифта
TWI714513B (zh) 書籍顯示程式產品及書籍顯示裝置
EP3866475A1 (en) Image text broadcasting method and device, electronic circuit, and computer program product
US20170322680A1 (en) Method and apparatus for setting background of ui control, and terminal
KR102061867B1 (ko) 이미지 생성 장치 및 그 방법
CN110443772B (zh) 图片处理方法、装置、计算机设备和存储介质
US10796187B1 (en) Detection of texts
JP2014085814A (ja) 情報処理装置及びその制御方法、プログラム
US11776286B2 (en) Image text broadcasting
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
KR20140127131A (ko) 영상 출력 방법 및 그 방법을 처리하는 전자장치
KR20140134844A (ko) 객체 기반 사진 촬영 방법 및 장치
KR20190063803A (ko) 오브젝트 이미지 합성 방법 및 장치
KR20130104483A (ko) 객체를 분할하여 사진을 촬영하는 방법 및 장치
CN114581564A (zh) 一种处理方法、装置和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200203

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R150 Certificate of patent or registration of utility model

Ref document number: 6698996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250