JP2022148901A - Character recognition apparatus, character recognition method, and program - Google Patents
Character recognition apparatus, character recognition method, and program Download PDFInfo
- Publication number
- JP2022148901A JP2022148901A JP2021050754A JP2021050754A JP2022148901A JP 2022148901 A JP2022148901 A JP 2022148901A JP 2021050754 A JP2021050754 A JP 2021050754A JP 2021050754 A JP2021050754 A JP 2021050754A JP 2022148901 A JP2022148901 A JP 2022148901A
- Authority
- JP
- Japan
- Prior art keywords
- character
- user
- unit
- input
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 26
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000009795 derivation Methods 0.000 claims description 40
- 238000012790 confirmation Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 2
- 239000000470 constituent Substances 0.000 description 21
- 230000006870 function Effects 0.000 description 16
- 238000012937 correction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 241001422033 Thestylus Species 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 235000016496 Panda oleosa Nutrition 0.000 description 2
- 240000000220 Panda oleosa Species 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000052343 Dares Species 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Character Discrimination (AREA)
Abstract
Description
本発明は、文字認識装置、文字認識方法およびプログラムに関する。 The present invention relates to a character recognition device, character recognition method and program.
手書き入力認識された一連の文字列について、修正すべき1文字毎にその認識候補文字を順次表示させ選択操作する必要なく容易に所望の認識候補文字に修正する技術について提案されている。(例えば、特許文献1) There has been proposed a technique of sequentially displaying recognition candidate characters for each character to be corrected in a series of character strings recognized by handwritten input and easily correcting them to desired recognition candidate characters without the need for selection operations. (For example, Patent Document 1)
特許文献に記載された技術を含めて、修正の候補となる複数の文字中に所望する文字がない場合、再度手書きによる文字認識処理を行う必要がある。 Including the technique described in the patent document, if there is no desired character among a plurality of characters that are candidates for correction, it is necessary to perform character recognition processing by handwriting again.
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、手書き入力された内容を有効に活用し、広い範囲の候補から所望される文字の選択を受付けることが可能な文字認識装置、文字認識方法およびプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and its object is to make effective use of handwritten input contents and to accept selection of desired characters from a wide range of candidates. It is an object of the present invention to provide a character recognition device, a character recognition method, and a program.
本発明の一態様は、手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、を備え、前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能であり、前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、ことを特徴とする。 According to one aspect of the present invention, an input unit that receives a character image based on an input operation in a handwritten format, performs recognition processing on the character image received by the input unit, and recognizes a first character from the character image. and a display control unit configured to display the first character derived by the character derivation unit as a candidate for a character desired by the user, wherein the input unit receives the first character , a designation operation indicating that the character is not the character desired by the user but is similar to the character desired by the user, and the character derivation unit receives the designation operation by the input unit Then, a second character having a predetermined relationship with the first character is further derived, and the display control unit converts the second character derived by the character derivation unit into a character desired by the user. It is characterized in that it is displayed as an additional candidate.
本発明によれば、手書き入力された内容を有効に活用し、広い範囲の候補から所望される文字の選択を受付けることが可能となる。 According to the present invention, it is possible to effectively utilize handwritten input content and accept selection of a desired character from a wide range of candidates.
以下、本発明を電子辞書に適用した場合の一実施形態について、図面を参照して説明する。
[構成]
図1は、同実施形態に係る電子辞書10の外観構成を示す正面図である。なお、本実施形態は、以下に説明する電子辞書10として構成されるだけでなく、辞書機能を備えたタブレット型のPC(Personal Computer)、スマートフォン、電子ブック、携帯ゲーム機、通信ネットワーク上のサーバなどとしても構成され得る。
An embodiment in which the present invention is applied to an electronic dictionary will be described below with reference to the drawings.
[Constitution]
FIG. 1 is a front view showing the external configuration of an
電子辞書10は、その本体ケース11と蓋体ケース12とがヒンジ部13を介して展開/閉塞可能な折り畳み型ケースを備えて構成される。折り畳み型ケースを展開した本体ケース11の表面には、[ホーム]キー14a、機能指定キー14b、文字入力キー14c、[決定]キー14d、[戻る]キー14e、[BOX]キー14f、カーソル移動キー14g、[シフト]キー14hなどを含むキー入力部14(ハードウェアキー)、音声出力部(スピーカを含む)15および音声入力部(マイクロホンを含む)16、などが設けられる。
The
また、蓋体ケース12の表面には、タッチパネル式表示部17が設けられる。タッチパネル式表示部17は、電子辞書10のユーザがペンや手指でタッチした位置を検出するタッチ位置検出装置と表示装置とが一体となった構造であり、バックライト付の液晶画面に透明のタッチパネルを積層して構成される。即ち、タッチパネル式表示部17は、手書き形式での入力操作に基づいて文字イメージを受付ける入力部として機能する。
A touch panel
キー入力部14の[ホーム]キー14aは、キー入力部14にホーム画面を表示させるためのキーである。特に図示されないが、本電子辞書10の初期設定あるいはユーザ操作に応じて登録された複数のアイコンが表示される。各アイコンは、当該アイコンの表記に対応する機能を実現するための図面や記号である。例えば、辞書コンテンツや学習コンテンツを利用する機能(アプリケーション)を直接起動させるアプリケーションアイコンや、1つのカテゴリに属する複数の機能のアイコンの一覧画面を表示させるグループアイコンを含む。
A [Home] key 14a of the
キー入力部14の機能指定キー14bは、各キーに表記されている辞書コンテンツなどを直接指定するためのキーである。機能指定キー14bには、辞書コンテンツのカテゴリをあえて特定しない[複数辞書]キー、同カテゴリを指定するキー([国語]キー、[古語]キー、[漢和]キー、[英英和]キーなど)と、辞書コンテンツを一覧表示させる[コンテンツ一覧]キー、ツールの1つのカテゴリである[学習帳]キーを含む。
The
また、キー入力部14のキーは、[シフト]キー14hが操作された後に続けて操作されることで、そのキートップに枠囲みなしで表記されたキーとしてではなく、枠囲みして表記されたキーとして機能する。例えば、[シフト]キー14hの操作の後に[削除]キーが操作されると、[削除]キーではなく[設定]キーとして機能する。
Further, when the keys of the
図1では、[国語辞典]が選択され、タッチパネル式表示部17の上部に位置する検索文字列入力部41において、カナ入力タグ(あいう)、アルファベット入力タグ(ABC)のうちのカナ入力タグが選択された状態を示す。
In FIG. 1, [Japanese Dictionary] is selected, and in the search character
検索文字列入力部41に、すでに文字列[日光]が入力されている。検索文字列入力部41下部の候補表示部42には、文字列[日光]に対応する、例えば3つの見出し語がリスト表示された状態を示す。さらに候補表示部42の下部には、2文字分の手書き文字入力部43が表示され、文字列[日光]に続く文字の手書き入力を待機するべく、ブランクとなっている状態を示す。
The character string [Nikko] has already been entered in the search character
図2は、電子辞書10の電子回路の機能構成を示すブロック図である。
電子辞書10の電子回路は、コンピュータである制御部(CPU:Central Processing Unit)21を備える。制御部21は、フラッシュROMなどの記憶部22に予め記憶された制御プログラムに従って回路各部の動作を制御する。CPU等のプロセッサは1つでも2つ以上でも良い。
FIG. 2 is a block diagram showing the functional configuration of the electronic circuit of the
The electronic circuit of the
なお、制御プログラムおよび後述する辞書データの少なくとも一方は、メモリカードなどの外部記録媒体23から記録媒体読取部24により読み取られて記憶部22に記憶されても良いし、通信部25を介して外部の図示しないネットワーク上のウェブサーバ等からダウンロードされたものを記憶部22に記憶しても良い。
Note that at least one of the control program and later-described dictionary data may be read from an
制御部21には、データバスおよび制御バスを介して、記憶部22、記録媒体読取部24、通信部25を接続するほか、キー入力部14、音声出力部15、音声入力部16、タッチパネル式表示部17を接続する。
The
記憶部22は、本電子辞書10の全体の動作を司るシステムプログラム、通信部25を介して外部の機器と通信接続するための通信プログラムのほか、検索処理プログラム記憶領域22a、辞書データ記憶領域22b、検索履歴記憶領域22c、作業データ記憶領域22dなど、本電子辞書10により各種の機能を実行するためのプログラムやデータを記憶する記憶領域が確保される。
The
検索処理プログラム記憶領域22aは、辞書データ記憶領域22bに辞書データとして記憶される各種の辞書コンテンツ(英英和辞典/英和辞典/和英辞典/英英辞典/国語辞典/百科事典/…)に基づいて、ユーザ所望の見出し語と当該見出し語に対応する訳語、語義、用例、解説などの説明情報を検索して表示させるための制御プログラムや、見出し語の文字入力以外の入力に応じた検索を実行する際に使用する各種テーブル記憶領域22a1などを記憶する領域である。
The search processing
各種テーブル記憶領域22a1には、予め漢字の各文字データに対して構成要素となる部首をどのように分割できるのかを定めた偏旁型テーブルを含む複数のテーブルを記憶している。 The various table storage area 22a1 stores a plurality of tables including a partial table that defines in advance how the constituent radicals of each character data of Chinese characters can be divided.
検索履歴記憶領域22cには、ユーザ操作に応じた検索に従い、見出し語とその説明情報が検索結果として表示される際に、検索対象とされた見出し語がその検索回数の情報とともに検索履歴として記憶される。
In the search
作業データ記憶領域22dには、制御部21による制御プログラムに従った回路各部の動作の制御に伴い、ユーザ操作に応じて入力されたデータや制御部21により取得、あるいは生成されるなどした各種のデータが必要に応じて一時的に記憶(保持)される。
In the work
通信部25は、例えば無線PAN(Personal Area Network)技術の1つであるBLE(Bluetooth(登録商標) Low Energy)規格に基づいて、周囲に存在する同様の電子辞書などの外部機器と無線接続するほか、無線ルータなどを介して外部の図示しないネットワーク上のウェブサーバ等と無線接続して、制御プログラムなどをダウンロードする。
The
[動作]
次に本実施形態の動作について説明する。
本実施形態では、国語辞典の機能選択時に、手書き入力された文字イメージに対して認識した結果が、ユーザの所望する漢字ではなかった場合の修正処理の動作について説明する。
[motion]
Next, the operation of this embodiment will be described.
In this embodiment, the operation of correction processing when the result of recognizing a character image input by handwriting at the time of function selection of the Japanese dictionary is not the kanji characters desired by the user will be described.
ここでは、例えば検索文字列として手書き入力により文字列[日光]の文字イメージを入力して所望する通り認識され、続けて同様に手書き入力で文字[浴]の文字イメージを入力して、入力された文字イメージの認識結果の文字候補中に、所望する文字[浴]がなかった場合について説明する。 Here, for example, a character image of a character string [Sunlight] is input by handwriting input as a search character string, and is recognized as desired. A case where the desired character [Yu] is not found in the character candidates of the recognition result of the character image obtained will be described.
図5(A)は、図1に示したタッチパネル式表示部17の表示状態から、さらに電子辞書10のユーザがスタイラスペンPにより手書き文字入力部43にて文字[浴]の文字イメージを筆記入力した場合の画面を示す。
FIG. 5A shows that the user of the
図示するように、手書き文字入力部43は2文字分の入力エリアを有する。その一方、例えば左側で手書きの筆記入力を行った後、右側でその入力文字に対する認識処理の実行をスタイラスペンPを用いて指示する。
As shown, the handwritten
スタイラスペンPでの認識処理の実行指示に対応して、制御部21は、文字認識処理を実行して、認識結果である文字候補を類似度が高いと評価した順序でリスト表示する。即ち、制御部21は、入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部、および文字導出部で導出された第1の文字をユーザが所望する文字の候補として表示させる表示制御部として機能する。
In response to an instruction to execute the recognition process with the stylus pen P, the
図5(B)は、候補文字表示部44で類似度が高いと評価した漢字候補をリスト表示した状態を示す。この候補文字表示部44内には、所望する漢字[浴]が含まれていないため、ユーザは手書き入力した文字に対する修正のための操作が必要となる。
FIG. 5(B) shows a list of Kanji candidates evaluated as having high similarity in the candidate
図3は、制御部21が実行する、手書き入力された文字に対する処理内容を示すフローチャートである。
FIG. 3 is a flow chart showing the details of the process performed by the
処理当初に制御部21は、認識結果として該当する候補文字の情報を取得し(ステップS101)、図5(B)で示したように、それら候補の文字を候補文字表示部44にリスト表示する。
At the beginning of the process, the
この漢字候補をリスト表示した状態から、制御部21は最も近いと思われる一つの候補が長押し操作されたか否か(ステップS103)、一つの候補が選択されたか否か(ステップS107)、リスト表示に対するキャンセルの操作がなされたか否か(ステップS109)、を繰り返し判断することで、これらいずれかの入力がなされるのを待機する。
From the state in which this list of Chinese character candidates is displayed, the
ステップS107において、リスト表示に対するキャンセルの操作がなされたと判断した場合(ステップS109のYES)、制御部21は以上で図3の処理を終了する。
If it is determined in step S107 that the operation to cancel the list display has been performed (YES in step S109), the
図7(A)は、図5(B)で示したタッチパネル式表示部17の画面から、ユーザがスタイラスペンPで手書き文字入力部43中の漢字候補[洽]を長押し操作している状態を掲示している。
FIG. 7(A) shows a state in which the user long-presses the Chinese character candidate [洽] in the handwritten
ステップS103において、1つの候補に対する長押し操作がなされたと判断した場合、制御部21は、手書き入力された元の入力ストロークデータと、最も類似度が高いものとして選択された候補の漢字の文字形状から、複数の補正ストロークデータを導出するべくストロークデータ補正処理を実行する(ステップS104)。
In step S103, when it is determined that a long press operation has been performed on one candidate, the
図6は、複数の補正ストロークデータを導出する過程を例示する図である。図6(A)に示す手書き入力された文字のストロークデータと、図6(B)に示すユーザが選択した最も近いと判断して選択した文字[洽]の形状とに合わせて、制御部21は図6(C)に示す補正ストロークデータ1と、図6(D)に示す補正ストロークデータ2とを導出する。
FIG. 6 is a diagram illustrating the process of deriving a plurality of corrected stroke data. In accordance with the stroke data of the handwritten input character shown in FIG. 6A and the shape of the character [洽] selected by the user as shown in FIG. derives corrected
図4は、制御部21がステップS104で実行するストロークデータの補正処理の詳細を示すサブルーチンのフローチャートである。その当初にユーザの入力ストロークデータを走査し、外形枠、空白情報、密集情報を含む字形解析データを導出する(ステップS201)。
FIG. 4 is a flowchart of a subroutine showing details of the stroke data correction process executed by the
制御部21は、導出した字形解析データに基づいて各種テーブル記憶領域22a1に記憶された偏旁型テーブルを参照し、ユーザが入力したストロークデータに対する偏旁型候補を導出する(ステップS202)。
Based on the derived character shape analysis data, the
図9は、各種テーブル記憶領域22a1に記憶される偏旁型テーブルの一部を例示する図である。同図に示すように漢字の部首構成は、図9(A)に示す偏と旁からなるもの、図9(B)に示す冠と脚からなるもの、図9(C)に示す繞(にょう)を含むもの、図9(D)に示す垂(たれ)を含むもの、図9(E)に示すその他の構(かまえ)を含むもの、図9(F)に示すその他の部首に分けられないもの、などに分類できる。 FIG. 9 is a diagram illustrating a part of the biased table stored in the various table storage area 22a1. As shown in FIG. 9, the radical structure of a Chinese character is composed of the han and ji shown in FIG. 9(A), the crown and base shown in FIG. 9(D), 9(E) and other radicals shown in FIG. 9(F) can be classified into things that cannot be divided into
図10は、ユーザが入力したストロークデータから偏旁型の漢字候補を導出する過程を説明する図である。図10(A)に示すように、図5(A)、図6(A)で示したユーザ入力のストロークデータに対し、上下方向と左右方向にそれぞれ一方向で順次走査を行う。 10A and 10B are diagrams for explaining the process of deriving biased kanji candidates from stroke data input by the user. As shown in FIG. 10A, the stroke data input by the user shown in FIGS. 5A and 6A is sequentially scanned vertically and horizontally in one direction.
図10(B)は、走査した結果から文字イメージの粗密に基づいたストロークデータの外形枠OF、空白情報SI、密集情報CIを導出した結果を示す。これら導出結果から、図10(C)に示すように図9(A)で示した偏Rix1と旁Rix2の2つの部首からなるものと認識して、長押し操作された漢字候補を勘案して、類似度の高い偏旁型候補を導出する。 FIG. 10B shows the result of deriving the stroke data outline OF, blank information SI, and density information CI based on the density of the character image from the scanning result. From these derivation results, as shown in FIG. 10(C), it is recognized that the radical Rix1 and Rix2 shown in FIG. Then, a biased candidate with a high degree of similarity is derived.
図10(C)においては、ユーザが入力したストロークデータが図9(A)に示す偏と旁からなるもの、として認識した一方で、図7(A)において、ユーザがスタイラスペンPで手書き文字入力部43中の漢字候補[洽]も図9(A)に示す偏と旁からなるものである。このように、手書き入力された文字イメージから判断した偏旁型と、より字形が近いものとして選択された文字の偏旁型とが一致した場合には、偏旁型候補を1つに限定する。一方で、手書き入力された文字イメージから判断した偏旁型と、より字形が近いものとして選択された文字の偏旁型とが一致しない場合には、各々を偏旁型候補として導出する。即ち、2つの偏旁型候補を導出する
制御部21は、導出した偏旁型候補の中から未選択のもの1つを選択する(ステップS203)。制御部21は、未選択の候補の一つ、例えば図9(A)に示す偏と旁を選択ですると、その選択した偏旁型候補に対するストロークデータの構成要素数として、例えば[偏]と[旁]から[2]を導出する(ステップS204)。
In FIG. 10(C), the stroke data input by the user is recognized as consisting of the left and right sides shown in FIG. 9(A). The Chinese character candidate [洽] in the
次いで制御部21は、ユーザ入力の構成要素の一つ、例えば[偏]を選択する(ステップS205)。制御部21は、選択した構成要素[偏]に対して、ユーザが選択した最近の文字[洽]の構成要素を一つ、例えば[さんずい(三水)]を選択する(ステップS206)。
Next, the
制御部21は、さらにその選択した構成要素、例えば[さんずい(三水)]に対して、後述する置換等の処理を省略することが可能であるか否かを判断する(ステップS207)。これは、例えば偏の構成要素を旁の構成要素には配置しない等の制約を設けることで、不要なユーザ入力のストロークデータと最近文字の各構成要素の置換等の処理工程を軽減するための処置である。
The
ステップS207において、例えばユーザ入力のストロークデータで選択している構成要素が[偏]であり、最近文字[洽]で構成要素として選択しているのが[旁]側の[合]である場合などには、省略可能であると判断し(ステップS207のYES)、制御部21は、その時点で選択している構成要素に対する処理は省略するものとして、ステップS206からの処理に戻り、次の最近の文字形状の構成要素の選択を行なう。 In step S207, for example, if the component selected by the user input stroke data is [Ban] and the component selected by the latest character [洽] is [A] on the [Close] side. etc., it is determined that it can be omitted (YES in step S207). Make a selection of the most recent glyph shape components.
またステップS207において、選択した構成要素が省略することができないと判断した場合(ステップS207のNO)、制御部21は、例えばユーザ入力のストロークデータで選択している[偏]側の構成要素を、最近文字[洽]の同一の構成要素[さんずい(三水)]に置換する(ステップS208)。そして、置換した構成要素に基づいた漢字候補を補正ストロークデータとして保存する(ステップS209)。
If it is determined in step S207 that the selected component cannot be omitted (NO in step S207), the
制御部21は、すべての最近の構成要素の選択を終了したか否かを判断することで、未選択の最近の文字の構成要素があり、すべての最近の構成要素を選択終了後ではないことを確認する(ステップS210)。
The
ステップS210において、すべての最近の構成要素の選択を終了していないと判断した場合(ステップS210のNO)、ステップS206からの処理に戻って、最近の文字の他の構成要素に対応する処理を実行する。 If it is determined in step S210 that all the recent constituent elements have not been selected (NO in step S210), the process returns to step S206 to perform processing corresponding to other constituent elements of recent characters. Run.
こうして、ユーザ入力のストロークデータの構成要素[旁]側に関しても、最近文字[洽]の[旁]側の構成要素[合]に置換して補正ストロークデータとする処理を実行する。 In this way, the constituent element [close] side of the stroke data input by the user is also replaced with the constituent element [ai] on the [close] side of the latest character [洽] to obtain corrected stroke data.
ステップS210において、すべての最近文字の構成要素の選択が終了して、未選択の最近文字の構成要素がないと判断した場合(ステップS210のYES)、制御部21は、ユーザ入力のストロークデータのすべての構成要素の選択を終了したか否かを判断することで、未選択の構成要素があり、すべての構成要素を選択終了後ではないことを確認する(ステップS211)。
If it is determined in step S210 that all recent character components have been selected and there is no unselected recent character component (YES in step S210), the
ステップS211において、ユーザ入力のストロークデータのすべての構成要素の選択が終了しておらず、未選択の構成要素があると判断した場合(ステップS211のNO)、制御部21は、ステップS205からの処理に戻り、ユーザ入力のストロークデータの他の構成要素について、同様の処理を実行する。
If it is determined in step S211 that all the constituent elements of the user input stroke data have not been selected and there is an unselected constituent element (NO in step S211), the
また、ステップS211において、ユーザ入力のストロークデータのすべての構成要素の選択が終了し、未選択の構成要素がないと判断した場合(ステップS211のYES)、制御部21は、すべての偏旁型候補の選択を終了したか否かを判断することで、未選択の偏旁型候補があり、すべての候補の選択終了後ではないことを確認する(ステップS212)。
If it is determined in step S211 that all the constituent elements of the user-inputted stroke data have been selected and there is no unselected constituent element (YES in step S211), the
ステップS212において、すべての偏旁型候補の選択を終了していないと判断した場合(ステップS212のNO)、制御部21は、ステップS203からの処理に戻って、選択していない偏旁型の候補に基づく同様の処理を実行する。
In step S212, if it is determined that the selection of all the obsessive-type candidates has not been completed (NO in step S212), the
また、ステップS212において、すべての偏旁型候補の選択を終了したと判断した場合(ステップS212のYES)、制御部21は、以上で図4のストロークデータの補正処理に関するサブルーチンを終了し、図3のメインルーチンに戻る。
If it is determined in step S212 that the selection of all the bias type candidates has been completed (YES in step S212), the
前述したように、手書き入力された文字イメージから判断した偏旁型と、より字形が近いものとして選択された文字の偏旁型とが一致した場合には、偏旁型候補を1つに限定する。 As described above, when the eccentric type determined from the handwritten input character image matches the eccentric type of the character selected as having a closer character shape, the eccentric type candidate is limited to one.
一方で、手書き入力された文字イメージから判断した偏旁型と、より字形が近いものとして選択された文字の偏旁型とが一致しない場合には、2つの偏旁型候補を導出することになるため、ステップS203以下を繰り返し実行する。 On the other hand, if the biased type determined from the handwritten input character image does not match the biased type of the character selected as having a closer character shape, two candidates for the biased type are derived. Step S203 and subsequent steps are repeatedly executed.
図11は、ユーザによりタッチパネル式表示部17の候補文字表示部44で長押し操作された文字[洽]に対応して、ユーザ入力のストロークデータを偏旁型の最近の文字の構成要素に置換した補正ストロークデータの例を示す。ユーザ入力のストロークデータに対して、図11(A)が選択した最近の文字形状の漢字候補[洽]である。その偏Rix1である[三水(さんずい)]に対応したものが図11(C)に示す補正ストロークデータ2となり、同様にその旁Rix2である[合]に対応したものが図11(B)に示す補正ストロークデータ1となる。この図11では、最終的な補正ストロークデータ数は[2]となり、それらに対して後述する文字認識処理を行う。
In FIG. 11, in response to the character [洽] long-pressed by the user on the candidate
図3では、ステップS104でストロークデータの補正処理を実行した後、複数の補正データに対する手書き認識処理を順次実行して、複数の補正データに対する認識結果としての補正漢字候補を導出する(ステップS105)。 In FIG. 3, after stroke data correction processing is performed in step S104, handwriting recognition processing is sequentially performed on a plurality of correction data to derive corrected Chinese character candidates as recognition results for the plurality of correction data (step S105). .
制御部21は、導出した補正漢字候補をあらためてタッチパネル式表示部17でリスト表示した上で(ステップS106)、その表示した漢字候補に対する操作を待機するべく、ステップS103からの処理に戻る。
The
図7(B)は、図7(A)において漢字[洽]をスタイラスペンPで長押し操作により選択した状態から、前述した一連の処理により、手書き入力によるストロークデータを参照して漢字候補を表示させた状態を例示する図である。図7(B)では、補正漢字候補表示部45の中心を、選択した漢字[洽]の位置として、その左側45Aに旁[合]に対応する2つの漢字候補[哈][恰]をリスト表示し、同様に漢字[洽]を挟んでその右側45Bに2つの漢字候補[浴][沿]をリスト表示している。左側45Aの2つの漢字候補[哈][恰]は、図6(C)で示した補正ストロークデータ1に対して、ステップS105での手書き認識処理を実行して導出された候補が表示されたものである。一方、右側45Bの2つの漢字候補[浴][沿]は、図6(D)で示した補正ストロークデータ2に対して、ステップS105での手書き認識処理を実行して導出された候補が表示されたものである。
FIG. 7(B) shows a state in which the Chinese character [洽] is selected by a long-pressing operation with the stylus pen P in FIG. 7(A). It is a figure which illustrates the displayed state. In FIG. 7B, the center of the corrected kanji
この場合、同じ偏旁型の漢字同士、例えば[哈]と[恰]、[浴]と[沿]は、それぞれ同一色の枠で囲って表示することで、同一の偏旁型であることを表現しても良い。 In this case, kanji characters with the same eccentric type, such as [哈] and [恰], and [湯] and [纰], are displayed with a frame of the same color to indicate that they are the same eclectic type. You can
また、色に限らず、枠線の種類や表示位置などを同一の偏旁型毎に視覚的に識別できるよう区分表示を行うことで、ユーザは容易に文字認識された結果を理解できる。 In addition, the user can easily understand the result of character recognition by performing a sorted display so as to visually distinguish not only the color but also the type and display position of the frame line for each of the same bias patterns.
電子辞書10のユーザが、リスト表示された漢字候補の中に所望する漢字を見つけた場合、当該ユーザはその所望する漢字をタッチ操作により選択する。
When the user of the
制御部21は、図3において前述した如く、最も近いと思われる一つの候補が長押し操作されたか否か(ステップS103)、一つの候補が選択されたか否か(ステップS107)、リスト表示に対するキャンセルの操作がなされたか否か(ステップS109)を繰り返し判断することで、それらいずれかの入力がなされるのを待機している。
As described above with reference to FIG. 3, the
したがって、ユーザが所望する一つの文字がタッチ操作により選択された場合、制御部21はステップS107において一つの候補が選択されたと判断し(ステップS107のYES)、選択された漢字候補を確定して、すでに入力されている文字列に続けて入力し(ステップS108)、以上で図3の処理を終了する。
Therefore, when one character desired by the user is selected by the touch operation, the
図8(A)は、図7(A)の表示状態から補正漢字候補表示部45の右側45Bの漢字候補[浴]がタッチ操作された状態を示している。このタッチ操作に対応して制御部21は、漢字候補[浴]を、検索文字列入力部41のすでに入力されている文字列[日光]に続く文字であるものとして確定する。
FIG. 8A shows a state in which a touch operation is performed on the Chinese character candidate [Yu] on the
したがって、図8(B)に示すように検索文字列入力部41においては、仮の入力状態である誤認識の文字[信]を含む文字列[日光信]から補正処理を伴って確定した結果[日光浴]に代わる。同時に手書き文字入力部43においては、漢字確定後に次の手書き入力に備えるべく、表示内容をクリアする。
Therefore, as shown in FIG. 8(B), in the search character
このように、手書き入力により所望の漢字が認識されなかった場合でも、通常のタッチ操作とは異なる操作として、例えば認識結果に最も近いと思われる他の文字を長押し操作するなどの操作を行うことにより、ユーザが入力したストロークデータを漢字の部首毎に分解して補正ストロークデータを得、あらたに文字解析を行う。そのため、手書き入力する漢字の一部が多少不正確な形で入力された場合でも、それを補正して所望する漢字が得られる可能性を向上することができ、手書き入力の効率化に寄与できる。 In this way, even if the desired kanji character is not recognized by handwriting input, an operation different from the normal touch operation, such as long-pressing another character that is considered to be the closest to the recognition result, is performed. Thus, the stroke data input by the user is decomposed into each radical of Chinese characters to obtain corrected stroke data, and character analysis is newly performed. Therefore, even if a part of the kanji to be handwritten is input in a slightly inaccurate form, it is possible to improve the possibility of obtaining the desired kanji by correcting it, which contributes to the efficiency of handwriting input. .
なお、例えば国語辞典などの辞書機能選択時には、ユーザが見出し語の一部として入力する検索文字列で手書き入力された文字に対して、その前後にすでに入力されている文字列を勘案した上で、候補とはなり得ないと考えられる文字に関しては、候補から除外することで、無闇に多くの候補がリスト表示されるのを回避できる。 For example, when selecting a dictionary function such as a Japanese dictionary, the character strings that have already been input before and after the handwritten characters in the search character string that the user enters as part of the entry word are taken into account. By excluding characters that are considered unlikely to be candidates from the candidates, it is possible to avoid list display of a large number of candidates.
また、図7(B)および図8(A)で示したタッチパネル式表示部17の表示画面において、補正漢字候補表示部45の漢字候補45A、45Bのいずれにも依然として所望する漢字が表示されていない場合には、再度それらの中から最も形状が近いと思われる文字を選択して長押し操作することにより、図4に示したストロークデータの補正処理を繰り返し実行する。
Further, on the display screen of the touch panel
さらに、長押し操作により形状が近いと思われる漢字を何度か繰り返し選択しても、所望する漢字が候補として表示されない場合には、手書き文字入力部43で手書き入力自体を再度行うことも考えられる。そのような再度の手書き入力に際しては、その前に候補として表示されながらも所望の文字として選択されなかった文字の候補としての出現率を下げるような選択処理を行うことで、認識の精度を向上できる。
Furthermore, if the desired kanji characters are not displayed as candidates even after repeatedly selecting kanji characters that are considered to be similar in shape by long-pressing, the
[実施形態の効果]
以上詳述した如く本実施形態によれば、手書き入力された内容を有効に活用し、広い範囲の候補から所望される文字の選択を受付けることが可能となる。
[Effects of Embodiment]
As described in detail above, according to the present embodiment, it is possible to effectively utilize handwritten input content and accept selection of a desired character from a wide range of candidates.
また特に、本実施形態においては、ユーザによる手書き入力されたストロークデータを、各種テーブル記憶領域22a1に記憶された偏旁型テーブルを参照して部首毎の構成要素をどのように分割できるか解析した結果に基づく、偏旁型の候補として導出して補正ストロークデータを得るものとした。このような処理過程を採用することで、他にも例えば文字認識処理における学習や機械学習データ等に基づいた重み付けを行う画像処理を併せて実行しても良いが、いずれにしても制御部21での回路処理の負担を軽減して、より迅速に認識結果を取得できる。 In particular, in the present embodiment, stroke data handwritten input by the user is analyzed by referring to the eccentric table stored in the various table storage area 22a1 to see how the constituent elements of each radical can be divided. Based on the results, it was assumed that the correction stroke data was obtained by deriving the candidate for the bias type. By adopting such a processing process, for example, image processing for performing weighting based on learning in character recognition processing, machine learning data, etc. may also be executed. It is possible to reduce the burden of circuit processing in the , and obtain the recognition result more quickly.
また、本実施形態では説明しなかったが、最終的に所望する文字の候補をユーザが選択した際には、その選択された文字と手書き入力された文字それぞれを偏旁型に応じて分割し、分割した部位毎にその対応関係を学習データとして各種テーブル記憶領域22a1に更新記憶させても良い。その場合、各種テーブル記憶領域22a1が、手書き入力された文字を分割した部位と、確定結果となる文字の対応する部位との関連性を示す情報を記憶し、制御部21が新たに文字認識を行う際に用いる情報として記憶する記憶部として機能する。次回以降の手書き入力の文字認識の際に同様の筆跡が含まれていた場合に、学習した内容に応じて自動的に補正を行うことで、使い込む程にユーザの手書きの癖を学習して、認識率をより向上させることができる。
Further, although not described in the present embodiment, when the user finally selects a desired character candidate, the selected character and the handwritten input character are each divided according to the eccentric type, The corresponding relationship for each divided part may be updated and stored in the various table storage area 22a1 as learning data. In this case, the various table storage areas 22a1 store information indicating the relationship between the parts obtained by dividing the handwritten characters and the corresponding parts of the characters that are determined, and the
その他、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 In addition, the present invention is not limited to the above-described embodiments, and can be variously modified in the implementation stage without departing from the scope of the invention. Moreover, each embodiment may be implemented in combination as much as possible, and in that case, the combined effect can be obtained. Furthermore, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiments, the problems described in the column of problems to be solved by the invention can be solved, and the effects described in the column of effects of the invention is obtained, the configuration from which this constituent element is deleted can be extracted as an invention.
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[請求項1]
手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、
前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、
前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、
を備え、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能であり、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ことを特徴とする文字認識装置。
[請求項2]
前記文字導出部は、さらに前記入力部で受付けた文字イメージとの関連性も用いて前記第2の文字を導出する、
ことを特徴とする請求項1記載の文字認識装置。
[請求項3]
前記文字導出部は、前記文字イメージの粗密に応じて分割した部位毎に、前記第1の文字の対応する部位との所定の関連性に応じて前記第2の文字を導出する、
請求項1または2記載の文字認識装置。
[請求項4]
前記文字導出部は、前記文字イメージの粗密に応じて分割した部位に対応して、前記第1の文字との所定の関連性を有する複数の前記第2の文字を導出し、
前記表示制御部は、導出した複数の前記第2の文字を、前記文字イメージの粗密に応じて分割した部位に対応して区分して表示させる、
ことを特徴とする請求項1乃至3いずれか記載の文字認識装置。
[請求項5]
前記文字導出部は、前記入力部で受付ける文字イメージが入力済の文字列に続いて入力されたものである場合に、前記入力済の文字列との関連性に応じて前記第2の文字を導出する、
ことを特徴とする請求項1乃至4いずれか記載の文字認識装置。
[請求項6]
前記入力部は、追加候補として表示させた前記第2の文字に対する確定操作を受付け可能であり、
前記文字イメージの粗密に応じて分割した部位と、前記確定操作を受付けた前記第2の文字の対応する部位との関連性を示す情報を、前記文字導出部が前記第2の文字を導出する際に用いる情報として記憶する記憶部をさらに備える、
ことを特徴とする請求項1乃至5いずれか記載の文字認識装置。
[請求項7]
手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、を備える装置での文字認識方法であって、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能とし、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ことを特徴とする文字認識方法。
[請求項8]
手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、を備える装置が内蔵したコンピュータが実行するプログラムであって、前記コンピュータにより、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能とし、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ように機能させることを特徴とするプログラム。
The invention described in the original claims of the present application is appended below.
[Claim 1]
an input unit that receives a character image based on a handwritten input operation;
a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image;
a display control unit for displaying the first character derived by the character derivation unit as a candidate for a character desired by a user;
with
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A character recognition device characterized by:
[Claim 2]
The character derivation unit further derives the second character by using a relationship with the character image received by the input unit.
2. The character recognition device according to
[Claim 3]
The character derivation unit derives the second character according to a predetermined relationship with the corresponding part of the first character for each part divided according to the density of the character image,
3. The character recognition device according to
[Claim 4]
The character derivation unit derives a plurality of the second characters having a predetermined relationship with the first character, corresponding to the parts divided according to the density of the character image,
The display control unit displays the plurality of derived second characters by dividing them corresponding to the parts divided according to the coarseness and fineness of the character image.
4. The character recognition device according to any one of
[Claim 5]
The character derivation unit, when the character image received by the input unit is input following an already input character string, extracts the second character according to the relationship with the already input character string. to derive
5. The character recognition device according to any one of
[Claim 6]
The input unit is capable of accepting a confirmation operation for the second character displayed as an additional candidate,
The character derivation unit derives the second character from information indicating the relationship between the part divided according to the density of the character image and the corresponding part of the second character for which the confirmation operation is received. Further comprising a storage unit for storing information used when
6. The character recognition device according to any one of
[Claim 7]
an input unit that receives a character image based on an input operation in a handwritten format; a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image; A character recognition method in a device comprising: a display control unit that displays the first character derived by the character derivation unit as a candidate for a character desired by a user,
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A character recognition method characterized by:
[Claim 8]
an input unit that receives a character image based on an input operation in a handwritten format; a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image; and a display control unit for displaying the first character derived by the character derivation unit as a candidate for a character desired by a user.
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A program characterized by causing it to function as
10…電子辞書
11…本体ケース
12…蓋体ケース
13…ヒンジ部
14…キー入力部
14a…[ホーム]キー
14b…機能指定キー
14c…文字入力キー
14d…[決定]キー
14e…[戻る]キー
14f…[BOX]キー
14g…カーソル移動キー
14h…[シフト]キー
15…音声出力部
16…音声入力部
17…タッチパネル式表示部
21…制御部(CPU)
22…記憶部
22a…検索処理プログラム記憶領域
22a1…各種テーブル記憶領域
22b…辞書データ記憶領域
22c…検索履歴記憶領域
22d…作業データ記憶領域
23…外部記録媒体
24…記録媒体読取部
25…通信部
41…検索文字列入力部
42…候補表示部
43…手書き文字入力部
44…候補文字表示部
45…補正漢字候補表示部
45A、45B…漢字候補
P…スタイラスペン
DESCRIPTION OF
22
Claims (8)
前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、
前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、
を備え、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能であり、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ことを特徴とする文字認識装置。 an input unit that receives a character image based on a handwritten input operation;
a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image;
a display control unit for displaying the first character derived by the character derivation unit as a candidate for a character desired by a user;
with
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A character recognition device characterized by:
ことを特徴とする請求項1記載の文字認識装置。 The character derivation unit further derives the second character by using a relationship with the character image received by the input unit.
2. The character recognition device according to claim 1, wherein:
請求項1または2記載の文字認識装置。 The character derivation unit derives the second character according to a predetermined relationship with the corresponding part of the first character for each part divided according to the density of the character image,
3. The character recognition device according to claim 1 or 2.
前記表示制御部は、導出した複数の前記第2の文字を、前記文字イメージの粗密に応じて分割した部位に対応して区分して表示させる、
ことを特徴とする請求項1乃至3いずれか記載の文字認識装置。 The character derivation unit derives a plurality of the second characters having a predetermined relationship with the first character, corresponding to the parts divided according to the density of the character image,
The display control unit displays the plurality of derived second characters by dividing them corresponding to the parts divided according to the coarseness and fineness of the character image.
4. The character recognition device according to any one of claims 1 to 3, characterized in that:
ことを特徴とする請求項1乃至4いずれか記載の文字認識装置。 The character derivation unit, when the character image received by the input unit is input following an already input character string, extracts the second character according to the relationship with the already input character string. to derive
5. The character recognition device according to any one of claims 1 to 4, characterized in that:
前記文字イメージの粗密に応じて分割した部位と、前記確定操作を受付けた前記第2の文字の対応する部位との関連性を示す情報を、前記文字導出部が前記第2の文字を導出する際に用いる情報として記憶する記憶部をさらに備える、
ことを特徴とする請求項1乃至5いずれか記載の文字認識装置。 The input unit is capable of accepting a confirmation operation for the second character displayed as an additional candidate,
The character derivation unit derives the second character from information indicating the relationship between the part divided according to the density of the character image and the corresponding part of the second character for which the confirmation operation is received. Further comprising a storage unit for storing information used when
6. The character recognition device according to any one of claims 1 to 5, characterized in that:
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能とし、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ことを特徴とする文字認識方法。 an input unit that receives a character image based on an input operation in a handwritten format; a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image; A character recognition method in a device comprising: a display control unit that displays the first character derived by the character derivation unit as a candidate for a character desired by a user,
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A character recognition method characterized by:
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能とし、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ように機能させることを特徴とするプログラム。 an input unit that receives a character image based on an input operation in a handwritten format; a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image; and a display control unit for displaying the first character derived by the character derivation unit as a candidate for a character desired by a user.
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A program characterized by causing it to function as
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021050754A JP2022148901A (en) | 2021-03-24 | 2021-03-24 | Character recognition apparatus, character recognition method, and program |
CN202210249269.8A CN115131799A (en) | 2021-03-24 | 2022-03-14 | Character recognition device, character recognition method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021050754A JP2022148901A (en) | 2021-03-24 | 2021-03-24 | Character recognition apparatus, character recognition method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022148901A true JP2022148901A (en) | 2022-10-06 |
Family
ID=83376683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021050754A Pending JP2022148901A (en) | 2021-03-24 | 2021-03-24 | Character recognition apparatus, character recognition method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022148901A (en) |
CN (1) | CN115131799A (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0696266A (en) * | 1992-09-11 | 1994-04-08 | Hitachi Ltd | Correction supporting system for character recognition result |
JPH08123896A (en) * | 1994-10-28 | 1996-05-17 | Hitachi Ltd | Handwritten character input device |
JPH09147055A (en) * | 1995-11-27 | 1997-06-06 | Sharp Corp | Character processor |
JPH1021325A (en) * | 1996-06-28 | 1998-01-23 | Baazu Joho Kagaku Kenkyusho:Kk | Method for recognizing character |
JPH11120293A (en) * | 1997-10-16 | 1999-04-30 | Fujitsu Ltd | Character recognition/correction system |
JP2007018178A (en) * | 2005-07-06 | 2007-01-25 | Sharp Corp | Character input device, character input program, and recording medium for recording character input program |
JP2016523406A (en) * | 2013-06-09 | 2016-08-08 | アップル インコーポレイテッド | Real-time handwriting recognition management |
-
2021
- 2021-03-24 JP JP2021050754A patent/JP2022148901A/en active Pending
-
2022
- 2022-03-14 CN CN202210249269.8A patent/CN115131799A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0696266A (en) * | 1992-09-11 | 1994-04-08 | Hitachi Ltd | Correction supporting system for character recognition result |
JPH08123896A (en) * | 1994-10-28 | 1996-05-17 | Hitachi Ltd | Handwritten character input device |
JPH09147055A (en) * | 1995-11-27 | 1997-06-06 | Sharp Corp | Character processor |
JPH1021325A (en) * | 1996-06-28 | 1998-01-23 | Baazu Joho Kagaku Kenkyusho:Kk | Method for recognizing character |
JPH11120293A (en) * | 1997-10-16 | 1999-04-30 | Fujitsu Ltd | Character recognition/correction system |
JP2007018178A (en) * | 2005-07-06 | 2007-01-25 | Sharp Corp | Character input device, character input program, and recording medium for recording character input program |
JP2016523406A (en) * | 2013-06-09 | 2016-08-08 | アップル インコーポレイテッド | Real-time handwriting recognition management |
Also Published As
Publication number | Publication date |
---|---|
CN115131799A (en) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100931466B1 (en) | Electronic dictionary device and dictionary search method of electronic dictionary device | |
JP5703711B2 (en) | Electronic dictionary device and program | |
JP4277903B2 (en) | Electronic device and program with dictionary function | |
US20120092233A1 (en) | Display control apparatus and display control method | |
JP4661924B2 (en) | Electronic device and program with dictionary function | |
US8489389B2 (en) | Electronic apparatus with dictionary function and computer-readable medium | |
US8335680B2 (en) | Electronic apparatus with dictionary function background | |
JP2022148901A (en) | Character recognition apparatus, character recognition method, and program | |
JP5652251B2 (en) | Information display device and program | |
JP5487898B2 (en) | Electronic device and program with dictionary function | |
JP4646512B2 (en) | Electronic device and electronic dictionary device | |
JP5141130B2 (en) | Electronic device and program having dictionary function | |
JP6451790B2 (en) | Electronic device having dictionary function, control program thereof, and display method | |
JP4967820B2 (en) | Handwritten character input device and control program thereof | |
JP6167508B2 (en) | Electronic device, program, and display method | |
JP7515242B2 (en) | Character input device, character input support method and program | |
JP2013149083A (en) | Information display control device and program | |
JP5953768B2 (en) | Electronic dictionary device, dictionary search method in electronic device, and program | |
JP5440229B2 (en) | Electronic dictionary device and program | |
JP5531516B2 (en) | Information display device and information display program | |
JP2022148873A (en) | Information retrieval device, information retrieval method, and program | |
JP2021043713A (en) | Character input device, character input method, and handwriting input program | |
JP5561312B2 (en) | Electronic device with dictionary function, search character input method and program in electronic device with dictionary function | |
JP5733380B2 (en) | Electronic equipment and programs | |
JP2018164169A (en) | Character input device, character input method, and input control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220131 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230921 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240409 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240423 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20240607 |