JP2022148901A - Character recognition apparatus, character recognition method, and program - Google Patents

Character recognition apparatus, character recognition method, and program Download PDF

Info

Publication number
JP2022148901A
JP2022148901A JP2021050754A JP2021050754A JP2022148901A JP 2022148901 A JP2022148901 A JP 2022148901A JP 2021050754 A JP2021050754 A JP 2021050754A JP 2021050754 A JP2021050754 A JP 2021050754A JP 2022148901 A JP2022148901 A JP 2022148901A
Authority
JP
Japan
Prior art keywords
character
user
unit
input
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021050754A
Other languages
Japanese (ja)
Inventor
健夫 小澤
Takeo Ozawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021050754A priority Critical patent/JP2022148901A/en
Priority to CN202210249269.8A priority patent/CN115131799A/en
Publication of JP2022148901A publication Critical patent/JP2022148901A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Character Discrimination (AREA)

Abstract

To efficiently utilize handwritten information so that a desired character can be selected from a wide range of candidates.SOLUTION: A character recognition apparatus includes: a touch-panel display unit 17 which receives a character image based on a handwritten input operation; and a control unit 21 which executes recognition processing on the received character image to derive a first character from the character image, and causes the touch-panel display unit 17 to display the derived first character as a candidate of character desired by a user. The touch-panel display unit 17 can receive a designation operation indicating that the first character is not the character desired by the user but a character similar to the character desired by the user. The control unit 21 derives, when receiving the designation operation, a second character having a predetermined relationship with the first character, and causes the touch-panel display unit 17 to display the derived second character as an additional candidate of the character desired by the user.SELECTED DRAWING: Figure 2

Description

本発明は、文字認識装置、文字認識方法およびプログラムに関する。 The present invention relates to a character recognition device, character recognition method and program.

手書き入力認識された一連の文字列について、修正すべき1文字毎にその認識候補文字を順次表示させ選択操作する必要なく容易に所望の認識候補文字に修正する技術について提案されている。(例えば、特許文献1) There has been proposed a technique of sequentially displaying recognition candidate characters for each character to be corrected in a series of character strings recognized by handwritten input and easily correcting them to desired recognition candidate characters without the need for selection operations. (For example, Patent Document 1)

特開2008-299431号公報Japanese Patent Application Laid-Open No. 2008-299431

特許文献に記載された技術を含めて、修正の候補となる複数の文字中に所望する文字がない場合、再度手書きによる文字認識処理を行う必要がある。 Including the technique described in the patent document, if there is no desired character among a plurality of characters that are candidates for correction, it is necessary to perform character recognition processing by handwriting again.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、手書き入力された内容を有効に活用し、広い範囲の候補から所望される文字の選択を受付けることが可能な文字認識装置、文字認識方法およびプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and its object is to make effective use of handwritten input contents and to accept selection of desired characters from a wide range of candidates. It is an object of the present invention to provide a character recognition device, a character recognition method, and a program.

本発明の一態様は、手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、を備え、前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能であり、前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、ことを特徴とする。 According to one aspect of the present invention, an input unit that receives a character image based on an input operation in a handwritten format, performs recognition processing on the character image received by the input unit, and recognizes a first character from the character image. and a display control unit configured to display the first character derived by the character derivation unit as a candidate for a character desired by the user, wherein the input unit receives the first character , a designation operation indicating that the character is not the character desired by the user but is similar to the character desired by the user, and the character derivation unit receives the designation operation by the input unit Then, a second character having a predetermined relationship with the first character is further derived, and the display control unit converts the second character derived by the character derivation unit into a character desired by the user. It is characterized in that it is displayed as an additional candidate.

本発明によれば、手書き入力された内容を有効に活用し、広い範囲の候補から所望される文字の選択を受付けることが可能となる。 According to the present invention, it is possible to effectively utilize handwritten input content and accept selection of a desired character from a wide range of candidates.

本発明の一実施形態に係る電子辞書の外観構成を示す図。1 is a diagram showing the external configuration of an electronic dictionary according to one embodiment of the present invention; FIG. 同実施形態に係る電子辞書の電子回路の機能構成を示すブロック図。FIG. 2 is a block diagram showing the functional configuration of an electronic circuit of the electronic dictionary according to the same embodiment; 同実施形態に係る手書き入力された文字に対する処理内容を示すフローチャート。4 is a flow chart showing the processing contents for handwritten input characters according to the embodiment; 同実施形態に係る図3のストロークデータ補正処理の詳細な処理内容を示すサブルーチンのフローチャート。4 is a flowchart of a subroutine showing detailed processing contents of stroke data correction processing of FIG. 3 according to the embodiment; 同実施形態に係る手書き文字入力とその認識結果を示す画面を例示する図。The figure which illustrates the screen which shows the handwritten character input and its recognition result which concern on the same embodiment. 同実施形態に係る複数の補正ストロークデータを導出する過程を示す図。FIG. 4 is a diagram showing a process of deriving a plurality of corrected stroke data according to the same embodiment; 同実施形態に係るタッチパネル式表示部の画面の遷移を示す図。FIG. 4 is a diagram showing transition of screens of the touch panel type display unit according to the embodiment; 同実施形態に係るタッチパネル式表示部の画面の遷移を示す図。FIG. 4 is a diagram showing transition of screens of the touch panel type display unit according to the embodiment; 同実施形態に係る各種テーブル記憶領域に記憶される偏旁型テーブルの一部を例示する図。FIG. 4 is a diagram exemplifying a part of a biased table stored in various table storage areas according to the embodiment; 同実施形態に係るユーザ入力のストロークデータから偏旁型の漢字候補を導出する過程を説明する図。FIG. 10 is a diagram for explaining a process of deriving biased Kanji candidates from user-inputted stroke data according to the embodiment; 同実施形態に係るユーザ入力のストロークデータを最近の文字形状の構成要素に置換した例を示す図。FIG. 10 is a diagram showing an example in which user-inputted stroke data is replaced with the most recent character shape component according to the embodiment;

以下、本発明を電子辞書に適用した場合の一実施形態について、図面を参照して説明する。
[構成]
図1は、同実施形態に係る電子辞書10の外観構成を示す正面図である。なお、本実施形態は、以下に説明する電子辞書10として構成されるだけでなく、辞書機能を備えたタブレット型のPC(Personal Computer)、スマートフォン、電子ブック、携帯ゲーム機、通信ネットワーク上のサーバなどとしても構成され得る。
An embodiment in which the present invention is applied to an electronic dictionary will be described below with reference to the drawings.
[Constitution]
FIG. 1 is a front view showing the external configuration of an electronic dictionary 10 according to the embodiment. Note that this embodiment is configured not only as an electronic dictionary 10 described below, but also as a tablet-type PC (Personal Computer) equipped with a dictionary function, a smartphone, an electronic book, a portable game machine, a server on a communication network. and so on.

電子辞書10は、その本体ケース11と蓋体ケース12とがヒンジ部13を介して展開/閉塞可能な折り畳み型ケースを備えて構成される。折り畳み型ケースを展開した本体ケース11の表面には、[ホーム]キー14a、機能指定キー14b、文字入力キー14c、[決定]キー14d、[戻る]キー14e、[BOX]キー14f、カーソル移動キー14g、[シフト]キー14hなどを含むキー入力部14(ハードウェアキー)、音声出力部(スピーカを含む)15および音声入力部(マイクロホンを含む)16、などが設けられる。 The electronic dictionary 10 comprises a foldable case in which a body case 11 and a lid case 12 can be opened/closed via a hinge portion 13 . [Home] key 14a, function designation key 14b, character input key 14c, [decision] key 14d, [return] key 14e, [BOX] key 14f, cursor movement A key input section 14 (hardware keys) including a key 14g, a [shift] key 14h, etc., an audio output section (including a speaker) 15, an audio input section (including a microphone) 16, and the like are provided.

また、蓋体ケース12の表面には、タッチパネル式表示部17が設けられる。タッチパネル式表示部17は、電子辞書10のユーザがペンや手指でタッチした位置を検出するタッチ位置検出装置と表示装置とが一体となった構造であり、バックライト付の液晶画面に透明のタッチパネルを積層して構成される。即ち、タッチパネル式表示部17は、手書き形式での入力操作に基づいて文字イメージを受付ける入力部として機能する。 A touch panel type display unit 17 is provided on the surface of the lid case 12 . The touch panel type display unit 17 has a structure in which a touch position detection device for detecting a position touched by the user of the electronic dictionary 10 with a pen or finger and a display device are integrated, and a transparent touch panel is provided on a backlit liquid crystal screen. are laminated. In other words, the touch panel display unit 17 functions as an input unit that receives character images based on handwritten input operations.

キー入力部14の[ホーム]キー14aは、キー入力部14にホーム画面を表示させるためのキーである。特に図示されないが、本電子辞書10の初期設定あるいはユーザ操作に応じて登録された複数のアイコンが表示される。各アイコンは、当該アイコンの表記に対応する機能を実現するための図面や記号である。例えば、辞書コンテンツや学習コンテンツを利用する機能(アプリケーション)を直接起動させるアプリケーションアイコンや、1つのカテゴリに属する複数の機能のアイコンの一覧画面を表示させるグループアイコンを含む。 A [Home] key 14a of the key input unit 14 is a key for causing the key input unit 14 to display a home screen. Although not shown, a plurality of icons registered according to initial settings of the electronic dictionary 10 or user operations are displayed. Each icon is a drawing or symbol for realizing a function corresponding to the notation of the icon. For example, it includes an application icon that directly activates a function (application) that uses dictionary content or learning content, and a group icon that displays a list screen of icons of a plurality of functions belonging to one category.

キー入力部14の機能指定キー14bは、各キーに表記されている辞書コンテンツなどを直接指定するためのキーである。機能指定キー14bには、辞書コンテンツのカテゴリをあえて特定しない[複数辞書]キー、同カテゴリを指定するキー([国語]キー、[古語]キー、[漢和]キー、[英英和]キーなど)と、辞書コンテンツを一覧表示させる[コンテンツ一覧]キー、ツールの1つのカテゴリである[学習帳]キーを含む。 The function designation key 14b of the key input unit 14 is a key for directly designating dictionary contents written on each key. Function designation keys 14b include a [multiple dictionaries] key that dares not specify the category of dictionary content, and keys that specify the same category ([National] key, [Old Japanese] key, [Kanwa] key, [English-English] key, etc.). , a [content list] key for displaying a list of dictionary contents, and a [learning notebook] key, which is one category of tools.

また、キー入力部14のキーは、[シフト]キー14hが操作された後に続けて操作されることで、そのキートップに枠囲みなしで表記されたキーとしてではなく、枠囲みして表記されたキーとして機能する。例えば、[シフト]キー14hの操作の後に[削除]キーが操作されると、[削除]キーではなく[設定]キーとして機能する。 Further, when the keys of the key input unit 14 are operated after the [Shift] key 14h is operated, they are not written without a frame on the key top, but are written with a frame. functions as a key. For example, if the [Delete] key is operated after the [Shift] key 14h is operated, it functions as a [Set] key instead of the [Delete] key.

図1では、[国語辞典]が選択され、タッチパネル式表示部17の上部に位置する検索文字列入力部41において、カナ入力タグ(あいう)、アルファベット入力タグ(ABC)のうちのカナ入力タグが選択された状態を示す。 In FIG. 1, [Japanese Dictionary] is selected, and in the search character string input section 41 located in the upper part of the touch panel type display section 17, the kana input tag of the kana input tag (Aiu) and the alphabet input tag (ABC) is Indicates selected state.

検索文字列入力部41に、すでに文字列[日光]が入力されている。検索文字列入力部41下部の候補表示部42には、文字列[日光]に対応する、例えば3つの見出し語がリスト表示された状態を示す。さらに候補表示部42の下部には、2文字分の手書き文字入力部43が表示され、文字列[日光]に続く文字の手書き入力を待機するべく、ブランクとなっている状態を示す。 The character string [Nikko] has already been entered in the search character string input field 41 . In the candidate display area 42 below the search character string input area 41, for example, three headwords corresponding to the character string [Nikko] are displayed as a list. Further, a handwritten character input area 43 for two characters is displayed below the candidate display area 42, showing a blank state to wait for handwritten input of characters following the character string [Sunshine].

図2は、電子辞書10の電子回路の機能構成を示すブロック図である。
電子辞書10の電子回路は、コンピュータである制御部(CPU:Central Processing Unit)21を備える。制御部21は、フラッシュROMなどの記憶部22に予め記憶された制御プログラムに従って回路各部の動作を制御する。CPU等のプロセッサは1つでも2つ以上でも良い。
FIG. 2 is a block diagram showing the functional configuration of the electronic circuit of the electronic dictionary 10. As shown in FIG.
The electronic circuit of the electronic dictionary 10 includes a control section (CPU: Central Processing Unit) 21 which is a computer. The control section 21 controls the operation of each section of the circuit according to a control program pre-stored in the storage section 22 such as a flash ROM. The number of processors such as CPUs may be one or two or more.

なお、制御プログラムおよび後述する辞書データの少なくとも一方は、メモリカードなどの外部記録媒体23から記録媒体読取部24により読み取られて記憶部22に記憶されても良いし、通信部25を介して外部の図示しないネットワーク上のウェブサーバ等からダウンロードされたものを記憶部22に記憶しても良い。 Note that at least one of the control program and later-described dictionary data may be read from an external recording medium 23 such as a memory card by the recording medium reading unit 24 and stored in the storage unit 22 , or may be stored in the storage unit 22 via the communication unit 25 . It is also possible to store in the storage unit 22 those downloaded from a web server or the like on a network (not shown).

制御部21には、データバスおよび制御バスを介して、記憶部22、記録媒体読取部24、通信部25を接続するほか、キー入力部14、音声出力部15、音声入力部16、タッチパネル式表示部17を接続する。 The control unit 21 is connected to a storage unit 22, a recording medium reading unit 24, and a communication unit 25 via a data bus and a control bus. Connect the display unit 17 .

記憶部22は、本電子辞書10の全体の動作を司るシステムプログラム、通信部25を介して外部の機器と通信接続するための通信プログラムのほか、検索処理プログラム記憶領域22a、辞書データ記憶領域22b、検索履歴記憶領域22c、作業データ記憶領域22dなど、本電子辞書10により各種の機能を実行するためのプログラムやデータを記憶する記憶領域が確保される。 The storage unit 22 stores a system program that controls the overall operation of the electronic dictionary 10, a communication program that communicates with an external device via the communication unit 25, a search processing program storage area 22a, and a dictionary data storage area 22b. , a search history storage area 22c, a work data storage area 22d, etc., are secured for storing programs and data for executing various functions of the electronic dictionary 10. FIG.

検索処理プログラム記憶領域22aは、辞書データ記憶領域22bに辞書データとして記憶される各種の辞書コンテンツ(英英和辞典/英和辞典/和英辞典/英英辞典/国語辞典/百科事典/…)に基づいて、ユーザ所望の見出し語と当該見出し語に対応する訳語、語義、用例、解説などの説明情報を検索して表示させるための制御プログラムや、見出し語の文字入力以外の入力に応じた検索を実行する際に使用する各種テーブル記憶領域22a1などを記憶する領域である。 The search processing program storage area 22a is based on various dictionary contents (English-English dictionary/English-Japanese dictionary/Japanese-English dictionary/English-English dictionary/Japanese dictionary/encyclopedia/...) stored as dictionary data in the dictionary data storage area 22b. , a control program for retrieving and displaying descriptive information such as a user-desired headword and translations, meanings, examples, and explanations corresponding to the headword, and executing searches according to inputs other than character input of headwords. This is an area for storing various table storage areas 22a1 and the like used when

各種テーブル記憶領域22a1には、予め漢字の各文字データに対して構成要素となる部首をどのように分割できるのかを定めた偏旁型テーブルを含む複数のテーブルを記憶している。 The various table storage area 22a1 stores a plurality of tables including a partial table that defines in advance how the constituent radicals of each character data of Chinese characters can be divided.

検索履歴記憶領域22cには、ユーザ操作に応じた検索に従い、見出し語とその説明情報が検索結果として表示される際に、検索対象とされた見出し語がその検索回数の情報とともに検索履歴として記憶される。 In the search history storage area 22c, when the headwords and their description information are displayed as the search results according to the search according to the user's operation, the headwords to be searched are stored as the search history together with the information of the number of searches. be done.

作業データ記憶領域22dには、制御部21による制御プログラムに従った回路各部の動作の制御に伴い、ユーザ操作に応じて入力されたデータや制御部21により取得、あるいは生成されるなどした各種のデータが必要に応じて一時的に記憶(保持)される。 In the work data storage area 22d, various data acquired or generated by the control unit 21 and data input according to user operations are stored in accordance with the control of the operation of each circuit unit according to the control program by the control unit 21. Data is temporarily stored (held) as needed.

通信部25は、例えば無線PAN(Personal Area Network)技術の1つであるBLE(Bluetooth(登録商標) Low Energy)規格に基づいて、周囲に存在する同様の電子辞書などの外部機器と無線接続するほか、無線ルータなどを介して外部の図示しないネットワーク上のウェブサーバ等と無線接続して、制御プログラムなどをダウンロードする。 The communication unit 25 wirelessly connects to similar external devices such as electronic dictionaries that exist in the vicinity based on, for example, the BLE (Bluetooth (registered trademark) Low Energy) standard, which is one of wireless PAN (Personal Area Network) technologies. In addition, it wirelessly connects to a web server or the like on an external network (not shown) via a wireless router or the like to download a control program or the like.

[動作]
次に本実施形態の動作について説明する。
本実施形態では、国語辞典の機能選択時に、手書き入力された文字イメージに対して認識した結果が、ユーザの所望する漢字ではなかった場合の修正処理の動作について説明する。
[motion]
Next, the operation of this embodiment will be described.
In this embodiment, the operation of correction processing when the result of recognizing a character image input by handwriting at the time of function selection of the Japanese dictionary is not the kanji characters desired by the user will be described.

ここでは、例えば検索文字列として手書き入力により文字列[日光]の文字イメージを入力して所望する通り認識され、続けて同様に手書き入力で文字[浴]の文字イメージを入力して、入力された文字イメージの認識結果の文字候補中に、所望する文字[浴]がなかった場合について説明する。 Here, for example, a character image of a character string [Sunlight] is input by handwriting input as a search character string, and is recognized as desired. A case where the desired character [Yu] is not found in the character candidates of the recognition result of the character image obtained will be described.

図5(A)は、図1に示したタッチパネル式表示部17の表示状態から、さらに電子辞書10のユーザがスタイラスペンPにより手書き文字入力部43にて文字[浴]の文字イメージを筆記入力した場合の画面を示す。 FIG. 5A shows that the user of the electronic dictionary 10 writes and inputs the character image of the character [bath] on the handwritten character input unit 43 with the stylus pen P from the display state of the touch panel type display unit 17 shown in FIG. Shows the screen when

図示するように、手書き文字入力部43は2文字分の入力エリアを有する。その一方、例えば左側で手書きの筆記入力を行った後、右側でその入力文字に対する認識処理の実行をスタイラスペンPを用いて指示する。 As shown, the handwritten character input section 43 has an input area for two characters. On the other hand, for example, after inputting handwriting on the left side, the stylus pen P is used to instruct execution of recognition processing for the input character on the right side.

スタイラスペンPでの認識処理の実行指示に対応して、制御部21は、文字認識処理を実行して、認識結果である文字候補を類似度が高いと評価した順序でリスト表示する。即ち、制御部21は、入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部、および文字導出部で導出された第1の文字をユーザが所望する文字の候補として表示させる表示制御部として機能する。 In response to an instruction to execute the recognition process with the stylus pen P, the control unit 21 executes the character recognition process, and displays a list of character candidates as recognition results in the order in which the degree of similarity is evaluated as high. That is, the control unit 21 performs recognition processing on a character image received by the input unit, and has a character derivation unit that derives the first character from the character image, and the first character derived by the character derivation unit. is displayed as a character candidate desired by the user.

図5(B)は、候補文字表示部44で類似度が高いと評価した漢字候補をリスト表示した状態を示す。この候補文字表示部44内には、所望する漢字[浴]が含まれていないため、ユーザは手書き入力した文字に対する修正のための操作が必要となる。 FIG. 5(B) shows a list of Kanji candidates evaluated as having high similarity in the candidate character display section 44 . Since the desired Chinese character [Yu] is not included in the candidate character display section 44, the user needs to perform an operation to correct the handwritten input character.

図3は、制御部21が実行する、手書き入力された文字に対する処理内容を示すフローチャートである。 FIG. 3 is a flow chart showing the details of the process performed by the control unit 21 on handwritten input characters.

処理当初に制御部21は、認識結果として該当する候補文字の情報を取得し(ステップS101)、図5(B)で示したように、それら候補の文字を候補文字表示部44にリスト表示する。 At the beginning of the process, the control unit 21 acquires information on candidate characters as recognition results (step S101), and displays a list of these candidate characters on the candidate character display unit 44 as shown in FIG. 5B. .

この漢字候補をリスト表示した状態から、制御部21は最も近いと思われる一つの候補が長押し操作されたか否か(ステップS103)、一つの候補が選択されたか否か(ステップS107)、リスト表示に対するキャンセルの操作がなされたか否か(ステップS109)、を繰り返し判断することで、これらいずれかの入力がなされるのを待機する。 From the state in which this list of Chinese character candidates is displayed, the control unit 21 determines whether or not one candidate that seems to be the closest has been long-pressed (step S103), whether or not one candidate has been selected (step S107). By repeatedly determining whether or not an operation to cancel the display has been performed (step S109), it waits for any of these inputs.

ステップS107において、リスト表示に対するキャンセルの操作がなされたと判断した場合(ステップS109のYES)、制御部21は以上で図3の処理を終了する。 If it is determined in step S107 that the operation to cancel the list display has been performed (YES in step S109), the control unit 21 ends the processing of FIG.

図7(A)は、図5(B)で示したタッチパネル式表示部17の画面から、ユーザがスタイラスペンPで手書き文字入力部43中の漢字候補[洽]を長押し操作している状態を掲示している。 FIG. 7(A) shows a state in which the user long-presses the Chinese character candidate [洽] in the handwritten character input unit 43 with the stylus pen P on the screen of the touch panel display unit 17 shown in FIG. 5(B). is posted.

ステップS103において、1つの候補に対する長押し操作がなされたと判断した場合、制御部21は、手書き入力された元の入力ストロークデータと、最も類似度が高いものとして選択された候補の漢字の文字形状から、複数の補正ストロークデータを導出するべくストロークデータ補正処理を実行する(ステップS104)。 In step S103, when it is determined that a long press operation has been performed on one candidate, the control unit 21 determines the character shape of the candidate kanji selected as having the highest similarity to the original input stroke data handwritten. , stroke data correction processing is executed to derive a plurality of corrected stroke data (step S104).

図6は、複数の補正ストロークデータを導出する過程を例示する図である。図6(A)に示す手書き入力された文字のストロークデータと、図6(B)に示すユーザが選択した最も近いと判断して選択した文字[洽]の形状とに合わせて、制御部21は図6(C)に示す補正ストロークデータ1と、図6(D)に示す補正ストロークデータ2とを導出する。 FIG. 6 is a diagram illustrating the process of deriving a plurality of corrected stroke data. In accordance with the stroke data of the handwritten input character shown in FIG. 6A and the shape of the character [洽] selected by the user as shown in FIG. derives corrected stroke data 1 shown in FIG. 6(C) and corrected stroke data 2 shown in FIG. 6(D).

図4は、制御部21がステップS104で実行するストロークデータの補正処理の詳細を示すサブルーチンのフローチャートである。その当初にユーザの入力ストロークデータを走査し、外形枠、空白情報、密集情報を含む字形解析データを導出する(ステップS201)。 FIG. 4 is a flowchart of a subroutine showing details of the stroke data correction process executed by the control unit 21 in step S104. Initially, the user's input stroke data is scanned to derive glyph analysis data including outlines, blank information, and clustering information (step S201).

制御部21は、導出した字形解析データに基づいて各種テーブル記憶領域22a1に記憶された偏旁型テーブルを参照し、ユーザが入力したストロークデータに対する偏旁型候補を導出する(ステップS202)。 Based on the derived character shape analysis data, the control unit 21 refers to the biased type table stored in the various table storage area 22a1, and derives biased type candidates for the stroke data input by the user (step S202).

図9は、各種テーブル記憶領域22a1に記憶される偏旁型テーブルの一部を例示する図である。同図に示すように漢字の部首構成は、図9(A)に示す偏と旁からなるもの、図9(B)に示す冠と脚からなるもの、図9(C)に示す繞(にょう)を含むもの、図9(D)に示す垂(たれ)を含むもの、図9(E)に示すその他の構(かまえ)を含むもの、図9(F)に示すその他の部首に分けられないもの、などに分類できる。 FIG. 9 is a diagram illustrating a part of the biased table stored in the various table storage area 22a1. As shown in FIG. 9, the radical structure of a Chinese character is composed of the han and ji shown in FIG. 9(A), the crown and base shown in FIG. 9(D), 9(E) and other radicals shown in FIG. 9(F) can be classified into things that cannot be divided into

図10は、ユーザが入力したストロークデータから偏旁型の漢字候補を導出する過程を説明する図である。図10(A)に示すように、図5(A)、図6(A)で示したユーザ入力のストロークデータに対し、上下方向と左右方向にそれぞれ一方向で順次走査を行う。 10A and 10B are diagrams for explaining the process of deriving biased kanji candidates from stroke data input by the user. As shown in FIG. 10A, the stroke data input by the user shown in FIGS. 5A and 6A is sequentially scanned vertically and horizontally in one direction.

図10(B)は、走査した結果から文字イメージの粗密に基づいたストロークデータの外形枠OF、空白情報SI、密集情報CIを導出した結果を示す。これら導出結果から、図10(C)に示すように図9(A)で示した偏Rix1と旁Rix2の2つの部首からなるものと認識して、長押し操作された漢字候補を勘案して、類似度の高い偏旁型候補を導出する。 FIG. 10B shows the result of deriving the stroke data outline OF, blank information SI, and density information CI based on the density of the character image from the scanning result. From these derivation results, as shown in FIG. 10(C), it is recognized that the radical Rix1 and Rix2 shown in FIG. Then, a biased candidate with a high degree of similarity is derived.

図10(C)においては、ユーザが入力したストロークデータが図9(A)に示す偏と旁からなるもの、として認識した一方で、図7(A)において、ユーザがスタイラスペンPで手書き文字入力部43中の漢字候補[洽]も図9(A)に示す偏と旁からなるものである。このように、手書き入力された文字イメージから判断した偏旁型と、より字形が近いものとして選択された文字の偏旁型とが一致した場合には、偏旁型候補を1つに限定する。一方で、手書き入力された文字イメージから判断した偏旁型と、より字形が近いものとして選択された文字の偏旁型とが一致しない場合には、各々を偏旁型候補として導出する。即ち、2つの偏旁型候補を導出する
制御部21は、導出した偏旁型候補の中から未選択のもの1つを選択する(ステップS203)。制御部21は、未選択の候補の一つ、例えば図9(A)に示す偏と旁を選択ですると、その選択した偏旁型候補に対するストロークデータの構成要素数として、例えば[偏]と[旁]から[2]を導出する(ステップS204)。
In FIG. 10(C), the stroke data input by the user is recognized as consisting of the left and right sides shown in FIG. 9(A). The Chinese character candidate [洽] in the input section 43 is also composed of angled and angled as shown in FIG. 9(A). In this way, when the eccentric type determined from the handwritten input character image matches the eccentric type of the character selected as having a closer character shape, the eccentric type candidate is limited to one. On the other hand, if the eccentric type determined from the handwritten input character image does not match the eccentric type of the character selected as having a closer character shape, each is derived as a eccentric type candidate. That is, the control unit 21 for deriving two biased candidates selects one unselected candidate from among the derived biased candidates (step S203). If the control unit 21 selects one of the unselected candidates, for example, the bias and the extreme shown in FIG. Next], [2] is derived (step S204).

次いで制御部21は、ユーザ入力の構成要素の一つ、例えば[偏]を選択する(ステップS205)。制御部21は、選択した構成要素[偏]に対して、ユーザが選択した最近の文字[洽]の構成要素を一つ、例えば[さんずい(三水)]を選択する(ステップS206)。 Next, the control unit 21 selects one of the components of the user input, for example, [bias] (step S205). The control unit 21 selects one component of the recent character [洽] selected by the user, for example, [Sanzui (三水)], for the selected component [Ban] (step S206).

制御部21は、さらにその選択した構成要素、例えば[さんずい(三水)]に対して、後述する置換等の処理を省略することが可能であるか否かを判断する(ステップS207)。これは、例えば偏の構成要素を旁の構成要素には配置しない等の制約を設けることで、不要なユーザ入力のストロークデータと最近文字の各構成要素の置換等の処理工程を軽減するための処置である。 The control unit 21 further determines whether or not it is possible to omit processing such as replacement, which will be described later, for the selected component, for example, [Sanzui] (step S207). This is to reduce processing steps such as replacement of unnecessary user-inputted stroke data and each component of the latest character by setting restrictions such as not arranging a non-negative component to an adjacent component, for example. Treatment.

ステップS207において、例えばユーザ入力のストロークデータで選択している構成要素が[偏]であり、最近文字[洽]で構成要素として選択しているのが[旁]側の[合]である場合などには、省略可能であると判断し(ステップS207のYES)、制御部21は、その時点で選択している構成要素に対する処理は省略するものとして、ステップS206からの処理に戻り、次の最近の文字形状の構成要素の選択を行なう。 In step S207, for example, if the component selected by the user input stroke data is [Ban] and the component selected by the latest character [洽] is [A] on the [Close] side. etc., it is determined that it can be omitted (YES in step S207). Make a selection of the most recent glyph shape components.

またステップS207において、選択した構成要素が省略することができないと判断した場合(ステップS207のNO)、制御部21は、例えばユーザ入力のストロークデータで選択している[偏]側の構成要素を、最近文字[洽]の同一の構成要素[さんずい(三水)]に置換する(ステップS208)。そして、置換した構成要素に基づいた漢字候補を補正ストロークデータとして保存する(ステップS209)。 If it is determined in step S207 that the selected component cannot be omitted (NO in step S207), the control unit 21 selects, for example, the [biased] side component selected by the user input stroke data. , is replaced with the same component [Sanzui (三水)] of the latest character [洽] (step S208). Then, Kanji candidates based on the replaced components are stored as corrected stroke data (step S209).

制御部21は、すべての最近の構成要素の選択を終了したか否かを判断することで、未選択の最近の文字の構成要素があり、すべての最近の構成要素を選択終了後ではないことを確認する(ステップS210)。 The control unit 21 determines whether or not all the recent constituent elements have been selected, so that there is an unselected recent character constituent element and all the recent constituent elements have not been selected. is confirmed (step S210).

ステップS210において、すべての最近の構成要素の選択を終了していないと判断した場合(ステップS210のNO)、ステップS206からの処理に戻って、最近の文字の他の構成要素に対応する処理を実行する。 If it is determined in step S210 that all the recent constituent elements have not been selected (NO in step S210), the process returns to step S206 to perform processing corresponding to other constituent elements of recent characters. Run.

こうして、ユーザ入力のストロークデータの構成要素[旁]側に関しても、最近文字[洽]の[旁]側の構成要素[合]に置換して補正ストロークデータとする処理を実行する。 In this way, the constituent element [close] side of the stroke data input by the user is also replaced with the constituent element [ai] on the [close] side of the latest character [洽] to obtain corrected stroke data.

ステップS210において、すべての最近文字の構成要素の選択が終了して、未選択の最近文字の構成要素がないと判断した場合(ステップS210のYES)、制御部21は、ユーザ入力のストロークデータのすべての構成要素の選択を終了したか否かを判断することで、未選択の構成要素があり、すべての構成要素を選択終了後ではないことを確認する(ステップS211)。 If it is determined in step S210 that all recent character components have been selected and there is no unselected recent character component (YES in step S210), the control unit 21 selects the stroke data input by the user. By judging whether or not all constituent elements have been selected, it is confirmed that there are unselected constituent elements and that all constituent elements have not been selected (step S211).

ステップS211において、ユーザ入力のストロークデータのすべての構成要素の選択が終了しておらず、未選択の構成要素があると判断した場合(ステップS211のNO)、制御部21は、ステップS205からの処理に戻り、ユーザ入力のストロークデータの他の構成要素について、同様の処理を実行する。 If it is determined in step S211 that all the constituent elements of the user input stroke data have not been selected and there is an unselected constituent element (NO in step S211), the control unit 21 performs the Returning to the process, similar processing is performed for other components of the user-inputted stroke data.

また、ステップS211において、ユーザ入力のストロークデータのすべての構成要素の選択が終了し、未選択の構成要素がないと判断した場合(ステップS211のYES)、制御部21は、すべての偏旁型候補の選択を終了したか否かを判断することで、未選択の偏旁型候補があり、すべての候補の選択終了後ではないことを確認する(ステップS212)。 If it is determined in step S211 that all the constituent elements of the user-inputted stroke data have been selected and there is no unselected constituent element (YES in step S211), the control unit 21 selects all the eccentric candidate By judging whether or not the selection of has been completed, it is confirmed that there are unselected biased candidates and that all the candidates have not been selected (step S212).

ステップS212において、すべての偏旁型候補の選択を終了していないと判断した場合(ステップS212のNO)、制御部21は、ステップS203からの処理に戻って、選択していない偏旁型の候補に基づく同様の処理を実行する。 In step S212, if it is determined that the selection of all the obsessive-type candidates has not been completed (NO in step S212), the control unit 21 returns to the processing from step S203 and selects the unselected obsessive-type candidates. Execute similar processing based on

また、ステップS212において、すべての偏旁型候補の選択を終了したと判断した場合(ステップS212のYES)、制御部21は、以上で図4のストロークデータの補正処理に関するサブルーチンを終了し、図3のメインルーチンに戻る。 If it is determined in step S212 that the selection of all the bias type candidates has been completed (YES in step S212), the control unit 21 ends the subroutine relating to the stroke data correction process in FIG. return to the main routine of

前述したように、手書き入力された文字イメージから判断した偏旁型と、より字形が近いものとして選択された文字の偏旁型とが一致した場合には、偏旁型候補を1つに限定する。 As described above, when the eccentric type determined from the handwritten input character image matches the eccentric type of the character selected as having a closer character shape, the eccentric type candidate is limited to one.

一方で、手書き入力された文字イメージから判断した偏旁型と、より字形が近いものとして選択された文字の偏旁型とが一致しない場合には、2つの偏旁型候補を導出することになるため、ステップS203以下を繰り返し実行する。 On the other hand, if the biased type determined from the handwritten input character image does not match the biased type of the character selected as having a closer character shape, two candidates for the biased type are derived. Step S203 and subsequent steps are repeatedly executed.

図11は、ユーザによりタッチパネル式表示部17の候補文字表示部44で長押し操作された文字[洽]に対応して、ユーザ入力のストロークデータを偏旁型の最近の文字の構成要素に置換した補正ストロークデータの例を示す。ユーザ入力のストロークデータに対して、図11(A)が選択した最近の文字形状の漢字候補[洽]である。その偏Rix1である[三水(さんずい)]に対応したものが図11(C)に示す補正ストロークデータ2となり、同様にその旁Rix2である[合]に対応したものが図11(B)に示す補正ストロークデータ1となる。この図11では、最終的な補正ストロークデータ数は[2]となり、それらに対して後述する文字認識処理を行う。 In FIG. 11, in response to the character [洽] long-pressed by the user on the candidate character display section 44 of the touch panel display section 17, the user-inputted stroke data is replaced with the constituent elements of the most recent character of the eccentric type. 4 shows an example of corrected stroke data. FIG. 11(A) shows the most recent character shape Kanji candidate [洽] selected for the stroke data input by the user. The corrected stroke data 2 shown in FIG. 11(C) corresponds to [Sanzui], which is the biased Rix1, and [Go], which is the opposite Rix2, is shown in FIG. 11(B). is corrected stroke data 1 shown in . In FIG. 11, the final number of corrected stroke data is [2], and character recognition processing, which will be described later, is performed on them.

図3では、ステップS104でストロークデータの補正処理を実行した後、複数の補正データに対する手書き認識処理を順次実行して、複数の補正データに対する認識結果としての補正漢字候補を導出する(ステップS105)。 In FIG. 3, after stroke data correction processing is performed in step S104, handwriting recognition processing is sequentially performed on a plurality of correction data to derive corrected Chinese character candidates as recognition results for the plurality of correction data (step S105). .

制御部21は、導出した補正漢字候補をあらためてタッチパネル式表示部17でリスト表示した上で(ステップS106)、その表示した漢字候補に対する操作を待機するべく、ステップS103からの処理に戻る。 The control unit 21 again displays the list of the derived corrected Chinese character candidates on the touch panel display unit 17 (step S106), and returns to the process from step S103 to wait for the operation on the displayed Chinese character candidates.

図7(B)は、図7(A)において漢字[洽]をスタイラスペンPで長押し操作により選択した状態から、前述した一連の処理により、手書き入力によるストロークデータを参照して漢字候補を表示させた状態を例示する図である。図7(B)では、補正漢字候補表示部45の中心を、選択した漢字[洽]の位置として、その左側45Aに旁[合]に対応する2つの漢字候補[哈][恰]をリスト表示し、同様に漢字[洽]を挟んでその右側45Bに2つの漢字候補[浴][沿]をリスト表示している。左側45Aの2つの漢字候補[哈][恰]は、図6(C)で示した補正ストロークデータ1に対して、ステップS105での手書き認識処理を実行して導出された候補が表示されたものである。一方、右側45Bの2つの漢字候補[浴][沿]は、図6(D)で示した補正ストロークデータ2に対して、ステップS105での手書き認識処理を実行して導出された候補が表示されたものである。 FIG. 7(B) shows a state in which the Chinese character [洽] is selected by a long-pressing operation with the stylus pen P in FIG. 7(A). It is a figure which illustrates the displayed state. In FIG. 7B, the center of the corrected kanji candidate display area 45 is the position of the selected kanji [洽], and two kanji candidates [哈] [恰] corresponding to 旁 [合] are listed on the left side 45A. Similarly, a list of two kanji candidates [Yu] [Yu] is displayed on the right side 45B with the kanji [洽] sandwiched therebetween. The two kanji candidates [哈] [恰] on the left side 45A are displayed as candidates derived by performing the handwriting recognition processing in step S105 on the corrected stroke data 1 shown in FIG. 6(C). It is. On the other hand, the two kanji candidates [Yu] [Yu] on the right side 45B are candidates derived by performing the handwriting recognition processing in step S105 on the corrected stroke data 2 shown in FIG. 6D. It is what was done.

この場合、同じ偏旁型の漢字同士、例えば[哈]と[恰]、[浴]と[沿]は、それぞれ同一色の枠で囲って表示することで、同一の偏旁型であることを表現しても良い。 In this case, kanji characters with the same eccentric type, such as [哈] and [恰], and [湯] and [纰], are displayed with a frame of the same color to indicate that they are the same eclectic type. You can

また、色に限らず、枠線の種類や表示位置などを同一の偏旁型毎に視覚的に識別できるよう区分表示を行うことで、ユーザは容易に文字認識された結果を理解できる。 In addition, the user can easily understand the result of character recognition by performing a sorted display so as to visually distinguish not only the color but also the type and display position of the frame line for each of the same bias patterns.

電子辞書10のユーザが、リスト表示された漢字候補の中に所望する漢字を見つけた場合、当該ユーザはその所望する漢字をタッチ操作により選択する。 When the user of the electronic dictionary 10 finds a desired Chinese character among the displayed Chinese character candidates, the user selects the desired Chinese character by touch operation.

制御部21は、図3において前述した如く、最も近いと思われる一つの候補が長押し操作されたか否か(ステップS103)、一つの候補が選択されたか否か(ステップS107)、リスト表示に対するキャンセルの操作がなされたか否か(ステップS109)を繰り返し判断することで、それらいずれかの入力がなされるのを待機している。 As described above with reference to FIG. 3, the control unit 21 determines whether or not one candidate considered to be the closest has been long-pressed (step S103), whether or not one candidate has been selected (step S107). By repeatedly determining whether or not a cancel operation has been performed (step S109), it waits for any of these inputs.

したがって、ユーザが所望する一つの文字がタッチ操作により選択された場合、制御部21はステップS107において一つの候補が選択されたと判断し(ステップS107のYES)、選択された漢字候補を確定して、すでに入力されている文字列に続けて入力し(ステップS108)、以上で図3の処理を終了する。 Therefore, when one character desired by the user is selected by the touch operation, the control unit 21 determines that one candidate has been selected in step S107 (YES in step S107), and confirms the selected Chinese character candidate. , the character string that has already been entered is entered (step S108), and the process of FIG. 3 ends.

図8(A)は、図7(A)の表示状態から補正漢字候補表示部45の右側45Bの漢字候補[浴]がタッチ操作された状態を示している。このタッチ操作に対応して制御部21は、漢字候補[浴]を、検索文字列入力部41のすでに入力されている文字列[日光]に続く文字であるものとして確定する。 FIG. 8A shows a state in which a touch operation is performed on the Chinese character candidate [Yu] on the right side 45B of the corrected Chinese character candidate display section 45 from the display state of FIG. 7A. In response to this touch operation, the control unit 21 determines the Chinese character candidate [Yu] as a character following the character string [Nikko] already input in the search character string input unit 41 .

したがって、図8(B)に示すように検索文字列入力部41においては、仮の入力状態である誤認識の文字[信]を含む文字列[日光信]から補正処理を伴って確定した結果[日光浴]に代わる。同時に手書き文字入力部43においては、漢字確定後に次の手書き入力に備えるべく、表示内容をクリアする。 Therefore, as shown in FIG. 8(B), in the search character string input unit 41, the result of fixing with correction processing from the character string [Nikko Shin] including the erroneously recognized character [Shin], which is the provisional input state Replaces Sunbathing. At the same time, the handwritten character input unit 43 clears the displayed contents in order to prepare for the next handwritten input after confirming the kanji.

このように、手書き入力により所望の漢字が認識されなかった場合でも、通常のタッチ操作とは異なる操作として、例えば認識結果に最も近いと思われる他の文字を長押し操作するなどの操作を行うことにより、ユーザが入力したストロークデータを漢字の部首毎に分解して補正ストロークデータを得、あらたに文字解析を行う。そのため、手書き入力する漢字の一部が多少不正確な形で入力された場合でも、それを補正して所望する漢字が得られる可能性を向上することができ、手書き入力の効率化に寄与できる。 In this way, even if the desired kanji character is not recognized by handwriting input, an operation different from the normal touch operation, such as long-pressing another character that is considered to be the closest to the recognition result, is performed. Thus, the stroke data input by the user is decomposed into each radical of Chinese characters to obtain corrected stroke data, and character analysis is newly performed. Therefore, even if a part of the kanji to be handwritten is input in a slightly inaccurate form, it is possible to improve the possibility of obtaining the desired kanji by correcting it, which contributes to the efficiency of handwriting input. .

なお、例えば国語辞典などの辞書機能選択時には、ユーザが見出し語の一部として入力する検索文字列で手書き入力された文字に対して、その前後にすでに入力されている文字列を勘案した上で、候補とはなり得ないと考えられる文字に関しては、候補から除外することで、無闇に多くの候補がリスト表示されるのを回避できる。 For example, when selecting a dictionary function such as a Japanese dictionary, the character strings that have already been input before and after the handwritten characters in the search character string that the user enters as part of the entry word are taken into account. By excluding characters that are considered unlikely to be candidates from the candidates, it is possible to avoid list display of a large number of candidates.

また、図7(B)および図8(A)で示したタッチパネル式表示部17の表示画面において、補正漢字候補表示部45の漢字候補45A、45Bのいずれにも依然として所望する漢字が表示されていない場合には、再度それらの中から最も形状が近いと思われる文字を選択して長押し操作することにより、図4に示したストロークデータの補正処理を繰り返し実行する。 Further, on the display screen of the touch panel type display section 17 shown in FIGS. 7(B) and 8(A), the desired kanji characters are still displayed in both of the kanji candidates 45A and 45B of the corrected kanji candidate display section 45. If not, the character whose shape seems to be the closest is selected from among them and a long press operation is performed to repeat the stroke data correction process shown in FIG. 4 .

さらに、長押し操作により形状が近いと思われる漢字を何度か繰り返し選択しても、所望する漢字が候補として表示されない場合には、手書き文字入力部43で手書き入力自体を再度行うことも考えられる。そのような再度の手書き入力に際しては、その前に候補として表示されながらも所望の文字として選択されなかった文字の候補としての出現率を下げるような選択処理を行うことで、認識の精度を向上できる。 Furthermore, if the desired kanji characters are not displayed as candidates even after repeatedly selecting kanji characters that are considered to be similar in shape by long-pressing, the handwriting input unit 43 may be used to perform handwriting input again. be done. When such handwriting input is performed again, the accuracy of recognition is improved by performing a selection process that reduces the appearance rate of characters that were previously displayed as candidates but were not selected as desired characters as candidates. can.

[実施形態の効果]
以上詳述した如く本実施形態によれば、手書き入力された内容を有効に活用し、広い範囲の候補から所望される文字の選択を受付けることが可能となる。
[Effects of Embodiment]
As described in detail above, according to the present embodiment, it is possible to effectively utilize handwritten input content and accept selection of a desired character from a wide range of candidates.

また特に、本実施形態においては、ユーザによる手書き入力されたストロークデータを、各種テーブル記憶領域22a1に記憶された偏旁型テーブルを参照して部首毎の構成要素をどのように分割できるか解析した結果に基づく、偏旁型の候補として導出して補正ストロークデータを得るものとした。このような処理過程を採用することで、他にも例えば文字認識処理における学習や機械学習データ等に基づいた重み付けを行う画像処理を併せて実行しても良いが、いずれにしても制御部21での回路処理の負担を軽減して、より迅速に認識結果を取得できる。 In particular, in the present embodiment, stroke data handwritten input by the user is analyzed by referring to the eccentric table stored in the various table storage area 22a1 to see how the constituent elements of each radical can be divided. Based on the results, it was assumed that the correction stroke data was obtained by deriving the candidate for the bias type. By adopting such a processing process, for example, image processing for performing weighting based on learning in character recognition processing, machine learning data, etc. may also be executed. It is possible to reduce the burden of circuit processing in the , and obtain the recognition result more quickly.

また、本実施形態では説明しなかったが、最終的に所望する文字の候補をユーザが選択した際には、その選択された文字と手書き入力された文字それぞれを偏旁型に応じて分割し、分割した部位毎にその対応関係を学習データとして各種テーブル記憶領域22a1に更新記憶させても良い。その場合、各種テーブル記憶領域22a1が、手書き入力された文字を分割した部位と、確定結果となる文字の対応する部位との関連性を示す情報を記憶し、制御部21が新たに文字認識を行う際に用いる情報として記憶する記憶部として機能する。次回以降の手書き入力の文字認識の際に同様の筆跡が含まれていた場合に、学習した内容に応じて自動的に補正を行うことで、使い込む程にユーザの手書きの癖を学習して、認識率をより向上させることができる。 Further, although not described in the present embodiment, when the user finally selects a desired character candidate, the selected character and the handwritten input character are each divided according to the eccentric type, The corresponding relationship for each divided part may be updated and stored in the various table storage area 22a1 as learning data. In this case, the various table storage areas 22a1 store information indicating the relationship between the parts obtained by dividing the handwritten characters and the corresponding parts of the characters that are determined, and the control unit 21 newly performs character recognition. It functions as a storage unit that stores information used when performing. If similar handwriting is included in character recognition of handwritten input from the next time onwards, by automatically correcting according to the learned content, the user's handwriting habits are learned the more the user uses it, The recognition rate can be further improved.

その他、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 In addition, the present invention is not limited to the above-described embodiments, and can be variously modified in the implementation stage without departing from the scope of the invention. Moreover, each embodiment may be implemented in combination as much as possible, and in that case, the combined effect can be obtained. Furthermore, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiments, the problems described in the column of problems to be solved by the invention can be solved, and the effects described in the column of effects of the invention is obtained, the configuration from which this constituent element is deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[請求項1]
手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、
前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、
前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、
を備え、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能であり、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ことを特徴とする文字認識装置。
[請求項2]
前記文字導出部は、さらに前記入力部で受付けた文字イメージとの関連性も用いて前記第2の文字を導出する、
ことを特徴とする請求項1記載の文字認識装置。
[請求項3]
前記文字導出部は、前記文字イメージの粗密に応じて分割した部位毎に、前記第1の文字の対応する部位との所定の関連性に応じて前記第2の文字を導出する、
請求項1または2記載の文字認識装置。
[請求項4]
前記文字導出部は、前記文字イメージの粗密に応じて分割した部位に対応して、前記第1の文字との所定の関連性を有する複数の前記第2の文字を導出し、
前記表示制御部は、導出した複数の前記第2の文字を、前記文字イメージの粗密に応じて分割した部位に対応して区分して表示させる、
ことを特徴とする請求項1乃至3いずれか記載の文字認識装置。
[請求項5]
前記文字導出部は、前記入力部で受付ける文字イメージが入力済の文字列に続いて入力されたものである場合に、前記入力済の文字列との関連性に応じて前記第2の文字を導出する、
ことを特徴とする請求項1乃至4いずれか記載の文字認識装置。
[請求項6]
前記入力部は、追加候補として表示させた前記第2の文字に対する確定操作を受付け可能であり、
前記文字イメージの粗密に応じて分割した部位と、前記確定操作を受付けた前記第2の文字の対応する部位との関連性を示す情報を、前記文字導出部が前記第2の文字を導出する際に用いる情報として記憶する記憶部をさらに備える、
ことを特徴とする請求項1乃至5いずれか記載の文字認識装置。
[請求項7]
手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、を備える装置での文字認識方法であって、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能とし、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ことを特徴とする文字認識方法。
[請求項8]
手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、を備える装置が内蔵したコンピュータが実行するプログラムであって、前記コンピュータにより、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能とし、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ように機能させることを特徴とするプログラム。
The invention described in the original claims of the present application is appended below.
[Claim 1]
an input unit that receives a character image based on a handwritten input operation;
a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image;
a display control unit for displaying the first character derived by the character derivation unit as a candidate for a character desired by a user;
with
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A character recognition device characterized by:
[Claim 2]
The character derivation unit further derives the second character by using a relationship with the character image received by the input unit.
2. The character recognition device according to claim 1, wherein:
[Claim 3]
The character derivation unit derives the second character according to a predetermined relationship with the corresponding part of the first character for each part divided according to the density of the character image,
3. The character recognition device according to claim 1 or 2.
[Claim 4]
The character derivation unit derives a plurality of the second characters having a predetermined relationship with the first character, corresponding to the parts divided according to the density of the character image,
The display control unit displays the plurality of derived second characters by dividing them corresponding to the parts divided according to the coarseness and fineness of the character image.
4. The character recognition device according to any one of claims 1 to 3, characterized in that:
[Claim 5]
The character derivation unit, when the character image received by the input unit is input following an already input character string, extracts the second character according to the relationship with the already input character string. to derive
5. The character recognition device according to any one of claims 1 to 4, characterized in that:
[Claim 6]
The input unit is capable of accepting a confirmation operation for the second character displayed as an additional candidate,
The character derivation unit derives the second character from information indicating the relationship between the part divided according to the density of the character image and the corresponding part of the second character for which the confirmation operation is received. Further comprising a storage unit for storing information used when
6. The character recognition device according to any one of claims 1 to 5, characterized in that:
[Claim 7]
an input unit that receives a character image based on an input operation in a handwritten format; a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image; A character recognition method in a device comprising: a display control unit that displays the first character derived by the character derivation unit as a candidate for a character desired by a user,
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A character recognition method characterized by:
[Claim 8]
an input unit that receives a character image based on an input operation in a handwritten format; a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image; and a display control unit for displaying the first character derived by the character derivation unit as a candidate for a character desired by a user.
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A program characterized by causing it to function as

10…電子辞書
11…本体ケース
12…蓋体ケース
13…ヒンジ部
14…キー入力部
14a…[ホーム]キー
14b…機能指定キー
14c…文字入力キー
14d…[決定]キー
14e…[戻る]キー
14f…[BOX]キー
14g…カーソル移動キー
14h…[シフト]キー
15…音声出力部
16…音声入力部
17…タッチパネル式表示部
21…制御部(CPU)
22…記憶部
22a…検索処理プログラム記憶領域
22a1…各種テーブル記憶領域
22b…辞書データ記憶領域
22c…検索履歴記憶領域
22d…作業データ記憶領域
23…外部記録媒体
24…記録媒体読取部
25…通信部
41…検索文字列入力部
42…候補表示部
43…手書き文字入力部
44…候補文字表示部
45…補正漢字候補表示部
45A、45B…漢字候補
P…スタイラスペン
DESCRIPTION OF SYMBOLS 10... Electronic dictionary 11... Main body case 12... Lid case 13... Hinge part 14... Key input part 14a... [Home] key 14b... Function designation key 14c... Character input key 14d... [Enter] key 14e... [Return] key 14f --- [BOX] key 14g --- Cursor movement key 14h --- [Shift] key 15 --- Voice output unit 16 --- Voice input unit 17 --- Touch panel type display unit 21 --- Control unit (CPU)
22 Storage section 22a Search processing program storage area 22a1 Table storage area 22b Dictionary data storage area 22c Search history storage area 22d Work data storage area 23 External recording medium 24 Recording medium reading section 25 Communication section 41 Search character string input unit 42 Candidate display unit 43 Handwritten character input unit 44 Candidate character display unit 45 Corrected Kanji candidate display unit 45A, 45B Kanji candidate P Stylus pen

Claims (8)

手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、
前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、
前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、
を備え、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能であり、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ことを特徴とする文字認識装置。
an input unit that receives a character image based on a handwritten input operation;
a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image;
a display control unit for displaying the first character derived by the character derivation unit as a candidate for a character desired by a user;
with
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A character recognition device characterized by:
前記文字導出部は、さらに前記入力部で受付けた文字イメージとの関連性も用いて前記第2の文字を導出する、
ことを特徴とする請求項1記載の文字認識装置。
The character derivation unit further derives the second character by using a relationship with the character image received by the input unit.
2. The character recognition device according to claim 1, wherein:
前記文字導出部は、前記文字イメージの粗密に応じて分割した部位毎に、前記第1の文字の対応する部位との所定の関連性に応じて前記第2の文字を導出する、
請求項1または2記載の文字認識装置。
The character derivation unit derives the second character according to a predetermined relationship with the corresponding part of the first character for each part divided according to the density of the character image,
3. The character recognition device according to claim 1 or 2.
前記文字導出部は、前記文字イメージの粗密に応じて分割した部位に対応して、前記第1の文字との所定の関連性を有する複数の前記第2の文字を導出し、
前記表示制御部は、導出した複数の前記第2の文字を、前記文字イメージの粗密に応じて分割した部位に対応して区分して表示させる、
ことを特徴とする請求項1乃至3いずれか記載の文字認識装置。
The character derivation unit derives a plurality of the second characters having a predetermined relationship with the first character, corresponding to the parts divided according to the density of the character image,
The display control unit displays the plurality of derived second characters by dividing them corresponding to the parts divided according to the coarseness and fineness of the character image.
4. The character recognition device according to any one of claims 1 to 3, characterized in that:
前記文字導出部は、前記入力部で受付ける文字イメージが入力済の文字列に続いて入力されたものである場合に、前記入力済の文字列との関連性に応じて前記第2の文字を導出する、
ことを特徴とする請求項1乃至4いずれか記載の文字認識装置。
The character derivation unit, when the character image received by the input unit is input following an already input character string, extracts the second character according to the relationship with the already input character string. to derive
5. The character recognition device according to any one of claims 1 to 4, characterized in that:
前記入力部は、追加候補として表示させた前記第2の文字に対する確定操作を受付け可能であり、
前記文字イメージの粗密に応じて分割した部位と、前記確定操作を受付けた前記第2の文字の対応する部位との関連性を示す情報を、前記文字導出部が前記第2の文字を導出する際に用いる情報として記憶する記憶部をさらに備える、
ことを特徴とする請求項1乃至5いずれか記載の文字認識装置。
The input unit is capable of accepting a confirmation operation for the second character displayed as an additional candidate,
The character derivation unit derives the second character from information indicating the relationship between the part divided according to the density of the character image and the corresponding part of the second character for which the confirmation operation is received. Further comprising a storage unit for storing information used when
6. The character recognition device according to any one of claims 1 to 5, characterized in that:
手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、を備える装置での文字認識方法であって、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能とし、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ことを特徴とする文字認識方法。
an input unit that receives a character image based on an input operation in a handwritten format; a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image; A character recognition method in a device comprising: a display control unit that displays the first character derived by the character derivation unit as a candidate for a character desired by a user,
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A character recognition method characterized by:
手書き形式での入力操作に基づいて文字イメージを受付ける入力部と、前記入力部で受付けた文字イメージに対して認識処理を実行し、当該文字イメージから第1の文字を導出する文字導出部と、前記文字導出部で導出された前記第1の文字をユーザが所望する文字の候補として表示させる表示制御部と、を備える装置が内蔵したコンピュータが実行するプログラムであって、前記コンピュータにより、
前記入力部は、前記第1の文字について、前記ユーザが所望する文字ではないが前記ユーザが所望する文字に類似する文字である旨を示す指定操作を受付可能とし、
前記文字導出部は、前記入力部により前記指定操作を受け付けた際に、前記第1の文字と所定の関連性を有する第2の文字をさらに導出し、
前記表示制御部は、前記文字導出部で導出された前記第2の文字を前記ユーザが所望する文字の追加候補として表示させる、
ように機能させることを特徴とするプログラム。
an input unit that receives a character image based on an input operation in a handwritten format; a character derivation unit that performs recognition processing on the character image received by the input unit and derives a first character from the character image; and a display control unit for displaying the first character derived by the character derivation unit as a candidate for a character desired by a user.
The input unit is capable of accepting a designation operation indicating that the first character is not the character desired by the user but is similar to the character desired by the user,
The character derivation unit further derives a second character having a predetermined relationship with the first character when the input unit receives the designation operation,
The display control unit displays the second character derived by the character derivation unit as an additional candidate for the character desired by the user.
A program characterized by causing it to function as
JP2021050754A 2021-03-24 2021-03-24 Character recognition apparatus, character recognition method, and program Pending JP2022148901A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021050754A JP2022148901A (en) 2021-03-24 2021-03-24 Character recognition apparatus, character recognition method, and program
CN202210249269.8A CN115131799A (en) 2021-03-24 2022-03-14 Character recognition device, character recognition method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021050754A JP2022148901A (en) 2021-03-24 2021-03-24 Character recognition apparatus, character recognition method, and program

Publications (1)

Publication Number Publication Date
JP2022148901A true JP2022148901A (en) 2022-10-06

Family

ID=83376683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021050754A Pending JP2022148901A (en) 2021-03-24 2021-03-24 Character recognition apparatus, character recognition method, and program

Country Status (2)

Country Link
JP (1) JP2022148901A (en)
CN (1) CN115131799A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696266A (en) * 1992-09-11 1994-04-08 Hitachi Ltd Correction supporting system for character recognition result
JPH08123896A (en) * 1994-10-28 1996-05-17 Hitachi Ltd Handwritten character input device
JPH09147055A (en) * 1995-11-27 1997-06-06 Sharp Corp Character processor
JPH1021325A (en) * 1996-06-28 1998-01-23 Baazu Joho Kagaku Kenkyusho:Kk Method for recognizing character
JPH11120293A (en) * 1997-10-16 1999-04-30 Fujitsu Ltd Character recognition/correction system
JP2007018178A (en) * 2005-07-06 2007-01-25 Sharp Corp Character input device, character input program, and recording medium for recording character input program
JP2016523406A (en) * 2013-06-09 2016-08-08 アップル インコーポレイテッド Real-time handwriting recognition management

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696266A (en) * 1992-09-11 1994-04-08 Hitachi Ltd Correction supporting system for character recognition result
JPH08123896A (en) * 1994-10-28 1996-05-17 Hitachi Ltd Handwritten character input device
JPH09147055A (en) * 1995-11-27 1997-06-06 Sharp Corp Character processor
JPH1021325A (en) * 1996-06-28 1998-01-23 Baazu Joho Kagaku Kenkyusho:Kk Method for recognizing character
JPH11120293A (en) * 1997-10-16 1999-04-30 Fujitsu Ltd Character recognition/correction system
JP2007018178A (en) * 2005-07-06 2007-01-25 Sharp Corp Character input device, character input program, and recording medium for recording character input program
JP2016523406A (en) * 2013-06-09 2016-08-08 アップル インコーポレイテッド Real-time handwriting recognition management

Also Published As

Publication number Publication date
CN115131799A (en) 2022-09-30

Similar Documents

Publication Publication Date Title
KR100931466B1 (en) Electronic dictionary device and dictionary search method of electronic dictionary device
JP5703711B2 (en) Electronic dictionary device and program
JP4277903B2 (en) Electronic device and program with dictionary function
US20120092233A1 (en) Display control apparatus and display control method
JP4661924B2 (en) Electronic device and program with dictionary function
US8489389B2 (en) Electronic apparatus with dictionary function and computer-readable medium
US8335680B2 (en) Electronic apparatus with dictionary function background
JP2022148901A (en) Character recognition apparatus, character recognition method, and program
JP5652251B2 (en) Information display device and program
JP5487898B2 (en) Electronic device and program with dictionary function
JP4646512B2 (en) Electronic device and electronic dictionary device
JP5141130B2 (en) Electronic device and program having dictionary function
JP6451790B2 (en) Electronic device having dictionary function, control program thereof, and display method
JP4967820B2 (en) Handwritten character input device and control program thereof
JP6167508B2 (en) Electronic device, program, and display method
JP7515242B2 (en) Character input device, character input support method and program
JP2013149083A (en) Information display control device and program
JP5953768B2 (en) Electronic dictionary device, dictionary search method in electronic device, and program
JP5440229B2 (en) Electronic dictionary device and program
JP5531516B2 (en) Information display device and information display program
JP2022148873A (en) Information retrieval device, information retrieval method, and program
JP2021043713A (en) Character input device, character input method, and handwriting input program
JP5561312B2 (en) Electronic device with dictionary function, search character input method and program in electronic device with dictionary function
JP5733380B2 (en) Electronic equipment and programs
JP2018164169A (en) Character input device, character input method, and input control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220131

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240409

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240423

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240607