JP2015069278A - Electronic equipment, method, and program - Google Patents

Electronic equipment, method, and program Download PDF

Info

Publication number
JP2015069278A
JP2015069278A JP2013201004A JP2013201004A JP2015069278A JP 2015069278 A JP2015069278 A JP 2015069278A JP 2013201004 A JP2013201004 A JP 2013201004A JP 2013201004 A JP2013201004 A JP 2013201004A JP 2015069278 A JP2015069278 A JP 2015069278A
Authority
JP
Japan
Prior art keywords
input
candidates
character
mode
candidate group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013201004A
Other languages
Japanese (ja)
Inventor
王奇 張
Wang-Gi Chang
王奇 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013201004A priority Critical patent/JP2015069278A/en
Priority to CN201310666214.8A priority patent/CN104516669A/en
Publication of JP2015069278A publication Critical patent/JP2015069278A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

PROBLEM TO BE SOLVED: To provide an electronic equipment, method, and program with which it is easy to find characters to be converted.SOLUTION: In the method, when first information relevant to pronunciation of characters is input, plural first candidates of the characters corresponding to the first information are displayed; and when one or more handwriting strokes are input, one or more second candidates of the characters corresponding to the input one or more strokes are displayed from the plural first candidates.

Description

本発明の実施形態は、入力された文字を変換する技術に関する。   Embodiments described herein relate generally to a technique for converting input characters.

近年、タブレット、PDA(Personal Digital Assistant)、スマートフォンといったタッチスクリーンディスプレイを備え、また手書き入力が可能な種々の電子機器が開発されている。   In recent years, various electronic devices including a touch screen display such as a tablet, a PDA (Personal Digital Assistant), and a smartphone and capable of handwriting input have been developed.

文字入力を補助するソフトウェアとしてIME(Input Method Editor)を用いる場合、例えば、入力した文字を漢字等の文字に変換する際に、変換候補が多く、変換したい文字が見つからないという不都合がある。   When IME (Input Method Editor) is used as software for assisting character input, for example, when converting input characters into characters such as kanji, there is a problem that there are many conversion candidates and the character to be converted cannot be found.

特開2009−42939号公報JP 2009-42939 A 特開2000−200269号公報JP 2000-200269 A

本発明の一形態の目的は、変換したい文字等を見つけやすい電子機器、方法及びプログラムを提供することである。   An object of one embodiment of the present invention is to provide an electronic device, a method, and a program that can easily find a character or the like to be converted.

実施形態によれば、方法は、文字の発音に関する第1情報が入力された場合に、第1情報に対応する文字の複数の第1候補を表示し、手書きにより1以上のストロークを入力し、複数の第1候補の中から、入力された1以上のストロークの形状に対応する文字の1以上の第2候補を表示する。   According to the embodiment, the method displays a plurality of first candidates for a character corresponding to the first information when the first information related to the pronunciation of the character is input, and inputs one or more strokes by handwriting, One or more second candidates of characters corresponding to the input one or more stroke shapes are displayed from the plurality of first candidates.

図1は、実施形態に係る電子機器の外観の一例を示す斜視図である。FIG. 1 is a perspective view illustrating an example of an external appearance of an electronic apparatus according to an embodiment. 図2は、電子機器のシステム構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a system configuration of the electronic device. 図3は、電子機器によって実行されるIME変換アプリケーションプログラムの機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the IME conversion application program executed by the electronic device. 図4は、電子機器によって実行されるIME変換アプリケーションプログラムの処理の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of processing of the IME conversion application program executed by the electronic device. 図5は、電子機器に発音情報が入力されるときの画面を示す図である。FIG. 5 is a diagram illustrating a screen when pronunciation information is input to the electronic device. 図6は、電子機器に第1候補群が表示されるときの画面を示す図である。FIG. 6 is a diagram illustrating a screen when the first candidate group is displayed on the electronic device. 図7は、電子機器に第2候補群が表示されるときの画面を示す図である。FIG. 7 is a diagram illustrating a screen when the second candidate group is displayed on the electronic device. 図8は、電子機器に発音情報が入力されるときの別の画面を示す図である。FIG. 8 is a diagram illustrating another screen when pronunciation information is input to the electronic device. 図9は、電子機器に第1候補群が表示されるときの別の画面を示す図である。FIG. 9 is a diagram illustrating another screen when the first candidate group is displayed on the electronic device. 図10は、電子機器に第2候補群が表示されるときの別の画面を示す図である。FIG. 10 is a diagram illustrating another screen when the second candidate group is displayed on the electronic device. 図11は、電子機器によって用いられる辞書データベース内のデータのデータ構造の一例を示す図である。FIG. 11 is a diagram illustrating an example of a data structure of data in a dictionary database used by an electronic device. 図12は、電子機器によって用いられる文字コード一覧テーブル内のデータのデータ構造の一例を示す図である。FIG. 12 is a diagram illustrating an example of a data structure of data in a character code list table used by an electronic device.

以下、実施の形態について図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、一実施形態に係る電子機器の外観の一例を示す斜視図である。この電子機器は、例えば、ペンまたは指によって手書き入力可能なペン・ベースの携帯型電子機器である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA等として実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を説明する。タブレットコンピュータ10は、タブレットまたはストレートコンピュータとも称される携帯型電子機器であり、本体11は、薄い箱形の筐体を有している。   FIG. 1 is a perspective view illustrating an example of an external appearance of an electronic apparatus according to an embodiment. This electronic device is, for example, a pen-based portable electronic device that can be handwritten with a pen or a finger. This electronic device can be realized as a tablet computer, a notebook personal computer, a smartphone, a PDA, or the like. Below, the case where this electronic device is implement | achieved as the tablet computer 10 is demonstrated. The tablet computer 10 is a portable electronic device also referred to as a tablet or a straight computer, and the main body 11 has a thin box-shaped housing.

タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD: Liquid Crystal Display)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザ等を使用することができる。以下では、デジタイザとタッチパネルの2種類のセンサの双方がタッチスクリーンディスプレイ17に組み込まれている場合を説明する。このため、タッチスクリーンディスプレイ17は、指を使用した画面に対するタッチ操作のみならず、ペン100を使用した画面に対するタッチ操作も検出することができる。   The touch screen display 17 is attached to be superposed on the upper surface of the main body 11. The touch screen display 17 incorporates a flat panel display and a sensor configured to detect a contact position of a pen or a finger on the screen of the flat panel display. The flat panel display may be, for example, a liquid crystal display (LCD). As the sensor, for example, a capacitive touch panel, an electromagnetic induction digitizer, or the like can be used. Hereinafter, a case will be described in which both two types of sensors, the digitizer and the touch panel, are incorporated in the touch screen display 17. For this reason, the touch screen display 17 can detect not only a touch operation on the screen using a finger but also a touch operation on the screen using the pen 100.

ペン100は例えばデジタイザペン(電磁誘導ペン)であってもよい。ユーザは、ペン100を使用してタッチスクリーンディスプレイ17上で手書き入力操作を行うことができる(ペン入力モード)。ペン入力モードにおいては、画面上のペン100の動きの軌跡、つまり手書き入力操作によって手書きされるストロークが求められ、これによって手書きにより入力された複数のストロークが画面上に表示される。ペン100が画面に接触されている間のペン100の動きの軌跡が1つのストロークに相当する。複数のストロークが文字、記号等を構成する。手書きされた文字、手書きされた図形、手書きされた表、等に対応する多数のストロークの集合が手書き文書を構成する。   The pen 100 may be a digitizer pen (electromagnetic induction pen), for example. The user can perform a handwriting input operation on the touch screen display 17 using the pen 100 (pen input mode). In the pen input mode, a trajectory of the movement of the pen 100 on the screen, that is, a stroke handwritten by a handwriting input operation is obtained, and a plurality of strokes input by handwriting are thereby displayed on the screen. The locus of movement of the pen 100 while the pen 100 is in contact with the screen corresponds to one stroke. A plurality of strokes constitute characters, symbols, and the like. A set of many strokes corresponding to handwritten characters, handwritten graphics, handwritten tables, and the like constitute a handwritten document.

さらに、本実施形態のタブレットコンピュータ10は、ペン100を使用せずに、指で手書き入力操作を行うためのタッチ入力モードも有している。タッチ入力モードが有効な場合、ユーザは、指を使用してタッチスクリーンディスプレイ17上で手書き入力操作を行うことができる。タッチ入力モードにおいては、画面上の指の動きの軌跡、つまり手書き入力操作によって手書きされるストロークが求められ、これによって手書きにより入力された複数のストロークが画面上に表示される。   Furthermore, the tablet computer 10 of this embodiment also has a touch input mode for performing a handwriting input operation with a finger without using the pen 100. When the touch input mode is valid, the user can perform a handwriting input operation on the touch screen display 17 using a finger. In the touch input mode, a trajectory of finger movement on the screen, that is, a stroke handwritten by a handwriting input operation is obtained, and thereby a plurality of strokes input by handwriting are displayed on the screen.

図2は、タブレットコンピュータ10のシステム構成を示す図である。   FIG. 2 is a diagram showing a system configuration of the tablet computer 10.

タブレットコンピュータ10は、CPU(Central Processing Unit)101、システムコントローラ102、主メモリ103、グラフィックスコントローラ104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC: Embedded Controller)108等を備える。   The tablet computer 10 includes a CPU (Central Processing Unit) 101, a system controller 102, a main memory 103, a graphics controller 104, a BIOS-ROM 105, a nonvolatile memory 106, a wireless communication device 107, an embedded controller (EC: Embedded Controller) 108, and the like. Is provided.

CPU101は、タブレットコンピュータ10内の各種モジュールの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS: Operating System)201、及び各種アプリケーションプログラムが含まれている。各種アプリケーションプログラムには、IME変換アプリケーションプログラム202が含まれている。このIME変換アプリケーションプログラム202は、タブレットコンピュータ10での文字入力を補助するIMEの変換機能を補助し得るアプリケーションである。IMEは、通常、言語毎(例、日本語、中国語等)に別個に用意される。以下では、日本語に対応したIMEがタブレットコンピュータ10に搭載されている場合を説明する。   The CPU 101 is a processor that controls the operation of various modules in the tablet computer 10. The CPU 101 executes various software loaded into the main memory 103 from the nonvolatile memory 106 that is a storage device. These software include an operating system (OS) 201 and various application programs. The various application programs include an IME conversion application program 202. The IME conversion application program 202 is an application that can assist the IME conversion function that assists the character input in the tablet computer 10. The IME is usually prepared separately for each language (eg, Japanese, Chinese, etc.). Below, the case where IME corresponding to Japanese is mounted in the tablet computer 10 is demonstrated.

CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 101 also executes a basic input / output system (BIOS) stored in the BIOS-ROM 105. The BIOS is a program for hardware control.

システムコントローラ102は、CPU101のローカルバスと各種コンポーネント・モジュールとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。システムコントローラ102は、PCI EXPRESS規格のシリアルバス等を介してグラフィックスコントローラ104との通信を実行する機能も有している。   The system controller 102 is a device that connects between the local bus of the CPU 101 and various component modules. The system controller 102 also includes a memory controller that controls access to the main memory 103. The system controller 102 also has a function of executing communication with the graphics controller 104 via a PCI Express standard serial bus or the like.

グラフィックスコントローラ104は、タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。グラフィックスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。タッチパネル17B、LCD17A及びデジタイザ17Cは互いに重ね合わされている。タッチパネル17Bは、LCD17Aの画面上で入力を行うための静電容量方式のポインティングデバイスである。指が接触される画面上の接触位置及び当該接触位置の動き等は、タッチパネル17Bによって検出される。デジタイザ17Cは、LCD17Aの画面上で入力を行うための電磁誘導方式のポインティングデバイスである。ペン(デジタイザペン)100が接触される画面上の接触位置及び当該接触位置の動き等は、デジタイザ17Cによって検出される。   The graphics controller 104 is a display controller that controls the LCD 17 </ b> A used as a display monitor of the tablet computer 10. A display signal generated by the graphics controller 104 is sent to the LCD 17A. The LCD 17A displays a screen image based on the display signal. Touch panel 17B, LCD 17A, and digitizer 17C are overlaid on each other. The touch panel 17B is a capacitive pointing device for inputting on the screen of the LCD 17A. The touch position on the screen where the finger is touched, the movement of the touch position, and the like are detected by the touch panel 17B. The digitizer 17C is an electromagnetic induction type pointing device for inputting on the screen of the LCD 17A. The contact position on the screen where the pen (digitizer pen) 100 is touched, the movement of the contact position, and the like are detected by the digitizer 17C.

無線通信デバイス107は、無線LAN(Local Area Network)または3G移動通信等の無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じて本タブレットコンピュータ10を電源オンまたは電源オフする機能を有している。   The wireless communication device 107 is a device configured to execute wireless communication such as wireless LAN (Local Area Network) or 3G mobile communication. The EC 108 is a one-chip microcomputer including an embedded controller for power management. The EC 108 has a function of turning on or off the tablet computer 10 in accordance with the operation of the power button by the user.

次に、図3を参照して、IME変換アプリケーションプログラム202の機能構成について説明する。   Next, the functional configuration of the IME conversion application program 202 will be described with reference to FIG.

IME変換アプリケーションプログラム202は、図3に示すように、発音情報入力部301、第1候補群表示部302、表示処理部303、第2候補群表示部304及び作業メモリ401等を備える。表示処理部303は、手書きデータ入力部303A及び手書きデータ表示部303Bを含む。   As shown in FIG. 3, the IME conversion application program 202 includes a pronunciation information input unit 301, a first candidate group display unit 302, a display processing unit 303, a second candidate group display unit 304, a work memory 401, and the like. The display processing unit 303 includes a handwritten data input unit 303A and a handwritten data display unit 303B.

前述したタッチパネル17Bは、「タッチ(接触)」、「移動(スライド)」、「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上のオブジェクト(指)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(指)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(指)が離されたことを示すイベントである。   The touch panel 17B described above is configured to detect occurrence of events such as “touch (contact)”, “movement (slide)”, and “release”. “Touch (contact)” is an event indicating that an object (finger) on the screen has touched. “Move (slide)” is an event indicating that the contact position has been moved while the object (finger) is in contact with the screen. “Release” is an event indicating that an object (finger) has been released from the screen.

前述したデジタイザ17Cも、「タッチ(接触)」、「移動(スライド)」、「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上にオブジェクト(ペン100)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(ペン100)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(ペン100)が離されたことを示すイベントである。   The digitizer 17C described above is also configured to detect the occurrence of events such as “touch (contact)”, “movement (slide)”, “release”, and the like. “Touch (contact)” is an event indicating that the object (pen 100) has touched the screen. “Move (slide)” is an event indicating that the contact position has been moved while the object (pen 100) is in contact with the screen. “Release” is an event indicating that the object (pen 100) has been released from the screen.

IME変換アプリケーションプログラム202は、文字を入力する際に使用可能なソフトウェアキーボードを画面上に表示する。ユーザは、このソフトウェアキーボードを操作することで任意の文字を文字入力領域に入力することができる。例えば、ローマ字入力で任意の文字を入力する場合、ユーザは「s」、「a」、「i」の順にソフトウェアキーボードを押下することで「さい」という文字を文字入力領域に入力することができる。また、かな入力で任意の文字を入力する場合、ユーザは「さ」、「い」の順にソフトウェアキーボードを押下することで「さい」という文字を文字入力領域に入力することができる。なお、ユーザが任意の文字を文字入力領域に入力する手法は、ソフトウェアキーボードを用いた手法だけに限定されない。例えば、ユーザは、USB等を介して接続されるキーボードを用いてローマ字入力またはかな入力で任意の文字を文字入力領域に入力してもよいし、指またはデジタイザペン等を用いて手書きされる文字を任意の文字入力領域に入力してもよい。以下では、ユーザの操作に応じて文字入力領域に入力された文字の発音に関する情報を発音情報(第1情報)と称する。   The IME conversion application program 202 displays a software keyboard that can be used when inputting characters on the screen. The user can input an arbitrary character into the character input area by operating the software keyboard. For example, when inputting an arbitrary character by inputting Roman characters, the user can input the character “sai” into the character input area by pressing the software keyboard in the order of “s”, “a”, and “i”. . When inputting an arbitrary character by kana input, the user can input the character “sai” in the character input area by pressing the software keyboard in the order of “sa” and “i”. Note that the method for the user to input an arbitrary character into the character input area is not limited to a method using a software keyboard. For example, the user may input an arbitrary character into the character input area by inputting a Roman character or Kana using a keyboard connected via USB or the like, or a character handwritten using a finger or a digitizer pen May be entered in any character input area. Below, the information regarding the pronunciation of the character input into the character input area according to a user's operation is called pronunciation information (first information).

発音情報入力部301は、前述したソフトウェアキーボードに対する指またはペン100によるタップ操作あるいはフリック操作に応じて文字入力領域に入力された文字の発音情報を入力する。   The pronunciation information input unit 301 inputs the pronunciation information of characters input to the character input area in response to a tap operation or flick operation with the finger or the pen 100 on the software keyboard described above.

第1候補群表示部302は、発音情報入力部301によって入力された発音情報に応じた文字の複数の第1候補(第1候補群)を画面上に表示する。具体的には、第1候補群表示部302は、入力された発音情報(に応じたかな文字)を別の文字(例、漢字等)に変換する旨の変換要求を受けると、当該発音情報に応じたかな文字に対応付けられた文字を辞書データベース(以下、辞書DB(Data Base)と表記)402から抽出する。辞書DB402は、発音情報に応じたかな文字及び文字を対応付けて記憶する記憶媒体である。辞書DB402は、例えばタブレットコンピュータ10内のストレージデバイスであってもよいし、タブレットコンピュータ10に接続される外部ストレージデバイスであってもよい。例えば、辞書DB402には、発音情報に応じたかな文字「さい」に対応付けて、「際」、「最」、「差異」、「斉」、「細」等の文字が記憶されている。変換要求は、前述したソフトウェアキーボードの変換キー(スペースキー)が指またはペン100によってタップ操作されることで発音情報入力部301から第1候補群表示部302に出力される。   The first candidate group display unit 302 displays a plurality of first candidates (first candidate group) of characters corresponding to the pronunciation information input by the pronunciation information input unit 301 on the screen. Specifically, when the first candidate group display unit 302 receives a conversion request for converting the input pronunciation information (according to kana characters) into another character (eg, kanji), the pronunciation information The character associated with the kana character corresponding to is extracted from the dictionary database (hereinafter referred to as dictionary DB (Data Base)) 402. The dictionary DB 402 is a storage medium that stores kana characters and characters according to pronunciation information in association with each other. The dictionary DB 402 may be a storage device in the tablet computer 10, for example, or may be an external storage device connected to the tablet computer 10. For example, in the dictionary DB 402, characters such as “done”, “most”, “difference”, “simultaneous”, “thin”, etc. are stored in association with the kana character “sai” corresponding to the pronunciation information. The conversion request is output from the pronunciation information input unit 301 to the first candidate group display unit 302 when the conversion key (space key) of the software keyboard described above is tapped with a finger or the pen 100.

第1候補群表示部302は、辞書DB402から抽出した文字を、変換可能な文字の第1候補群として画面上に表示する。なお、辞書DB402から抽出した文字(第1候補群に含まれる文字)は、第1候補群表示部302によって作業メモリ401に一時的に保存される。   The first candidate group display unit 302 displays the characters extracted from the dictionary DB 402 on the screen as a first candidate group of convertible characters. Note that characters extracted from the dictionary DB 402 (characters included in the first candidate group) are temporarily stored in the work memory 401 by the first candidate group display unit 302.

表示処理部303は、デジタイザ17Cを用いて検出される画面上のオブジェクト(ペン100)の動きに応じて手書きストロークを画面上に表示する。この表示処理部303により、画面にペン100が接触している間のペン100の軌跡、つまり各ストロークの軌跡が手書き入力領域に表示される。なお、IME変換アプリケーションプログラム202は、発音情報を入力可能なかな文字入力モード(第1モード)と、手書きストロークに応じたイメージデータを入力可能な手書き入力モード(第2モード)とを適宜切替可能なモード切替オブジェクトを画面上に表示してもよい。このモード切替オブジェクトが、指またはペン100によってタップ操作されることで、IME変換アプリケーションプログラム202は、かな文字入力モードと手書き入力モードとの切り替えを行う。つまり、かな文字入力モードから手書き入力モードに切り替えられることで、後述する手書きデータ入力部303Aが、1以上の手書きストロークに応じたイメージデータを入力可能な状態に移行することができる。   The display processing unit 303 displays a handwritten stroke on the screen according to the movement of the object (pen 100) on the screen detected using the digitizer 17C. The display processing unit 303 displays the trajectory of the pen 100 while the pen 100 is in contact with the screen, that is, the trajectory of each stroke, in the handwriting input area. Note that the IME conversion application program 202 can appropriately switch between a kana character input mode (first mode) capable of inputting pronunciation information and a handwriting input mode (second mode) capable of inputting image data corresponding to a handwritten stroke. A mode switching object may be displayed on the screen. When the mode switching object is tapped with the finger or the pen 100, the IME conversion application program 202 switches between the kana character input mode and the handwriting input mode. That is, by switching from the kana character input mode to the handwriting input mode, the handwritten data input unit 303A described later can shift to a state in which image data corresponding to one or more handwritten strokes can be input.

ここで、図3に示す表示処理部303の詳細について説明する。   Here, details of the display processing unit 303 illustrated in FIG. 3 will be described.

前述したように、タッチスクリーンディスプレイ17は、画面に対するタッチ操作をタッチパネル17Bまたはデジタイザ17Cで検出する。手書きデータ入力部303Aは、タッチパネル17Bまたはデジタイザ17Cを用いて検出される指またはペン100の動きに応じた手書きストロークをイメージデータとして入力する。手書きデータ入力部303Aによって入力されたイメージデータは、手書きデータ表示部303B及び第2候補群表示部304に供給される。   As described above, the touch screen display 17 detects a touch operation on the screen by the touch panel 17B or the digitizer 17C. Handwritten data input unit 303A inputs a handwritten stroke corresponding to the movement of the finger or pen 100 detected using touch panel 17B or digitizer 17C as image data. The image data input by the handwritten data input unit 303A is supplied to the handwritten data display unit 303B and the second candidate group display unit 304.

手書きデータ表示部303Bは、手書きデータ入力部303Aから供給されたイメージデータをタッチスクリーンディスプレイ17のLCD17Aに表示するモジュールである。   The handwritten data display unit 303 </ b> B is a module that displays the image data supplied from the handwritten data input unit 303 </ b> A on the LCD 17 </ b> A of the touch screen display 17.

第2候補群表示部304は、作業メモリ401に保存された第1候補群に含まれる文字のうち、手書きデータ入力部303Aから供給されたイメージデータに応じた形状を含む文字の1以上の第2候補(第2候補群)を画面上に表示する。具体的には、第2候補群表示部304は、手書きデータ入力部303Aから供給されたイメージデータに対して形状認識処理を実行する。これにより、第2候補群表示部304は、イメージデータとして入力された手書きストロークの形状を認識する。第2候補群表示部304は、手書きストロークの形状を認識すると、作業メモリ401に保存された第1候補群に含まれる文字の中から、当該手書きストロークの形状を含む(当該手書きストロークの形状に対応する)文字を抽出する(変換候補絞込処理)。そして、第2候補群表示部304は、変換候補絞込処理によって抽出した文字を、変換可能な文字の第2候補群として画面上に表示する。   The second candidate group display unit 304 includes one or more first characters including a shape corresponding to the image data supplied from the handwritten data input unit 303A among the characters included in the first candidate group stored in the work memory 401. Two candidates (second candidate group) are displayed on the screen. Specifically, the second candidate group display unit 304 performs a shape recognition process on the image data supplied from the handwritten data input unit 303A. As a result, the second candidate group display unit 304 recognizes the shape of the handwritten stroke input as the image data. When the second candidate group display unit 304 recognizes the shape of the handwritten stroke, the second candidate group display unit 304 includes the shape of the handwritten stroke from the characters included in the first candidate group stored in the work memory 401 (the shape of the handwritten stroke is (Corresponding) character is extracted (conversion candidate narrowing process). Then, the second candidate group display unit 304 displays the characters extracted by the conversion candidate narrowing process on the screen as a second candidate group of convertible characters.

次に、図4乃至図7を参照して、IME変換アプリケーションプログラム202によって実行される処理の処理手順について説明する。   Next, a processing procedure of processing executed by the IME conversion application program 202 will be described with reference to FIGS.

始めに、発音情報入力部301は、ユーザの操作に応じて文字入力領域に入力された文字の発音情報を入力する(ブロックB1)。この時点では、例えば、図5に示すように、文字入力領域R1に入力されたかな文字(換言すると、入力された発音情報に応じたかな文字)「さい」が画面上に表示される。   First, the pronunciation information input unit 301 inputs the pronunciation information of the character input to the character input area in response to a user operation (block B1). At this point in time, for example, as shown in FIG. 5, a kana character (in other words, a kana character corresponding to the input pronunciation information) input to the character input area R <b> 1 is displayed on the screen.

続いて、発音情報入力部301は、ユーザの操作に応じて、発音情報に応じたかな文字を別の文字に変換する旨の変換要求を第1候補群表示部302に出力する(ブロックB2)。   Subsequently, the pronunciation information input unit 301 outputs, to the first candidate group display unit 302, a conversion request for converting a kana character corresponding to the pronunciation information into another character in accordance with a user operation (block B2). .

次に、第1候補群表示部302は、発音情報入力部301から出力される変換要求の入力を受け付けると、入力された発音情報に応じたかな文字に対応付けられた文字を辞書DB402から抽出する。その後、第1候補群表示部302は、辞書DB402から抽出した文字を第1候補群として画面上に表示する(ブロックB3)。例えば、図6に示すように、第1候補群表示部302は、発音情報に応じたかな文字「さい」に対応付けられた「際」、「最」、「差異」、「斉」、「細」等の文字を辞書DB402から抽出し、第1候補群として画面上に表示する。なお、第1候補群表示部302は、辞書DB402から抽出され、第1候補群に含まれる文字を作業メモリ401に一時的に保存する。   Next, when receiving the input of the conversion request output from the pronunciation information input unit 301, the first candidate group display unit 302 extracts, from the dictionary DB 402, characters associated with the kana characters corresponding to the input pronunciation information. To do. Thereafter, the first candidate group display unit 302 displays the characters extracted from the dictionary DB 402 on the screen as the first candidate group (block B3). For example, as shown in FIG. 6, the first candidate group display unit 302 displays “when”, “most”, “difference”, “simultaneous”, “ Characters such as “Fine” are extracted from the dictionary DB 402 and displayed on the screen as the first candidate group. The first candidate group display unit 302 temporarily stores the characters extracted from the dictionary DB 402 and included in the first candidate group in the work memory 401.

続いて、手書きデータ入力部303Aは、手書き入力領域におけるペン100の動きに応じた手書きストロークをイメージデータとして入力する(ブロックB4)。イメージデータは、手書きデータ入力部303Aによって、手書きデータ表示部303B及び第2候補群表示部304に供給される。手書きデータ表示部303Bは、手書きデータ入力部303Aによって供給されたイメージデータを画面上に表示する。   Subsequently, the handwritten data input unit 303A inputs a handwritten stroke corresponding to the movement of the pen 100 in the handwritten input area as image data (block B4). The image data is supplied to the handwritten data display unit 303B and the second candidate group display unit 304 by the handwritten data input unit 303A. The handwritten data display unit 303B displays the image data supplied by the handwritten data input unit 303A on the screen.

次に、第2候補群表示部304は、手書き入力領域に入力されたイメージデータが手書きデータ入力部303Aから供給されると、当該イメージデータに対して形状認識処理を実行する(ブロックB5)。これにより、第2候補群表示部304は、イメージデータとして入力された手書きストロークの形状を認識することができる。例えば、図7に示すように、第2候補群表示部304は、手書き入力領域R2に入力されたイメージデータに対して形状認識処理を実行し、手書きストロークの形状が「糸」であることを認識する。   Next, when the image data input to the handwriting input area is supplied from the handwriting data input unit 303A, the second candidate group display unit 304 performs shape recognition processing on the image data (block B5). Thereby, the 2nd candidate group display part 304 can recognize the shape of the handwritten stroke input as image data. For example, as illustrated in FIG. 7, the second candidate group display unit 304 performs shape recognition processing on the image data input to the handwriting input area R2, and indicates that the shape of the handwritten stroke is “thread”. recognize.

しかる後、第2候補群表示部304は、作業メモリ401に保存された第1候補群に含まれる文字のうち、認識した手書きストロークの形状を含む文字を抽出し、当該抽出した文字を第2候補群として画面上に表示する(ブロックB6)。これにより、例えば図7に示すように、第2候補群表示部304は、作業メモリ401に保存された第1候補群に含まれる「際」、「最」、「差異」、「斉」、「細」等の文字のうち、認識した手書きストロークの形状「糸」を含む文字「細」だけを画面上に表示することができる。   Thereafter, the second candidate group display unit 304 extracts characters including the shape of the recognized handwritten stroke from among the characters included in the first candidate group stored in the work memory 401, and the extracted characters are stored in the second candidate group. The candidate group is displayed on the screen (block B6). As a result, for example, as shown in FIG. 7, the second candidate group display unit 304 displays “when”, “most”, “difference”, “simultaneous”, “same”, included in the first candidate group stored in the work memory 401. Of the characters such as “thin”, only the character “thin” including the recognized handwritten stroke shape “thread” can be displayed on the screen.

前述では、日本語に対応したIMEを搭載したタブレットコンピュータ10でのIME変換アプリケーションプログラム202の処理について説明したが、以下に、図8乃至図10を参照して、中国語に対応したIMEを搭載したタブレットコンピュータ10でのIME変換アプリケーションプログラム202の処理についても説明する。   In the above description, the processing of the IME conversion application program 202 in the tablet computer 10 equipped with an IME corresponding to Japanese has been described. However, referring to FIGS. 8 to 10, an IME corresponding to Chinese is installed. The processing of the IME conversion application program 202 in the tablet computer 10 will also be described.

まず、発音情報入力部301は、文字入力領域R1に入力された文字の発音情報を入力する。この時点では、図8に示すように、当該発音情報に応じたピン音「xi」が画面上に表示される。その後、発音情報入力部301によって変換要求が出力されると、第1候補群表示部302は、図9に示すように、発音情報に応じたピン音「xi」に対応付けられた「西」、「洗」、「細」、「吸」、「系」等の文字を辞書DB402から抽出し、第1候補群として画面上に表示する。このとき、第1候補群表示部302は、辞書DB402から抽出された第1候補群に含まれる文字を作業メモリ401に保存する。そして、手書きデータ入力部303は、図10に示すように、手書き入力領域R2におけるペン100の動きに応じた手書きストロークをイメージデータとして入力する。その後、第2候補群表示部304は、手書き入力領域R2に入力されたイメージデータに対して形状認識処理を実行する。これにより、第2候補群表示部304は、イメージデータとして入力された手書きストロークの形状が「糸」であることを認識する。そして、第2候補群表示部304は、図10に示すように、作業メモリ401に保存された第1候補群に含まれる「西」、「洗」、「細」、「吸」、「系」等の文字のうち、認識した手書きストロークの形状「糸」を含む文字「細」、「系」だけを画面上に表示する。   First, the pronunciation information input unit 301 inputs the pronunciation information of the characters input in the character input area R1. At this time, as shown in FIG. 8, the pin sound “xi” corresponding to the pronunciation information is displayed on the screen. Thereafter, when a conversion request is output by the pronunciation information input unit 301, the first candidate group display unit 302, as shown in FIG. 9, “west” associated with the pin sound “xi” corresponding to the pronunciation information. , “Wash”, “thin”, “suck”, “system” and the like are extracted from the dictionary DB 402 and displayed on the screen as the first candidate group. At this time, the first candidate group display unit 302 stores the characters included in the first candidate group extracted from the dictionary DB 402 in the work memory 401. And the handwritten data input part 303 inputs the handwritten stroke according to the motion of the pen 100 in handwriting input area | region R2 as image data, as shown in FIG. Thereafter, the second candidate group display unit 304 performs a shape recognition process on the image data input to the handwriting input region R2. Accordingly, the second candidate group display unit 304 recognizes that the shape of the handwritten stroke input as the image data is “thread”. Then, as shown in FIG. 10, the second candidate group display unit 304 displays “west”, “wash”, “thin”, “suck”, “system” included in the first candidate group stored in the work memory 401. Among the characters such as “”, only the characters “fine” and “system” including the recognized handwritten stroke shape “thread” are displayed on the screen.

以上のように、中国語に対応したIMEを搭載したタブレットコンピュータ10においても、IME変換アプリケーションプログラム202は、前述のブロックB1乃至ブロックB6の処理と同様な処理を実行することができる。   As described above, also in the tablet computer 10 equipped with the IME corresponding to Chinese, the IME conversion application program 202 can execute the same processing as the processing of the block B1 to the block B6 described above.

なお、本実施形態では、手書き入力領域は、図7及び図10に示す領域R2に相当するとして説明したが、これに限定されず、画面上の領域のうち、第1候補群が表示される領域を除く全ての領域が手書き入力領域に相当してもよい。   In the present embodiment, the handwriting input area has been described as corresponding to the area R2 illustrated in FIGS. 7 and 10. However, the present invention is not limited to this, and the first candidate group is displayed among the areas on the screen. All areas except the area may correspond to the handwriting input area.

また、本実施形態では、発音情報入力部301からの変換要求の入力を受け付けたときに、入力された発音情報に応じた文字の第1候補群を表示するとしたが、第1候補群を画面上に表示するタイミングはこれに限定されない。例えば、発音情報が入力される度に、当該発音情報に応じた文字の第1候補群を画面上にポップアップ表示するとしてもよい。   In this embodiment, when the input of the conversion request from the pronunciation information input unit 301 is received, the first candidate group of characters corresponding to the input pronunciation information is displayed. However, the first candidate group is displayed on the screen. The timing to display above is not limited to this. For example, each time pronunciation information is input, a first candidate group of characters corresponding to the pronunciation information may be displayed in a pop-up on the screen.

さらに、本実施形態では、辞書DB402には、発音情報に応じたかな文字と文字とが対応付けて記憶されているとしたが、これに限定されず、例えば辞書DB402には、文字コード(の組)と文字とが対応付けて記憶されているとしてもよい。例えば図11に示すように、「さ」の文字コードが「X」であり、「い」の文字コードが「Y」であると仮定すると、辞書DB402には、文字コード「X」及び「Y」の組に対応付けて、文字「際」、「最」、「差異」、「斉」、「細」等が記憶される。   Furthermore, in the present embodiment, the dictionary DB 402 stores kana characters and characters corresponding to the pronunciation information in association with each other. However, the present invention is not limited to this. For example, the dictionary DB 402 stores character codes ( Set) and characters may be stored in association with each other. For example, as illustrated in FIG. 11, assuming that the character code of “sa” is “X” and the character code of “i” is “Y”, the dictionary DB 402 stores character codes “X” and “Y”. Are stored in association with a set of "", "Min", "Min", "Difference", "Sai", "Fine", etc.

以下に、辞書DB402に文字コード(の組)と文字とが対応付けて記憶されている場合のIME変換アプリケーションプログラム202の各種機能について説明する。ここでは、主に、既に説明した機能とは異なる第1候補群表示部302及び第2候補群表示部304の機能について説明する。   Hereinafter, various functions of the IME conversion application program 202 when character codes (sets) and characters are stored in the dictionary DB 402 in association with each other will be described. Here, the functions of first candidate group display unit 302 and second candidate group display unit 304, which are different from the functions already described, will be mainly described.

第1候補群表示部302は、発音情報入力部301によって発音情報が入力されると、当該発音情報に応じたかな文字の文字コードを文字コード一覧テーブルから取得する。文字コード一覧テーブルとは、例えば図12に示すように、1つの文字と1つの文字コードとを対応付けたテーブルである。この文字コード一覧テーブルでは、平仮名だけでなく、カタカナや漢字等の文字と、その文字コードとが対応付けられる。さらに、この文字コード一覧テーブルにおいて、漢字に対応付けられる文字コードは、複数の部品文字コードによって構成される。例えば、「細」の文字コードは、「糸」の文字コードと、「田」の文字コードとの2つによって構成される。すなわち、「糸」の文字コードが「S」であり、「田」の文字コードが「T」である場合、「細」の文字コードは2つの部品文字コード「S」及び「T」によって構成される「ST」となる。   When the pronunciation information is input by the pronunciation information input unit 301, the first candidate group display unit 302 acquires the character code of the kana character corresponding to the pronunciation information from the character code list table. The character code list table is a table in which one character is associated with one character code, for example, as shown in FIG. In this character code list table, not only hiragana characters but also characters such as katakana and kanji are associated with the character codes. Furthermore, in this character code list table, the character code associated with the Chinese character is composed of a plurality of component character codes. For example, the character code “Fine” is composed of two characters: a character code “Thread” and a character code “Ta”. That is, when the character code of “Yarn” is “S” and the character code of “Ta” is “T”, the character code of “Fine” is composed of two component character codes “S” and “T”. Will be "ST".

前述した文字コード一覧テーブルから文字コードを取得すると、第1候補群表示部302は、当該取得した文字コード(の組)に対応付けられた文字を辞書DB402から抽出する。例えば、文字コード一覧テーブルから「さ」の文字コード「X」と、「い」の文字コード「Y」とを取得した場合、第1候補群表示部302は、文字コード「X」及び「Y」の組に対応付けられた文字「際」、「最」、「差異」、「斉」、「細」等を辞書DB402から抽出する。このとき、第1候補群表示部302は、抽出した文字の文字コードを文字コード一覧テーブルから取得し、当該取得した文字コードを作業メモリ401に一時的に保存する。   When the character code is acquired from the character code list table described above, the first candidate group display unit 302 extracts the character associated with the acquired character code (group) from the dictionary DB 402. For example, when the character code “X” of “sa” and the character code “Y” of “I” are acquired from the character code list table, the first candidate group display unit 302 displays the character codes “X” and “Y”. The characters “Cho”, “Min”, “Difference”, “Sai”, “Fine”, etc. associated with the “ At this time, the first candidate group display unit 302 acquires the character code of the extracted character from the character code list table, and temporarily stores the acquired character code in the work memory 401.

第2候補群表示部304は、手書きデータ入力部303Aによって手書き入力領域に手書きストロークに応じたイメージデータが入力されると、当該イメージデータに対して形状認識処理を実行する。そして、第2候補群表示部304は、前述の形状認識処理により認識した手書きストロークの形状の文字の文字コードを文字コード一覧テーブルから取得する。例えば、認識した手書きストロークの形状の文字が「糸」である場合、第2候補群表示部304は「糸」の文字コード「S」を文字コード一覧テーブルから取得する。   When the image data corresponding to the handwriting stroke is input to the handwriting input area by the handwriting data input unit 303A, the second candidate group display unit 304 performs shape recognition processing on the image data. And the 2nd candidate group display part 304 acquires the character code of the character of the shape of the handwritten stroke recognized by the above-mentioned shape recognition process from a character code list table. For example, when the recognized character in the shape of the handwritten stroke is “thread”, the second candidate group display unit 304 acquires the character code “S” of “thread” from the character code list table.

また、第2候補群表示部304は、作業メモリ401に保存された文字コードの中から、取得した文字コードを部品文字コードとして含む文字コードを抽出する。例えば、前述したように、文字コード一覧テーブルから「糸」の文字コード「S」が取得されている場合、第2候補群表示部304は、文字コード「S」を部品文字コードとして含む文字コード「ST」を抽出する。   The second candidate group display unit 304 extracts a character code including the acquired character code as a component character code from the character codes stored in the work memory 401. For example, as described above, when the character code “S” of “thread” is acquired from the character code list table, the second candidate group display unit 304 includes the character code “S” as the component character code. Extract “ST”.

以上のように、辞書DB402に文字コード(の組)と文字とが対応付けて記憶され、かつ、文字コード一覧テーブルが所望のストレージデバイスによって提供されることにより、前述したブロックB1乃至ブロックB6の処理と同様な処理を文字コードベースで実行することができる。   As described above, the character code (set) and the character are stored in the dictionary DB 402 in association with each other, and the character code list table is provided by a desired storage device, so that the blocks B1 to B6 described above are stored. A process similar to the process can be executed on a character code base.

以上説明した一実施形態によれば、タブレットコンピュータ10は、多数の変換候補の文字を含む第1候補群から、手書きストロークの形状を含む文字だけを抽出し、第2候補群として画面上に表示することができるIME変換アプリケーションプログラム202を備える。すなわち、変換したい文字等を見つけやすくすることができる。   According to the embodiment described above, the tablet computer 10 extracts only characters including the shape of the handwritten stroke from the first candidate group including a large number of conversion candidate characters, and displays them on the screen as the second candidate group. An IME conversion application program 202 is provided. That is, it is possible to make it easier to find a character or the like to be converted.

なお、本実施形態の処理は、コンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。   Note that the processing of the present embodiment can be realized by a computer program. Therefore, the computer program can be installed and executed on a computer through a computer-readable storage medium storing the computer program. Similar effects can be easily realized.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10…タブレットコンピュータ、11…本体、17…フラットパネルディスプレイ、101…CPU、102…システムコントローラ、103…主メモリ、104…グラフィックスコントローラ、105…BIOS−ROM、106…不揮発性メモリ、107…無線通信デバイス、108…エンベデッドコントローラ、201…オペレーティングシステム、202…IME変換アプリケーションプログラム、301…発音情報入力部、302…第1候補群表示部、303…表示処理部、303A…手書きデータ入力部、303B…手書きデータ表示部、304…第2候補群表示部、401…作業メモリ、402…辞書データベース、R1…文字入力領域、R2…手書き入力領域。   DESCRIPTION OF SYMBOLS 10 ... Tablet computer, 11 ... Main body, 17 ... Flat panel display, 101 ... CPU, 102 ... System controller, 103 ... Main memory, 104 ... Graphics controller, 105 ... BIOS-ROM, 106 ... Non-volatile memory, 107 ... Wireless Communication device 108 ... Embedded controller 201 ... Operating system 202 ... IME conversion application program 301 ... Pronunciation information input unit 302 ... First candidate group display unit 303 ... Display processing unit 303A ... Handwritten data input unit 303B ... handwritten data display section, 304 ... second candidate group display section, 401 ... work memory, 402 ... dictionary database, R1 ... character input area, R2 ... handwritten input area.

Claims (15)

文字の発音に関する第1情報が入力された場合に、前記第1情報に対応する文字の複数の第1候補を表示し、
手書きにより1以上のストロークを入力し、
前記複数の第1候補の中から、入力された1以上のストロークの形状に対応する文字の1以上の第2候補を表示する方法。
When first information related to the pronunciation of characters is input, a plurality of first candidates for characters corresponding to the first information are displayed,
Enter one or more strokes by hand,
A method of displaying one or more second candidates of characters corresponding to the shape of one or more input strokes from the plurality of first candidates.
前記1以上の第2候補は、前記複数の第1候補が表示されている場合に、1以上のストロークが入力された後、画面上に表示される請求項1に記載の方法。   The method according to claim 1, wherein the one or more second candidates are displayed on a screen after one or more strokes are input when the plurality of first candidates are displayed. 1以上のストロークを入力可能な領域は、前記複数の第1候補が表示される領域とは、異なる請求項1に記載の方法。   The method according to claim 1, wherein an area in which one or more strokes can be input is different from an area in which the plurality of first candidates are displayed. 前記第1情報は、第1モードで、手書きにより入力され、
前記1以上のストロークは、第2モードで、手書きにより入力され、
前記第1モードと、前記第2モードとは、切り替え可能である請求項1に記載の方法。
The first information is input by handwriting in the first mode,
The one or more strokes are input by handwriting in the second mode,
The method according to claim 1, wherein the first mode and the second mode are switchable.
前記複数の第1候補を表示する操作によって、前記第1モードを、前記第2モードへ切り替える請求項4に記載の方法。   The method according to claim 4, wherein the first mode is switched to the second mode by an operation of displaying the plurality of first candidates. 文字の発音に関する第1情報が入力された場合に、前記第1情報に対応する文字の複数の第1候補を表示する第1表示手段と、
手書きにより1以上のストロークを入力する入力手段と、
前記複数の第1候補の中から、入力された1以上のストロークの形状に対応する文字の1以上の第2候補を表示する第2表示手段と
を具備する電子機器。
First display means for displaying a plurality of first candidates for a character corresponding to the first information when first information relating to the pronunciation of the character is input;
Input means for inputting one or more strokes by handwriting;
An electronic device comprising: a second display unit configured to display one or more second candidates of characters corresponding to the input one or more stroke shapes from the plurality of first candidates.
前記1以上の第2候補は、前記複数の第1候補が表示されている場合に、1以上のストロークが入力された後、画面上に表示される請求項6に記載の電子機器。   The electronic device according to claim 6, wherein the one or more second candidates are displayed on a screen after one or more strokes are input when the plurality of first candidates are displayed. 1以上のストロークを入力可能な領域は、前記複数の第1候補が表示される領域とは、異なる請求項6に記載の電子機器。   The electronic device according to claim 6, wherein an area where one or more strokes can be input is different from an area where the plurality of first candidates are displayed. 前記第1情報は、第1モードで、手書きにより入力され、
前記1以上のストロークは、第2モードで、手書きにより入力され、
前記第1モードと、前記第2モードとは、切り替え可能である請求項6に記載の電子機器。
The first information is input by handwriting in the first mode,
The one or more strokes are input by handwriting in the second mode,
The electronic device according to claim 6, wherein the first mode and the second mode can be switched.
前記複数の第1候補を表示する操作によって、前記第1モードを、前記第2モードへ切り替える請求項9に記載の電子機器。   The electronic device according to claim 9, wherein the first mode is switched to the second mode by an operation of displaying the plurality of first candidates. コンピュータにより実行されるプログラムであって、前記プログラムは前記コンピュータを、
文字の発音に関する第1情報が入力された場合に、前記第1情報に対応する文字の複数の第1候補を表示する第1表示手段と、
手書きにより1以上のストロークを入力する入力手段と、
前記複数の第1候補の中から、入力された1以上のストロークの形状に対応する文字の1以上の第2候補を表示する第2表示手段として動作させるプログラム。
A program executed by a computer, wherein the program
First display means for displaying a plurality of first candidates for a character corresponding to the first information when first information relating to the pronunciation of the character is input;
Input means for inputting one or more strokes by handwriting;
A program that operates as second display means for displaying one or more second candidates of characters corresponding to one or more input stroke shapes from among the plurality of first candidates.
前記1以上の第2候補は、前記複数の第1候補が表示されている場合に、1以上のストロークが入力された後、画面上に表示される請求項11に記載のプログラム。   12. The program according to claim 11, wherein the one or more second candidates are displayed on a screen after one or more strokes are input when the plurality of first candidates are displayed. 1以上のストロークを入力可能な領域は、前記複数の第1候補が表示される領域とは、異なる請求項11に記載のプログラム。   The program according to claim 11, wherein an area where one or more strokes can be input is different from an area where the plurality of first candidates are displayed. 前記第1情報は、第1モードで、手書きにより入力され、
前記1以上のストロークは、第2モードで、手書きにより入力され、
前記第1モードと、前記第2モードとは、切り替え可能である請求項11に記載のプログラム。
The first information is input by handwriting in the first mode,
The one or more strokes are input by handwriting in the second mode,
The program according to claim 11, wherein the first mode and the second mode are switchable.
前記複数の第1候補を表示する操作によって、前記第1モードを、前記第2モードへ切り替える請求項14に記載のプログラム。   The program according to claim 14, wherein the first mode is switched to the second mode by an operation of displaying the plurality of first candidates.
JP2013201004A 2013-09-27 2013-09-27 Electronic equipment, method, and program Pending JP2015069278A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013201004A JP2015069278A (en) 2013-09-27 2013-09-27 Electronic equipment, method, and program
CN201310666214.8A CN104516669A (en) 2013-09-27 2013-12-10 Electronic device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013201004A JP2015069278A (en) 2013-09-27 2013-09-27 Electronic equipment, method, and program

Publications (1)

Publication Number Publication Date
JP2015069278A true JP2015069278A (en) 2015-04-13

Family

ID=52792055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013201004A Pending JP2015069278A (en) 2013-09-27 2013-09-27 Electronic equipment, method, and program

Country Status (2)

Country Link
JP (1) JP2015069278A (en)
CN (1) CN104516669A (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6366697B1 (en) * 1993-10-06 2002-04-02 Xerox Corporation Rotationally desensitized unistroke handwriting recognition
CN100501656C (en) * 2006-10-25 2009-06-17 孙屏蹇 Tone and shape combination method for inputting Chinese character into electronic apparatus
CN102467319B (en) * 2010-11-09 2013-09-11 邓桂成 Handwriting Chinese character input method and system
CN102221976A (en) * 2011-07-06 2011-10-19 上海驿创信息技术有限公司 Method for quickly inputting words based on incomplete identification
CN102981767B (en) * 2012-11-28 2015-08-19 中国地质大学(武汉) A kind of individual Chinese character hand-written recognition method and system

Also Published As

Publication number Publication date
CN104516669A (en) 2015-04-15

Similar Documents

Publication Publication Date Title
US10444989B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
US10552037B2 (en) Software keyboard input method for realizing composite key on electronic device screen with precise and ambiguous input
JP6419162B2 (en) Character input device and character input method
CN108121457B (en) Method and apparatus for providing character input interface
KR101331697B1 (en) Apparatus and method for inputing characters in terminal
US20130227460A1 (en) Data entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
US9606981B2 (en) Electronic apparatus and method
US20130021256A1 (en) Mobile terminal with touch panel function and input method for same
TWI502394B (en) Electronic device and unlocking method thereof
JP2012088750A (en) Electronic apparatus and character input program for electronic apparatus
JP2010218286A (en) Information processor, program, and display method
JP5102894B1 (en) Character input device and portable terminal device
WO2014045414A1 (en) Character input device, character input method, and character input control program
JP5891540B2 (en) Character input device, character input method, and program
CN102841752A (en) Character input method and device of man-machine interaction device
JP2015213320A (en) Handheld device and input method thereof
JP2015069278A (en) Electronic equipment, method, and program
US20150347004A1 (en) Indic language keyboard interface
KR20100045617A (en) Korean alphabet input method utilizing a multi-touch sensing touch screen
KR101255801B1 (en) Mobile terminal capable of inputting hangul and method for displaying keypad thereof
KR101483170B1 (en) Mobile Terminal comprising Simple English Keypad
KR20120130491A (en) Method for inputting characters using a touch screen
JP2014089503A (en) Electronic apparatus and control method for electronic apparatus
JP6605921B2 (en) Software keyboard program, character input device, and character input method
JP2015043145A (en) Handwritten character input device