JP2015069278A - Electronic equipment, method, and program - Google Patents
Electronic equipment, method, and program Download PDFInfo
- Publication number
- JP2015069278A JP2015069278A JP2013201004A JP2013201004A JP2015069278A JP 2015069278 A JP2015069278 A JP 2015069278A JP 2013201004 A JP2013201004 A JP 2013201004A JP 2013201004 A JP2013201004 A JP 2013201004A JP 2015069278 A JP2015069278 A JP 2015069278A
- Authority
- JP
- Japan
- Prior art keywords
- input
- candidates
- character
- mode
- candidate group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Character Discrimination (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明の実施形態は、入力された文字を変換する技術に関する。 Embodiments described herein relate generally to a technique for converting input characters.
近年、タブレット、PDA(Personal Digital Assistant)、スマートフォンといったタッチスクリーンディスプレイを備え、また手書き入力が可能な種々の電子機器が開発されている。 In recent years, various electronic devices including a touch screen display such as a tablet, a PDA (Personal Digital Assistant), and a smartphone and capable of handwriting input have been developed.
文字入力を補助するソフトウェアとしてIME(Input Method Editor)を用いる場合、例えば、入力した文字を漢字等の文字に変換する際に、変換候補が多く、変換したい文字が見つからないという不都合がある。 When IME (Input Method Editor) is used as software for assisting character input, for example, when converting input characters into characters such as kanji, there is a problem that there are many conversion candidates and the character to be converted cannot be found.
本発明の一形態の目的は、変換したい文字等を見つけやすい電子機器、方法及びプログラムを提供することである。 An object of one embodiment of the present invention is to provide an electronic device, a method, and a program that can easily find a character or the like to be converted.
実施形態によれば、方法は、文字の発音に関する第1情報が入力された場合に、第1情報に対応する文字の複数の第1候補を表示し、手書きにより1以上のストロークを入力し、複数の第1候補の中から、入力された1以上のストロークの形状に対応する文字の1以上の第2候補を表示する。 According to the embodiment, the method displays a plurality of first candidates for a character corresponding to the first information when the first information related to the pronunciation of the character is input, and inputs one or more strokes by handwriting, One or more second candidates of characters corresponding to the input one or more stroke shapes are displayed from the plurality of first candidates.
以下、実施の形態について図面を参照して説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は、一実施形態に係る電子機器の外観の一例を示す斜視図である。この電子機器は、例えば、ペンまたは指によって手書き入力可能なペン・ベースの携帯型電子機器である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA等として実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を説明する。タブレットコンピュータ10は、タブレットまたはストレートコンピュータとも称される携帯型電子機器であり、本体11は、薄い箱形の筐体を有している。
FIG. 1 is a perspective view illustrating an example of an external appearance of an electronic apparatus according to an embodiment. This electronic device is, for example, a pen-based portable electronic device that can be handwritten with a pen or a finger. This electronic device can be realized as a tablet computer, a notebook personal computer, a smartphone, a PDA, or the like. Below, the case where this electronic device is implement | achieved as the
タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD: Liquid Crystal Display)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザ等を使用することができる。以下では、デジタイザとタッチパネルの2種類のセンサの双方がタッチスクリーンディスプレイ17に組み込まれている場合を説明する。このため、タッチスクリーンディスプレイ17は、指を使用した画面に対するタッチ操作のみならず、ペン100を使用した画面に対するタッチ操作も検出することができる。
The
ペン100は例えばデジタイザペン(電磁誘導ペン)であってもよい。ユーザは、ペン100を使用してタッチスクリーンディスプレイ17上で手書き入力操作を行うことができる(ペン入力モード)。ペン入力モードにおいては、画面上のペン100の動きの軌跡、つまり手書き入力操作によって手書きされるストロークが求められ、これによって手書きにより入力された複数のストロークが画面上に表示される。ペン100が画面に接触されている間のペン100の動きの軌跡が1つのストロークに相当する。複数のストロークが文字、記号等を構成する。手書きされた文字、手書きされた図形、手書きされた表、等に対応する多数のストロークの集合が手書き文書を構成する。
The
さらに、本実施形態のタブレットコンピュータ10は、ペン100を使用せずに、指で手書き入力操作を行うためのタッチ入力モードも有している。タッチ入力モードが有効な場合、ユーザは、指を使用してタッチスクリーンディスプレイ17上で手書き入力操作を行うことができる。タッチ入力モードにおいては、画面上の指の動きの軌跡、つまり手書き入力操作によって手書きされるストロークが求められ、これによって手書きにより入力された複数のストロークが画面上に表示される。
Furthermore, the
図2は、タブレットコンピュータ10のシステム構成を示す図である。
FIG. 2 is a diagram showing a system configuration of the
タブレットコンピュータ10は、CPU(Central Processing Unit)101、システムコントローラ102、主メモリ103、グラフィックスコントローラ104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC: Embedded Controller)108等を備える。
The
CPU101は、タブレットコンピュータ10内の各種モジュールの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS: Operating System)201、及び各種アプリケーションプログラムが含まれている。各種アプリケーションプログラムには、IME変換アプリケーションプログラム202が含まれている。このIME変換アプリケーションプログラム202は、タブレットコンピュータ10での文字入力を補助するIMEの変換機能を補助し得るアプリケーションである。IMEは、通常、言語毎(例、日本語、中国語等)に別個に用意される。以下では、日本語に対応したIMEがタブレットコンピュータ10に搭載されている場合を説明する。
The
CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
The
システムコントローラ102は、CPU101のローカルバスと各種コンポーネント・モジュールとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。システムコントローラ102は、PCI EXPRESS規格のシリアルバス等を介してグラフィックスコントローラ104との通信を実行する機能も有している。
The
グラフィックスコントローラ104は、タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。グラフィックスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。タッチパネル17B、LCD17A及びデジタイザ17Cは互いに重ね合わされている。タッチパネル17Bは、LCD17Aの画面上で入力を行うための静電容量方式のポインティングデバイスである。指が接触される画面上の接触位置及び当該接触位置の動き等は、タッチパネル17Bによって検出される。デジタイザ17Cは、LCD17Aの画面上で入力を行うための電磁誘導方式のポインティングデバイスである。ペン(デジタイザペン)100が接触される画面上の接触位置及び当該接触位置の動き等は、デジタイザ17Cによって検出される。
The
無線通信デバイス107は、無線LAN(Local Area Network)または3G移動通信等の無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じて本タブレットコンピュータ10を電源オンまたは電源オフする機能を有している。
The
次に、図3を参照して、IME変換アプリケーションプログラム202の機能構成について説明する。
Next, the functional configuration of the IME
IME変換アプリケーションプログラム202は、図3に示すように、発音情報入力部301、第1候補群表示部302、表示処理部303、第2候補群表示部304及び作業メモリ401等を備える。表示処理部303は、手書きデータ入力部303A及び手書きデータ表示部303Bを含む。
As shown in FIG. 3, the IME
前述したタッチパネル17Bは、「タッチ(接触)」、「移動(スライド)」、「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上のオブジェクト(指)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(指)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(指)が離されたことを示すイベントである。 The touch panel 17B described above is configured to detect occurrence of events such as “touch (contact)”, “movement (slide)”, and “release”. “Touch (contact)” is an event indicating that an object (finger) on the screen has touched. “Move (slide)” is an event indicating that the contact position has been moved while the object (finger) is in contact with the screen. “Release” is an event indicating that an object (finger) has been released from the screen.
前述したデジタイザ17Cも、「タッチ(接触)」、「移動(スライド)」、「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上にオブジェクト(ペン100)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(ペン100)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(ペン100)が離されたことを示すイベントである。
The
IME変換アプリケーションプログラム202は、文字を入力する際に使用可能なソフトウェアキーボードを画面上に表示する。ユーザは、このソフトウェアキーボードを操作することで任意の文字を文字入力領域に入力することができる。例えば、ローマ字入力で任意の文字を入力する場合、ユーザは「s」、「a」、「i」の順にソフトウェアキーボードを押下することで「さい」という文字を文字入力領域に入力することができる。また、かな入力で任意の文字を入力する場合、ユーザは「さ」、「い」の順にソフトウェアキーボードを押下することで「さい」という文字を文字入力領域に入力することができる。なお、ユーザが任意の文字を文字入力領域に入力する手法は、ソフトウェアキーボードを用いた手法だけに限定されない。例えば、ユーザは、USB等を介して接続されるキーボードを用いてローマ字入力またはかな入力で任意の文字を文字入力領域に入力してもよいし、指またはデジタイザペン等を用いて手書きされる文字を任意の文字入力領域に入力してもよい。以下では、ユーザの操作に応じて文字入力領域に入力された文字の発音に関する情報を発音情報(第1情報)と称する。
The IME
発音情報入力部301は、前述したソフトウェアキーボードに対する指またはペン100によるタップ操作あるいはフリック操作に応じて文字入力領域に入力された文字の発音情報を入力する。
The pronunciation
第1候補群表示部302は、発音情報入力部301によって入力された発音情報に応じた文字の複数の第1候補(第1候補群)を画面上に表示する。具体的には、第1候補群表示部302は、入力された発音情報(に応じたかな文字)を別の文字(例、漢字等)に変換する旨の変換要求を受けると、当該発音情報に応じたかな文字に対応付けられた文字を辞書データベース(以下、辞書DB(Data Base)と表記)402から抽出する。辞書DB402は、発音情報に応じたかな文字及び文字を対応付けて記憶する記憶媒体である。辞書DB402は、例えばタブレットコンピュータ10内のストレージデバイスであってもよいし、タブレットコンピュータ10に接続される外部ストレージデバイスであってもよい。例えば、辞書DB402には、発音情報に応じたかな文字「さい」に対応付けて、「際」、「最」、「差異」、「斉」、「細」等の文字が記憶されている。変換要求は、前述したソフトウェアキーボードの変換キー(スペースキー)が指またはペン100によってタップ操作されることで発音情報入力部301から第1候補群表示部302に出力される。
The first candidate
第1候補群表示部302は、辞書DB402から抽出した文字を、変換可能な文字の第1候補群として画面上に表示する。なお、辞書DB402から抽出した文字(第1候補群に含まれる文字)は、第1候補群表示部302によって作業メモリ401に一時的に保存される。
The first candidate
表示処理部303は、デジタイザ17Cを用いて検出される画面上のオブジェクト(ペン100)の動きに応じて手書きストロークを画面上に表示する。この表示処理部303により、画面にペン100が接触している間のペン100の軌跡、つまり各ストロークの軌跡が手書き入力領域に表示される。なお、IME変換アプリケーションプログラム202は、発音情報を入力可能なかな文字入力モード(第1モード)と、手書きストロークに応じたイメージデータを入力可能な手書き入力モード(第2モード)とを適宜切替可能なモード切替オブジェクトを画面上に表示してもよい。このモード切替オブジェクトが、指またはペン100によってタップ操作されることで、IME変換アプリケーションプログラム202は、かな文字入力モードと手書き入力モードとの切り替えを行う。つまり、かな文字入力モードから手書き入力モードに切り替えられることで、後述する手書きデータ入力部303Aが、1以上の手書きストロークに応じたイメージデータを入力可能な状態に移行することができる。
The
ここで、図3に示す表示処理部303の詳細について説明する。
Here, details of the
前述したように、タッチスクリーンディスプレイ17は、画面に対するタッチ操作をタッチパネル17Bまたはデジタイザ17Cで検出する。手書きデータ入力部303Aは、タッチパネル17Bまたはデジタイザ17Cを用いて検出される指またはペン100の動きに応じた手書きストロークをイメージデータとして入力する。手書きデータ入力部303Aによって入力されたイメージデータは、手書きデータ表示部303B及び第2候補群表示部304に供給される。
As described above, the
手書きデータ表示部303Bは、手書きデータ入力部303Aから供給されたイメージデータをタッチスクリーンディスプレイ17のLCD17Aに表示するモジュールである。
The handwritten
第2候補群表示部304は、作業メモリ401に保存された第1候補群に含まれる文字のうち、手書きデータ入力部303Aから供給されたイメージデータに応じた形状を含む文字の1以上の第2候補(第2候補群)を画面上に表示する。具体的には、第2候補群表示部304は、手書きデータ入力部303Aから供給されたイメージデータに対して形状認識処理を実行する。これにより、第2候補群表示部304は、イメージデータとして入力された手書きストロークの形状を認識する。第2候補群表示部304は、手書きストロークの形状を認識すると、作業メモリ401に保存された第1候補群に含まれる文字の中から、当該手書きストロークの形状を含む(当該手書きストロークの形状に対応する)文字を抽出する(変換候補絞込処理)。そして、第2候補群表示部304は、変換候補絞込処理によって抽出した文字を、変換可能な文字の第2候補群として画面上に表示する。
The second candidate
次に、図4乃至図7を参照して、IME変換アプリケーションプログラム202によって実行される処理の処理手順について説明する。
Next, a processing procedure of processing executed by the IME
始めに、発音情報入力部301は、ユーザの操作に応じて文字入力領域に入力された文字の発音情報を入力する(ブロックB1)。この時点では、例えば、図5に示すように、文字入力領域R1に入力されたかな文字(換言すると、入力された発音情報に応じたかな文字)「さい」が画面上に表示される。
First, the pronunciation
続いて、発音情報入力部301は、ユーザの操作に応じて、発音情報に応じたかな文字を別の文字に変換する旨の変換要求を第1候補群表示部302に出力する(ブロックB2)。
Subsequently, the pronunciation
次に、第1候補群表示部302は、発音情報入力部301から出力される変換要求の入力を受け付けると、入力された発音情報に応じたかな文字に対応付けられた文字を辞書DB402から抽出する。その後、第1候補群表示部302は、辞書DB402から抽出した文字を第1候補群として画面上に表示する(ブロックB3)。例えば、図6に示すように、第1候補群表示部302は、発音情報に応じたかな文字「さい」に対応付けられた「際」、「最」、「差異」、「斉」、「細」等の文字を辞書DB402から抽出し、第1候補群として画面上に表示する。なお、第1候補群表示部302は、辞書DB402から抽出され、第1候補群に含まれる文字を作業メモリ401に一時的に保存する。
Next, when receiving the input of the conversion request output from the pronunciation
続いて、手書きデータ入力部303Aは、手書き入力領域におけるペン100の動きに応じた手書きストロークをイメージデータとして入力する(ブロックB4)。イメージデータは、手書きデータ入力部303Aによって、手書きデータ表示部303B及び第2候補群表示部304に供給される。手書きデータ表示部303Bは、手書きデータ入力部303Aによって供給されたイメージデータを画面上に表示する。
Subsequently, the handwritten
次に、第2候補群表示部304は、手書き入力領域に入力されたイメージデータが手書きデータ入力部303Aから供給されると、当該イメージデータに対して形状認識処理を実行する(ブロックB5)。これにより、第2候補群表示部304は、イメージデータとして入力された手書きストロークの形状を認識することができる。例えば、図7に示すように、第2候補群表示部304は、手書き入力領域R2に入力されたイメージデータに対して形状認識処理を実行し、手書きストロークの形状が「糸」であることを認識する。
Next, when the image data input to the handwriting input area is supplied from the handwriting
しかる後、第2候補群表示部304は、作業メモリ401に保存された第1候補群に含まれる文字のうち、認識した手書きストロークの形状を含む文字を抽出し、当該抽出した文字を第2候補群として画面上に表示する(ブロックB6)。これにより、例えば図7に示すように、第2候補群表示部304は、作業メモリ401に保存された第1候補群に含まれる「際」、「最」、「差異」、「斉」、「細」等の文字のうち、認識した手書きストロークの形状「糸」を含む文字「細」だけを画面上に表示することができる。
Thereafter, the second candidate
前述では、日本語に対応したIMEを搭載したタブレットコンピュータ10でのIME変換アプリケーションプログラム202の処理について説明したが、以下に、図8乃至図10を参照して、中国語に対応したIMEを搭載したタブレットコンピュータ10でのIME変換アプリケーションプログラム202の処理についても説明する。
In the above description, the processing of the IME
まず、発音情報入力部301は、文字入力領域R1に入力された文字の発音情報を入力する。この時点では、図8に示すように、当該発音情報に応じたピン音「xi」が画面上に表示される。その後、発音情報入力部301によって変換要求が出力されると、第1候補群表示部302は、図9に示すように、発音情報に応じたピン音「xi」に対応付けられた「西」、「洗」、「細」、「吸」、「系」等の文字を辞書DB402から抽出し、第1候補群として画面上に表示する。このとき、第1候補群表示部302は、辞書DB402から抽出された第1候補群に含まれる文字を作業メモリ401に保存する。そして、手書きデータ入力部303は、図10に示すように、手書き入力領域R2におけるペン100の動きに応じた手書きストロークをイメージデータとして入力する。その後、第2候補群表示部304は、手書き入力領域R2に入力されたイメージデータに対して形状認識処理を実行する。これにより、第2候補群表示部304は、イメージデータとして入力された手書きストロークの形状が「糸」であることを認識する。そして、第2候補群表示部304は、図10に示すように、作業メモリ401に保存された第1候補群に含まれる「西」、「洗」、「細」、「吸」、「系」等の文字のうち、認識した手書きストロークの形状「糸」を含む文字「細」、「系」だけを画面上に表示する。
First, the pronunciation
以上のように、中国語に対応したIMEを搭載したタブレットコンピュータ10においても、IME変換アプリケーションプログラム202は、前述のブロックB1乃至ブロックB6の処理と同様な処理を実行することができる。
As described above, also in the
なお、本実施形態では、手書き入力領域は、図7及び図10に示す領域R2に相当するとして説明したが、これに限定されず、画面上の領域のうち、第1候補群が表示される領域を除く全ての領域が手書き入力領域に相当してもよい。 In the present embodiment, the handwriting input area has been described as corresponding to the area R2 illustrated in FIGS. 7 and 10. However, the present invention is not limited to this, and the first candidate group is displayed among the areas on the screen. All areas except the area may correspond to the handwriting input area.
また、本実施形態では、発音情報入力部301からの変換要求の入力を受け付けたときに、入力された発音情報に応じた文字の第1候補群を表示するとしたが、第1候補群を画面上に表示するタイミングはこれに限定されない。例えば、発音情報が入力される度に、当該発音情報に応じた文字の第1候補群を画面上にポップアップ表示するとしてもよい。
In this embodiment, when the input of the conversion request from the pronunciation
さらに、本実施形態では、辞書DB402には、発音情報に応じたかな文字と文字とが対応付けて記憶されているとしたが、これに限定されず、例えば辞書DB402には、文字コード(の組)と文字とが対応付けて記憶されているとしてもよい。例えば図11に示すように、「さ」の文字コードが「X」であり、「い」の文字コードが「Y」であると仮定すると、辞書DB402には、文字コード「X」及び「Y」の組に対応付けて、文字「際」、「最」、「差異」、「斉」、「細」等が記憶される。
Furthermore, in the present embodiment, the
以下に、辞書DB402に文字コード(の組)と文字とが対応付けて記憶されている場合のIME変換アプリケーションプログラム202の各種機能について説明する。ここでは、主に、既に説明した機能とは異なる第1候補群表示部302及び第2候補群表示部304の機能について説明する。
Hereinafter, various functions of the IME
第1候補群表示部302は、発音情報入力部301によって発音情報が入力されると、当該発音情報に応じたかな文字の文字コードを文字コード一覧テーブルから取得する。文字コード一覧テーブルとは、例えば図12に示すように、1つの文字と1つの文字コードとを対応付けたテーブルである。この文字コード一覧テーブルでは、平仮名だけでなく、カタカナや漢字等の文字と、その文字コードとが対応付けられる。さらに、この文字コード一覧テーブルにおいて、漢字に対応付けられる文字コードは、複数の部品文字コードによって構成される。例えば、「細」の文字コードは、「糸」の文字コードと、「田」の文字コードとの2つによって構成される。すなわち、「糸」の文字コードが「S」であり、「田」の文字コードが「T」である場合、「細」の文字コードは2つの部品文字コード「S」及び「T」によって構成される「ST」となる。
When the pronunciation information is input by the pronunciation
前述した文字コード一覧テーブルから文字コードを取得すると、第1候補群表示部302は、当該取得した文字コード(の組)に対応付けられた文字を辞書DB402から抽出する。例えば、文字コード一覧テーブルから「さ」の文字コード「X」と、「い」の文字コード「Y」とを取得した場合、第1候補群表示部302は、文字コード「X」及び「Y」の組に対応付けられた文字「際」、「最」、「差異」、「斉」、「細」等を辞書DB402から抽出する。このとき、第1候補群表示部302は、抽出した文字の文字コードを文字コード一覧テーブルから取得し、当該取得した文字コードを作業メモリ401に一時的に保存する。
When the character code is acquired from the character code list table described above, the first candidate
第2候補群表示部304は、手書きデータ入力部303Aによって手書き入力領域に手書きストロークに応じたイメージデータが入力されると、当該イメージデータに対して形状認識処理を実行する。そして、第2候補群表示部304は、前述の形状認識処理により認識した手書きストロークの形状の文字の文字コードを文字コード一覧テーブルから取得する。例えば、認識した手書きストロークの形状の文字が「糸」である場合、第2候補群表示部304は「糸」の文字コード「S」を文字コード一覧テーブルから取得する。
When the image data corresponding to the handwriting stroke is input to the handwriting input area by the handwriting
また、第2候補群表示部304は、作業メモリ401に保存された文字コードの中から、取得した文字コードを部品文字コードとして含む文字コードを抽出する。例えば、前述したように、文字コード一覧テーブルから「糸」の文字コード「S」が取得されている場合、第2候補群表示部304は、文字コード「S」を部品文字コードとして含む文字コード「ST」を抽出する。
The second candidate
以上のように、辞書DB402に文字コード(の組)と文字とが対応付けて記憶され、かつ、文字コード一覧テーブルが所望のストレージデバイスによって提供されることにより、前述したブロックB1乃至ブロックB6の処理と同様な処理を文字コードベースで実行することができる。
As described above, the character code (set) and the character are stored in the
以上説明した一実施形態によれば、タブレットコンピュータ10は、多数の変換候補の文字を含む第1候補群から、手書きストロークの形状を含む文字だけを抽出し、第2候補群として画面上に表示することができるIME変換アプリケーションプログラム202を備える。すなわち、変換したい文字等を見つけやすくすることができる。
According to the embodiment described above, the
なお、本実施形態の処理は、コンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。 Note that the processing of the present embodiment can be realized by a computer program. Therefore, the computer program can be installed and executed on a computer through a computer-readable storage medium storing the computer program. Similar effects can be easily realized.
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
10…タブレットコンピュータ、11…本体、17…フラットパネルディスプレイ、101…CPU、102…システムコントローラ、103…主メモリ、104…グラフィックスコントローラ、105…BIOS−ROM、106…不揮発性メモリ、107…無線通信デバイス、108…エンベデッドコントローラ、201…オペレーティングシステム、202…IME変換アプリケーションプログラム、301…発音情報入力部、302…第1候補群表示部、303…表示処理部、303A…手書きデータ入力部、303B…手書きデータ表示部、304…第2候補群表示部、401…作業メモリ、402…辞書データベース、R1…文字入力領域、R2…手書き入力領域。
DESCRIPTION OF
Claims (15)
手書きにより1以上のストロークを入力し、
前記複数の第1候補の中から、入力された1以上のストロークの形状に対応する文字の1以上の第2候補を表示する方法。 When first information related to the pronunciation of characters is input, a plurality of first candidates for characters corresponding to the first information are displayed,
Enter one or more strokes by hand,
A method of displaying one or more second candidates of characters corresponding to the shape of one or more input strokes from the plurality of first candidates.
前記1以上のストロークは、第2モードで、手書きにより入力され、
前記第1モードと、前記第2モードとは、切り替え可能である請求項1に記載の方法。 The first information is input by handwriting in the first mode,
The one or more strokes are input by handwriting in the second mode,
The method according to claim 1, wherein the first mode and the second mode are switchable.
手書きにより1以上のストロークを入力する入力手段と、
前記複数の第1候補の中から、入力された1以上のストロークの形状に対応する文字の1以上の第2候補を表示する第2表示手段と
を具備する電子機器。 First display means for displaying a plurality of first candidates for a character corresponding to the first information when first information relating to the pronunciation of the character is input;
Input means for inputting one or more strokes by handwriting;
An electronic device comprising: a second display unit configured to display one or more second candidates of characters corresponding to the input one or more stroke shapes from the plurality of first candidates.
前記1以上のストロークは、第2モードで、手書きにより入力され、
前記第1モードと、前記第2モードとは、切り替え可能である請求項6に記載の電子機器。 The first information is input by handwriting in the first mode,
The one or more strokes are input by handwriting in the second mode,
The electronic device according to claim 6, wherein the first mode and the second mode can be switched.
文字の発音に関する第1情報が入力された場合に、前記第1情報に対応する文字の複数の第1候補を表示する第1表示手段と、
手書きにより1以上のストロークを入力する入力手段と、
前記複数の第1候補の中から、入力された1以上のストロークの形状に対応する文字の1以上の第2候補を表示する第2表示手段として動作させるプログラム。 A program executed by a computer, wherein the program
First display means for displaying a plurality of first candidates for a character corresponding to the first information when first information relating to the pronunciation of the character is input;
Input means for inputting one or more strokes by handwriting;
A program that operates as second display means for displaying one or more second candidates of characters corresponding to one or more input stroke shapes from among the plurality of first candidates.
前記1以上のストロークは、第2モードで、手書きにより入力され、
前記第1モードと、前記第2モードとは、切り替え可能である請求項11に記載のプログラム。 The first information is input by handwriting in the first mode,
The one or more strokes are input by handwriting in the second mode,
The program according to claim 11, wherein the first mode and the second mode are switchable.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013201004A JP2015069278A (en) | 2013-09-27 | 2013-09-27 | Electronic equipment, method, and program |
CN201310666214.8A CN104516669A (en) | 2013-09-27 | 2013-12-10 | Electronic device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013201004A JP2015069278A (en) | 2013-09-27 | 2013-09-27 | Electronic equipment, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015069278A true JP2015069278A (en) | 2015-04-13 |
Family
ID=52792055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013201004A Pending JP2015069278A (en) | 2013-09-27 | 2013-09-27 | Electronic equipment, method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015069278A (en) |
CN (1) | CN104516669A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113407039A (en) * | 2020-03-17 | 2021-09-17 | 北京搜狗科技发展有限公司 | Input method, device and machine readable medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6366697B1 (en) * | 1993-10-06 | 2002-04-02 | Xerox Corporation | Rotationally desensitized unistroke handwriting recognition |
CN100501656C (en) * | 2006-10-25 | 2009-06-17 | 孙屏蹇 | Tone and shape combination method for inputting Chinese character into electronic apparatus |
CN102467319B (en) * | 2010-11-09 | 2013-09-11 | 邓桂成 | Handwriting Chinese character input method and system |
CN102221976A (en) * | 2011-07-06 | 2011-10-19 | 上海驿创信息技术有限公司 | Method for quickly inputting words based on incomplete identification |
CN102981767B (en) * | 2012-11-28 | 2015-08-19 | 中国地质大学(武汉) | A kind of individual Chinese character hand-written recognition method and system |
-
2013
- 2013-09-27 JP JP2013201004A patent/JP2015069278A/en active Pending
- 2013-12-10 CN CN201310666214.8A patent/CN104516669A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113407039A (en) * | 2020-03-17 | 2021-09-17 | 北京搜狗科技发展有限公司 | Input method, device and machine readable medium |
Also Published As
Publication number | Publication date |
---|---|
CN104516669A (en) | 2015-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10444989B2 (en) | Information processing apparatus, and input control method and program of information processing apparatus | |
US10552037B2 (en) | Software keyboard input method for realizing composite key on electronic device screen with precise and ambiguous input | |
JP6419162B2 (en) | Character input device and character input method | |
CN108121457B (en) | Method and apparatus for providing character input interface | |
KR101331697B1 (en) | Apparatus and method for inputing characters in terminal | |
US20130227460A1 (en) | Data entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods | |
US9606981B2 (en) | Electronic apparatus and method | |
US20130021256A1 (en) | Mobile terminal with touch panel function and input method for same | |
TWI502394B (en) | Electronic device and unlocking method thereof | |
JP2012088750A (en) | Electronic apparatus and character input program for electronic apparatus | |
JP2010218286A (en) | Information processor, program, and display method | |
JP5102894B1 (en) | Character input device and portable terminal device | |
WO2014045414A1 (en) | Character input device, character input method, and character input control program | |
JP5891540B2 (en) | Character input device, character input method, and program | |
CN102841752A (en) | Character input method and device of man-machine interaction device | |
CN102279652A (en) | Electronic device and input method thereof | |
JP2015213320A (en) | Handheld device and input method thereof | |
JP2015069278A (en) | Electronic equipment, method, and program | |
KR20100045617A (en) | Korean alphabet input method utilizing a multi-touch sensing touch screen | |
KR101255801B1 (en) | Mobile terminal capable of inputting hangul and method for displaying keypad thereof | |
KR101483170B1 (en) | Mobile Terminal comprising Simple English Keypad | |
KR20120130491A (en) | Method for inputting characters using a touch screen | |
JP6605921B2 (en) | Software keyboard program, character input device, and character input method | |
JP2015043145A (en) | Handwritten character input device | |
CN104317421A (en) | Key and hand Chinese character input method for cellphones |