JP6011114B2 - Character input device, character input method, and character input program - Google Patents
Character input device, character input method, and character input program Download PDFInfo
- Publication number
- JP6011114B2 JP6011114B2 JP2012167442A JP2012167442A JP6011114B2 JP 6011114 B2 JP6011114 B2 JP 6011114B2 JP 2012167442 A JP2012167442 A JP 2012167442A JP 2012167442 A JP2012167442 A JP 2012167442A JP 6011114 B2 JP6011114 B2 JP 6011114B2
- Authority
- JP
- Japan
- Prior art keywords
- finger
- user
- operation surface
- character
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、文字入力装置、文字入力方法、及び文字入力プログラムに関する。 The present invention relates to a character input device, a character input method, and a character input program.
従来、携帯電話やタブレット型PC等において、ユーザに文字入力を行わせる手法について研究が進められている。 Conventionally, research has been conducted on a method for allowing a user to input characters in a mobile phone, a tablet PC, or the like.
例えば、手指の指紋を検出する指紋検出機能付きテンキーと、テンキーを押下した手指の指紋を照合する指紋照合エンジンと、マッピングパターン用メモリとを備える携帯端末装置が知られている。この携帯端末装置におけるマッピングパターン用メモリは、テンキーの種類と50音との行(子音)とを対応付けたデータ、及び、手指の指紋と50音の段(母音)とを対応付けたデータを記憶している。そして、この携帯端末装置は、テンキーが押下されると、指紋照合エンジンによる指紋の照合結果に従って押下した手指を特定し、マッピングパターン用メモリに記憶された対応付けデータを参照して、特定の文字を入力文字として選択する。 For example, a portable terminal device is known that includes a numeric keypad with a fingerprint detection function for detecting a fingerprint of a finger, a fingerprint verification engine for verifying a fingerprint of a finger that has pressed down the numeric keypad, and a mapping pattern memory. The mapping pattern memory in this portable terminal device stores data that associates the type of numeric keypad with a line of 50 sounds (consonant) and data that associates a fingerprint of a finger with a stage of 50 sounds (vowel). I remember it. Then, when the numeric keypad is pressed, the portable terminal device identifies the finger that is pressed according to the fingerprint verification result by the fingerprint verification engine, refers to the association data stored in the mapping pattern memory, and specifies a specific character. Is selected as the input character.
また、50音のそれぞれ(濁点、半濁点等を除く)をソフトウェアキーとして表示させ、ユーザがタッチしたソフトウェアキーに対応する仮名文字を入力文字とする入力装置が知られている。この入力装置は、例えば画面上における「つ」のキーがペンによりタッチされると、「つ」の位置に隣接して、「づ」と「っ」のキーを表示させる。そして、この入力装置では、ペンによるタッチが離されたときに選択されていた文字が入力文字として選択される。 Also, an input device is known in which each of the 50 sounds (excluding muddy and semi-voiced points) is displayed as a software key, and a kana character corresponding to the software key touched by the user is used as an input character. For example, when the “one” key on the screen is touched with a pen, this input device displays the “zu” and “tsu” keys adjacent to the “one” position. In this input device, the character selected when the touch with the pen is released is selected as the input character.
また、タッチパネル上にテンキーを設定し、ユーザがタッチしたキーに基づいて子音を決定し、タッチされた後にキーから離反したか、或いはタッチされたキーを基点として所定方向へ摺動したかに基づいて母音を決定する携帯電話機が知られている。 Also, a ten key is set on the touch panel, a consonant is determined based on the key touched by the user, and it is separated from the key after being touched or based on whether the user has slid in a predetermined direction based on the touched key. Mobile phones that determine vowels are known.
しかしながら、上記従来の装置においては、多くの機械式キー又はソフトウェアキーを設定する必要があるため、ユーザが、細かいキーを操作する煩わしさを覚えることがある。 However, in the above-described conventional apparatus, since it is necessary to set many mechanical keys or software keys, the user may feel troublesome to operate fine keys.
一つの側面では、ユーザに快適な文字入力を行わせることを目的とする。 An object of one aspect is to allow a user to perform comfortable character input.
本発明の一態様は、操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する指判別部と、前記操作面に触れたユーザの指のスライド方向を検知する方向検知部と、前記指判別部により判別された指に応じて母音を決定し、前記方向検知部により検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する決定部と、を備え、前記判別部は、前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、文字入力装置である。 In one embodiment of the present invention, a finger determination unit that determines which of five fingers is a user's finger that has touched the operation surface, and a direction in which the sliding direction of the user's finger that has touched the operation surface is detected A determination unit that determines a vowel according to a finger determined by the detection unit and the finger determination unit, and determines a consonant based on a slide direction detected by the direction detection unit, thereby determining an input kana character And the determination unit determines which region of the plurality of regions set on the operation surface has been touched by the user's finger, thereby determining the user's finger that has touched the operation surface. Is a character input device that determines which of the five fingers it is.
一実施態様によれば、ユーザに快適な文字入力を行わせることができる。 According to one embodiment, the user can perform comfortable character input.
以下、本発明を実施するための形態について、添付図面を参照しながら実施例を挙げて説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.
以下、図面を参照し、文字入力装置、文字入力方法、及び文字入力プログラムの実施例について説明する。 Hereinafter, embodiments of a character input device, a character input method, and a character input program will be described with reference to the drawings.
<第1実施例>
図1は、第1実施例に係る携帯端末装置1の外観例である。携帯端末装置1は、携帯電話機やタブレット型PC等、タッチパネルによって文字入力を行わせる装置である。携帯端末装置1は、例えば、タッチパネル10と、ホームキー22等の機械式キー20と、本体部30とを備える。
<First embodiment>
FIG. 1 is an external view of a
図2は、携帯端末装置1のハードウェア構成例である。携帯端末装置1は、本体部30の内部に、CPU40と、記憶装置50と、通信装置60とを備える。また、タッチパネル10は、タッチ位置検出部12と、指紋データ取得部14とを備える。
FIG. 2 is a hardware configuration example of the
タッチ位置検出部12は、例えば、静電容量式のタッチセンサであり、タッチパネル10の内部に、例えば格子状に配置された複数の電極を備える。複数の電極は、タッチパネル10の表面にユーザの指が触れると、指表面と電極との距離に応じた静電容量と、充電電荷とに応じた電圧を発生させる。
The touch
更に、タッチパネル10の表面部は、例えば、表面側から順に、格子状に配置された複数の光センサ素子を備えた第1のガラス板、バックライトから照射された光の透過率を制御する液晶、第2のガラス板が積層された構造となっている。指紋取得部14は、タッチパネル10の表面部近傍に置かれた物体、或いは表面部に接している物体(例えばユーザの指)が、バックライトから照射された光を反射した光を光センサ素子によって検出する。指紋取得部14は、複数の光センサ素子が検出した光の強度を集約し、スキャン画像データである指紋データを生成してCPU40に提供する。なお、データを生成する機能はCPU40側で行っても構わない。
Furthermore, the surface portion of the
ここで、タッチ位置検出機能を実現するための構成として静電容量式を挙げ、指紋取得機能を実現するための機能として光検知式を挙げたが、携帯端末装置1の構成要素は、これに限定されない。例えば、携帯端末装置1は、光検知式によりタッチ位置を検出してもよいし、静電容量式により指紋データを取得してもよい。また、携帯端末装置1は、静電容量式や光検知式以外の手法によってタッチ位置の検出や指紋データの取得を行っても構わない。
Here, the capacitance type is cited as the configuration for realizing the touch position detection function, and the light detection type is cited as the function for realizing the fingerprint acquisition function. It is not limited. For example, the
CPU40は、記憶装置50に格納されたプログラムを実行し、携帯端末装置1の主要な制御を行う。記憶装置50の一例としては、例えば、SSD(Solid State Drive)やEEPROM(Electrically Erasable and Programmable Read Only Memory)、RAM(Random Access Memory)、ROM(Read Only Memory)等が挙げられる。
The
通信装置60は、図示しないアンテナにより、携帯電話の電波網等を利用してインターネットやサーバにアクセスし、各種情報を取得する。携帯端末装置1は、上記の他、スピーカやカメラ、テレビジョンアンテナ等の構成要素を有してもよい。
The
図3は、携帯端末装置1の機能構成例である。記憶装置50には、Webブラウザ等のアプリケーションソフトウェア52の他、文字入力制御ソフトウェア54、及び照合用指紋データ56が格納されている。文字入力制御ソフトウェア54は、例えば、携帯端末装置の起動場面や、アプリケーションソフトウェア52が実行されることにより、ユーザによるテキスト入力が必要となった場面等で起動される。記憶装置50へのプログラムのインストールは、携帯端末装置1の出荷時に予め格納される他、各種記憶媒体によって行われてもよいし、インターネット等のネットワークを介して行われてもよい。各種記憶媒体には、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ、SDカード等が挙げられる。
FIG. 3 is a functional configuration example of the
携帯端末装置1は、CPU40が文字入力制御ソフトウェア54を起動させて実行することにより実現される機能部として、指紋照合部42と、スライド方向検知部43と、入力文字決定部44とを含む文字入力制御部41を有する。なお、これらの機能部が明確に分離したプログラムによって実現される必要はなく、サブルーチンや関数として他のプログラムによって呼び出されるものであってもよい。また、機能部の一部が、LSI(Large Scale Integrated circuit)、IC(Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェア手段であっても構わない。
The portable
文字入力制御部41は、まず、例えばタッチパネル10の下半分に、文字入力領域を設定する。図4は、携帯端末装置1のタッチパネル10に文字入力領域10Aが設定される様子を示す図である。文字入力領域10Aは、メイン入力領域10Aaと、補助入力領域10Abとを含む。
The character input control unit 41 first sets a character input area, for example, in the lower half of the
メイン入力領域10Aaは、以下に説明するように、ユーザが指を触れて予め定められたスライド操作等をすることにより、仮名文字(第1実施例では清音のみとし、「ん」は除かれる)を入力するための領域である。 As will be described below, the main input area 10Aa allows the user to touch a finger to perform a predetermined slide operation or the like, so that kana characters (only the sound is turned off in the first embodiment, and “n” is excluded). This is an area for inputting.
補助入力領域10Abには、濁点入力キー10Aba、半濁点入力キー10Abb、小書き文字変更キー10Abc、「ん」入力キー10Abd、スペース入力キー10Abe、削除キー10Abf、変換入力キー10Abg、確定キー10Abh等が設定される。これらの入力キーをユーザがタッチすることにより、濁点や半濁点が仮名文字に付与されたり、小書き文字(「ゃ」等)に変更されたり、「ん」が入力されたり、一字削除されたり、仮名文字から漢字への変換が行われたり、変換や入力テキストの確定がされたりする。 The auxiliary input area 10Ab includes a muddy point input key 10Aba, a semi-turbid point input key 10Abb, a small character change key 10Abc, a “n” input key 10Abd, a space input key 10Abe, a delete key 10Abf, a conversion input key 10Abg, a confirmation key 10Abh, etc. Is set. When these input keys are touched by the user, the dakuten or semi-dakuten are added to the kana characters, changed to small characters (such as “nya”), “n” is entered, or one character is deleted. Conversion from kana characters to kanji, conversion or confirmation of input text.
指紋照合部42は、メイン入力領域10Aaに触れたユーザの指から指紋取得部14が取得した指紋データを照合用指紋データ56と比較し、触れた指が五指のうちいずれの指であるかを判別する。指紋データ同士の比較は、例えば、周知の回転補正処理やパターンマッチング処理等により行われる。照合用指紋データ56は、予めユーザが、携帯端末装置1の案内表示等に従って、五指のそれぞれをメイン入力領域10Aaに触れることによって登録されたデータである。ユーザは、係る動作を行うことにより、指紋を利用した文字入力機能を利用することができる。
The
スライド方向検知部43は、タッチパネル10の表面部に触れたユーザの指のスライド方向を検知する。スライド方向を検知するためには、各時点においてユーザの指が触れた代表的な位置(座標)を特定する必要がある。スライド方向検知部43は、例えば、タッチ位置検出部12が出力する複数の座標の重心点を求め、重心点の始点から終点に向かうベクトルを、ユーザの指のスライド方向として検知する。
The slide
入力文字決定部44は、上記のように指紋照合部42が判別した指に応じて母音(50音の段)を決定し、スライド方向検知部43が検知したスライド方向に基づいて子音(50音の行)を決定することにより、入力される仮名文字を決定する。
The input
図5は、携帯端末装置1の入力文字決定部44が採用する指と母音の対応関係の一例である。図5に示すように、入力文字決定部44は、親指と「あ」段を、人差し指と「い」段を、中指と「う」段を、薬指と「え」段を、小指と「お」段を、それぞれ対応付ける。
FIG. 5 is an example of a correspondence relationship between a finger and a vowel employed by the input
図6は、携帯端末装置1の入力文字決定部44が採用するスライド方向と子音の対応関係の一例である。図6に示すように、入力文字決定部44は、スライド無しの場合に「あ」行に、ユーザの指が上方向にスライドした場合に「か」行に、右上方向にスライドした場合に「さ」行に、右方向にスライドした場合に「た」行に、それぞれ子音を決定する。また、入力文字決定部44は、ユーザの指が右下方向にスライドした場合に「な」行に、下方向にスライドした場合に「は」行に、左下方向にスライドした場合に「ま」行に、左方向にスライドした場合に「や」行又は「わ」行に、それぞれ子音を決定する。また、入力文字決定部44は、ユーザの指が左上方向にスライドした場合に子音を「ら」行に決定する。入力文字決定部44は、例えば、上方向を0度として時計回りに角度を定義し、角度が0度〜22.5度の間、又は337.5度〜360度の間であれば「上方向」と判別する。また、入力文字決定部44は、角度が、22.5度〜67.5度の間であれば「右上方向」と判別する。その他の角度についても、入力文字決定部44は、同様に方向の判別を行う。図7は、携帯端末装置1の入力文字決定部44が採用する指及びスライド方向と仮名文字の対応関係の一例である。図7における「操作」欄の「・」は、タッチした後にスライドせずに離れたことを示し、その他の矢印は、タッチした後にスライドした方向を示している。
FIG. 6 is an example of a correspondence relationship between the sliding direction and the consonant adopted by the input
携帯端末装置1が、上記例示した対応付けにより入力される仮名文字を決定することにより、ユーザは、快適な文字入力を行うことができる。図8は、ユーザが、携帯端末装置1に対して仮名文字を入力する場面を例示した図である。図8は、ユーザが「さ」、「と」、「う」の三文字を入力する場面を示している。図8に示すように、ユーザは、まず、メイン入力領域10Aaに親指でタッチし、その親指を右上方向にスライドすることによって、「さ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに小指でタッチし、その小指を右方向にスライドすることによって、「と」を入力することができる。次に、メイン入力領域10Aaに中指でタッチし、その中指をスライドさせずにタッチパネル10から離すことによって、「う」を入力することができる。
When the mobile
このように、携帯端末装置1を使用するユーザは、直感的且つ効率的な文字入力を行うことができる。このため、ユーザは、文字入力に熟練するに連れて、高速な入力を行うことができる。また、ユーザは、細かく設定された機械式キーやソフトウェアキーを慎重にタッチするといった煩わしい操作をする頻度が低下するため、快適な文字入力を行うことができる。
Thus, the user who uses the portable
図9は、文字入力制御部41により実行されるフローチャートの一例である。なお、図9に示すフローチャートにおいて各処理が行われる順序は、同様の処理結果を得られる限り、如何様にも変更することができる。 FIG. 9 is an example of a flowchart executed by the character input control unit 41. In addition, the order in which each process is performed in the flowchart shown in FIG. 9 can be changed in any way as long as a similar process result is obtained.
まず、文字入力制御部41は、タッチパネル10にタッチ操作がなされるまで待機する(S100)。 First, the character input control unit 41 waits until a touch operation is performed on the touch panel 10 (S100).
タッチパネル10にタッチ操作がなされると、文字入力制御部41は、メイン入力領域10Aaへのタッチ操作であるか否かを判定する(S102)。
When a touch operation is performed on the
メイン入力領域10Aaへのタッチ操作である場合、文字入力制御部41は、指紋取得部14から指紋データを取得し(S104)、指紋データを照合用指紋データ56と比較し、タッチ操作した指が五指のうちいずれの指であるかを判別する(S106)。
In the case of a touch operation on the main input area 10Aa, the character input control unit 41 acquires fingerprint data from the fingerprint acquisition unit 14 (S104), compares the fingerprint data with the fingerprint data for
次に、文字入力制御部41は、ユーザの指が所定距離(例えば数[mm]〜十数[mm]程度)以上スライドしたか否かを判定する(S108)。ユーザの指が所定距離以上スライドしたと判定した場合、文字入力制御部41は、スライド方向を検知し(S110)、S106で判別した指と、S110で判別したスライド方向に基づいて、入力される仮名文字を決定する(S116)。 Next, the character input control unit 41 determines whether or not the user's finger has slid more than a predetermined distance (for example, about several [mm] to about several tens [mm]) (S108). When it is determined that the user's finger has slid a predetermined distance or more, the character input control unit 41 detects the slide direction (S110), and is input based on the finger determined in S106 and the slide direction determined in S110. A kana character is determined (S116).
ユーザの指が所定距離スライドしていない場合、文字入力制御部41は、ユーザの指がタッチパネル10から離れたか否かを判定する(S112)。ユーザの指がタッチパネル10から離れたと判定した場合、文字入力制御部41は、「スライド無し」と決定し(S114)、S106で判別した指と、「スライド無し」という決定に基づいて、入力される仮名文字を決定する(S116)。
When the user's finger has not slid by a predetermined distance, the character input control unit 41 determines whether or not the user's finger has left the touch panel 10 (S112). When it is determined that the user's finger has moved away from the
一方、S102で否定的な判定を得た場合(すなわち補助入力領域10Abへのタッチ操作であった場合)、文字入力制御部41は、補助入力処理を行う(S118)。補助入力処理において、文字入力制御部41は、「濁点」入力キー10Abaがタッチ操作された場合、直前に入力された仮名文字に濁点を付加する等の処理を行う。 On the other hand, if a negative determination is obtained in S102 (that is, a touch operation on the auxiliary input area 10Ab), the character input control unit 41 performs auxiliary input processing (S118). In the auxiliary input process, the character input control unit 41 performs a process such as adding a cloud point to the kana character input immediately before when the “cloud point” input key 10Aba is touched.
ここで、濁点又は半濁点の付加、及び、小書き文字への変更は、直前に入力された仮名文字を対象としてもよいし、直後に入力された仮名文字を対象としてもよい。また、タッチパネル10のサイズが両手で操作できる程度に大きい場合は、ユーザに、「濁点」入力キー10Aba等をタッチしながら仮名文字の入力を行わせてもよい。
Here, the addition of a dakuten or semi-dakuten and a change to a small character may be performed on the kana character input immediately before or on the kana character input immediately after. When the size of the
図10は、濁点又は半濁点の付加、及び小書き文字への変更が、直前に入力された仮名文字を対象とする場合に、文字「ぴ」が入力される際の操作順を示す図である。一方、図11は、濁点又は半濁点の付加、及び小書き文字への変更が、直後又は同時に入力された仮名文字を対象とする場合に、文字「ぴ」が入力される際の操作順を示す図である。 FIG. 10 is a diagram illustrating an operation sequence when the character “Pi” is input when the addition of a muddy point or a semi-turbid point and a change to a small character target a kana character input immediately before. is there. On the other hand, FIG. 11 shows the operation sequence when the character “Pi” is input when the addition of a muddy point or semi-turbid point and the change to a small character are for a kana character that is input immediately or simultaneously. FIG.
以上説明した第1実施例によれば、ユーザに快適な文字入力を行わせることができる。 According to the first embodiment described above, it is possible to make the user perform comfortable character input.
<第2実施例>
以下、第2実施例に係る携帯端末装置2について説明する。外観、ハードウェア構成、機能構成、フローチャート等については第1実施例と同様であるため、第1実施例の説明を援用して説明を省略する。
<Second embodiment>
Hereinafter, the portable
携帯端末装置2の文字入力制御部41は、濁音又は半濁音の付加、小書き文字への変更、「ん」の入力についても、メイン入力領域Aaへのユーザの操作によって行う。図12は、携帯端末装置2のタッチパネル10に文字入力領域10Aが設定される様子を示す図である。
The character input control unit 41 of the mobile
図13は、携帯端末装置2の入力文字決定部44が採用する指及びスライド方向と仮名文字の対応関係の一例である。図13において、「操作」欄の「+」の左側の記号は携帯端末装置1の場合と同様の操作(以下、基本操作と称する)を示し、「+」の右側の記号は、基本操作に付加される操作を示す。
FIG. 13 is an example of a correspondence relationship between the finger and slide direction and the kana characters employed by the input
「操作」欄において「+」の右側に「・」が一つ記載されている操作は、基本操作中に、他の指でタッチする操作を示す。「基本操作中に」とは、例えば、50音の清音(「ん」を除く)を入力するためのタッチ〜スライド終了までの間に(「あ」行の場合はタッチ中に)という意味である。例えば、ユーザは、親指でスライド無しにタッチしている(基本操作における「あ」)間に、他の指でメイン入力領域10Aaにタッチすることにより、小書き文字の「ぁ」を入力することができる。 An operation in which one “·” is written on the right side of “+” in the “operation” column indicates an operation of touching with another finger during the basic operation. “During basic operation” means, for example, between the touch for inputting a 50-tone clear sound (excluding “n”) and the end of the slide (in the case of “A” line, during touch). is there. For example, while the user is touching without sliding with the thumb (“A” in the basic operation), the user inputs the small character “A” by touching the main input area 10Aa with another finger. Can do.
また、「操作」欄において「+」の右側に「・」が二つ記載されている操作は、半濁音の付加、又は小書き文字「っ」への変更のための操作であり、基本操作中に、他の二本の指でタッチする操作、又は、他の指でタッチ及びスライドする操作を示す。以下、前者を要求する変換モードを変換モード1と、後者を要求する変換モードを変換モード2と称して説明する。
In the “Operation” column, two operations with “•” on the right side of “+” are operations for adding semi-voiced sound or changing to a small character “”. In the figure, an operation of touching with two other fingers or an operation of touching and sliding with other fingers is shown. Hereinafter, the conversion mode that requires the former will be referred to as
図14は、変換モード1が採用されている場合に、ユーザが、携帯端末装置2に対して仮名文字を入力する場面を例示した図である。図14は、ユーザが「だ」、「っ」、「ぴ」の三文字を入力する場面を示している。図14に示すように、ユーザは、まず、メイン入力領域10Aaに親指でタッチし、その親指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチすることによって、「だ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに中指でタッチし、その中指を右方向にスライドし、更に他の二本の指でメイン入力領域10Aaにタッチすることによって、小書き文字の「っ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに人差し指でタッチし、その人差し指を下方向にスライドし、更に他の二つの指でメイン入力領域10Aaにタッチすることによって、小書き文字の「ぴ」を入力することができる。
FIG. 14 is a diagram illustrating a scene in which the user inputs kana characters to the mobile
図15は、変換モード2が採用されている場合に、ユーザが、携帯端末装置2に対して仮名文字を入力する場面を例示した図である。図15も図14と同様に、ユーザが「だ」、「っ」、「ぴ」の三文字を入力する場面を示している。図15に示すように、ユーザは、まず、メイン入力領域10Aaに親指でタッチし、その親指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチすることによって、「だ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに中指でタッチし、その中指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチしてスライドさせることによって、小書き文字の「っ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに人差し指でタッチし、その人差し指を下方向にスライドし、更に他の指でメイン入力領域10Aaにタッチしてスライドさせることによって、小書き文字の「ぴ」を入力することができる。変換モード2における「他の指」のスライド幅は、通常操作に係るスライド幅よりも小幅なものであってよい。すなわち、入力文字決定部44は、図9のS108における「所定距離」よりも小さい距離を判定基準として、「他の指」がスライドしたか否かを判定してよい。
FIG. 15 is a diagram illustrating a scene in which the user inputs kana characters to the mobile
変換モード1や変換モード2のような半濁音や小書き文字「っ」の入力においては、作業が複雑となるため、これらの文字を図13で白抜きとなっている濁音や半濁音を持たない「な」行や「ま」行に割り当ててもよい。
In the input of semi-voiced sound and small character “tsu” as in
以上説明した第2実施例によれば、第1実施例と同様、ユーザに快適な文字入力を行わせることができる。 According to the second embodiment described above, it is possible to allow the user to perform comfortable character input, as in the first embodiment.
また、第2実施例の携帯端末装置2は、補助入力領域10Abに設定されるキーの数を第1実施例よりも少なくすることができる。このため、第2実施例の携帯端末装置2は、メイン入力領域10Aaを第1実施例よりも広くすることができる。また、第2実施例の携帯端末装置2は、タッチパネル10へのタッチ数を少なくすることができるため、装置の扱いに熟練したユーザであれば、第1実施例よりも効率的に文字を入力することができる。
Further, the mobile
<第3実施例>
以下、第3実施例に係る携帯端末装置3について説明する。外観については第1実施例と同様であるため、第1実施例の説明を援用して説明を省略する。
<Third embodiment>
Hereinafter, the portable
図16は、携帯端末装置3のハードウェア構成例である。携帯端末装置3は、本体部30の内部に、CPU40と、記憶装置50と、通信装置60とを備える。また、タッチパネル10は、タッチ位置検出部12を備える。
FIG. 16 is a hardware configuration example of the mobile
図17は、携帯端末装置3の機能構成例である。記憶装置50には、Webブラウザ等のアプリケーションソフトウェア52の他、文字入力制御ソフトウェア54、及び照合用指紋データ56が格納されている。文字入力制御ソフトウェア54は、例えば、携帯端末装置の起動場面や、アプリケーションソフトウェア52が実行されることにより、ユーザによるテキスト入力が必要となった場面等で起動される。
FIG. 17 is a functional configuration example of the mobile
携帯端末装置3は、CPU40が文字入力制御ソフトウェア54を起動させて実行することにより実現される機能部として、入力領域検知部45と、スライド方向検知部43と、入力文字決定部44とを含む文字入力制御部41を有する。なお、これらの機能ブロックが明確に分離したプログラムによって実現される必要はなく、サブルーチンや関数として他のプログラムによって呼び出されるものであってもよい。また、機能ブロックの一部が、LSI、ICやFPGA等のハードウェア手段であっても構わない。
The mobile
入力領域検知部45は、メイン入力領域10Aaにおいて設定される複数の領域のうち、いずれの領域にユーザの指がタッチしたかを検知する。図18は、メイン入力領域10Aaに設定される複数の領域を示す図である。メイン入力領域10Aaには、親指入力領域10Aaa、人差し指入力領域10Aab、中指入力領域10Aac、薬指入力領域10Aad、小指入力領域10Aaeが設定される。これらの領域は、例えばユーザによって視認できるように輪郭等が表示される。図19は、ユーザがメイン入力領域10Aaの各領域に指を合わせた様子を示す図である。図18及び図19は、ユーザが右効きであることを想定した図であるが、携帯端末装置3は、左利きのユーザ用に領域を変更する機能を有してもよい。
The input
このように複数の領域を設定したとしても、5領域あれば足りるため、テンキーを入力キーとして用いたり、50音それぞれの入力キーを設定したりするものに比して、領域の数は少なくなる。このため、携帯端末装置3は、従来の入力方式を採用した装置に比して、ユーザに快適な文字入力を行わせることができる。
Even if a plurality of areas are set in this way, five areas are sufficient, so the number of areas is smaller than those using ten keys as input keys or setting input keys for 50 sounds. . For this reason, the portable
スライド方向検知部43は、各領域の中で、第1及び第2実施例と同様に、タッチパネル10にタッチした指のスライド方向を検知する。
The slide
入力文字決定部44は、入力領域検知部45によって検知された領域に対応する指に応じて母音を決定し、スライド方向検知部43が検知したスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する。指及びスライド方向と、仮名文字の対応関係については、例えば、図7又は図13に示したものが採用される。図13に示した対応関係が採用される場合、第2実施例と同様に、変換モード1と変換モード2が採用され得る。
The input
図20は、ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。図20は、ユーザが「さ」、「と」、「う」の三文字を入力する場面を示している。図20に示すように、ユーザは、まず、親指入力領域10Aaaに親指でタッチし、その親指を右上方向にスライドすることによって、「さ」を入力することができる。次に、ユーザは、小指入力領域10Aaeに小指でタッチし、その小指を右方向にスライドすることによって、「と」を入力することができる。次に、メイン入力領域10Aacに中指でタッチし、その中指をスライドさせずにタッチパネル10から離すことによって、「う」を入力することができる。
FIG. 20 is a diagram illustrating a scene in which the user inputs kana characters to the mobile
図21は、図13に示す対応関係、及び変換モード1が採用されている場合に、ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。図21は、ユーザが「だ」、「っ」、「ぴ」の三文字を入力する場面を示している。図21に示すように、ユーザは、まず、親指入力領域10Aaaに親指でタッチし、その親指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチすることによって、「だ」を入力することができる。次に、ユーザは、中指入力領域10Aacに中指でタッチし、その中指を右方向にスライドし、更に他の二本の指でメイン入力領域10Aaにタッチすることによって、小書き文字の「っ」を入力することができる。次に、ユーザは、人差し指入力領域10Aabに人差し指でタッチし、その人差し指を下方向にスライドし、更に他の二本の指でメイン入力領域10Aaにタッチすることによって、小書き文字の「ぴ」を入力することができる。
FIG. 21 is a diagram illustrating a scene in which the user inputs kana characters to the mobile
図22は、図13に示す対応関係、及び変換モード2が採用されている場合に、ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。図22は、ユーザが「だ」、「っ」、「ぴ」の三文字を入力する場面を示している。図22に示すように、ユーザは、まず、親指入力領域10Aaaに親指でタッチし、その親指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチすることによって、「だ」を入力することができる。次に、ユーザは、中指入力領域10Aacに中指でタッチし、その中指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチ及びスライドすることによって、小書き文字の「っ」を入力することができる。次に、ユーザは、人差し指入力領域10Aabに人差し指でタッチし、その人差し指を下方向にスライドし、更に他の指でメイン入力領域10Aaにタッチ及びスライドすることによって、小書き文字の「ぴ」を入力することができる。
FIG. 22 is a diagram illustrating a scene in which the user inputs kana characters to the mobile
上記の入力例では各指の入力領域に対応した指でタッチ及びスライドを行っているが、第3実施例ではタッチする場所で入力する母音の位置が一意に決まるため、どの指で操作を行ってもよい。例えば、「さ」を入力する場合に本来は親指入力領域である10Aaaに人差し指でタッチし、右上にスライドして入力することも可能である。 In the above input example, the finger corresponding to the input area of each finger is touched and slid. However, in the third embodiment, the position of the vowel input at the touched location is uniquely determined, so the operation is performed with which finger. May be. For example, when inputting “sa”, it is possible to touch 10Aaa, which is originally the thumb input area, with the index finger and slide it to the upper right.
以上説明した第3実施例によれば、第1及び第2実施例と同様、ユーザに快適な文字入力を行わせることができる。 According to the third embodiment described above, as in the first and second embodiments, the user can perform comfortable character input.
なお、第1ないし第3実施例における携帯端末装置が、「文字入力装置」の一例である。また、第1ないし第3実施例におけるタッチパネル10の表面が、「操作面」の一例である。また、第1又は第2実施例における指紋データ取得部14及び指紋照合部42、或いは第3実施例における入力領域検知部45が、「判別部」の一例である。また、第1ないし第3実施例におけるスライド方向検知部43が、「検知部」の一例である。また、第1ないし第3実施例における入力文字決定部44が、「決定部」の一例である。また、第1又は第2実施例における指紋データ取得部14が、「取得部」の一例である。また、第1又は第2実施例における記憶装置50が、「記憶部」の一例である。
The portable terminal device in the first to third embodiments is an example of “character input device”. Further, the surface of the
以上、本発明を実施するための形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although the form for implementing this invention was demonstrated using the Example, this invention is not limited to such an Example at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.
例えば、半濁音の付加、又は小書き文字「っ」への変更のための操作(図13における「・・」に相当)として、基本操作中に、他の二本の指でタッチする操作と、他の指でタッチ及びスライドする操作を例示したが、これに限られない。携帯端末装置は、半濁音の付加、又は小書き文字「っ」への変更のための操作として、基本操作中に、他の指で二回タッチする操作をユーザに要求してもよい。 For example, as an operation for adding a semi-voiced sound or changing to a small character “” (corresponding to “••” in FIG. 13), an operation of touching with two other fingers during a basic operation Although the operation of touching and sliding with another finger is illustrated, the present invention is not limited to this. The portable terminal device may request the user to perform an operation of touching twice with another finger during the basic operation as an operation for adding a semi-voiced sound or changing to a small character “”.
以上の第1〜第3実施例を含む実施形態に関し、さらに以下の項を開示する。
(付記1)
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する判別部と、
前記操作面に触れたユーザの指のスライド方向を検知する検知部と、
前記判別部により判別された指に応じて母音を決定し、前記検知部により検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する決定部と、
を備える文字入力装置。
(付記2)
付記1記載の文字入力装置であって、
前記操作面に触れたユーザの指から指紋データを取得する取得部と、
予め取得されたユーザの指毎の指紋データを格納する記憶部と、を備え、
前記判別部は、前記取得部により取得された指紋データと、前記記憶部に格納された指紋データとを照合することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力装置。
(付記3)
付記1記載の文字入力装置であって、
前記判別部は、前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力装置。
(付記4)
付記1ないし3のうちいずれか1項の文字入力装置であって、
前記決定部は、前記ユーザによる前記操作面に指で触れてスライドさせる操作を検知しているときに、該操作に係る指とは異なる指が前記操作面に触れた場合に、濁点の付加、半濁点の付加、小書き文字への変更の少なくとも一部を実行する、
文字入力装置。
(付記5)
文字入力装置が、
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別し、
前記操作面に触れたユーザの指のスライド方向を検知し、
前記五指のうちいずれの指であるか判別された指に応じて母音を決定し、前記検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する、
文字入力方法。
(付記6)
付記5記載の文字入力方法であって、
前記文字入力装置が、
前記操作面に触れたユーザの指から指紋データを取得し、
前記取得された指紋データと、予め取得されたユーザの指毎の指紋データを格納する記憶部に格納された指紋データとを照合することにより、操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力方法。
(付記7)
付記5記載の文字入力方法であって、
前記文字入力装置が、
前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力方法。
(付記8)
付記5ないし7のうちいずれか1項の文字入力方法であって、
前記文字入力装置が、
前記決定する処理において、前記ユーザによる前記操作面に指で触れてスライドさせる操作を検知しているときに、該操作に係る指とは異なる指が前記操作面に触れた場合に、濁点の付加、半濁点の付加、小書き文字への変更の少なくとも一部を実行する、
文字入力方法。
(付記9)
文字入力装置に、
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させ、
前記操作面に触れたユーザの指が前記操作面上でスライドした方向を判別させ、
前記五指のうちいずれの指であるか判別された指に応じて母音を決定させ、前記検知されたスライド方向に基づいて子音を決定させることにより、入力される仮名文字を決定させる、
文字入力プログラム。
(付記10)
付記9記載の文字入力プログラムであって、
前記文字入力装置に、
前記操作面に触れたユーザの指から指紋データを取得させ、
前記取得された指紋データと、予め取得されたユーザの指毎の指紋データを格納する記憶部に格納された指紋データとを照合することにより、操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させる、
文字入力プログラム。
(付記11)
付記9記載の文字入力プログラムであって、
前記文字入力装置に、
前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させる、
文字入力プログラム。
(付記12)
付記9ないし11のうちいずれか1項の文字入力方法であって、
前記文字入力装置に、
前記決定する処理において、前記ユーザによる前記操作面に指で触れてスライドさせる操作を検知しているときに、該操作に係る指とは異なる指が前記操作面に触れた場合に、濁点の付加、半濁点の付加、小書き文字への変更の少なくとも一部を実行させる、
文字入力プログラム。
The following items are further disclosed regarding the embodiment including the first to third examples.
(Appendix 1)
A discriminator for discriminating which of the five fingers the user's finger touching the operation surface;
A detection unit for detecting a sliding direction of a user's finger touching the operation surface;
Determining a vowel according to the finger determined by the determining unit, determining a consonant based on a sliding direction detected by the detecting unit, and determining a kana character to be input;
A character input device comprising:
(Appendix 2)
A character input device according to
An acquisition unit for acquiring fingerprint data from a user's finger touching the operation surface;
A storage unit for storing fingerprint data for each finger of the user acquired in advance,
The discrimination unit collates the fingerprint data acquired by the acquisition unit with the fingerprint data stored in the storage unit, so that the user's finger touching the operation surface is any of the five fingers. To determine if it exists,
Character input device.
(Appendix 3)
A character input device according to
The determination unit determines which of the plurality of regions set on the operation surface is touched by the user's finger, so that the user's finger touching the operation surface is one of the five fingers To determine if it is a finger,
Character input device.
(Appendix 4)
The character input device according to any one of
When the determination unit detects an operation of touching and sliding the operation surface by the user with a finger, when a finger different from the finger related to the operation touches the operation surface, adding a cloud point, Add at least some of the addition of semi-turbidity points and changes to small letters,
Character input device.
(Appendix 5)
The character input device
Determine which of the five fingers is the user ’s finger touching the operation surface,
Detecting the sliding direction of the user's finger touching the operation surface;
Determining a vowel according to a finger that has been identified as one of the five fingers and determining a consonant based on the detected sliding direction to determine an input kana character;
Character input method.
(Appendix 6)
The character input method according to appendix 5,
The character input device is
Get fingerprint data from the user's finger touching the operation surface,
By collating the acquired fingerprint data with the fingerprint data stored in the storage unit storing the fingerprint data for each finger of the user acquired in advance, the user's finger touching the operation surface is To determine which finger it is,
Character input method.
(Appendix 7)
The character input method according to appendix 5,
The character input device is
Which of the five fingers is the user's finger touching the operation surface by determining which region of the plurality of regions set on the operation surface is touched by the user's finger To determine the
Character input method.
(Appendix 8)
The character input method according to any one of appendices 5 to 7,
The character input device is
In the process of determining, when detecting an operation of touching and sliding the operation surface by the user with a finger, adding a cloud point when a finger different from the finger related to the operation touches the operation surface , Perform at least part of adding semi-turbidity and changing to small characters,
Character input method.
(Appendix 9)
In the character input device,
The user's finger touching the operation surface is identified as one of the five fingers,
Determining the direction in which the finger of the user touching the operation surface slides on the operation surface;
Determining a vowel according to a finger that has been identified as one of the five fingers, and determining a consonant based on the detected sliding direction, thereby determining an input kana character;
Character input program.
(Appendix 10)
A character input program according to appendix 9,
In the character input device,
Fingerprint data is obtained from the user's finger touching the operation surface;
By collating the acquired fingerprint data with the fingerprint data stored in the storage unit storing the fingerprint data for each finger of the user acquired in advance, the user's finger touching the operation surface is To determine which finger it is,
Character input program.
(Appendix 11)
A character input program according to appendix 9,
In the character input device,
Which of the five fingers is the user's finger touching the operation surface by determining which region of the plurality of regions set on the operation surface is touched by the user's finger To determine,
Character input program.
(Appendix 12)
The character input method according to any one of appendices 9 to 11,
In the character input device,
In the process of determining, when detecting an operation of touching and sliding the operation surface by the user with a finger, adding a cloud point when a finger different from the finger related to the operation touches the operation surface , Execute at least part of adding semi-turbidity and changing to small characters,
Character input program.
1 携帯端末装置
10 タッチパネル
12 タッチ位置検出部
14 指紋データ取得部
20 機械式キー
22 ホームキー
30 本体部
40 CPU
41 文字入力制御部
42 指紋照合部
43 スライド方向検知部
44 入力文字決定部
45 入力領域検知部
50 記憶装置
52 アプリケーションソフトウェア
54 文字入力制御ソフトウェア
56 照合用指紋データ
60 通信装置
DESCRIPTION OF
DESCRIPTION OF SYMBOLS 41 Character
Claims (5)
前記操作面に触れたユーザの指のスライド方向を検知する検知部と、
前記判別部により判別された指に応じて母音を決定し、前記検知部により検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する決定部と、
を備え、
前記判別部は、前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力装置。 A discriminator for discriminating which of the five fingers the user's finger touching the operation surface;
A detection unit for detecting a sliding direction of a user's finger touching the operation surface;
Determining a vowel according to the finger determined by the determining unit, determining a consonant based on a sliding direction detected by the detecting unit, and determining a kana character to be input;
Equipped with a,
The determination unit determines which of the plurality of regions set on the operation surface is touched by the user's finger, so that the user's finger touching the operation surface is one of the five fingers To determine if it is a finger,
Character input device.
前記操作面に触れたユーザの指のスライド方向を検知する検知部と、
前記判別部により判別された指に応じて母音を決定し、前記検知部により検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する決定部と、
を備え、
前記決定部は、前記ユーザによる前記操作面に指で触れてスライドさせる操作を検知しているときに、該操作に係る指とは異なる指が前記操作面に触れた場合に、濁点の付加、半濁点の付加、小書き文字への変更の少なくとも一部を実行する、
文字入力装置。 A discriminator for discriminating which of the five fingers the user's finger touching the operation surface;
A detection unit for detecting a sliding direction of a user's finger touching the operation surface;
Determining a vowel according to the finger determined by the determining unit, determining a consonant based on a sliding direction detected by the detecting unit, and determining a kana character to be input;
Equipped with a,
When the determination unit detects an operation of touching and sliding the operation surface by the user with a finger, when a finger different from the finger related to the operation touches the operation surface, adding a cloud point, Add at least some of the addition of semi-turbidity points and changes to small letters,
Character input device.
前記操作面に触れたユーザの指から指紋データを取得する取得部と、
予め取得されたユーザの指毎の指紋データを格納する記憶部と、を備え、
前記判別部は、前記取得部により取得された指紋データと、前記記憶部に格納された指紋データとを照合することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力装置。 The character input device according to claim 2 ,
An acquisition unit for acquiring fingerprint data from a user's finger touching the operation surface;
A storage unit for storing fingerprint data for each finger of the user acquired in advance,
The discrimination unit collates the fingerprint data acquired by the acquisition unit with the fingerprint data stored in the storage unit, so that the user's finger touching the operation surface is any of the five fingers. To determine if it exists,
Character input device.
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別し、
前記操作面に触れたユーザの指のスライド方向を検知し、
前記五指のうちいずれの指であるか判別された指に応じて母音を決定し、前記検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定し、
前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力方法。 The character input device
Determine which of the five fingers is the user ’s finger touching the operation surface,
Detecting the sliding direction of the user's finger touching the operation surface;
A vowel is determined according to a finger that is identified as one of the five fingers, and a kana character to be input is determined by determining a consonant based on the detected sliding direction ,
Which of the five fingers is the user's finger touching the operation surface by determining which region of the plurality of regions set on the operation surface is touched by the user's finger To determine the
Character input method.
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させ、
前記操作面に触れたユーザの指が前記操作面上でスライドした方向を検知させ、
前記五指のうちいずれの指であるか判別された指に応じて母音を決定させ、前記検知されたスライド方向に基づいて子音を決定させることにより、入力される仮名文字を決定させ、
前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別させることにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させる、
文字入力プログラム。 In the character input device,
The user's finger touching the operation surface is identified as one of the five fingers,
Detecting a direction in which a user's finger touching the operation surface slides on the operation surface;
The vowel is determined according to the finger that has been identified as one of the five fingers, the consonant is determined based on the detected sliding direction, and the input kana character is determined ,
Which of the five fingers is the user's finger touching the operation surface by determining which region of the plurality of regions set on the operation surface is touched by the user's finger To determine,
Character input program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012167442A JP6011114B2 (en) | 2012-07-27 | 2012-07-27 | Character input device, character input method, and character input program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012167442A JP6011114B2 (en) | 2012-07-27 | 2012-07-27 | Character input device, character input method, and character input program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014026526A JP2014026526A (en) | 2014-02-06 |
JP6011114B2 true JP6011114B2 (en) | 2016-10-19 |
Family
ID=50200100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012167442A Expired - Fee Related JP6011114B2 (en) | 2012-07-27 | 2012-07-27 | Character input device, character input method, and character input program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6011114B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015219630A (en) * | 2014-05-15 | 2015-12-07 | 株式会社リコー | Information processor, information processing method and program |
JP6455476B2 (en) * | 2016-03-28 | 2019-01-23 | 京セラドキュメントソリューションズ株式会社 | Display operation device and operation instruction receiving program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000066784A (en) * | 1998-08-26 | 2000-03-03 | Nissan Motor Co Ltd | Display and operation device for automobile |
JP2008046692A (en) * | 2006-08-10 | 2008-02-28 | Fujitsu Ten Ltd | Input device |
JP2010287007A (en) * | 2009-06-11 | 2010-12-24 | Sony Corp | Input device and input method |
-
2012
- 2012-07-27 JP JP2012167442A patent/JP6011114B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014026526A (en) | 2014-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105824559B (en) | False touch recognition and processing method and electronic equipment | |
US8446389B2 (en) | Techniques for creating a virtual touchscreen | |
EP2359224B1 (en) | Generating gestures tailored to a hand resting on a surface | |
US20100103141A1 (en) | Techniques for Controlling Operation of a Device with a Virtual Touchscreen | |
JP4979600B2 (en) | Portable terminal device and display control method | |
KR100928902B1 (en) | Touch screen to adapt the information provided by the use of a touching tool or finger | |
JP6180888B2 (en) | Electronic device, method and program | |
CN111488078A (en) | Touch processing method and electronic device supporting the same | |
CN110874117B (en) | Method for operating handheld device, and computer-readable recording medium | |
WO2012114876A1 (en) | Electronic device, content display method and content display program | |
JP2015133140A (en) | Portable terminal device | |
JP6426417B2 (en) | Electronic device, method and program | |
EP2835722A1 (en) | Input device | |
JP2013238919A (en) | Electronic device and handwritten document search method | |
US20140240234A1 (en) | Input Device | |
JPWO2009031213A1 (en) | Portable terminal device and display control method | |
JP2014016743A (en) | Information processing device, information processing device control method and information processing device control program | |
JP6011114B2 (en) | Character input device, character input method, and character input program | |
JPWO2014045414A1 (en) | Character input device, character input method, character input control program | |
JP6599504B2 (en) | Touch error calibration method and system | |
JP5284523B1 (en) | Information processing system, program, and processing method of information processing system | |
JP2015088147A (en) | Touch panel input device and input processing program | |
US20130069881A1 (en) | Electronic device and method of character entry | |
TW201426507A (en) | System and method for controlling virtual keyboards | |
US20100245266A1 (en) | Handwriting processing apparatus, computer program product, and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6011114 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
LAPS | Cancellation because of no payment of annual fees |