JP6011114B2 - Character input device, character input method, and character input program - Google Patents

Character input device, character input method, and character input program Download PDF

Info

Publication number
JP6011114B2
JP6011114B2 JP2012167442A JP2012167442A JP6011114B2 JP 6011114 B2 JP6011114 B2 JP 6011114B2 JP 2012167442 A JP2012167442 A JP 2012167442A JP 2012167442 A JP2012167442 A JP 2012167442A JP 6011114 B2 JP6011114 B2 JP 6011114B2
Authority
JP
Japan
Prior art keywords
finger
user
operation surface
character
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012167442A
Other languages
Japanese (ja)
Other versions
JP2014026526A (en
Inventor
康一郎 麻生
康一郎 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012167442A priority Critical patent/JP6011114B2/en
Publication of JP2014026526A publication Critical patent/JP2014026526A/en
Application granted granted Critical
Publication of JP6011114B2 publication Critical patent/JP6011114B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、文字入力装置、文字入力方法、及び文字入力プログラムに関する。   The present invention relates to a character input device, a character input method, and a character input program.

従来、携帯電話やタブレット型PC等において、ユーザに文字入力を行わせる手法について研究が進められている。   Conventionally, research has been conducted on a method for allowing a user to input characters in a mobile phone, a tablet PC, or the like.

例えば、手指の指紋を検出する指紋検出機能付きテンキーと、テンキーを押下した手指の指紋を照合する指紋照合エンジンと、マッピングパターン用メモリとを備える携帯端末装置が知られている。この携帯端末装置におけるマッピングパターン用メモリは、テンキーの種類と50音との行(子音)とを対応付けたデータ、及び、手指の指紋と50音の段(母音)とを対応付けたデータを記憶している。そして、この携帯端末装置は、テンキーが押下されると、指紋照合エンジンによる指紋の照合結果に従って押下した手指を特定し、マッピングパターン用メモリに記憶された対応付けデータを参照して、特定の文字を入力文字として選択する。   For example, a portable terminal device is known that includes a numeric keypad with a fingerprint detection function for detecting a fingerprint of a finger, a fingerprint verification engine for verifying a fingerprint of a finger that has pressed down the numeric keypad, and a mapping pattern memory. The mapping pattern memory in this portable terminal device stores data that associates the type of numeric keypad with a line of 50 sounds (consonant) and data that associates a fingerprint of a finger with a stage of 50 sounds (vowel). I remember it. Then, when the numeric keypad is pressed, the portable terminal device identifies the finger that is pressed according to the fingerprint verification result by the fingerprint verification engine, refers to the association data stored in the mapping pattern memory, and specifies a specific character. Is selected as the input character.

また、50音のそれぞれ(濁点、半濁点等を除く)をソフトウェアキーとして表示させ、ユーザがタッチしたソフトウェアキーに対応する仮名文字を入力文字とする入力装置が知られている。この入力装置は、例えば画面上における「つ」のキーがペンによりタッチされると、「つ」の位置に隣接して、「づ」と「っ」のキーを表示させる。そして、この入力装置では、ペンによるタッチが離されたときに選択されていた文字が入力文字として選択される。   Also, an input device is known in which each of the 50 sounds (excluding muddy and semi-voiced points) is displayed as a software key, and a kana character corresponding to the software key touched by the user is used as an input character. For example, when the “one” key on the screen is touched with a pen, this input device displays the “zu” and “tsu” keys adjacent to the “one” position. In this input device, the character selected when the touch with the pen is released is selected as the input character.

また、タッチパネル上にテンキーを設定し、ユーザがタッチしたキーに基づいて子音を決定し、タッチされた後にキーから離反したか、或いはタッチされたキーを基点として所定方向へ摺動したかに基づいて母音を決定する携帯電話機が知られている。   Also, a ten key is set on the touch panel, a consonant is determined based on the key touched by the user, and it is separated from the key after being touched or based on whether the user has slid in a predetermined direction based on the touched key. Mobile phones that determine vowels are known.

特開2009−205519号公報JP 2009-205519 A 特開2002−91676号公報JP 2002-91676 A 特開2010−9564号公報JP 2010-9564 A

しかしながら、上記従来の装置においては、多くの機械式キー又はソフトウェアキーを設定する必要があるため、ユーザが、細かいキーを操作する煩わしさを覚えることがある。   However, in the above-described conventional apparatus, since it is necessary to set many mechanical keys or software keys, the user may feel troublesome to operate fine keys.

一つの側面では、ユーザに快適な文字入力を行わせることを目的とする。   An object of one aspect is to allow a user to perform comfortable character input.

本発明の一態様は、操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する指判別部と、前記操作面に触れたユーザの指のスライド方向を検知する方向検知部と、前記指判別部により判別された指に応じて母音を決定し、前記方向検知部により検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する決定部と、を備え、前記判別部は、前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、文字入力装置である。 In one embodiment of the present invention, a finger determination unit that determines which of five fingers is a user's finger that has touched the operation surface, and a direction in which the sliding direction of the user's finger that has touched the operation surface is detected A determination unit that determines a vowel according to a finger determined by the detection unit and the finger determination unit, and determines a consonant based on a slide direction detected by the direction detection unit, thereby determining an input kana character And the determination unit determines which region of the plurality of regions set on the operation surface has been touched by the user's finger, thereby determining the user's finger that has touched the operation surface. Is a character input device that determines which of the five fingers it is.

一実施態様によれば、ユーザに快適な文字入力を行わせることができる。   According to one embodiment, the user can perform comfortable character input.

第1実施例に係る携帯端末装置1の外観例である。It is an external appearance example of the portable terminal device 1 which concerns on 1st Example. 携帯端末装置1のハードウェア構成例である。3 is a hardware configuration example of the mobile terminal device 1. 携帯端末装置1の機能構成例である。2 is a functional configuration example of a mobile terminal device 1. 携帯端末装置1のタッチパネル10に文字入力領域10Aが設定される様子を示す図である。It is a figure which shows a mode that 10 A of character input areas are set to the touch panel 10 of the portable terminal device. 携帯端末装置1の入力文字決定部44が採用する指と母音の対応関係の一例である。It is an example of the correspondence of a finger and a vowel which the input character determination part 44 of the portable terminal device 1 employ | adopts. 携帯端末装置1の入力文字決定部44が採用するスライド方向と子音の対応関係の一例である。It is an example of the correspondence between the slide direction and the consonant adopted by the input character determination unit 44 of the mobile terminal device 1. 携帯端末装置1の入力文字決定部44が採用する指及びスライド方向と仮名文字の対応関係の一例である。4 is an example of a correspondence relationship between a finger and a sliding direction and a kana character employed by an input character determination unit 44 of the mobile terminal device 1. ユーザが、携帯端末装置1に対して仮名文字を入力する場面を例示した図である。3 is a diagram illustrating a scene in which a user inputs kana characters to the mobile terminal device 1; FIG. 文字入力制御部41により実行されるフローチャートの一例である。4 is an example of a flowchart executed by a character input control unit 41. 濁点又は半濁点の付加、及び小書き文字への変更が、直前に入力された仮名文字を対象とする場合に、文字「ぴ」が入力される際の操作順を示す図である。FIG. 10 is a diagram illustrating an operation order when a character “Pi” is input when adding a dakuten or semi-dakuten and changing to a small character are for a kana character input immediately before. 濁点又は半濁点の付加、及び小書き文字への変更が、直後又は同時に入力された仮名文字を対象とする場合に、文字「ぴ」が入力される際の操作順を示す図である。FIG. 10 is a diagram illustrating an operation order when a character “Pi” is input in the case where a kana character input immediately after or simultaneously with the addition of a dakuten or semi-dakuten and a change to a small character is a target. 携帯端末装置2のタッチパネル10に文字入力領域10Aが設定される様子を示す図である。It is a figure which shows a mode that 10 A of character input areas are set to the touch panel 10 of the portable terminal device. 携帯端末装置2の入力文字決定部44が採用する指及びスライド方向と仮名文字の対応関係の一例である。7 is an example of a correspondence relationship between a finger and a sliding direction and a kana character employed by an input character determination unit 44 of the mobile terminal device 2. 変換モード1が採用されている場合に、ユーザが、携帯端末装置2に対して仮名文字を入力する場面を例示した図である。6 is a diagram illustrating a scene in which a user inputs kana characters to the mobile terminal device 2 when conversion mode 1 is employed. FIG. 変換モード2が採用されている場合に、ユーザが、携帯端末装置2に対して仮名文字を入力する場面を例示した図である。FIG. 6 is a diagram illustrating a scene in which a user inputs kana characters to the mobile terminal device 2 when conversion mode 2 is employed. 携帯端末装置3のハードウェア構成例である。2 is a hardware configuration example of a mobile terminal device 3; 携帯端末装置3の機能構成例である。3 is a functional configuration example of a mobile terminal device 3. メイン入力領域10Aaに設定される複数の領域を示す図である。It is a figure which shows the several area | region set to main input area 10Aa. ユーザがメイン入力領域10Aaの各領域に指を合わせた様子を示す図である。It is a figure which shows a mode that the user put the finger | toe on each area | region of 10 Aa of main input areas. ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。FIG. 6 is a diagram illustrating a scene in which a user inputs kana characters to the mobile terminal device 3. 図13に示す対応関係、及び変換モード1が採用されている場合に、ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。FIG. 14 is a diagram illustrating a scene in which a user inputs a kana character to the mobile terminal device 3 when the correspondence relationship illustrated in FIG. 13 and conversion mode 1 are employed. 図13に示す対応関係、及び変換モード2が採用されている場合に、ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。It is the figure which illustrated the scene where a user inputs a kana character with respect to the portable terminal device 3 when the correspondence shown in FIG. 13 and the conversion mode 2 are employ | adopted.

以下、本発明を実施するための形態について、添付図面を参照しながら実施例を挙げて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.

以下、図面を参照し、文字入力装置、文字入力方法、及び文字入力プログラムの実施例について説明する。   Hereinafter, embodiments of a character input device, a character input method, and a character input program will be described with reference to the drawings.

<第1実施例>
図1は、第1実施例に係る携帯端末装置1の外観例である。携帯端末装置1は、携帯電話機やタブレット型PC等、タッチパネルによって文字入力を行わせる装置である。携帯端末装置1は、例えば、タッチパネル10と、ホームキー22等の機械式キー20と、本体部30とを備える。
<First embodiment>
FIG. 1 is an external view of a mobile terminal device 1 according to the first embodiment. The mobile terminal device 1 is a device for inputting characters using a touch panel, such as a mobile phone or a tablet PC. The mobile terminal device 1 includes, for example, a touch panel 10, a mechanical key 20 such as a home key 22, and a main body 30.

図2は、携帯端末装置1のハードウェア構成例である。携帯端末装置1は、本体部30の内部に、CPU40と、記憶装置50と、通信装置60とを備える。また、タッチパネル10は、タッチ位置検出部12と、指紋データ取得部14とを備える。   FIG. 2 is a hardware configuration example of the mobile terminal device 1. The mobile terminal device 1 includes a CPU 40, a storage device 50, and a communication device 60 inside the main body 30. The touch panel 10 includes a touch position detection unit 12 and a fingerprint data acquisition unit 14.

タッチ位置検出部12は、例えば、静電容量式のタッチセンサであり、タッチパネル10の内部に、例えば格子状に配置された複数の電極を備える。複数の電極は、タッチパネル10の表面にユーザの指が触れると、指表面と電極との距離に応じた静電容量と、充電電荷とに応じた電圧を発生させる。   The touch position detection unit 12 is, for example, a capacitive touch sensor, and includes a plurality of electrodes arranged in, for example, a lattice shape inside the touch panel 10. When the user's finger touches the surface of the touch panel 10, the plurality of electrodes generate a capacitance corresponding to the distance between the finger surface and the electrode and a voltage corresponding to the charge.

更に、タッチパネル10の表面部は、例えば、表面側から順に、格子状に配置された複数の光センサ素子を備えた第1のガラス板、バックライトから照射された光の透過率を制御する液晶、第2のガラス板が積層された構造となっている。指紋取得部14は、タッチパネル10の表面部近傍に置かれた物体、或いは表面部に接している物体(例えばユーザの指)が、バックライトから照射された光を反射した光を光センサ素子によって検出する。指紋取得部14は、複数の光センサ素子が検出した光の強度を集約し、スキャン画像データである指紋データを生成してCPU40に提供する。なお、データを生成する機能はCPU40側で行っても構わない。   Furthermore, the surface portion of the touch panel 10 is, for example, a first glass plate provided with a plurality of photosensor elements arranged in a grid pattern in order from the surface side, and a liquid crystal that controls the transmittance of light emitted from the backlight. The second glass plate is laminated. The fingerprint acquisition unit 14 uses an optical sensor element to reflect light reflected from light emitted from the backlight by an object placed near the surface of the touch panel 10 or an object in contact with the surface (for example, a user's finger). To detect. The fingerprint acquisition unit 14 aggregates the light intensities detected by the plurality of optical sensor elements, generates fingerprint data that is scan image data, and provides the fingerprint data to the CPU 40. Note that the function of generating data may be performed on the CPU 40 side.

ここで、タッチ位置検出機能を実現するための構成として静電容量式を挙げ、指紋取得機能を実現するための機能として光検知式を挙げたが、携帯端末装置1の構成要素は、これに限定されない。例えば、携帯端末装置1は、光検知式によりタッチ位置を検出してもよいし、静電容量式により指紋データを取得してもよい。また、携帯端末装置1は、静電容量式や光検知式以外の手法によってタッチ位置の検出や指紋データの取得を行っても構わない。   Here, the capacitance type is cited as the configuration for realizing the touch position detection function, and the light detection type is cited as the function for realizing the fingerprint acquisition function. It is not limited. For example, the mobile terminal device 1 may detect a touch position by a light detection method, or may acquire fingerprint data by a capacitance method. Further, the mobile terminal device 1 may perform touch position detection or fingerprint data acquisition by a method other than the capacitance type or the light detection type.

CPU40は、記憶装置50に格納されたプログラムを実行し、携帯端末装置1の主要な制御を行う。記憶装置50の一例としては、例えば、SSD(Solid State Drive)やEEPROM(Electrically Erasable and Programmable Read Only Memory)、RAM(Random Access Memory)、ROM(Read Only Memory)等が挙げられる。   The CPU 40 executes a program stored in the storage device 50 and performs main control of the mobile terminal device 1. Examples of the storage device 50 include an SSD (Solid State Drive), an EEPROM (Electrically Erasable and Programmable Read Only Memory), a RAM (Random Access Memory), and a ROM (Read Only Memory).

通信装置60は、図示しないアンテナにより、携帯電話の電波網等を利用してインターネットやサーバにアクセスし、各種情報を取得する。携帯端末装置1は、上記の他、スピーカやカメラ、テレビジョンアンテナ等の構成要素を有してもよい。   The communication device 60 accesses the Internet and a server by using a radio wave network of a cellular phone or the like using an antenna (not shown) and acquires various information. In addition to the above, the mobile terminal device 1 may include components such as a speaker, a camera, and a television antenna.

図3は、携帯端末装置1の機能構成例である。記憶装置50には、Webブラウザ等のアプリケーションソフトウェア52の他、文字入力制御ソフトウェア54、及び照合用指紋データ56が格納されている。文字入力制御ソフトウェア54は、例えば、携帯端末装置の起動場面や、アプリケーションソフトウェア52が実行されることにより、ユーザによるテキスト入力が必要となった場面等で起動される。記憶装置50へのプログラムのインストールは、携帯端末装置1の出荷時に予め格納される他、各種記憶媒体によって行われてもよいし、インターネット等のネットワークを介して行われてもよい。各種記憶媒体には、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ、SDカード等が挙げられる。   FIG. 3 is a functional configuration example of the mobile terminal device 1. In addition to application software 52 such as a Web browser, the storage device 50 stores character input control software 54 and collation fingerprint data 56. The character input control software 54 is activated, for example, at a scene where the mobile terminal device is activated or when the application software 52 is executed so that text input by the user is required. The installation of the program in the storage device 50 may be performed by various storage media in addition to being stored in advance when the mobile terminal device 1 is shipped, or may be performed via a network such as the Internet. Various storage media include CD (Compact Disc) -ROM, DVD (Digital Versatile Disc), USB (Universal Serial Bus) memory, SD card, and the like.

携帯端末装置1は、CPU40が文字入力制御ソフトウェア54を起動させて実行することにより実現される機能部として、指紋照合部42と、スライド方向検知部43と、入力文字決定部44とを含む文字入力制御部41を有する。なお、これらの機能部が明確に分離したプログラムによって実現される必要はなく、サブルーチンや関数として他のプログラムによって呼び出されるものであってもよい。また、機能部の一部が、LSI(Large Scale Integrated circuit)、IC(Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェア手段であっても構わない。   The portable terminal device 1 includes a fingerprint collation unit 42, a slide direction detection unit 43, and an input character determination unit 44 as functional units realized by the CPU 40 starting and executing the character input control software 54. An input control unit 41 is included. Note that these functional units do not need to be realized by a clearly separated program, and may be called by other programs as subroutines or functions. Also, a part of the functional unit may be hardware means such as an LSI (Large Scale Integrated circuit), an IC (Integrated Circuit), or an FPGA (Field Programmable Gate Array).

文字入力制御部41は、まず、例えばタッチパネル10の下半分に、文字入力領域を設定する。図4は、携帯端末装置1のタッチパネル10に文字入力領域10Aが設定される様子を示す図である。文字入力領域10Aは、メイン入力領域10Aaと、補助入力領域10Abとを含む。   The character input control unit 41 first sets a character input area, for example, in the lower half of the touch panel 10. FIG. 4 is a diagram illustrating a state where the character input area 10 </ b> A is set on the touch panel 10 of the mobile terminal device 1. The character input area 10A includes a main input area 10Aa and an auxiliary input area 10Ab.

メイン入力領域10Aaは、以下に説明するように、ユーザが指を触れて予め定められたスライド操作等をすることにより、仮名文字(第1実施例では清音のみとし、「ん」は除かれる)を入力するための領域である。   As will be described below, the main input area 10Aa allows the user to touch a finger to perform a predetermined slide operation or the like, so that kana characters (only the sound is turned off in the first embodiment, and “n” is excluded). This is an area for inputting.

補助入力領域10Abには、濁点入力キー10Aba、半濁点入力キー10Abb、小書き文字変更キー10Abc、「ん」入力キー10Abd、スペース入力キー10Abe、削除キー10Abf、変換入力キー10Abg、確定キー10Abh等が設定される。これらの入力キーをユーザがタッチすることにより、濁点や半濁点が仮名文字に付与されたり、小書き文字(「ゃ」等)に変更されたり、「ん」が入力されたり、一字削除されたり、仮名文字から漢字への変換が行われたり、変換や入力テキストの確定がされたりする。   The auxiliary input area 10Ab includes a muddy point input key 10Aba, a semi-turbid point input key 10Abb, a small character change key 10Abc, a “n” input key 10Abd, a space input key 10Abe, a delete key 10Abf, a conversion input key 10Abg, a confirmation key 10Abh, etc. Is set. When these input keys are touched by the user, the dakuten or semi-dakuten are added to the kana characters, changed to small characters (such as “nya”), “n” is entered, or one character is deleted. Conversion from kana characters to kanji, conversion or confirmation of input text.

指紋照合部42は、メイン入力領域10Aaに触れたユーザの指から指紋取得部14が取得した指紋データを照合用指紋データ56と比較し、触れた指が五指のうちいずれの指であるかを判別する。指紋データ同士の比較は、例えば、周知の回転補正処理やパターンマッチング処理等により行われる。照合用指紋データ56は、予めユーザが、携帯端末装置1の案内表示等に従って、五指のそれぞれをメイン入力領域10Aaに触れることによって登録されたデータである。ユーザは、係る動作を行うことにより、指紋を利用した文字入力機能を利用することができる。   The fingerprint collation unit 42 compares the fingerprint data acquired by the fingerprint acquisition unit 14 from the user's finger touching the main input area 10Aa with the fingerprint data 56 for verification, and determines which of the five fingers is the touched finger. Determine. Comparison between fingerprint data is performed by, for example, a known rotation correction process or pattern matching process. The fingerprint data for verification 56 is data registered in advance by the user touching each of the five fingers with the main input area 10Aa in accordance with the guidance display of the mobile terminal device 1 or the like. The user can use the character input function using the fingerprint by performing such an operation.

スライド方向検知部43は、タッチパネル10の表面部に触れたユーザの指のスライド方向を検知する。スライド方向を検知するためには、各時点においてユーザの指が触れた代表的な位置(座標)を特定する必要がある。スライド方向検知部43は、例えば、タッチ位置検出部12が出力する複数の座標の重心点を求め、重心点の始点から終点に向かうベクトルを、ユーザの指のスライド方向として検知する。   The slide direction detection unit 43 detects the slide direction of the user's finger that has touched the surface of the touch panel 10. In order to detect the sliding direction, it is necessary to specify a representative position (coordinates) touched by the user's finger at each time point. For example, the slide direction detection unit 43 obtains the center of gravity of a plurality of coordinates output from the touch position detection unit 12, and detects a vector from the start point to the end point of the center of gravity point as the slide direction of the user's finger.

入力文字決定部44は、上記のように指紋照合部42が判別した指に応じて母音(50音の段)を決定し、スライド方向検知部43が検知したスライド方向に基づいて子音(50音の行)を決定することにより、入力される仮名文字を決定する。   The input character determination unit 44 determines a vowel (50 sound steps) according to the finger determined by the fingerprint collation unit 42 as described above, and a consonant (50 sounds) based on the slide direction detected by the slide direction detection unit 43. The kana character to be input is determined by determining the line of (1).

図5は、携帯端末装置1の入力文字決定部44が採用する指と母音の対応関係の一例である。図5に示すように、入力文字決定部44は、親指と「あ」段を、人差し指と「い」段を、中指と「う」段を、薬指と「え」段を、小指と「お」段を、それぞれ対応付ける。   FIG. 5 is an example of a correspondence relationship between a finger and a vowel employed by the input character determination unit 44 of the mobile terminal device 1. As shown in FIG. 5, the input character determination unit 44 includes the thumb and “A” level, the index finger and “I” level, the middle finger and “U” level, the ring finger and “E” level, the little finger and “O” level. ”Are associated with each other.

図6は、携帯端末装置1の入力文字決定部44が採用するスライド方向と子音の対応関係の一例である。図6に示すように、入力文字決定部44は、スライド無しの場合に「あ」行に、ユーザの指が上方向にスライドした場合に「か」行に、右上方向にスライドした場合に「さ」行に、右方向にスライドした場合に「た」行に、それぞれ子音を決定する。また、入力文字決定部44は、ユーザの指が右下方向にスライドした場合に「な」行に、下方向にスライドした場合に「は」行に、左下方向にスライドした場合に「ま」行に、左方向にスライドした場合に「や」行又は「わ」行に、それぞれ子音を決定する。また、入力文字決定部44は、ユーザの指が左上方向にスライドした場合に子音を「ら」行に決定する。入力文字決定部44は、例えば、上方向を0度として時計回りに角度を定義し、角度が0度〜22.5度の間、又は337.5度〜360度の間であれば「上方向」と判別する。また、入力文字決定部44は、角度が、22.5度〜67.5度の間であれば「右上方向」と判別する。その他の角度についても、入力文字決定部44は、同様に方向の判別を行う。図7は、携帯端末装置1の入力文字決定部44が採用する指及びスライド方向と仮名文字の対応関係の一例である。図7における「操作」欄の「・」は、タッチした後にスライドせずに離れたことを示し、その他の矢印は、タッチした後にスライドした方向を示している。   FIG. 6 is an example of a correspondence relationship between the sliding direction and the consonant adopted by the input character determination unit 44 of the mobile terminal device 1. As shown in FIG. 6, the input character determination unit 44 displays the “a” line when there is no slide, the “ka” line when the user's finger slides upward, and the “ When it is slid to the right, the consonant is determined for the “ta” line. Further, the input character determination unit 44 displays “NA” when the user's finger slides in the lower right direction, “HA” when the user's finger slides downward, and “MA” when the user slides in the lower left direction. When sliding leftward in a row, consonants are determined for the “ya” and “wa” rows, respectively. Further, the input character determination unit 44 determines the consonant in the “ra” line when the user's finger slides in the upper left direction. For example, the input character determination unit 44 defines the angle in the clockwise direction with the upward direction being 0 degree, and if the angle is between 0 degree and 22.5 degrees, or between 337.5 degrees and 360 degrees, "Direction". Also, the input character determination unit 44 determines “upper right direction” if the angle is between 22.5 degrees and 67.5 degrees. For other angles, the input character determination unit 44 similarly determines the direction. FIG. 7 is an example of a correspondence relationship between the finger and slide direction and the kana characters employed by the input character determination unit 44 of the mobile terminal device 1. “·” In the “Operation” column in FIG. 7 indicates that the user has left without sliding after touching, and the other arrows indicate the direction of sliding after touching.

携帯端末装置1が、上記例示した対応付けにより入力される仮名文字を決定することにより、ユーザは、快適な文字入力を行うことができる。図8は、ユーザが、携帯端末装置1に対して仮名文字を入力する場面を例示した図である。図8は、ユーザが「さ」、「と」、「う」の三文字を入力する場面を示している。図8に示すように、ユーザは、まず、メイン入力領域10Aaに親指でタッチし、その親指を右上方向にスライドすることによって、「さ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに小指でタッチし、その小指を右方向にスライドすることによって、「と」を入力することができる。次に、メイン入力領域10Aaに中指でタッチし、その中指をスライドさせずにタッチパネル10から離すことによって、「う」を入力することができる。   When the mobile terminal device 1 determines the kana character input by the above-described association, the user can perform comfortable character input. FIG. 8 is a diagram illustrating a scene in which the user inputs kana characters to the mobile terminal device 1. FIG. 8 shows a scene in which the user inputs three characters “sa”, “to”, and “u”. As shown in FIG. 8, the user can input “sa” by first touching the main input area 10 </ b> Aa with a thumb and sliding the thumb in the upper right direction. Next, the user can input “to” by touching the main input area 10 </ b> Aa with a little finger and sliding the little finger to the right. Next, “u” can be input by touching the main input area 10 </ b> Aa with the middle finger and releasing the middle finger from the touch panel 10 without sliding the middle finger.

このように、携帯端末装置1を使用するユーザは、直感的且つ効率的な文字入力を行うことができる。このため、ユーザは、文字入力に熟練するに連れて、高速な入力を行うことができる。また、ユーザは、細かく設定された機械式キーやソフトウェアキーを慎重にタッチするといった煩わしい操作をする頻度が低下するため、快適な文字入力を行うことができる。   Thus, the user who uses the portable terminal device 1 can perform intuitive and efficient character input. For this reason, the user can perform high-speed input as he / she becomes skilled in character input. Further, since the frequency of troublesome operations such as carefully touching finely set mechanical keys and software keys is reduced, the user can perform comfortable character input.

図9は、文字入力制御部41により実行されるフローチャートの一例である。なお、図9に示すフローチャートにおいて各処理が行われる順序は、同様の処理結果を得られる限り、如何様にも変更することができる。   FIG. 9 is an example of a flowchart executed by the character input control unit 41. In addition, the order in which each process is performed in the flowchart shown in FIG. 9 can be changed in any way as long as a similar process result is obtained.

まず、文字入力制御部41は、タッチパネル10にタッチ操作がなされるまで待機する(S100)。   First, the character input control unit 41 waits until a touch operation is performed on the touch panel 10 (S100).

タッチパネル10にタッチ操作がなされると、文字入力制御部41は、メイン入力領域10Aaへのタッチ操作であるか否かを判定する(S102)。   When a touch operation is performed on the touch panel 10, the character input control unit 41 determines whether the touch operation is performed on the main input area 10Aa (S102).

メイン入力領域10Aaへのタッチ操作である場合、文字入力制御部41は、指紋取得部14から指紋データを取得し(S104)、指紋データを照合用指紋データ56と比較し、タッチ操作した指が五指のうちいずれの指であるかを判別する(S106)。   In the case of a touch operation on the main input area 10Aa, the character input control unit 41 acquires fingerprint data from the fingerprint acquisition unit 14 (S104), compares the fingerprint data with the fingerprint data for verification 56, and the touched finger is detected. It is determined which of the five fingers is (S106).

次に、文字入力制御部41は、ユーザの指が所定距離(例えば数[mm]〜十数[mm]程度)以上スライドしたか否かを判定する(S108)。ユーザの指が所定距離以上スライドしたと判定した場合、文字入力制御部41は、スライド方向を検知し(S110)、S106で判別した指と、S110で判別したスライド方向に基づいて、入力される仮名文字を決定する(S116)。   Next, the character input control unit 41 determines whether or not the user's finger has slid more than a predetermined distance (for example, about several [mm] to about several tens [mm]) (S108). When it is determined that the user's finger has slid a predetermined distance or more, the character input control unit 41 detects the slide direction (S110), and is input based on the finger determined in S106 and the slide direction determined in S110. A kana character is determined (S116).

ユーザの指が所定距離スライドしていない場合、文字入力制御部41は、ユーザの指がタッチパネル10から離れたか否かを判定する(S112)。ユーザの指がタッチパネル10から離れたと判定した場合、文字入力制御部41は、「スライド無し」と決定し(S114)、S106で判別した指と、「スライド無し」という決定に基づいて、入力される仮名文字を決定する(S116)。   When the user's finger has not slid by a predetermined distance, the character input control unit 41 determines whether or not the user's finger has left the touch panel 10 (S112). When it is determined that the user's finger has moved away from the touch panel 10, the character input control unit 41 determines “no slide” (S114), and is input based on the finger determined in S106 and the determination “no slide”. Kana characters are determined (S116).

一方、S102で否定的な判定を得た場合(すなわち補助入力領域10Abへのタッチ操作であった場合)、文字入力制御部41は、補助入力処理を行う(S118)。補助入力処理において、文字入力制御部41は、「濁点」入力キー10Abaがタッチ操作された場合、直前に入力された仮名文字に濁点を付加する等の処理を行う。   On the other hand, if a negative determination is obtained in S102 (that is, a touch operation on the auxiliary input area 10Ab), the character input control unit 41 performs auxiliary input processing (S118). In the auxiliary input process, the character input control unit 41 performs a process such as adding a cloud point to the kana character input immediately before when the “cloud point” input key 10Aba is touched.

ここで、濁点又は半濁点の付加、及び、小書き文字への変更は、直前に入力された仮名文字を対象としてもよいし、直後に入力された仮名文字を対象としてもよい。また、タッチパネル10のサイズが両手で操作できる程度に大きい場合は、ユーザに、「濁点」入力キー10Aba等をタッチしながら仮名文字の入力を行わせてもよい。   Here, the addition of a dakuten or semi-dakuten and a change to a small character may be performed on the kana character input immediately before or on the kana character input immediately after. When the size of the touch panel 10 is large enough to be operated with both hands, the user may be allowed to input kana characters while touching the “dakuten” input key 10Aba or the like.

図10は、濁点又は半濁点の付加、及び小書き文字への変更が、直前に入力された仮名文字を対象とする場合に、文字「ぴ」が入力される際の操作順を示す図である。一方、図11は、濁点又は半濁点の付加、及び小書き文字への変更が、直後又は同時に入力された仮名文字を対象とする場合に、文字「ぴ」が入力される際の操作順を示す図である。   FIG. 10 is a diagram illustrating an operation sequence when the character “Pi” is input when the addition of a muddy point or a semi-turbid point and a change to a small character target a kana character input immediately before. is there. On the other hand, FIG. 11 shows the operation sequence when the character “Pi” is input when the addition of a muddy point or semi-turbid point and the change to a small character are for a kana character that is input immediately or simultaneously. FIG.

以上説明した第1実施例によれば、ユーザに快適な文字入力を行わせることができる。   According to the first embodiment described above, it is possible to make the user perform comfortable character input.

<第2実施例>
以下、第2実施例に係る携帯端末装置2について説明する。外観、ハードウェア構成、機能構成、フローチャート等については第1実施例と同様であるため、第1実施例の説明を援用して説明を省略する。
<Second embodiment>
Hereinafter, the portable terminal device 2 according to the second embodiment will be described. Since the appearance, hardware configuration, functional configuration, flowchart, and the like are the same as those of the first embodiment, the description of the first embodiment is incorporated and the description is omitted.

携帯端末装置2の文字入力制御部41は、濁音又は半濁音の付加、小書き文字への変更、「ん」の入力についても、メイン入力領域Aaへのユーザの操作によって行う。図12は、携帯端末装置2のタッチパネル10に文字入力領域10Aが設定される様子を示す図である。   The character input control unit 41 of the mobile terminal device 2 also performs addition of muddy or semi-voiced sound, change to a small character, and input of “n” by a user operation on the main input area Aa. FIG. 12 is a diagram illustrating a state in which the character input area 10 </ b> A is set on the touch panel 10 of the mobile terminal device 2.

図13は、携帯端末装置2の入力文字決定部44が採用する指及びスライド方向と仮名文字の対応関係の一例である。図13において、「操作」欄の「+」の左側の記号は携帯端末装置1の場合と同様の操作(以下、基本操作と称する)を示し、「+」の右側の記号は、基本操作に付加される操作を示す。   FIG. 13 is an example of a correspondence relationship between the finger and slide direction and the kana characters employed by the input character determination unit 44 of the mobile terminal device 2. In FIG. 13, the symbol on the left side of “+” in the “Operation” column indicates the same operation as the case of the mobile terminal device 1 (hereinafter referred to as basic operation), and the symbol on the right side of “+” indicates the basic operation. Indicates the operation to be added.

「操作」欄において「+」の右側に「・」が一つ記載されている操作は、基本操作中に、他の指でタッチする操作を示す。「基本操作中に」とは、例えば、50音の清音(「ん」を除く)を入力するためのタッチ〜スライド終了までの間に(「あ」行の場合はタッチ中に)という意味である。例えば、ユーザは、親指でスライド無しにタッチしている(基本操作における「あ」)間に、他の指でメイン入力領域10Aaにタッチすることにより、小書き文字の「ぁ」を入力することができる。   An operation in which one “·” is written on the right side of “+” in the “operation” column indicates an operation of touching with another finger during the basic operation. “During basic operation” means, for example, between the touch for inputting a 50-tone clear sound (excluding “n”) and the end of the slide (in the case of “A” line, during touch). is there. For example, while the user is touching without sliding with the thumb (“A” in the basic operation), the user inputs the small character “A” by touching the main input area 10Aa with another finger. Can do.

また、「操作」欄において「+」の右側に「・」が二つ記載されている操作は、半濁音の付加、又は小書き文字「っ」への変更のための操作であり、基本操作中に、他の二本の指でタッチする操作、又は、他の指でタッチ及びスライドする操作を示す。以下、前者を要求する変換モードを変換モード1と、後者を要求する変換モードを変換モード2と称して説明する。   In the “Operation” column, two operations with “•” on the right side of “+” are operations for adding semi-voiced sound or changing to a small character “”. In the figure, an operation of touching with two other fingers or an operation of touching and sliding with other fingers is shown. Hereinafter, the conversion mode that requires the former will be referred to as conversion mode 1, and the conversion mode that requires the latter will be referred to as conversion mode 2.

図14は、変換モード1が採用されている場合に、ユーザが、携帯端末装置2に対して仮名文字を入力する場面を例示した図である。図14は、ユーザが「だ」、「っ」、「ぴ」の三文字を入力する場面を示している。図14に示すように、ユーザは、まず、メイン入力領域10Aaに親指でタッチし、その親指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチすることによって、「だ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに中指でタッチし、その中指を右方向にスライドし、更に他の二本の指でメイン入力領域10Aaにタッチすることによって、小書き文字の「っ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに人差し指でタッチし、その人差し指を下方向にスライドし、更に他の二つの指でメイン入力領域10Aaにタッチすることによって、小書き文字の「ぴ」を入力することができる。   FIG. 14 is a diagram illustrating a scene in which the user inputs kana characters to the mobile terminal device 2 when the conversion mode 1 is employed. FIG. 14 shows a scene in which the user inputs three characters “da”, “tsu”, and “pi”. As shown in FIG. 14, the user first touches the main input area 10Aa with a thumb, slides the thumb to the right, and touches the main input area 10Aa with another finger, thereby Can be entered. Next, the user touches the main input area 10Aa with the middle finger, slides the middle finger to the right, and touches the main input area 10Aa with the other two fingers, thereby “ Can be entered. Next, the user touches the main input area 10Aa with the index finger, slides the index finger downward, and touches the main input area 10Aa with the other two fingers, thereby to write the small character “Pi”. Can be entered.

図15は、変換モード2が採用されている場合に、ユーザが、携帯端末装置2に対して仮名文字を入力する場面を例示した図である。図15も図14と同様に、ユーザが「だ」、「っ」、「ぴ」の三文字を入力する場面を示している。図15に示すように、ユーザは、まず、メイン入力領域10Aaに親指でタッチし、その親指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチすることによって、「だ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに中指でタッチし、その中指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチしてスライドさせることによって、小書き文字の「っ」を入力することができる。次に、ユーザは、メイン入力領域10Aaに人差し指でタッチし、その人差し指を下方向にスライドし、更に他の指でメイン入力領域10Aaにタッチしてスライドさせることによって、小書き文字の「ぴ」を入力することができる。変換モード2における「他の指」のスライド幅は、通常操作に係るスライド幅よりも小幅なものであってよい。すなわち、入力文字決定部44は、図9のS108における「所定距離」よりも小さい距離を判定基準として、「他の指」がスライドしたか否かを判定してよい。   FIG. 15 is a diagram illustrating a scene in which the user inputs kana characters to the mobile terminal device 2 when the conversion mode 2 is employed. FIG. 15 also shows a scene in which the user inputs three letters “DA”, “T”, and “PI”, as in FIG. 14. As shown in FIG. 15, the user first touches the main input area 10Aa with a thumb, slides the thumb to the right, and touches the main input area 10Aa with another finger, thereby Can be entered. Next, the user touches the main input area 10Aa with the middle finger, slides the middle finger to the right, and further touches and slides the main input area 10Aa with the other finger, thereby “ Can be entered. Next, the user touches the main input area 10Aa with the index finger, slides the index finger downward, and touches the main input area 10Aa with another finger and slides it, so that the character “Pi” is written. Can be entered. The slide width of “the other finger” in the conversion mode 2 may be smaller than the slide width related to the normal operation. That is, the input character determination unit 44 may determine whether or not “another finger” has slid using a distance smaller than the “predetermined distance” in S108 of FIG. 9 as a criterion.

変換モード1や変換モード2のような半濁音や小書き文字「っ」の入力においては、作業が複雑となるため、これらの文字を図13で白抜きとなっている濁音や半濁音を持たない「な」行や「ま」行に割り当ててもよい。   In the input of semi-voiced sound and small character “tsu” as in conversion mode 1 and conversion mode 2, the work is complicated, so these characters have muddy or semi-voiced sound that are white in FIG. It may be assigned to a “na” line or “ma” line that is not present.

以上説明した第2実施例によれば、第1実施例と同様、ユーザに快適な文字入力を行わせることができる。   According to the second embodiment described above, it is possible to allow the user to perform comfortable character input, as in the first embodiment.

また、第2実施例の携帯端末装置2は、補助入力領域10Abに設定されるキーの数を第1実施例よりも少なくすることができる。このため、第2実施例の携帯端末装置2は、メイン入力領域10Aaを第1実施例よりも広くすることができる。また、第2実施例の携帯端末装置2は、タッチパネル10へのタッチ数を少なくすることができるため、装置の扱いに熟練したユーザであれば、第1実施例よりも効率的に文字を入力することができる。   Further, the mobile terminal device 2 of the second embodiment can make the number of keys set in the auxiliary input area 10Ab smaller than that of the first embodiment. For this reason, the mobile terminal device 2 of the second embodiment can make the main input area 10Aa wider than that of the first embodiment. Further, since the mobile terminal device 2 of the second embodiment can reduce the number of touches on the touch panel 10, a user who is skilled in handling the device can input characters more efficiently than the first embodiment. can do.

<第3実施例>
以下、第3実施例に係る携帯端末装置3について説明する。外観については第1実施例と同様であるため、第1実施例の説明を援用して説明を省略する。
<Third embodiment>
Hereinafter, the portable terminal device 3 according to the third embodiment will be described. Since the appearance is the same as that of the first embodiment, the description of the first embodiment is incorporated and the description is omitted.

図16は、携帯端末装置3のハードウェア構成例である。携帯端末装置3は、本体部30の内部に、CPU40と、記憶装置50と、通信装置60とを備える。また、タッチパネル10は、タッチ位置検出部12を備える。   FIG. 16 is a hardware configuration example of the mobile terminal device 3. The mobile terminal device 3 includes a CPU 40, a storage device 50, and a communication device 60 inside the main body 30. The touch panel 10 includes a touch position detection unit 12.

図17は、携帯端末装置3の機能構成例である。記憶装置50には、Webブラウザ等のアプリケーションソフトウェア52の他、文字入力制御ソフトウェア54、及び照合用指紋データ56が格納されている。文字入力制御ソフトウェア54は、例えば、携帯端末装置の起動場面や、アプリケーションソフトウェア52が実行されることにより、ユーザによるテキスト入力が必要となった場面等で起動される。   FIG. 17 is a functional configuration example of the mobile terminal device 3. In addition to application software 52 such as a Web browser, the storage device 50 stores character input control software 54 and collation fingerprint data 56. The character input control software 54 is activated, for example, at a scene where the mobile terminal device is activated or when the application software 52 is executed so that text input by the user is required.

携帯端末装置3は、CPU40が文字入力制御ソフトウェア54を起動させて実行することにより実現される機能部として、入力領域検知部45と、スライド方向検知部43と、入力文字決定部44とを含む文字入力制御部41を有する。なお、これらの機能ブロックが明確に分離したプログラムによって実現される必要はなく、サブルーチンや関数として他のプログラムによって呼び出されるものであってもよい。また、機能ブロックの一部が、LSI、ICやFPGA等のハードウェア手段であっても構わない。   The mobile terminal device 3 includes an input area detection unit 45, a slide direction detection unit 43, and an input character determination unit 44 as functional units realized by the CPU 40 starting and executing the character input control software 54. A character input control unit 41 is provided. Note that these functional blocks do not need to be realized by a clearly separated program, and may be called by other programs as subroutines or functions. Further, a part of the functional blocks may be hardware means such as LSI, IC, FPGA or the like.

入力領域検知部45は、メイン入力領域10Aaにおいて設定される複数の領域のうち、いずれの領域にユーザの指がタッチしたかを検知する。図18は、メイン入力領域10Aaに設定される複数の領域を示す図である。メイン入力領域10Aaには、親指入力領域10Aaa、人差し指入力領域10Aab、中指入力領域10Aac、薬指入力領域10Aad、小指入力領域10Aaeが設定される。これらの領域は、例えばユーザによって視認できるように輪郭等が表示される。図19は、ユーザがメイン入力領域10Aaの各領域に指を合わせた様子を示す図である。図18及び図19は、ユーザが右効きであることを想定した図であるが、携帯端末装置3は、左利きのユーザ用に領域を変更する機能を有してもよい。   The input area detection unit 45 detects which area of the plurality of areas set in the main input area 10Aa is touched by the user's finger. FIG. 18 is a diagram showing a plurality of areas set in the main input area 10Aa. In the main input area 10Aa, a thumb input area 10Aaa, an index finger input area 10Aab, a middle finger input area 10Aac, a ring finger input area 10Aad, and a little finger input area 10Aae are set. In these areas, for example, an outline or the like is displayed so as to be visually recognized by the user. FIG. 19 is a diagram illustrating a state in which the user places a finger on each area of the main input area 10Aa. 18 and 19 are diagrams assuming that the user has a right-hand effect, but the mobile terminal device 3 may have a function of changing an area for a left-handed user.

このように複数の領域を設定したとしても、5領域あれば足りるため、テンキーを入力キーとして用いたり、50音それぞれの入力キーを設定したりするものに比して、領域の数は少なくなる。このため、携帯端末装置3は、従来の入力方式を採用した装置に比して、ユーザに快適な文字入力を行わせることができる。   Even if a plurality of areas are set in this way, five areas are sufficient, so the number of areas is smaller than those using ten keys as input keys or setting input keys for 50 sounds. . For this reason, the portable terminal device 3 can make a user perform comfortable character input compared with the apparatus which employ | adopted the conventional input method.

スライド方向検知部43は、各領域の中で、第1及び第2実施例と同様に、タッチパネル10にタッチした指のスライド方向を検知する。   The slide direction detection unit 43 detects the slide direction of the finger touching the touch panel 10 in each region, as in the first and second embodiments.

入力文字決定部44は、入力領域検知部45によって検知された領域に対応する指に応じて母音を決定し、スライド方向検知部43が検知したスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する。指及びスライド方向と、仮名文字の対応関係については、例えば、図7又は図13に示したものが採用される。図13に示した対応関係が採用される場合、第2実施例と同様に、変換モード1と変換モード2が採用され得る。   The input character determination unit 44 determines the vowel according to the finger corresponding to the area detected by the input region detection unit 45, and determines the consonant based on the slide direction detected by the slide direction detection unit 43. Determine the kana character to be used. For example, the correspondence shown in FIG. 7 or FIG. 13 is used for the correspondence between the finger and the sliding direction and the kana characters. When the correspondence shown in FIG. 13 is employed, conversion mode 1 and conversion mode 2 can be employed as in the second embodiment.

図20は、ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。図20は、ユーザが「さ」、「と」、「う」の三文字を入力する場面を示している。図20に示すように、ユーザは、まず、親指入力領域10Aaaに親指でタッチし、その親指を右上方向にスライドすることによって、「さ」を入力することができる。次に、ユーザは、小指入力領域10Aaeに小指でタッチし、その小指を右方向にスライドすることによって、「と」を入力することができる。次に、メイン入力領域10Aacに中指でタッチし、その中指をスライドさせずにタッチパネル10から離すことによって、「う」を入力することができる。   FIG. 20 is a diagram illustrating a scene in which the user inputs kana characters to the mobile terminal device 3. FIG. 20 shows a scene in which the user inputs three characters “sa”, “to”, and “u”. As shown in FIG. 20, the user can input “sa” by first touching the thumb input area 10Aaa with a thumb and sliding the thumb in the upper right direction. Next, the user can input “to” by touching the little finger input area 10Aae with the little finger and sliding the little finger to the right. Next, by touching the main input area 10Aac with the middle finger and releasing the middle finger from the touch panel 10 without sliding, “U” can be input.

図21は、図13に示す対応関係、及び変換モード1が採用されている場合に、ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。図21は、ユーザが「だ」、「っ」、「ぴ」の三文字を入力する場面を示している。図21に示すように、ユーザは、まず、親指入力領域10Aaaに親指でタッチし、その親指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチすることによって、「だ」を入力することができる。次に、ユーザは、中指入力領域10Aacに中指でタッチし、その中指を右方向にスライドし、更に他の二本の指でメイン入力領域10Aaにタッチすることによって、小書き文字の「っ」を入力することができる。次に、ユーザは、人差し指入力領域10Aabに人差し指でタッチし、その人差し指を下方向にスライドし、更に他の二本の指でメイン入力領域10Aaにタッチすることによって、小書き文字の「ぴ」を入力することができる。   FIG. 21 is a diagram illustrating a scene in which the user inputs kana characters to the mobile terminal device 3 when the correspondence relationship and the conversion mode 1 illustrated in FIG. 13 are employed. FIG. 21 shows a scene in which the user inputs three characters “da”, “tsu”, and “pi”. As shown in FIG. 21, the user first touches the thumb input area 10Aaa with the thumb, slides the thumb to the right, and touches the main input area 10Aa with another finger, thereby Can be entered. Next, the user touches the middle finger input area 10Aac with the middle finger, slides the middle finger to the right, and touches the main input area 10Aa with the other two fingers, thereby “ Can be entered. Next, the user touches the index finger input area 10Aab with the index finger, slides the index finger downward, and touches the main input area 10Aa with the other two fingers, thereby making the small character “PI”. Can be entered.

図22は、図13に示す対応関係、及び変換モード2が採用されている場合に、ユーザが、携帯端末装置3に対して仮名文字を入力する場面を例示した図である。図22は、ユーザが「だ」、「っ」、「ぴ」の三文字を入力する場面を示している。図22に示すように、ユーザは、まず、親指入力領域10Aaaに親指でタッチし、その親指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチすることによって、「だ」を入力することができる。次に、ユーザは、中指入力領域10Aacに中指でタッチし、その中指を右方向にスライドし、更に他の指でメイン入力領域10Aaにタッチ及びスライドすることによって、小書き文字の「っ」を入力することができる。次に、ユーザは、人差し指入力領域10Aabに人差し指でタッチし、その人差し指を下方向にスライドし、更に他の指でメイン入力領域10Aaにタッチ及びスライドすることによって、小書き文字の「ぴ」を入力することができる。   FIG. 22 is a diagram illustrating a scene in which the user inputs kana characters to the mobile terminal device 3 when the correspondence relationship shown in FIG. 13 and the conversion mode 2 are employed. FIG. 22 shows a scene in which the user inputs three characters “da”, “tsu”, and “pi”. As shown in FIG. 22, the user first touches the thumb input area 10Aaa with a thumb, slides the thumb to the right, and touches the main input area 10Aa with another finger, thereby Can be entered. Next, the user touches the middle finger input area 10Aac with the middle finger, slides the middle finger to the right, and touches and slides with the other finger to the main input area 10Aa, so that the small letter “ Can be entered. Next, the user touches the index finger input area 10Aab with the index finger, slides the index finger downward, and touches and slides the main input area 10Aa with the other finger, whereby the character “Pi” is written. Can be entered.

上記の入力例では各指の入力領域に対応した指でタッチ及びスライドを行っているが、第3実施例ではタッチする場所で入力する母音の位置が一意に決まるため、どの指で操作を行ってもよい。例えば、「さ」を入力する場合に本来は親指入力領域である10Aaaに人差し指でタッチし、右上にスライドして入力することも可能である。   In the above input example, the finger corresponding to the input area of each finger is touched and slid. However, in the third embodiment, the position of the vowel input at the touched location is uniquely determined, so the operation is performed with which finger. May be. For example, when inputting “sa”, it is possible to touch 10Aaa, which is originally the thumb input area, with the index finger and slide it to the upper right.

以上説明した第3実施例によれば、第1及び第2実施例と同様、ユーザに快適な文字入力を行わせることができる。   According to the third embodiment described above, as in the first and second embodiments, the user can perform comfortable character input.

なお、第1ないし第3実施例における携帯端末装置が、「文字入力装置」の一例である。また、第1ないし第3実施例におけるタッチパネル10の表面が、「操作面」の一例である。また、第1又は第2実施例における指紋データ取得部14及び指紋照合部42、或いは第3実施例における入力領域検知部45が、「判別部」の一例である。また、第1ないし第3実施例におけるスライド方向検知部43が、「検知部」の一例である。また、第1ないし第3実施例における入力文字決定部44が、「決定部」の一例である。また、第1又は第2実施例における指紋データ取得部14が、「取得部」の一例である。また、第1又は第2実施例における記憶装置50が、「記憶部」の一例である。   The portable terminal device in the first to third embodiments is an example of “character input device”. Further, the surface of the touch panel 10 in the first to third embodiments is an example of the “operation surface”. Further, the fingerprint data acquisition unit 14 and the fingerprint collation unit 42 in the first or second embodiment, or the input area detection unit 45 in the third embodiment is an example of the “discrimination unit”. Further, the slide direction detection unit 43 in the first to third embodiments is an example of the “detection unit”. The input character determination unit 44 in the first to third embodiments is an example of a “determination unit”. The fingerprint data acquisition unit 14 in the first or second embodiment is an example of an “acquisition unit”. Further, the storage device 50 in the first or second embodiment is an example of a “storage unit”.

以上、本発明を実施するための形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using the Example, this invention is not limited to such an Example at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

例えば、半濁音の付加、又は小書き文字「っ」への変更のための操作(図13における「・・」に相当)として、基本操作中に、他の二本の指でタッチする操作と、他の指でタッチ及びスライドする操作を例示したが、これに限られない。携帯端末装置は、半濁音の付加、又は小書き文字「っ」への変更のための操作として、基本操作中に、他の指で二回タッチする操作をユーザに要求してもよい。   For example, as an operation for adding a semi-voiced sound or changing to a small character “” (corresponding to “••” in FIG. 13), an operation of touching with two other fingers during a basic operation Although the operation of touching and sliding with another finger is illustrated, the present invention is not limited to this. The portable terminal device may request the user to perform an operation of touching twice with another finger during the basic operation as an operation for adding a semi-voiced sound or changing to a small character “”.

以上の第1〜第3実施例を含む実施形態に関し、さらに以下の項を開示する。
(付記1)
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する判別部と、
前記操作面に触れたユーザの指のスライド方向を検知する検知部と、
前記判別部により判別された指に応じて母音を決定し、前記検知部により検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する決定部と、
を備える文字入力装置。
(付記2)
付記1記載の文字入力装置であって、
前記操作面に触れたユーザの指から指紋データを取得する取得部と、
予め取得されたユーザの指毎の指紋データを格納する記憶部と、を備え、
前記判別部は、前記取得部により取得された指紋データと、前記記憶部に格納された指紋データとを照合することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力装置。
(付記3)
付記1記載の文字入力装置であって、
前記判別部は、前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力装置。
(付記4)
付記1ないし3のうちいずれか1項の文字入力装置であって、
前記決定部は、前記ユーザによる前記操作面に指で触れてスライドさせる操作を検知しているときに、該操作に係る指とは異なる指が前記操作面に触れた場合に、濁点の付加、半濁点の付加、小書き文字への変更の少なくとも一部を実行する、
文字入力装置。
(付記5)
文字入力装置が、
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別し、
前記操作面に触れたユーザの指のスライド方向を検知し、
前記五指のうちいずれの指であるか判別された指に応じて母音を決定し、前記検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する、
文字入力方法。
(付記6)
付記5記載の文字入力方法であって、
前記文字入力装置が、
前記操作面に触れたユーザの指から指紋データを取得し、
前記取得された指紋データと、予め取得されたユーザの指毎の指紋データを格納する記憶部に格納された指紋データとを照合することにより、操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力方法。
(付記7)
付記5記載の文字入力方法であって、
前記文字入力装置が、
前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力方法。
(付記8)
付記5ないし7のうちいずれか1項の文字入力方法であって、
前記文字入力装置が、
前記決定する処理において、前記ユーザによる前記操作面に指で触れてスライドさせる操作を検知しているときに、該操作に係る指とは異なる指が前記操作面に触れた場合に、濁点の付加、半濁点の付加、小書き文字への変更の少なくとも一部を実行する、
文字入力方法。
(付記9)
文字入力装置に、
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させ、
前記操作面に触れたユーザの指が前記操作面上でスライドした方向を判別させ、
前記五指のうちいずれの指であるか判別された指に応じて母音を決定させ、前記検知されたスライド方向に基づいて子音を決定させることにより、入力される仮名文字を決定させる、
文字入力プログラム。
(付記10)
付記9記載の文字入力プログラムであって、
前記文字入力装置に、
前記操作面に触れたユーザの指から指紋データを取得させ、
前記取得された指紋データと、予め取得されたユーザの指毎の指紋データを格納する記憶部に格納された指紋データとを照合することにより、操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させる、
文字入力プログラム。
(付記11)
付記9記載の文字入力プログラムであって、
前記文字入力装置に、
前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させる、
文字入力プログラム。
(付記12)
付記9ないし11のうちいずれか1項の文字入力方法であって、
前記文字入力装置に、
前記決定する処理において、前記ユーザによる前記操作面に指で触れてスライドさせる操作を検知しているときに、該操作に係る指とは異なる指が前記操作面に触れた場合に、濁点の付加、半濁点の付加、小書き文字への変更の少なくとも一部を実行させる、
文字入力プログラム。
The following items are further disclosed regarding the embodiment including the first to third examples.
(Appendix 1)
A discriminator for discriminating which of the five fingers the user's finger touching the operation surface;
A detection unit for detecting a sliding direction of a user's finger touching the operation surface;
Determining a vowel according to the finger determined by the determining unit, determining a consonant based on a sliding direction detected by the detecting unit, and determining a kana character to be input;
A character input device comprising:
(Appendix 2)
A character input device according to appendix 1,
An acquisition unit for acquiring fingerprint data from a user's finger touching the operation surface;
A storage unit for storing fingerprint data for each finger of the user acquired in advance,
The discrimination unit collates the fingerprint data acquired by the acquisition unit with the fingerprint data stored in the storage unit, so that the user's finger touching the operation surface is any of the five fingers. To determine if it exists,
Character input device.
(Appendix 3)
A character input device according to appendix 1,
The determination unit determines which of the plurality of regions set on the operation surface is touched by the user's finger, so that the user's finger touching the operation surface is one of the five fingers To determine if it is a finger,
Character input device.
(Appendix 4)
The character input device according to any one of appendices 1 to 3,
When the determination unit detects an operation of touching and sliding the operation surface by the user with a finger, when a finger different from the finger related to the operation touches the operation surface, adding a cloud point, Add at least some of the addition of semi-turbidity points and changes to small letters,
Character input device.
(Appendix 5)
The character input device
Determine which of the five fingers is the user ’s finger touching the operation surface,
Detecting the sliding direction of the user's finger touching the operation surface;
Determining a vowel according to a finger that has been identified as one of the five fingers and determining a consonant based on the detected sliding direction to determine an input kana character;
Character input method.
(Appendix 6)
The character input method according to appendix 5,
The character input device is
Get fingerprint data from the user's finger touching the operation surface,
By collating the acquired fingerprint data with the fingerprint data stored in the storage unit storing the fingerprint data for each finger of the user acquired in advance, the user's finger touching the operation surface is To determine which finger it is,
Character input method.
(Appendix 7)
The character input method according to appendix 5,
The character input device is
Which of the five fingers is the user's finger touching the operation surface by determining which region of the plurality of regions set on the operation surface is touched by the user's finger To determine the
Character input method.
(Appendix 8)
The character input method according to any one of appendices 5 to 7,
The character input device is
In the process of determining, when detecting an operation of touching and sliding the operation surface by the user with a finger, adding a cloud point when a finger different from the finger related to the operation touches the operation surface , Perform at least part of adding semi-turbidity and changing to small characters,
Character input method.
(Appendix 9)
In the character input device,
The user's finger touching the operation surface is identified as one of the five fingers,
Determining the direction in which the finger of the user touching the operation surface slides on the operation surface;
Determining a vowel according to a finger that has been identified as one of the five fingers, and determining a consonant based on the detected sliding direction, thereby determining an input kana character;
Character input program.
(Appendix 10)
A character input program according to appendix 9,
In the character input device,
Fingerprint data is obtained from the user's finger touching the operation surface;
By collating the acquired fingerprint data with the fingerprint data stored in the storage unit storing the fingerprint data for each finger of the user acquired in advance, the user's finger touching the operation surface is To determine which finger it is,
Character input program.
(Appendix 11)
A character input program according to appendix 9,
In the character input device,
Which of the five fingers is the user's finger touching the operation surface by determining which region of the plurality of regions set on the operation surface is touched by the user's finger To determine,
Character input program.
(Appendix 12)
The character input method according to any one of appendices 9 to 11,
In the character input device,
In the process of determining, when detecting an operation of touching and sliding the operation surface by the user with a finger, adding a cloud point when a finger different from the finger related to the operation touches the operation surface , Execute at least part of adding semi-turbidity and changing to small characters,
Character input program.

1 携帯端末装置
10 タッチパネル
12 タッチ位置検出部
14 指紋データ取得部
20 機械式キー
22 ホームキー
30 本体部
40 CPU
41 文字入力制御部
42 指紋照合部
43 スライド方向検知部
44 入力文字決定部
45 入力領域検知部
50 記憶装置
52 アプリケーションソフトウェア
54 文字入力制御ソフトウェア
56 照合用指紋データ
60 通信装置
DESCRIPTION OF SYMBOLS 1 Portable terminal device 10 Touch panel 12 Touch position detection part 14 Fingerprint data acquisition part 20 Mechanical key 22 Home key 30 Main-body part 40 CPU
DESCRIPTION OF SYMBOLS 41 Character input control part 42 Fingerprint collation part 43 Slide direction detection part 44 Input character determination part 45 Input area detection part 50 Memory | storage device 52 Application software 54 Character input control software 56 Fingerprint data for collation 60 Communication apparatus

Claims (5)

操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する判別部と、
前記操作面に触れたユーザの指のスライド方向を検知する検知部と、
前記判別部により判別された指に応じて母音を決定し、前記検知部により検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する決定部と、
を備え
前記判別部は、前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力装置。
A discriminator for discriminating which of the five fingers the user's finger touching the operation surface;
A detection unit for detecting a sliding direction of a user's finger touching the operation surface;
Determining a vowel according to the finger determined by the determining unit, determining a consonant based on a sliding direction detected by the detecting unit, and determining a kana character to be input;
Equipped with a,
The determination unit determines which of the plurality of regions set on the operation surface is touched by the user's finger, so that the user's finger touching the operation surface is one of the five fingers To determine if it is a finger,
Character input device.
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する判別部と、
前記操作面に触れたユーザの指のスライド方向を検知する検知部と、
前記判別部により判別された指に応じて母音を決定し、前記検知部により検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定する決定部と、
を備え
前記決定部は、前記ユーザによる前記操作面に指で触れてスライドさせる操作を検知しているときに、該操作に係る指とは異なる指が前記操作面に触れた場合に、濁点の付加、半濁点の付加、小書き文字への変更の少なくとも一部を実行する、
文字入力装置。
A discriminator for discriminating which of the five fingers the user's finger touching the operation surface;
A detection unit for detecting a sliding direction of a user's finger touching the operation surface;
Determining a vowel according to the finger determined by the determining unit, determining a consonant based on a sliding direction detected by the detecting unit, and determining a kana character to be input;
Equipped with a,
When the determination unit detects an operation of touching and sliding the operation surface by the user with a finger, when a finger different from the finger related to the operation touches the operation surface, adding a cloud point, Add at least some of the addition of semi-turbidity points and changes to small letters,
Character input device.
請求項記載の文字入力装置であって、
前記操作面に触れたユーザの指から指紋データを取得する取得部と、
予め取得されたユーザの指毎の指紋データを格納する記憶部と、を備え、
前記判別部は、前記取得部により取得された指紋データと、前記記憶部に格納された指紋データとを照合することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力装置。
The character input device according to claim 2 ,
An acquisition unit for acquiring fingerprint data from a user's finger touching the operation surface;
A storage unit for storing fingerprint data for each finger of the user acquired in advance,
The discrimination unit collates the fingerprint data acquired by the acquisition unit with the fingerprint data stored in the storage unit, so that the user's finger touching the operation surface is any of the five fingers. To determine if it exists,
Character input device.
文字入力装置が、
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別し、
前記操作面に触れたユーザの指のスライド方向を検知し、
前記五指のうちいずれの指であるか判別された指に応じて母音を決定し、前記検知されたスライド方向に基づいて子音を決定することにより、入力される仮名文字を決定し、
前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別することにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別する、
文字入力方法。
The character input device
Determine which of the five fingers is the user ’s finger touching the operation surface,
Detecting the sliding direction of the user's finger touching the operation surface;
A vowel is determined according to a finger that is identified as one of the five fingers, and a kana character to be input is determined by determining a consonant based on the detected sliding direction ,
Which of the five fingers is the user's finger touching the operation surface by determining which region of the plurality of regions set on the operation surface is touched by the user's finger To determine the
Character input method.
文字入力装置に、
操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させ、
前記操作面に触れたユーザの指が前記操作面上でスライドした方向を検知させ、
前記五指のうちいずれの指であるか判別された指に応じて母音を決定させ、前記検知されたスライド方向に基づいて子音を決定させることにより、入力される仮名文字を決定させ
前記操作面上に設定された複数の領域のうちいずれの領域に前記ユーザの指が触れたかを判別させることにより、前記操作面に触れたユーザの指が、五指のうちいずれの指であるかを判別させる、
文字入力プログラム。
In the character input device,
The user's finger touching the operation surface is identified as one of the five fingers,
Detecting a direction in which a user's finger touching the operation surface slides on the operation surface;
The vowel is determined according to the finger that has been identified as one of the five fingers, the consonant is determined based on the detected sliding direction, and the input kana character is determined ,
Which of the five fingers is the user's finger touching the operation surface by determining which region of the plurality of regions set on the operation surface is touched by the user's finger To determine,
Character input program.
JP2012167442A 2012-07-27 2012-07-27 Character input device, character input method, and character input program Expired - Fee Related JP6011114B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012167442A JP6011114B2 (en) 2012-07-27 2012-07-27 Character input device, character input method, and character input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012167442A JP6011114B2 (en) 2012-07-27 2012-07-27 Character input device, character input method, and character input program

Publications (2)

Publication Number Publication Date
JP2014026526A JP2014026526A (en) 2014-02-06
JP6011114B2 true JP6011114B2 (en) 2016-10-19

Family

ID=50200100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012167442A Expired - Fee Related JP6011114B2 (en) 2012-07-27 2012-07-27 Character input device, character input method, and character input program

Country Status (1)

Country Link
JP (1) JP6011114B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015219630A (en) * 2014-05-15 2015-12-07 株式会社リコー Information processor, information processing method and program
JP6455476B2 (en) * 2016-03-28 2019-01-23 京セラドキュメントソリューションズ株式会社 Display operation device and operation instruction receiving program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066784A (en) * 1998-08-26 2000-03-03 Nissan Motor Co Ltd Display and operation device for automobile
JP2008046692A (en) * 2006-08-10 2008-02-28 Fujitsu Ten Ltd Input device
JP2010287007A (en) * 2009-06-11 2010-12-24 Sony Corp Input device and input method

Also Published As

Publication number Publication date
JP2014026526A (en) 2014-02-06

Similar Documents

Publication Publication Date Title
CN105824559B (en) False touch recognition and processing method and electronic equipment
US8446389B2 (en) Techniques for creating a virtual touchscreen
EP2359224B1 (en) Generating gestures tailored to a hand resting on a surface
US20100103141A1 (en) Techniques for Controlling Operation of a Device with a Virtual Touchscreen
JP4979600B2 (en) Portable terminal device and display control method
KR100928902B1 (en) Touch screen to adapt the information provided by the use of a touching tool or finger
JP6180888B2 (en) Electronic device, method and program
CN111488078A (en) Touch processing method and electronic device supporting the same
CN110874117B (en) Method for operating handheld device, and computer-readable recording medium
WO2012114876A1 (en) Electronic device, content display method and content display program
JP2015133140A (en) Portable terminal device
JP6426417B2 (en) Electronic device, method and program
EP2835722A1 (en) Input device
JP2013238919A (en) Electronic device and handwritten document search method
US20140240234A1 (en) Input Device
JPWO2009031213A1 (en) Portable terminal device and display control method
JP2014016743A (en) Information processing device, information processing device control method and information processing device control program
JP6011114B2 (en) Character input device, character input method, and character input program
JPWO2014045414A1 (en) Character input device, character input method, character input control program
JP6599504B2 (en) Touch error calibration method and system
JP5284523B1 (en) Information processing system, program, and processing method of information processing system
JP2015088147A (en) Touch panel input device and input processing program
US20130069881A1 (en) Electronic device and method of character entry
TW201426507A (en) System and method for controlling virtual keyboards
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6011114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

LAPS Cancellation because of no payment of annual fees