JP2014123174A - Character input program, character input device, and character input method - Google Patents

Character input program, character input device, and character input method Download PDF

Info

Publication number
JP2014123174A
JP2014123174A JP2012277721A JP2012277721A JP2014123174A JP 2014123174 A JP2014123174 A JP 2014123174A JP 2012277721 A JP2012277721 A JP 2012277721A JP 2012277721 A JP2012277721 A JP 2012277721A JP 2014123174 A JP2014123174 A JP 2014123174A
Authority
JP
Japan
Prior art keywords
character
finger
unit
user
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012277721A
Other languages
Japanese (ja)
Other versions
JP6102241B2 (en
Inventor
Takeshi Uchihara
健 宇地原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012277721A priority Critical patent/JP6102241B2/en
Publication of JP2014123174A publication Critical patent/JP2014123174A/en
Application granted granted Critical
Publication of JP6102241B2 publication Critical patent/JP6102241B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology which supports a user's character input.SOLUTION: A biological information acquiring unit 110 acquires user's biological information acquired from a sensor, such as a fingerprint sensor and a finger vein sensor. A character specification unit 130 specifies an initial undefined letter according to the acquisition of the biological information by the biological information acquiring unit 110. An operation recognition unit 140 recognizes a sliding operation by a user from change of the biological information acquired by the biological information acquiring unit 110. An operation corresponding unit 150 changes the undefined character according to the sliding operation recognized by the operation recognition unit 140.

Description

本発明は,ユーザの文字入力を支援する文字入力プログラム,文字入力装置および文字入力方法に関するものである。   The present invention relates to a character input program, a character input device, and a character input method that support user character input.

従来から,ユーザは,キーボード等の入力機器を用いて,情報処理装置への文字入力を行っている。近年,スマートフォンやタブレット端末などのスマート端末の普及にともなって,タッチパネル上に表示されたソフトウェアキーボードを用いて文字入力が行われるケースも増えている。   Conventionally, a user inputs characters to an information processing apparatus using an input device such as a keyboard. In recent years, with the spread of smart terminals such as smartphones and tablet terminals, the number of cases where characters are input using a software keyboard displayed on a touch panel is increasing.

なお,指紋センサにより識別される指紋に対応付けられたプログラムを起動する技術が知られている。また,指紋センサで識別される指紋に対応する文字コードを生成する技術が知られている。また,押下された入力キーと,該入力キーを押下した指から読み取った指紋との組合せに対応する数字等のキーコードを出力する技術が知られている。   A technique for starting a program associated with a fingerprint identified by a fingerprint sensor is known. A technique for generating a character code corresponding to a fingerprint identified by a fingerprint sensor is also known. There is also known a technique for outputting a key code such as a number corresponding to a combination of a pressed input key and a fingerprint read from the finger pressing the input key.

特開2002−41169号公報JP 2002-41169 A 特開2003−76482号公報JP 2003-76482 A 特開2006−343812号公報JP 2006-343812 A

例えば,スマートフォンなどの小型のスマート端末で文字入力を行う際に,タッチパネルの画面上にソフトウェアキーボードが表示されると,それ以外の表示エリアが狭くなるため,画面に表示される情報が少なくなってしまうという問題がある。そのため,画面に表示された情報を見ながら文字入力を行うことが,容易ではなかった。   For example, when inputting characters on a small smart terminal such as a smartphone, if the software keyboard is displayed on the screen of the touch panel, the other display area becomes smaller, so the information displayed on the screen is reduced. There is a problem of end. For this reason, it is not easy to input characters while viewing the information displayed on the screen.

また,例えば,小型のスマート端末などでソフトウェアキーボードを用いた文字入力を行う場合,タッチパネルの画面に表示される1つ1つのキーが小さいため,誤タッチする可能性が高く,ユーザにとっては使いにくいという問題がある。   Also, for example, when inputting characters using a software keyboard on a small smart terminal, etc., each key displayed on the touch panel screen is small, so there is a high possibility of erroneous touching, making it difficult for users to use. There is a problem.

一側面では,本発明は,ユーザの文字入力を支援する技術を提供することを目的とする。   In one aspect, an object of the present invention is to provide a technique for supporting a user's character input.

1態様では,開示するプログラムはコンピュータを,次のように機能させる。すなわち,前記プログラムは,前記プログラムがインストールされて実行されるコンピュータに,センサから得られるユーザの生体情報を取得し,生体情報の取得に対応して入力が確定されていない文字である未確定文字を特定し,取得された生体情報の変化からユーザによるセンサに対するスライド操作を認識し,スライド操作に応じて未確定文字を変更する処理を実行させる。   In one aspect, the disclosed program causes a computer to function as follows. That is, the program acquires the biometric information of the user obtained from the sensor in a computer on which the program is installed and executed, and the unconfirmed character that is an input that has not been determined in response to the biometric information acquisition. Is identified, the slide operation on the sensor by the user is recognized from the change of the acquired biometric information, and the process of changing the undetermined character according to the slide operation is executed.

1態様では,容易な操作での文字入力が可能となる。   In one mode, it is possible to input characters with an easy operation.

本実施の形態による端末の外観の例を示す図である。It is a figure which shows the example of the external appearance of the terminal by this Embodiment. 本実施の形態による端末の機能構成例を示す図である。It is a figure which shows the function structural example of the terminal by this Embodiment. 本実施の形態による文字入力部を備える端末を実現するコンピュータのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the computer which implement | achieves the terminal provided with the character input part by this Embodiment. 本実施の形態による指認識データの例を示す図である。It is a figure which shows the example of the finger recognition data by this Embodiment. 本実施の形態による文字対応データの例を示す図である。It is a figure which shows the example of the character corresponding | compatible data by this Embodiment. 本実施の形態による未確定文字の変更の例(1)を説明する図である。It is a figure explaining the example (1) of a change of an undetermined character by this Embodiment. 本実施の形態による未確定文字の変更の例(2)を説明する図である。It is a figure explaining the example (2) of a change of the undetermined character by this Embodiment. 本実施の形態の文字入力部による文字入力処理フローチャートである。It is a character input processing flowchart by the character input part of this Embodiment.

以下,本実施の形態について,図を用いて説明する。   Hereinafter, the present embodiment will be described with reference to the drawings.

図1は,本実施の形態による端末の外観の例を示す図である。   FIG. 1 is a diagram showing an example of the appearance of a terminal according to the present embodiment.

図1に示す端末10は,本実施の形態の例において,ユーザが文字入力を行うコンピュータである。図1に示す端末10は,例えばスマートフォンなどの小型のスマート端末であるものとする。なお,本実施の形態による文字入力の技術によって,ユーザが文字入力を行う対象の端末10が,必ずしもスマート端末である必要はない。例えば,端末10が,PC(Personal Computer )などであってもよい。   A terminal 10 shown in FIG. 1 is a computer in which a user inputs characters in the example of the present embodiment. The terminal 10 shown in FIG. 1 is assumed to be a small smart terminal such as a smartphone. Note that the terminal 10 on which the user inputs characters does not necessarily have to be a smart terminal by the character input technique according to the present embodiment. For example, the terminal 10 may be a PC (Personal Computer).

端末10は,タッチパネル11,センサ12を備える。タッチパネル11は,表示機能と入力機能とを兼ね備えた機器である。センサ12は,例えば,指紋や指静脈,手のひら静脈などのユーザの生体情報の読み取りを行う機器である。センサ12は,図1に示すような端末10の内蔵機器でもよいし,端末10にインタフェースで接続される外部機器でもよい。   The terminal 10 includes a touch panel 11 and a sensor 12. The touch panel 11 is a device having both a display function and an input function. The sensor 12 is a device that reads biometric information of a user such as a fingerprint, a finger vein, and a palm vein. The sensor 12 may be a built-in device of the terminal 10 as shown in FIG. 1 or an external device connected to the terminal 10 through an interface.

図2は,本実施の形態による端末の機能構成例を示す図である。   FIG. 2 is a diagram illustrating a functional configuration example of the terminal according to the present embodiment.

本実施の形態による端末10は,ユーザによる端末10への文字入力を支援する文字入力部100を備える。文字入力部100は,生体情報取得部110,指特定部120,文字特定部130,操作認識部140,操作対応部150,出力部160,指認識情報記憶部170,文字対応情報記憶部180を備える。   The terminal 10 according to the present embodiment includes a character input unit 100 that supports user input of characters into the terminal 10. The character input unit 100 includes a biometric information acquisition unit 110, a finger identification unit 120, a character identification unit 130, an operation recognition unit 140, an operation correspondence unit 150, an output unit 160, a finger recognition information storage unit 170, and a character correspondence information storage unit 180. Prepare.

指認識情報記憶部170は,ユーザの指と生体情報との対応が記録された指認識情報を記憶する記憶部である。文字対応情報記憶部180は,ユーザの指と文字との対応が記録された文字対応情報を記憶する記憶部である。   The finger recognition information storage unit 170 is a storage unit that stores finger recognition information in which correspondence between a user's finger and biological information is recorded. The character correspondence information storage unit 180 is a storage unit that stores character correspondence information in which correspondence between a user's finger and a character is recorded.

生体情報取得部110は,センサ12から得られるユーザの生体情報を取得する。取得される生体情報は,センサ12の読み取りデータであってもよいし,センサ12の読み取りデータの解析により得られる生体の特徴を抽出したデータであってもよい。   The biometric information acquisition unit 110 acquires user biometric information obtained from the sensor 12. The acquired biological information may be read data of the sensor 12, or may be data obtained by extracting features of the biological body obtained by analyzing the read data of the sensor 12.

指特定部120は,指認識情報記憶部170の指認識情報を参照し,生体情報取得部110により取得された生体情報に対応する指を特定する。より具体的には,指特定部120は,生体情報取得部110により取得された生体情報と,指認識情報記憶部170の指認識情報に登録された生体情報とのマッチングを行う。指特定部120は,マッチングにより一致すると判断された生体情報に対応する指の情報を,指認識情報記憶部170の指認識情報から取得し,生体情報取得部110により取得された生体情報に対応する指の情報として特定する。   The finger identification unit 120 refers to the finger recognition information in the finger recognition information storage unit 170 and identifies a finger corresponding to the biological information acquired by the biological information acquisition unit 110. More specifically, the finger specifying unit 120 performs matching between the biological information acquired by the biological information acquisition unit 110 and the biological information registered in the finger recognition information in the finger recognition information storage unit 170. The finger specifying unit 120 acquires finger information corresponding to the biometric information determined to be matched by matching from the finger recognition information in the finger recognition information storage unit 170, and corresponds to the biometric information acquired by the biometric information acquisition unit 110. Specify as finger information.

文字特定部130は,生体情報取得部110による生体情報の取得に対応して,入力が確定されていない文字である未確定文字を特定する。ここで特定される未確定文字は,本実施の形態による文字入力において,例えば最初に未確定状態で画面に表示される,初期の未確定文字である。   Corresponding to the acquisition of biometric information by the biometric information acquisition unit 110, the character specifying unit 130 specifies an unconfirmed character that is a character whose input has not been determined. The unconfirmed character specified here is, for example, an initial unconfirmed character that is first displayed on the screen in an unconfirmed state in character input according to the present embodiment.

例えば,文字特定部130は,文字対応情報記憶部180の文字対応情報を参照し,指特定部120により特定された指に対応する文字を,初期の未確定文字とする。より具体的には,文字特定部130は,文字対応情報記憶部180の文字対応情報から,指特定部120により特定された指の情報に対応する文字を取得し,初期の未確定文字として特定する。なお,1つの指の情報に対応する文字が複数ある場合は,文字特定部130は,それら複数の文字のうちの1つを,初期の未確定文字として特定する。   For example, the character identification unit 130 refers to the character correspondence information in the character correspondence information storage unit 180 and sets the character corresponding to the finger identified by the finger identification unit 120 as the initial unconfirmed character. More specifically, the character identification unit 130 acquires the character corresponding to the finger information identified by the finger identification unit 120 from the character correspondence information in the character correspondence information storage unit 180 and identifies it as the initial undefined character. To do. If there are a plurality of characters corresponding to the information of one finger, the character specifying unit 130 specifies one of the plurality of characters as an initial undetermined character.

操作認識部140は,生体情報取得部110により取得された生体情報の変化から,ユーザによるセンサ12に対する操作を認識する。例えば,操作認識部140は,生体情報取得部110により取得された生体情報の変化から,ユーザによるセンサ12に対するスライド操作を認識する。例えば,生体情報取得部110により取得される複数の生体情報について,特徴点の位置の時間変化を追跡するなどにより,センサ12に対してユーザが指をスライドさせた方向を特定することが可能である。また,例えば,操作認識部140は,生体情報取得部110により生体情報が取得されなくなった場合に,ユーザがセンサ12から指を離す操作を行ったことを認識する。   The operation recognizing unit 140 recognizes an operation performed on the sensor 12 by the user from the change in the biometric information acquired by the biometric information acquiring unit 110. For example, the operation recognition unit 140 recognizes a slide operation on the sensor 12 by the user from the change in the biological information acquired by the biological information acquisition unit 110. For example, for a plurality of pieces of biological information acquired by the biological information acquisition unit 110, it is possible to specify the direction in which the user slides his / her finger with respect to the sensor 12 by tracking temporal changes in the positions of feature points. is there. For example, the operation recognition unit 140 recognizes that the user has performed an operation of releasing the finger from the sensor 12 when the biometric information is not acquired by the biometric information acquisition unit 110.

操作対応部150は,操作認識部140により認識された操作に対応して,未確定文字を変更する,未確定文字を確定する,文字を消去するなど,文字入力に関する処理を行う。例えば,操作対応部150は,操作認識部140により認識されたスライド操作に応じて,未確定文字を変更する。また,例えば,操作対応部150は,操作認識部140により認識されたセンサ12から指を離す操作に応じて,未確定文字を確定する。   In response to the operation recognized by the operation recognition unit 140, the operation handling unit 150 performs processing related to character input such as changing an unconfirmed character, confirming an unconfirmed character, or erasing a character. For example, the operation handling unit 150 changes the undetermined character according to the slide operation recognized by the operation recognition unit 140. In addition, for example, the operation handling unit 150 determines an undetermined character in response to an operation of releasing the finger from the sensor 12 recognized by the operation recognition unit 140.

出力部160は,未確定文字を端末10の画面に表示する。例えば,出力部160は,文字特定部130により特定された未確定文字を,タッチパネル11の画面の文字入力欄に,未確定状態で表示する。   The output unit 160 displays the unconfirmed characters on the screen of the terminal 10. For example, the output unit 160 displays the undetermined character specified by the character specifying unit 130 in the undetermined state in the character input field on the screen of the touch panel 11.

図3は,本実施の形態による文字入力部を備える端末を実現するコンピュータのハードウェア構成例を示す図である。   FIG. 3 is a diagram illustrating a hardware configuration example of a computer that realizes a terminal including a character input unit according to the present embodiment.

図2に示す文字入力部100を備える端末10を実現するコンピュータ1は,例えば,CPU(Central Processing Unit )2,主記憶となるメモリ3,記憶装置4,通信装置5,入力装置6,出力装置7等を備える。記憶装置4は,例えばHDD(Hard Disk Drive )等の外部記憶装置や,不揮発性メモリ等の補助記憶装置などである。入力装置6は,例えばキーボード・マウスやセンサ等の入力機器などである。出力装置7は,例えばディスプレイ等の表示装置などである。例えば,図1に示す端末10が備えるタッチパネル11は,入力装置6と出力装置7とを兼ねる。   A computer 1 that realizes a terminal 10 having a character input unit 100 shown in FIG. 2 includes, for example, a CPU (Central Processing Unit) 2, a memory 3 as a main memory 3, a storage device 4, a communication device 5, an input device 6, and an output device. 7 etc. The storage device 4 is an external storage device such as an HDD (Hard Disk Drive) or an auxiliary storage device such as a nonvolatile memory. The input device 6 is, for example, an input device such as a keyboard / mouse or a sensor. The output device 7 is a display device such as a display, for example. For example, the touch panel 11 included in the terminal 10 illustrated in FIG. 1 serves as both the input device 6 and the output device 7.

図2に示す文字入力部100および文字入力部100が備える各機能部は,端末10を実現するコンピュータ1が備えるCPU2,メモリ3等のハードウェアと,ソフトウェアプログラムとによって実現することが可能である。コンピュータ1が実行可能なプログラムは,記憶装置4に記憶され,その実行時にメモリ3に読み出され,CPU2により実行される。   The character input unit 100 and each function unit included in the character input unit 100 illustrated in FIG. 2 can be realized by hardware such as the CPU 2 and the memory 3 included in the computer 1 that implements the terminal 10 and a software program. . A program that can be executed by the computer 1 is stored in the storage device 4, read into the memory 3 at the time of execution, and executed by the CPU 2.

コンピュータ1は,可搬型記録媒体から直接プログラムを読み取り,そのプログラムに従った処理を実行することもできる。また,コンピュータ1は,サーバコンピュータからプログラムが転送されるごとに,逐次,受け取ったプログラムに従った処理を実行することもできる。さらに,このプログラムは,コンピュータ1で読み取り可能な記録媒体に記録しておくことができる。   The computer 1 can also read a program directly from a portable recording medium and execute processing according to the program. The computer 1 can also sequentially execute processing according to the received program every time the program is transferred from the server computer. Further, this program can be recorded on a recording medium readable by the computer 1.

以下,本実施の形態による文字入力の技術について,より具体的な例を用いて説明する。以下では,生体情報の例として,主に指紋データを用いた例の説明を行う。生体情報が指紋データである場合,端末10のセンサ12は,指紋センサとなる。   Hereinafter, the character input technique according to the present embodiment will be described using a more specific example. Hereinafter, an example in which fingerprint data is mainly used as an example of biometric information will be described. When the biological information is fingerprint data, the sensor 12 of the terminal 10 is a fingerprint sensor.

図4は,本実施の形態による指認識データの例を示す図である。   FIG. 4 is a diagram illustrating an example of finger recognition data according to the present embodiment.

図4に示す指認識データ175は,指認識情報記憶部170に記憶された指認識情報の一例を示す。図4に示す指認識データ175は,指ID,指紋データの情報を持つ。指IDは,ユーザの各指を識別する識別情報である。指紋データは,あらかじめ登録されたユーザの各指の指紋データである。   The finger recognition data 175 illustrated in FIG. 4 illustrates an example of finger recognition information stored in the finger recognition information storage unit 170. The finger recognition data 175 shown in FIG. 4 has finger ID and fingerprint data information. The finger ID is identification information for identifying each finger of the user. The fingerprint data is fingerprint data of each finger of a user registered in advance.

ここでは,図4に示す指認識データ175において,各指ID“f01”〜“f05”が,それぞれユーザの右手の人差し指,中指,薬指,小指,親指の指紋データに対応付けられているものとする。本実施の形態による文字入力の機能を利用するユーザは,文字入力に使用する指の指紋を,指認識データ175にあらかじめ登録する作業を行う。   Here, in the finger recognition data 175 shown in FIG. 4, each finger ID “f01” to “f05” is associated with the fingerprint data of the index finger, middle finger, ring finger, pinky finger, and thumb of the right hand of the user, respectively. To do. A user who uses the character input function according to the present embodiment performs an operation of previously registering the finger fingerprint used for character input in the finger recognition data 175.

図5は,本実施の形態による文字対応データの例を示す図である。   FIG. 5 is a diagram showing an example of character correspondence data according to the present embodiment.

図5に示す文字対応データ185は,文字対応情報記憶部180に記憶された文字対応情報の一例を示す。図5に示す文字対応データ185では,指IDごとに文字群が割り当てられており,指IDと文字番号との組合せから文字が特定できるようになっている。   The character correspondence data 185 shown in FIG. 5 shows an example of character correspondence information stored in the character correspondence information storage unit 180. In the character correspondence data 185 shown in FIG. 5, a character group is assigned to each finger ID, and a character can be specified from a combination of the finger ID and the character number.

図5に示す文字対応データ185では,指ID“f01”には「あ行」と「か行」のひらがな文字が割り当てられている。同様に,指ID“f02”には「さ行」と「た行」のひらがな文字が,指ID“f03”には「な行」と「は行」のひらがな文字が,指ID“f04”には「ま行」と「や行」のひらがな文字が,指ID“f05”には「ら行」と「わ行」と「ん」のひらがな文字が割り当てられている。   In the character correspondence data 185 shown in FIG. 5, hiragana characters “A line” and “Ka line” are assigned to the finger ID “f01”. Similarly, the finger ID “f02” includes hiragana characters “sa line” and “ta line”, the finger ID “f03” includes hiragana characters “na line” and “ha line”, and the finger ID “f04”. Are assigned hiragana characters “ma line” and “ya line”, and the finger ID “f05” is assigned hiragana characters “ra line”, “wa line”, and “n”.

図5の文字対応データ185に示すように,本実施の形態の例では,ユーザは,複数の指を使って文字入力を行うものとする。複数の指を使って文字入力を行うようにすることで,ユーザがセンサ12に指を当ててから文字を確定するまでのスライド操作を減らすことができ,スライド操作のミスによる誤入力を抑止できる。   As shown in the character correspondence data 185 in FIG. 5, in the example of the present embodiment, it is assumed that the user inputs characters using a plurality of fingers. By performing character input using a plurality of fingers, it is possible to reduce the slide operation from when the user places the finger on the sensor 12 until the character is confirmed, and to prevent erroneous input due to a mistake in the slide operation. .

例えば,タッチパネル11の画面に表示された文字入力エリアにカーソルがある状態で,本実施の形態による文字入力の機能を利用したいユーザは,入力したい文字に対応する指をセンサ12に当て,指紋認証を行う。このとき,文字入力部100の生体情報取得部110は,センサ12により得られるユーザの指紋データの取得を開始する。   For example, a user who wants to use the character input function according to the present embodiment in a state where the cursor is in the character input area displayed on the screen of the touch panel 11 applies a finger corresponding to the character to be input to the sensor 12 and performs fingerprint authentication. I do. At this time, the biometric information acquisition unit 110 of the character input unit 100 starts acquiring user fingerprint data obtained by the sensor 12.

なお,指紋センサによる指紋の情報の読み取りには,ユーザが指紋センサに当てた指を動かさない状態でユーザの指紋の情報を読み取る方法や,ユーザが指紋センサに当てた指をスライドさせてそのユーザの指紋の情報を読み取る方法がある。本実施の形態による指紋認証は,これらのいずれの方法で行われてもよい。   The fingerprint information can be read by the fingerprint sensor by reading the user's fingerprint information without moving the finger applied to the fingerprint sensor, or by sliding the finger applied to the fingerprint sensor by the user. There is a method to read fingerprint information. Fingerprint authentication according to the present embodiment may be performed by any of these methods.

指特定部120は,生体情報取得部110により取得された指紋データと,指認識データ175に登録された指紋データとのマッチングにより,ユーザがセンサ12に当てた指の指IDを特定する。ここでは,指特定部120は,生体情報取得部110により取得された指紋データとマッチする,指認識データ175に登録された指紋データに対応する指IDが,ユーザがセンサ12に当てた指の指IDであると判断する。   The finger specifying unit 120 specifies the finger ID of the finger applied to the sensor 12 by the user by matching the fingerprint data acquired by the biometric information acquisition unit 110 with the fingerprint data registered in the finger recognition data 175. Here, the finger identification unit 120 matches the fingerprint data acquired by the biometric information acquisition unit 110 and the finger ID corresponding to the fingerprint data registered in the finger recognition data 175 indicates the finger ID applied to the sensor 12 by the user. The finger ID is determined.

文字特定部130は,指特定部120により特定された指IDで文字対応データ185を参照し,初期の未確定文字を特定する。本実施の形態の例では,文字対応データ185において指IDに対応する文字群のうち,文字番号“5”に対応する文字を,初期の未確定文字とする。例えば,指特定部120により特定された指IDが“f01”である場合,図5に示す文字対応データ185から,文字番号“5”に対応する文字「あ」が,初期の未確定文字として特定される。出力部160は,特定された初期の未確定文字を,タッチパネル11の画面の文字入力エリアに未確定状態で表示する。   The character specifying unit 130 refers to the character correspondence data 185 with the finger ID specified by the finger specifying unit 120, and specifies an initial unconfirmed character. In the example of the present embodiment, the character corresponding to the character number “5” in the character group corresponding to the finger ID in the character corresponding data 185 is set as the initial undetermined character. For example, when the finger ID specified by the finger specifying unit 120 is “f01”, the character “A” corresponding to the character number “5” is determined as the initial undefined character from the character correspondence data 185 shown in FIG. Identified. The output unit 160 displays the identified initial unconfirmed characters in an unconfirmed state in the character input area of the screen of the touch panel 11.

ユーザは,画面に表示された未確定文字を変更したい場合,センサ12に当てた指をスライドさせる操作を行う。未確定文字を変更するためのスライド操作の方向については,例えば上下方向や左右方向,斜め方向など,任意の設計が可能である。本実施の形態の例では,ユーザは,上下方向のスライド操作で未確定文字の変更を行うものとする。   When the user wants to change the unconfirmed character displayed on the screen, the user performs an operation of sliding the finger applied to the sensor 12. The direction of the slide operation for changing the unconfirmed character can be arbitrarily designed, for example, up and down, left and right, and diagonal. In the example of the present embodiment, it is assumed that the user changes an undetermined character by a vertical sliding operation.

操作認識部140は,生体情報取得部110により取得される指紋データの変化から,ユーザがセンサ12に対して指をスライドさせるスライド操作を認識する。このとき,ユーザが指をスライドさせた方向も認識される。操作対応部150は,文字対応データ185を参照し,認識されたスライド方向に応じた未確定文字の変更を行う。   The operation recognizing unit 140 recognizes a slide operation in which the user slides his / her finger on the sensor 12 from the change in the fingerprint data acquired by the biometric information acquiring unit 110. At this time, the direction in which the user slides the finger is also recognized. The operation handling unit 150 refers to the character correspondence data 185 and changes the undetermined character according to the recognized slide direction.

本実施の形態の例では,図5に示す文字対応データ185において,スライド方向が上方向である場合には,文字番号が少なくなる方に未確定文字が変更され,スライド方向が下方向である場合には,文字番号が多くなる方に未確定文字が変更されるものとする。例えば,操作する指の指IDが“f01”である場合,スライド方向が上であれば「あ→い→う→え→お」の順に未確定文字が変更され,スライド方向が下であれば「あ→か→き→く→け→こ」の順に未確定文字が変更される。また,ユーザは,入力したい文字が行き過ぎた場合に,さらに逆方向に指をスライドさせることで,例えば「あ→い→う→え→う」といったように,未確定文字を戻すこともできる。なお,未確定文字が文字番号“1”の「お」であるときにさらに上方向へのスライド操作が行われた場合に,文字番号“10”の「こ」に未確定文字を変更するように設計してもよい。   In the example of the present embodiment, in the character correspondence data 185 shown in FIG. 5, when the slide direction is upward, the undetermined character is changed to the one with the smaller character number, and the slide direction is downward. In such a case, it is assumed that the unconfirmed character is changed to the one with the larger character number. For example, when the finger ID of the finger to be operated is “f01”, if the slide direction is up, the undetermined characters are changed in the order of “A → I → U → E → O”, and if the slide direction is down. Undetermined characters are changed in the order of “A → ka → ki → ku → ke → ko”. In addition, when the user wants to input too many characters, the user can return the undetermined characters such as “A → I → U → E → U” by sliding the finger in the opposite direction. Note that if the unconfirmed character is “O” with the character number “1” and a further upward sliding operation is performed, the unconfirmed character is changed to “ko” with the character number “10”. You may design it.

操作認識部140は,生体情報取得部110により指紋データが取得されなくなった場合に,ユーザがセンサ12から指を離す操作を行ったと判断する。本実施の形態の例では,操作認識部140によりユーザがセンサ12から指を離す操作を行ったと判断された場合に,操作対応部150は,その時点での未確定文字を確定文字とする。出力部160は,タッチパネル11の画面の文字入力エリアに未確定状態で表示されている文字を,確定状態に変更する。   The operation recognition unit 140 determines that the user has performed an operation of releasing the finger from the sensor 12 when fingerprint data is no longer acquired by the biometric information acquisition unit 110. In the example of the present embodiment, when the operation recognizing unit 140 determines that the user has performed an operation of releasing the finger from the sensor 12, the operation handling unit 150 sets the unconfirmed character at that time as a confirmed character. The output unit 160 changes the character displayed in the unconfirmed state in the character input area on the screen of the touch panel 11 to the confirmed state.

なお,ユーザによる左右方向のスライド操作が認識された場合に,未確定文字を確定するなどの設計も可能である。また,ユーザによる左方向のスライド操作が認識された場合に1文字消去するなど,未確定文字の変更や確定以外の機能を,ユーザのスライド操作に割り当てる設計を行ってもよい。   It is also possible to design such that the unconfirmed character is confirmed when the left / right sliding operation by the user is recognized. Further, a design other than changing the unconfirmed character or confirming a function other than the confirmation of the unconfirmed character, such as deleting one character when the left slide operation by the user is recognized, may be performed.

図6は,本実施の形態による未確定文字の変更の例(1)を説明する図である。   FIG. 6 is a diagram for explaining an example (1) of changing an undetermined character according to this embodiment.

例えば,ユーザが右手の人差し指をセンサ12に当てて指紋認証を行うと,図4に示す指認識データ175と図5に示す文字対応データ185とから,初期の未確定文字「あ」が特定される。このとき,タッチパネル11の画面の文字入力エリア200には,未確定状態で「あ」が表示される(図6の(1))。図6において,アンダーバー付きの文字は,未確定文字であることを示している。   For example, when the user performs fingerprint authentication by placing the index finger of the right hand on the sensor 12, the initial unconfirmed character “A” is identified from the finger recognition data 175 shown in FIG. 4 and the character correspondence data 185 shown in FIG. The At this time, “A” is displayed in an unconfirmed state in the character input area 200 of the screen of the touch panel 11 ((1) in FIG. 6). In FIG. 6, the character with an underscore indicates that it is an undetermined character.

ユーザが,センサ12に当てた右手の人差し指を上方向にスライドすると,文字入力エリア200の未確定文字が「い」に変更される(図6の(2))。さらに,ユーザが,センサ12に当てた右手の人差し指を上方向にスライドすると,文字入力エリア200の未確定文字が「う」に変更される(図6の(3))。この状態で,ユーザが,センサ12から指を離すと,未確定状態の文字「う」が確定状態に変更される(図6の(4))。   When the user slides the index finger of the right hand on the sensor 12 upward, the unconfirmed character in the character input area 200 is changed to “Yes” ((2) in FIG. 6). Further, when the user slides the index finger of the right hand applied to the sensor 12 upward, the unconfirmed character in the character input area 200 is changed to “U” ((3) in FIG. 6). In this state, when the user removes his / her finger from the sensor 12, the character “U” in the unconfirmed state is changed to the confirmed state ((4) in FIG. 6).

図7は,本実施の形態による未確定文字の変更の例(2)を説明する図である。   FIG. 7 is a diagram for explaining an example (2) of changing an undetermined character according to the present embodiment.

図7に示す例は,タッチパネル11の画面にさらに文字選択メニュー201が表示される例である。この例では,ユーザは,画面に表示された文字選択メニュー201をスクロールする感覚で,スライド操作を行うことができる。例えば,ユーザが,センサ12に当てた右手の人差し指を上方向にスライドすると,文字選択メニュー201が上方向にスクロールされ,未確定文字が「あ→い→う→... 」と変更される。また,例えば,ユーザが,センサ12に当てた右手の人差し指を下方向にスライドすると,文字選択メニュー201が下方向にスクロールされ,未確定文字が「あ→か→き→... 」と変更される。   The example shown in FIG. 7 is an example in which a character selection menu 201 is further displayed on the screen of the touch panel 11. In this example, the user can perform a slide operation as if scrolling the character selection menu 201 displayed on the screen. For example, when the user slides the index finger of the right hand on the sensor 12 upward, the character selection menu 201 is scrolled upward, and the unconfirmed character is changed to “A → I → U → ...”. . For example, when the user slides the index finger of the right hand applied to the sensor 12 downward, the character selection menu 201 is scrolled downward, and the unconfirmed character is changed to “A → KA → KI → ...”. Is done.

図8は,本実施の形態の文字入力部による文字入力処理フローチャートである。   FIG. 8 is a flowchart of a character input process performed by the character input unit according to this embodiment.

文字入力部100は,タッチパネル11の画面に表示された文字入力エリア200にカーソルがあるかを判定する(ステップS10)。文字入力エリア200にカーソルがあれば(ステップS10のYES),生体情報取得部110は,センサ12により得られるユーザの指紋データの取得を開始する(ステップS11)。   The character input unit 100 determines whether the cursor is in the character input area 200 displayed on the screen of the touch panel 11 (step S10). If there is a cursor in the character input area 200 (YES in step S10), the biometric information acquisition unit 110 starts acquiring user fingerprint data obtained by the sensor 12 (step S11).

指特定部120は,指紋データが取得されたかを判定する(ステップS12)。指紋データが取得されれば(ステップS12のYES),指特定部120は,指認識データ175を参照し,生体情報取得部110により取得された指紋データに対応する指を特定する(ステップS13)。ここでは,指認識データ175から,生体情報取得部110により取得された指紋データに対応する指IDが取得される。なお,図8のフローチャートでは省略されているが,生体情報取得部110により取得された指紋データとマッチする,指認識データ175に登録された指紋データがない場合には,指紋認証に失敗したと判断され,指は特定されない。   The finger identifying unit 120 determines whether fingerprint data has been acquired (step S12). If fingerprint data is acquired (YES in step S12), the finger specifying unit 120 refers to the finger recognition data 175 and specifies a finger corresponding to the fingerprint data acquired by the biometric information acquisition unit 110 (step S13). . Here, the finger ID corresponding to the fingerprint data acquired by the biometric information acquisition unit 110 is acquired from the finger recognition data 175. Although omitted in the flowchart of FIG. 8, if there is no fingerprint data registered in the finger recognition data 175 that matches the fingerprint data acquired by the biometric information acquisition unit 110, it is assumed that the fingerprint authentication has failed. Judgment is made and the finger is not specified.

文字特定部130は,文字番号を示すカウンタkの値を5に初期化する(ステップS14)。文字特定部130は,文字対応データ185を参照し,指特定部120により特定された指に対応する,文字番号k(=5)の文字を,初期の未確定文字に特定する(ステップS15)。出力部160は,特定された初期の未確定文字を,文字入力エリア200に未確定状態で表示する(ステップS16)。   The character identification unit 130 initializes the value of the counter k indicating the character number to 5 (step S14). The character identifying unit 130 refers to the character correspondence data 185, and identifies the character with the character number k (= 5) corresponding to the finger identified by the finger identifying unit 120 as the initial unconfirmed character (step S15). . The output unit 160 displays the identified initial unconfirmed character in the character input area 200 in an unconfirmed state (step S16).

操作認識部140は,生体情報取得部110により取得された指紋データの変化から,ユーザによるスライド操作が認識されたかを判定する(ステップS17)。スライド操作が認識されなければ(ステップS17のNO),操作認識部140は,ステップS23の処理に進む。   The operation recognition unit 140 determines whether the slide operation by the user has been recognized from the change in the fingerprint data acquired by the biometric information acquisition unit 110 (step S17). If the slide operation is not recognized (NO in step S17), the operation recognition unit 140 proceeds to the process in step S23.

スライド操作が認識されれば(ステップS17のYES),操作認識部140は,そのスライド方向を判定する(ステップS18)。スライド方向が上方向である場合には(ステップS18の上),操作対応部150は,文字番号を示すカウンタkの値をデクリメントする(ステップS19)。スライド方向が下方向である場合には(ステップS18の下),操作対応部150は,文字番号を示すカウンタkの値をインクリメントする(ステップS20)。操作対応部150は,未確定文字を,文字番号kの文字に変更する(ステップS21)。出力部160は,文字入力エリア200に表示されている未確定文字を,変更された未確定文字に更新する(ステップS22)。   If the slide operation is recognized (YES in step S17), the operation recognition unit 140 determines the slide direction (step S18). When the sliding direction is upward (upper step S18), the operation corresponding unit 150 decrements the value of the counter k indicating the character number (step S19). When the sliding direction is downward (below step S18), the operation handling unit 150 increments the value of the counter k indicating the character number (step S20). The operation handling unit 150 changes the unconfirmed character to the character having the character number k (step S21). The output unit 160 updates the undetermined character displayed in the character input area 200 with the changed undetermined character (step S22).

操作認識部140は,ユーザによるセンサ12から指を離す操作が認識されたかを判定する(ステップS23)。指を離す操作が認識されなければ(ステップS23のNO),操作認識部140は,ステップS17の処理に進む。   The operation recognition unit 140 determines whether an operation of releasing a finger from the sensor 12 by the user is recognized (step S23). If the operation of releasing the finger is not recognized (NO in step S23), the operation recognizing unit 140 proceeds to the process of step S17.

指を離す操作が認識されれば(ステップS23のYES),操作対応部150は,未確定文字を確定する(ステップS24)。出力部160は,文字入力エリア200に表示されている未確定文字を,確定状態に変更する(ステップS25)。   If the operation of releasing the finger is recognized (YES in step S23), the operation handling unit 150 determines the unconfirmed character (step S24). The output unit 160 changes the unconfirmed character displayed in the character input area 200 to a confirmed state (step S25).

以上説明したように,本実施の形態による文字入力の技術によって,ユーザは,容易な操作で文字入力ができるようになる。例えば小型のスマート端末において,タッチパネル11の画面上にソフトウェアキーボードを表示しなくてもよいので,文字入力を行うユーザに対して多くの情報を提供でき,また文字の誤入力の可能性を低くできる。   As described above, the character input technique according to the present embodiment enables the user to input characters with an easy operation. For example, since it is not necessary to display a software keyboard on the screen of the touch panel 11 in a small smart terminal, a large amount of information can be provided to a user who inputs characters, and the possibility of erroneous input of characters can be reduced. .

以上,本実施の形態について説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。   Although the present embodiment has been described above, the present invention can naturally be modified in various ways within the scope of the gist thereof.

例えば,本実施の形態では,ひらがなを入力する例について説明したが,本実施の形態による文字入力の技術を,カタカナ,数字,アルファベット,記号など,他の文字種の入力に適用することも可能である。例えば,ユーザに左右方向のスライド操作で文字種を選択させ,上下方向のスライド操作で文字を選択させるという実施も可能である。   For example, in this embodiment, an example of inputting hiragana has been described, but the character input technique according to this embodiment can also be applied to input of other character types such as katakana, numbers, alphabets, and symbols. is there. For example, it is possible to allow the user to select a character type by a left and right sliding operation and to select a character by a vertical sliding operation.

また,例えば,本実施の形態では,複数の指にそれぞれ文字群を割り当てて文字入力を行う例を説明したが,1つの指による操作で文字入力を行うようにする設計も可能である。例えば,ひらがなの入力において,ユーザに左右方向のスライド操作で「あ行」,「か行」などの行を選択させ,上下方向のスライド操作で「あ段」,「い段」などの段を選択させるという実施も可能である。   Further, for example, in the present embodiment, an example in which a character group is assigned to each of a plurality of fingers and characters are input has been described. However, a design in which characters are input by an operation with one finger is also possible. For example, when inputting hiragana, the user selects a line such as “A” or “K” from the left / right slide operation, and selects a row such as “A” or “I” from the vertical slide. It is also possible to make it select.

10 端末
11 タッチパネル
12 センサ
100 文字入力部
110 生体情報取得部
120 指特定部
130 文字特定部
140 操作認識部
150 操作対応部
160 出力部
170 指認識情報記憶部
180 文字対応情報記憶部
DESCRIPTION OF SYMBOLS 10 Terminal 11 Touch panel 12 Sensor 100 Character input part 110 Biometric information acquisition part 120 Finger specific part 130 Character specific part 140 Operation recognition part 150 Operation corresponding part 160 Output part 170 Finger recognition information storage part 180 Character corresponding information storage part

Claims (4)

コンピュータに,
センサから得られるユーザの生体情報を取得し,
前記生体情報の取得に対応して,入力が確定されていない文字である未確定文字を特定し,
前記取得された生体情報の変化から,前記ユーザによる前記センサに対するスライド操作を認識し,
前記スライド操作に応じて,前記未確定文字を変更する
処理を実行させるための文字入力プログラム。
Computer
Obtain the user's biological information obtained from the sensor,
Corresponding to the acquisition of the biometric information, an unconfirmed character that is an unconfirmed input character is identified,
Recognizing the slide operation on the sensor by the user from the change of the acquired biological information,
A character input program for executing processing for changing the unconfirmed character in response to the slide operation.
前記コンピュータに,さらに,
記憶部に記憶された指と生体情報との対応を参照し,前記取得された生体情報に対応する指を特定する処理を実行させ,
前記未確定文字を特定する処理では,記憶部に記憶された指と文字との対応を参照し,前記特定された指に対応する文字を特定する
ことを特徴とする請求項1に記載の文字入力プログラム。
In addition to the computer,
Referring to the correspondence between the finger and the biometric information stored in the storage unit, and executing the process of specifying the finger corresponding to the acquired biometric information,
2. The character according to claim 1, wherein in the process of specifying the unconfirmed character, the character corresponding to the specified finger is specified with reference to a correspondence between the finger and the character stored in the storage unit. Input program.
センサから得られるユーザの生体情報を取得する生体情報取得部と,
前記生体情報の取得に対応して,入力が確定されていない文字である未確定文字を特定する文字特定部と,
前記取得された生体情報の変化から,前記ユーザによる前記センサに対するスライド操作を認識する操作認識部と,
前記スライド操作に応じて,前記未確定文字を変更する操作対応部とを備える
ことを特徴とする文字入力装置。
A biometric information acquisition unit that acquires biometric information of the user obtained from the sensor;
Corresponding to the acquisition of the biometric information, a character identifying unit that identifies an unconfirmed character that is a character whose input has not been confirmed;
An operation recognition unit for recognizing a slide operation on the sensor by the user from the change of the acquired biological information;
A character input device comprising: an operation corresponding unit that changes the unconfirmed character in response to the slide operation.
コンピュータが,
センサから得られるユーザの生体情報を取得し,
前記生体情報の取得に対応して,入力が確定されていない文字である未確定文字を特定し,
前記取得された生体情報の変化から,前記ユーザによる前記センサに対するスライド操作を認識し,
前記スライド操作に応じて,前記未確定文字を変更する処理を実行する
ことを特徴とする文字入力方法。
Computer
Obtain the user's biological information obtained from the sensor,
Corresponding to the acquisition of the biometric information, an unconfirmed character that is an unconfirmed input character is identified,
Recognizing the slide operation on the sensor by the user from the change of the acquired biological information,
The character input method characterized by performing the process which changes the said undetermined character according to the said slide operation.
JP2012277721A 2012-12-20 2012-12-20 Character input program, character input device, and character input method Expired - Fee Related JP6102241B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012277721A JP6102241B2 (en) 2012-12-20 2012-12-20 Character input program, character input device, and character input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012277721A JP6102241B2 (en) 2012-12-20 2012-12-20 Character input program, character input device, and character input method

Publications (2)

Publication Number Publication Date
JP2014123174A true JP2014123174A (en) 2014-07-03
JP6102241B2 JP6102241B2 (en) 2017-03-29

Family

ID=51403626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012277721A Expired - Fee Related JP6102241B2 (en) 2012-12-20 2012-12-20 Character input program, character input device, and character input method

Country Status (1)

Country Link
JP (1) JP6102241B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044339A (en) * 2003-07-08 2005-02-17 Ntt Docomo Inc Input key and input device
JP2005149516A (en) * 2000-01-20 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> Fingerprint identification information terminal, fingerprint identification information inputting method, and recording medium having fingerprint identification inputting method recorded thereon
US20050174325A1 (en) * 2003-12-23 2005-08-11 Authen Tec, Inc. Electronic device with finger sensor for character entry and associated methods
JP2006146579A (en) * 2004-11-19 2006-06-08 Olympus Corp Data retrieving/reproducing apparatus, information inputting/recording apparatus, and operation apparatus
JP2007065742A (en) * 2005-08-29 2007-03-15 Casio Comput Co Ltd Key input controller
JP2007094862A (en) * 2005-09-29 2007-04-12 Sharp Corp Information generation device, information generation method, information generation program and machine-readable recording medium
JP2010113564A (en) * 2008-11-07 2010-05-20 Casio Hitachi Mobile Communications Co Ltd Terminal device and program
JP2010170584A (en) * 2010-04-26 2010-08-05 Ntt Docomo Inc Input terminal
JP2012008988A (en) * 2010-06-28 2012-01-12 Kyocera Corp Electronic equipment
JP2012248224A (en) * 2012-09-14 2012-12-13 Nec Corp Character input device, character input method and character input program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149516A (en) * 2000-01-20 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> Fingerprint identification information terminal, fingerprint identification information inputting method, and recording medium having fingerprint identification inputting method recorded thereon
JP2005044339A (en) * 2003-07-08 2005-02-17 Ntt Docomo Inc Input key and input device
US20050174325A1 (en) * 2003-12-23 2005-08-11 Authen Tec, Inc. Electronic device with finger sensor for character entry and associated methods
JP2006146579A (en) * 2004-11-19 2006-06-08 Olympus Corp Data retrieving/reproducing apparatus, information inputting/recording apparatus, and operation apparatus
JP2007065742A (en) * 2005-08-29 2007-03-15 Casio Comput Co Ltd Key input controller
JP2007094862A (en) * 2005-09-29 2007-04-12 Sharp Corp Information generation device, information generation method, information generation program and machine-readable recording medium
JP2010113564A (en) * 2008-11-07 2010-05-20 Casio Hitachi Mobile Communications Co Ltd Terminal device and program
JP2010170584A (en) * 2010-04-26 2010-08-05 Ntt Docomo Inc Input terminal
JP2012008988A (en) * 2010-06-28 2012-01-12 Kyocera Corp Electronic equipment
JP2012248224A (en) * 2012-09-14 2012-12-13 Nec Corp Character input device, character input method and character input program

Also Published As

Publication number Publication date
JP6102241B2 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
CN104571852B (en) The moving method and device of icon
US10048748B2 (en) Audio-visual interaction with user devices
JP6427559B6 (en) Permanent synchronization system for handwriting input
JP5270027B1 (en) Information processing apparatus and handwritten document search method
EP3193247A1 (en) Method for controlling lock status of application and electronic device supporting same
US20140337804A1 (en) Symbol-based digital ink analysis
JP6180888B2 (en) Electronic device, method and program
US8952897B2 (en) Single page soft input panels for larger character sets
JP5813780B2 (en) Electronic device, method and program
CN105630327B (en) The method of the display of portable electronic device and control optional element
US9971416B2 (en) Chinese character entry via a Pinyin input method
US20140354553A1 (en) Automatically switching touch input modes
JP6426417B2 (en) Electronic device, method and program
CN101118471B (en) System and method for implementing function by user-defined hand-written symbol
CN104077065A (en) Method for displaying virtual keyboard by touch screen terminal and touch screen terminal
JP6430198B2 (en) Electronic device, method and program
JP2012098891A (en) Information processing system and information processing method
KR20110054089A (en) Terminal and method for providing user interface using fingerprint identification
CN105824694A (en) Adjustment method and device for resources of applications
CN105159874A (en) Method and apparatus for modifying character
JP6102241B2 (en) Character input program, character input device, and character input method
CN104407763A (en) Content input method and system
WO2016091045A1 (en) Information processing method, apparatus and device, and non-volatile computer storage medium
CN106990901A (en) The processing method and processing device of cue mark
KR102160249B1 (en) A method for editing a plurality of memo pages stored in portable device and an apparatus therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6102241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees