JP2014115688A - 文字入力システムおよび文字入力方法 - Google Patents
文字入力システムおよび文字入力方法 Download PDFInfo
- Publication number
- JP2014115688A JP2014115688A JP2012266917A JP2012266917A JP2014115688A JP 2014115688 A JP2014115688 A JP 2014115688A JP 2012266917 A JP2012266917 A JP 2012266917A JP 2012266917 A JP2012266917 A JP 2012266917A JP 2014115688 A JP2014115688 A JP 2014115688A
- Authority
- JP
- Japan
- Prior art keywords
- character
- user
- finger
- hand
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】操作場所の自由度を向上させながら、文字入力を簡単に行うことが可能な文字入力システムを提供する。
【解決手段】この文字入力システム1は、ユーザの両手の指の動きを認識する受信部11と、複数の文字毎に予め組み分けされた文字グループを複数有する文字情報を格納する記憶部15と、ユーザの指の動きに基づいて記憶部15から文字を抽出する制御部17と、を備える。制御部17は、ユーザの一方の手の指の動きに基づいて、複数の文字グループから1個の文字グループを抽出するとともに、ユーザの他方の手の指の動きに基づいて、抽出した文字グループから1個の文字を抽出する機能を有する。
【選択図】図3
【解決手段】この文字入力システム1は、ユーザの両手の指の動きを認識する受信部11と、複数の文字毎に予め組み分けされた文字グループを複数有する文字情報を格納する記憶部15と、ユーザの指の動きに基づいて記憶部15から文字を抽出する制御部17と、を備える。制御部17は、ユーザの一方の手の指の動きに基づいて、複数の文字グループから1個の文字グループを抽出するとともに、ユーザの他方の手の指の動きに基づいて、抽出した文字グループから1個の文字を抽出する機能を有する。
【選択図】図3
Description
この発明は、スマートフォンなどの電子機器(入力対象装置)に文字入力可能な文字入力システムおよび文字入力方法に関し、特に、ユーザの手の指の動きを認識して文字入力を行う文字入力システムおよび文字入力方法に関する。
従来、パーソナルコンピュータ(電子機器)に文字入力を行う方法としては、キーボードを用いる方法が一般的である。しかしながら、キーボードを用いる方法では、キーボードを設置する場所が必要であり文字入力する場所に制限があるという不都合や、持ち運びが不便であるという不都合がある。
また、スマートフォン(電子機器)に文字入力を行う方法として、音声入力方式も採用されている。この方法では、キーボードを用いる場合と異なり、キーボードの設置場所を確保する必要がないとともに、持ち運びが不便であるということもない。しかしながら、音声入力方式では、声を出せない場所では文字入力ができないという不都合や、人の声や話し方によっては音声認識率が大きく低下する場合があるという不都合がある。
また、特許文献1には、ユーザの指に装着される複数のリング(装着体)と、リングの動きを画像認識するデジタルカメラ(認識部)を搭載したヘッドマウントディスプレイと、を用いたハンドジェスチャーの認識方法が開示されている。また、特許文献1には、複数のリングの位置姿勢をヘッドマウントディスプレイが画像認識することによって、物をつまんだり、物の長さを測ったりすることができる、と記載されている。
特許文献1では、キーボードを用いる場合と異なり、キーボードの設置場所を確保する必要がないとともに、持ち運びが不便であるということもない。また、音声入力方式の場合と異なり、声を出せない場所では使用できないという不都合もないし、人の声や話し方によっては音声認識率が大きく低下する場合があるという不都合もない。
しかしながら、特許文献1では、物をつまんだり、物の長さを測ったりといった比較的簡単な操作を行うことは可能であるが、文字入力といった比較的高度な操作を行うことは困難であるという問題点がある。
この発明は、上記のような課題を解決するためになされたものであり、この発明の目的は、操作場所の自由度を向上させながら、文字入力を簡単に行うことが可能な文字入力システムおよび文字入力方法を提供することである。
上記目的を達成するために、この発明の文字入力システムは、ユーザの両手の指の動きを認識する認識部と、複数の文字毎に予め組み分けされた文字グループを複数有する文字情報を格納する記憶部と、認識部が認識したユーザの指の動きに基づいて、記憶部から文字を抽出する文字抽出部と、を備え、文字抽出部は、ユーザの一方の手の指の動きに基づいて、複数の文字グループから1個の文字グループを抽出するとともに、ユーザの他方の手の指の動きに基づいて、抽出した文字グループから1個の文字を抽出する機能を有し、文字入力の対象である入力対象装置には、文字抽出部により抽出された文字が入力される。
なお、本明細書および特許請求の範囲において、「指の動きを認識する」とは、カメラ画像認識等で指の動きを認識する場合だけでなく、自身の動きを検知する装着体を指に装着して、装着体から検知情報を認識部に送信することにより、認識部が指や装着体の動きを認識する場合も含む概念である。また、「抽出された文字が入力される」とは、抽出された文字がそのまま入力される場合だけでなく、抽出された文字を例えば漢字に変換した後の文字が入力される場合も含む概念である。また、「文字」とは、ひらがな、カタカナ、アルファベット、漢字などだけでなく、数字や記号も含む概念である。
本発明によれば、ユーザの両手の指の動きを認識する認識部を備えることによって、ユーザが指を動かすことにより、認識部はユーザの指の動きを認識することができる。これにより、文字入力を行うために、キーボードを用いたり音声入力したりする必要がない。このため、キーボードを用いる場合と異なり、キーボードの設置場所を確保する必要がないとともに、持ち運びが不便であるということもない。また、音声入力方式の場合と異なり、声を出せない場所では使用できないという不都合もないし、人の声や話し方によって音声認識率が大きく低下する場合があるという不都合もない。
また、文字抽出部は、ユーザの一方の手の指の動きに基づいて、複数の文字グループから1個の文字グループを抽出するとともに、ユーザの他方の手の指の動きに基づいて、抽出した文字グループから1個の文字を抽出する。これにより、ユーザが両方の手の指を動かすだけで、文字の抽出を早く簡単に行うことができる。そして、文字入力の対象である入力対象装置に文字入力を行うことができる。
以下、本発明の実施形態について図面を参照して説明する。
<第1実施形態>
まず、図1〜図7を参照して、本発明の第1実施形態による文字入力システム1の構成について説明する。
まず、図1〜図7を参照して、本発明の第1実施形態による文字入力システム1の構成について説明する。
本発明の第1実施形態の文字入力システム1は図1に示すように、ユーザの手の指に装着される複数(例えば10個)の動作センサ(装着体)2と、動作センサ2の動きを認識することによりユーザの手の指の動きを認識する装置本体10とを備える。
図1に示すように動作センサ2は手袋3に取り付けられるものであって、ユーザが手袋3をはめることにより動作センサ2が指に装着されてもよい。動作センサ2は手袋3の指部分の爪側に取り付けられていてもよいし、図示しないが手袋3の指部分の腹側に取り付けられていてもよい。また、手袋3は装置本体10と一体に構成されていてもよい。
また、図2に示すように、動作センサ2は指に装着されるリング4に一体に設けられるものであって、ユーザがリング4をはめることにより動作センサ2が指に装着されてもよい。
動作センサ2は、図1および図2に示すように指先部分に装着されている。なお、動作センサ2は、図示しないが例えば指の付け根部分などに装着されてもよい。
動作センサ2は、自身の動きを検知する機能を有するとともに、検知した自身の動きに関する検知情報を装置本体10に送信する機能を有する。具体的には、動作センサ2は加速度センサからなり、ユーザが被衝撃部材(机、ユーザの体、椅子、壁など)を叩いた際に加わる衝撃を検知するとともに、検知した検知情報(加速度情報)を装置本体10に送信する機能を有する。この検知情報(加速度情報)には、各動作センサ2を識別可能な個体識別情報が含まれている。これにより、装置本体10は、いずれの動作センサ2が加速度情報を送信してきたか、すなわち、ユーザがいずれの指をタップしたかを検知することが可能となる。なお、動作センサ2が加速度センサからなる場合は、被衝撃部材を叩かなくても、空中でタップの動きをするだけで、すなわち「エアータップ」をするだけで、自身に加わる衝撃を検知することが可能である。
装置本体10は例えば手首に装着して使用されるリストバンド型の文字入力装置である。装置本体10は図3に示すように、受信部(認識部)11と、表示部12と、通信部13と、電源部14と、記憶部15と、一時記憶部16と、制御部(文字抽出部)17と、を備える。装置本体10には、上記の他、必要に応じて各種操作を行うための物理キー(操作部)などが設けられていてもよい。
受信部11は、動作センサ2からの信号を受信する。装置本体10は、動作センサ2と無線通信により通信されることが好ましいが、有線通信であってもよい。なお、装置本体10が有線通信により動作センサ2と通信する場合は、装置本体10は両方の手に1つずつ必要であるとともに、装置本体10同士が互いに通信されてもよい。
表示部12はタッチパネル表示部であって、各種操作キー(図4参照)や、制御部17により抽出された文字情報等を表示する。なお、表示部12は、文字入力操作を行わないときは、時刻情報を表示していてもよい。この構成であれば、装置本体10を文字入力デバイスとして使用しないときには、時計として使用することができ、必要に応じて、文字入力デバイスとなる。すなわち、装置本体10は文字入力機能と時計機能との両方の機能を有する。
通信部13は、無線通信可能に構成されており、文字入力の対象である外部機器50(例えば、スマートフォンなどの携帯端末)(入力対象装置)との間で近距離通信される。例えば、通信部13は表示部12に表示された文字情報を外部機器50に送信する。この無線通信の方式は特に限定されない。例えば、Bluetooth(登録商標)やWi−Fiなどの無線通信方式を採用することができる。
電源部14は、受信部11、表示部12、通信部13、制御部17などに電力を供給するものであって、ボタン電池などの小型の電池が用いられる。
記憶部15は、複数の文字毎に予め組み分けされた文字グループを複数有する文字情報を記憶した文字グループデータベースと、各文字グループに含まれる文字情報を記憶した文字データベースと、漢字に関する文字情報を記憶した漢字データベースと、を有する。
図5に示すように、文字グループデータベースには、一方の手(例えば左手)の各指のタップ回数と、複数の文字毎(50音の行毎)に予め組み分けされた文字グループと、が関連付けられて記憶されている。図5および図6に示すように、例えば、左手の親指、人差し指、中指、薬指、小指のシングルタップに対しては「あ行グループ」「か行グループ」「さ行グループ」「た行グループ」「な行グループ」がそれぞれ関連付けられている。また、左手の親指、人差し指、中指、薬指、小指のダブルタップに対しては「は行グループ」「ま行グループ」「や行グループ」「ら行グループ」「わ行グループ」がそれぞれ関連付けられている。例えば、「あ行グループ」には「あ」「い」「う」「え」「お」が含まれており、「や行グループ」には「や」「ゆ」「よ」が含まれている。なお、左手の全指同時のシングルタップに対しては「Enter」が関連付けられている。
図7に示すように、文字データベースには、一方の手(例えば左手)により抽出された文字グループと、他方の手(例えば右手)の各指のタップ回数と、抽出される文字と、が関連付けられて記憶されている。図6および図7に示すように、例えば、右手の親指、人差し指、中指、薬指、小指のシングルタップに対しては各文字グループの「あ段」「い段」「う段」「え段」「お段」がそれぞれ関連付けられている。また、図7に示すように、右手の各指の長押しは「濁音」に関連付けされている。また、右手の各指のダブルタップは、「小文字」または「半濁音」に関連付けられている。右手の全指同時のシングルタップに対しては「スペース/変換」が関連付けられている。なお、動きセンサ2が加速度センサからなる場合であっても、指が物に当たることで大きな加速度が生じ、指が静止することで一旦加速度がゼロとなった後、指が持ち上げられるときに小さ目の加速度が生じることで、長押しを検知することが可能である。また、例えば、右手の全指同時のダブルタップに対して、「文字抽出の取消(やり直し)」が関連付けられていてもよい。
本実施形態では、「ひらがな」に関する文字情報を用いて説明するが、言うまでもなく、記憶部15には「カタカナ」に関する文字情報も記憶されている。「アルファベット」に関しては、第2実施形態で説明する。
一時記憶部16は、受信部11が受信した検知情報(加速度情報)や、表示部12に表示された文字情報等を一時的に記憶する。
制御部17は、装置本体10を制御するものであり、受信部11、表示部12、通信部13、電源部14、記憶部15および一時記憶部16に電気的に接続されている。
制御部17は、動作センサ2からの検知情報に基づいて、文字を抽出し、必要に応じて漢字に変換し、外部機器50に送信して文字入力を行う機能を有する。
具体的には、制御部17は、ユーザの一方の手(例えば左手)に装着された動作センサ2の動きに基づいて、複数の文字グループから1個の文字グループを抽出するとともに、ユーザの他方の手(例えば右手)に装着された動作センサ2の動きに基づいて、抽出した文字グループから1個の文字を抽出する機能を有する。本実施形態では、制御部17は、ユーザの一方の手(例えば左手)のうちのいずれか1本の指がシングルタップまたはダブルタップすることにより、1個の文字グループを抽出するとともに、ユーザの他方の手(例えば右手)のうちのいずれか1本の指がシングルタップまたはダブルタップすることにより、抽出した文字グループから1個の文字を抽出する機能を有する。また、制御部17は、抽出した文字を表示部12に表示し、必要に応じて漢字に変換し、文字を確定して外部機器50に送信する機能を有する。
次に、図4、図5、図7および図8を参照して、外部機器50への文字入力方法について説明する。ここでは、外部機器50に“今日が”を入力する場合について説明する。
図8に示すように、ステップS1において、ユーザは、外部機器50を例えばメモ画面やメール画面にして入力待ち状態にしておく。この操作は、外部機器50を直接操作することにより行ってもよいし、装置本体10から入力待機信号などを送信することにより行ってもよい。
ステップS2において、装置本体10の表示部12に表示された「ABCキー」(図4参照)を押して、「かな入力」を選択する。
ステップS3において、ユーザは左手の人差し指をシングルタップする。これにより、左手の人差し指に装着された動作センサ2から装置本体10に検知情報が送信される。そして、ステップS4において、制御部17は、左手の指が動かされたと判断し、ステップS5に進む。なお、左手の指が動かされていない場合は、ステップS4において、制御部17により、左手の指が動かされたか否かの判断が繰り返される。その後、ステップS5において、制御部17は、文字グループデータベース(図5参照)を用いて、「か行グループ」を抽出する。
そして、ステップS6において、ユーザは右手の人差し指をシングルタップする。これにより、右手の人差し指に装着された動作センサ2から装置本体10に検知情報が送信される。そして、ステップS7において、制御部17は、右手の指が動かされたと判断し、ステップS8に進む。なお、右手の指が動かされていない場合は、ステップS7において、制御部17により、右手の指が動かされたか否かの判断が繰り返される。その後、ステップS8において、制御部17は、文字データベース(図7参照)を用いて、“き”を抽出する。ステップS9において、抽出された“き”は一時記憶部16に記憶されるとともに、表示部12に表示される。
そして、ステップS10において、制御部17は、「スペース/変換」の指示があったか否かを判断する。すなわち、制御部17は、右手の全指が同時にシングルタップされたか否かを判断する。この例では、まだ右手の全指がシングルタップされないので、ステップS13に進む。
その後、ステップS13において、制御部17は、「Enter」の指示があったか否かを判断する。すなわち、制御部17は、左手の全指が同時にシングルタップされたか否かを判断する。この例では、まだ左手の全指がシングルタップされないので、ステップS3に戻る。
以下の説明において、上記ステップS3〜S13との共通部分については、その説明を省略する。
次に、ステップS3において、ユーザは左手の中指をダブルタップする。これにより、ステップS5において、制御部17は、文字グループデータベース(図5参照)を用いて、「や行グループ」を抽出する。
そして、ステップS6において、ユーザは右手の小指をダブルタップする。これにより、ステップS8において、制御部17は、文字データベース(図7参照)を用いて、“ょ”を抽出する。
そして、ステップS10において、この例では、まだ右手の全指がシングルタップされないので、ステップS13に進む。
その後、ステップS13において、この例では、まだ左手の全指がシングルタップされないので、ステップS3に戻る。
次に、ステップS3において、ユーザは左手の親指をシングルタップする。これにより、ステップS5において、制御部17は、文字グループデータベース(図5参照)を用いて、「あ行グループ」を抽出する。
そして、ステップS6において、ユーザは右手の中指をシングルタップする。これにより、ステップS8において、制御部17は、文字データベース(図7参照)を用いて、“う”を抽出する。
そして、ユーザは右手の全指を同時にシングルタップする。これにより、ステップS10において、制御部17は、「スペース/変換」の指示があったと判断する。ステップS11において、制御部17は、漢字データベースを用いて“今日”を抽出する。ステップS12において、抽出された“今日”は一時記憶部16に記憶されるとともに、表示部12には“今日”が表示される。
そして、ユーザは左手の全指を同時にシングルタップする。これにより、ステップS13において、“今日”が確定され、ステップS14に進む。
ステップS14において、制御部17により、確定した文字を外部機器50に送信する指示があったか否かが判断される。この例では、まだ、確定した文字を外部機器50に送信する指示は行われないので、ステップS3に戻る。
次に、ステップS3において、ユーザは左手の人差し指をシングルタップする。これにより、ステップS5において、制御部17は、文字グループデータベース(図5参照)を用いて、「か行グループ」を抽出する。
そして、ステップS6において、ユーザは右手の親指を長押しする。これにより、ステップS8において、制御部17は、文字データベース(図7参照)を用いて、“が”を抽出する。
そして、ステップS10において、この例では、右手の全指によるシングルタップは行われないので、ステップS13に進む。
そして、ユーザは左手の全指を同時にシングルタップする。これにより、ステップS13において、“が”が確定され、ステップS14に進む。
その後、ユーザは、例えば装置本体10の表示部12に表示される「送信キー」を押す。これにより、ステップS14において、制御部17は、確定した文字を外部機器50に送信する指示があったと判断する。そして、ステップS15において、制御部17は、確定した文字“今日が”を外部機器50に送信する。そして、外部機器50の表示部に“今日が”が入力される。
なお、上記説明では、確定した文字を外部機器50に送信するために、ユーザが「送信キー」を押す例について示したが、ステップS13においてユーザが左手の全指をシングルタップして文字を確定するのと同時に、その文字を外部機器50に自動的に送信して入力するようにしてもよい。
また、漢字、濁音、半濁音および小文字への変換や、改行等は、ユーザの指のタップにより行ってもよいし、装置本体10の表示部12に表示される各種キーを押すことにより行ってもよい。
本実施形態では、上記のように、ユーザの両手の指の動きを認識する受信部11を備えることによって、ユーザが指を動かすことにより、受信部11(装置本体10)はユーザの指の動きを認識することができる。これにより、文字入力を行うために、キーボードを用いたり音声入力したりする必要がない。このため、キーボードを用いる場合と異なり、キーボードの設置場所を確保する必要がないとともに、持ち運びが不便であるということもない。また、音声入力方式の場合と異なり、声を出せない場所では使用できないという不都合もないし、人の声や話し方によって音声認識率が大きく低下する場合があるという不都合もない。
また、制御部17は、ユーザの一方の手の指の動きに基づいて、複数の文字グループから1個の文字グループを抽出するとともに、ユーザの他方の手の指の動きに基づいて、抽出した文字グループから1個の文字を抽出する。これにより、ユーザが両方の手の指を動かすだけで、文字の抽出を早く簡単に行うことができる。そして、通信部13が、抽出された文字を外部機器50に送信することによって、文字入力の対象である外部機器50に文字入力を行うことができる。
また、上記のように、制御部17は、ユーザの一方の手のうちのいずれか1本の指がシングルタップまたはダブルタップすることにより、1個の文字グループを抽出するとともに、ユーザの他方の手のうちのいずれか1本の指がシングルタップまたはダブルタップすることにより、抽出した文字グループから1個の文字を抽出する機能を有する。これにより、ユーザが簡単な指の動作を行うだけで制御部17により文字の抽出を行うことができるので、文字の抽出をより簡単に行うことができる。
また、上記のように、ユーザの一方の手の指の動きにより、抽出する文字の50音の行が特定され、ユーザの他方の手の指の動きにより、抽出する文字の50音の段が特定される。これにより、ユーザが両方の手の指を動かすだけで、文字の抽出をより簡単に行うことができる。
また、上記のように、ユーザの手の指に装着される複数の動作センサ2を備える。これにより、装置本体10がユーザの手の指の動きを誤認識するのを抑制することができる。
また、上記のように、動作センサ2は、自身の動きを検知する機能を有するとともに、検知した自身の動きに関する検知情報を装置本体10に送信する機能を有する。これにより、装置本体10に動作センサ2を画像認識させるためのカメラを搭載する必要がないので、装置本体10を小型化することができる。また、カメラの視野範囲内で動作センサ2を動かす必要もないので、操作場所の自由度をより向上させることができる。
また、上記のように、動作センサ2は、ユーザの指が被衝撃部材(机、ユーザの体、椅子、壁など)を叩いた際に加わる衝撃を検知する加速度センサである。これにより、ユーザが指をタップするだけで文字の抽出を行うことができるので、文字の抽出をより簡単に行うことができる。
また、上記のように、装置本体10は、抽出された文字を表示する表示部12を含み、制御部17は、ユーザの手の指の動きに基づいて、表示部12に表示された文字を確定する機能を有する。これにより、文字の確定も簡単に行うことができる。
<第2実施形態>
この第2実施形態では、文字入力システム1が「アルファベット」を入力可能に構成されている場合について説明する。
この第2実施形態では、文字入力システム1が「アルファベット」を入力可能に構成されている場合について説明する。
本発明の第2実施形態の文字入力システム1では、記憶部15は、複数のアルファベット毎に予め組み分けされた文字グループを複数含む文字情報を記憶したアルファベット用の文字グループデータベースと、各文字グループに含まれる文字情報を記憶したアルファベット用の文字データベースと、を有する。
図9に示すように、アルファベット用の文字グループデータベースには、一方の手(例えば左手)の各指のタップ回数と、複数の文字毎に予め組み分けされた文字グループと、が関連付けられて記憶されている。図9および図10に示すように、例えば、左手の親指、人差し指、中指、薬指、小指のシングルタップに対しては「Aグループ」「Fグループ」「Kグループ」「Pグループ」「Uグループ」がそれぞれ関連付けられている。なお、「Aグループ」には「A」「B」「C」「D」「E」が含まれ、「Fグループ」には「F」「G」「H」「I」「J」が含まれ、「Kグループ」には「K」「L」「M」「N」「O」が含まれ、「Pグループ」には「P」「Q」「R」「S」「T」が含まれ、「Uグループ」には「U」「V」「W」「X」「Y」が含まれている。
また、左手の親指のダブルタップに対しては「Zグループ」が関連付けられている。なお、「Zグループ」には「Z」が含まれている他、例えば「:」「;」「@」「“」「#」「$」「%」「&」「()」などの記号が含まれていてもよい。また、左手の全指同時のシングルタップに対しては「Enter」が関連付けられている。
図11に示すように、アルファベット用の文字データベースには、一方の手(例えば左手)により抽出された文字グループと、他方の手(例えば右手)の各指のタップ回数と、抽出される文字(または記号)と、が関連付けられて記憶されている。図10および図11に示すように、右手の親指、人差し指、中指、薬指、小指のシングルタップに対しては各文字グループの「1つ目の文字」「2つ目の文字(または記号)」「3つ目の文字(または記号)」「4つ目の文字(または記号)」「5つ目の文字(または記号)」がそれぞれ関連付けられている。例えば、「Aグループ」の「3つ目の文字」は「C」であり、「Uグループ」の「5つ目の文字」は「Y」である。また、右手の各指のダブルタップは、「小文字(または記号)」に関連付けられている。なお、右手の全指同時のシングルタップに対しては「スペース/変換」が関連付けられている。
第2実施形態のその他の構成、文字入力方法および効果は、上記第1実施形態と同様である。
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
例えば、上記実施形態では、文字入力の対象である入力対象装置がスマートフォンである例について示したが、本発明はこれに限らない。入力対象装置は、例えばパーソナルコンピュータ、タブレット端末や、その他の電子機器でもよい。
また、上記実施形態では、受信部(認識部)や文字抽出部が、手首に装着される機器(装置本体)に内蔵される例について示したが、本発明はこれに限らない。受信部や文字抽出部は、例えば、ヘッドマウントディスプレイに内蔵されていてもよいし、パーソナルコンピュータやタブレット端末などの入力対象装置に内蔵されていてもよい。
また、上記実施形態では、自身の動きを検知する装着体を指に装着して、検知情報を装置本体に送信することにより、装置本体が指の動きを認識する例について示したが、本発明はこれに限らない。装置本体にカメラ(認識部)を設け、カメラ画像認識により指の動きを認識してもよい。
また、例えば上記第2実施形態では、右手の指のシングルタップにより大文字が抽出され、ダブルタップにより小文字が抽出されるように構成した例について示したが、本発明はこれに限らない。例えば、装置本体の表示部に「大小切替キー」などを表示してこれを押すことにより、アルファベットの大文字を抽出するか小文字を抽出するかを予め設定してもよい。また、右手の指のダブルタップにより小文字が抽出された後は、シングルタップにより小文字が抽出され、ダブルタップにより大文字が抽出されるように構成してもよい。上記のように構成すれば、小文字を抽出しようとする度に、ダブルタップする必要がないので、タップ回数を低減することができ、文字入力時間を短縮することができる。
また、上記実施形態では、抽出した文字を装置本体の表示部に表示し、ユーザが文字を確定してから、確定した文字を外部機器(入力対象装置)に送信したが、本発明はこれに限らない。入力対象装置が表示部を有する場合には、抽出した文字を入力対象装置に送信して入力対象装置の表示部に表示した後に、ユーザが文字を確定してもよい。
また、上記実施形態では、動作センサが加速度センサである例について示したが、本発明はこれに限らない。動作センサは、例えば、ユーザの指が被衝撃部材を叩いた際に加わる振動を検知する振動センサであってもよいし、指の歪を検知する歪センサであってもよいし、ピエゾ素子のような圧力センサであってもよい。
また、上記実施形態では、制御部が文字抽出部として機能する例について示したが、本発明はこれに限らず、制御部とは別に文字抽出部を設けてもよい。
また、上述した実施形態および変形例の構成を適宜組み合わせて得られる構成についても、本発明の技術的範囲に含まれる。
1 文字入力システム
2 動作センサ(装着体、加速度センサ)
10 装置本体
11 受信部(認識部)
12 表示部
13 通信部
15 記憶部
17 制御部(文字抽出部)
50 外部機器(入力対象装置)
2 動作センサ(装着体、加速度センサ)
10 装置本体
11 受信部(認識部)
12 表示部
13 通信部
15 記憶部
17 制御部(文字抽出部)
50 外部機器(入力対象装置)
Claims (5)
- ユーザの両手の指の動きを認識する認識部と、
複数の文字毎に予め組み分けされた文字グループを複数有する文字情報を格納する記憶部と、
前記認識部が認識したユーザの指の動きに基づいて、前記記憶部から文字を抽出する文字抽出部と、
を備え、
前記文字抽出部は、ユーザの一方の手の指の動きに基づいて、複数の前記文字グループから1個の文字グループを抽出するとともに、ユーザの他方の手の指の動きに基づいて、抽出した前記文字グループから1個の文字を抽出する機能を有し、
文字入力の対象である入力対象装置には、前記文字抽出部により抽出された文字が入力されることを特徴とする文字入力システム。 - 前記文字抽出部は、ユーザの一方の手のうちのいずれか1本の指がシングルタップまたはダブルタップすることにより、前記1個の文字グループを抽出するとともに、ユーザの他方の手のうちのいずれか1本の指がシングルタップまたはダブルタップすることにより、前記抽出した文字グループから前記1個の文字を抽出する機能を有することを特徴とする請求項1に記載の文字入力システム。
- 前記ユーザの一方の手の指の動きにより、抽出する文字の50音の行が特定され、
前記ユーザの他方の手の指の動きにより、抽出する文字の50音の段が特定されることを特徴とする請求項1または2に記載の文字入力システム。 - ユーザの手の指に装着される複数の装着体をさらに備え、
前記文字抽出部は、ユーザの一方の手に装着された前記装着体の動きに基づいて、前記1個の文字グループを抽出するとともに、ユーザの他方の手に装着された前記装着体の動きに基づいて、前記1個の文字を抽出する機能を有することを特徴とする請求項1〜3のいずれか1項に記載の文字入力システム。 - ユーザの両手の指の動きを認識して文字入力を行う文字入力方法であって、
認識部がユーザの両手の指の動きを認識するステップと、
文字抽出部が、前記認識部が認識したユーザの一方の手の指の動きに基づいて、複数の文字毎に予め組み分けされた文字グループから1個の文字グループを抽出するとともに、前記認識部が認識したユーザの他方の手の指の動きに基づいて、抽出した前記文字グループから1個の文字を抽出するステップと、
文字入力の対象である入力対象装置に、前記文字抽出部により抽出された文字が入力されるステップと、
を備えることを特徴とする文字入力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012266917A JP2014115688A (ja) | 2012-12-06 | 2012-12-06 | 文字入力システムおよび文字入力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012266917A JP2014115688A (ja) | 2012-12-06 | 2012-12-06 | 文字入力システムおよび文字入力方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014115688A true JP2014115688A (ja) | 2014-06-26 |
Family
ID=51171652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012266917A Pending JP2014115688A (ja) | 2012-12-06 | 2012-12-06 | 文字入力システムおよび文字入力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014115688A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016085516A (ja) * | 2014-10-23 | 2016-05-19 | 学校法人立命館 | 文字入力システム、辞書データ、及びコンピュータプログラム |
JP2017509957A (ja) * | 2014-01-26 | 2017-04-06 | ▲華▼▲為▼▲終▼端有限公司 | 情報処理の方法、装置、およびデバイス |
JP2017073090A (ja) * | 2015-10-09 | 2017-04-13 | 献平 陳 | データ入力装置 |
WO2020170851A1 (ja) * | 2019-02-22 | 2020-08-27 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
-
2012
- 2012-12-06 JP JP2012266917A patent/JP2014115688A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017509957A (ja) * | 2014-01-26 | 2017-04-06 | ▲華▼▲為▼▲終▼端有限公司 | 情報処理の方法、装置、およびデバイス |
US9965044B2 (en) | 2014-01-26 | 2018-05-08 | Huawei Device (Dongguan) Co., Ltd. | Information processing method, apparatus, and device |
JP2016085516A (ja) * | 2014-10-23 | 2016-05-19 | 学校法人立命館 | 文字入力システム、辞書データ、及びコンピュータプログラム |
JP2017073090A (ja) * | 2015-10-09 | 2017-04-13 | 献平 陳 | データ入力装置 |
WO2020170851A1 (ja) * | 2019-02-22 | 2020-08-27 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
US11789543B2 (en) | 2019-02-22 | 2023-10-17 | Sony Group Corporation | Information processing apparatus and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8686947B2 (en) | Finger keypad system and method | |
US9182907B2 (en) | Character input device | |
US20080136679A1 (en) | Using sequential taps to enter text | |
CN107209560A (zh) | 检测手指移动 | |
CN105630327A (zh) | 便携式电子设备和控制可选元素的显示的方法 | |
JP2014115688A (ja) | 文字入力システムおよび文字入力方法 | |
US20170285871A1 (en) | Electronic device and operating method thereof | |
US9342169B2 (en) | Terminal device | |
CN106406529A (zh) | 一种输入方法、装置及可穿戴键盘 | |
US20140125596A1 (en) | Method of Inputting Characters, and Apparatus and System for Inputting Characters Using The Method | |
US20200168121A1 (en) | Device for Interpretation of Digital Content for the Visually Impaired | |
CN103631368A (zh) | 检测装置、检测方法以及电子设备 | |
US20150293607A1 (en) | Chord input method of handheld device matching with virtual interface and physical buttons and handheld device using the same | |
KR100579814B1 (ko) | 이동 단말기용 문자 입력 시스템과 이를 이용한 이동 단말기 | |
Ramachandran et al. | Communication device for the visual and hearing impaired persons to convert braille characters to English text | |
US20230236673A1 (en) | Non-standard keyboard input system | |
CN115145446B (zh) | 字符输入方法、装置及终端 | |
CN105807939B (zh) | 提高键盘输入速率的电子设备及方法 | |
KR101491039B1 (ko) | 스마트폰용 점자 입력 장치 | |
CN104571517A (zh) | 一种人体动作对电子设备进行输入及控制的方法 | |
US11244138B2 (en) | Hologram-based character recognition method and apparatus | |
KR101243853B1 (ko) | 한글 문자입력방법 | |
KR20100122379A (ko) | 문자 입출력 장치 및 그 방법 | |
KR20150123022A (ko) | 점자를 입출력하는 장치 및 방법 | |
CN113552954A (zh) | 一种输入法键盘显示方法、电子设备及存储介质 |