JP7287600B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP7287600B2
JP7287600B2 JP2019118643A JP2019118643A JP7287600B2 JP 7287600 B2 JP7287600 B2 JP 7287600B2 JP 2019118643 A JP2019118643 A JP 2019118643A JP 2019118643 A JP2019118643 A JP 2019118643A JP 7287600 B2 JP7287600 B2 JP 7287600B2
Authority
JP
Japan
Prior art keywords
character
shape
hand
input
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019118643A
Other languages
English (en)
Other versions
JP2021005220A (ja
Inventor
智仁 山▲崎▼
祐樹 松永
真 滝本
弘行 藤野
昌崇 久我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2019118643A priority Critical patent/JP7287600B2/ja
Publication of JP2021005220A publication Critical patent/JP2021005220A/ja
Application granted granted Critical
Publication of JP7287600B2 publication Critical patent/JP7287600B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置に関する。
Leap Motion社が提供するLeap Motion(登録商標)を用いて両手の動きを認識して、文字を入力する仮名文字入力方法が開示されている(例えば、非特許文献1)。この種の仮名文字入力方法では、例えば、右手で子音を選択し、左手で母音を選択することにより、文字を入力する。
山崎 宏樹、"両手の動きによる母音と子音の組み合わせを用いた仮名文字入力手法の研究"、[online]、2018年3月、東京工科大学 メディア学部 ゲームサイエンス プロジェクト、[平成31年3月19日検索]、インターネット〈URL:https://gamescience.jp/2017/Paper/Yamazaki_2017.pdf〉
しかし、文字入力に両手を使用する方法では、文字を入力できるユーザの状況が両手を自由に動かせる状況等に限定される。このため、従来の方法を採用した情報処理装置の使い勝手は必ずしもよいとはいえない。
以上の課題を解決するために、本発明の好適な態様に係る情報処理装置は、ユーザの片手の形状及び動きを検出する検出部と、入力文字の候補となる複数の候補文字が分類された複数の文字グループの中から、入力文字が属する一の文字グループを、検出部により検出された片手の形状及び動きの一方に基づいて特定し、一の文字グループに属する複数の候補文字の中から入力文字を、検出部により検出された片手の形状及び動きの他方に基づいて特定する特定部と、を備える。
本発明によれば、情報処理装置の使い勝手を向上させることができる。
第1実施形態に係る情報処理装置の構成を示すブロック図である。 第1実施形態に係る文字グループの一例を示す説明図である。 図1に示した情報処理装置の動作の概要を示す説明図である。 図1に示した情報処理装置の動作の一例を示すフローチャートである。 第2実施形態に係る情報処理装置の構成を示すブロック図である。 図5に示した情報処理装置の動作の概要を示す説明図である。 図5に示した情報処理装置の動作の一例を示すフローチャートである。 第3実施形態に係る情報処理装置の構成を示すブロック図である。 第3実施形態に係る文字グループの一例を示す説明図である。 図8に示した情報処理装置の動作の概要を示す説明図である。 図8に示した情報処理装置の動作の一例を示すフローチャートである。
[1.第1実施形態]
図1は、第1実施形態に係る情報処理装置10の構成を示すブロック図である。以下の説明では、情報処理装置10として、ユーザの頭部に装着されるウェアラブル端末を想定する。但し、情報処理装置10としては、任意の情報処理装置を採用することができ、例えば、スマートフォン及びタブレット端末等の可搬型の情報端末であってもよい。ユーザの頭部に装着されるウェアラブル端末は、例えば、ヘッドマウントディスプレイ及びスマートグラス等である。例えば、情報処理装置10は、AR(Augmented Reality)技術又はMR(Mixed Reality)技術等を用いて、仮想空間の仮想物体と現実空間の実物体とを表示する。なお、情報処理装置10は、ハーフミラーを用いて、実物体と仮想物体とをユーザに視認させる光学シースルー方式を採用してもよいし、ユーザの周囲の現実空間を撮像した画像に仮想物体を融合して、実物体と仮想物体とをユーザに視認させるビデオシースルー方式を採用してもよい。あるいは、情報処理装置10は、VR(Virtual Reality)技術を用いて、仮想空間を表示してもよい。すなわち、情報処理装置10は、xR(AR、MR及びVR等の総称)技術を用いて、仮想空間等を表示してもよい。
情報処理装置10は、処理装置100、記憶装置120、表示装置140、撮像装置160及び通信装置180を有する。情報処理装置10の複数の要素は、情報を通信するための単体又は複数のバスで相互に接続される。なお、本明細書における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読替えてもよい。また、情報処理装置10の複数の要素の各々を、単数又は複数の機器が構成してもよい。あるいは、情報処理装置10の一部の要素は省略されてもよい。
処理装置100は、情報処理装置10の全体を制御するプロセッサであり、例えば、単数又は複数のチップで構成される。処理装置100は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成される。なお、処理装置100の機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及び、FPGA(Field Programmable Gate Array)等のハードウェアによって実現してもよい。処理装置100は、各種の処理を並列的又は逐次的に実行する。
処理装置100は、例えば、記憶装置120から制御プログラムPR1を読み出して実行することによって、検出部110及び特定部112として機能する。すなわち、情報処理装置10は、検出部110及び特定部112を有する。
検出部110は、ユーザの片手の形状及び動きを検出する。なお、以下では、ユーザの片手の形状の変化、片手の形状の維持及び片手の動きを、ジェスチャと総称する場合がある。例えば、検出部110は、後述する撮像装置160が撮像したユーザの片手の画像を示す撮像データに基づいて、ユーザの片手のジェスチャを検出する。なお、検出部110におけるジェスチャの検出には、例えば、テンプレートマッチング等の画像処理技術を用いることができる。この場合、テンプレートマッチングに用いるテンプレート画像に関する情報等は、例えば、記憶装置120に記憶されていてもよい。また、検出部110におけるジェスチャの検出の判断基準は、例えば、機械学習等の結果に応じて変化してもよい。なお、検出部110におけるジェスチャの検出に用いる技術は、テンプレートマッチングに限定されない。
特定部112は、ユーザの片手のジェスチャにより情報処理装置10に入力される文字を、検出部110により検出された片手のジェスチャに基づいて特定する。以下では、情報処理装置10に入力される文字は、入力文字とも称される。例えば、特定部112は、入力文字の候補となる複数の候補文字が分類された複数の文字グループの中から、入力文字が属する一の文字グループを、検出部110により検出された片手の形状に基づいて特定する。そして、特定部112は、特定した一の文字グループに属する複数の候補文字の中から入力文字を、検出部110により検出された片手の動きに基づいて特定する。文字グループについては、図2において説明する。また、特定部112の動作の詳細については、図3において説明する。
記憶装置120は、処理装置100が読取可能な記録媒体であり、処理装置100が実行する制御プログラムPR1を含む複数のプログラム、及び処理装置100が使用する各種のデータを記憶する。記憶装置120は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及びRAM(Random Access Memory)等の少なくとも1つによって構成されてもよい。記憶装置120は、レジスタ、キャッシュ、又は、メインメモリ(主記憶装置)等と呼ばれてもよい。なお、制御プログラムPR1は、インターネット等のネットワークを介して他の装置から送信されてもよい。
表示装置140は、外部への出力を実施するディスプレイ等の出力デバイスである。表示装置140は、表示部の一例であり、処理装置100による制御のもとで、仮想物体等を表示する。例えば、液晶表示パネル及び有機EL(Electro Luminescence)表示パネル等の各種の表示パネルが表示装置140として好適に利用される。ここで、表示装置140は、実物体と仮想物体とをユーザに視認させるシースルー方式による表示を実現するための光源及び光学系等の各種構成を適宜に含む。
撮像装置160は、被写体を撮像し、撮像した被写体の画像を示す撮像データを出力する装置である。撮像装置160は、例えば、撮像光学系及び撮像素子を有する。撮像光学系は、少なくとも1つの撮像レンズを含む光学系である。例えば、撮像光学系は、プリズム等の各種の光学素子を有してもよいし、ズームレンズやフォーカスレンズ等を有してもよい。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサー又はCMOS(Complementary MOS)イメージセンサー等である。ここで、撮像装置160の撮像可能な領域は、表示装置140の表示可能な領域の一部又は全部を含む。
通信装置180は、他の装置と通信を行うためのハードウェア(送受信デバイス)である。例えば、通信装置180は、移動体通信網又はネットワークを介して他の装置と通信する機能、及び、近距離無線通信によって他の装置と通信する機能の一方又は両方を有する。近距離無線通信には、例えばBluetooth(登録商標)、ZigBee(登録商標)、又は、WiFi(登録商標)等が挙げられる。
なお、情報処理装置10の構成は、図1に示す例に限定されない。例えば、情報処理装置10は、表示装置140又は撮像装置160の姿勢の変化に応じたデータを出力する姿勢センサを有してもよい。この場合、検出部110は、撮像装置160が撮像したユーザの片手の画像を示す撮像データの他に、姿勢センサの検出結果も用いて、ユーザの片手のジェスチャを検出してもよい。また、通信装置180は、必要に応じて設けられればよく、省略されてもよい。
図2は、第1実施形態に係る文字グループCGRの一例を示す説明図である。なお、図2は、図が煩雑になることを避けるため、複数の文字グループCGRのうち、複数の母音グループCGRv(CGRv1、CGRv2、CGRv3、CGRv4及びCGRv5)と、数字グループCGRnmとの一例を示している。すなわち、複数の文字グループCGRのうちのいくつかは、複数の仮名文字が母音に基づいて分類された複数の母音グループCGRvであり、複数の文字グループCGRのうちの1つは、数字及びアルファベットを含む数字グループCGRnmである。
例えば、複数の仮名文字は、母音に基づいて、複数の母音グループCGRvに分類される。具体的には、母音グループCGRv1には、「あ段」に属する文字が含まれる。なお。図2に示す例では、文字「ん」を母音グループCGRv1に含めているが、文字「ん」は、母音グループCGRv1以外の母音グループCGRvに含まれてもよい。また、母音グループCGRv2には、「い段」に属する文字が含まれ、母音グループCGRv3には、「う段」に属する文字が含まれる。そして、母音グループCGRv4には、「え段」に属する文字が含まれ、母音グループCGRv5には、「お段」に属する文字が含まれる。
また、複数の文字グループCGRの各々には、片手HNの形状が予め割り当てられている。例えば、複数の文字グループCGRの各々には、複数のグループ指定形状CFgの何れかが割り当てられている。図2に示す例では、複数のグループ指定形状CFgの5つは、5つの母音指定形状CFv(CFv11、CFv12、CFv13、CFv14及びCFv15)であり、複数のグループ指定形状CFgの1つは、数字指定形状CFnmである。例えば、母音グループCGRv1には、5本の指のうちの親指のみを曲げた母音指定形状CFv11が割り当てられ、母音グループCGRv2には、5本の指のうちの人差し指のみを曲げた母音指定形状CFv12が割り当てられている。また、母音グループCGRv3には、5本の指のうちの中指のみを曲げた母音指定形状CFv13が割り当てられ、母音グループCGRv4には、5本の指のうちの薬指のみを曲げた母音指定形状CFv14が割り当てられている。そして、母音グループCGRv5には、5本の指のうちの小指のみを曲げた母音指定形状CFv15が割り当てられ、数字グループCGRnmには、5本の指のうちの人差し指及び中指のみを伸ばした数字指定形状CFnmが割り当てられている。すなわち、5つの母音指定形状CFvは、5つの母音と1対1に対応している。
なお、文字グループCGRは、図2に示す例に限定されない。例えば、アルファベットは、数字が属する数字グループCGRnmとは別の文字グループCGRに含まれてもよい。また、複数の文字グループCGRの各々に割り当てられるグループ指定形状CFgは、図2に示す例に限定されない。また、図2では、片手HNの形状を、左手を例にして示しているが、グループ指定形状CFgは、左手の形状に限定されない。例えば、検出部110は、右手の5本の指のうちの親指のみを曲げた形状を、母音指定形状CFv11として検出可能である。なお、右手と左手とで互いに異なるグループ指定形状CFgが割り当てられてもよい。
図3は、図1に示した情報処理装置10の動作の概要を示す説明図である。なお、図3では、複数の候補文字が図2に示した複数の文字グループCGRに分類された場合を例にして、情報処理装置10の動作の概要を説明する。
時刻t0では、ユーザの片手HNの形状は、複数の文字グループCGRのいずれにも割り当てられていないニュートラル形状CFntである。このため、情報処理装置10に入力文字を入力する文字入力は、開始されない。
時刻t1において、ユーザは、片手HNの形状を、ニュートラル形状CFntから母音指定形状CFv12に変化させる。このため、検出部110は、片手HNの形状が5つの母音指定形状CFv(CFv11、CFv12、CFv13、CFv14及びCFv15)のうちの母音指定形状CFv12に一致したことを検出する。そして、検出部110は、文字入力に関する片手HNの動きの検出を開始する。
また、片手HNの形状が母音指定形状CFv12に一致したことを検出部110が検出したため、特定部112は、母音指定形状CFv12に対応する母音が属する母音グループCGRv2を、入力文字が属する文字グループCGRとして特定する。そして、特定部112は、母音グループCGRv2に属する複数の候補文字(「い」、「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」)の中から、一の候補文字を、検出部110が検出した片手HNの動きに応じて選択する。なお、検出部110が片手HNの動きの検出を開始した時刻t1では、母音グループCGRv2に属する複数の候補文字(「い」、「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」)のうち、予め決められた候補文字(図3に示す例では、「い」)が、選択されている。例えば、処理装置100は、現時点において選択されている候補文字として、文字「い」を表示装置140に表示させてもよい。
図3に示す例では、候補文字「い」、「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」が、候補文字「い」、「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」の順に仮想的に配置されていると想定して、候補文字の選択等を説明する。
時刻t1から時刻t2にかけて、ユーザは、例えば、肘と手首とを通過するY軸を中心にして、片手HNの形状を維持した状態で、片手HNを回転方向ROT1に回転させる。例えば、検出部110は、時刻t2において、片手HNの動きをとして、時刻t1から時刻t2までの片手HNの回転量及び回転方向ROTを検出する。特定部112は、検出部110が検出した片手HNの回転量に基づいて、母音グループCGRv2に属する複数の候補文字のうちの候補文字「ひ」を選択する。すなわち、時刻t2では、検出部110が検出した片手HNの動きに応じて選択される候補文字は、検出部110が検出した片手HNの回転量に基づいて、候補文字「い」から候補文字「ひ」に変更される。例えば、現時点において選択されている候補文字を表示装置140が表示している場合、処理装置100は、候補文字の表示を、文字「い」から文字「ひ」に変更してもよい。
時刻t2から時刻t3にかけて、ユーザは、例えば、Y軸を中心にして、片手HNの形状を維持した状態で、片手HNを回転方向ROT2に回転させる。回転方向ROT2は、回転方向ROT1と反対の回転方向ROTである。例えば、検出部110は、時刻t3において、片手HNの動きをとして、時刻t2から時刻t3までの片手HNの回転量及び回転方向ROTを検出する。特定部112は、検出部110が検出した片手HNの回転量に基づいて、母音グループCGRv2に属する複数の候補文字のうちの候補文字「し」を選択する。すなわち、時刻t3では、検出部110が検出した片手HNの動きに応じて選択される候補文字は、検出部110が検出した片手HNの回転量に基づいて、候補文字「ひ」から候補文字「し」に変更される。例えば、現時点において選択されている候補文字を表示装置140が表示している場合、処理装置100は、候補文字の表示を、文字「ひ」から文字「し」に変更してもよい。
図3に示す例では、片手HNの回転方向ROTが回転方向ROT1の場合、検出部110が検出した片手HNの動きに応じて選択される候補文字は、候補文字「い」、「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」の順において、候補文字「い」から遠ざかる方向に変化する。また、片手HNの回転方向ROTが回転方向ROT2の場合、検出部110が検出した片手HNの動きに応じて選択される候補文字は、候補文字「い」、「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」の順において、候補文字「い」に近づく方向に変化する。
時刻t4において、ユーザは、片手HNの形状を、母音指定形状CFv12からニュートラル形状CFntに変化させる。このため、検出部110は、片手HNの形状が母音指定形状CFv12と異なるニュートラル形状CFntに変化したことを検出する。そして、検出部110は、文字入力に関する片手HNの動きの検出を終了する。なお、図3に示す例では、時刻t3から時刻t4にかけて、片手HNの回転は停止している。したがって、検出部110が検出した片手HNの動きに応じて選択される候補文字は、候補文字「し」に維持されている。
また、片手HNの形状が母音指定形状CFv12と異なるニュートラル形状CFntに変化したことを検出部110が検出したため、特定部112は、母音グループCGRv2に属する複数の候補文字の中から入力文字を、検出部110により検出された片手HNの動きに基づいて特定する。具体的には、特定部112は、母音グループCGRv2に属する複数の候補文字(母音に対応する候補文字「い」、複数の子音に対応する候補文字「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」)のうち、検出部110が検出した片手HNの動きに応じて選択された候補文字「し」を、入力文字として特定する。例えば、処理装置100は、特定部112により特定された入力文字として、文字「し」を表示装置140に表示させてもよい。
このように、特定部112は、複数の文字グループCGRの中から、入力文字が属する文字グループCGRを、検出部110により検出された片手HNの形状に基づいて特定し、特定した文字グループCGRに属する複数の候補文字の中から入力文字を、検出部110により検出された片手HNの動きに基づいて特定する。すなわち、情報処理装置10は、検出部110により検出された片手HNの形状及び動きに基づいて入力文字を特定できる。この結果、本実施形態では、情報処理装置10の使い勝手を向上させることができる。例えば、ユーザは、片手HNのジェスチャにより、入力文字を情報処理装置10に入力することができる。また、本実施形態では、例えば、入力文字が属する文字グループCGRの特定を示す片手HNの形状が文字入力の開始を示す片手HNの形状を兼ねる。このため、本実施形態では、入力文字が属する文字グループCGRの特定を示すジェスチャが文字入力の開始を示すジェスチャと異なる場合に比べて、ユーザの操作負担を軽減することができる。
なお、情報処理装置10の動作は、図3に示す例に限定されない。例えば、検出部110は、ユーザが手首を支点に片手HNを傾けた場合の片手HNの傾き等を、片手HNの動きをとして検出してもよい。あるいは、検出部110は、ユーザが肘を支点に腕を傾けた場合の片手HNの移動量等を、片手HNの動きをとして検出してもよい。
また、検出部110は、片手HNの動きの量と速度とを、片手HNの動きをとして検出してもよい。具体的には、検出部110は、片手HNの回転量と回転速度とを、片手HNの動きをとして検出してもよい。この場合、特定部112は、例えば、母音指定形状CFv12に属する複数の候補文字の中から、検出部110が検出した片手HNの動きに応じて選択する候補文字を、検出部110により検出された片手HNの回転量と回転速度に基づいて決定してもよい。
例えば、片手HNが角速度10ラジアン毎秒で30度回転したときに選択される候補文字が候補文字「い」から候補文字「し」に変化する場合を想定する。この場合、ユーザは、例えば、片手HNを角速度60ラジアン毎秒で30度回転させることにより、候補文字「い」の位置に対して候補文字「し」の位置より遠い位置の候補文字(例えば、候補文字「り」)を選択することができる。このように、ユーザは、片手HNの回転速度を速くすることにより、片手HNの回転速度が遅い場合に比べて、遠くの位置の候補文字を選択することができる。換言すれば、ユーザは、片手HNの回転速度を速くすることにより、片手HNの回転速度が遅い場合に比べて、少ない回転量で所望の候補文字を選択することができる。
図4は、図1に示した情報処理装置10の動作の一例を示すフローチャートである。なお、図4は、入力文字の1文字を特定する処理に関する情報処理装置10の動作の一例を示す。
ステップS100では、検出部110は、ユーザの片手HNの形状が複数の文字グループCGRと1対1に対応する複数のグループ指定形状CFgの何れかに一致したか否かを判定する。ステップS100における判定の結果が肯定の場合、検出部110は、処理をステップS110に進める。一方、ステップS100における判定の結果が否定の場合、入力文字の1文字を特定する処理に関する情報処理装置10の動作は終了する。
ステップS110では、検出部110は、文字入力に関する片手HNの動きの検出を開始する。そして、検出部110は、処理をステップS120に進める。
ステップS120では、特定部112は、ステップS100において検出部110が検出した片手HNの形状に基づいて、複数の文字グループCGRの中から、入力文字が属する文字グループCGRを特定する。そして、特定部112は、処理をステップS130に進める。
ステップS130では、特定部112は、入力文字が属する文字グループCGR(ステップS120において特定した文字グループCGR)に属する複数の候補文字の中から、1つの候補文字を、検出部110により検出された片手HNの動きに基づいて選択する。そして、特定部112は、処理をステップS140に進める。
ステップS140では、検出部110は、ユーザの片手HNの形状がステップS100において検出したグループ指定形状CFgから他の形状(例えば、ニュートラル形状CFnt)に変化したか否かを判定する。ステップS140における判定の結果が肯定の場合、検出部110は、処理をステップS150に進める。一方、ステップS140における判定の結果が否定の場合、検出部110は、文字入力に関する片手HNの動きの検出を継続し、処理をステップS130に戻す。
ステップS150では、検出部110は、文字入力に関する片手HNの動きの検出を終了する。そして、検出部110は、処理をステップS160に進める。
ステップS160では、特定部112は、入力文字が属する文字グループCGR(ステップS120において特定した文字グループCGR)に属する複数の候補文字の中から、入力文字を、検出部110により検出された片手HNの動きに基づいて特定する。例えば、特定部112は、ステップS130において選択した候補文字(ユーザの片手HNの形状がグループ指定形状CFgから他の形状に変化したときに選択されている候補文字)を、入力文字として特定する。ステップS160において特定された入力文字が情報処理装置10に入力され、入力文字の1文字を特定する処理に関する情報処理装置10の動作は終了する。
なお、情報処理装置10の動作は、図4に示す例に限定されない。例えば、ステップS110の処理は、ステップS120の処理の後に実行されてもよいし、ステップS120の処理と並列に実行されてもよい。また、例えば、ステップS150の処理は、ステップS160の処理の後に実行されてもよいし、ステップS160の処理と並列に実行されてもよい。
以上、第1実施形態では、情報処理装置10は、ユーザの片手HNの形状及び動きを検出する検出部110と、検出部110により検出された片手HNの形状及び動きに基づいて入力文字を特定する特定部112とを有する。例えば、特定部112は、入力文字の候補となる複数の候補文字が分類された複数の文字グループCGRの中から、入力文字が属する文字グループCGRを、検出部110により検出された片手HNの形状に基づいて特定する。そして、特定部112は、片手HNの形状に基づいて特定した文字グループCGRに属する複数の候補文字の中から入力文字を、検出部110により検出された片手HNの動きに基づいて特定する。
このように、本実施形態では、検出部110により検出された片手HNの形状及び動きに基づいて入力文字を特定できる。このため、本実施形態では、情報処理装置10の使い勝手を向上させることができる。例えば、ユーザは、片手HNのジェスチャにより、入力文字を情報処理装置10に入力することができる。また、本実施形態では、例えば、入力文字が属する文字グループCGRを特定する契機となる片手HNの形状が文字入力の開始の契機となる片手HNの形状を兼ねる。このため、本実施形態では、入力文字が属する文字グループCGRの特定と文字入力の開始とが互いに異なる契機により実行される場合に比べて、ユーザの操作負担を軽減することができる。
[2.第2実施形態]
図5は、第2実施形態に係る情報処理装置10の構成を示すブロック図である。図1から図4で説明した要素と同様の要素については、同一の符号を付し、詳細な説明を省略する。図5に示す情報処理装置10は、図1に示した情報処理装置10と同一の構成である。例えば、情報処理装置10は、処理装置100、記憶装置120、表示装置140、撮像装置160及び通信装置180を有する。但し、記憶装置120に記憶される制御プログラムPR2は、図1に示した制御プログラムPR1と相違する。このため、例えば、処理装置100が記憶装置120から制御プログラムPR2を読み出して実行することによって実現される機能は、図1に示した処理装置100により実現される機能と相違する。
図5に示す処理装置100は、図1に示した制御プログラムPR1の代わりに制御プログラムPR2を実行することを除いて、図1に示した処理装置100と同様である。例えば、処理装置100は、記憶装置120から制御プログラムPR2を読み出して実行することによって、検出部110、特定部112及び表示制御部114として機能する。すなわち、図5に示す情報処理装置10は、検出部110、特定部112及び表示制御部114を有する。検出部110及び特定部112は、図1に示した検出部110及び特定部112と同様である。このため、図5では、表示制御部114について説明する。
表示制御部114は、仮想空間または現実空間を示す空間画像を表示装置140に表示させる。そして、表示制御部114は、特定部112が、入力文字が属する文字グループCGRを特定した場合に、ユーザによる文字入力を補助するための入力補助情報を、表示装置140に表示させる。具体的には、表示制御部114は、入力文字が属する文字グループCGRに属する複数の候補文字を、入力補助情報として、表示装置140に表示させる。なお、表示制御部114は、入力補助情報を表示装置140に表示させる場合、入力補助情報が空間画像に重なるように、空間画像及び入力補助情報を表示装置140に表示させてもよい。
図6は、図5に示した情報処理装置10の動作の概要を示す説明図である。なお、図6では、複数の候補文字が図2に示した複数の文字グループCGRに分類された場合を例にして、情報処理装置10の動作の概要を説明する。図6に示す動作は、入力補助情報AINFがユーザに視認可能に表示されることを除いて、図3に示した動作と同様である。図3で説明した動作と同様の動作については、詳細な説明を省略する。
時刻t0では、ユーザの片手HNの形状は、複数の文字グループCGRのいずれにも割り当てられていないニュートラル形状CFntである。このため、情報処理装置10に入力文字を入力する文字入力は、開始されない。したがって、入力補助情報AINFは、表示されない。
時刻t1において、ユーザは、片手HNの形状を、ニュートラル形状CFntから母音指定形状CFv12に変化させる。このため、検出部110は、片手HNの形状が母音指定形状CFv12に一致したことを検出する。そして、検出部110は、文字入力に関する片手HNの動きの検出を開始する。
また、片手HNの形状が母音指定形状CFv12に一致したことを検出部110が検出したため、特定部112は、母音指定形状CFv12に対応する母音が属する母音グループCGRv2を、入力文字が属する文字グループCGRとして特定する。そして、特定部112は、母音グループCGRv2に属する候補文字「い」、「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」のうち、候補文字「い」を選択する。
また、入力文字が属する母音グループCGRv2を特定部112が特定したため、表示制御部114は、母音グループCGRv2に属する複数の候補文字を、入力補助情報AINFとして、表示装置140に表示させる。この結果、母音グループCGRv2に属する候補文字「い」、「き」、「し」、「ち」、「に」、「ひ」、「み」及び「り」を示す入力補助情報AINFが表示される。なお、時刻t1では、上述したように、検出部110により検出された片手HNの動きに応じて選択される候補文字として、候補文字「い」が選択されている。このため、表示制御部114は、片手HNの動きに応じて選択されている候補文字を示す選択マーク(図6の網掛け部分)が候補文字「い」の表示位置に表示されるように、表示装置140を制御する。このように、表示制御部114は、母音グループCGRv2に属する複数の候補文字のうち、検出部110が検出した片手HNの動きに応じて選択されている候補文字を、他の候補文字と識別可能に表示装置140に表示させる。
時刻t1から時刻t2にかけて、ユーザは、例えば、肘と手首とを通過するY軸を中心にして、片手HNの形状を維持した状態で、片手HNを回転方向ROT1に回転させる。例えば、検出部110は、時刻t2において、片手HNの動きをとして、時刻t1から時刻t2までの片手HNの回転量及び回転方向ROTを検出する。特定部112は、検出部110が検出した片手HNの回転量に基づいて、母音グループCGRv2に属する複数の候補文字のうちの候補文字「ひ」を選択する。このため、時刻t1から時刻t2にかけて、表示制御部114は、選択マークの表示位置を、候補文字「い」の表示位置から候補文字「ひ」の表示位置に移動させる。
時刻t2から時刻t3にかけて、ユーザは、例えば、Y軸を中心にして、片手HNの形状を維持した状態で、片手HNを回転方向ROT2に回転させる。例えば、検出部110は、時刻t3において、片手HNの動きをとして、時刻t2から時刻t3までの片手HNの回転量及び回転方向ROTを検出する。特定部112は、検出部110が検出した片手HNの回転量に基づいて、母音グループCGRv2に属する複数の候補文字のうちの候補文字「し」を選択する。このため、時刻t2から時刻t3にかけて、表示制御部114は、選択マークの表示位置を、候補文字「ひ」の表示位置から候補文字「し」の表示位置に移動させる。
時刻t4において、ユーザは、片手HNの形状を、母音指定形状CFv12からニュートラル形状CFntに変化させる。このため、検出部110は、片手HNの形状が母音指定形状CFv12と異なるニュートラル形状CFntに変化したことを検出する。そして、検出部110は、文字入力に関する片手HNの動きの検出を終了する。
また、片手HNの形状が母音指定形状CFv12と異なるニュートラル形状CFntに変化したことを検出部110が検出したため、特定部112は、母音グループCGRv2に属する複数の候補文字のうち、検出部110が検出した片手HNの動きに応じて選択された候補文字「し」を、入力文字として特定する。表示制御部114は、特定部112により特定された入力文字「し」が所定の位置に表示されるように、表示装置140を制御する。また、表示制御部114は、入力文字が特定されたため、入力補助情報AINFを非表示にする。
このように、表示制御部114は、入力文字が属する母音グループCGRv2に属する複数の候補文字を入力補助情報AINFとして、表示装置140に表示させる。さらに、表示制御部114は、母音グループCGRv2に属する複数の候補文字のうち、検出部110が検出した片手HNの動きに応じて選択されている候補文字を、他の候補文字と識別可能に表示装置140に表示させる。このため、本実施形態では、ユーザは入力補助情報AINFを確認しながら入力文字を情報処理装置10に入力することができる。したがって、本実施形態では、誤った文字が情報処理装置10に入力されることを低減することができる。この結果、本実施形態では、情報処理装置10の使い勝手を向上させることができる。また、本実施形態では、例えば、入力文字が属する文字グループCGRの特定を示す片手HNの形状が入力補助情報AINFの表示開始を示す片手HNの形状を兼ねる。このため、本実施形態では、入力文字が属する文字グループCGRの特定を示すジェスチャが入力補助情報AINFの表示開始を示すジェスチャと異なる場合に比べて、ユーザの操作負担を軽減することができる。
なお、情報処理装置10の動作は、図6に示す例に限定されない。例えば、表示制御部114が、検出部110により検出された片手HNの動きに応じて、選択マークの表示位置を決定してもよい。この場合、例えば、特定部112は、片手HNの形状が母音指定形状CFvから母音指定形状CFvと異なる形状(例えば、ニュートラル形状CFnt)に変化したことを検出部110が検出したとき(例えば、時刻t4)の選択マークの表示位置に対応する候補文字を、入力文字として特定してもよい。
また、例えば、検出部110は、片手HNの回転量と回転速度とを、片手HNの動きをとして検出してもよいし、ユーザが手首を支点に片手HNを傾けた場合の片手HNの傾き等を、片手HNの動きをとして検出してもよい。あるいは、検出部110は、ユーザが肘を支点に腕を傾けた場合の片手HNの移動量等を、片手HNの動きをとして検出してもよい。
図7は、図5に示した情報処理装置10の動作の一例を示すフローチャートである。なお、図7は、入力文字の1文字を特定する処理に関する情報処理装置10の動作の一例を示す。図7に示す動作は、ステップS122の処理及びステップS132の処理が図4に示した動作に追加されることを除いて、図4に示した動作と同様である。図4で説明した動作については、詳細な説明を省略する。
ステップS100では、検出部110は、ユーザの片手HNの形状が複数のグループ指定形状CFgの何れかに一致したか否かを判定する。ステップS100における判定の結果が肯定の場合、検出部110は、ステップS110において、文字入力に関する片手HNの動きの検出を開始し、処理をステップS120に進める。一方、ステップS100における判定の結果が否定の場合、入力文字の1文字を特定する処理に関する情報処理装置10の動作は終了する。
ステップS120では、特定部112は、ステップS100において検出部110が検出した片手HNの形状に基づいて、複数の文字グループCGRの中から、入力文字が属する文字グループCGRを特定する。そして、特定部112は、処理をステップS122に進める。
ステップS122では、表示制御部114は、入力文字が属する文字グループCGR(ステップS120において特定した文字グループCGR)に属する複数の候補文字を入力補助情報AINFとして、表示装置140に表示させる。そして、表示制御部114は、処理をステップS130に進める。
ステップS130では、特定部112は、入力文字が属する文字グループCGR(ステップS120において特定した文字グループCGR)に属する複数の候補文字の中から、1つの候補文字を、検出部110により検出された片手HNの動きに基づいて選択する。そして、特定部112は、処理をステップS132に進める。
ステップS132では、表示制御部114は、片手HNの動きに応じて選択された候補文字(ステップS130において特定部112により選択された候補文字)の表示位置に選択マークが表示されるように、表示装置140を制御する。すなわち、ステップS132において、表示装置140は、片手HNの動きに応じて選択された候補文字の表示位置に選択マークを表示する。表示制御部114は、ステップS132の処理を実行した後、処理をステップS140に進める。
ステップS140では、検出部110は、ユーザの片手HNの形状がステップS100において検出したグループ指定形状CFgから他の形状(例えば、ニュートラル形状CFnt)に変化したか否かを判定する。ステップS140における判定の結果が肯定の場合、検出部110は、ステップS150において、文字入力に関する片手HNの動きの検出を終了し、処理をステップS160に進める。一方、ステップS140における判定の結果が否定の場合、検出部110は、文字入力に関する片手HNの動きの検出を継続し、処理をステップS130に戻す。
ステップS160では、特定部112は、例えば、ステップS130において選択した候補文字(ユーザの片手HNの形状がグループ指定形状CFgから他の形状に変化したときに選択されている候補文字)を、入力文字として特定する。ステップS160において特定された入力文字が情報処理装置10に入力され、入力文字の1文字を特定する処理に関する情報処理装置10の動作は終了する。
なお、情報処理装置10の動作は、図7に示す例に限定されない。例えば、ステップS110の処理は、ステップS120の処理の後に実行されてもよいし、ステップS120の処理と並列に実行されてもよい。また、例えば、ステップS150の処理は、ステップS160の処理の後に実行されてもよいし、ステップS160の処理と並列に実行されてもよい。
以上、第2実施形態においても、第1実施形態と同様の効果を得ることができる。また、第2実施形態では、処理装置100は、ユーザによる文字入力を補助するための入力補助情報AINFを表示装置140に表示させる表示制御部114として機能する。例えば、表示制御部114は、入力文字が属する文字グループCGRを特定部112が特定した場合に、特定部112により特定された文字グループCGRに属する複数の候補文字を、入力補助情報AINFとして、表示装置140に表示させる。このため、本実施形態では、ユーザは入力補助情報AINFを確認しながら入力文字を情報処理装置10に入力することができる。したがって、本実施形態では、情報処理装置10の使い勝手を向上させることができる。
また、本実施形態では、例えば、入力文字が属する文字グループCGRを特定する契機となる片手HNの形状が入力補助情報AINFの表示を開始する契機となる片手HNの形状を兼ねる。このため、本実施形態では、入力文字が属する文字グループCGRの特定と入力補助情報AINFの表示開始とが互いに異なる契機により実行される場合に比べて、ユーザの操作負担を軽減することができる。
さらに、本実施形態では、表示制御部114は、入力文字が属する文字グループCGRに属する複数の候補文字のうち、検出部110が検出した片手HNの動きに応じて選択されている候補文字を、他の候補文字と識別可能に表示装置140に表示させる。このため、本実施形態では、ユーザは、選択されている候補文字を確認しながら入力文字を情報処理装置10に入力することができる。したがって、本実施形態では、誤った文字が情報処理装置10に入力されることを低減することができる。
[3.第3実施形態]
図8は、第3実施形態に係る情報処理装置10の構成を示すブロック図である。図1から図7で説明した要素と同様の要素については、同一の符号を付し、詳細な説明を省略する。図8に示す情報処理装置10は、図5に示した情報処理装置10と同一の構成である。例えば、情報処理装置10は、処理装置100、記憶装置120、表示装置140、撮像装置160及び通信装置180を有する。但し、記憶装置120に記憶される制御プログラムPR3は、図5に示した制御プログラムPR2と相違する。このため、例えば、処理装置100が記憶装置120から制御プログラムPR3を読み出して実行することによって実現される機能は、図5に示した処理装置100により実現される機能と相違する。
図8に示す処理装置100は、図5に示した制御プログラムPR2の代わりに制御プログラムPR3を実行することを除いて、図5に示した処理装置100と同様である。例えば、処理装置100は、記憶装置120から制御プログラムPR3を読み出して実行することによって、検出部110A、特定部112A及び表示制御部114Aとして機能する。すなわち、図8に示す情報処理装置10は、検出部110A、特定部112A及び表示制御部114Aを有する。
検出部110Aは、文字入力に関するユーザの片手HNの形状を検出する際の検出対象の形状を除いて、図1及び図5に示した検出部110と同様である。例えば、検出部110Aは、撮像装置160が撮像したユーザの片手HNの画像を示す撮像データに基づいて、ユーザの片手HNの形状及び動きを検出する。
特定部112Aは、複数の文字グループCGRの中から、入力文字が属する文字グループCGRを、検出部110Aにより検出された片手HNの動きに基づいて特定する。そして、特定部112Aは、片手HNの動きに基づいて特定した文字グループCGRに属する複数の候補文字の中から入力文字を、検出部110Aにより検出された片手HNの形状に基づいて特定する。なお、本実施形態に係る文字グループCGRは、図2に示した文字グループCGRと相違する。本実施形態に係る文字グループCGRについては、図9において説明する。また、特定部112Aの動作の詳細については、図10において説明する。
表示制御部114Aは、仮想空間または現実空間を示す空間画像を表示装置140に表示させる。そして、表示制御部114Aは、ユーザの片手HNの形状が仮名入力形状(例えば、図10に示す仮名入力形状CFka)に一致したことを検出部110Aが検出した場合に、ユーザによる文字入力を補助するための入力補助情報AINFを、表示装置140に表示させる。なお、仮名入力形状CFkaは、例えば、情報処理装置10に仮名文字を入力する文字入力の開始の契機となる片手HNの形状である。表示制御部114Aでは、入力補助情報AINFを表示装置140に表示させる契機が、図5に示した表示制御部114と相違する。
図9は、第3実施形態に係る文字グループCGRの一例を示す説明図である。なお、図9では、図が煩雑になることを避けるため、複数の文字グループCGRのうち、複数の子音グループCGRc(CGRc1-CGRc11)と、複数の数字グループCGRnm(CGRnm1-CGRnm8)との一例を示している。すなわち、複数の文字グループCGRのうちのいくつかは、複数の仮名文字が子音に基づいて分類された複数の子音グループCGRcであり、複数の文字グループCGRのうちのいくつかは、数字又はアルファベットを含む複数の数字グループCGRnmである。
例えば、複数の仮名文字は、子音に基づいて、複数の子音グループCGRcに分類される。具体的には、子音グループCGRc1には、「あ行」に属する文字が含まれ、子音グループCGRc2には、「か行」に属する文字が含まれる。子音グループCGRc3には、「さ行」に属する文字が含まれ、子音グループCGRc4には、「た行」に属する文字が含まれる。子音グループCGRc5には、「な行」に属する文字が含まれ、子音グループCGRc6には、「は行」に属する文字が含まれる。子音グループCGRc7には、「ま行」に属する文字が含まれ、子音グループCGRc8には、「や行」に属する文字が含まれる。子音グループCGRc9には、「ら行」に属する文字が含まれ、子音グループCGRc10には、「わ行」に属する文字が含まれる。そして、子音グループCGRc10には、文字「ん」が含まれる。
また、数字グループCGRnm1には、数字「0」、「1」、「2」、「3」及び「4」が含まれ、数字グループCGRnm2には、数字「5」、「6」、「7」、「8」及び「9」が含まれる。数字グループCGRnm3-CGRnm8の各々には、アルファベット「a」から「z」までの順に5つアルファベットが含まれる。例えば、数字グループCGRnm3には、アルファベット「a」、「b」、「c」、「d」及び「e」が含まれ、数字グループCGRnm7には、アルファベット「u」、「v」、「w」、「x」及び「y」が含まれる。そして、数字グループCGRnm8には、アルファベット「z」が含まれる。
また、5つの母音の各々には、片手HNの形状が予め割り当てられている。例えば、母音「あ」には、5本の指のうちの人差し指のみを伸ばした母音指定形状CFv21が割り当てられ、母音「い」には、5本の指のうちの人差し指及び中指のみを伸ばした母音指定形状CFv22が割り当てられている。また、母音「う」には、5本の指のうちの親指及び小指のみ曲げた母音指定形状CFv23が割り当てられ、母音「え」には、5本の指のうちの親指のみを曲げた母音指定形状CFv24が割り当てられている。そして、母音「お」には、5本の指のうちの親指のみを伸ばした母音指定形状CFv25が割り当てられている。このように、5つの母音指定形状CFv(CFv21、CFv22、CFv23、CFv24及びCFv25)は、5つの母音と1対1に対応している。
また、各数字グループCGRnmに含まれる各文字には、5つの母音指定形状CFvのいずれかが割り当てられている。例えば、数字グループCGRnm1の数字「0」、数字グループCGRnm2の数字「5」、数字グループCGRnm3のアルファベット「a」等には、母音指定形状CFv21が割り当てられている。
なお、文字グループCGRは、図9に示す例に限定されない。例えば、アルファベットは、3つ又は4つのアルファベット毎に文字グループCGRに属するように分類されてもよい。また、5つの母音の各々に割り当てられる母音指定形状CFvは、図9に示す例に限定されない。また、図9では、片手HNの形状を、左手を例にして示しているが、母音指定形状CFvは、左手の形状に限定されない。例えば、検出部110Aは、右手の5本の指のうちの人差し指のみを伸ばした形状を、母音指定形状CFv21として検出可能である。なお、右手と左手との一方に母音指定形状CFvが割り当てられ、右手と左手との他方に母音の指定と異なる指示に対応する形状が割り当てられてもよい。
図10は、図8に示した情報処理装置10の動作の概要を示す説明図である。なお、図10では、複数の候補文字が図9に示した複数の文字グループCGRに分類された場合を例にして、情報処理装置10の動作の概要を説明する。なお、図3又は図6で説明した動作と同様の動作については、詳細な説明を省略する。
時刻t0では、ユーザの片手HNの形状は、文字入力に関する指示(例えば、仮名文字の入力開始等)が割り当てられていないニュートラル形状CFntである。このため、情報処理装置10に入力文字を入力する文字入力は、開始されない。したがって、入力補助情報AINFは、表示されない。
時刻t1において、ユーザは、片手HNの形状を、ニュートラル形状CFntから仮名入力形状CFkaに変化させる。このため、検出部110Aは、片手HNの形状が仮名入力形状CFkaに一致したことを検出する。そして、検出部110Aは、文字入力に関する片手HNの動きの検出を開始する。
また、片手HNの形状が仮名入力形状CFkaに一致したことを検出部110Aが検出したため、表示制御部114Aは、複数の子音グループCGRcを示す複数の子音グループ情報を、入力補助情報AINFとして、表示装置140に表示させる。図10に示す例では、複数の子音グループCGRcの母音「あ」に対応する文字「あ」、「か」、「さ」、「た」、「な」、「は」、「ま」、「や」、「ら」、「わ」及び「ん」を示す複数の子音グループ情報が、入力補助情報AINFとして、表示される。
なお、時刻t1では、後述するように、検出部110Aにより検出された片手HNの動きに応じて選択される子音グループCGRcとして、文字「あ」を含む子音グループCGRc1が選択されている。このため、表示制御部114Aは、片手HNの動きに応じて選択されている子音グループCGRcを示す選択マーク(図10の網掛け部分)が子音グループCGRc1を示す文字「あ」の表示位置に表示されるように、表示装置140を制御する。このように、表示制御部114Aは、複数の子音グループ情報のうち、検出部110Aが検出した片手HNの動きに応じて選択されている子音グループCGRcに対応する子音グループ情報を、他の子音グループ情報と識別可能に表示装置140に表示させる。
また、片手HNの形状が仮名入力形状CFkaに一致したことを検出部110Aが検出したため、特定部112Aは、複数の子音グループCGRcの中から、1つの子音グループCGRcを、検出部110Aが検出した片手HNの動きに応じて選択する。なお、検出部110Aが片手HNの動きの検出を開始した時刻t1では、複数の子音グループCGRcのうち、予め決められた子音グループCGRc(図10に示す例では、文字「あ」を含む子音グループCGRc1)が、選択されている。
図10に示す例では、子音グループCGRc1-CGRc11が、子音グループCGRc1-CGRc11の順に仮想的に配置されていると想定して、子音グループCGRcの選択等を説明する。
時刻t1から時刻t2にかけて、ユーザは、例えば、肘と手首とを通過するY軸を中心にして、片手HNの形状を維持した状態で、片手HNを回転方向ROT1に回転させる。例えば、検出部110Aは、時刻t2において、片手HNの動きをとして、時刻t1から時刻t2までの片手HNの回転量及び回転方向ROTを検出する。特定部112Aは、検出部110Aが検出した片手HNの回転量に基づいて、複数の子音グループCGRcのうち、文字「は」を含む子音グループCGRc6を選択する。すなわち、時刻t2では、検出部110Aが検出した片手HNの動きに応じて選択される子音グループCGRcは、検出部110Aが検出した片手HNの回転量に基づいて、文字「あ」を含む子音グループCGRc1から、文字「は」を含む子音グループCGRc6に変更される。このため、時刻t1から時刻t2にかけて、表示制御部114Aは、選択マークの表示位置を、文字「あ」の表示位置から文字「は」の表示位置に移動させる。
時刻t2から時刻t3にかけて、ユーザは、例えば、Y軸を中心にして、片手HNの形状を維持した状態で、片手HNを回転方向ROT2に回転させる。例えば、検出部110Aは、時刻t3において、片手HNの動きをとして、時刻t2から時刻t3までの片手HNの回転量及び回転方向ROTを検出する。特定部112Aは、検出部110Aが検出した片手HNの回転量に基づいて、複数の子音グループCGRcのうち、文字「さ」を含む子音グループCGRc3を選択する。すなわち、時刻t3では、検出部110Aが検出した片手HNの動きに応じて選択される子音グループCGRcは、検出部110Aが検出した片手HNの回転量に基づいて、文字「は」を含む子音グループCGRc6から、文字「さ」を含む子音グループCGRc3に変更される。このため、時刻t2から時刻t3にかけて、表示制御部114Aは、選択マークの表示位置を、文字「は」の表示位置から文字「さ」の表示位置に移動させる。
図10に示す例では、片手HNの回転方向ROTが回転方向ROT1の場合、検出部110Aが検出した片手HNの動きに応じて選択される子音グループCGRcは、子音グループCGRc1-CGRc11の順において、子音グループCGRc1から遠ざかる方向に変化する。また、片手HNの回転方向ROTが回転方向ROT2の場合、検出部110Aが検出した片手HNの動きに応じて選択される子音グループCGRcは、子音グループCGRc1-CGRc11の順において、子音グループCGRc1に近づく方向に変化する。
時刻t4において、ユーザは、片手HNの形状を、仮名入力形状CFkaから母音指定形状CFv22に変化させる。このため、検出部110Aは、片手HNの形状が母音指定形状CFv22に仮名入力形状CFkaから変化したことを検出する。そして、検出部110Aは、文字入力に関する片手HNの動きの検出を終了する。なお、図10に示す例では、時刻t3から時刻t4にかけて、片手HNの回転は停止している。したがって、検出部110Aが検出した片手HNの動きに応じて選択される子音グループCGRcは、文字「さ」を含む子音グループCGRc3に維持されている。
また、片手HNの形状が母音指定形状CFv22に仮名入力形状CFkaから変化したことを検出部110Aが検出したため、特定部112Aは、複数の子音グループCGRcのうち、検出部110Aが検出した片手HNの動きに応じて選択されている子音グループCGRc3を、入力文字が属する文字グループCGRとして特定する。また、特定部112Aは、入力文字が属する文字グループCGRとして特定した子音グループCGRc3に属する複数の候補文字「さ」、「し」、「す」、「せ」及び「そ」のうち、母音指定形状CFv22に対応する母音に基づく候補文字「し」を、入力文字として特定する。表示制御部114Aは、特定部112Aにより特定された入力文字「し」が所定の位置に表示されるように、表示装置140を制御する。
また、表示制御部114Aは、入力文字が特定されたため、入力補助情報AINFを非表示にする。なお、入力補助情報AINFは、母音指定形状CFv及び仮名入力形状CFkaのいずれにも一致しない形状(例えば、ニュートラル形状CFnt)に片手HNの形状が変化するまで、非表示にされなくてもよい。すなわち、表示制御部114Aは、母音指定形状CFv及び仮名入力形状CFkaのいずれにも一致しない形状(例えば、ニュートラル形状CFnt)に片手HNの形状が変化するまで、入力補助情報AINFの表示を維持してもよい。
図10に示す動作では、特定部112Aは、複数の文字グループCGRの中から、入力文字が属する文字グループCGRを、検出部110Aにより検出された片手HNの動きに基づいて特定し、特定した文字グループCGRに属する複数の候補文字の中から入力文字を、検出部110Aにより検出された片手HNの形状に基づいて特定する。すなわち、情報処理装置10は、検出部110により検出された片手HNの形状及び動きに基づいて入力文字を特定できる。この結果、本実施形態では、情報処理装置10の使い勝手を向上させることができる。例えば、ユーザは、片手HNのジェスチャにより、入力文字を情報処理装置10に入力することができる。また、本実施形態では、例えば、入力文字の子音の決定(入力文字が属する文字グループCGRの決定)を示す片手HNの形状が入力文字の母音の決定を示す片手HNの形状を兼ねる。このため、本実施形態では、入力文字の子音を決定するジェスチャが入力文字の母音を決定するジェスチャと異なる場合に比べて、ユーザの操作負担を軽減することができる。
なお、情報処理装置10の動作は、図10に示す例に限定されない。例えば、表示制御部114Aが、検出部110Aにより検出された片手HNの動きに応じて、選択マークの表示位置を決定してもよい。この場合、例えば、特定部112Aは、片手HNの形状が仮名入力形状CFkaから母音指定形状CFvに変化したことを検出部110Aが検出したとき(例えば、時刻t4)の選択マークの表示位置に対応する文字グループCGRを、入力文字が属する文字グループCGRとして特定してもよい。
また、例えば、検出部110Aは、ユーザが手首を支点に片手HNを傾けた場合の片手HNの傾き等を、片手HNの動きをとして検出してもよいし、ユーザが肘を支点に腕を傾けた場合の片手HNの移動量等を、片手HNの動きをとして検出してもよい。
あるいは、検出部110Aは、片手HNの回転量と回転速度とを、片手HNの動きをとして検出してもよい。この場合、特定部112Aは、例えば、検出部110Aが検出した片手HNの動きに応じて選択する文字グループCGRを、検出部110Aにより検出された片手HNの回転量と回転速度に基づいて決定してもよい。
例えば、片手HNが角速度10ラジアン毎秒で30度回転したときに選択される子音グループCGRcが文字「あ」を含む子音グループCGRc1から文字「さ」を含む子音グループCGRc3に変化する場合を想定する。この場合、ユーザは、例えば、片手HNを角速度60ラジアン毎秒で30度回転させることにより、子音グループCGRc1の位置に対して子音グループCGRc3の位置より遠い位置の子音グループCGRc(例えば、文字「ら」を含む子音グループCGRc9)を選択することができる。このように、ユーザは、片手HNの回転速度を速くすることにより、片手HNの回転速度が遅い場合に比べて、遠くの位置の子音グループCGRcを選択することができる。換言すれば、ユーザは、片手HNの回転速度を速くすることにより、片手HNの回転速度が遅い場合に比べて、少ない回転量で所望の子音グループCGRcを選択することができる。
図11は、図8に示した情報処理装置10の動作の一例を示すフローチャートである。なお、図11は、入力文字が仮名文字である場合の情報処理装置10の動作の一例を示す。図11に示す動作は、入力文字の1文字を特定する処理に対応する。図4又は図7で説明した動作については、詳細な説明を省略する。
ステップS100aでは、検出部110Aは、ユーザの片手HNの形状が仮名入力形状CFkaに一致したか否かを判定する。ステップS100aにおける判定の結果が肯定の場合、検出部110Aは、ステップS110において、文字入力に関する片手HNの動きの検出を開始し、処理をステップS122aに進める。一方、ステップS100aにおける判定の結果が否定の場合、入力文字の1文字を特定する処理に関する情報処理装置10の動作は終了する。
ステップS122aでは、表示制御部114Aは、複数の子音グループCGRcを示す複数の子音グループ情報(例えば、文字「あ」、「か」、「さ」、「た」、「な」、「は」、「ま」、「や」、「ら」、「わ」及び「ん」)を、入力補助情報AINFとして、表示装置140に表示させる。そして、表示制御部114Aは、処理をステップS130aに進める。
ステップS130aでは、特定部112Aは、複数の子音グループCGRcの中から、1つの子音グループCGRcを、検出部110Aにより検出された片手HNの動きに基づいて選択する。そして、特定部112Aは、処理をステップS132aに進める。
ステップS132aでは、表示制御部114Aは、片手HNの動きに応じて選択された子音グループCGRc(ステップS130において特定部112により選択された子音グループCGRc)を示す子音グループ情報の表示位置に選択マークが表示されるように、表示装置140を制御する。すなわち、ステップS132aにおいて、表示装置140は、片手HNの動きに応じて選択された子音グループCGRcを示す子音グループ情報の表示位置に選択マークを表示する。表示制御部114Aは、ステップS132aの処理を実行した後、処理をステップS140aに進める。
ステップS140aでは、検出部110Aは、ユーザの片手HNの形状がステップS100aにおいて検出した仮名入力形状CFkaから5つの母音指定形状CFvの何れかに変化したか否かを判定する。ステップS140aにおける判定の結果が肯定の場合、検出部110Aは、ステップS150において、文字入力に関する片手HNの動きの検出を終了し、処理をステップS160aに進める。一方、ステップS140aにおける判定の結果が否定の場合、検出部110Aは、文字入力に関する片手HNの動きの検出を継続し、処理をステップS130aに戻す。
ステップS160aでは、特定部112Aは、ステップS130aにおいて選択した子音グループCGRcを、入力文字が属する子音グループCGRcとして特定し、特定した子音グループCGRcに属する複数の候補文字のうち、ステップS140aにおいて検出部110Aが検出した母音指定形状CFvに対応する母音に基づく候補文字を、入力文字として特定する。
このように、特定部112Aは、ユーザの片手HNの形状が仮名入力形状CFkaから5つの母音指定形状CFvの何れかに変化したことを検出部110Aが検出した場合、複数の子音グループCGRcのうち、検出部110Aが検出した片手HNの動きに応じて選択されている子音グループCGRcを、入力文字が属する子音グループCGRcとして特定する。そして、特定部112Aは、入力文字が属する子音グループCGRcに属する複数の候補文字のうち、検出部110Aが検出した母音指定形状CFvに対応する母音に基づく候補文字を、入力文字として特定する。
すなわち、特定部112Aは、ユーザの片手HNの形状が仮名入力形状CFkaから5つの母音指定形状CFvの何れかに変化したことを契機として、入力文字の母音及び子音の両方を決定し、入力文字を特定する。ステップS160aにおいて特定された入力文字が情報処理装置10に入力され、入力文字の1文字を特定する処理に関する情報処理装置10の動作は終了する。
なお、情報処理装置10の動作は、図11に示す例に限定されない。例えば、ステップS110の処理は、ステップS122aの処理の後に実行されてもよいし、ステップS122aの処理と並列に実行されてもよい。また、例えば、ステップS150の処理は、ステップS160aの処理の後に実行されてもよいし、ステップS160aの処理と並列に実行されてもよい。
以上、第3実施形態においても、第1実施形態及び第2実施形態と同様の効果を得ることができる。また、本実施形態では、例えば、入力文字の子音を決定する契機(子音グループCGRcの選択を確定する契機)となる片手HNの形状が入力文字の母音を決定する契機となる片手HNの形状を兼ねる。このため、本実施形態では、入力文字の子音の決定と入力文字の母音の決定とが互いに異なる契機により実行される場合に比べて、ユーザの操作負担を軽減することができる。
[4.変形例]
本発明は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
[第1変形例]
上述した第1実施形態では、特定部112が、複数の文字グループCGRの中から、入力文字が属する文字グループCGRを、検出部110により検出された片手HNの形状に基づいて特定し、特定した文字グループCGRに属する複数の候補文字の中から入力文字を、検出部110により検出された片手HNの動きに基づいて特定する例を示した。しかし、特定部112は、複数の文字グループCGRの中から、入力文字が属する文字グループCGRを、検出部110により検出された片手HNの動きに基づいて特定し、特定した文字グループCGRに属する複数の候補文字の中から入力文字を、検出部110により検出された片手HNの形状に基づいて特定してもよい。
すなわち、特定部112は、複数の文字グループCGRの中から、入力文字が属する文字グループCGRを、検出部110により検出された片手HNの形状及び動きの一方に基づいて特定してもよい。そして、特定部112は、入力文字が属する文字グループCGRに属する複数の候補文字の中から入力文字を、検出部110により検出された片手HNの形状及び動きの他方に基づいて特定してもよい。第1変形例においても、第1実施形態と同様の効果を得ることができる。
[第2変形例]
上述した第3実施形態では、入力補助情報AINFとして表示される各文字に割り当てられる表示領域については特に説明していないが、表示領域の大きさは、文字の入力予測に基づいて変更されてもよい。例えば、表示制御部114Aは、複数の子音グループ情報に割り当てる複数の表示領域のうち、文字の入力予測に基づいて予測された文字を含む子音グループCGRcに対応する子音グループ情報に割り当てる表示領域を、他の子音グループ情報に割り当てる表示領域より広くしてもよい。
この場合、複数の子音グループCGRcの各々には、片手HNの動きに関連付けられた判定範囲が割り当てられてもよい。そして、特定部112Aは、複数の子音グループCGRcに割り当てる複数の判定範囲のうち、文字の入力予測に基づいて予測された文字を含む子音グループCGRcに割り当てる判定範囲を、他の子音グループCGRcに割り当てる判定範囲より広くしてもよい。これにより、第2変形例では、特定部112Aが、複数の判定範囲と検出部110Aが検出した片手HNの動きとに基づいて、複数の子音グループCGRcのうちの1つの子音グループCGRcを選択する場合、文字の入力予測に基づいて予測された文字を含む子音グループCGRcが選択されやすくなる。
[第3変形例]
上述した第1実施形態、第2実施形態、第3実施形態、第1変形例及び第2変形例では、入力文字の変換については特に説明していないが、情報処理装置10は、所定のジェスチャに応じて、入力文字を漢字等に変換してもよい。例えば、変換範囲の選択には、5本の指のうちの親指及び小指のみを伸ばした範囲選択形状が割り当てられ、変換範囲の決定には、5本の指の全てを伸ばした範囲決定形状が割り当てられてもよい。そして、変換項目(変換の候補)の選択には、5本の指のうちの中指及び薬指のみを曲げた項目選択形状が割り当てられ、変換項目の決定には、5本の指の全てを伸ばした項目決定形状が割り当てられてもよい。
この場合、例えば、図3、図6又は図10に示した動作等が繰り返されることにより、仮名文字の入力文字列が入力された後、ユーザは、片手HNの形状を範囲選択形状にした状態で片手HNを回転させて、入力文字列における変換範囲を選択する。そして、ユーザは、入力文字列における所望の範囲を選択した場合、片手HNの形状を範囲選択形状から範囲決定形状に変化させる。これにより、入力文字列のうちの変換対象の文字列が決定される。そして、ユーザは、片手HNの形状を項目選択形状にした状態で片手HNを回転させて変換項目を選択し、所望の変換項目が選択された場合、片手HNの形状を項目選択形状から項目決定形状に変化させる。これにより、変換対象の文字列は、所望の変換項目(例えば、所望の漢字等)に変換される。
上述の例では、例えば、検出部110は、片手HNの形状が範囲選択形状に一致したことを検出した場合、変換範囲に関する片手HNの動きの検出を開始し、片手HNの形状が範囲選択形状から範囲決定形状に変化したことを検出した場合、変換範囲に関する片手HNの動きの検出を終了する。同様に、検出部110は、片手HNの形状が項目選択形状に一致したことを検出した場合、項目選択に関する片手HNの動きの検出を開始し、片手HNの形状が項目選択形状から項目決定形状に変化したことを検出した場合、項目選択に関する片手HNの動きの検出を終了する。なお、上述の例では、範囲決定形状及び項目決定形状は、図3等に示したニュートラル形状CFntと同じため、ニュートラル形状CFntと異なる形状でもよい。範囲決定形状及び項目決定形状がニュートラル形状CFntと同じ場合でも、情報処理装置10は、範囲決定形状又は項目決定形状に変化する前の片手HNの形状を判別することにより、文字入力に関する指示に割り当てられた形状か否かを判別することができる。
また、上述の例では、情報処理装置10は、片手HNの形状が範囲選択形状から範囲決定形状に変化したことを検出部110が検出した場合、変換項目の一覧(変換の候補となる文字の一覧)を表示する。また、特定部112は、片手HNの形状が範囲選択形状から範囲決定形状に変化したことを検出部110が検出したときに選択されている変換範囲を、入力文字列のうちの変換対象の文字列に特定する。また、特定部112は、片手HNの形状が項目選択形状から項目決定形状に変化したことを検出部110が検出したときに選択されている変換項目を、ユーザの所望する変換項目に特定する。
また、仮名文字、数字及びアルファベット以外の文字についても、上述の実施形態で説明した仮名文字等の入力方法と同様の方法により、情報処理装置10に入力されてもよい。第3変形例においても、例えば、ユーザは、片手HNのジェスチャにより、所望の文字を情報処理装置10に入力することができる。
[5.その他]
(1)上述した実施形態では、記憶装置120は、処理装置100が読取可能な記録媒体であり、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網から送信されてもよい。
(2)上述した実施形態において、説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(4)上述した実施形態において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)図1、図5及び図8に例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
また、通信装置180は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置180は、例えば、周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。
(7)上述した実施形態で例示したプログラムは、ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(9)本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
(10)上述した実施形態において、情報処理装置10は、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(13)本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
10…情報処理装置、100…処理装置、110、110A…検出部、112、112A…特定部、114、114A…表示制御部、120…記憶装置、140…表示装置、160…撮像装置、180…通信装置。

Claims (10)

  1. ユーザの片手の形状及び動きを検出する検出部と、
    入力文字の候補となる複数の候補文字が分類された複数の文字グループの中から、前記入力文字が属する一の文字グループを、前記検出部により検出された前記片手の形状及び動きの一方に基づいて特定し、前記一の文字グループに属する複数の候補文字の中から前記入力文字を、前記検出部により検出された前記片手の形状及び動きの他方に基づいて特定する特定部と、
    を備える、
    ことを特徴とする情報処理装置。
  2. 前記ユーザによる文字入力を補助するための入力補助情報を表示部に表示させる表示制御部を備え、
    前記特定部は、
    前記複数の文字グループの中から前記一の文字グループを、前記検出部により検出された前記片手の形状に基づいて特定し、前記一の文字グループに属する複数の候補文字の中から前記入力文字を、前記検出部により検出された前記片手の動きに基づいて特定し、
    前記表示制御部は、
    前記特定部が前記一の文字グループを特定した場合に、前記一の文字グループに属する複数の候補文字を、前記入力補助情報として、前記表示部に表示させる、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記複数の文字グループのうちのいくつかは、複数の仮名文字が母音に基づいて分類された複数の母音グループであり、
    前記検出部は、
    前記片手の形状が5つの母音と1対1に対応する5つの母音指定形状のうちの一の母音指定形状に一致したことを検出した場合、前記文字入力に関する前記片手の動きの検出を開始し、前記片手の形状が前記一の母音指定形状と異なる形状に変化したことを検出した場合、前記文字入力に関する前記片手の動きの検出を終了し、
    前記特定部は、
    前記片手の形状が前記一の母音指定形状に一致したことを前記検出部が検出した場合、前記複数の母音グループのうち、前記一の母音指定形状に対応する一の母音が属する母音グループを、前記一の文字グループとして特定し、前記片手の形状が前記一の母音指定形状と異なる形状に変化したことを前記検出部が検出した場合、前記一の文字グループに属する複数の子音及び前記一の母音に対応する複数の候補文字のうち、前記検出部が検出した前記片手の動きに応じて選択された一の候補文字を、前記入力文字として特定する、
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記複数の文字グループのうちの1つは、数字を含む数字グループであり、
    前記検出部は、
    前記片手の形状が前記数字グループに割り当てられた数字指定形状に一致したことを検出した場合、前記文字入力に関する前記片手の動きの検出を開始し、前記片手の形状が前記数字指定形状と異なる形状に変化したことを検出した場合、前記文字入力に関する前記片手の動きの検出を終了し、
    前記特定部は、
    前記片手の形状が前記数字指定形状に一致したことを前記検出部が検出した場合、前記複数の文字グループのうちの前記数字グループを、前記一の文字グループとして特定し、前記片手の形状が前記数字指定形状と異なる形状に変化したことを前記検出部が検出した場合、前記数字グループに属する複数の候補文字のうち、前記検出部が検出した前記片手の動きに応じて選択された一の候補文字を、前記入力文字として特定する、
    ことを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記表示制御部は、
    前記一の文字グループに属する複数の候補文字のうち、前記検出部が検出した前記片手の動きに応じて選択されている候補文字を、他の候補文字と識別可能に前記表示部に表示させる、
    ことを特徴とする請求項2から4のいずれか1項に記載の情報処理装置。
  6. 前記ユーザによる文字入力を補助するための入力補助情報を表示部に表示させる表示制御部を備え、
    前記複数の文字グループのうちのいくつかは、複数の仮名文字が子音に基づいて分類された複数の子音グループであり、
    前記検出部は、
    前記片手の形状が予め決められた仮名入力形状に一致したことを検出した場合、前記文字入力に関する前記片手の動きの検出を開始し、前記片手の形状が5つの母音と1対1に対応する5つの母音指定形状のうちの一の母音指定形状に前記仮名入力形状から変化したことを検出した場合、前記文字入力に関する前記片手の動きの検出を終了し、
    前記表示制御部は、
    前記片手の形状が前記仮名入力形状に一致したことを前記検出部が検出した場合に、前記複数の子音グループを示す複数の子音グループ情報を、前記入力補助情報として、前記表示部に表示させ、
    前記特定部は、
    前記片手の形状が前記一の母音指定形状に前記仮名入力形状から変化したことを前記検出部が検出した場合、前記複数の子音グループのうち、前記検出部が検出した前記片手の動きに応じて選択された一の子音グループを、前記一の文字グループとして特定し、前記一の子音グループに属する複数の候補文字のうち、前記一の母音指定形状に対応する母音に基づく候補文字を、前記入力文字として特定する、
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 前記表示制御部は、
    前記複数の子音グループ情報のうち、前記検出部が検出した前記片手の動きに応じて選択されている子音グループに対応する子音グループ情報を、他の子音グループ情報と識別可能に前記表示部に表示させる、
    ことを特徴とする請求項6に記載の情報処理装置。
  8. 前記表示制御部は、
    前記複数の子音グループ情報に割り当てる複数の表示領域のうち、文字の入力予測に基づいて予測された文字を含む子音グループに対応する子音グループ情報に割り当てる表示領域を、他の子音グループ情報に割り当てる表示領域より広くする、
    ことを特徴とする請求項6又は7に記載の情報処理装置。
  9. 前記表示制御部は、
    仮想空間または現実空間を示す空間画像を前記表示部に表示させ、
    前記入力補助情報を前記表示部に表示させる場合、前記入力補助情報が前記空間画像に重なるように、前記空間画像及び前記入力補助情報を前記表示部に表示させる、
    ことを特徴とする請求項2から8のいずれか1項に記載の情報処理装置。
  10. 前記検出部は、
    前記片手の動きの量及び速度を、前記片手の動きとして検出する、
    ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
JP2019118643A 2019-06-26 2019-06-26 情報処理装置 Active JP7287600B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019118643A JP7287600B2 (ja) 2019-06-26 2019-06-26 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019118643A JP7287600B2 (ja) 2019-06-26 2019-06-26 情報処理装置

Publications (2)

Publication Number Publication Date
JP2021005220A JP2021005220A (ja) 2021-01-14
JP7287600B2 true JP7287600B2 (ja) 2023-06-06

Family

ID=74097289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118643A Active JP7287600B2 (ja) 2019-06-26 2019-06-26 情報処理装置

Country Status (1)

Country Link
JP (1) JP7287600B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253292A (ja) 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2014038543A (ja) 2012-08-20 2014-02-27 Ikutoku Gakuen 指文字を認識するための文字認識システムおよびプログラム
JP2018124651A (ja) 2017-01-30 2018-08-09 セイコーエプソン株式会社 表示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253292A (ja) 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2014038543A (ja) 2012-08-20 2014-02-27 Ikutoku Gakuen 指文字を認識するための文字認識システムおよびプログラム
JP2018124651A (ja) 2017-01-30 2018-08-09 セイコーエプソン株式会社 表示システム

Also Published As

Publication number Publication date
JP2021005220A (ja) 2021-01-14

Similar Documents

Publication Publication Date Title
KR101947034B1 (ko) 휴대 기기의 입력 장치 및 방법
US20220382385A1 (en) Augmented reality hand gesture recognition systems
US9952676B2 (en) Wearable device with gesture recognition mechanism
US9891822B2 (en) Input device and method for providing character input interface using a character selection gesture upon an arrangement of a central item and peripheral items
US20200159862A1 (en) Personalized User Experience and Search-Based Recommendations
US20150220265A1 (en) Information processing device, information processing method, and program
US20140267019A1 (en) Continuous directional input method with related system and apparatus
US10387033B2 (en) Size reduction and utilization of software keyboards
CN105700727B (zh) 与透明层以下的应用层的交互方法及信息处理系统
CN108351758A (zh) 用于显示多画面的电子设备及其控制方法
JP6737187B2 (ja) プロセスグラフィックスの状況に応じたレンダリング
US10019072B2 (en) Imagined grid fingertip input editor on wearable device
JP7287600B2 (ja) 情報処理装置
WO2016154590A1 (en) Detection and usability of personal electronic devices for field engineers
US20230236673A1 (en) Non-standard keyboard input system
KR101559424B1 (ko) 손 인식에 기반한 가상 키보드 및 그 구현 방법
WO2020170581A1 (ja) 入力制御システム
WO2020039703A1 (ja) 入力装置
US20220083145A1 (en) Information display apparatus using line of sight and gestures
WO2021208965A1 (zh) 文本输入方法、移动设备、头戴式显示设备以及存储介质
WO2022091760A1 (ja) 操作装置
KR101892738B1 (ko) 제스처를 인식하는 방법 및 장치
KR20150100332A (ko) 스케치 검색 시스템, 사용자 장치, 서비스 제공 장치, 그 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체
JP6051692B2 (ja) 文字変換装置、文字変換方法、及びプログラム
WO2023026700A1 (ja) 表示制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R150 Certificate of patent or registration of utility model

Ref document number: 7287600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150