JP2015005197A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2015005197A JP2015005197A JP2013130850A JP2013130850A JP2015005197A JP 2015005197 A JP2015005197 A JP 2015005197A JP 2013130850 A JP2013130850 A JP 2013130850A JP 2013130850 A JP2013130850 A JP 2013130850A JP 2015005197 A JP2015005197 A JP 2015005197A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information processing
- threshold
- time
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
ユーザの腕に装着されるデバイスの表示部が水平方向に対するなす角度が閾値の範囲内にある場合、当該デバイスが水平な姿勢を取っている基準状態であると判断する判断手段と、
前記判断手段によって前記基準状態であると判断された場合、前記デバイスの当該基準状態からの動きを認識する認識手段と、
前記認識した前記デバイスの基準状態からの動きに対応する入力操作を入力する入力手段と、
時間を計時する計時手段と、
前記デバイスの運動状態を検出する検出手段と、
前記計時手段により計時された時間と、前記検出手段により検出された前記デバイスの運動状態とに応じて、前記閾値を可変設定する設定手段と、
を備えることを特徴とする。
リスト端末11は、図1に示すように、ユーザの腕に嵌められるリスト型の携帯端末であり、少なくとも、自己の姿勢を認識する機能を有している。本実施形態では、リスト端末11は、加速度センサ(後述の図2参照)を有し、当該加速度センサの検出結果に基づいて、自己の姿勢として、水平状態を基準として、当該水平状態から移動したか否かを検出することができる。
本実施形態では、大地に垂直に立つユーザが、図1に示すように腕を水平に維持した場合において、水平方向のうち、肘から手に向かう方向が「x方向」とされており、腕に対して直角の方向(ユーザからみて手前の親指から奥側の小指に向かう方向)が「y方向」とされており、鉛直上向き方向が「z方向」とされている。
リスト端末11は、CPU(Central Processing Unit)51と、ROM(Read Only Memory)52と、RAM(Random Access Memory)53と、バス54と、入出力インターフェース55と、入力部56と、表示部57と、記憶部58と、通信部59と、加速度センサ部60と、ドライブ61と、を備えている。
RAM53には、CPU51が各種の処理を実行する上において必要なデータ等も適宜記憶される。
表示部57は、ディスプレイにより構成され、画像を表示する。
即ち、本実施形態では、入力部56と表示部57とにより、タッチパネルが構成されている。
記憶部58は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部59は、Bluetooth(登録商標)により図示せぬ携帯端末等と無線通信したり、Wi−Fiによりインターネットを含むネットワークを介して、図示せぬ他端末と通信する制御を実行する。
加速度センサ部60は、ピエゾ抵抗型もしくは静電容量型の検出機構により3軸加速度成分を検出して、その検出結果を表す3軸成分毎の加速度データを出力する。
なお、加速度センサ部30により検出される3軸成分は、どのように実装されても構わないが、本実施形態では図1に示す3軸成分(x,y,z)が採用されている。
モーション認識処理とは、加速度センサ部30の検出結果に基づいて、ユーザが行い得るモーションのうち、手首及び腕のモーション(本実施形態では後述の図4乃至図8に示す各パターンのモーション)を認識するまでの一連の処理をいう。
後述の図4乃至図8に示す各パターンのモーションの各々には、所定の入力操作が対応付けられており、モーション認識処理により所定モーションが認識されると、認識された当該所定モーションのパターンに対応付けられた入力操作がなされたと判断され、後段において、当該入力操作に応じた処理が実行される。ここで、後段の処理とは、リスト端末11内で実行される場合もあるし、リスト端末11と通信可能な別の装置(図示せず)で実行される場合もある。即ち、本実施形態では、リスト端末11は、ユーザのモーションを利用した、リスト端末11自体又は別の装置に対する入力装置として機能する。
まず、リスト端末11を手首に嵌めたユーザは、当該リスト端末11の表示部57を水平上向きにして静止した状態を取る。この状態を、以下、「水平静止状態」と呼ぶ。水平静止状態は、図4乃至図8の何れのパターンでも基準状態として採用されている。
図4に示すパターンでは、ユーザは、水平静止状態から動作を開始し、手首を自身から見て外側に回転させることで、リスト端末11の表示部57を傾ける、といったモーションをする。
図5に示すパターンでは、ユーザは、水平静止状態から動作を開始し、手首を自身から見て内側に回転させる(図4のパターンとは逆回転させる)ことで、リスト端末11の表示部57を傾ける、といったモーションをする。
図6に示すパターンでは、ユーザは、水平静止状態から動作を開始し、肘から上を上向きに動かすことで、リスト端末11の表示部57を傾ける、といったモーションをする。
図7に示すパターンでは、ユーザは、水平静止状態から動作を開始し、肘から上を下向き(図6のパターンとは逆方向)に動かすことで、リスト端末11の表示部57を傾ける、といったモーションをする。
処理実行部72は、モーション認識部71により認識されたモーションのパターンに対応付けられた入力操作の内容に基づいて、所定の処理を実行する。
そこで、モーション認識部71は、水平静止状態を検出した場合、ユーザがリスト端末11を操作するためにモーションを開始する態勢を取ったと認識し、規定時間が経過した時点で、図4乃至図8に示す各パターンのうち所定パターンのモーションを認識する。
本実施形態では、水平静止状態の検出方法として、加速度センサ部60の検出結果に基づいて判断される、リスト端末11の姿勢(水平方向に対してなす角度)が、所定の閾値の範囲内の場合、水平と検出する、といった手法が採用されている。
図8(A)に示す閾値Th1の方が、図8(B)に示す閾値Th2と比較して、閾値が小さい、即ち水平とみなす許容角度が小さいことになる。
その結果、ユーザが、たとえ操作としてモーションを行ったつもりでも、リスト端末11を静止させることがうまくできずに、リスト端末11の表示部57を少しでも傾けてしまった場合には、モーション認識部71は、当該モーションを認識することができない。
一方で、ユーザが、日常生活の中で、腕を軽く振ったり、別の動作中に腕を軽く動かした場合であっても、モーション認識部71は、水平静止状態を検出しないので、モーションの誤認識を防止することができる。
その結果、ユーザが、操作としてモーションを開始しようとしたところ、リスト端末11を静止させることがうまくできずに、リスト端末11の表示部57を多少傾けてしまったような場合であっても、モーション認識部71は、水平静止状態を検出することができる。その結果、次のシーケンスでユーザがリスト端末11の表示部57を大きく傾ければ、モーションの認識を確実に行うことができる。
一方で、ユーザが、日常生活の中で、腕を軽く振ったり、別の動作中に腕を軽く動かした場合であっても、モーション認識部71は、水平静止状態と検出してしまう。その結果、その後、ユーザが操作をするつもりがないのにリスト端末11の表示部57を大きく傾けてしまった場合、モーション認識部71は、モーションの誤認識をしてしまう。
そこで、本実施形態では、図3に示すように、モーション認識処理が実行される場合、CPU51においては、閾値設定部73とカウント部74とが機能する。
閾値設定部73は、時間と、リスト端末11の運動状態とに応じて、閾値を可変設定する。
カウント部74は、カウント動作をし、その動作結果(カウント値)を、閾値の可変設定に必要な時間の情報として、閾値設定部73に供給する。
縦軸は、水平判定のための閾値を示し、横軸は、時間軸を示している。なお、時間については、カウント部74のカウント値により計時されるものとする。
閾値設定部73は、リスト端末11が静止して一定時間経ったとき(時刻t1)、ユーザが操作のためにモーションを行う可能性は低いと判断し、閾値を減少させる。
閾値設定部73は、リスト端末11が運動を開始したとき(時刻t2)、ユーザがこの後操作のためのモーションを行う可能性が高まったと判断し、閾値を増加させる。
閾値設定部73は、モーションが認識された直後のとき(時刻t3)は、リスト端末11が運動していることと、ユーザがリスト端末11を十分に水平にしないまま次のモーションを行う可能性があることを考慮し、閾値をさらに増加させる。
閾値設定部73は、モーションが認識されてから一定時間経過したとき(時刻t4)、ユーザが操作をやめたのでその後操作以外で腕を動かす可能性があると判断し、閾値を減少させる。
なお、閾値の増減は、一度に変化させても、経過時間によって多段階に変化させても構わない。
閾値を変化させるための判定は、加速度センサ部60の検出結果(3軸の加速度値)によって行われる。
図10の例では、任意の時刻に設定されている水平判定のための閾値ath、任意の時刻における3軸の加速度値ax,ay,az、及び3軸の加速度の微分値△ax、Δay、Δazが用いられる。また、加速度値の閾値として設定可能な3種類として、閾値ath0 < 閾値ath1 < 閾値ath2が予め定義されている。
また、カウント部74が用いるカウント値(時間)としては、リスト端末11が静止状態のときにのみ進むカウント値t0、及びリスト端末11が水平状態であるかどうかに関わらず進むカウント値t1が用いられている。
また、閾値設定部73が閾値athを変えるカウント値(時間)のタイミング(閾値)としては、静止状態が検知されたことによる閾値athが変化するタイミングtth0 > モーションの検出後に閾値athが変化するタイミングtth1が予め定義されている。
また、運動状態判定のための閾値も用いられているため、以下、水平判定のための閾値と区別すべく、「運動状態判定閾値」と呼ぶ。同様に、水平判定のための閾値を、以下、運動状態判定閾値と区別すべく、「水平判定閾値」と呼ぶ。
運動状態判定閾値としては、加速度の微分値△athが定義されている。
ステップS3において、カウント部74は、カウント値t1を、1だけインクリメントする(t1++)。その後、処理はステップS5に進むが、ステップS5以降の処理については後述する。
ステップS2において、閾値設定部73は、現在設定されている水平判定閾値athが、閾値ath1を超えているか否かを判定する。
現在設定されている水平判定閾値athが、閾値ath1以下の場合には、ステップS2においてNOであると判定されて、水平判定閾値athは変化されずに、処理はステップS5に進む。なお、ステップS5以降の処理については後述する。
これに対して、現在設定されている水平判定閾値athが、閾値ath1を超えていた場合には、即ち、閾値ath2である場合には、ステップS2においてYESであると判定されて、処理はステップS4に進む。
ステップS4において、閾値設定部73は、水平判定閾値athの設定を、閾値ath1に下げるように変化させる(ath=ath1:図9の例では時刻t4における変化参照)。これにより、処理はステップS5に進む。
ステップS3において、カウント部74は、カウント値t0を、1だけインクリメントする(t0++)。
ステップS9において、カウント部74は、カウント値t0がタイミングtth0を超えていないか否かを判定する。
ステップS10において、閾値設定部73は、現在設定されている水平判定閾値athが、閾値ath0を超えているか否かを判定する。
現在設定されている水平判定閾値athが、最低の閾値ath0の場合には、ステップS10においてNOであると判定されて、水平判定閾値athは変化されずに、処理はステップS13に進む。なお、ステップS13以降の処理については後述する。
これに対して、現在設定されている水平判定閾値athが、閾値ath0を超えていた場合には、即ち、閾値ath1又は閾値ath2である場合には、ステップS10においてYESであると判定されて、処理はステップS12に進む。
ステップS12において、閾値設定部73は、水平判定閾値athの設定を、閾値ath0に下げるように変化させる(ath=ath0:図9の例では時刻t6や時刻t1における変化参照)。これにより、処理はステップS13に進む。なお、ステップS13以降の処理については後述する。
次に、リスト端末11が運動状態の場合、即ち3軸の加速度の微分値△ax、Δay、Δazのうち少なくとも1つが、運動状態判定閾値△athを超えている場合(例えば図9の例では、時刻t2〜時刻t5の間の場合)の一連の処理について説明する。この場合、ステップS5においてNOであると判定されて、処理はステップS7に進み、次のような一連の処理が実行される。
現在設定されている水平判定閾値athが、閾値ath1(又は閾値ath2)の場合には、ステップS7においてNOであると判定されて、水平判定閾値athは変化されずに、処理はステップS11に進む。なお、ステップS11以降の処理については後述する。
これに対して、現在設定されている水平判定閾値athが、閾値ath0の場合には、ステップS7においてYESであると判定されて、処理はステップS8に進む。
ステップS8において、閾値設定部73は、水平判定閾値athの設定を、閾値ath1に上げるように変化させる(ath=ath1:図9の例では時刻t2における変化参照)。これにより、処理はステップS11に進む。
ステップS11において、カウント部74は、カウント値t0を、0にリセットする(t0=0)。
このようにして0にリセットされたカウント値t0は、リスト端末11が運動状態にある限りインクリメントされることはなく、従って、水平判定閾値athとして閾値ath0になることもない。
この場合、モーション認識部71は、リスト端末11の水平方向に対するなす角度が、ステップS1乃至S12の処理で適宜変更された水平判定閾値ath以内に入っている場合に、リスト端末11が水平静止状態にあると判断する。具体的には、リスト端末11の水平方向に対する角度は、加速度センサ部60の検出結果のうち、x軸の加速度値ax及びy軸の加速度値ayよりも特定可能であるため、モーション認識部71は、x軸の加速度値ax及びy軸の加速度値ayが水平判定閾値athの範囲内に入っている場合に、リスト端末11が水平静止状態にあると判断する。
そして、モーション認識部71は、水平静止状態にあると判断後、リスト端末11の移動軌跡等に基づいて、上述の図3乃至図7の各パターンのうち何れのパターンのモーションが行われたのかを認識する。上述のように、水平静止状態が前提としてモーションが認識されるので、x軸の加速度値ax及びy軸の加速度値ayが水平判定閾値athの範囲内に入っていない場合には、水平静止状態が検出されず、その結果モーションの認識には至らない。
モーションが認識されなかった場合には、ステップS14においてNOであると判定されて、水平判定閾値athは変化されずに、処理はステップS1に戻され、それ以降の処理が繰り返し実行される。
これに対して、モーションが認識された場合には、ステップS14においてYESであると判定されて、処理はステップS15に進む。
ステップS15において、閾値設定部73は、水平判定閾値athの設定を、閾値ath2に上げるように変化させる(ath=ath2:図9の例では時刻t3における変化参照)。
ステップS16において、カウント部74は、カウント値t1を、0にリセットする(t1=0)。
その後処理はステップS1に戻され、それ以降の処理が繰り返される。
CPU51における判断部(図示せず)は、ユーザの腕に装着されるリスト端末11の表示部57が水平方向に対するなす角度が閾値(水平判定閾値ath)の範囲内にある場合、当該リスト端末11が水平な姿勢を取っている基準状態であると判断する。
モーション認識部71は、判断部(図示せず)によって基準状態であると判断された場合、リスト端末11のデバイスの当該基準状態からの動き(即ちモーション)を認識する。
入力部36は、認識したリスト端末11の基準状態からの動きに対応する入力操作を入力する。
カウント部74は、カウント動作をすることで、時間を計時する。
加速度センサ部60は、3軸の加速度値を、リスト端末11の運動状態として検出する。
閾値設定部73は、カウント部74により計時された時間と、加速度センサ部60により検出されたリスト端末11の運動状態とに応じて、閾値(水平判定閾値ath)を可変設定する。
これにより、ユーザが操作として行う腕等のモーションの認識精度を向上させることができる。
即ち、閾値が動的に変化されるので、ユーザが操作を行う可能性が高いときのモーションの認識精度を一定以上維持しつつ、ユーザが操作を行う可能性の低いときにおけるモーションの誤認識を防止することができる。
閾値設定部73は、カウント部74により一定時間が計時されたとき(図9の時刻t1等)、閾値を減少させる設定をすることができる。
このように、ユーザが操作のためにモーションを行う可能性が低いときに閾値を減少させることで、ユーザが操作を行う可能性の低いときにおけるモーションの誤認識を防止することができる。
このように、リスト端末11が運動を開始した後にはユーザがモーションを行う可能性が高まるため、閾値を増加させることで、ユーザが操作を行う可能性が高いときのモーションの認識精度を一定以上維持することができる。
このように、モーションが認識された直後のとき(図9の時刻t3等)は、リスト端末11が運動していることと、ユーザがリスト端末11を十分に水平にしないまま次のモーションを行う可能性があるため、閾値を増加させることで、ユーザが操作を行う可能性が高いときのモーションの認識精度を一定以上維持することができる。
閾値設定部73は、カウント部74により一定時間が計時されたとき、閾値を減少させる設定をすることができる。
このように、モーションが認識されてから一定時間経過したとき(図9の時刻t4等)、ユーザが操作をやめたのでその後操作以外で腕を動かす可能性があるため、閾値を減少させることで、ユーザが操作を行う可能性の低いときにおけるモーションの誤認識を防止することができる。
このように、リスト端末11を水平だと認識する加速度値の閾値が、時間と加速の状態で動的に変化する。これにより、ユーザが操作を行う可能性が高いときのモーションの認識精度を維持しつつ、ユーザが操作を行う可能性の低いときはモーションの誤認識を防止することができる。
これにより、ユーザは、他に特別な機器を用意しなくても、リスト端末11を腕にはめるだけで、当該リスト端末11を単純な動きで操作することができる。その際、日常生活の動きで腕も動くことがあっても、操作としてのモーションとして誤認識されることは少なくなる。
例えば、本発明は、ユーザの腕等に装着されるデバイス自体、又は当該デバイスと通信をする機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能がリスト端末11に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
[付記1]
ユーザの腕に装着されるデバイスの表示部が水平方向に対するなす角度が閾値の範囲内にある場合、当該デバイスが水平な姿勢を取っている基準状態であると判断する判断手段と、
前記判断手段によって前記基準状態であると判断された場合、前記デバイスの当該基準状態からの動きを認識する認識手段と、
前記認識した前記デバイスの基準状態からの動きに対応する入力操作を入力する入力手段と、
時間を計時する計時手段と、
前記デバイスの運動状態を検出する検出手段と、
前記計時手段により計時された時間と、前記検出手段により検出された前記デバイスの運動状態とに応じて、前記閾値を可変設定する設定手段と、
を備える情報処理装置。
[付記2]
前記計時手段は、前記デバイスが静止したことが前記検出手段により検出されると、計時を開始し、
前記設定手段は、前記計時手段により一定時間が計時されたとき、前記閾値を減少させる設定をする、
付記1に記載の情報処理装置。
[付記3]
前記設定手段は、前記デバイスが運動を開始したことが前記検出手段により検出されたとき、前記閾値を増加させる設定をする、
付記1に記載の情報処理装置。
[付記4]
前記設定手段は、前記認識手段により前記デバイスの動きが認識されたとき、前記閾値を増加させる設定をする、
付記1に記載の情報処理装置。
[付記5]
前記計時手段は、前記認識手段により前記デバイスの動きが認識されると、計時を開始し、
前記設定手段は、前記計時手段により一定時間が計時されたとき、前記閾値を減少させる設定をする、
付記1に記載の情報処理装置。
[付記6]
前記検出手段は、加速度センサであり、
前記閾値は、加速度値で表される、
付記1乃至5のうち何れか1つに記載の情報処理装置。
[付記7]
前記情報処理装置は、前記デバイスである、
付記1乃至6のうち何れか1つに記載の情報処理装置。
[付記8]
情報処理装置が実行するステップとして、
ユーザの腕に装着されるデバイスの表示部が水平方向に対するなす角度が閾値の範囲内にある場合、当該デバイスが水平な姿勢を取っている基準状態であると判断する判断ステップと、
この判断ステップによって基準状態であると判断された場合に、当該基準状態からの前記デバイスの動きを認識する認識ステップと、
この認識ステップによって認識した前記基準状態からの動きに対応する入力操作を入力する入力手段と、
時間を計時する計時ステップと、
前記デバイスの運動状態を検出する検出ステップと、
前記計時ステップの処理により計時された時間と、前記検出ステップの処理により検出された前記デバイスの運動状態とに応じて、前記閾値を可変設定する設定ステップと、
を含む情報処理方法。
[付記9]
ユーザの腕に装着されるデバイスの表示部が水平方向に対するなす角度が閾値の範囲内にある場合、当該デバイスが水平な姿勢を取っている基準状態であると判断する判断手段と、
前記判断手段によって前記基準状態であると判断された場合、前記デバイスの当該基準状態からの動きを認識する認識手段と、
時間を計時する計時手段と、
前記デバイスの運動状態を検出する検出手段と、
を備える情報処理装置を制御するコンピュータを、
前記計時手段により計時された時間と、前記検出手段により検出された前記デバイスの運動状態とに応じて、前記閾値を可変設定する設定手段、
として機能させるプログラム。
Claims (9)
- ユーザの腕に装着されるデバイスの表示部が水平方向に対するなす角度が閾値の範囲内にある場合、当該デバイスが水平な姿勢を取っている基準状態であると判断する判断手段と、
前記判断手段によって前記基準状態であると判断された場合、前記デバイスの当該基準状態からの動きを認識する認識手段と、
前記認識した前記デバイスの基準状態からの動きに対応する入力操作を入力する入力手段と、
時間を計時する計時手段と、
前記デバイスの運動状態を検出する検出手段と、
前記計時手段により計時された時間と、前記検出手段により検出された前記デバイスの運動状態とに応じて、前記閾値を可変設定する設定手段と、
を備える情報処理装置。 - 前記計時手段は、前記デバイスが静止したことが前記検出手段により検出されると、計時を開始し、
前記設定手段は、前記計時手段により一定時間が計時されたとき、前記閾値を減少させる設定をする、
請求項1に記載の情報処理装置。 - 前記設定手段は、前記デバイスが運動を開始したことが前記検出手段により検出されたとき、前記閾値を増加させる設定をする、
請求項1に記載の情報処理装置。 - 前記設定手段は、前記認識手段により前記デバイスの動きが認識されたとき、前記閾値を増加させる設定をする、
請求項1に記載の情報処理装置。 - 前記計時手段は、前記認識手段により前記デバイスの動きが認識されると、計時を開始し、
前記設定手段は、前記計時手段により一定時間が計時されたとき、前記閾値を減少させる設定をする、
請求項1に記載の情報処理装置。 - 前記検出手段は、加速度センサであり、
前記閾値は、加速度値で表される、
請求項1乃至5のうち何れか1項に記載の情報処理装置。 - 前記情報処理装置は、前記デバイスである、
請求項1乃至6のうち何れか1項に記載の情報処理装置。 - 情報処理装置が実行するステップとして、
ユーザの腕に装着されるデバイスの表示部が水平方向に対するなす角度が閾値の範囲内にある場合、当該デバイスが水平な姿勢を取っている基準状態であると判断する判断ステップと、
この判断ステップによって基準状態であると判断された場合に、当該基準状態からの前記デバイスの動きを認識する認識ステップと、
この認識ステップによって認識した前記基準状態からの動きに対応する入力操作を入力する入力手段と、
時間を計時する計時ステップと、
前記デバイスの運動状態を検出する検出ステップと、
前記計時ステップの処理により計時された時間と、前記検出ステップの処理により検出された前記デバイスの運動状態とに応じて、前記閾値を可変設定する設定ステップと、
を含む情報処理方法。 - ユーザの腕に装着されるデバイスの表示部が水平方向に対するなす角度が閾値の範囲内にある場合、当該デバイスが水平な姿勢を取っている基準状態であると判断する判断手段と、
前記判断手段によって前記基準状態であると判断された場合、前記デバイスの当該基準状態からの動きを認識する認識手段と、
時間を計時する計時手段と、
前記デバイスの運動状態を検出する検出手段と、
を備える情報処理装置を制御するコンピュータを、
前記計時手段により計時された時間と、前記検出手段により検出された前記デバイスの運動状態とに応じて、前記閾値を可変設定する設定手段、
として機能させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013130850A JP6171615B2 (ja) | 2013-06-21 | 2013-06-21 | 情報処理装置及びプログラム |
US14/304,713 US20140375552A1 (en) | 2013-06-21 | 2014-06-13 | Information processing apparatus, information processing method, and storage medium |
EP14172861.8A EP2816450B1 (en) | 2013-06-21 | 2014-06-18 | Information processing apparatus, and information processing method |
CN201410280529.3A CN104238743B (zh) | 2013-06-21 | 2014-06-20 | 信息处理装置以及信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013130850A JP6171615B2 (ja) | 2013-06-21 | 2013-06-21 | 情報処理装置及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017131290A Division JP6409918B2 (ja) | 2017-07-04 | 2017-07-04 | 端末装置、モーション認識方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015005197A true JP2015005197A (ja) | 2015-01-08 |
JP2015005197A5 JP2015005197A5 (ja) | 2016-08-04 |
JP6171615B2 JP6171615B2 (ja) | 2017-08-02 |
Family
ID=50980168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013130850A Active JP6171615B2 (ja) | 2013-06-21 | 2013-06-21 | 情報処理装置及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140375552A1 (ja) |
EP (1) | EP2816450B1 (ja) |
JP (1) | JP6171615B2 (ja) |
CN (1) | CN104238743B (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104820499A (zh) * | 2015-05-22 | 2015-08-05 | 广东欧珀移动通信有限公司 | 提醒用户的方法、装置及智能穿戴设备 |
WO2016139798A1 (ja) * | 2015-03-05 | 2016-09-09 | 富士通株式会社 | 入力検知方法、入力検知プログラム及びデバイス |
WO2017006857A1 (ja) * | 2015-07-08 | 2017-01-12 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
JP2017049720A (ja) * | 2015-08-31 | 2017-03-09 | シャープ株式会社 | 情報処理装置、情報処理装置を備える電子機器、情報処理装置の制御方法、および、プログラム |
JP2017207848A (ja) * | 2016-05-17 | 2017-11-24 | レノボ・シンガポール・プライベート・リミテッド | 携帯情報端末、装着腕判定方法、装着向き判定方法、及びプログラム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9672707B2 (en) | 2015-03-12 | 2017-06-06 | Alarm.Com Incorporated | Virtual enhancement of security monitoring |
US20160282949A1 (en) * | 2015-03-27 | 2016-09-29 | Sony Corporation | Method and system for detecting linear swipe gesture using accelerometer |
US10055563B2 (en) * | 2015-04-15 | 2018-08-21 | Mediatek Inc. | Air writing and gesture system with interactive wearable device |
JP6753942B2 (ja) * | 2016-10-18 | 2020-09-09 | シャープ株式会社 | 情報処理装置、電子機器、情報処理装置の制御方法および制御プログラム |
WO2018131251A1 (ja) * | 2017-01-12 | 2018-07-19 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN109635617A (zh) * | 2017-10-09 | 2019-04-16 | 富士通株式会社 | 动作状态的识别方法、装置和电子设备 |
CN110716420B (zh) * | 2019-09-23 | 2020-11-10 | 维沃移动通信有限公司 | 可穿戴设备及显示方法 |
CN111913007B (zh) * | 2020-07-13 | 2022-09-09 | 杭州士兰微电子股份有限公司 | 加速度计的校准方法与校准装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007206108A (ja) * | 2006-01-31 | 2007-08-16 | Sharp Corp | 携帯型電子機器 |
JP2007531113A (ja) * | 2004-03-23 | 2007-11-01 | 富士通株式会社 | 携帯装置の傾斜及び並進運動成分の識別 |
WO2010064423A1 (ja) * | 2008-12-04 | 2010-06-10 | 三菱電機株式会社 | 表示入力装置 |
JP2011188345A (ja) * | 2010-03-10 | 2011-09-22 | Olympus Corp | 携帯電子機器 |
JP2011242832A (ja) * | 2010-05-14 | 2011-12-01 | Sony Corp | 情報処理装置及び情報処理装置の操作方法 |
JP2012014022A (ja) * | 2010-07-02 | 2012-01-19 | Fujitsu Ltd | 電子機器、制御プログラムおよび制御方法 |
JP2012027875A (ja) * | 2010-07-28 | 2012-02-09 | Sony Corp | 電子機器、処理方法及びプログラム |
US20120176413A1 (en) * | 2011-01-11 | 2012-07-12 | Qualcomm Incorporated | Methods and apparatuses for mobile device display mode selection based on motion direction |
JP2012152318A (ja) * | 2011-01-25 | 2012-08-16 | Nintendo Co Ltd | ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法 |
JP2013054411A (ja) * | 2011-08-31 | 2013-03-21 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358149A (ja) | 2001-06-01 | 2002-12-13 | Sony Corp | ユーザ入力装置 |
US7176886B2 (en) * | 2004-03-23 | 2007-02-13 | Fujitsu Limited | Spatial signatures |
US20050212753A1 (en) * | 2004-03-23 | 2005-09-29 | Marvit David L | Motion controlled remote controller |
JP5216206B2 (ja) | 2006-12-01 | 2013-06-19 | 株式会社バンダイナムコゲームス | プログラム及びゲーム装置 |
US20090278793A1 (en) * | 2008-05-09 | 2009-11-12 | Fujitsu Limited | Information processing device, information processing method, and medium recording information processing program |
JP2011175315A (ja) | 2010-02-23 | 2011-09-08 | Ikutoku Gakuen | 加速度センサを利用した文字入力システムおよび方法 |
US9436231B2 (en) * | 2011-04-07 | 2016-09-06 | Qualcomm Incorporated | Rest detection using accelerometer |
CN102759985A (zh) * | 2011-04-28 | 2012-10-31 | 富泰华工业(深圳)有限公司 | 操作控制系统 |
EP2741176A3 (en) * | 2012-12-10 | 2017-03-08 | Samsung Electronics Co., Ltd | Mobile device of bangle type, control method thereof, and UI display method |
-
2013
- 2013-06-21 JP JP2013130850A patent/JP6171615B2/ja active Active
-
2014
- 2014-06-13 US US14/304,713 patent/US20140375552A1/en not_active Abandoned
- 2014-06-18 EP EP14172861.8A patent/EP2816450B1/en active Active
- 2014-06-20 CN CN201410280529.3A patent/CN104238743B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007531113A (ja) * | 2004-03-23 | 2007-11-01 | 富士通株式会社 | 携帯装置の傾斜及び並進運動成分の識別 |
JP2007206108A (ja) * | 2006-01-31 | 2007-08-16 | Sharp Corp | 携帯型電子機器 |
WO2010064423A1 (ja) * | 2008-12-04 | 2010-06-10 | 三菱電機株式会社 | 表示入力装置 |
JP2011188345A (ja) * | 2010-03-10 | 2011-09-22 | Olympus Corp | 携帯電子機器 |
JP2011242832A (ja) * | 2010-05-14 | 2011-12-01 | Sony Corp | 情報処理装置及び情報処理装置の操作方法 |
JP2012014022A (ja) * | 2010-07-02 | 2012-01-19 | Fujitsu Ltd | 電子機器、制御プログラムおよび制御方法 |
JP2012027875A (ja) * | 2010-07-28 | 2012-02-09 | Sony Corp | 電子機器、処理方法及びプログラム |
US20120176413A1 (en) * | 2011-01-11 | 2012-07-12 | Qualcomm Incorporated | Methods and apparatuses for mobile device display mode selection based on motion direction |
JP2012152318A (ja) * | 2011-01-25 | 2012-08-16 | Nintendo Co Ltd | ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法 |
JP2013054411A (ja) * | 2011-08-31 | 2013-03-21 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016139798A1 (ja) * | 2015-03-05 | 2016-09-09 | 富士通株式会社 | 入力検知方法、入力検知プログラム及びデバイス |
JPWO2016139798A1 (ja) * | 2015-03-05 | 2017-12-14 | 富士通株式会社 | 入力検知方法、入力検知プログラム及びデバイス |
CN104820499A (zh) * | 2015-05-22 | 2015-08-05 | 广东欧珀移动通信有限公司 | 提醒用户的方法、装置及智能穿戴设备 |
WO2017006857A1 (ja) * | 2015-07-08 | 2017-01-12 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
JP2017021461A (ja) * | 2015-07-08 | 2017-01-26 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
JP2017049720A (ja) * | 2015-08-31 | 2017-03-09 | シャープ株式会社 | 情報処理装置、情報処理装置を備える電子機器、情報処理装置の制御方法、および、プログラム |
JP2017207848A (ja) * | 2016-05-17 | 2017-11-24 | レノボ・シンガポール・プライベート・リミテッド | 携帯情報端末、装着腕判定方法、装着向き判定方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2816450B1 (en) | 2019-07-24 |
US20140375552A1 (en) | 2014-12-25 |
JP6171615B2 (ja) | 2017-08-02 |
CN104238743B (zh) | 2017-06-13 |
EP2816450A1 (en) | 2014-12-24 |
CN104238743A (zh) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6171615B2 (ja) | 情報処理装置及びプログラム | |
US9804679B2 (en) | Touchless user interface navigation using gestures | |
US10057484B1 (en) | Method and apparatus for activating a hardware feature of an electronic device | |
JP5619961B2 (ja) | 高度な語彙外単語の拒否のための方法、デバイス、コンピュータ可読記録媒体、および装置 | |
US8228292B1 (en) | Flipping for motion-based input | |
JP6658518B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2016118929A (ja) | 入力支援方法、入力支援プログラムおよび入力支援装置 | |
JP6409918B2 (ja) | 端末装置、モーション認識方法及びプログラム | |
US11385784B2 (en) | Systems and methods for configuring the user interface of a mobile device | |
US20170277942A1 (en) | Identifying local coordinate system for gesture recognition | |
EP3289435B1 (en) | User interface control using impact gestures | |
US20170017303A1 (en) | Operation recognition device and operation recognition method | |
JP2015118541A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US9148537B1 (en) | Facial cues as commands | |
US20160132993A1 (en) | Screen control method and communication device | |
JP2017191426A (ja) | 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体 | |
US9489927B2 (en) | Information processing device for controlling direction of display image and control method thereof | |
JP4675718B2 (ja) | 動作判別装置、動作判別プログラムおよびコンピュータ読取り可能な記録媒体 | |
US10558270B2 (en) | Method for determining non-contact gesture and device for the same | |
CN110007763B (zh) | 显示方法、柔性显示装置及电子设备 | |
JP6481360B2 (ja) | 入力方法、入力プログラムおよび入力装置 | |
JP2013037481A (ja) | 入力装置、情報処理装置、入力制御方法およびプログラム | |
KR102346904B1 (ko) | 제스처 인식 장치 및 방법 | |
KR20200046764A (ko) | 제스처 인식 장치 및 방법 | |
KR20240131232A (ko) | 카메라 기반 관절 움직임 트래킹과 센서에 기반한 모션 트래킹 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6171615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |