JP6442769B2 - Information processing apparatus, gesture detection method, and program - Google Patents
Information processing apparatus, gesture detection method, and program Download PDFInfo
- Publication number
- JP6442769B2 JP6442769B2 JP2015113133A JP2015113133A JP6442769B2 JP 6442769 B2 JP6442769 B2 JP 6442769B2 JP 2015113133 A JP2015113133 A JP 2015113133A JP 2015113133 A JP2015113133 A JP 2015113133A JP 6442769 B2 JP6442769 B2 JP 6442769B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- gain
- spectrum
- axis
- resonance frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 47
- 230000010365 information processing Effects 0.000 title claims description 25
- 238000001228 spectrum Methods 0.000 claims description 116
- 210000003813 thumb Anatomy 0.000 claims description 98
- 238000000034 method Methods 0.000 claims description 49
- 210000003811 finger Anatomy 0.000 claims description 38
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 210000000811 metacarpophalangeal joint Anatomy 0.000 claims description 10
- 210000001503 joint Anatomy 0.000 claims description 8
- 210000004932 little finger Anatomy 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 13
- 210000003797 carpal joint Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
Description
開示の技術は、情報処理装置、ジェスチャ検出方法、及びプログラムに関する。 The disclosed technology relates to an information processing apparatus, a gesture detection method, and a program.
情報処理装置に加わったモーションを角速度センサを用いて検出する技術には、例えば、情報処理装置に落下などのモーションが加わった場合に角速度センサで測定された角速度を予め保存しておく技術がある。この技術では、保存されている角速度と、角速度センサで測定された角速度と、を時間軸に沿って所定時間毎に比較し、比較された角速度の差異が所定値以下である場合に、モーションが加わったことを判定する。 As a technique for detecting a motion applied to an information processing apparatus using an angular velocity sensor, for example, there is a technique for preliminarily storing an angular velocity measured by the angular velocity sensor when a motion such as a drop is applied to the information processing apparatus. . In this technique, the stored angular velocity and the angular velocity measured by the angular velocity sensor are compared every predetermined time along the time axis, and if the difference between the compared angular velocities is less than a predetermined value, the motion is Determine that you have joined.
関連技術では、角速度同士を比較するため、例えば、ユーザが走行中の車両に乗っている等の場合、走行中の車両の揺れ等の外力が加わることで角速度の測定値が影響を受け、モーションが適切に検出されない場合がある。
角速度センサを用いたモーションの検出は、情報処理端末の筐体を把持して振るなど、ユーザの何らかの意図を示す動作(以後、「ジェスチャ」と称する)を検出する技術にも適用され得る。角速度によりジェスチャを検出する際にも、上述の外力の影響を受け、ジェスチャが適切に検出されない場合がある。
In related technology, in order to compare the angular velocities, for example, when the user is on a running vehicle, the external velocity such as shaking of the running vehicle is applied, and the measured value of the angular velocity is affected. May not be detected properly.
Motion detection using an angular velocity sensor can also be applied to a technique for detecting an action indicating a user's intention (hereinafter referred to as “gesture”), such as holding and shaking a housing of an information processing terminal. Even when a gesture is detected based on the angular velocity, the gesture may not be properly detected due to the influence of the external force described above.
開示の技術は、1つの側面として、角速度によりジェスチャを検出するにあたり外力の影響を低減することが目的である。 One aspect of the disclosed technique is to reduce the influence of an external force when detecting a gesture based on an angular velocity.
開示の技術において、角速度検出部は、筐体に設定された互いに直交する3軸の軸回りの角速度信号を各々検出し、変換部は、角速度検出部によって検出された3軸の軸回りの角速度信号を各々周波数領域のスペクトルに変換する。また、取得部は、変換部によって変換された各軸の周波数領域のスペクトルのゲインの最大値の中で最も大きい値を有する特定の1軸の周波数領域のスペクトルにおいて最大ゲインを示す周波数を1次主共振周波数として取得する。また、取得部は、少なくとも2軸の周波数領域のスペクトルの前記1次主共振周波数と同じ周波数におけるゲインと前記最大ゲインとの比をゲイン比として取得する。判定部は、基準ジェスチャの1次主共振周波数及び前記ゲイン比と、判定対象ジェスチャの1次主共振周波数及びゲイン比と、を1次主共振周波数及びゲイン比の各々毎に比較することで、判定対象ジェスチャが基準ジェスチャであるか否かを判定する。基準ジェスチャの1次主共振周波数及びゲイン比は、筐体に対して基準ジェスチャが行われた際に、取得部によって取得される。また、判定対象ジェスチャの1次主共振周波数及びゲイン比は、筐体に対して判定対象ジェスチャが行われた際に、取得部によって取得される。 In the disclosed technique, the angular velocity detection unit detects angular velocity signals around the three axes that are orthogonal to each other set in the housing, and the conversion unit detects the angular velocity around the three axes that is detected by the angular velocity detection unit. Each signal is converted to a spectrum in the frequency domain. Further, the acquisition unit performs a primary operation on the frequency indicating the maximum gain in the spectrum of the specific one-axis frequency domain having the largest value among the maximum values of the gain of the spectrum in the frequency domain of each axis converted by the conversion unit. Obtained as the main resonance frequency. In addition, the acquisition unit acquires, as a gain ratio, a ratio between a gain at the same frequency as the primary main resonance frequency of the spectrum in at least the biaxial frequency region and the maximum gain. The determination unit compares the primary main resonance frequency and the gain ratio of the reference gesture with the primary main resonance frequency and the gain ratio of the determination target gesture for each of the primary main resonance frequency and the gain ratio. It is determined whether or not the determination target gesture is a reference gesture. The primary main resonance frequency and the gain ratio of the reference gesture are acquired by the acquisition unit when the reference gesture is performed on the casing. Further, the primary main resonance frequency and the gain ratio of the determination target gesture are acquired by the acquisition unit when the determination target gesture is performed on the housing.
開示の技術は、1つの側面として、角速度によりジェスチャを検出するにあたり外力の影響を低減する、という効果を有する。 As one aspect, the disclosed technology has an effect of reducing the influence of an external force when detecting a gesture based on an angular velocity.
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。なお、以下の説明では、開示の技術に係る情報処理装置の一例としてスマートデバイスを例に挙げて説明するが、開示の技術は、これに限定されるものではない。開示の技術は、例えば、ICレコーダ、ゲーム機、ナビゲーション装置、携帯電話機、及びデジタルカメラなどの種々の情報処理装置に適用可能である。 Hereinafter, an example of an embodiment of the disclosed technology will be described in detail with reference to the drawings. In the following description, a smart device will be described as an example of an information processing apparatus according to the disclosed technology, but the disclosed technology is not limited thereto. The disclosed technology can be applied to various information processing apparatuses such as an IC recorder, a game machine, a navigation device, a mobile phone, and a digital camera.
一例として図1に示すスマートデバイス10は、角速度検出部12、タッチ検出部14、変換部16、取得部18、判定部20、記憶部22、及び表示部24を含む。角速度検出部12、タッチ検出部14、変換部16、取得部18、判定部20、記憶部22、及び表示部24は相互に接続されている。 As an example, the smart device 10 illustrated in FIG. 1 includes an angular velocity detection unit 12, a touch detection unit 14, a conversion unit 16, an acquisition unit 18, a determination unit 20, a storage unit 22, and a display unit 24. The angular velocity detection unit 12, the touch detection unit 14, the conversion unit 16, the acquisition unit 18, the determination unit 20, the storage unit 22, and the display unit 24 are connected to each other.
角速度検出部12は、角速度センサによってスマートデバイス10の角速度を検出して角速度信号を出力する。タッチ検出部14は、タッチパネルディスプレイに対するタッチを検出する。変換部16は、角速度検出部12から出力された角速度信号を周波数領域のスペクトルに変換する。記憶部22は、図2に一例を示すジェスチャテーブル19を記憶する。ジェスチャテーブル19は、後述する基準ジェスチャの基準1次主共振周波数及び基準ゲイン比を基準ジェスチャと対応付けて予め登録する。取得部18は、1次主共振周波数及びゲイン比を取得する。判定部20は、取得した1次主共振周波数及びゲイン比と、基準ジェスチャの基準1次主共振周波数及び基準ゲイン比と、を比較し、比較の結果に基づいて、スマートデバイス10に対して行われたジェスチャが基準ジェスチャであるか否か判定する。表示部24は、ユーザに対してユーザインターフェイスなどを表示する。
本実施形態において、ジェスチャとは、後述するように、例えば、スマートデバイス10を把持した手の指を振る動作などのスマートデバイス10にモーションを加える動作である(例えば、図5A〜図5Cを参照)。ここでのジェスチャに、赤外センサ又はカメラなどにより取得した情報を解析することでユーザの手及び指などの位置及び動きを検知することによって検出可能な、スマートデバイス10に非接触で行われるユーザの動作を含めることは意図していない。
The angular velocity detection unit 12 detects the angular velocity of the smart device 10 with an angular velocity sensor and outputs an angular velocity signal. The touch detection unit 14 detects a touch on the touch panel display. The converter 16 converts the angular velocity signal output from the angular velocity detector 12 into a frequency domain spectrum. The storage unit 22 stores a gesture table 19 shown as an example in FIG. The gesture table 19 registers in advance a reference primary main resonance frequency and a reference gain ratio of a reference gesture described later in association with the reference gesture. The acquisition unit 18 acquires the primary main resonance frequency and the gain ratio. The determination unit 20 compares the acquired primary main resonance frequency and gain ratio with the reference primary main resonance frequency and reference gain ratio of the reference gesture, and performs an operation on the smart device 10 based on the comparison result. It is determined whether or not the received gesture is a reference gesture. The display unit 24 displays a user interface and the like for the user.
In the present embodiment, the gesture is an operation of applying motion to the smart device 10 such as, for example, an operation of shaking a finger of a hand holding the smart device 10 as described later (see, for example, FIGS. 5A to 5C). ). The user performed without touching the smart device 10 that can be detected by detecting the position and movement of the user's hand and fingers by analyzing information acquired by an infrared sensor or a camera in the gesture here It is not intended to include
1次共振周波数とは周波数領域の各スペクトルにおいてゲインが最大となる周波数であり、1次主共振周波数とは後述する3軸のスペクトルの1次共振周波数のゲインが最大となる周波数である。ゲイン比は、3軸のスペクトルの1次主共振周波数に対応する周波数におけるゲインの各々を値が最大のゲインで除算することにより取得される。基準1次主共振周波数及び基準ゲイン比は、各々、基準ジェスチャの1次主共振周波数及びゲイン比である。 The primary resonance frequency is a frequency at which the gain is maximized in each spectrum in the frequency domain, and the primary main resonance frequency is a frequency at which the gain of the primary resonance frequency of a triaxial spectrum described later is maximized. The gain ratio is obtained by dividing each gain at a frequency corresponding to the primary main resonance frequency of the triaxial spectrum by the gain having the maximum value. The reference primary main resonance frequency and the reference gain ratio are the primary main resonance frequency and the gain ratio of the reference gesture, respectively.
スマートデバイス10は、一例として図3に示すように、CPU(Central Processing Unit)60、1次記憶部62、2次記憶部64、外部インターフェイス70、タッチパネルディスプレイ76、及び角速度センサの一例であるジャイロセンサ78を含む。タッチパネルディスプレイ76は、タッチパネル72及びディスプレイ74を含む。CPU60、1次記憶部62、2次記憶部64、外部インターフェイス70、タッチパネルディスプレイ76、及びジャイロセンサ78は、バス80を介して相互に接続されている。 As shown in FIG. 3 as an example, the smart device 10 includes a CPU (Central Processing Unit) 60, a primary storage unit 62, a secondary storage unit 64, an external interface 70, a touch panel display 76, and a gyro which is an example of an angular velocity sensor. A sensor 78 is included. The touch panel display 76 includes a touch panel 72 and a display 74. The CPU 60, the primary storage unit 62, the secondary storage unit 64, the external interface 70, the touch panel display 76, and the gyro sensor 78 are connected to each other via a bus 80.
ジャイロセンサ78は、スマートデバイス10の3軸の各々の軸回りの角速度を測定して角速度信号を出力し、タッチパネル72はタッチパネル72に対するタッチを検知する。ディスプレイ74はユーザインターフェイスなどをユーザに対して表示する。外部インターフェイス70には、外部装置が接続され、外部装置とCPU60との間の各種情報の送受信を司る。 The gyro sensor 78 measures an angular velocity around each of the three axes of the smart device 10 and outputs an angular velocity signal, and the touch panel 72 detects a touch on the touch panel 72. The display 74 displays a user interface and the like to the user. An external device is connected to the external interface 70 and controls transmission / reception of various information between the external device and the CPU 60.
1次記憶部62は、例えば、RAM(Random Access Memory)などの揮発性のメモリである。2次記憶部64は、例えば、HDD(Hard Disk Drive)、またはSSD(Solid State Drive)などの不揮発性のメモリである。1次記憶部62及び2次記憶部64は、図1の記憶部22として機能する。 The primary storage unit 62 is a volatile memory such as a RAM (Random Access Memory), for example. The secondary storage unit 64 is a non-volatile memory such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). The primary storage unit 62 and the secondary storage unit 64 function as the storage unit 22 of FIG.
2次記憶部64は、一例として、角速度検出サブプログラム66A、タッチ検出サブプログラム66B、変換サブプログラム66C、取得サブプログラム66D、及び表示サブプログラム66Fを含むジェスチャ登録プログラム66を記憶している。また、2次記憶部64は、一例として、角速度検出サブプログラム67A、変換サブプログラム67C、取得サブプログラム67D、及び判定サブプログラム67Eを含むジェスチャ検出プログラム67を記憶している。CPU60は、2次記憶部64から角速度検出サブプログラム66A、タッチ検出サブプログラム66B、変換サブプログラム66C、取得サブプログラム66D、及び表示サブプログラム66Fを読み出して1次記憶部62に展開する。また、CPU60は、2次記憶部64から角速度検出サブプログラム67A、変換サブプログラム67C、取得サブプログラム67D、及び判定サブプログラム67Eを読み出して1次記憶部62に展開する。 As an example, the secondary storage unit 64 stores a gesture registration program 66 including an angular velocity detection subprogram 66A, a touch detection subprogram 66B, a conversion subprogram 66C, an acquisition subprogram 66D, and a display subprogram 66F. In addition, the secondary storage unit 64 stores, as an example, a gesture detection program 67 including an angular velocity detection subprogram 67A, a conversion subprogram 67C, an acquisition subprogram 67D, and a determination subprogram 67E. The CPU 60 reads out the angular velocity detection subprogram 66A, the touch detection subprogram 66B, the conversion subprogram 66C, the acquisition subprogram 66D, and the display subprogram 66F from the secondary storage unit 64 and develops them in the primary storage unit 62. Further, the CPU 60 reads out the angular velocity detection subprogram 67A, the conversion subprogram 67C, the acquisition subprogram 67D, and the determination subprogram 67E from the secondary storage unit 64 and develops them in the primary storage unit 62.
CPU60は、角速度検出サブプログラム66Aを実行することで、図1に示す角速度検出部12として動作する。CPU60は、タッチ検出サブプログラム66Bを実行することで、図1に示すタッチ検出部14として動作する。CPU60は、変換サブプログラム66Cを実行することで、図1に示す変換部16として動作する。CPU60は、取得サブプログラム66Dを実行することで、図1に示す取得部18として動作する。CPU60は、表示サブプログラム66Fを実行することで、図1に示す表示部24として動作する。CPU60は、角速度検出サブプログラム67Aを実行することで、図1に示す角速度検出部12として動作する。CPU60は、変換サブプログラム67Cを実行することで、図1に示す変換部16として動作する。CPU60は、取得サブプログラム67Dを実行することで、図1に示す取得部18として動作する。CPU60は、判定サブプログラム67Eを実行することで、図1に示す判定部20として動作する。また、2次記憶部64は、ジェスチャテーブル19を生成するデータ68を記憶している。ジェスチャ登録プログラム66及びジェスチャ検出プログラム67は、開示の技術に係るプログラムの一例である。 The CPU 60 operates as the angular velocity detection unit 12 shown in FIG. 1 by executing the angular velocity detection subprogram 66A. The CPU 60 operates as the touch detection unit 14 illustrated in FIG. 1 by executing the touch detection subprogram 66B. The CPU 60 operates as the conversion unit 16 illustrated in FIG. 1 by executing the conversion subprogram 66C. The CPU 60 operates as the acquisition unit 18 illustrated in FIG. 1 by executing the acquisition subprogram 66D. The CPU 60 operates as the display unit 24 shown in FIG. 1 by executing the display subprogram 66F. The CPU 60 operates as the angular velocity detection unit 12 shown in FIG. 1 by executing the angular velocity detection subprogram 67A. The CPU 60 operates as the conversion unit 16 illustrated in FIG. 1 by executing the conversion subprogram 67C. The CPU 60 operates as the acquisition unit 18 illustrated in FIG. 1 by executing the acquisition subprogram 67D. The CPU 60 operates as the determination unit 20 illustrated in FIG. 1 by executing the determination subprogram 67E. The secondary storage unit 64 stores data 68 for generating the gesture table 19. The gesture registration program 66 and the gesture detection program 67 are examples of programs according to the disclosed technology.
次に、開示の技術の実施形態の作用として、CPU60がジェスチャ登録プログラム66を実行することで、スマートデバイス10によって行われるジェスチャ登録処理について、図4を参照して説明する。 Next, as an operation of the embodiment of the disclosed technique, a gesture registration process performed by the smart device 10 by the CPU 60 executing the gesture registration program 66 will be described with reference to FIG.
ジェスチャ登録処理は、例えば、スマートデバイス10のディスプレイ74に表示されるボタンなどをユーザが押下することによって、スマートデバイス10に基準ジェスチャを登録する意図をユーザが示すことで開始される。 The gesture registration process is started when the user indicates an intention to register a reference gesture in the smart device 10 when the user presses a button or the like displayed on the display 74 of the smart device 10, for example.
ステップ102で、CPU60が、ディスプレイ74に図5Aに示すユーザインターフェイス画面40Aを表示する。ユーザインターフェイス画面には4つの基準ジェスチャ46〜49が表示されている。 In step 102, the CPU 60 displays the user interface screen 40A shown in FIG. Four reference gestures 46 to 49 are displayed on the user interface screen.
図8に示されるように、x軸、y軸、及びz軸は相互に直交している。図5Aに示す基本ジェスチャ46〜49を行うために、ユーザは、まず、示指から小指までの4本の指の指節間関節及び中手指節関節を伸ばす。4本の指に、図8に示すスマートデバイス10の筐体11のy軸がほぼ直交し、スマートデバイス10の一方の側面が母指中手指節関節にほぼ接するように、またスマートデバイス10の背面が手掌に接するように、スマートデバイス10を手掌に載せる。示指から小指までの4本の指と母指球とでスマートデバイス10を把持し、母指がスマートデバイス10の前面とほぼ平行になるように母指の指節間関節及び中手指節関節を伸ばす。また、母指がスマートデバイス10の前面に触れないように母指とスマートデバイス10の前面とを離間する。さらに、母指がスマートデバイス10の前面にほぼ平行のままで、かつ、母指の先端が円弧の軌道を描くように手根中手関節を中心として母指を振る。スマートデバイス10を保持している手の手首から指の各々の先端までの間にはスマートデバイス10のみが接していることが望ましい。 As shown in FIG. 8, the x-axis, y-axis, and z-axis are orthogonal to each other. In order to perform the basic gestures 46 to 49 shown in FIG. 5A, the user first extends the interphalangeal joint and the metacarpophalangeal joint of the four fingers from the index finger to the little finger. The y-axis of the case 11 of the smart device 10 shown in FIG. 8 is substantially perpendicular to the four fingers, and one side of the smart device 10 is substantially in contact with the thumb metacarpophalangeal joint. The smart device 10 is placed on the palm so that the back is in contact with the palm. The smart device 10 is grasped by the four fingers from the index finger to the little finger and the thumb ball, and the interphalangeal joint and the metacarpophalangeal joint of the thumb are arranged so that the thumb is almost parallel to the front surface of the smart device 10. extend. Further, the thumb and the front surface of the smart device 10 are separated so that the thumb does not touch the front surface of the smart device 10. Further, the thumb is shaken around the carpal joint so that the thumb remains substantially parallel to the front surface of the smart device 10 and the tip of the thumb draws an arc trajectory. It is desirable that only the smart device 10 is in contact between the wrist of the hand holding the smart device 10 and the tip of each finger.
図5Aのジェスチャ46では、図6Aに示すように、スマートデバイス10の前面の下辺に近い第1位置に存在する破線で示される母指151が、実線で示す母指の位置を通り、右辺に近い第2位置に一点鎖線で示す母指152の位置に到達するように移動する。ジェスチャ46は、母指を1度振るジェスチャである。図5Aのジェスチャ47では、図6Bに示すように、スマートデバイス10の前面の右辺に近い第2位置に存在する一点鎖線で示される母指152が、実線で示す母指の位置を通り、下辺に近い第1位置に破線で示す母指151の位置に到達するように移動する。ジェスチャ47は、母指を1度振るジェスチャである。図5Aのジェスチャ48は、図6Cに示すように、まず、図6Aに示すジェスチャと同様のジェスチャ153を行い、続けて、図6Bに示すジェスチャと同様のジェスチャ154を行うジェスチャである。図5Aのジェスチャ48に付されている数字1及び2は、動作の順番を表す。図5Aに示すジェスチャ49は、図6Dに示すように、まず、図6Bに示すジェスチャと同様のジェスチャ154を行い、続けて、図6Aに示すジェスチャと同様のジェスチャ153を行うジェスチャである。図5Aのジェスチャ49に付されている数字1及び2は、動作の順番を表す。 In the gesture 46 in FIG. 5A, as shown in FIG. 6A, the thumb 151 indicated by a broken line existing at the first position near the lower side of the front surface of the smart device 10 passes through the position of the thumb indicated by the solid line, and on the right side. It moves so as to reach the position of the thumb 152 indicated by the alternate long and short dash line at the near second position. The gesture 46 is a gesture for shaking the thumb once. In the gesture 47 of FIG. 5A, as shown in FIG. 6B, the thumb 152 indicated by the alternate long and short dash line in the second position close to the right side of the front surface of the smart device 10 passes through the position of the thumb indicated by the solid line, It moves so that it may reach the position of the thumb 151 indicated by a broken line at the first position close to. The gesture 47 is a gesture for shaking the thumb once. As shown in FIG. 6C, the gesture 48 in FIG. 5A is a gesture that firstly performs a gesture 153 similar to the gesture illustrated in FIG. 6A, and then performs a gesture 154 similar to the gesture illustrated in FIG. 6B. Numbers 1 and 2 attached to the gesture 48 in FIG. 5A represent the order of operations. A gesture 49 illustrated in FIG. 5A is a gesture that firstly performs a gesture 154 similar to the gesture illustrated in FIG. 6B and then performs a gesture 153 similar to the gesture illustrated in FIG. 6A as illustrated in FIG. 6D. Numbers 1 and 2 attached to the gesture 49 in FIG. 5A represent the order of the operations.
図7A〜図7Cは、ユーザが図5Aに示す基準ジェスチャ47を行った場合の、スマートデバイス10の側面から見たスマートデバイス10及びユーザの母指の動きを示す。図7A〜図7Cにおいて、図8に示すスマートデバイス10の筐体11の右側面及び左側面に直交するx軸を示す。 7A to 7C show movements of the smart device 10 and the user's thumb as viewed from the side of the smart device 10 when the user performs the reference gesture 47 shown in FIG. 5A. 7A to 7C, the x axis perpendicular to the right side surface and the left side surface of the housing 11 of the smart device 10 illustrated in FIG. 8 is illustrated.
図9A〜図9Cは、ユーザが図5Aに示す基準ジェスチャ47を行った場合の、スマートデバイス10の上面から見たスマートデバイス10及びユーザの母指の動きを示す。図9A〜図9Cにおいて、図8に示すスマートデバイス10の筐体11の上面及び下面に直交するy軸を示す。 9A to 9C show the movement of the smart device 10 and the user's thumb when viewed from the top of the smart device 10 when the user performs the reference gesture 47 shown in FIG. 5A. 9A to 9C, the y axis perpendicular to the upper surface and the lower surface of the housing 11 of the smart device 10 illustrated in FIG. 8 is illustrated.
図10A〜図10Cは、ユーザが図5Aに示す基準ジェスチャ47を行った場合の、スマートデバイス10の前面側から見たスマートデバイス10及びユーザの母指の動きを示す。図10A〜図10Cにおいて、図8に示すスマートデバイス10の筐体11の前面及び背面に直交するz軸、手根中手関節155を示す。 FIGS. 10A to 10C show movements of the smart device 10 and the user's thumb as viewed from the front side of the smart device 10 when the user performs the reference gesture 47 shown in FIG. 5A. 10A to 10C, the z-axis and carpal metacarpal joint 155 perpendicular to the front surface and the back surface of the housing 11 of the smart device 10 illustrated in FIG. 8 are illustrated.
図10A及び図10Cに示されるように、スマートデバイス10のサイズが、ユーザの指の長さと比較して小さい場合、基準ジェスチャ47における第2位置である母指の先端の開始時点位置152’は前面の面上ではなく、前面の延長面上にあってもよい。また、第1位置である母指の先端の終了時点位置151’は前面の面上ではなく、前面の延長面上にあってもよい。基準ジェスチャ46、48、及び49の第1位置及び第2位置についても同様に、前面の面上ではなく、前面の延長面上にあってもよい。 As shown in FIGS. 10A and 10C, when the size of the smart device 10 is small compared to the length of the user's finger, the start position 152 ′ of the tip of the thumb that is the second position in the reference gesture 47 is It may be on the extended surface of the front surface instead of on the front surface. Further, the end position 151 ′ of the tip of the thumb that is the first position may be on the extended surface of the front surface instead of on the front surface. Similarly, the first position and the second position of the reference gestures 46, 48, and 49 may be on the extended surface of the front surface instead of on the front surface.
ステップ104で、ユーザがユーザインターフェイス40Aの基準ジェスチャ46〜49のいずれかをタッチすることにより、ユーザがいずれかの基準ジェスチャを選択したことが判定されると、CPU60は、ステップ106に進む。ステップ106で、CPU60は、図5Bに示すユーザインターフェイス画面40Bをタッチパネルディスプレイ76に表示する。ここでは、図5Aに示されるジェスチャ48が選択され、ユーザがユーザインターフェイス40Bの指示に従って、基準ジェスチャ48を行う場合について説明する。 If it is determined in step 104 that the user has selected any of the reference gestures by touching any of the reference gestures 46 to 49 of the user interface 40 </ b> A, the CPU 60 proceeds to step 106. In step 106, the CPU 60 displays the user interface screen 40B shown in FIG. Here, a case will be described in which the gesture 48 shown in FIG. 5A is selected and the user performs the reference gesture 48 in accordance with an instruction of the user interface 40B.
ステップ108で、CPU60は、ジャイロセンサ78によって検出されたスマートデバイス10のx軸回りの角速度信号ωx(t)、y軸回りの角速度信号ωy(t)、及びz軸回りの角速度信号ωz(t)を取り込む。x軸回りの角速度信号ωx(t)の検出例を図11Aに示し、y軸回りの角速度信号ωy(t)の検出例を図11Bに示し、z軸回りの角速度信号ωz(t)の検出例を図11Cに示す。図11A〜図11Cの横軸は時間であり、時間の単位は秒である。図11A〜図11Cの縦軸は角速度であり、角速度の単位はラジアン/秒である。 In step 108, the CPU 60 detects the angular velocity signal ωx (t) around the x axis, the angular velocity signal ωy (t) around the y axis, and the angular velocity signal ωz (t around the z axis detected by the gyro sensor 78. ). A detection example of the angular velocity signal ωx (t) around the x axis is shown in FIG. 11A, a detection example of the angular velocity signal ωy (t) around the y axis is shown in FIG. 11B, and the angular velocity signal ωz (t) around the z axis is detected. An example is shown in FIG. 11C. The horizontal axis of FIGS. 11A to 11C is time, and the unit of time is second. The vertical axis in FIGS. 11A to 11C is the angular velocity, and the unit of the angular velocity is radians / second.
ステップ110で、CPU60は、x軸回りの角速度信号ωx(t)を周波数領域のスペクトルSx(f)、y軸回りの角速度信号ωy(t)を周波数領域のスペクトルSy(f)に変換する。また、CPU60は、z軸回りの角速度信号ωz(t)を周波数領域のスペクトルSz(f)に変換する。この変換には、FFT(Fast Fourier Transform)もしくはDFT(Discrete Fourier Transform)を用いることが可能である。図11Aの角速度信号ωx(t)から変換された周波数領域のスペクトルSx(f)を図12Aに示し、図11Bの角速度信号ωy(t)から変換された周波数領域のスペクトルSy(f)を図12Bに示す。また、図11Cの角速度信号ωz(t)から変換された周波数領域のスペクトルSz(f)を図12Cに示す。図12A〜図12Cの縦軸はゲインであり、単位はデシベルである。図12A〜図12Cの横軸は周波数であり、単位はヘルツである。 In step 110, the CPU 60 converts the angular velocity signal ωx (t) around the x axis into a frequency domain spectrum Sx (f) and the angular velocity signal ωy (t) around the y axis into a frequency domain spectrum Sy (f). Further, the CPU 60 converts the angular velocity signal ωz (t) around the z axis into a spectrum Sz (f) in the frequency domain. For this conversion, FFT (Fast Fourier Transform) or DFT (Discrete Fourier Transform) can be used. A spectrum Sx (f) in the frequency domain converted from the angular velocity signal ωx (t) in FIG. 11A is shown in FIG. 12A, and a spectrum Sy (f) in the frequency domain converted from the angular velocity signal ωy (t) in FIG. Shown in 12B. FIG. 12C shows a spectrum Sz (f) in the frequency domain converted from the angular velocity signal ωz (t) in FIG. 11C. The vertical axis | shaft of FIG. 12A-FIG. 12C is a gain, and a unit is a decibel. The horizontal axis of FIGS. 12A to 12C is frequency, and the unit is hertz.
ステップ112で、CPU60は、x軸のスペクトルの1次共振周波数fcxにおけるゲインGcx、y軸のスペクトルの1次共振周波数fcyにおけるゲインGcy、及びz軸のスペクトルの1次共振周波数fczにおけるゲインGczを各々取得する。1次共振周波数は、各々のスペクトルにおいてゲインが最大値を示すときの周波数である。3軸のスペクトルの1次共振周波数のゲインの中で最も値の大きいゲインを主ゲインGcmとする。また、主ゲインGcmに対応する周波数を1次主共振周波数fcmとする。 In step 112, the CPU 60 obtains the gain Gcx at the primary resonance frequency fcx of the x-axis spectrum, the gain Gcy at the primary resonance frequency fcy of the y-axis spectrum, and the gain Gcz at the primary resonance frequency fcz of the z-axis spectrum. Get each. The primary resonance frequency is a frequency when the gain shows the maximum value in each spectrum. The gain having the largest value among the gains of the primary resonance frequency of the triaxial spectrum is defined as the main gain Gcm. Further, the frequency corresponding to the main gain Gcm is set as the primary main resonance frequency fcm.
図12A及び図12Bの例では、x軸のスペクトルの1次共振周波数において最大値を示すゲインGcxは0.044、y軸のスペクトルの1次共振周波数において最大値を示すゲインGcyは0.078である。また、図12Cの例では、z軸のスペクトルに顕著な最大値を示すピークがないため1次共振周波数を判定することは困難である。従って、図12A〜図12Cに示す一例では、表1に示すようにy軸のスペクトルの1次共振周波数fcxのゲインGcyの値が最も大きいので主ゲインGcmとなる。また、y軸のスペクトルの1次共振周波数fcyである0.71Hzが1次主共振周波数fcmとなる。
ステップ114で、CPU60は、x軸のスペクトルの1次主共振周波数に対応する周波数におけるゲインGcmx、及びy軸のスペクトルの1次主共振周波数に対応する周波数におけるゲインGcmyを正規化する。詳細には、ゲインGcmx及びGcmyの各々を主ゲインGcmで除算する。また、CPU60は、z軸のスペクトルの1次主共振周波数に対応する周波数におけるゲインGcmzを正規化するために、ゲインGcmzを主ゲインGcmで除算する。これらの除算によって、ゲイン比Rgx、Rgy、Rgzが求められる。すなわち、Rgx=Gcmx/Gcm、Rgy=Gcmy/Gcm、Rgz=Gcmz/Gcmを計算する。 In step 114, the CPU 60 normalizes the gain Gcmx at a frequency corresponding to the primary main resonance frequency of the x-axis spectrum and the gain Gcmy at a frequency corresponding to the primary main resonance frequency of the y-axis spectrum. Specifically, each of the gains Gcmx and Gcmy is divided by the main gain Gcm. Further, the CPU 60 divides the gain Gcmz by the main gain Gcm in order to normalize the gain Gcmz at a frequency corresponding to the primary main resonance frequency of the z-axis spectrum. By these divisions, gain ratios Rgx, Rgy, Rgz are obtained. That is, Rgx = Gcmx / Gcm, Rgy = Gcmy / Gcm, and Rgz = Gcmz / Gcm are calculated.
x軸、y軸、及びz軸のスペクトルの1次主共振周波数に対応する周波数におけるゲインGcmx、Gcmy、及びGcmzは、表1に示すように、0.042、0.078、及び0.006である。これらのゲインを主ゲインGcmである0.078で除算すると、x軸、y軸、及びz軸のスペクトルのゲイン比Rgx、Rgy、Rgzは0.53、1、0.07となる。 As shown in Table 1, gains Gcmx, Gcmy, and Gcmz at frequencies corresponding to the primary main resonance frequencies of the x-axis, y-axis, and z-axis spectra are 0.042, 0.078, and 0.006, respectively. It is. When these gains are divided by 0.078, which is the main gain Gcm, the gain ratios Rgx, Rgy, Rgz of the x-axis, y-axis, and z-axis spectra are 0.53, 1, 0.07.
ステップ116で、CPU60は、1次主共振周波数fcm及び、正規化された3軸のスペクトルのゲイン比Rgx、Rgy、Rgzを2次記憶装置64のジェスチャテーブルを生成するデータ68に基準1次主共振周波数及び基準ゲイン比として保存する。次に、タッチパネルディスプレイ76に図5Cに示すユーザインターフェイス40Cを表示し、ジェスチャ登録処理を終了する。 In step 116, the CPU 60 uses the primary primary resonance frequency fcm and the normalized triaxial spectrum gain ratios Rgx, Rgy, Rgz as the reference primary main data to the data 68 for generating the gesture table of the secondary storage device 64. Save as resonance frequency and reference gain ratio. Next, the user interface 40C shown in FIG. 5C is displayed on the touch panel display 76, and the gesture registration process is terminated.
図5Aに示される基準ジェスチャ48を5回行ったときにステップ112で取得された1次主共振周波数及びステップ114で取得されたゲイン比を表2に示す。x軸の周波数領域のスペクトルにおいて1次主共振周波数でのゲイン比のばらつきは0.021、z軸の周波数領域のスペクトルにおいて1次主共振周波数でのゲイン比のばらつきは0.015、また、1次主共振周波数のばらつきは0.025である。従って、図5Aに示されるジェスチャ48によるゲイン比及び1次主共振周波数の再現性は高い。
次に、CPU60がジェスチャ検出プログラム67を実行することで、スマートデバイス10によって行われるジェスチャ検出処理について、図13を参照して説明する。 Next, gesture detection processing performed by the smart device 10 by the CPU 60 executing the gesture detection program 67 will be described with reference to FIG.
スマートデバイス10の電源がオンにされると、CPU60は、ステップ202で、タッチパネルディスプレイ76によってタッチが検出されたか否かを判定する。ステップ202でタッチが検出されない場合、CPU60は、ステップ204で、ジャイロセンサ78によって検出されるスマートデバイス10のx軸、y軸及びz軸の各々の軸回りの角速度信号の各々を取り込む。ステップ204〜ステップ210は図4のステップ108〜ステップ114と同様の処理であるため、詳細な説明は省略する。 When the smart device 10 is turned on, the CPU 60 determines whether or not a touch is detected by the touch panel display 76 in step 202. If a touch is not detected in step 202, the CPU 60 captures each angular velocity signal around each of the x-axis, y-axis, and z-axis of the smart device 10 detected by the gyro sensor 78 in step 204. Steps 204 to 210 are the same processes as steps 108 to 114 in FIG. 4 and will not be described in detail.
CPU60は、ステップ206で、検出された角速度の各々を周波数領域のスペクトルに変換する。CPU60は、ステップ208で、変換した周波数領域のスペクトルの各々から1次共振周波数の各々を決定し、1次共振周波数の各々におけるゲインのうち値が最大であるゲインを主ゲインとして取得する。次に、主ゲインに対応する周波数である1次主共振周波数におけるゲインの各々を取得する。CPU60は、ステップ210で、ゲインの各々を正規化するために、ゲインの各々を主ゲインで除算する。 In step 206, the CPU 60 converts each detected angular velocity into a frequency domain spectrum. In step 208, the CPU 60 determines each of the primary resonance frequencies from each of the converted spectrum in the frequency domain, and acquires the gain having the maximum value among the gains in each of the primary resonance frequencies as the main gain. Next, each gain at the primary main resonance frequency, which is a frequency corresponding to the main gain, is acquired. In step 210, the CPU 60 divides each gain by the main gain to normalize each gain.
ステップ212で、CPU60は、ジェスチャテーブルを生成するデータ68に保存されている基準1次主共振周波数及び基準ゲイン比の各々と、ステップ210で取得された1次主共振周波数及びゲイン比の各々と、を、比較する。詳細には、1次共振周波数同士、及びゲイン比の各々同士で比較する。また、ステップ212で、CPU60は、基準1次主共振周波数及び基準ゲイン比の各々と、ステップ210で取得された1次主共振周波数及びゲイン比の各々と、の全ての差異が所定の範囲内であるか否かを判定する。例えば、基準1次主共振周波数及び基準ゲイン比の各々の±10%の範囲内に1次主共振周波数及びゲイン比の各々が含まれる場合、差異が所定の範囲内であると判定することが可能である。ステップ212の判定が肯定された場合、ステップ214で、当該基準ジェスチャに予め対応付けられている所定の処理を、CPU60が実行し、ジェスチャ検出処理を終了する。ジェスチャ検出処理は、スマートデバイス10の電源がオフにされるまで、所定の時間毎に繰り返し実行される。所定の時間は、例えば、1/100秒であってよい。 In step 212, the CPU 60 determines each of the reference primary main resonance frequency and the reference gain ratio stored in the data 68 for generating the gesture table, and each of the primary main resonance frequency and the gain ratio acquired in step 210. , Compare. Specifically, the comparison is made between the primary resonance frequencies and each of the gain ratios. In step 212, the CPU 60 determines that all differences between the reference primary main resonance frequency and the reference gain ratio and each of the primary main resonance frequency and the gain ratio acquired in step 210 are within a predetermined range. It is determined whether or not. For example, when each of the primary main resonance frequency and the gain ratio is included in a range of ± 10% of each of the reference primary main resonance frequency and the reference gain ratio, it is determined that the difference is within a predetermined range. Is possible. If the determination in step 212 is affirmed, in step 214, the CPU 60 executes a predetermined process associated with the reference gesture in advance, and the gesture detection process ends. The gesture detection process is repeatedly executed at predetermined time intervals until the smart device 10 is turned off. The predetermined time may be 1/100 second, for example.
図5Aに示される基準ジェスチャ46には、例えば、ブラウザ、電子書籍、及びPDFファイル等のダウンスクロール、または後方への頁送りをする処理を対応付けることが可能である。また、基準ジェスチャ46には、スマートデバイス10の操作を容易にするために、スマートデバイス10を保持している手の側に操作画面を縮小表示する処理を対応付けることが可能である。 The reference gesture 46 shown in FIG. 5A can be associated with, for example, a process of down-scrolling or page-turning backward such as a browser, an electronic book, and a PDF file. Further, in order to facilitate the operation of the smart device 10, the reference gesture 46 can be associated with a process of reducing the operation screen on the side of the hand holding the smart device 10.
図5Aに示される基準ジェスチャ47には、例えば、ブラウザ、電子書籍、及びPDFファイル等のアップスクロール、または前方への頁送り処理を対応付けることが可能である。または、基準ジェスチャ47には、画面上部から下部へ向けてスワイプが行われた場合に行われるよう設定されている処理が対応付けられてもよい。 The reference gesture 47 shown in FIG. 5A can be associated with, for example, an up-scrolling process such as a browser, an electronic book, and a PDF file, or a forward page feed process. Alternatively, the reference gesture 47 may be associated with a process that is set to be performed when a swipe is performed from the upper part to the lower part of the screen.
図5Aに示される基準ジェスチャ48及び49には、例えば、所定のアプリを起動する処理を対応付けることが可能である。所定のアプリは頻繁に使用されるアプリであってよい。基準ジェスチャ48及び49には、各々異なるアプリを起動する処理を対応付けることが可能である。また、基準ジェスチャ48及び49には、ブラウザ、電子書籍、PDFファイル等の倍速スクロールまたは倍速頁送りの処理を対応付けることが可能である。基準ジェスチャ48及び49には、各々異なる方向へのスクロールまたは頁送りの処理を割り当てることが可能である。なお、基準ジェスチャと対応付けられる上記処理は一例であり、開示の技術は、基準ジェスチャと上記処理とを対応付けることに限定されない。 The reference gestures 48 and 49 shown in FIG. 5A can be associated with, for example, a process for starting a predetermined application. The predetermined app may be a frequently used app. The reference gestures 48 and 49 can be associated with processes for starting different applications. Further, the reference gestures 48 and 49 can be associated with double speed scrolling or double speed page turning processing of a browser, an electronic book, a PDF file, or the like. Each of the reference gestures 48 and 49 can be assigned a scrolling or page turning process in different directions. In addition, the said process matched with a reference | standard gesture is an example, and the technique of an indication is not limited to matching a reference | standard gesture and the said process.
図14A〜図14Cに、図5Aに示される基準ジェスチャ46によって取得されたx軸、y軸、及びz軸の各々の軸回りの角速度信号を示し、図15A〜図15Cに、図14A〜図14Cの角速度信号を周波数領域のスペクトルに変換した結果を示す。図16A〜図16Cに、図5Aに示される基準ジェスチャ47によって取得されたx軸、y軸、及びz軸の各々の軸回りの角速度信号を示し、図17A〜図17Cに、図16A〜図16Cの角速度信号を周波数領域のスペクトルに変換した結果を示す。図18A〜図18Cに、図5Aに示される基準ジェスチャ49によって取得されたx軸、y軸、及びz軸の各々の軸回りの角速度信号を示し、図19A〜図19Cに、図18A〜図18Cの角速度信号を周波数領域のスペクトルに変換した結果を示す。 14A to 14C show angular velocity signals around the x-axis, y-axis, and z-axis acquired by the reference gesture 46 shown in FIG. 5A. FIGS. 15A to 15C show FIGS. The result of converting the angular velocity signal of 14C into a spectrum in the frequency domain is shown. FIGS. 16A to 16C show angular velocity signals around the x-axis, y-axis, and z-axis obtained by the reference gesture 47 shown in FIG. 5A. FIGS. 17A to 17C show FIGS. The result of converting the angular velocity signal of 16C into a spectrum in the frequency domain is shown. FIGS. 18A to 18C show angular velocity signals around the x-axis, y-axis, and z-axis acquired by the reference gesture 49 shown in FIG. 5A. FIGS. 19A to 19C show FIGS. The result of converting the angular velocity signal of 18C into a spectrum in the frequency domain is shown.
図20に、図15A〜図15C、図17A〜図17C、図12A〜図12C及び図19A〜図19Cから取得される基準ジェスチャ46〜49のx軸のスペクトルのゲイン比94、x軸のスペクトルのゲイン比+10%93を示す。また、図20に、図17A〜図17C、図12A〜図12C及び図19A〜図19Cから取得されるx軸のスペクトルのゲイン比−10%95を示す。また、図20に、y軸のスペクトルのゲイン比92、z軸のスペクトルのゲイン比97、z軸のスペクトルのゲイン比+10%96、及びz軸のスペクトルのゲイン比−10%98を示す。 FIG. 20 shows the gain ratio 94 of the x-axis spectrum of the reference gestures 46 to 49 acquired from FIGS. 15A to 15C, 17A to 17C, 12A to 12C, and 19A to 19C, and the x-axis spectrum. Gain ratio + 10% 93. 20 shows the gain ratio of the x-axis spectrum of −10% 95 acquired from FIGS. 17A to 17C, FIGS. 12A to 12C, and FIGS. 19A to 19C. FIG. 20 shows a y-axis spectrum gain ratio 92, a z-axis spectrum gain ratio 97, a z-axis spectrum gain ratio + 10% 96, and a z-axis spectrum gain ratio−10% 98.
図15A〜図15C、図17A〜図17C、図12A〜図12C及び図19A〜図19Cに示されるように、全ての基準ジェスチャにおいてy軸のスペクトルの1次共振周波数におけるゲインが3軸のスペクトルの1次共振周波数のゲインのうちで最大である。従って、y軸のスペクトルのゲイン比は全て1となっている。基準ジェスチャ46のx軸のスペクトルのゲイン比±10%と基準ジェスチャ47及び基準ジェスチャ48のゲイン比±10%とは重複しない。基準ジェスチャ46と基準ジェスチャ49のx軸のスペクトルのゲイン比の±10%の範囲は重複しているが、基準ジェスチャ46と基準ジェスチャ49のz軸のスペクトルのゲイン比の±10%の範囲は重複していない。 As shown in FIGS. 15A to 15C, FIGS. 17A to 17C, FIGS. 12A to 12C, and FIGS. 19A to 19C, the gain at the primary resonance frequency of the y-axis spectrum is a triaxial spectrum in all the reference gestures. Is the largest of the gains of the primary resonance frequency. Therefore, the gain ratios of the y-axis spectrum are all 1. The gain ratio ± 10% of the x-axis spectrum of the reference gesture 46 and the gain ratio ± 10% of the reference gesture 47 and the reference gesture 48 do not overlap. The range of ± 10% of the gain ratio of the x-axis spectrum of the reference gesture 46 and the reference gesture 49 overlaps, but the range of ± 10% of the gain ratio of the z-axis spectrum of the reference gesture 46 and the reference gesture 49 is There is no duplication.
基準ジェスチャ47と基準ジェスチャ49のx軸のスペクトルのゲイン比±10%は重複していない。基準ジェスチャ47と基準ジェスチャ49のx軸のスペクトルのゲイン比±10%は重複しているが、z軸のスペクトルのゲイン比±10%は重複していない。基準ジェスチャ48と基準ジェスチャ49のx軸のスペクトルのゲイン比±10%は重複していない。従って、基準ジェスチャ46〜49は、相互に、全ての軸のスペクトルのゲイン比±10%が重複することはなく、基準ジェスチャ46〜49は開示の技術によって弁別可能である。 The gain ratios ± 10% of the x-axis spectra of the reference gesture 47 and the reference gesture 49 do not overlap. The gain ratios ± 10% of the x-axis spectrum of the reference gesture 47 and the reference gesture 49 overlap, but the gain ratios ± 10% of the z-axis spectrum do not overlap. The gain ratios ± 10% of the x-axis spectra of the reference gesture 48 and the reference gesture 49 do not overlap. Therefore, the reference gestures 46 to 49 do not overlap each other in the spectrum gain ratio ± 10% of all the axes, and the reference gestures 46 to 49 can be discriminated by the disclosed technique.
なお、図5Aに示す基準ジェスチャ46〜49を、4本の指に、図8に示すスマートデバイス10の筐体11のy軸がほぼ直交するように、スマートデバイス10を手掌に載せるジェスチャとして説明したが、開示の技術はこれに限定されない。例えば、4本の指に、図8に示すスマートデバイス10の筐体11のx軸がほぼ直交するようにしてもよい。 Note that the reference gestures 46 to 49 shown in FIG. 5A are described as gestures in which the smart device 10 is placed on the palm of the hand so that the y-axis of the casing 11 of the smart device 10 shown in FIG. However, the disclosed technique is not limited to this. For example, the x axis of the housing 11 of the smart device 10 shown in FIG.
なお、図5Aに示す基準ジェスチャ46〜49を、示指から小指までの4本の指で把持するジェスチャとして説明したが、開示の技術はこれに限定されない。例えば、4本の指のうちいずれか1本でスマートデバイス10を把持するジェスチャであってもよい。この場合、残りの把持に使用しない指はスマートデバイス10に対し一定の位置に固定しておくことが望ましい。 In addition, although the reference gestures 46 to 49 illustrated in FIG. 5A have been described as gestures that are gripped by four fingers from the index finger to the little finger, the disclosed technique is not limited thereto. For example, it may be a gesture for holding the smart device 10 with any one of four fingers. In this case, it is desirable that the remaining fingers not used for gripping be fixed at a certain position with respect to the smart device 10.
なお、図5Aに示す基準ジェスチャ46〜49を、母指がスマートデバイス10の前面とほぼ平行になるジェスチャとして説明したが、開示の技術はこれに限定されない。例えば、母指がスマートデバイス10の背面とほぼ平行になるジェスチャであってもよい。この場合、示指から小指までの4本の指の中手指節関節はスマートデバイス10の前面と接する。 Note that the reference gestures 46 to 49 illustrated in FIG. 5A have been described as gestures in which the thumb is substantially parallel to the front surface of the smart device 10, but the disclosed technique is not limited thereto. For example, a gesture in which the thumb is substantially parallel to the back surface of the smart device 10 may be used. In this case, the metacarpophalangeal joints of the four fingers from the index finger to the little finger are in contact with the front surface of the smart device 10.
なお、図5Aに示す基準ジェスチャ46〜49を、母指の指節間関節及び中手指節関節を伸ばすジェスチャとして説明したが、開示の技術はこれに限定されない。例えば、母指が移動し易い程度に母指の指節間関節及び中手指節関節が軽く曲げられていてもよい。 In addition, although the reference gestures 46 to 49 illustrated in FIG. 5A have been described as gestures for extending the interphalangeal joint and the metacarpophalangeal joint of the thumb, the disclosed technique is not limited thereto. For example, the interphalangeal joint and the metacarpophalangeal joint of the thumb may be lightly bent to such an extent that the thumb can easily move.
なお、図5Aに示す基準ジェスチャ46〜49を4本の指でスマートデバイス10を把持し、母指を振るジェスチャとして説明したが、開示の技術はこれに限定されない。例えば、母指を含む示指以外の4本の指でスマートデバイス10を把持し、示指を振るジェスチャとしてもよい。また、母指を含む示指及び中指以外の3本の指でスマートデバイス10を把持し、示指と中指とを密着させて振るジェスチャとしてもよい。 In addition, although the reference gestures 46 to 49 illustrated in FIG. 5A have been described as gestures in which the smart device 10 is gripped with four fingers and the thumb is shaken, the disclosed technique is not limited thereto. For example, the gesture may be such that the smart device 10 is grasped with four fingers other than the index finger including the thumb and the index finger is shaken. Alternatively, the smart device 10 may be grasped with three fingers other than the index finger and the middle finger including the thumb and shaken with the index finger and the middle finger in close contact with each other.
なお、図4のステップ108では、x軸、y軸、及びz軸の各々の軸回りの角速度を検出する例について説明したが、開示の技術はこれに限定されない。例えば、3軸のうち2軸の角速度を検出するようにしてもよい。但し、2軸にはy軸を含めることが望ましい。 In addition, although the example which detects the angular velocity around each axis | shaft of x-axis, y-axis, and z-axis was demonstrated in step 108 of FIG. 4, the technique of an indication is not limited to this. For example, the angular velocity of two axes out of the three axes may be detected. However, it is desirable to include the y-axis in the two axes.
なお、図4のステップ116では、正規化したゲイン比をジェスチャテーブルに保存する場合について説明したが、開示の技術はこれに限定されない。例えば、基準1次主共振周波数に対応する3軸のスペクトルのゲインを保存しておいてもよい。この場合、図13のステップ212で比較する際に、保存されているゲインから正規化したゲイン比を計算するようにしてもよい。 Note that although the case where the normalized gain ratio is stored in the gesture table has been described in step 116 of FIG. 4, the disclosed technique is not limited to this. For example, the gain of the triaxial spectrum corresponding to the reference primary main resonance frequency may be stored. In this case, when comparing in step 212 of FIG. 13, a normalized gain ratio may be calculated from the stored gain.
なお、ジェスチャ登録処理を行って1次主共振周波数及びゲイン比を登録することに代えて、1次主共振周波数及びゲイン比の標準値を予め設定して登録しておき、登録された1次主共振周波数及びゲイン比を用いてジェスチャの検出を行うようにしてもよい。また、ジェスチャ登録処理によって登録された1次主共振周波数及びゲイン比を図示しないサーバに保存しておき、スマートデバイスの機種変更などが行われた際に、保存された1次主共振周波数及びゲイン比を新しいスマートデバイスに登録するようにしてもよい。これらの場合、適切にジェスチャが検出されない場合のみ、ジェスチャ登録処理を行えばよい。 Instead of registering the primary main resonance frequency and gain ratio by performing gesture registration processing, standard values of the primary main resonance frequency and gain ratio are set and registered in advance, and the registered primary The gesture may be detected using the main resonance frequency and the gain ratio. Further, the primary main resonance frequency and gain ratio registered by the gesture registration process are stored in a server (not shown), and when the smart device is changed, the stored primary main resonance frequency and gain are stored. The ratio may be registered with a new smart device. In these cases, the gesture registration process may be performed only when the gesture is not properly detected.
なお、図13のステップ212では、x軸、y軸及びz軸のスペクトルの基準ゲイン比とステップ210で取得されたx軸、y軸及びz軸のスペクトルのゲイン比とを比較する例について説明したが、開示の技術はこれに限定されない。例えば、3軸のうち2軸のスペクトルの基準ゲイン比とステップ210で取得された対応する2軸のスペクトルのゲイン比とを比較するようにしてもよい。但し、2軸には、1次共振周波数におけるゲインが最も大きい軸及び2番目に大きい軸を含めることが望ましい。 Step 212 in FIG. 13 describes an example in which the reference gain ratio of the x-axis, y-axis, and z-axis spectra is compared with the gain ratio of the x-axis, y-axis, and z-axis spectra acquired in step 210. However, the disclosed technique is not limited to this. For example, the reference gain ratio of the biaxial spectrum among the three axes may be compared with the gain ratio of the corresponding biaxial spectrum acquired in step 210. However, it is desirable that the two axes include the axis having the largest gain at the primary resonance frequency and the second largest axis.
また、上記では、ジェスチャ登録プログラム66及びジェスチャ検出プログラム67が、2次記憶部64に予め記憶(インストール)されている態様を説明した。しかしながら、ジェスチャ登録プログラム66及びジェスチャ検出プログラム67は、CD−ROMやDVD−ROM等の非一時的記録媒体に記録されている形態で提供することも可能である。 In the above description, the mode in which the gesture registration program 66 and the gesture detection program 67 are stored (installed) in the secondary storage unit 64 in advance has been described. However, the gesture registration program 66 and the gesture detection program 67 can be provided in a form recorded on a non-temporary recording medium such as a CD-ROM or a DVD-ROM.
回転角運動量釣合式を用いて、開示の技術の基準ジェスチャを検出することを検討する。開示の技術の基準ジェスチャをモデル化すると、図21に示すように、スマートデバイス10’を片腕82でバネ自由支持した慣性系支持系のモデルとなる。慣性系支持系においては、母指81の動きとスマートデバイス10’との間の作用力は内力として考えることができるため、運動の始めの運動量と運動の終わりの運動量とは等しい。 Consider using a rotational angular momentum balance equation to detect a reference gesture of the disclosed technique. When the reference gesture of the disclosed technology is modeled, a model of an inertial support system in which the smart device 10 ′ is spring-supported by one arm 82 as shown in FIG. 21 is obtained. In the inertial support system, since the acting force between the movement of the thumb 81 and the smart device 10 ′ can be considered as an internal force, the momentum at the beginning of the movement is equal to the momentum at the end of the movement.
図22Aに示すスマートデバイス10’のx軸であるxt軸回りの慣性モーメントをItx、スマートデバイス10’のy軸であるyt軸回りの慣性モーメントをItyとする。また、図22Bに示すスマートデバイス10’のz軸であるzt軸回りの慣性モーメントをItzとする。また、図22Aに示す母指手根中手関節を中心として移動する母指81のx軸であるxo軸回りの慣性モーメントをIox、母指81のy軸であるyo軸回りの慣性モーメントをIoy、母指81のz軸であるzo軸回りの慣性モーメントをIozとする。また、スマートデバイス10’のxt軸回りの角速度をKtx、yt軸回りの角速度をKty、zt軸回りの角速度をKtzとする。また、母指81のxo軸回りの角速度をKox、yo軸回りの角速度をKoy、xo軸回りの角速度をKozとする。スマートデバイス10’のxt軸回りの角運動量と母指81のxo軸回りの角運動量は等しく、スマートデバイス10’のyt軸回りの角運動量と母指81のyo軸回りの角運動量は等しい。また、スマートデバイス10’のzt軸回りの角運動量と母指81のzo軸回りの角運動量は等しい。従って、回転角運動量の釣合式(1)〜(3)が成り立つ。
Itx×Ktx=Iox×Kox …(1)
Ity×Kty=Ioy×Koy …(2)
Itz×Ktz=Ioz×Koz …(3)
It is assumed that the inertia moment about the xt axis that is the x axis of the smart device 10 ′ shown in FIG. 22A is Itx, and the inertia moment about the yt axis that is the y axis of the smart device 10 ′ is Ity. Further, the moment of inertia around the zt axis, which is the z axis of the smart device 10 ′ shown in FIG. 22B, is assumed to be Itz. Further, the inertia moment around the xo axis that is the x axis of the thumb 81 that moves around the thumb carpal joint shown in FIG. 22A is Iox, and the inertia moment around the yo axis that is the y axis of the thumb 81 is shown. Let Ioy be the moment of inertia around the zo axis, which is the z axis of the thumb 81. Further, it is assumed that the angular velocity around the xt axis of the smart device 10 ′ is Ktx, the angular velocity around the yt axis is Kty, and the angular velocity around the zt axis is Ktz. Further, it is assumed that the angular velocity of the thumb 81 around the xo axis is Kox, the angular velocity around the yo axis is Koy, and the angular velocity around the xo axis is Koz. The angular momentum of the smart device 10 ′ around the xt axis is equal to the angular momentum of the thumb 81 around the xo axis, and the angular momentum of the smart device 10 ′ around the yt axis is equal to the angular momentum of the thumb 81 around the yo axis. Further, the angular momentum around the zt axis of the smart device 10 ′ is equal to the angular momentum around the zo axis of the thumb 81. Therefore, the balance equations (1) to (3) of the rotational angular momentum hold.
Itx × Ktx = Iox × Kox (1)
Ity × Kty = Ioy × Koy (2)
Itz × Ktz = Ioz × Koz (3)
式(1)〜(3)の各々をスマートデバイス10’の各々の軸回りの慣性モーメントで除算することによって、式(4)〜(6)に示すスマートデバイス10’の各々の軸回りの角速度を求める。
Ktx=(Iox×Kox)/Itx …(4)
Kty=(Ioy×Koy)/Ity …(5)
Ktz=(Ioz×Koz)/Itz …(6)
By dividing each of the equations (1) to (3) by the moment of inertia about each axis of the smart device 10 ′, the angular velocity about each axis of the smart device 10 ′ shown in the equations (4) to (6) Ask for.
Ktx = (Iox × Kox) / Itx (4)
Kty = (Ioy × Koy) / Ity (5)
Ktz = (Ioz × Koz) / Itz (6)
スマートデバイス10’の慣性モーメントItx、Ity、Itzはスマートデバイス10’の形状によって決定され、母指81の慣性モーメントIox、Ioy、Iozは母指81の質量で決定され、内力の大きさは母指81の経路で決定される。母指の長さ及び質量、母指の経路、すなわち、母指の動かし方の無意識の癖はユーザに依存するものである。従って、母指の長さ及び質量、母指の経路を測定して、スマートデバイス10’の慣性モーメント、母指81の慣性モーメント、及び内力の大きさを計算で求めることは困難である。 The inertia moments Itx, Ity, Itz of the smart device 10 ′ are determined by the shape of the smart device 10 ′, the inertia moments Iox, Ioy, Ioz of the thumb 81 are determined by the mass of the thumb 81, and the magnitude of the internal force is It is determined by the route of the finger 81. The length and mass of the thumb, the path of the thumb, that is, the unconscious habit of how to move the thumb depends on the user. Therefore, it is difficult to calculate the inertia moment of the smart device 10 ′, the inertia moment of the thumb 81, and the magnitude of the internal force by measuring the length and mass of the thumb and the path of the thumb.
一方、ユーザの母指81の長さ及び質量、母指の経路は、容易に変更されない。開示の技術では、式(4)〜(6)の右辺に含まれる母指の慣性モーメント、角速度及びスマートデバイスの慣性モーメントを計算または測定によって各々取得しない。その代わりに、式(4)〜(6)の左辺に含まれるスマートデバイスの角速度をジャイロセンサを用いて計測する。計測を行ったスマートデバイスに、角速度を周波数領域のスペクトルに変換して取得した代表値を登録することによって、ユーザ固有の特徴及びスマートデバイス固有の特徴を吸収して基準ジェスチャを検出することを可能としている。
換言すると、ジャイロセンサで計測される角速度には、ユーザの指(例えば、母指)の動きに伴いスマートデバイスに生じる反力が反映される。即ち、開示の技術では、スマートデバイスのジャイロセンサを反力の検出手段として用いることを可能としている。
On the other hand, the length and mass of the user's thumb 81 and the path of the thumb are not easily changed. In the disclosed technology, the inertial moment, angular velocity, and inertial moment of the smart device included in the right side of the equations (4) to (6) are not obtained by calculation or measurement. Instead, the angular velocity of the smart device included in the left side of Expressions (4) to (6) is measured using a gyro sensor. By registering representative values obtained by converting angular velocities into spectrum in the frequency domain, it is possible to detect user-specific features and smart device-specific features and detect reference gestures in the smart device where the measurement is performed. It is said.
In other words, the angular velocity measured by the gyro sensor reflects the reaction force generated in the smart device as the user's finger (for example, the thumb) moves. That is, in the disclosed technology, the gyro sensor of the smart device can be used as a reaction force detection unit.
開示の技術では、角速度信号を周波数領域のスペクトルに変換して、ゲイン比同士を比較しているため、ユーザが走行中の車両に乗っている場合に、走行中の車両の揺れの影響を受けずに、基準ジェスチャを検出することが可能である。例えば、自動車のエンジンの振動は10Hz付近であるが、基準ジェスチャの1次主共振周波数は1Hz付近であるため、基準ジェスチャの特徴を示す周波数領域のスペクトルの代表値に自動車のエンジンの振動による周波数は影響しないためである。 In the disclosed technology, the angular velocity signal is converted into a spectrum in the frequency domain and the gain ratios are compared with each other. Therefore, when the user is on a traveling vehicle, it is affected by the shaking of the traveling vehicle. Instead, it is possible to detect the reference gesture. For example, the vibration of an automobile engine is around 10 Hz, but the primary main resonance frequency of the reference gesture is around 1 Hz. Therefore, the representative frequency frequency spectrum indicating the characteristics of the reference gesture has a frequency due to the vibration of the automobile engine. This is because there is no effect.
また、時間軸に沿った情報である角速度信号同士を比較する場合、比較のタイミングがずれたり、一部の情報にノイズが含まれたりすると、基準ジェスチャの検出を適切に行うことが困難である。しかしながら、開示の技術では、周波数領域のスペクトルに変換した情報の代表値である1次主共振周波数、及びゲイン比を比較に使用する。従って、比較のタイミングのずれ、または一部の情報に含まれるノイズ(例えば、外力に起因するノイズ)の影響を受けずに基準ジェスチャを検出することが可能である。 Also, when comparing angular velocity signals, which are information along the time axis, if the timing of comparison is shifted or noise is included in some information, it is difficult to appropriately detect the reference gesture. . However, in the disclosed technique, the primary main resonance frequency, which is a representative value of information converted into a frequency domain spectrum, and a gain ratio are used for comparison. Therefore, it is possible to detect the reference gesture without being affected by a difference in timing of comparison or noise (for example, noise caused by external force) included in some information.
開示の技術では、ゲイン同士ではなく、ゲイン比同士を比較することにより、基準ジェスチャを行う度に異なる可能性があるユーザの力の加減の差異によるゲインの変動を吸収し、適切に基準ジェスチャを検出することが可能である。 In the disclosed technique, by comparing the gain ratios, not the gains, the gain fluctuation due to the difference in the user's power that may be different each time the reference gesture is performed is absorbed, and the reference gesture is appropriately performed. It is possible to detect.
開示の技術では、例えば、基準ジェスチャ46〜49のようなジェスチャを検出することが可能であるため、タッチ、スワイプなどの既存のジェスチャとの競合を生じない操作方法が増えることにより、スマートデバイスの操作の幅を広げることが可能となる。基準ジェスチャ46〜49は、筐体におけるタッチパネルディスプレイの位置及びタッチパネルディスプレイに表示されているコンテンツを視認せずに行うことが可能であるため、活用できる場面の幅も広げることが可能となる。 In the disclosed technology, for example, gestures such as the reference gestures 46 to 49 can be detected. Therefore, an operation method that does not cause a conflict with existing gestures such as touch and swipe increases, so that the smart device can be detected. It is possible to widen the range of operations. Since the reference gestures 46 to 49 can be performed without visually recognizing the position of the touch panel display in the housing and the content displayed on the touch panel display, it is possible to widen the range of scenes that can be used.
開示の技術の基準ジェスチャ検出は、タッチ検出を用いていないため、タッチパネルを有さない情報処理装置でも利用することが可能である。この場合、ジェスチャを登録する際には、例えば、ハードキーなどを使用するようにすることが可能である。 Since the reference gesture detection of the disclosed technique does not use touch detection, it can also be used in an information processing apparatus that does not have a touch panel. In this case, when registering a gesture, for example, a hard key can be used.
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
筐体に設定された互いに直交する3軸の軸回りの角速度信号を各々検出する角速度検出部と、
前記角速度検出部によって検出された前記3軸の軸回りの角速度信号を各々周波数領域のスペクトルに変換する変換部と、
前記変換部によって変換された各軸の周波数領域のスペクトルのゲインの最大値の中で最も大きい値を有する特定の1軸の周波数領域のスペクトルにおいて最大ゲインを示す周波数を1次主共振周波数として取得すると共に、少なくとも2軸の周波数領域のスペクトルの前記1次主共振周波数と同じ周波数におけるゲインと前記最大ゲインとの比をゲイン比として取得する取得部と、
前記筐体に対して基準ジェスチャが行われた際に、前記取得部によって取得された前記1次主共振周波数及び前記ゲイン比と、前記筐体に対して判定対象ジェスチャが行われた際に、前記取得部によって取得された前記1次主共振周波数及び前記ゲイン比と、を前記1次主共振周波数及びゲイン比の各々毎に比較することで、前記判定対象ジェスチャが前記基準ジェスチャであるか否かを判定する判定部と、
を含む情報処理装置。
(付記2)
前記判定部によって比較に用いられる前記少なくとも2軸は、各々の軸におけるゲインの最大値が前記3軸の中で最も大きい軸及び2番目に大きい軸である、
付記1に記載の情報処理装置。
(付記3)
前記基準ジェスチャが行われた際に、前記取得部によって取得された前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比を記憶する記憶部をさらに備え、
前記判定部は、前記判定対象ジェスチャが行われた際に、前記取得部によって取得された前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、前記記憶部に記憶されている前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、を比較することで、前記判定対象ジェスチャの判定を行う、
付記1または2に記載の情報処理装置。
(付記4)
前記基準ジェスチャは、前記筐体を片手で把持し、前記片手の母指の手根中手関節を中心として前記母指を動かすジェスチャである、
付記1〜3のいずれかに記載の情報処理装置。
(付記5)
前記基準ジェスチャは、前記母指の指節間関節及び中手指節関節を伸ばし、示指、中指、薬指、小指の少なくとも1本の指を用いて前記筐体を把持し、前記手根中手関節を中心として前記母指を動かすことにより、前記母指の先端が前記筐体の1つの面上に、前記母指と面とを離隔して、かつ、円弧を描くように移動するジェスチャである、
付記4に記載の情報処理装置。
(付記6)
前記基準ジェスチャは、前記母指の先端が前記面または前記面の延長面上の第1位置から円弧を描いて前記面または前記面の延長面上の第2位置へ移動する第1ジェスチャ、前記母指の先端が前記第2位置から円弧を描いて第1位置へ移動する第2ジェスチャ、前記母指の先端が前記第1位置から円弧を描いて第2位置へ移動した後、前記第2位置から円弧を描いて第1位置へ移動する第3ジェスチャ、及び前記母指の先端が前記第2位置から円弧を描いて第1位置へ移動した後、前記第1位置から円弧を描いて第2位置へ移動する第4ジェスチャ、の少なくとも1つを含む、
付記5に記載の情報処理装置。
(付記7)
前記角速度検出部によって検出される角速度信号は、前記母指の動きに伴い前記筐体に生じる反力を示す信号を含む、
付記4〜6の何れかに記載の情報処理装置。
(付記8)
前記判定部が、前記基準ジェスチャが行われたことを判定すると、予め対応付けられている前記基準ジェスチャに対応する処理を実行する、付記1〜7のいずれかに記載の情報処理装置。
(付記9)
プロセッサが、
筐体に設定された互いに直交する3軸の軸回りの角速度信号を各々検出し、
検出された前記3軸の軸回りの角速度信号を各々周波数領域のスペクトルに変換し、
変換された各軸の周波数領域のスペクトルのゲインの最大値の中で最も大きい値を有する特定の1軸の周波数領域のスペクトルにおいて最大ゲインを示す周波数を1次主共振周波数として取得すると共に、少なくとも2軸の周波数領域のスペクトルの前記1次主共振周波数と同じ周波数におけるゲインと前記最大ゲインとの比をゲイン比として取得し、
前記筐体に対して基準ジェスチャが行われた際に取得された前記1次主共振周波数及び少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、前記筐体に対して判定対象ジェスチャが行われた際に取得された前記1次主共振周波数及び前記ゲイン比と、を前記1次主共振周波数及びゲイン比の各々毎に比較することで、前記判定対象ジェスチャが前記基準ジェスチャであるか否かを判定する、
ことを含むジェスチャ検出方法。
(付記10)
比較に用いられる前記少なくとも2軸は、各々の軸におけるゲインの最大値が前記3軸の中で最も大きい軸及び2番目に大きい軸である、
付記9に記載のジェスチャ検出方法。
(付記11)
前記プロセッサが、
前記基準ジェスチャが行われた際に取得された前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比を記憶部に保存し、
前記判定対象ジェスチャが行われた際に取得された前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、前記記憶部に保存されている前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、を比較することで、前記判定対象ジェスチャの判定を行う、
付記9または10に記載のジェスチャ検出方法。
(付記12)
前記基準ジェスチャは、前記筐体を片手で把持し、前記片手の母指の手根中手関節を中心として前記母指を動かすジェスチャである、
付記9〜11のいずれかに記載のジェスチャ検出方法。
(付記13)
前記基準ジェスチャは、前記母指の指節間関節及び中手指節関節を伸ばし、示指、中指、薬指、小指の少なくとも1本の指を用いて前記筐体を把持し、前記手根中手関節を中心として前記母指を動かすことにより、前記母指の先端が前記筐体の1つの面上に、前記母指と面とを離隔して、かつ、円弧を描くように移動するジェスチャである、
付記12に記載のジェスチャ検出方法。
(付記14)
前記基準ジェスチャは、前記母指の先端が前記面または前記面の延長面上の第1位置から円弧を描いて前記面または前記面の延長面上の第2位置へ移動する第1ジェスチャ、前記母指の先端が前記第2位置から円弧を描いて第1位置へ移動する第2ジェスチャ、前記母指の先端が前記第1位置から円弧を描いて第2位置へ移動した後、前記第2位置から円弧を描いて第1位置へ移動する第3ジェスチャ、及び前記母指の先端が前記第2位置から円弧を描いて第1位置へ移動した後、前記第1位置から円弧を描いて第2位置へ移動する第4ジェスチャ、の少なくとも1つを含む、
付記13に記載のジェスチャ検出方法。
(付記15)
検出される前記角速度信号は、前記筐体に前記母指の動きに伴い生じる反力を示す信号を含む、
付記12〜14の何れかに記載の情報処理装置。
(付記16)
前記プロセッサが、
前記基準ジェスチャが行われたことを判定すると、予め対応付けられている前記基準ジェスチャに対応する処理を実行する、
付記9〜15のいずれかに記載のジェスチャ検出方法。
(付記17)
筐体に設定された互いに直交する3軸の軸回りの角速度信号を各々検出し、
検出された前記3軸の軸回りの角速度信号を各々周波数領域のスペクトルに変換し、
変換された各軸の周波数領域のスペクトルのゲインの最大値の中で最も大きい値を有する特定の1軸の周波数領域のスペクトルにおいて最大ゲインを示す周波数を1次主共振周波数として取得すると共に、少なくとも2軸の周波数領域のスペクトルの前記1次主共振周波数と同じ周波数におけるゲインと前記最大ゲインとの比をゲイン比として取得し、
前記筐体に対して基準ジェスチャが行われた際に取得された前記1次主共振周波数及び少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、前記筐体に対して判定対象ジェスチャが行われた際に取得された前記1次主共振周波数及びゲイン比と、を前記1次主共振周波数及びゲイン比の各々毎に比較することで、前記判定対象ジェスチャが前記基準ジェスチャであるか否かを判定する、
ことを含むジェスチャ検出処理をプロセッサに実行させるためのプログラム。
(付記18)
比較に用いられる前記少なくとも2軸は、各々の軸におけるゲインの最大値が前記3軸の中で最も大きい軸及び2番目に大きい軸である、
付記17に記載のプログラム。
(付記19)
前記基準ジェスチャが行われた際に取得された前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比を記憶部に保存し、
前記判定対象ジェスチャが行われた際に取得された前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、前記記憶部に保存されている前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、を比較することで、前記判定対象ジェスチャの判定を行う、
付記17または18に記載のプログラム。
(付記20)
前記基準ジェスチャは、前記筐体を片手で把持し、前記片手の母指の手根中手関節を中心として前記母指を動かすジェスチャである、
付記17〜19のいずれかに記載のプログラム。
(付記21)
前記基準ジェスチャは、前記母指の指節間関節及び中手指節関節を伸ばし、示指、中指、薬指、小指の少なくとも1本の指を用いて前記筐体を把持し、前記手根中手関節を中心として前記母指を動かすことにより、前記母指の先端が前記筐体の1つの面上に、前記母指と面とを離隔して、かつ、円弧を描くように移動するジェスチャである、
付記20に記載のプログラム。
(付記22)
前記基準ジェスチャは、前記母指の先端が前記面または前記面の延長面上の第1位置から円弧を描いて前記面または前記面の延長面上の第2位置へ移動する第1ジェスチャ、前記母指の先端が前記第2位置から円弧を描いて第1位置へ移動する第2ジェスチャ、前記母指の先端が前記第1位置から円弧を描いて第2位置へ移動した後、前記第2位置から円弧を描いて第1位置へ移動する第3ジェスチャ、及び前記母指の先端が前記第2位置から円弧を描いて第1位置へ移動した後、前記第1位置から円弧を描いて第2位置へ移動する第4ジェスチャ、の少なくとも1つを含む、
付記21に記載のプログラム。
(付記23)
検出される前記角速度信号は、前記筐体に前記母指の動きに伴い生じる反力を示す信号を含む、
付記20〜22の何れかに記載のプログラム。
(付記24)
前記基準ジェスチャが行われたことを判定すると、予め対応付けられている前記基準ジェスチャに対応する処理を実行する、
付記18〜23のいずれかに記載のプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
An angular velocity detection unit that detects angular velocity signals around three mutually orthogonal axes set in the housing;
A conversion unit that converts each of the angular velocity signals around the three axes detected by the angular velocity detection unit into a spectrum in a frequency domain;
The frequency indicating the maximum gain in the spectrum of the specific one-axis frequency domain having the largest value among the maximum values of the spectrum gain of the frequency domain of each axis converted by the conversion unit is acquired as the primary main resonance frequency. And an acquisition unit that acquires, as a gain ratio, a ratio between the gain and the maximum gain at the same frequency as the primary main resonance frequency of the spectrum in the frequency domain of at least two axes;
When a reference gesture is performed on the casing, the primary main resonance frequency and the gain ratio acquired by the acquisition unit, and when a determination target gesture is performed on the casing, Whether or not the determination target gesture is the reference gesture by comparing the primary main resonance frequency and the gain ratio acquired by the acquisition unit for each of the primary main resonance frequency and the gain ratio. A determination unit for determining whether or not
An information processing apparatus including:
(Appendix 2)
The at least two axes used for comparison by the determination unit are an axis having the largest gain value in each axis and the second largest axis among the three axes,
The information processing apparatus according to attachment 1.
(Appendix 3)
A storage unit for storing the primary main resonance frequency acquired by the acquisition unit and the gain ratio of the spectrum in the frequency domain of at least two axes when the reference gesture is performed;
The determination unit stores, in the storage unit, the gain ratio of the primary main resonance frequency acquired by the acquisition unit and the spectrum of the frequency domain of at least two axes when the determination target gesture is performed. The determination target gesture is determined by comparing the primary main resonance frequency and the gain ratio of the spectrum in the frequency domain of at least two axes.
The information processing apparatus according to appendix 1 or 2.
(Appendix 4)
The reference gesture is a gesture for grasping the housing with one hand and moving the thumb with the middle metacarpal joint of the thumb of the one hand.
The information processing apparatus according to any one of appendices 1 to 3.
(Appendix 5)
The reference gesture extends the interphalangeal joint and the metacarpophalangeal joint of the thumb, grips the housing using at least one of the index finger, the middle finger, the ring finger, and the little finger, and the carpal metacarpal joint Is a gesture in which the tip of the thumb moves on one surface of the housing to move the thumb apart from the surface and draw an arc. ,
The information processing apparatus according to appendix 4.
(Appendix 6)
The reference gesture includes a first gesture in which a tip of the thumb moves in a circular arc from a first position on the surface or an extended surface of the surface to a second position on the surface or an extended surface of the surface, A second gesture in which the tip of the thumb moves from the second position to the first position in an arc, and after the tip of the thumb moves from the first position to the second position in an arc, the second gesture A third gesture that draws an arc from the position and moves to the first position, and a tip of the thumb moves from the second position to the first position by drawing an arc and then draws an arc from the first position. Including at least one of a fourth gesture moving to a second position,
The information processing apparatus according to appendix 5.
(Appendix 7)
The angular velocity signal detected by the angular velocity detection unit includes a signal indicating a reaction force generated in the casing with the movement of the thumb.
The information processing apparatus according to any one of appendices 4 to 6.
(Appendix 8)
The information processing apparatus according to any one of appendices 1 to 7, wherein when the determination unit determines that the reference gesture has been performed, the process corresponding to the reference gesture associated in advance is executed.
(Appendix 9)
Processor
Detecting angular velocity signals around three mutually orthogonal axes set in the housing,
Each of the detected angular velocity signals around the three axes is converted into a frequency domain spectrum,
Obtaining a frequency indicating the maximum gain in the spectrum of the specific one-axis frequency domain having the largest value among the maximum values of the gain of the spectrum of the frequency domain of each axis as the primary main resonance frequency, and at least A ratio of a gain at the same frequency as the primary main resonance frequency of a spectrum in a biaxial frequency region and the maximum gain is obtained as a gain ratio;
The primary main resonance frequency and the gain ratio of the spectrum in the frequency domain of at least two axes acquired when the reference gesture is performed on the casing and the determination target gesture are performed on the casing. Whether the determination target gesture is the reference gesture by comparing the primary main resonance frequency and the gain ratio acquired at the time of each of the primary main resonance frequency and the gain ratio. Determine
A gesture detection method including the above.
(Appendix 10)
The at least two axes used for comparison are an axis having the largest gain value in each axis and the second largest axis among the three axes.
The gesture detection method according to appendix 9.
(Appendix 11)
The processor is
Storing the primary main resonance frequency acquired when the reference gesture is performed and the gain ratio of the spectrum in the frequency domain of at least two axes in a storage unit;
The primary main resonance frequency acquired when the determination target gesture is performed and the gain ratio of the spectrum in the frequency domain of at least two axes, the primary main resonance frequency stored in the storage unit, and The determination target gesture is determined by comparing the gain ratio of the spectrum in the frequency domain of at least two axes.
The gesture detection method according to appendix 9 or 10.
(Appendix 12)
The reference gesture is a gesture for grasping the housing with one hand and moving the thumb with the middle metacarpal joint of the thumb of the one hand.
The gesture detection method according to any one of appendices 9 to 11.
(Appendix 13)
The reference gesture extends the interphalangeal joint and the metacarpophalangeal joint of the thumb, grips the housing using at least one of the index finger, the middle finger, the ring finger, and the little finger, and the carpal metacarpal joint Is a gesture in which the tip of the thumb moves on one surface of the housing to move the thumb apart from the surface and draw an arc. ,
The gesture detection method according to attachment 12.
(Appendix 14)
The reference gesture includes a first gesture in which a tip of the thumb moves in a circular arc from a first position on the surface or an extended surface of the surface to a second position on the surface or an extended surface of the surface, A second gesture in which the tip of the thumb moves from the second position to the first position in an arc, and after the tip of the thumb moves from the first position to the second position in an arc, the second gesture A third gesture that draws an arc from the position and moves to the first position, and a tip of the thumb moves from the second position to the first position by drawing an arc and then draws an arc from the first position. Including at least one of a fourth gesture moving to a second position,
The gesture detection method according to attachment 13.
(Appendix 15)
The detected angular velocity signal includes a signal indicating a reaction force generated by the movement of the thumb on the housing.
The information processing apparatus according to any one of appendices 12 to 14.
(Appendix 16)
The processor is
When it is determined that the reference gesture has been performed, processing corresponding to the reference gesture associated in advance is executed.
The gesture detection method according to any one of appendices 9 to 15.
(Appendix 17)
Detecting angular velocity signals around three mutually orthogonal axes set in the housing,
Each of the detected angular velocity signals around the three axes is converted into a frequency domain spectrum,
Obtaining a frequency indicating the maximum gain in the spectrum of the specific one-axis frequency domain having the largest value among the maximum values of the gain of the spectrum of the frequency domain of each axis as the primary main resonance frequency, and at least A ratio of a gain at the same frequency as the primary main resonance frequency of a spectrum in a biaxial frequency region and the maximum gain is obtained as a gain ratio;
The primary main resonance frequency and the gain ratio of the spectrum in the frequency domain of at least two axes acquired when the reference gesture is performed on the casing and the determination target gesture are performed on the casing. The primary main resonance frequency and the gain ratio acquired at the time are compared with each of the primary main resonance frequency and the gain ratio to determine whether or not the determination target gesture is the reference gesture. judge,
The program for making a processor perform the gesture detection process containing this.
(Appendix 18)
The at least two axes used for comparison are an axis having the largest gain value in each axis and the second largest axis among the three axes.
The program according to appendix 17.
(Appendix 19)
Storing the primary main resonance frequency acquired when the reference gesture is performed and the gain ratio of the spectrum in the frequency domain of at least two axes in a storage unit;
The primary main resonance frequency acquired when the determination target gesture is performed and the gain ratio of the spectrum in the frequency domain of at least two axes, the primary main resonance frequency stored in the storage unit, and The determination target gesture is determined by comparing the gain ratio of the spectrum in the frequency domain of at least two axes.
The program according to appendix 17 or 18.
(Appendix 20)
The reference gesture is a gesture for grasping the housing with one hand and moving the thumb with the middle metacarpal joint of the thumb of the one hand.
The program according to any one of appendices 17 to 19.
(Appendix 21)
The reference gesture extends the interphalangeal joint and the metacarpophalangeal joint of the thumb, grips the housing using at least one of the index finger, the middle finger, the ring finger, and the little finger, and the carpal metacarpal joint Is a gesture in which the tip of the thumb moves on one surface of the housing to move the thumb apart from the surface and draw an arc. ,
The program according to appendix 20.
(Appendix 22)
The reference gesture includes a first gesture in which a tip of the thumb moves in a circular arc from a first position on the surface or an extended surface of the surface to a second position on the surface or an extended surface of the surface, A second gesture in which the tip of the thumb moves from the second position to the first position in an arc, and after the tip of the thumb moves from the first position to the second position in an arc, the second gesture A third gesture that draws an arc from the position and moves to the first position, and a tip of the thumb moves from the second position to the first position by drawing an arc and then draws an arc from the first position. Including at least one of a fourth gesture moving to a second position,
The program according to appendix 21.
(Appendix 23)
The detected angular velocity signal includes a signal indicating a reaction force generated by the movement of the thumb on the housing.
The program according to any one of appendices 20 to 22.
(Appendix 24)
When it is determined that the reference gesture has been performed, processing corresponding to the reference gesture associated in advance is executed.
The program according to any one of appendices 18 to 23.
10 スマートデバイス
16 変換部
18 取得部
20 判定部
22 記憶部
60 CPU
62 1次記憶部
64 2次記憶部
10 Smart Device 16 Conversion Unit 18 Acquisition Unit 20 Determination Unit 22 Storage Unit 60 CPU
62 Primary storage unit 64 Secondary storage unit
Claims (9)
前記角速度検出部によって検出された前記3軸の軸回りの角速度信号を各々周波数領域のスペクトルに変換する変換部と、
前記変換部によって変換された各軸の周波数領域のスペクトルのゲインの最大値の中で最も大きい値を有する特定の1軸の周波数領域のスペクトルにおいて最大ゲインを示す周波数を1次主共振周波数として取得すると共に、少なくとも2軸の周波数領域のスペクトルの前記1次主共振周波数と同じ周波数におけるゲインと前記最大ゲインとの比をゲイン比として取得する取得部と、
前記筐体に対して基準ジェスチャが行われた際に、前記取得部によって取得された前記1次主共振周波数及び前記ゲイン比と、前記筐体に対して判定対象ジェスチャが行われた際に、前記取得部によって取得された前記1次主共振周波数及び前記ゲイン比と、を前記1次主共振周波数及びゲイン比の各々毎に比較することで、前記判定対象ジェスチャが前記基準ジェスチャであるか否かを判定する判定部と、
を含む情報処理装置。 An angular velocity detection unit that detects angular velocity signals around three mutually orthogonal axes set in the housing;
A conversion unit that converts each of the angular velocity signals around the three axes detected by the angular velocity detection unit into a spectrum in a frequency domain;
The frequency indicating the maximum gain in the spectrum of the specific one-axis frequency domain having the largest value among the maximum values of the spectrum gain of the frequency domain of each axis converted by the conversion unit is acquired as the primary main resonance frequency. And an acquisition unit that acquires, as a gain ratio, a ratio between the gain and the maximum gain at the same frequency as the primary main resonance frequency of the spectrum in the frequency domain of at least two axes;
When a reference gesture is performed on the casing, the primary main resonance frequency and the gain ratio acquired by the acquisition unit, and when a determination target gesture is performed on the casing, Whether or not the determination target gesture is the reference gesture by comparing the primary main resonance frequency and the gain ratio acquired by the acquisition unit for each of the primary main resonance frequency and the gain ratio. A determination unit for determining whether or not
An information processing apparatus including:
請求項1に記載の情報処理装置。 The at least two axes used for comparison by the determination unit are an axis having the largest gain value in each axis and the second largest axis among the three axes,
The information processing apparatus according to claim 1.
前記判定部は、前記判定対象ジェスチャが行われた際に、前記取得部によって取得された前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、前記記憶部に記憶されている前記1次主共振周波数及び前記少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、を比較することで、前記判定対象ジェスチャの判定を行う、
請求項1または2に記載の情報処理装置。 A storage unit for storing the primary main resonance frequency acquired by the acquisition unit and the gain ratio of the spectrum in the frequency domain of at least two axes when the reference gesture is performed;
The determination unit stores, in the storage unit, the gain ratio of the primary main resonance frequency acquired by the acquisition unit and the spectrum of the frequency domain of at least two axes when the determination target gesture is performed. The determination target gesture is determined by comparing the primary main resonance frequency and the gain ratio of the spectrum in the frequency domain of at least two axes.
The information processing apparatus according to claim 1 or 2.
請求項1〜3のいずれか1項に記載の情報処理装置。 The reference gesture is a gesture for grasping the housing with one hand and moving the thumb with the middle metacarpal joint of the thumb of the one hand.
The information processing apparatus according to any one of claims 1 to 3.
請求項4に記載の情報処理装置。 The reference gesture extends the interphalangeal joint and the metacarpophalangeal joint of the thumb, grips the housing using at least one of the index finger, the middle finger, the ring finger, and the little finger, and the carpal metacarpal joint Is a gesture in which the tip of the thumb moves on one surface of the housing to move the thumb apart from the surface and draw an arc. ,
The information processing apparatus according to claim 4.
請求項5に記載の情報処理装置。 The reference gesture includes a first gesture in which a tip of the thumb moves in a circular arc from a first position on the surface or an extended surface of the surface to a second position on the surface or an extended surface of the surface, A second gesture in which the tip of the thumb moves from the second position to the first position in an arc, and after the tip of the thumb moves from the first position to the second position in an arc, the second gesture A third gesture that draws an arc from the position and moves to the first position, and a tip of the thumb moves from the second position to the first position by drawing an arc and then draws an arc from the first position. Including at least one of a fourth gesture moving to a second position,
The information processing apparatus according to claim 5.
筐体に設定された互いに直交する3軸の軸回りの角速度信号を各々検出し、
検出された前記3軸の軸回りの角速度信号を各々周波数領域のスペクトルに変換し、
変換された各軸の周波数領域のスペクトルのゲインの最大値の中で最も大きい値を有する特定の1軸の周波数領域のスペクトルにおいて最大ゲインを示す周波数を1次主共振周波数として取得すると共に、少なくとも2軸の周波数領域のスペクトルの前記1次主共振周波数と同じ周波数におけるゲインと前記最大ゲインとの比をゲイン比として取得し、
前記筐体に対して基準ジェスチャが行われた際に取得された前記1次主共振周波数及び少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、前記筐体に対して判定対象ジェスチャが行われた際に取得された前記1次主共振周波数及び前記ゲイン比と、を前記1次主共振周波数及びゲイン比の各々毎に比較することで、前記判定対象ジェスチャが前記基準ジェスチャであるか否かを判定する、
ことを含むジェスチャ検出方法。 Processor
Detecting angular velocity signals around three mutually orthogonal axes set in the housing,
Each of the detected angular velocity signals around the three axes is converted into a frequency domain spectrum,
Obtaining a frequency indicating the maximum gain in the spectrum of the specific one-axis frequency domain having the largest value among the maximum values of the gain of the spectrum of the frequency domain of each axis as the primary main resonance frequency, and at least A ratio of a gain at the same frequency as the primary main resonance frequency of a spectrum in a biaxial frequency region and the maximum gain is obtained as a gain ratio;
The primary main resonance frequency and the gain ratio of the spectrum in the frequency domain of at least two axes acquired when the reference gesture is performed on the casing and the determination target gesture are performed on the casing. Whether the determination target gesture is the reference gesture by comparing the primary main resonance frequency and the gain ratio acquired at the time of each of the primary main resonance frequency and the gain ratio. Determine
A gesture detection method including the above.
検出された前記3軸の軸回りの角速度信号を各々周波数領域のスペクトルに変換し、
変換された各軸の周波数領域のスペクトルのゲインの最大値の中で最も大きい値を有する特定の1軸の周波数領域のスペクトルにおいて最大ゲインを示す周波数を1次主共振周波数として取得すると共に、少なくとも2軸の周波数領域のスペクトルの前記1次主共振周波数と同じ周波数におけるゲインと前記最大ゲインとの比をゲイン比として取得し、
前記筐体に対して基準ジェスチャが行われた際に取得された前記1次主共振周波数及び少なくとも2軸の周波数領域のスペクトルの前記ゲイン比と、前記筐体に対して判定対象ジェスチャが行われた際に取得された前記1次主共振周波数及びゲイン比と、を前記1次主共振周波数及びゲイン比の各々毎に比較することで、前記判定対象ジェスチャが前記基準ジェスチャであるか否かを判定する、
ことを含むジェスチャ検出処理をプロセッサに実行させるためのプログラム。 Detecting angular velocity signals around three mutually orthogonal axes set in the housing,
Each of the detected angular velocity signals around the three axes is converted into a frequency domain spectrum,
Obtaining a frequency indicating the maximum gain in the spectrum of the specific one-axis frequency domain having the largest value among the maximum values of the gain of the spectrum of the frequency domain of each axis as the primary main resonance frequency, and at least A ratio of a gain at the same frequency as the primary main resonance frequency of a spectrum in a biaxial frequency region and the maximum gain is obtained as a gain ratio;
The primary main resonance frequency and the gain ratio of the spectrum in the frequency domain of at least two axes acquired when the reference gesture is performed on the casing and the determination target gesture are performed on the casing. The primary main resonance frequency and the gain ratio acquired at the time are compared with each of the primary main resonance frequency and the gain ratio to determine whether or not the determination target gesture is the reference gesture. judge,
The program for making a processor perform the gesture detection process containing this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015113133A JP6442769B2 (en) | 2015-06-03 | 2015-06-03 | Information processing apparatus, gesture detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015113133A JP6442769B2 (en) | 2015-06-03 | 2015-06-03 | Information processing apparatus, gesture detection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016224852A JP2016224852A (en) | 2016-12-28 |
JP6442769B2 true JP6442769B2 (en) | 2018-12-26 |
Family
ID=57746022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015113133A Expired - Fee Related JP6442769B2 (en) | 2015-06-03 | 2015-06-03 | Information processing apparatus, gesture detection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6442769B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007304988A (en) * | 2006-05-12 | 2007-11-22 | Seiko Epson Corp | Motion command processing system |
JP5493864B2 (en) * | 2007-12-07 | 2014-05-14 | パナソニック株式会社 | Electronics |
US9174123B2 (en) * | 2009-11-09 | 2015-11-03 | Invensense, Inc. | Handheld computer systems and techniques for character and command recognition related to human movements |
JP5704561B2 (en) * | 2011-01-12 | 2015-04-22 | 独立行政法人産業技術総合研究所 | Traveling direction estimation device, portable terminal, control program, computer-readable recording medium, and traveling direction estimation method |
JP5045835B1 (en) * | 2011-04-27 | 2012-10-10 | パナソニック株式会社 | Electronics |
JP5997921B2 (en) * | 2012-04-13 | 2016-09-28 | 株式会社MetaMoJi | Character input method and character input device |
-
2015
- 2015-06-03 JP JP2015113133A patent/JP6442769B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016224852A (en) | 2016-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2350782B1 (en) | Mobile devices with motion gesture recognition | |
US10732742B2 (en) | Information processing program and method for causing a computer to transform a displayed object based on input area and force of a touch input | |
US10599250B2 (en) | Using finger touch types to interact with electronic devices | |
JP5427240B2 (en) | User command input method and device based on motion sensing | |
CN104071097B (en) | Input apparatus, input method, and input program | |
KR100912511B1 (en) | User adaptive gesture interface method and system thereof | |
JP2015013008A (en) | Movement detection device, movement detection program, and movement analysis system | |
JP5392093B2 (en) | Input device, control device, control system, control method, and handheld device | |
TW201035816A (en) | Input apparatus, handheld apparatus, and control method | |
KR102335738B1 (en) | Method and apparatus for calculating a rotating angle of a device | |
CN105549878B (en) | E-book flipping-over control method and equipment | |
CN109804638A (en) | The double mode augmented reality interface of mobile device | |
JP2012093603A (en) | Input device and program | |
JP6170973B2 (en) | Portable information terminal, information processing method, and program | |
JP5407263B2 (en) | Relative acceleration detection device, detection method and program for relative acceleration | |
JP6442769B2 (en) | Information processing apparatus, gesture detection method, and program | |
US10558270B2 (en) | Method for determining non-contact gesture and device for the same | |
Murao et al. | Evaluation study on sensor placement and gesture selection for mobile devices | |
JP2014170280A (en) | Information processing device, information processing method, and program | |
CN112882577B (en) | Gesture control method, device and system | |
JP2019003366A (en) | Information input device, information input method and information input system | |
Chu et al. | A study of motion recognition system using a smart phone | |
JP2018005868A (en) | Method for identifying individual by machine learning of feature at flick input time | |
JP2016143139A (en) | Information processing apparatus, operation control system, and operation control method | |
WO2018205159A1 (en) | Motion recognition method, portable device, and machine-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180405 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180411 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20180725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6442769 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |