JP2017182571A - Information processing system, information processing method and information processing program - Google Patents
Information processing system, information processing method and information processing program Download PDFInfo
- Publication number
- JP2017182571A JP2017182571A JP2016070852A JP2016070852A JP2017182571A JP 2017182571 A JP2017182571 A JP 2017182571A JP 2016070852 A JP2016070852 A JP 2016070852A JP 2016070852 A JP2016070852 A JP 2016070852A JP 2017182571 A JP2017182571 A JP 2017182571A
- Authority
- JP
- Japan
- Prior art keywords
- twist
- information
- motion
- user
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、利用者のジェスチャで操作可能な情報処理システムと、前記情報処理システムによって実行される情報処理方法、及び前記情報処理方法を前記情報処理システムに実行させるための情報処理プログラムに関する。 The present invention relates to an information processing system operable by a user's gesture, an information processing method executed by the information processing system, and an information processing program for causing the information processing system to execute the information processing method.
従来から、ウェアラブルデバイスで利用者のジェスチャを検出し、パソコン等に表示された操作画面をハンズフリーで操作可能にした情報処理システムが複数提案されている。 Conventionally, a plurality of information processing systems have been proposed in which a user's gesture is detected by a wearable device, and an operation screen displayed on a personal computer or the like can be operated in a hands-free manner.
例えば、特許文献1に開示されているように、両手を用いた作業中にも使用できる装置であって、利用者の頭部、肩部又は腕部に装着したジャイロセンサ等の検出手段を用いてジェスチャを検出し、制御手段が、検出手段の検出信号を解析して入力情報を抽出する情報入力装置があった。この制御手段は、検出信号の大きさが所定範囲にないとき、その検出信号をノイズとみなすよう設定され、身体の微小な動きや姿勢の変更等、入力操作とは無関係な動きをマスクすることができる構成になっている。
For example, as disclosed in
また、特許文献2に開示されているように、利用者の手に装着した加速度/ジャイロセンサ等の状態観測部を用いて手首を含む手の動きを検出し、処理部が、状態観測部が検出したジェスチャに応じた制御を行うジェスチャ入力装置があった。この処理部は、手首が背屈状態でないときは、状態観測部が検出したジェスチャを無視するよう設定され、利用者が手首の状態を切り替えることによって、入力操作を行うか否かを選択できる構成になっている。 Further, as disclosed in Patent Document 2, the movement of the hand including the wrist is detected using a state observation unit such as an acceleration / gyro sensor attached to the user's hand, and the processing unit includes a state observation unit. There has been a gesture input device that performs control in accordance with a detected gesture. This processing unit is configured to ignore the gesture detected by the state observation unit when the wrist is not dorsiflexed, and the user can select whether or not to perform an input operation by switching the wrist state It has become.
特許文献1,2の装置は、利用者の身体の動きを加速度センサやジャイロセンサを用いて検出する構成なので、地磁気センサ等を用いるよりも高精度な検出が可能である。また、利用者の身体の動きをカメラ等の撮影装置を用いて検出する構成は、撮影装置の持ち歩きや設置が面倒であるとか、光の向きや明るさ等の条件が整った場所でしか使用できない等の不都合な面があるが、加速度センサやジャイロセンサを用いて検出する構成は、このような不都合は発生しないという利点がある。
Since the devices disclosed in
特許文献1の情報入力装置は、利用者の動きが入力操作とノイズのどちらに該当するかの判定を、検出信号の大きさに基づいて行うので、利用者が不意に中途半端な動きをしてしまうと、誤った判定をしてしまう可能性が残る。したがって、利用者は、意に反して装置が誤動作しないように、常に注意して操作しなければならず、誤動作した場合には処理操作のやり直しが必要で、煩雑であり操作性が良くないものであった。
The information input device disclosed in
一方、特許文献2のジェスチャ入力装置の場合、利用者が手首の状態を切り替えることより、入力操作を行うか否かを自分の意思で選択できるので、上記のような誤動作が発生しにくいと考えられる。しかし、利用者は、入力操作を行うとき、手首を背屈状態に保持してジェスチャをしなければならない。手首を背屈させた姿勢は、人がリラックスできる楽な姿勢とは言えないので、この姿勢のままで長時間ジェスチャを続けることは、利用者にとって苦痛であり、操作性は未だ良くないものである。 On the other hand, in the case of the gesture input device of Patent Document 2, since the user can select whether or not to perform an input operation by switching his / her wrist state, the above malfunction is unlikely to occur. It is done. However, the user must perform a gesture while holding the wrist in a dorsiflexion state when performing an input operation. The posture with the wrist bent back is not an easy posture for people to relax, so it is painful for users to continue gesturing for a long time with this posture, and the operability is still not good. is there.
本発明は、上記背景技術に鑑みて成されたもので、ジェスチャによる操作を実行するか否かの設定を利用者の意思で容易に且つ正確に切り替えることができる情報処理システムと情報処理方法及び情報処理プログラムを提供することを目的とする。 The present invention has been made in view of the above-described background art. An information processing system, an information processing method, and an information processing method that can easily and accurately switch a setting as to whether or not to perform an operation based on a gesture. An object is to provide an information processing program.
本発明は、利用者のジェスチャで操作可能な情報処理システムであって、利用者が自ら軸回することができる身体部位に装着され、この身体部位の動きを、加速度センサとジャイロセンサのうちの少なくとも一方を含むセンサ素子で構成されたモーションセンサ部で検出し、センサデータを出力するウェアラブルデバイスと、前記ウェアラブルデバイスが出力した前記センサデータを取得し、前記センサデータを解析することによって利用者の動作情報を抽出し、特定の条件を満たす前記動作情報をジェスチャ操作情報とみなし、このジェスチャ操作情報に対応した各種の処理を行うデバイスであって、動作モードとして、前記ジェスチャ操作情報に対応した処理を実行可能な操作モードと、前記ジェスチャ操作情報に対応した処理が停止した通常モードとが設けられた外部デバイスとを備え、前記外部デバイスには、前記センサデータを解析することによって、利用者が前記身体部位を軸回させた動きを示す軸回動作情報を抽出し、この軸回動作情報が特定の条件を満たすときツイスト動作を検出したと判断する手段が設けられ、前記外部デバイスは、前記ツイスト動作を検出したとき、現行の動作モードを他方の動作モードに切り替える情報処理システムである。 The present invention is an information processing system that can be operated by a user's gesture, and is mounted on a body part that the user can rotate by himself / herself, and the movement of the body part is detected by an acceleration sensor and a gyro sensor. A wearable device that detects and outputs sensor data detected by a motion sensor unit including at least one sensor element, acquires the sensor data output from the wearable device, and analyzes the sensor data to obtain a user's A device that extracts motion information, regards the motion information that satisfies a specific condition as gesture operation information, and performs various types of processing corresponding to the gesture operation information, and processing corresponding to the gesture operation information as an operation mode The operation mode that can be executed and the processing corresponding to the gesture operation information are stopped. An external device provided with a normal mode, and the external device, by analyzing the sensor data, to extract the pivoting movement information indicating the movement of the user pivoting the body part, Means is provided for determining that a twisting motion has been detected when this pivoting motion information satisfies a specific condition, and the external device, when detecting the twisting motion, is information for switching the current operation mode to the other operation mode. It is a processing system.
前記軸回動作情報は、利用者が前記身体部位を往方向及び復方向に軸回させた一連の動きを示す情報であることが好ましい。また、前記外部デバイスには、GUI画面を表示する表示部が設けられ、前記ウェアラブルデバイスは、前記GUI画面を操作するためのポインティングデバイスとして使用される構成にしてもよい。 The pivoting motion information is preferably information indicating a series of movements in which the user pivots the body part in the forward direction and the backward direction. The external device may be provided with a display unit that displays a GUI screen, and the wearable device may be used as a pointing device for operating the GUI screen.
また、本発明は、利用者のジェスチャで操作可能な情報処理システムによって実行される情報処理方法であって、前記情報処理システムは、利用者が自ら軸回することができる身体部位に装着され、この身体部位の動きを、加速度センサとジャイロセンサのうちの少なくとも一方を含むセンサ素子で構成されたモーションセンサ部で検出し、センサデータを出力するウェアラブルデバイスと、前記ウェアラブルデバイスが出力した前記センサデータを取得し、前記センサデータを解析することによって利用者の動作情報を抽出し、特定の条件を満たす前記動作情報をジェスチャ操作情報とみなし、このジェスチャ操作情報に対応した各種の処理を行うデバイスであって、動作モードとして、前記ジェスチャ操作情報に対応した処理を実行可能な操作モードと、前記ジェスチャ操作情報に対応した処理が停止した通常モードとが設けられた外部デバイスとで構成され、前記センサデータを解析することによって、利用者が前記身体部位を軸回させた動きを示す軸回動作情報を抽出し、この軸回動作情報が特定の条件を満たすときツイスト動作を検出したと判断し、現行の動作モードを他方の動作モードに切り替える情報処理方法である。 Further, the present invention is an information processing method executed by an information processing system operable with a user's gesture, wherein the information processing system is attached to a body part that the user can rotate on its own, A wearable device that detects the movement of the body part with a motion sensor unit including a sensor element including at least one of an acceleration sensor and a gyro sensor, and outputs sensor data, and the sensor data output by the wearable device A device that extracts user motion information by analyzing the sensor data, regards the motion information that satisfies a specific condition as gesture operation information, and performs various processes corresponding to the gesture operation information. As an operation mode, processing corresponding to the gesture operation information can be executed. An external device provided with an operation mode and a normal mode in which processing corresponding to the gesture operation information is stopped, and a movement in which the user pivots the body part by analyzing the sensor data Is an information processing method for extracting a twisting motion when the pivoting motion information satisfies a specific condition and determining that a twisting motion has been detected and switching the current motion mode to the other motion mode.
前記ツイスト動作を検出したか否かを判断するためのツイスト動作検出処理が設けられ、前記ツイスト動作検出処理は、前記センサデータを取得する毎に、そのセンサデータを解析して前記身体部位の軸回方向の角速度を算出するステップと、前記角速度を算出する毎に、その角速度と所定の角速度基準値とを比較し、前記角速度が前記角速度基準値以上になったタイミングを、前記身体部位の前記ツイスト動作を検出するツイスト検出の開始時刻に設定するステップと、前記角速度を算出する毎に、前回算出した前記角速度と今回算出した前記角速度とを利用して、前記身体部位の捻り角度の変化分を算出するステップと、前記捻り角度の変化分を算出する毎に、前記開始時刻以降に算出した前記捻り角度の変化分を合計して前記身体部位の捻り角度を算出し、その捻り角度と所定の捻り角度基準値とを比較するステップとを備え、前記捻り角度が所定の捻り角度基準値を超えたとき、前記ツイスト動作を検出したと判断する構成にすることができる。この場合、前記開始時刻から一定時間経過しても前記ツイスト動作が検出されないとき、前記開始時刻の設定をリセットするとともに、算出した前記捻り角度の変化分と前記捻り角度の情報を破棄する構成にすることが好ましい。 A twist motion detection process for determining whether or not the twist motion has been detected is provided, and the twist motion detection process analyzes the sensor data and acquires the axis of the body part each time the sensor data is acquired. Each time the angular velocity is calculated, the step of calculating the angular velocity in the turning direction is compared with a predetermined angular velocity reference value, and the timing at which the angular velocity is equal to or higher than the angular velocity reference value is determined. The step of setting the twist detection start time for detecting the twist motion, and every time the angular velocity is calculated, using the angular velocity calculated last time and the angular velocity calculated this time, the amount of change in the twist angle of the body part And calculating the torsion angle change every time the torsion angle change is calculated and summing the torsion angle change calculated after the start time. A step of calculating a twist angle and comparing the twist angle with a predetermined twist angle reference value, and determining that the twist operation has been detected when the twist angle exceeds a predetermined twist angle reference value Can be. In this case, when the twist operation is not detected even after a lapse of a certain time from the start time, the setting of the start time is reset, and the calculated change in the twist angle and the information on the twist angle are discarded. It is preferable to do.
前記身体部位の軸回方向の角速度を算出するステップは、前記利用者の腕の長手方向の軸回りに手首を回動させる動作の角速度を算出するものである。 The step of calculating the angular velocity in the axial direction of the body part is to calculate an angular velocity of an operation of rotating the wrist around the longitudinal axis of the user's arm.
また、前記軸回動作情報は、利用者が前記身体部位を往方向及び復方向に軸回させた一連の動きを示す情報である構成にすることができる。この場合、前記ツイスト動作を検出するために実行するツイスト動作検出処理が設けられ、前記ツイスト動作検出処理は、前記センサデータを取得する毎に、そのセンサデータを解析して前記身体部位の軸回方向の角速度を算出するステップと、前記角速度を算出する毎に、その角速度と所定の角速度基準値とを比較し、前記角速度が前記角速度基準値以上になったタイミングを、前記身体部位の前記ツイスト動作を検出するツイスト検出の開始時刻に設定するステップと、前記角速度を算出する毎に、前回算出した前記角速度と今回算出した前記角速度とを利用して、前記身体部位の捻り角度の変化分を算出するステップと、前記捻り角度の変化分を算出する毎に、前記開始時刻以降に算出した前記捻り角度の変化分を合計して前記身体部位の捻り角度を算出し、前記捻り角度と所定の捻り角度基準値とを比較するステップとを備え、まず、往方向の軸回動作に対して前記ツイスト動作検出処理を実行し、往方向の前記捻り角度が所定の捻り角度基準値を超えたとき、往方向のツイストを検出したと判断し、往方向のツイストを検出したと判断した後、一定時間内に、復方向の軸回動作に対して前記ツイスト動作検出処理を実行し、往方向の前記捻り角度が所定の捻り角度基準値を超えたとき、復方向のツイストを検出した判断するとともに、前記ツイスト動作を検出した判断する構成にすることが好ましい。さらに、前記開始時刻から一定時間経過しても往方向又は復方向のツイストが検出されないとき、前記開始時刻の設定をリセットするとともに、算出した前記捻り角度の変化分と前記捻り角度の情報を破棄する構成にすることが好ましい。 The pivoting movement information may be information indicating a series of movements in which the user pivots the body part in the forward direction and the backward direction. In this case, a twist motion detection process executed to detect the twist motion is provided, and the twist motion detection process analyzes the sensor data every time the sensor data is acquired, and rotates the axis of the body part. Each time the angular velocity is calculated, the angular velocity is compared with a predetermined angular velocity reference value, and the timing at which the angular velocity becomes equal to or higher than the angular velocity reference value is determined. The step of setting the twist detection start time for detecting motion, and every time the angular velocity is calculated, the change in the twist angle of the body part is calculated using the angular velocity calculated last time and the angular velocity calculated this time. And calculating the torsion angle change every time the torsion angle change is calculated and summing the torsion angle change calculated after the start time. A twist angle is calculated, and the twist angle is compared with a predetermined twist angle reference value.First, the twist motion detection process is performed for the forward axial motion, and the forward motion is detected. When the twist angle exceeds a predetermined twist angle reference value, it is determined that the forward twist has been detected, and after determining that the forward twist has been detected, within a certain time, The twist motion detection process is executed, and when the forward twist angle exceeds a predetermined twist angle reference value, it is determined that the reverse twist is detected and the twist motion is detected. It is preferable. Further, when a forward or backward twist is not detected even after a lapse of a certain time from the start time, the start time setting is reset and the calculated change in the twist angle and the information on the twist angle are discarded. It is preferable to adopt a configuration to
前記外部デバイスは、GUI画面を表示する表示部を有し、前記ウェアラブルデバイスは、前記GUI画面を操作するためのポインティングデバイスとして使用されるものであり、利用者が前記GUI画面に表示されたカーソルを移動させる操作を行うカーソル・ステージが設けられ、前記カーソル・ステージは、利用者の特定のジェスチャ操作情報を検出したとき、前記GUI画面にカーソルを表示させるステップと、前記センサデータを解析することによって、利用者が前記身体部位を特定の面内方向に移動させた動きを示す移動動作情報を抽出し、特定の条件を満たす前記移動動作情報を前記ジェスチャ操作情報とみなし、前記移動動作情報に対応させて前記カーソルの表示位置を移動させるステップとを備えている。 The external device has a display unit for displaying a GUI screen, the wearable device is used as a pointing device for operating the GUI screen, and a cursor displayed on the GUI screen by a user A cursor stage for performing an operation of moving the cursor, the cursor stage displaying a cursor on the GUI screen when detecting specific gesture operation information of a user, and analyzing the sensor data The mobile motion information indicating the movement of the user moving the body part in a specific in-plane direction is extracted, the mobile motion information satisfying a specific condition is regarded as the gesture operation information, and the mobile motion information is included in the mobile motion information. And a step of moving the display position of the cursor correspondingly.
また、前記カーソル・ステージは、前記カーソルが特定位置に一定時間以上停止したとき、その特定位置が仮選択されたと判断し、前記カーソルをその特定位置に固定するステップと、前記カーソルを特定位置に固定した状態で前記ツイスト動作を検出したと判断したとき、この特定位置でクリックされたと判断し、そのクリックに対応した処理を行うステップとを備えるものでもよい。 The cursor stage determines that the specific position has been temporarily selected when the cursor has stopped at the specific position for a certain period of time and fixes the cursor to the specific position; and When it is determined that the twist operation is detected in a fixed state, it may be determined that the user has clicked at the specific position, and a process corresponding to the click is performed.
さらに、本発明は、情報処理システムにより前記情報処理方法を実行させるための各処理ステップ用プログラムから成る情報処理プログラムである。 Furthermore, the present invention is an information processing program comprising a program for each processing step for causing the information processing system to execute the information processing method.
本発明の情報処理システムは、利用者がウェアラブルデバイスを特定の身体部位に装着する構成なので、ハンズフリーで操作を行うことができる。さらに、利用者の身体部位の動きを加速度センサやジャイロセンサを用いて検出するので、様々な環境下で高精度に検出することができ、持ち歩きも容易である。 Since the information processing system of the present invention is configured so that a user wears a wearable device on a specific body part, it can be operated hands-free. Furthermore, since the movement of the user's body part is detected using an acceleration sensor or a gyro sensor, it can be detected with high accuracy in various environments and is easy to carry around.
また、本発明の情報処理システムと情報処理方法及び情報処理プログラムによれば、利用者は、特定の身体部位を軸回させる動き(ツイスト動作)を行うことによって、ジェスチャによる入力操作を実行するか否かの設定を自ら切り替えることができる。したがって、利用者は、休憩したくなったときは、自ら通常モードに切り替えた後、安心して背伸びをし、リラックスすることができる。そして、休憩後は、自ら操作モードに切り替えて、新たな気持ちで入力操作を再開することができる。 In addition, according to the information processing system, the information processing method, and the information processing program of the present invention, does the user perform an input operation by a gesture by performing a motion (twist motion) that pivots a specific body part? You can switch the setting of whether or not. Therefore, when the user wants to take a break, he / she can relax with ease and relax after switching to the normal mode. After the break, the user can switch to the operation mode and resume the input operation with a new feeling.
また、ツイスト動作は、人が楽に実行できる簡単な動作であり、利用者の負担にならない。しかも、ツイスト動作は、他の動作と識別しやすい明快な動作なので、外部デバイスが誤認識するのを容易に防止することができる。 Further, the twist operation is a simple operation that can be easily performed by a person and does not burden the user. Moreover, since the twist operation is a clear operation that can be easily distinguished from other operations, it is possible to easily prevent the external device from erroneously recognizing.
以下、本発明の情報処理システムと情報処理方法及び情報処理プログラムの一実施形態について、図面に基づいて説明する。この実施形態の情報処理システム10は、図1に示すように、ウェアラブルデバイス12及び外部デバイス14で構成され、ウェアラブルデバイス12と外部デバイス14が有線又は無線のネットワーク16を介して接続され、ウェアラブルデバイス12を装着した利用者のジェスチャにより、外部デバイス14を操作することができるシステムである。この実施形態の情報処理方法は、情報処理システム10によって実行される処理方法であり、この実施形態の情報処理プログラムは、この処理方法を情報処理システム10に実行させるため各処理ステップ用プログラムから成るコンピュータプログラムである。
Hereinafter, an embodiment of an information processing system, an information processing method, and an information processing program according to the present invention will be described with reference to the drawings. As shown in FIG. 1, the
ウェアラブルデバイス12は、利用者が自らの身体の所定の回転軸を中心にして回動する動作(以下、軸回と言う。)を行うことができる身体部位に装着され、この身体部位の動きを、加速度センサとジャイロセンサのうちの少なくとも一方を含むセンサ素子で構成されたモーションセンサ部12aで検出し、センサデータを出力するデバイスである。利用者が自ら軸回することができる身体部位は、例えば手首、足首、指先、腕、頭部等であるが、このウェアラブルデバイス12は、腕時計のように手首に装着される構造になっており、図2に示すように、モーションセンサ部12a及び通信部12bが内蔵された本体部18を、手首の背面側に配置し、ベルト20で固定して使用される。つまり、モーションセンサ部12aを手首と一体に変位させることにより、手首が移動したり軸回したりする動きを検出する。以下この実施形態では、右手の手首又は右手に装着されたモーションセンサ部12aの軸回方向について、右ネジを締める方向を往方向と称し、緩める方向を復方向と称する。なお、左手の手首又は左手にモーションセンサ部12aが装着される構成の場合は、逆にすると良い。
The
外部デバイス14は、例えばパソコン等のコンピュータ機器であり、通信部22、センサデータ解析部24、グラフィカル・ユーザ・インターフェース操作部26(以下、GUI操作部26と称する。)、表示部28及び制御部30を備えている。
The external device 14 is a computer device such as a personal computer, for example, and includes a
通信部22は、ウェアラブルデバイス12が出力したセンサデータを逐次受信するブロックであり、表示部28は、グラフィカル・ユーザ・インターフェース画面28a(以下、GUI画面28aと称する。)を表示するディスプレイ等である。
The
センサデータ解析部24は、通信部22が受信したセンサデータを保存するデータ記憶部24aと、センサデータを解析し、特定のジェスチャが検出されたか否かを判定するジェスチャ検出部24bと、ジェスチャ検出部24bが行う判定の方法(手順や基準値等)が規定されたジェスチャ判定条件データベース24cとを備えている。ジェスチャ検出部24bは、データ記憶部24aから必要なセンサデータを取得し、ジェスチャ判定条件データベース24cに規定された手順でセンサデータを解析し、利用者の動きを示す動作情報を抽出する。そして、ジェスチャ判定条件データベース24cに規定された基準値等と比較することによって、抽出した動作情報の中に特定のジェスチャ(例えば、手首を腕の長手方向の軸回りに回転させるツイスト動作、横方向に移動するスワイプ操作等)に該当するものがあるか否かを判定する。該当する動作情報があった場合、特定のジェスチャを検出した判断し、その動作情報をジェスチャ操作情報として出力する。
The sensor
GUI操作部26は、GUI操作部26の動作モードを切り替えるモード管理部26aと、表示部28のGUI画面28aを制御するGUI制御命令出力部26bとを備えている。動作モードには、ジェスチャ操作情報に対応した処理を実行可能な操作モードと、ジェスチャ操作情報に対応した処理が停止した通常モードの2つがあり、モード管理部26aは、センサデータ解析部24で後述するツイスト動作が検出されると、制御部30の指令により、現行の動作モードを他方の動作モードに切り替える。GUI制御命令出力部26bは、ジェスチャ操作情報に対応したGUI制御命令を作成し、GUI画面28aの表示を変化させたり切り替えたりする。
The
制御部30は、通信部22、センサデータ解析部24、GUI操作部26、及び表示部28が動作する順番やタイミングを統括制御するブロックであり、さらに、利用者に対して提供するGUIステージの管理等も行う。GUIステージとは、後述するダイアログ・ステージ、ドロワー・ステージ、カーソル・ステージ等の総称であり、制御部30は、例えば任意のタイミングでGUI画面28a上にダイアログを表示させたり、ドロワーによる通知を行ったりする。また、ジェスチャ操作情報に基づいてGUI制御命令を作成する時、GUIステージ毎に作成ルールを変更しなければならないケースがあるので、制御部30は、GUI制御命令出力部26bに指令を出し、GUIステージに合ったGUI制御命令が作成されるように制御する。
The
次に、上述した情報処理システム10で使用される情報処理方法の一実施形態について説明する。ここで、ウェアラブルデバイス12は、すでに利用者の手首に装着され、モーションセンサ部12aで手首の動きを検出し、通信部12bを通じてセンサデータを逐次出力しており、センサデータは、外部デバイス14の通信部22により受信され、データ記憶部24aに逐次保存されているとする。
Next, an embodiment of an information processing method used in the
まず、この実施形態の情報処理方法の中の、利用者のツイスト動作を検出したときにGUI操作部26の動作モードを切り替える処理方法の一例を、図3〜図6に基づいて説明する。
First, an example of a processing method for switching the operation mode of the
開始時の動作モードが通常モードになっているとすると、図3に示すように、まず、ツイスト動作検出処理S11を行う。ツイスト動作検出処理S11は、利用者の腕の長手方向の軸回りに手首を往方向及び復方向に軸回させた一連の動きが特定の条件を満たすとき、ツイスト動作を検出したと判断するステップである。概して言うと、まず、往方向の軸回動作情報(利用者が手首を往方向に軸回させた動きを示す動作情報)を抽出し、これが特定の条件を満たすと、往方向のツイストを検出したと判断し、その後、同様に復方向の軸回動作情報を抽出し、これが特定の条件を満たすと、復方向のツイストを検出したと判断し、合わせてツイスト動作を検出したと判断する。以下、ツイスト動作検出処理S1の流れを詳しく説明する。 Assuming that the operation mode at the start is the normal mode, first, as shown in FIG. 3, twist operation detection processing S11 is performed. The twist motion detection process S11 is a step of determining that the twist motion has been detected when a series of movements in which the wrist is rotated in the forward direction and the backward direction about the longitudinal axis of the user's arm satisfies a specific condition. It is. Generally speaking, first, forward movement information (movement information indicating the movement of the user pivoting the wrist in the forward direction) is extracted, and if this satisfies a specific condition, the forward twist is detected. After that, similarly, the backward axial movement information is extracted. If this information satisfies a specific condition, it is determined that the backward twist is detected, and it is determined that the twist movement is detected. Hereinafter, the flow of the twist operation detection process S1 will be described in detail.
ツイスト動作検出処理S11は、図4に示すように、開始AからスタートしてステップS11−1に進む。この時点では、往方向のツイストが検出済みではないので、往方向のツイスト検出処理S11−2に進む。 As shown in FIG. 4, the twist operation detection process S11 starts from start A and proceeds to step S11-1. At this time, since the forward twist has not been detected, the process proceeds to forward twist detection processing S11-2.
往方向のツイスト検出処理S11−2は、図5に示すように、開始Bからスタートする。まず、ステップ11−2−1で、制御部30から指令を受けたジェスチャ検出部24bが、最新のセンサデータをデータ記憶部24aから取得する(k回目)。そして、ステップ11−2−2で、往方向のツイスト検出を実行中か否かの判断を行う。この時点では、後述するステップS11−2−5を行っていないので(開始時刻Ta1を設定していないので)、実行中ではないと判定し、ステップS11−2−3に進む。
The forward twist detection processing S11-2 starts from the start B as shown in FIG. First, in Step 11-2-1, the
ステップS11−2−3に進むと、ジェスチャ検出部24bは、取得したセンサデータを解析して、手首の軸回方向(往方向)の角速度を算出し、ステップ11−2−4で、算出した角速度が角速度基準値Va以上か否かの判定を行う。そして、角速度基準値Va以上の場合、手首を往方向に捻る動作が始まったと判断し、このタイミングを往方向のツイスト検出の開始時刻Ta1に設定する(ステップS11−2−5)。その後、終了Bに進んで待機し、制御部30からの指令を受けると、開始Bに戻る。
If it progresses to step S11-2-3, the
一方、角速度基準値Va以下の場合は、手首を往方向に捻る動作が始まっていないと判断し、そのまま終了Bに進んで待機する。その後、制御部30からの指令を受けると、開始Bに戻る。
On the other hand, if it is equal to or less than the angular velocity reference value Va, it is determined that the operation of twisting the wrist in the forward direction has not started, and the process proceeds to end B and waits. Thereafter, when a command from the
ステップS11−2−5で開始時刻Ta1を設定し、その開始時刻Ta1になった後、制御部30からの指令を受けると、再び開始Bに戻ってステップS11−2−1に進み、ジェスチャ検出部24bが改めて最新のセンサデータを取得する。そして、ステップS11−2−2に進むと、すでに開始時刻Ta1の後なので、往方向のツイスト検出を実行していると判定してステップS11−2−6に進み、ジェスチャ検出部24bは、取得したセンサデータを解析して、手首の軸回方向(往方向)の角速度を算出する。そして、ステップS11−2−7で、開始時刻Ta1から所定の時間ta1が経過したか否かを判定する。
In step S11-2-5, the start time Ta1 is set. When the start time Ta1 is reached, when a command is received from the
開始時刻Ta1から時間ta1が経過していない場合、ステップ11−2−8に進み、今回(k回目)のステップS11−2−6で算出した角速度と、前回(k−1回目)のステップS11−2−6で算出した角速度を利用して、この間に生じた手首の捻り角度の変化分ΔRa(k)を算出する。そして、ステップS11−2−9に進み、開始時刻Ta1以降の各変化分ΔRa(k)を合計して捻り角度Ra(k)を算出し、ステップ11−2−10に進む。 When the time ta1 has not elapsed from the start time Ta1, the process proceeds to step 11-2-8, and the angular velocity calculated in step S11-2-6 of this time (kth) and the previous (k-1th) step S11. A change ΔRa (k) of the wrist twist angle generated during this period is calculated using the angular velocity calculated in 2-6. And it progresses to step S11-2-9, each change part ΔRa (k) after start time Ta1 is totaled, twist angle Ra (k) is calculated, and it progresses to step 11-2-10.
ステップ11−2−10では、算出した捻り角度Ra(k)が捻り角度基準値Raを超えているか否かの判定を行う。捻り角度基準値Raを超えている場合、往方向のツイストを検出したと判断する(ステップS11−2−11)。これで往方向のツイスト検出処理S11−2を終了し、次のステップS11−3に進む。 In Step 11-2-10, it is determined whether or not the calculated twist angle Ra (k) exceeds the twist angle reference value Ra. If the twist angle reference value Ra is exceeded, it is determined that a forward twist has been detected (step S11-2-11). This completes the forward twist detection process S11-2, and proceeds to the next step S11-3.
一方、捻り角度基準値Raを超えていない場合、検出中の動作(手首を往方向に捻る動き)は現時点でツイストとは認められないと判断し、そのまま終了Bに進んで待機する。その後、往方向のツイスト検出を継続する旨の指令を受け、再び開始Bに戻ってステップS11−2−1に進み、上記と同様に、ステップS11−2−2,S11−2−6,S11−2−7,S11−2−8,S11−2−9を行う。手首が適切に軸回しているとすれば、今回のステップS11−2−9で算出される捻り角度Ra(k)は、前回のステップS11−2−9で算出された捻り角度Ra(k)よりも大きくなる。そして、今回の捻り角度Ra(k)が捻り角度基準値Raを超えると、往方向のツイストを検出したと判断し(ステップS11−2−11)し、上記と同様に、往方向のツイスト検出処理S11−2を終了し、次のステップS11−3に進む。一方、捻り角度基準値Raを超えていない場合、現時点でまだツイストとは認められない判断し、今回も終了Bに進んで待機する。その後、制御部30から往方向のツイスト検出を継続する旨の指令があると、開始Bに戻って上記の動作を繰り返す。
On the other hand, if the twist angle reference value Ra is not exceeded, it is determined that the operation being detected (the movement of twisting the wrist in the forward direction) is not currently recognized as a twist, and the process proceeds to end B and waits. Thereafter, an instruction to continue the twist detection in the forward direction is received, and the process returns to start B again to proceed to step S11-2-1. Similar to the above, steps S11-2-2, S11-2-6, S11 are performed. -2-7, S11-2-8, S11-2-9 are performed. If the wrist is properly pivoted, the twist angle Ra (k) calculated in the current step S11-2-9 is the twist angle Ra (k) calculated in the previous step S11-2-9. Bigger than. When the current twist angle Ra (k) exceeds the twist angle reference value Ra, it is determined that the forward twist is detected (step S11-2-11), and the forward twist detection is performed in the same manner as described above. The process S11-2 is ended, and the process proceeds to the next step S11-3. On the other hand, if the twist angle reference value Ra is not exceeded, it is determined that the twist is not yet recognized at this moment, and the process proceeds to the end B and waits again. Thereafter, when there is an instruction from the
この繰り返し動作を一定時間継続しても捻り角度Ra(k)が捻り角度基準Raを超えない場合は、検出中の動き(手首を往方向に捻る動き)が往方向のツイストに該当しないと判断し、実行中のツイスト検出を停止する。つまり、ジェスチャ検出部24bは、開始時刻Ta1から所定の時間ta1が経過すると、何回目かのステップ11−2−7からステップS11−2−12に進み、開始時刻Ta1の設定をリセットするとともに、繰り返し動作の中で算出した捻り角度の変化分ΔRa(k)や捻り角度Ra(k)等の情報を破棄する。そして、終了Aに進んで待機し、制御部30からの指令があると、図4の開始Aに戻る。
If the torsional angle Ra (k) does not exceed the torsional angle reference Ra even if this repeated operation is continued for a certain period of time, it is determined that the motion being detected (the motion of twisting the wrist in the forward direction) does not correspond to the forward twist. And stop the twist detection in progress. That is, when the predetermined time ta1 has elapsed from the start time Ta1, the
往方向のツイスト検出処理S11−2で往方向のツイストを検出した後は、図4に示すステップS11−3を経てステップS11−4に進み、往方向のツイストの検出時刻Ta2を設定し、終了Aに進んで待機する。 After detecting the forward twist in the forward twist detection process S11-2, the process proceeds to step S11-4 through step S11-3 shown in FIG. 4, and sets the forward twist detection time Ta2 and ends. Go to A and wait.
その後、速やかに制御部30からの指令を受けて開始Aに戻り、再びステップS11−1に進む。今回は、すでに往方向のツイストを検出済みなのでステップS11−5に進み、往方向の検出時刻Ta2から所定の時間ta2が経過したか否かを判定し、時間ta2が経過していない場合に、復方向のツイスト検出処理S11−6を行う。
Thereafter, upon receiving a command from the
復方向のツイスト検出処理S11−6の内容は、図6に示すように、上述した往方向のツイスト動作検出処理S11−2と同様である。すなわち、復方向の開始C及び終了Cは、それぞれ往方向の開始B及び終了Bに対応する。復方向のステップS11−6−1〜ステップS11−6−12は、それぞれ往方向のステップS11−2−1〜ステップS11−2−12に対応する。 As shown in FIG. 6, the contents of the backward twist detection process S11-6 are the same as those of the forward twist operation detection process S11-2 described above. That is, the start C and end C in the backward direction correspond to the start B and end B in the forward direction, respectively. Steps S11-6-1 to S11-6-12 in the backward direction correspond to steps S11-2-1 to S11-2-12 in the forward direction, respectively.
また、復方向のツイスト検出の開始時刻Tb1は、往方向のツイスト検出の開始時刻Ta1に対応する。センサデータに基づいて算出される復方向の捻り角度の変化分ΔRb(k)及び捻り角度Rb(k)は、それぞれ往方向の捻り角度の変化分ΔRa(k)及び捻り角度Ra(k)に対応する。また、判定を行うときの基準値等である復方向の角速度基準値Vb、時間tb1及び捻り角度基準値Rbは、それぞれ往方向の角速度基準値Va、時間ta1及び捻り角度基準値Raに対応する。これらの基準値(絶対値)や時間は、往方向と復方向で同じ値にしてもよいが、例えば、利用者の体質や癖により、往方向の軸回動作は素早いが、復方向で軸回動作が少し緩慢になるような場合、これに合わせて異なる値に設定することができる。 Further, the backward twist detection start time Tb1 corresponds to the forward twist detection start time Ta1. The change ΔRb (k) and the twist angle Rb (k) in the backward twist angle calculated based on the sensor data are respectively changed to the change ΔRa (k) and the twist angle Ra (k) in the forward twist angle. Correspond. Further, the backward angular velocity reference value Vb, the time tb1, and the torsion angle reference value Rb, which are the reference values when making the determination, correspond to the forward angular velocity reference value Va, the time ta1, and the torsion angle reference value Ra, respectively. . These reference values (absolute values) and time may be set to the same value in the forward direction and the backward direction. If the turning operation is a little slow, a different value can be set accordingly.
なお、往方向のツイスト検出後から復方向のツイスト検出開始するまでに、往方向の検出時刻Ta2から時間ta2が経過していた場合は、手首の往方向の軸回動作を復方向の軸回動作が一連の動作になっておらず、往復のツイスト動作に該当しないと判断し、ここでツイスト検出を停止する。つまり、ジェスチャ検出部24bは、何回目かのステップS11−5で、検出時刻Ta2から所定の時間ta2が経過したと判定すると、ステップS11−7に進み、時刻Ta1,Ta2,Tb1の設定をリセットするとともに、繰り返し動作の中で算出した捻り角度の変化分ΔRa(k),ΔRb(k)や捻り角度Ra(k),Rb(k)の情報を破棄し、さらに、往方向のツイストを検出済みであるという情報をリセットする。そして、終了Aに進んで待機し、その後、制御部30からの指令があると開始Aに戻る。
If the time ta2 has elapsed from the forward direction detection time Ta2 after the forward direction twist detection until the backward direction twist detection is started, the forward direction pivoting operation of the wrist is performed in the backward direction. It is determined that the operation is not a series of operations and does not correspond to the reciprocating twist operation, and the twist detection is stopped here. In other words, when the
復方向のツイスト検出処理S11−6で復方向のツイストを検出した後は、ステップS11−8を経てステップS11−9に進み、ツイスト動作を検出したと判断する。そして、ステップS11−10で、時刻Ta1,Ta2,Tb1の設定をリセットするとともに、繰り返し動作の中で算出した捻り角度の変化分ΔRa(k),ΔRb(k)や捻り角度Ra(k),Rb(k)の情報を破棄し、さらに、往方向のツイストを検出済みであるという情報をリセットして、ツイスト動作検出処理S11を終了する。そして、図3に示すように、次のステップS12に進む。 After the backward twist is detected in the backward twist detection process S11-6, the process proceeds to step S11-9 through step S11-8, and it is determined that the twist operation is detected. In step S11-10, the settings of the times Ta1, Ta2, and Tb1 are reset, and the twist angle changes ΔRa (k), ΔRb (k), the twist angle Ra (k), The information of Rb (k) is discarded, and the information that the forward twist has been detected is reset, and the twist operation detection process S11 is terminated. And as shown in FIG. 3, it progresses to the following step S12.
ツイスト動作検出処理S11でツイスト動作を検出したので、ステップS12を経てステップS13に進み、GUI操作部26のモード管理部26aは、制御部30の指令により、GUI操作部26の動作モードを、現行の通常モード(ジェスチャ操作情報に応じた処理が停止した動作モード)から操作モード(ジェスチャ操作情報に応じた処理を実行するモード)に切り替える。これで、利用者がジェスチャによって外部デバイス14を操作することができる状態になる。
Since the twist operation is detected in the twist operation detection process S11, the process proceeds to step S13 via step S12. The
操作モードから通常モードに切り替える処理方法も上記と同様である。つまり、図3に示すように、操作モードにおいて、上記と同様のツイスト動作検出処理S11及びステップS12,S13を行う。これにより、GUI操作部26の動作モードが、操作モードから通常モードに切り替わる。通常モードになると、利用者のジェスチャによる入力操作を外部デバイス14が受け付けなくなるので、利用者は、安心して背伸びをしてリラックスすることができる。
The processing method for switching from the operation mode to the normal mode is the same as described above. That is, as shown in FIG. 3, in the operation mode, the twist operation detection process S11 and steps S12 and S13 similar to the above are performed. Thereby, the operation mode of the
次に、この実施形態の情報処理方法により利用者に提供されるGUIステージの中の、ダイアログ・ステージの処理方法について、図7〜図9に基づいて説明する。ダイアログ・ステージは、図7に示すように、表示部28のGUI画面28aにダイアログを表示し、利用者が特定のボタンをスワイプ操作により選択するステージである。
Next, a dialog stage processing method in the GUI stage provided to the user by the information processing method of this embodiment will be described with reference to FIGS. As shown in FIG. 7, the dialog stage is a stage in which a dialog is displayed on the
開始時の動作モードが操作モードになっているとすると、図8に示すように、まず、制御部30の指令により、GUI制御命令出力部26bが所定のGUI制御命令を作成し、これを受けた表示部28が、GUI画面28aにダイアログを表示する(ステップS21)。そして、センサデータ解析部24が、スワイプ操作検出処理S22を行う。
Assuming that the operation mode at the start is the operation mode, as shown in FIG. 8, first, the GUI control
スワイプ操作検出処理S22は、図9に示すように、開始Dからスタートする。まず、ステップS22−1で、制御部30から指令を受けたジェスチャ検出部24bが、最新のセンサデータをデータ記憶部24aから取得する(k回目)。センサデータの取得が2回目以降の場合はステップS22−3に進むが、1回目の場合はそのまま終了Dに進んで待機し、その後、制御部30からの指令を受けると開始Bに戻る。
The swipe operation detection process S22 starts from the start D as shown in FIG. First, in step S22-1, the
ステップS22−3に進むと、複数回分のセンサデータを解析し、腕が静止しているか否かを判定する。そして、静止していると判定した場合、スワイプ操作が行われていないと判断し、ステップS22−4で、スワイプ操作検出の開始時刻Tc1を新規に設定し、さらにステップS22−5で、先に算出した動作情報(後述するΔLc(k),Lc(k))があれば破棄する。そして、終了Dに進んで待機し、その後、制御部30からの指令を受けると開始Dに戻る。
In step S22-3, the sensor data for a plurality of times are analyzed to determine whether or not the arm is stationary. If it is determined that the user is stationary, it is determined that the swipe operation has not been performed. In step S22-4, the start time Tc1 of the swipe operation detection is newly set, and in step S22-5, first. If there is calculated operation information (ΔLc (k), Lc (k) described later), it is discarded. And it progresses to the end D and waits, and when the command from the
一方、腕が静止していないと判定した場合は、ステップ22−6で、先に設定した開始時刻Tc1から所定の時間tc1が経過したか否かを判定する。開始時刻Tc1から時間ta1が経過していない場合、ステップ22−7に進み、今回(k回目)のステップS22−1で取得したセンサデータと、前回(k−1回目)のステップS22−1で取得したセンサデータを利用して、この間に生じた腕の移動距離の変化分ΔLc(k)を算出する。そして、ステップS22−8に進み、開始時刻Tc1以降の各変化分ΔLc(k)に基づいて腕の総移動距離Lc(k)を算出し、ステップS22−9に進む。 On the other hand, if it is determined that the arm is not stationary, it is determined in step 22-6 whether or not a predetermined time tc1 has elapsed from the previously set start time Tc1. If the time ta1 has not elapsed since the start time Tc1, the process proceeds to step 22-7, and the sensor data acquired in the current (k-th) step S22-1 and the previous (k-1th) step S22-1. Using the acquired sensor data, the change ΔLc (k) in the movement distance of the arm occurring during this time is calculated. Then, the process proceeds to step S22-8, where the total arm movement distance Lc (k) is calculated based on each change ΔLc (k) after the start time Tc1, and the process proceeds to step S22-9.
ステップ22−9では、算出した総移動距離Lc(k)が移動距離基準値Lcを超えているか否かの判定を行う。移動距離基準値Lcを超えている場合、ステップS22−10に進み、腕の移動方向を算出する。一方、移動距離基準値Lcを超えていない場合、検出中の動作(腕の動き)は、現時点でスワイプ操作とは認められないと判断し、そのまま終了Dに進んで待機し、その後、制御部30からスワイプ操作検出を継続する旨の指令があると開始Dに戻る。 In Step 22-9, it is determined whether or not the calculated total movement distance Lc (k) exceeds the movement distance reference value Lc. If the movement distance reference value Lc is exceeded, the process proceeds to step S22-10, and the movement direction of the arm is calculated. On the other hand, if the movement distance reference value Lc is not exceeded, it is determined that the motion (arm movement) being detected is not recognized as a swipe operation at the present time, and the process proceeds to the end D and waits. If there is a command to continue the swipe operation detection from 30, the process returns to start D.
ステップ22−10で、腕の移動方向が「上」「下」「右」「左」のどれかに特定できなかった場合、検出中の動作(腕の動き)はスワイプ操作ではないと判断し、ステップS22−1を経てステップ22−4に進む。そして、ステップS22−4で、スワイプ操作検出の開始時刻Tc1を新規に設定し、さらにステップS22−5で、先に算出した動作情報(ΔLc(k),Lc(k))の情報を破棄する。そして終了Dに進んで待機し、その後、制御部30からの指令を受けると開始Dに戻る。
In step 22-10, when the movement direction of the arm cannot be specified as “up”, “down”, “right”, or “left”, it is determined that the detected motion (arm motion) is not a swipe operation. The process proceeds to step 22-4 via step S22-1. In step S22-4, a swipe operation detection start time Tc1 is newly set. In step S22-5, the previously calculated operation information (ΔLc (k), Lc (k)) is discarded. . And it progresses to the end D and waits, and when the command from the
一方、腕の移動方向が特定できた場合、ステップS22−11を経てステップS22−12に進み、特定方向のスワイプ操作を検出したと判断する。その後、ステップS22−13で、先に算出した動作情報(ΔLc(k),Lc(k))の情報を破棄し、スワイプ操作検出処理S22を終了し、次のステップS23に進む。 On the other hand, if the movement direction of the arm can be specified, the process proceeds to step S22-12 through step S22-11, and it is determined that the swipe operation in the specific direction is detected. Thereafter, in step S22-13, the previously calculated motion information (ΔLc (k), Lc (k)) is discarded, the swipe operation detection process S22 is terminated, and the process proceeds to the next step S23.
なお、スワイプ操作検出を繰り返す途中で、スワイプ操作検出の開始時刻Tc1から時間tc1が経過すると、検出中の動作(腕の動き)はスワイプ操作ではないと判断し、ステップS22−6からステップ22−4に進む。そして、ステップS22−4で、スワイプ操作検出の開始時刻Tc1を新規に設定し、さらにステップS22−5で、先に算出した動作情報(ΔLc(k),Lc(k))の情報を破棄する。そして、終了Dに進んで待機し、その後、制御部30からの指令を受けると開始Dに戻る。
If the time tc1 elapses from the swipe operation detection start time Tc1 while repeating the swipe operation detection, it is determined that the detected motion (arm movement) is not a swipe operation, and steps S22-6 to 22- Proceed to 4. In step S22-4, a swipe operation detection start time Tc1 is newly set. In step S22-5, the previously calculated operation information (ΔLc (k), Lc (k)) is discarded. . And it progresses to the end D and waits, and when the command from the
スワイプ操作検出処理S22でスワイプ操作を検出した後は、図8に示すように、ステップS23に進む。ここで、ダイアログは、図7に示すように、2つの選択ボタンが左右に並んでいるので、ステップS23では、先のスワイプ操作検出処理S22において右方向または左方向のスワイプ操作が検出されたか否かを判定する。例えば、右方向のスワイプ操作が検出されていたとすると、制御部30は、右側の「確定」のボタンが選択されたと判断すし(ステップS24)、制御部30が、「確定」のボタンに対応した処理を行う(ステップS25)。例えば、GUI画面28aの表示を変化させる処理を行う場合は、制御部30がGUI制御命令出力部26bに指令を出し、表示部28がGUI画面28aの表示を変化させる。
After the swipe operation is detected in the swipe operation detection process S22, the process proceeds to step S23 as shown in FIG. Here, as shown in FIG. 7, since the dialog has two selection buttons arranged side by side, whether or not a right or left swipe operation has been detected in the previous swipe operation detection process S22 in step S23. Determine whether. For example, if a right swipe operation has been detected, the
一方、右方向と左方向のスワイプ操作が検出されていなかったとすると、ボタンが適切に選択されていないと判断し、再びスワイプ操作検出処理S22を行う。以上がダイアログ・ステージの一連の処理である。 On the other hand, if the right and left swipe operations are not detected, it is determined that the button is not properly selected, and the swipe operation detection process S22 is performed again. The above is a series of processing of the dialog stage.
利用者は、ダイアログ・ステージの処理中、上述した手首のツイスト動作を行うことにより、任意のタイミングで動作モードを切り替えることができる。図8に示すように、ダイアログ・ステージの処理は操作モードで行われており、処理を実行している途中でツイスト動作が検出されると、制御部30の指令により、モード管理部26aが操作モードを通常モードに切り替え、ダイアログ・ステージの処理が停止してその状態に保持される。その後、ツイスト動作が新たに検出されると、制御部30の指令により通常モードが操作モードに切り替わり、保持された状態から処理を再開する。スワイプ操作検出処理S22の実行中に処理が停止した場合は、開始時刻Tc1をリセットする必要があるので、ステップS22−4から再開される。
The user can switch the operation mode at an arbitrary timing by performing the above-described wrist twisting operation during the processing of the dialog stage. As shown in FIG. 8, the processing of the dialog stage is performed in the operation mode, and when a twist operation is detected during the processing, the
次に、この実施形態の情報処理方法により利用者に提供されるGUIステージの中の、ドロワー・ステージの処理方法について、図10、図11に基づいて説明する。ドロワー・ステージは、図10に示すように、表示部28のGUI画面28aにドロワーによる通知を表示し、利用者がドロワーをどんな状態にするかをスワイプ操作により選択するステージである。
Next, a processing method of the drawer stage in the GUI stage provided to the user by the information processing method of this embodiment will be described based on FIGS. As shown in FIG. 10, the drawer stage is a stage in which a notification by the drawer is displayed on the
開始時の動作モードが操作モードになっているとすると、図11に示すように、まず、制御部30の指令により、GUI制御命令出力部26bが所定のGUI制御命令を作成し、これを受けた表示部28が、GUI画面28aにドロワーによる通知を表示する(ステップS31、図10(a))。そして、センサデータ解析部24が、上記と同様のスワイプ操作検出処理S22を行い、スワイプ操作を検出し、その方向を「上」「下」「右」「左」のどれかに特定する。
Assuming that the operation mode at the start time is the operation mode, as shown in FIG. 11, first, the GUI control
スワイプ操作検出処理S22が終了すると、ステップS32に進む。ドロワー・ステージでは、図10(b),(c),(d)に示すように、上、下、右または左方向のスワイプ操作により、ドロワーの状態が選択される。したがって、ステップS32では、スワイプ操作検出処理S22において上、下、右または左方向のスワイプ操作が検出されたか否かを判定し、ステップS33に進む。そして、スワイプの方向が上のときはドロワーを表示状態にし(ステップS34、図10(b))、下のときはドロワーを収納状態にし(ステップS35、図10(c))、右または左のときはドロワーを非表示にする(ステップS36、図10(d))。以上がドロワー・ステージの一連の処理である。 When the swipe operation detection process S22 ends, the process proceeds to step S32. In the drawer stage, as shown in FIGS. 10B, 10C, and 10D, the state of the drawer is selected by a swipe operation in the up, down, right, or left direction. Therefore, in step S32, it is determined whether or not a swipe operation in the up, down, right, or left direction is detected in the swipe operation detection process S22, and the process proceeds to step S33. When the swipe direction is up, the drawer is displayed (step S34, FIG. 10 (b)), and when it is down, the drawer is stored (step S35, FIG. 10 (c)). In some cases, the drawer is not displayed (step S36, FIG. 10D). The above is a series of processing of the drawer stage.
利用者は、ドロワー・ステージの処理中、上述した手首のツイスト動作を行うことにより、任意のタイミングで動作モードを切り替えることができる。図11に示すように、ドロワー・ステージの処理は操作モードで行われ、処理を実行している途中でツイスト動作が検出されると、制御部30の指令により、モード管理部26aが操作モードを通常モードに切り替え、ドロワー・ステージの処理が停止してその状態に保持される。その後、ツイスト動作が新たに検出されると、制御部30の指令により通常モードが操作モードに切り替わり、保持された状態から処理を再開する。スワイプ操作検出処理S22の実行中に処理が停止した場合は、開始時刻Tc1をリセットする必要があるので、ステップS22−4から再開される。
The user can switch the operation mode at an arbitrary timing by performing the above-described wrist twisting operation during the drawer stage processing. As shown in FIG. 11, the drawer stage process is performed in the operation mode. When a twist operation is detected during the process, the
次に、この実施形態の情報処理方法により利用者に提供されるGUIステージの中の、カーソル・ステージの処理方法について、図12、図13に基づいて説明する。カーソル・ステージは、図12に示すように、表示部28のGUI画面28aにカーソルを表示し、利用者がカーソルを特定位置に移動させてクリックする操作を行うステージである。
Next, the processing method of the cursor stage in the GUI stage provided to the user by the information processing method of this embodiment will be described with reference to FIGS. As shown in FIG. 12, the cursor stage is a stage where the cursor is displayed on the
開始時の動作モードが操作モードになっているとすると、図13に示すように、まず、制御部30の指令により、GUI制御命令出力部26bが所定のGUI制御命令を作成し、これを受けた表示部28が、GUI画面28aに所定の画像及びカーソルCuを表示する(ステップS41)。所定の画像は、例えば地図A,B,C等である。カーソルCuの表示は、制御部30が任意のタイミングで行ってもよいが、センサデータ解析部24が特定の動作情報を検出し、ジェスチャ操作情報としてGUI操作部26に送られたタイミングで行ってもよい。例えば、所定方向のスワイプ操作(地図A,B,Cを他の地図に切り替える操作)と上記のツイスト動作とがセットで検出された場合にカーソルCuを表示する、というロジックにしてもよい。このとき、カーソルCuの表示は未選択状態(白色の矢印)である。
Assuming that the operation mode at the start is the operation mode, as shown in FIG. 13, first, the GUI control
その後、センサデータ解析部24が、カーソル移動検出処理S42を行う。カーソル移動検出処理S42では、まず、センサデータ解析部24でセンサデータを解析し、利用者が手を上下左右方向(特定の面内方向)に移動させた動きを示す移動動作情報を抽出する。ここでは、ウェアラブルデバイス12は手首に装着され、肘を軸にして回転運動する形になるので、モーションセンサ部12aにジャイロセンサを設けて角速度を検出するのが好ましい。センサデータ解析部24は、例えば、取得した角速度の時系列データを移動平均法等の手法を用いて整形し、整形したデータに基づいて手の移動方向及び移動量(移動動作情報)を算出する。そして特定の条件を満たす移動動作情報が検出されると、その移動動作情報をジェスチャ操作情報とみなしてGUI操作部26に送る。そして、GUI制御命令出力部26bは、この移動動作情報に対応してカーソルCuが移動するように、GUI制御命令を作成する。
Thereafter, the sensor
カーソル移動検出処理S42を行った後、制御部30は、カーソルCuが特定位置に所定の時間td以上停止したか否かの判定を行い(ステップS43)、時間td以上停止していない場合、この時点で特定の位置が選択されていないと判断し、カーソルCuの表示を未選択状態の表示に保持させる(ステップS44)。
After performing the cursor movement detection process S42, the
一方、時間td以上停止している場合、制御部30は、その停止している特定位置が仮選択されたと判断し、図12に示すように、カーソルCuの表示を仮選択状態(黒色の矢印)の表示に変更させ、カーソルCuをその特定位置に固定させる(ステップS45)。ステップS45の後は、上記と同様のツイスト動作検出処理S11を行い、ツイスト動作が検出されると、ステップ46を経てステップS47に進み、その特定位置でクリックされたと判断し、制御部30がクリックに対応した処理を行い、その後、カーソル移動検出処理S42に戻る。ツイスト動作が検出されない場合は、再びツイスト動作検出処理S11に戻る。
On the other hand, when it is stopped for the time td or longer, the
また、上記のステップ44の後、ツイスト動作検出処理S11を行ってツイスト動作が検出されると、利用者が操作モードを通常モードに切り替えることを望んでいると判断し、ステップS48を経てステップS49に進み、カーソルCuを非表示にするとともに、動作モードを通常モードに切り替える。以上がカーソル・ステージの一連の処理である。 Further, after the above-described step 44, when the twist motion detection process S11 is performed and the twist motion is detected, it is determined that the user desires to switch the operation mode to the normal mode, and the process goes to step S49 via step S48. Then, the cursor Cu is not displayed and the operation mode is switched to the normal mode. The above is a series of processing of the cursor stage.
図13に示すカーソル・ステージの処理は、利用者が手首を回動させる動き(ツイスト動作)を、動作モードの切り替えの操作とクリック操作の双方に利用しているという特徴がある。ツイスト動作は、簡単かつ明快な動作なので、他の操作と誤認されにくく、利用者がその特定位置を選択したことを的確に検出することができる。また、ステップS45において、仮選択されるとカーソルCuをその位置を固定する処理を行うので、その後、利用者のツイスト動作(クリック操作)があっても、その影響でカーソルCuの位置がズレてしまうという不具合は発生しない。 The processing of the cursor stage shown in FIG. 13 is characterized in that the movement of the wrist (twist operation) by the user is used for both the operation mode switching operation and the click operation. Since the twist operation is a simple and clear operation, it is difficult to be mistaken for another operation, and it is possible to accurately detect that the user has selected the specific position. Also, in step S45, when the temporary selection is made, the cursor Cu is fixed in position, so that even if there is a user's twisting operation (clicking operation), the cursor Cu is displaced due to the influence. There is no problem of end.
なお、本発明の情報処理システムと情報処理方法及び情報処理プログラムは、上記実施形態に限定されるものではない。例えば、上記の図3に示すフローチャートでは、ツイスト動作検出処理S11を行うことによって、往方向と復方向のツイストを検出した時に動作モードを切り替える構成になっているが、片方向のツイスト動作を検出した時に動作モードを切り替える構成に変更してもよい。例えば、図4に示すツイスト動作検出処理S11の中から復方向のツイスト検出処理に関連するステップを省略し、往方向のツイスト検出処理に関連するステップだけの内容にすることができる(図14)。このように、片方向のツイスト動作を検出する構成にすれば、情報処理方法及び情報処理プログラムをよりシンプルにすることができるという利点がある。ただし、ツイスト動作の検出精度をより高くしたい場合は、往方向と復方向のツイストを検出する構成にするのが好ましい。 The information processing system, the information processing method, and the information processing program of the present invention are not limited to the above embodiment. For example, in the flowchart shown in FIG. 3, the operation mode is switched when the forward and backward twists are detected by performing the twist motion detection process S11. However, the one-way twist motion is detected. In this case, the operation mode may be changed. For example, the steps related to the backward direction twist detection process can be omitted from the twist operation detection process S11 shown in FIG. 4, and only the steps related to the forward direction twist detection process can be included (FIG. 14). . Thus, if it is set as the structure which detects a one-way twist operation | movement, there exists an advantage that an information processing method and an information processing program can be made simpler. However, when it is desired to increase the detection accuracy of the twist operation, it is preferable to adopt a configuration in which the twist in the forward direction and the backward direction are detected.
上記実施形態は、利用者の手首の動きがツイスト動作に該当するか否かを判定するとき、軸回動作情報として角速度や捻り角度を抽出し、角速度基準値Va,Vb、捻り角度基準値Ra,Rb、及び時間ta1,ta2,tb1を用いて判定する構成なので、モーションセンサ部12aにはジャイロセンサを搭載することが好ましい。しかし、ジャイロセンサを使用しない場合でも、加速度センサのセンサデータから角速度や捻り角度の算出し、同様の判定を行うことができる。
In the above embodiment, when determining whether the user's wrist movement corresponds to the twisting motion, the angular velocity and the twist angle are extracted as the pivoting motion information, and the angular velocity reference values Va and Vb and the twist angle reference value Ra are extracted. , Rb, and times ta1, ta2, tb1, so that it is preferable to mount a gyro sensor on the
また、利用者の動きが各種のジェスチャ操作情報に該当するか否かを判定するとき、利用者の動きを示す動作情報としてどんなパラメータを使用するかは自由である。例えば、上記実施形態は、利用者の手の動きがスワイプ操作か否かを判定するとき、動作情報として腕の総移動距離を抽出し、総移動距離基準値Lc及び時間tc1を用いて判定する構成になっているが、総移動距離以外のパラメータに変更してもよいし、判定精度を向上させるために総移動距離以外のパラメータを追加してもよい。 Further, when determining whether or not the user's movement corresponds to various gesture operation information, it is free to use any parameter as the operation information indicating the user's movement. For example, in the above embodiment, when determining whether or not the user's hand movement is a swipe operation, the total movement distance of the arm is extracted as the operation information, and the determination is made using the total movement distance reference value Lc and the time tc1. Although it is configured, it may be changed to a parameter other than the total moving distance, or a parameter other than the total moving distance may be added in order to improve the determination accuracy.
図1に示す外部デバイス14内部のシステム構成は、外部デバイス14の機能や動作を分かりやすく説明するため、複数の機能ブロックを用いて便宜的に表したものである。したがって、外部デバイスは、上述した情報処理方法を実行できるものであれば、図1に示すシステム構成に限定されるものではない。 The system configuration inside the external device 14 shown in FIG. 1 is represented for convenience by using a plurality of functional blocks in order to easily understand the functions and operations of the external device 14. Therefore, the external device is not limited to the system configuration shown in FIG. 1 as long as the information processing method described above can be executed.
また、上記の情報処理システム10は、グラフィカル・ユーザ・インターフェースを実現するためのシステムなので、外部デバイス14に、GUI画面28aを表示するための表示部28やGUI制御命令を作成するGUI操作部26が設けられている。しかし、ツイスト動作を検出して動作モードを切り替えるという構成は、グラフィカル・ユーザ・インターフェース以外のシステムにも適用できるものであり、その場合、上記の表示部28やGUI操作部26を省略することができる。
Further, since the
10 情報処理システム
12 ウェアラブルデバイス
12a モーションセンサ部
16 外部デバイス
28 表示部
28a GUI画面
S11 ツイスト動作検出処理
S11−2 往方向のツイスト検出処理(ツイスト動作検出処理)
S11−6 復方向のツイスト検出処理(ツイスト動作検出処理)
Cu カーソル
DESCRIPTION OF
S11-6 Reverse direction twist detection processing (twist motion detection processing)
Cu cursor
Claims (13)
利用者が自ら軸回することができる身体部位に装着され、この身体部位の動きを、加速度センサとジャイロセンサのうちの少なくとも一方を含むセンサ素子で構成されたモーションセンサ部で検出し、センサデータを出力するウェアラブルデバイスと、
前記ウェアラブルデバイスが出力した前記センサデータを取得し、前記センサデータを解析することによって利用者の動作情報を抽出し、特定の条件を満たす前記動作情報をジェスチャ操作情報とみなし、このジェスチャ操作情報に対応した各種の処理を行うデバイスであって、動作モードとして、前記ジェスチャ操作情報に対応した処理を実行可能な操作モードと、前記ジェスチャ操作情報に対応した処理が停止した通常モードとが設けられた外部デバイスとを備え、
前記外部デバイスには、前記センサデータを解析することによって、利用者が前記身体部位を軸回させた動きを示す軸回動作情報を抽出し、この軸回動作情報が特定の条件を満たすときツイスト動作を検出したと判断する手段が設けられ、
前記外部デバイスは、前記ツイスト動作を検出したとき、現行の動作モードを他方の動作モードに切り替えることを特徴とする情報処理システム。 In an information processing system that can be operated with user gestures,
The user is mounted on a body part that can be rotated by himself / herself, and the motion of the body part is detected by a motion sensor unit including a sensor element including at least one of an acceleration sensor and a gyro sensor, and sensor data A wearable device that outputs
The sensor data output by the wearable device is acquired, and the user's motion information is extracted by analyzing the sensor data. The motion information that satisfies a specific condition is regarded as gesture operation information. A device that performs various types of processing, and an operation mode capable of executing processing corresponding to the gesture operation information and a normal mode in which processing corresponding to the gesture operation information is stopped are provided as operation modes. With external devices,
By analyzing the sensor data, the external device extracts axial movement information indicating the movement of the user by rotating the body part. When the axial movement information satisfies a specific condition, the external device is twisted. Means for determining that the motion has been detected;
When the external device detects the twist operation, the external device switches the current operation mode to the other operation mode.
前記情報処理システムは、
利用者が自ら軸回することができる身体部位に装着され、この身体部位の動きを、加速度センサとジャイロセンサのうちの少なくとも一方を含むセンサ素子で構成されたモーションセンサ部で検出し、センサデータを出力するウェアラブルデバイスと、
前記ウェアラブルデバイスが出力した前記センサデータを取得し、前記センサデータを解析することによって利用者の動作情報を抽出し、特定の条件を満たす前記動作情報をジェスチャ操作情報とみなし、このジェスチャ操作情報に対応した各種の処理を行うデバイスであって、動作モードとして、前記ジェスチャ操作情報に対応した処理を実行可能な操作モードと、前記ジェスチャ操作情報に対応した処理が停止した通常モードとが設けられた外部デバイスとで構成され、
前記センサデータを解析することによって、利用者が前記身体部位を軸回させた動きを示す軸回動作情報を抽出し、この軸回動作情報が特定の条件を満たすときツイスト動作を検出したと判断し、現行の動作モードを他方の動作モードに切り替えることを特徴とする情報処理方法。 In an information processing method executed by an information processing system operable with a user's gesture,
The information processing system includes:
The user is mounted on a body part that can be rotated by himself / herself, and the motion of the body part is detected by a motion sensor unit including a sensor element including at least one of an acceleration sensor and a gyro sensor, and sensor data A wearable device that outputs
The sensor data output by the wearable device is acquired, and the user's motion information is extracted by analyzing the sensor data. The motion information that satisfies a specific condition is regarded as gesture operation information. A device that performs various types of processing, and an operation mode capable of executing processing corresponding to the gesture operation information and a normal mode in which processing corresponding to the gesture operation information is stopped are provided as operation modes. Consisting of external devices,
By analyzing the sensor data, it is determined that the user has extracted the pivoting motion information indicating the motion of pivoting the body part, and the twisting motion is detected when the pivotal motion information satisfies a specific condition. And switching the current operation mode to the other operation mode.
前記ツイスト動作検出処理は、
前記センサデータを取得する毎に、そのセンサデータを解析して前記身体部位の軸回方向の角速度を算出するステップと、
前記角速度を算出する毎に、その角速度と所定の角速度基準値とを比較し、前記角速度が前記角速度基準値以上になったタイミングを、前記身体部位のツイスト検出の開始時刻に設定するステップと、
前記角速度を算出する毎に、前回算出した前記角速度と今回算出した前記角速度とを利用して、前記身体部位の捻り角度の変化分を算出するステップと、
前記捻り角度の変化分を算出する毎に、前記開始時刻以降に算出した前記捻り角度の変化分を合計して前記身体部位の捻り角度を算出し、その捻り角度と所定の捻り角度基準値とを比較するステップとを備え、
前記捻り角度が所定の捻り角度基準値を超えたとき、前記ツイスト動作を検出したと判断する請求項4記載の情報処理方法。 A twist motion detection process for determining whether or not the twist motion has been detected is provided,
The twist motion detection process includes
Each time the sensor data is acquired, the sensor data is analyzed to calculate an angular velocity in the axial direction of the body part; and
Each time the angular velocity is calculated, the angular velocity is compared with a predetermined angular velocity reference value, and a timing at which the angular velocity becomes equal to or higher than the angular velocity reference value is set as a twist detection start time of the body part;
Every time the angular velocity is calculated, using the angular velocity calculated last time and the angular velocity calculated this time, calculating a change in the twist angle of the body part;
Every time the change in the twist angle is calculated, the change in the twist angle calculated after the start time is summed to calculate the twist angle of the body part, and the twist angle and a predetermined twist angle reference value are calculated. A step of comparing
The information processing method according to claim 4, wherein when the twist angle exceeds a predetermined twist angle reference value, it is determined that the twist operation is detected.
前記ツイスト動作検出処理は、
前記センサデータを取得する毎に、そのセンサデータを解析して前記身体部位の軸回方向の角速度を算出するステップと、
前記角速度を算出する毎に、その角速度と所定の角速度基準値とを比較し、前記角速度が前記角速度基準値以上になったタイミングを、前記身体部位のツイスト検出の開始時刻に設定するステップと、
前記角速度を算出する毎に、前回算出した前記角速度と今回算出した前記角速度とを利用して、前記身体部位の捻り角度の変化分を算出するステップと、
前記捻り角度の変化分を算出する毎に、前記開始時刻以降に算出した前記捻り角度の変化分を合計して前記身体部位の捻り角度を算出し、前記捻り角度と所定の捻り角度基準値とを比較するステップとを備え、
まず、往方向の軸回動作に対して前記ツイスト動作検出処理を実行し、往方向の前記捻り角度が所定の捻り角度基準値を超えたとき、往方向のツイストを検出したと判断し、
往方向のツイストを検出したと判断した後、一定時間内に、復方向の軸回動作に対して前記ツイスト動作検出処理を実行し、往方向の前記捻り角度が所定の捻り角度基準値を超えたとき、復方向のツイストを検出した判断するとともに、前記ツイスト動作を検出した判断する請求項8記載の情報処理方法。 There is provided a twist motion detection process executed to detect the twist motion,
The twist motion detection process includes
Each time the sensor data is acquired, the sensor data is analyzed to calculate an angular velocity in the axial direction of the body part; and
Each time the angular velocity is calculated, the angular velocity is compared with a predetermined angular velocity reference value, and a timing at which the angular velocity becomes equal to or higher than the angular velocity reference value is set as a twist detection start time of the body part;
Every time the angular velocity is calculated, using the angular velocity calculated last time and the angular velocity calculated this time, calculating a change in the twist angle of the body part;
Each time the change in the twist angle is calculated, the change in the twist angle calculated after the start time is summed to calculate the twist angle of the body part, and the twist angle and a predetermined twist angle reference value are calculated. A step of comparing
First, the twist movement detection process is performed for the forward axial movement, and when the forward twist angle exceeds a predetermined twist angle reference value, it is determined that the forward twist is detected,
After determining that the forward twist is detected, the twist motion detection process is executed for the backward axial rotation within a predetermined time, and the forward twist angle exceeds a predetermined twist angle reference value. 9. The information processing method according to claim 8, wherein it is determined that the twist in the backward direction is detected and the twist operation is detected.
利用者が前記GUI画面に表示されたカーソルを移動させる操作を行うカーソル・ステージが設けられ、
前記カーソル・ステージは、
利用者の特定のジェスチャ操作情報を検出したとき、前記GUI画面にカーソルを表示させるステップと、
前記センサデータを解析することによって、利用者が前記身体部位を特定の面内方向に移動させた動きを示す移動動作情報を抽出し、特定の条件を満たす前記移動動作情報を前記ジェスチャ操作情報とみなし、前記移動動作情報に対応させて前記カーソルの表示位置を移動させるステップとを備えている請求項4乃至10のいずれか記載の情報処理方法。 The external device has a display unit for displaying a GUI screen, and the wearable device is used as a pointing device for operating the GUI screen.
A cursor stage is provided for the user to move the cursor displayed on the GUI screen.
The cursor stage is
Displaying a cursor on the GUI screen when detecting specific gesture operation information of the user;
By analyzing the sensor data, the movement operation information indicating the movement of the user moving the body part in a specific in-plane direction is extracted, and the movement operation information satisfying a specific condition is referred to as the gesture operation information. The information processing method according to claim 4, further comprising a step of moving the display position of the cursor corresponding to the movement operation information.
利用者が前記GUI画面に表示されたカーソルを操作するカーソル・ステージが設けられ、
前記カーソル・ステージは、
利用者の特定のジェスチャ操作情報を検出したとき、前記GUI画面にカーソルを表示させるステップと、
前記センサデータを解析することによって、前記カーソルが特定位置に一定時間以上停止したとき、その特定位置が仮選択されたと判断し、カーソルをその特定位置に固定するステップと、
カーソルを特定位置に固定した状態で前記ツイスト動作を検出したと判断したとき、この特定位置でクリックされたと判断し、そのクリックに対応した処理を行うステップとで構成されている請求項4乃至11のいずれか記載の情報処理方法。 The external device has a display unit for displaying a GUI screen, and the wearable device is used as a pointing device for operating the GUI screen.
A cursor stage is provided for the user to operate the cursor displayed on the GUI screen,
The cursor stage is
Displaying a cursor on the GUI screen when detecting specific gesture operation information of the user;
Analyzing the sensor data to determine that the specific position has been temporarily selected when the cursor has stopped at a specific position for a certain period of time, and fixing the cursor to the specific position;
12. A step comprising: determining that the twisting motion has been detected in a state where the cursor is fixed at a specific position, and determining that the user has clicked at the specific position and performing processing corresponding to the click. Any of the information processing methods of description.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016070852A JP6522540B2 (en) | 2016-03-31 | 2016-03-31 | INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016070852A JP6522540B2 (en) | 2016-03-31 | 2016-03-31 | INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017182571A true JP2017182571A (en) | 2017-10-05 |
JP6522540B2 JP6522540B2 (en) | 2019-05-29 |
Family
ID=60006265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016070852A Active JP6522540B2 (en) | 2016-03-31 | 2016-03-31 | INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6522540B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020126578A (en) * | 2019-02-01 | 2020-08-20 | 成都思悟革科技有限公司 | Motion capture device and motion capture method for multipoint reception array based on non-propagating electromagnetic field |
CN114501742A (en) * | 2021-12-31 | 2022-05-13 | 深圳市爱图仕影像器材有限公司 | Light effect control method and device based on motion state identification and lamp |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006229549A (en) * | 2005-02-17 | 2006-08-31 | Citizen Watch Co Ltd | Portable electronic apparatus |
JP2007058815A (en) * | 2005-08-26 | 2007-03-08 | Sharp Corp | Movement discrimination apparatus and program, and computer readable recording medium |
JP2012079138A (en) * | 2010-10-04 | 2012-04-19 | Olympus Corp | Gesture recognition device |
US20120235906A1 (en) * | 2011-03-16 | 2012-09-20 | Electronics And Telecommunications Research Institute | Apparatus and method for inputting information based on events |
JP2015146058A (en) * | 2014-01-31 | 2015-08-13 | 富士通株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2016038905A (en) * | 2014-08-08 | 2016-03-22 | パナソニックIpマネジメント株式会社 | Input device and control method of apparatus |
-
2016
- 2016-03-31 JP JP2016070852A patent/JP6522540B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006229549A (en) * | 2005-02-17 | 2006-08-31 | Citizen Watch Co Ltd | Portable electronic apparatus |
JP2007058815A (en) * | 2005-08-26 | 2007-03-08 | Sharp Corp | Movement discrimination apparatus and program, and computer readable recording medium |
JP2012079138A (en) * | 2010-10-04 | 2012-04-19 | Olympus Corp | Gesture recognition device |
US20120235906A1 (en) * | 2011-03-16 | 2012-09-20 | Electronics And Telecommunications Research Institute | Apparatus and method for inputting information based on events |
JP2015146058A (en) * | 2014-01-31 | 2015-08-13 | 富士通株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2016038905A (en) * | 2014-08-08 | 2016-03-22 | パナソニックIpマネジメント株式会社 | Input device and control method of apparatus |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020126578A (en) * | 2019-02-01 | 2020-08-20 | 成都思悟革科技有限公司 | Motion capture device and motion capture method for multipoint reception array based on non-propagating electromagnetic field |
CN114501742A (en) * | 2021-12-31 | 2022-05-13 | 深圳市爱图仕影像器材有限公司 | Light effect control method and device based on motion state identification and lamp |
Also Published As
Publication number | Publication date |
---|---|
JP6522540B2 (en) | 2019-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10795558B2 (en) | Device, method, and graphical user interface for providing and interacting with a virtual drawing aid | |
KR102170321B1 (en) | System, method and device to recognize motion using gripped object | |
JP5183398B2 (en) | Input device | |
WO2015110063A1 (en) | Method, apparatus, and device for information processing | |
WO2016202017A1 (en) | Intelligent wearable apparatus and control method thereof | |
KR101930225B1 (en) | Method and apparatus for controlling touch screen operation mode | |
US10120444B2 (en) | Wearable device | |
KR102297473B1 (en) | Apparatus and method for providing touch inputs by using human body | |
EP3198375A1 (en) | Wearable input device | |
WO2022156213A1 (en) | Gesture-based display interface control method and apparatus, device and storage medium | |
US10754446B2 (en) | Information processing apparatus and information processing method | |
CN103034343B (en) | The control method and device of a kind of sensitive mouse | |
US20240185516A1 (en) | A Method for Integrated Gaze Interaction with a Virtual Environment, a Data Processing System, and Computer Program | |
JP2017182571A (en) | Information processing system, information processing method and information processing program | |
WO2016049842A1 (en) | Hybrid interaction method for portable or wearable intelligent device | |
WO2019227734A1 (en) | Control instruction input method and apparatus | |
CN117784926A (en) | Control device, control method, and computer-readable storage medium | |
WO2020166140A1 (en) | Wearable user interface control system, information processing system using same, and control program | |
US9619049B2 (en) | One-handed operation of mobile electronic devices | |
TWI531957B (en) | Operational methods and systems for motion-centric user interfaces, and related computer program prodcuts | |
CN108958590A (en) | Menu-operating method and head-mounted display apparatus applied to head-mounted display apparatus | |
CN111176422B (en) | Intelligent wearable device, operation method thereof and computer readable storage medium | |
CN104615275B (en) | Character input method and device | |
CN114063768A (en) | Information processing method, non-transitory recording medium, and information processing apparatus | |
KR101337429B1 (en) | Input apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6522540 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |