JP2018041309A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2018041309A JP2018041309A JP2016175461A JP2016175461A JP2018041309A JP 2018041309 A JP2018041309 A JP 2018041309A JP 2016175461 A JP2016175461 A JP 2016175461A JP 2016175461 A JP2016175461 A JP 2016175461A JP 2018041309 A JP2018041309 A JP 2018041309A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- information processing
- processing apparatus
- trajectory
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ジェスチャ操作に応じて処理を実行する装置における操作性を向上させることを目的とする。【解決手段】第1のジェスチャが検出された時点から一定期間内に第2のジェスチャが検出され、第2のジェスチャが第1のジェスチャと同一のジェスチャである場合に、第1のジェスチャと第2のジェスチャの関係に基づいて、前記第2のジェスチャに対応して実行する処理を決定する決定手段と、決定手段により決定された処理を実行する処理手段とを有する。【選択図】図2
Description
本発明は、入力された軌跡をジェスチャとして認識し、認識したジェスチャに応じて処理を実行する情報処理装置、情報処理方法及びプログラムに関する。
従来、ユーザによるタッチパネルへの入力を検知するタッチパネル制御装置において、動画データを再生する際、タッチパネル上におけるタッチ位置の左右への移動操作に応じて、動画データの早送りや巻き戻しを行う技術が一般的に知られている。また、動画データの再生速度を決定する際、入力された軌跡をジェスチャとして認識し、ジェスチャが入力された方向に応じて、動画データの再生速度を決定する技術が知られている。
特許文献1には、ユーザが入力したジェスチャの長さに応じて、動画データの再生速度を決定する技術が開示されている。例えば、長いジェスチャが入力された場合、早送り再生とし、短いジェスチャが入力された場合、スロー再生とする。これにより、ユーザはジェスチャの入力方向と再生速度の関係を記憶する必要がなくなり、使い勝手が向上する。
しかしながら、再生速度の粒度が細かくなった場合、特許文献1の技術では、ユーザは、どの位の長さのジェスチャを入力すれば所望の再生速度になるのかがわかり難い。
本発明はこのような問題点に鑑みなされたもので、ジェスチャ操作に応じて処理を実行する装置における操作性を向上させることを目的とする。
そこで、本発明は、情報処理装置であって、第1のジェスチャが検出された時点から一定期間内に第2のジェスチャが検出され、前記第2のジェスチャが前記第1のジェスチャと同一のジェスチャである場合に、前記第1のジェスチャと前記第2のジェスチャの関係に基づいて、前記第2のジェスチャに対応して実行する処理を決定する決定手段と、前記決定手段により決定された処理を実行する処理手段とを有することを特徴とする。
本発明によれば、ジェスチャ操作に応じて処理を実行する装置における操作性を向上させることができる。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、本実施形態に係る情報処理装置の一例としてのジェスチャ認識装置100のハードウェア構成を示す図である。ジェスチャ認識装置100は、ユーザによるタッチパネルへの入力の軌跡をジェスチャとして認識し、認識したジェスチャに応じて処理を実行する。ジェスチャ認識装置100は、バス101、CPU102、ROM103、RAM104、入力I/F105、出力I/F106及び入出力I/F107を有している。バス101は、各構成要素を接続し、アドレスバス、データバス及びコントロールバス等を含む。
図1は、本実施形態に係る情報処理装置の一例としてのジェスチャ認識装置100のハードウェア構成を示す図である。ジェスチャ認識装置100は、ユーザによるタッチパネルへの入力の軌跡をジェスチャとして認識し、認識したジェスチャに応じて処理を実行する。ジェスチャ認識装置100は、バス101、CPU102、ROM103、RAM104、入力I/F105、出力I/F106及び入出力I/F107を有している。バス101は、各構成要素を接続し、アドレスバス、データバス及びコントロールバス等を含む。
CPU102は、各種処理のための演算や論理判断などを行い、バス101に接続された各構成要素を制御する。また、CPU102は図示しないがタイマを内蔵する。RAM104は、CPU102のワーク領域、エラー処理時の情報の退避領域、制御プログラムのロード領域などを有する。ROM103は、後述の処理を含むCPU102による制御のためのプログラムを格納し、プログラムメモリとして機能する。ただし、後述する記憶装置108などから各種プログラムがロードされ、RAM104をプログラムメモリとして使用することも可能である。あるいは、これらの組み合わせを用いても構わない。
入力I/F105は、情報入力装置109から出力された信号を取得する。出力I/F106は、情報出力装置110に対して、後述する各種処理の実行結果を制御した信号を出力する。入出力I/F107は、記憶装置108に対して、後述する各種処理の実行結果として出力されたデータ等を記憶装置108に出力し、記憶装置108に記憶されたデータ等を取得する。
記憶装置108は、本実施形態に係るデータや各種の制御プログラムを記憶しておく為のHDD等の記憶装置である。本実施形態においては、後述する各種の処理を実行した結果として、出力されたデータ等を記憶する。記憶装置108は、例えば、後述するジェスチャ登録辞書や、処理テーブル、再生速度テーブルを記憶している。このように、本実施形態において必要な情報は、ROM103や記憶装置108に保持されている。
情報入力装置109は、ユーザが操作入力するための入力装置である。情報入力装置109としては、例えば、マウス、トラックボール、タッチパネル等のポインティングデバイスや、キーボードや物理ボタンなどがある。また、赤外線センサ、光センサ、超音波センサなどの各種センサなども使用可能である。情報出力装置110は、ジェスチャ認識装置100にて処理された結果や保持している情報を出力するための出力装置である。情報出力装置110としては、例えば、液晶ディスプレイ、CRTディスプレイ、プロジェクタ等の表示出力装置などが使用可能である。
本実施形態では、情報入力装置109と情報出力装置110が一体化された静電容量方式のタッチパネルディスプレイ111が、ジェスチャ認識装置100に搭載されているものとし、ユーザはタッチパネルディスプレイ111を指で入力するものとする。タッチパネルディスプレイ111は、タッチパネルの操作面上において行われる入力操作に応じたタッチ状態信号と座標情報をCPU102に送信する。CPU102は、タッチパネルディスプレイ111からのタッチ状態信号と座標情報に基づいて、ユーザの入力操作を判別し、当該入力操作に応じた処理を実行する。
なお、後述するジェスチャ認識装置100の機能や処理は、CPU102がROM103又は記憶装置108に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
図2は、ジェスチャ認識装置100の機能構成を示す図である。ジェスチャ認識装置100は、座標取得部201、認識部202、時間判定部203、ジェスチャ判定部204、処理決定部205及び表示制御部206を有している。座標取得部201は、情報入力装置109から出力された信号を取得する。具体的には、座標取得部201は、タッチパネルの操作面に対して、指が触れているかどうかを示すタッチ状態信号を取得する。ここで、タッチパネルに指が触れている状態をタッチオン状態、タッチパネルに指が触れていない状態をタッチオフ状態とする。タッチオン状態の場合、指がタッチパネルの操作面に触れている座標情報を示す信号を取得する。取得した信号の情報は、後述する認識部202及び表示制御部206に出力される。
タッチパネルの操作面には、予め互いに直交するX軸、Y軸が規定されており、座標情報は、X軸方向の位置とY軸方向の位置を示す情報である。また、本実施形態では電源が投入されると、CPU102によって20ミリ秒間隔で、情報入力装置109から信号を取得するものとする。
認識部202は、座標取得部201から出力された座標情報と記憶装置108が記憶する登録ジェスチャの座標情報とを比較しジェスチャの認識処理を行う。また、認識部202は、認識したジェスチャの横幅及び、縦幅のサイズを算出し、算出した結果をRAM104に記憶する。なお、ジェスチャの横幅のサイズは、ジェスチャの軌跡のX座標の最大値からX座標の最小値を引いた値である。また、縦幅のサイズは、Y座標の最大値からY座標の最小値を引いた値である。認識部202は、認識したジェスチャの種類、ジェスチャを認識した時刻、算出したジェスチャの横幅のサイズ及び、縦幅のサイズをRAM104に記憶する。
時間判定部203は、前回のジェスチャの認識が終了してから、次のジェスチャが認識されるまでの時間が一定時間内であるかどうかを判定し、判定結果をRAM104に記録する。本実施形態では、一定時間は10秒間とするが、これは一例である。ジェスチャ判定部204は、時間判定部203が一定時間内であると判定した場合、認識部202が認識(検出)したジェスチャが前回と同一のジェスチャであるかどうかを判定し、判定した結果をRAM104に記憶する。
処理決定部205は、認識部202が算出したジェスチャの横幅及び縦幅のサイズから、前回入力された第1のジェスチャと、今回入力された第2のジェスチャとのアスペクト比を算出する。そして、アスペクト比に基づいて、動画データの再生速度を決定する。また、処理決定部205は、RAM104に記憶されているジェスチャの種類に基づいて、動画データの再生方向(順方向又は逆方向)を決定する。処理決定部205は、決定した再生速度及び再生方向をRAM104に記録する。
表示制御部206は、座標取得部201から出力された座標を基に、ジェスチャの軌跡を情報出力装置110に表示するよう制御する。表示制御部206はまた、タッチオフ状態になってから一定時間が経過した場合、ジェスチャの軌跡の表示を終了する。本実施形態では、表示制御部206は、タッチオフ状態になってから5秒間が経過すると、ジェスチャの軌跡の表示を終了する。表示制御部206はまた、処理決定部205が算出した再生速度及び再生方向に従って、動画データを再生表示する。
図3は、ジェスチャ認識装置100によるジェスチャ処理を示すフローチャートである。ステップS301において、座標取得部201は、指がタッチパネルの操作面に接触する動作から、タッチオン状態を示す信号を情報入力装置109から取得しRAM104に記憶する。続いて、ステップS302において、座標取得部201は、指がタッチパネルの操作面に接触した位置を示す座標を取得し、RAM104に記憶する。続いて、ステップS303において、表示制御部206は、座標取得部201が取得した座標を基にタッチパネルディスプレイ111に軌跡を表示する。
続いて、ステップS304において、座標取得部201は、リリース信号を取得したかどうかを判定する。座標取得部201は、リリース信号を取得した場合(ステップS304でYes)、タッチオフ状態とし、処理をステップS305へ進める。なお、図示しないが、リリース信号を取得した、表示制御部206は、ジェスチャの軌跡は表示したまま維持し、タッチオフ状態から5秒間が経過したときに、ジェスチャの軌跡の表示を終了する。座標取得部201は、リリース信号を取得していない場合(ステップS304でNo)、処理をステップS301へ進める。
ステップS305において、認識部202は、座標取得部201が取得した座標と記憶装置108のジェスチャ登録辞書に登録されている登録ジェスチャの座標とを比較し、ジェスチャの認識処理を行い、ジェスチャを検出する。また、認識部202は、ジェスチャの横幅及び縦幅のサイズを算出し、RAM104に記憶する。
続いて、ステップS306において、処理決定部205は、処理テーブルを参照し、ジェスチャの種類に応じて動画データに係る処理を決定する。図4は、処理テーブルのデータ構成例を示す図である。処理テーブルは、登録ジェスチャと、処理と、を対応付けて記憶する対応テーブルである。図4の例では、登録ジェスチャ「>」は、再生処理に対応付けられている。これは、登録ジェスチャ「>」が認識された場合に、再生処理を実行することを意味している。また、登録ジェスチャ「<」は、逆再生処理に対応付けられている。処理決定部205は、この処理テーブルを参照することにより、登録ジェスチャの種類から再生の処理を決定する。具体的には、処理決定部205は、再生方向を決定する。
図3に戻り、ステップS306の処理の後、ステップS307において、時間判定部203は、前回のジェスチャの認識(検出)時点から今回のジェスチャ認識までの期間が予め定められた一定期間内であるか否かを確認する。一定期間は例えば10秒とする。時間判定部203は、一定期間内の場合には(ステップS307でYes)、処理をステップS308へ進める。認識されなかった場合(ステップS307でNo)、処理をステップS309へ進める。
ステップS308において、ジェスチャ判定部204は、今回認識したジェスチャが前回認識したジェスチャと同一のジェスチャであるか否かを判定する。ジェスチャ判定部204は、同一のジェスチャでない場合(ステップS308でNo)、処理をステップS309へ進める。ステップS309において、表示制御部206は、ステップS306において決定された再生方向に対し、標準的な再生速度で動画データを再生表示するよう制御する。
一方、ジェスチャ判定部204は、同一のジェスチャである場合(ステップS308でYes)、処理をステップS310へ進める。この場合、処理決定部205は、動画データの再生速度を変更する速度変更処理(ステップS310〜ステップS312)を行う。以下、前回認識したジェスチャを第1のジェスチャ、今回認識したジェスチャを第2のジェスチャと称することとする。
まず、ステップS310において、処理決定部205は、認識部202が算出した第1のジェスチャと第2のジェスチャの各々のアスペクト比から、第1のジェスチャと第2のジェスチャとの比率を算出する。続いて、ステップS311において、処理決定部205は、第1のジェスチャと第2のジェスチャの関係から第2のジェスチャに応じて実行する処理を決定する。具体的には、処理決定部205は、第2のジェスチャが第1のジェスチャと同一のジェスチャであることから、第1のジェスチャに対応する処理である再生処理を、第2のジェスチャに対応して実行する処理として決定する。さらに、処理決定部205は、再生速度テーブルを参照し、ステップS310において算出した比率から、第2のジェスチャに応じて実行する再生処理における再生速度を決定する。すなわち、ステップS308、ステップS310、ステップS311の処理は、再生処理におけるパラメータである再生速度が標準的な値と異なる再生処理を第2のジェスチャに対応して実行する処理として決定する決定処理の一例である。
図5は、再生速度テーブルのデータ構成例を示す図である。再生速度テーブルは、アスペクト比の比率と再生速度とを対応付けて記憶している。処理決定部205は、再生速度テーブルを参照し、第1のジェスチャと第2のジェスチャのアスペクト比が0.1以上で1.0未満の場合には、動画データの再生速度を0.5倍に決定する。また処理決定部205は、アスペクト比が1.0以上で2.5未満の場合には、再生速度を2倍に決定する。また、処理決定部205は、アスペクト比が2.5以上の場合には、再生速度を3倍に決定する。このように、再生速度テーブルは、第1のジェスチャと第2のジェスチャとのアスペクト比が大きくなる程、より速い再生速度になるような値を記憶している。なお、再生速度は標準的な再生速度を基準とした倍数で示されているが、これに限定されるものではなく、再生速度の値そのものを記憶してもよい。
なお、処理決定部205は、再生速度を決定した後に、指でタッチパネルの操作面に触れてからすぐに指を離す「タップ操作」が認識された場合には、再生速度を通常の再生速度に戻すこととする。
図3に戻り、ステップS311の処理の後、ステップS312において、表示制御部206は、ステップS306において決定された再生方向に対し、ステップS311において決定された再生速度で動画データを再生表示するよう制御する。本処理は、第2のジェスチャに対応する処理を実行する実行処理の一例である。以上で、一連の処理が終了する。なお、ステップS309及びステップS312の処理は、動画データを再生表示するよう制御する表示制御処理の一例である。
図6は、ジェスチャ処理の説明図である。以下、ジェスチャ処理において、第1のジェスチャを認識し、これに続いて第2のジェスチャ処理を認識したものとする。図6(a)に示す601は、第1のジェスチャを表しており、ジェスチャの横幅及び縦幅のサイズは共に100ドットである。また、602は第2のジェスチャを表しており、ジェスチャの横幅及び縦幅のサイズは共に100ドットである。アスペクト比は、「(横幅のサイズ)÷(縦幅のサイズ)」で算出する。したがって、第1のジェスチャ601及び第2のジェスチャ602のアスペクト比は共に1となる。さらに、第1のジェスチャ601と第2のジェスチャ602との比率は、「(第1のジェスチャのアスペクト比)÷(第2のジェスチャのアスペクト比)」で算出する。したがって、比率は、1となる。したがって、図6(a)の例においては、処理決定部205は、再生速度テーブル(図5)から、比率に基づいて、再生速度を2倍に決定する。
図6(b)に示す601は第1のジェスチャを表しており、603は、第2のジェスチャを表している。第1のジェスチャ601は、図6(a)の第1のジェスチャ601と同様である。第2のジェスチャ603の横幅のサイズは300ドット、縦幅のサイズは100ドットである。この場合、第2のジェスチャ603のアスペクト比は3であり、第1のジェスチャ601と第2のジェスチャ603との比率は3となる。したがって、図6(b)の例においては、処理決定部205は、再生速度テーブルから、比率に基づいて、再生速度を3倍に決定する。
以上のように、第1の実施形態に係るジェスチャ認識装置100は、連続して行われた2つのジェスチャの関係に基づいて、実行する処理を決定する。例えば、ユーザは、1回目のジェスチャに比べてアスペクト比の大きなジェスチャを行うことで、より速い再生速度を入力することができる。このように、1回目のジェスチャのアスペクト比と2回目のジェスチャのアスペクト比との関係で再生速度が決定されるので、ユーザは、直感的にジェスチャを行うことにより、所望の再生速度を入力することができる。すなわち、ジェスチャ認識装置100は、ジェスチャ操作に応じて処理を実行する装置における操作性を向上させることができる。
なお、第1の変形例としては、本実施形態では、ジェスチャは、指でタッチパネルの操作面に触れることにより行われるものとしたが、これに限定されるものではない。ジェスチャは、例えば、指がタッチパネルの操作面に触れずに操作する、空間ジェスチャであってもよい。
また、第2の変形例としては、ジェスチャに応じて定まる処理は、動画データの再生に限定されるものではない。例えば、画像及び動画等のコンテンツをスクロールする場合にも適用することが可能である。また、本実施形態においては、第2のジェスチャに応じて決定される処理は、第1のジェスチャにおいて決定された再生表示処理に対し再生速度の異なる再生処理であった。ただし、第2のジェスチャにおいて決定される処理の種類は実施形態に限定されるものではない。例えば、第2のジェスチャにおいて決定される処理は、再生表示の停止処理であってもよい。
また、第3の変形例としては、処理決定部205は、1回目のジェスチャと2回目のジェスチャの関係に応じて再生速度を決定すればよく、そのための具体的な処理は実施形態に限定されるものではない。例えば、処理決定部205は、第1のジェスチャと第2のジェスチャの大きさの比率に応じて、再生速度を決定してもよく、また第1のジェスチャと第2のジェスチャの軌跡の距離に応じて、再生速度を決定してもよい。
図7は、大きさの比率に応じて再生速度を決定する場合の再生速度テーブルのデータ構成例を示す図である。再生速度テーブルは、大きさの比率と、再生速度とを対応付けて記憶している。処理決定部205は、図7に示す再生速度テーブルに基づき、第1のジェスチャと第2のジェスチャの大きさの比率が0.1以上で1.0未満の場合、動画データの再生速度を0.5倍に決定する。また、処理決定部205は、大きさの比率が1.0以上で2.5未満の場合は再生速度を2倍に、大きさの比率が2.5以上の場合は再生速度を3倍に決定する。このように、処理決定部205は、大きさの比率が大きいほど、動画データの再生速度が速くなるような値を決定する。
図8は、図7に示す再生速度テーブルを利用したジェスチャ処理の説明図である。図8(a)において、801、802は、それぞれ第1のジェスチャ及び第2のジェスチャを表している。第1のジェスチャ801のジェスチャの大きさは、100ドット×100ドットとなる。第2のジェスチャ802の大きさは、横幅のサイズは50ドット、縦幅のサイズは50ドットである。この場合、第2のジェスチャ802の大きさは、50ドット×50ドットとなり、第1のジェスチャ801と第2のジェスチャ802との大きさの比率は、次式より、0.25となる。したがって、処理決定部205は、図7の再生速度テーブルに基づき、再生速度を0.25倍に決定する。
(50ドット×50ドット)÷(100ドット×100ドット)=0.25
(50ドット×50ドット)÷(100ドット×100ドット)=0.25
また、図8(b)において、801、803は、それぞれ第1のジェスチャ及び第2のジェスチャを表している。第1のジェスチャ801は、図8(a)の第1のジェスチャ801と同様である。第2のジェスチャ803の横幅のサイズは200ドット、縦幅のサイズは200ドットである。この場合、第2のジェスチャ803の大きさは、200ドット×200ドットとなり、第1のジェスチャ801と第2のジェスチャ803との大きさの比率は、次式より、4となる。したがって、処理決定部205は、図7の再生速度テーブルに基づき、再生速度を4倍に決定する。
(200ドット×200ドット)÷(100ドット×100ドット)=4
(200ドット×200ドット)÷(100ドット×100ドット)=4
図9は、長さの比率に応じて再生速度を決定する場合の再生速度テーブルのデータ構成例を示す図である。図9に示す再生速度テーブルは、ジェスチャ間の距離と再生速度とを対応付けて記憶している。本実施形態においては、各ジェスチャの代表座標間の距離をジェスチャ間の距離とする。また、本実施形態においては、代表座標は、各ジェスチャの開始点とする。処理決定部205は、図9に示す再生速度テーブルに基づき、第1のジェスチャと第2のジェスチャの間の距離が1〜100ドットの場合、動画データの再生速度を0.5倍に決定する。ここで、代表座標は、各ジェスチャの開始点とする。処理決定部205はまた、距離が101〜400ドットの場合は再生速度を2倍に、距離が401ドット以上の場合は、再生速度を3倍に決定する。
このように、処理決定部205は、第1のジェスチャと第2のジェスチャの間の距離が離れる程、再生速度が速くなるような値を決定する。なお、代表座標は、開始点に限定されるものではない。他の例としては、代表座標は、終了点であってもよい。また、他の例としては、代表座標は、各ジェスチャにおけるX座標の値が最大値となる点であってもよい。
図10は、図9に示す再生速度テーブルを利用したジェスチャ処理の説明図である。図10(a)において、1001、1002はそれぞれ第1のジェスチャ及び第2のジェスチャを表している。図10(a)の例では、第1のジェスチャ1001と第2のジェスチャ1002の間の距離は100ドットである。したがって、処理決定部205は、図9の再生速度テーブルに基づき、再生速度を0.5倍に決定する。
また、図10(b)において、1001、1003はそれぞれ第1のジェスチャ及び第2のジェスチャを表している。第1のジェスチャ1001は、図10(a)の第1のジェスチャと同様である。第1のジェスチャ1001と第2のジェスチャ1003の間の距離は、500ドットである。したがって、処理決定部205は、図9に示す再生速度テーブルに基づき、再生速度を3倍に決定する。
さらに、本実施形態においては、処理決定部205は、再生速度テーブルにより、3段階の再生速度を決定したが、例えば、5段階、10段階で再生速度を決定してもよい。また、処理決定部205は、再生速度テーブルに対応した関数に基づいて、算出した比率等から再生速度を決定してもよい。
(第2の実施形態)
次に、第2の実施形態に係るジェスチャ認識装置100について説明する。第2の実施形態に係るジェスチャ認識装置100は、指がタッチパネルから離れて入力している状態である「ホバー状態」を検知し、前回入力されたジェスチャの軌跡を表示する。また、ジェスチャ認識装置100は、タッチオフ状態でかつ「ホバー状態」でない場合、ジェスチャの軌跡の表示を終了する。
次に、第2の実施形態に係るジェスチャ認識装置100について説明する。第2の実施形態に係るジェスチャ認識装置100は、指がタッチパネルから離れて入力している状態である「ホバー状態」を検知し、前回入力されたジェスチャの軌跡を表示する。また、ジェスチャ認識装置100は、タッチオフ状態でかつ「ホバー状態」でない場合、ジェスチャの軌跡の表示を終了する。
図11は、第2の実施形態に係るジェスチャ認識装置100の機能構成を示す図である。第2の実施形態に係るジェスチャ認識装置100は、第1の実施形態に係るジェスチャ認識装置100の機能構成に加えて、ホバー検知部1101を有している。ホバー検知部1101は、ホバー状態であるか否かを検知し、検知結果を表示制御部206に出力する。本実施形態では、検出間隔は実施形態1の座標取得部201と同様で、20ミリ秒であるものとする。
図12は、第2の実施形態に係るジェスチャ認識装置100による、ジェスチャ処理を示すフローチャートである。なお、図12に示すジェスチャ処理の各処理のうち、図3を参照しつつ説明した第1の実施形態に係るジェスチャ処理の各処理と同一の処理には、同一の番号を付している。第2の実施形態においては、ジェスチャ処理が開始されると、CPU102は、軌跡表示の制御を行う軌跡表示処理(ステップS1201〜S1203)を行い、その後処理をステップS301へ進める。
まず、ステップS1201において、ホバー検知部1101は、ホバー状態であるか否かを判定する。ホバー検知部1101は、ホバー状態でない場合(ステップS1201でNo)、処理をステップS301へ進める。ホバー検知部1101は、ホバー状態である場合(ステップS1201でYes)、処理をステップS1202へ進める。ステップS1202において、表示制御部206は、動画データが再生中か否かを判定する。表示制御部206は、再生中でない場合(ステップS1202でNo)、ジェスチャ入力が行われていないため、処理をステップS301へ進める。表示制御部206は、再生中である場合(ステップS1202でYes)、処理をステップS1203へ進める。
ステップS1203において、表示制御部206は、RAM104に記憶されているジェスチャの軌跡の座標情報を用いて、前回入力されたジェスチャの軌跡を表示し、その後処理をステップS301へ進める。さらに、表示制御部206は、「ホバー状態」を検知してから一定期間入力がない場合、すなわち一定期間タッチ信号を受信しなかった場合、ステップS1203で表示したジェスチャの軌跡の表示を終了する。ここで、一定期間は、例えば5秒とする。
なお、第2の実施形態においては、ステップS304で、表示制御部206は、ジェスチャの軌跡を表示した際、ジェスチャの軌跡の座標情報をRAM104に記憶するものとする。また、ステップS308において、前回のジェスチャと同一のジェスチャでなかった場合(ステップS308でNo)、表示制御部206は、ステップS1203で表示したジェスチャの軌跡の表示を終了する。なお、第2の実施形態に係るジェスチャ認識装置100のこれ以外の構成及び処理は、第1の実施形態に係るジェスチャ認識装置100の構成及び処理と同様である。
以上のように、第1の実施形態に係るジェスチャ認識装置100は、ユーザが入力操作を行う時にだけ、ジェスチャの軌跡を表示することができる。これにより、動画データの閲覧性が向上する。
(第3の実施形態)
次に、第3の実施形態に係るジェスチャ認識装置100について説明する。第3の実施形態に係るジェスチャ認識装置100は、入力されたジェスチャの軌跡のアスペクト比が基準範囲外の値であった場合に、入力されたジェスチャの軌跡のアスペクト比を正規化して再表示する。図13は、第3の実施形態に係るジェスチャ認識装置100の機能構成を示す図である。第3の実施形態に係るジェスチャ認識装置100は、第1の実施形態に係るジェスチャ認識装置100の機能構成に加えて、変形判定部1301を有している。変形判定部1301は、処理決定部205により算出された、ジェスチャのアスペクト比に応じて、ジェスチャの軌跡を変形する。
次に、第3の実施形態に係るジェスチャ認識装置100について説明する。第3の実施形態に係るジェスチャ認識装置100は、入力されたジェスチャの軌跡のアスペクト比が基準範囲外の値であった場合に、入力されたジェスチャの軌跡のアスペクト比を正規化して再表示する。図13は、第3の実施形態に係るジェスチャ認識装置100の機能構成を示す図である。第3の実施形態に係るジェスチャ認識装置100は、第1の実施形態に係るジェスチャ認識装置100の機能構成に加えて、変形判定部1301を有している。変形判定部1301は、処理決定部205により算出された、ジェスチャのアスペクト比に応じて、ジェスチャの軌跡を変形する。
図14は、第3の実施形態に係るジェスチャ認識装置100による、ジェスチャ処理を示すフローチャートである。なお、図14に示すジェスチャ処理の各処理のうち、図3を参照しつつ説明した第1の実施形態に係るジェスチャ処理の各処理と同一の処理には、同一の番号を付している。第3の実施形態においては、CPU102は、ステップS304において、リリース信号を取得した場合(ステップS304でYes)、ジェスチャの軌跡を適宜変形する軌跡変形処理(ステップS1401〜S1404)を行う。そして、CPU102は、軌跡変形処理の後、処理をステップS305へ進める。
ステップS1401において、変形判定部1301は、ステップS305で算出されたジェスチャのアスペクト比を取得する。続いて、ステップS1402において、変形判定部1301は、ジェスチャのアスペクト比が基準範囲外の値であるか否かを判定する。本実施形態では、アスペクト比が3以上又は、0.33以下の値である場合に基準範囲外の値であると判定する。変形判定部1301は、基準範囲外の値である場合(ステップS1402でYes)、処理をステップS1403へ進める。変形判定部1301は、基準範囲内の値である場合(ステップS1402でNo)、処理をステップS305へ進める。
ステップS1403において、表示制御部206は、ジェスチャの軌跡を正規化する。具体的には、表示制御部206は、ジェスチャの軌跡のアスペクト比が1対1となるようにジェスチャの軌跡の形状を修正する。次に、ステップS1404において、表示制御部206は、正規化したジェスチャの軌跡を表示するよう制御し、その後処理をステップS305へ進める。なお、第3の実施形態に係るジェスチャ認識装置100のこれ以外の構成及び処理は、他の実施形態に係るジェスチャ認識装置100の構成及び処理と同様である。
以上のように、第3の実施形態に係るジェスチャ認識装置100は、ユーザの入力が雑で、アスペクト比が乱れたような場合においても、正規化したジェスチャの軌跡を表示することができる。したがって、ユーザは、第2のジェスチャ(2回目のジェスチャ)を入力する際に、正規化されたジェスチャの軌跡を参考にすることができる。
なお、第3の実施形態の第1の変形例としては、ジェスチャ認識装置100は、ジェスチャの軌跡を修正すればよく、そのための具体的な方法は、正規化に限定されるものではない。例えば、ジェスチャ認識装置100は、第1のジェスチャの入力が終わった後に、ジェスチャの軌跡の表示位置を任意の位置に移動してもよい。ジェスチャ認識装置100は、例えば、動画データの閲覧の邪魔にならない画面の端に移動してもよい。また、ジェスチャ認識装置100は、入力されたジェスチャの軌跡をグレーアウトして表示してもよい。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 ジェスチャ認識装置
202 認識部
204 ジェスチャ判定部
205 処理決定部
206 表示制御部
202 認識部
204 ジェスチャ判定部
205 処理決定部
206 表示制御部
Claims (17)
- 第1のジェスチャが検出された時点から一定期間内に第2のジェスチャが検出され、前記第2のジェスチャが前記第1のジェスチャと同一のジェスチャである場合に、前記第1のジェスチャと前記第2のジェスチャの関係に基づいて、前記第2のジェスチャに対応して実行する処理を決定する決定手段と、
前記決定手段により決定された処理を実行する処理手段と
を有することを特徴とする情報処理装置。 - 前記決定手段は、前記第1のジェスチャと前記第2のジェスチャの関係と、処理と、を対応付ける対応テーブルを参照して、前記処理を決定することを特徴とする請求項1に記載の情報処理装置。
- 前記決定手段は、前記第1のジェスチャが行われた場合に実行される処理と同一の処理であって、かつ前記処理に係るパラメータの値が異なる処理を、実行する処理として決定することを特徴とする請求項1又は2に記載の情報処理装置。
- 前記処理手段は、前記第1のジェスチャが行われた場合に、動画データの再生処理を実行し、
前記決定手段は、前記第1のジェスチャから一定期間内に前記第2のジェスチャが行われた場合に、前記第1のジェスチャに応じて実行される再生処理と再生速度が異なる再生処理を、実行する処理として決定することを特徴とする請求項3に記載の情報処理装置。 - 前記決定手段は、前記関係に基づいて、前記再生処理に対する再生速度を決定することを特徴とする請求項4に記載の情報処理装置。
- 前記決定手段は、前記第1のジェスチャと前記第2のジェスチャの軌跡のアスペクト比の比率に基づいて、前記処理を決定することを特徴とする請求項4又は5に記載の情報処理装置。
- 前記決定手段は、前記第1のジェスチャと前記第2のジェスチャの軌跡の大きさの比率に基づいて、前記処理を決定することを特徴とする請求項4又は5に記載の情報処理装置。
- 前記決定手段は、前記第1のジェスチャと前記第2のジェスチャの軌跡の長さの比率に基づいて、前記処理を決定することを特徴とする請求項4又は5に記載の情報処理装置。
- ジェスチャの軌跡を表示手段に表示するよう制御する表示制御手段をさらに有することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
- ホバー状態を検知するホバー検知手段をさらに有し、
前記表示制御手段は、前記ホバー状態が検知された場合に、前記ホバー状態に応じたジェスチャの軌跡を表示するよう制御することを特徴とする請求項9に記載の情報処理装置。 - 前記表示制御手段は、前記ホバー状態が検知された後、一定期間入力がない場合に、前記ホバー状態に応じたジェスチャの軌跡の表示を終了することを特徴とする請求項10に記載の情報処理装置。
- 前記表示制御手段は、前記ジェスチャの軌跡を修正して表示するよう制御することを特徴とする請求項9に記載の情報処理装置。
- 前記表示制御手段は、前記ジェスチャの軌跡のアスペクト比が基準範囲外の値である場合に、軌跡を修正して表示するよう制御することを特徴とする請求項12に記載の情報処理装置。
- 前記表示制御手段は、前記ジェスチャの軌跡のアスペクト比を修正して表示するよう制御することを特徴とする請求項12又は13に記載の情報処理装置。
- 前記表示制御手段は、前記ジェスチャの軌跡の表示位置を修正して表示するよう制御することを特徴とする請求項12に記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
第1のジェスチャが検出された時点から一定期間内に第2のジェスチャが検出され、前記第2のジェスチャが前記第1のジェスチャと同一のジェスチャである場合に、前記第1のジェスチャと前記第2のジェスチャの関係に基づいて、前記第2のジェスチャに対応して実行する処理を決定する決定ステップと、
前記決定ステップにおいて決定された処理を実行する処理ステップと
を含むことを特徴とする情報処理方法。 - コンピュータを、
第1のジェスチャが検出された時点から一定期間内に第2のジェスチャが検出され、前記第2のジェスチャが前記第1のジェスチャと同一のジェスチャである場合に、前記第1のジェスチャと前記第2のジェスチャの関係に基づいて、前記第2のジェスチャに対応して実行する処理を決定する決定手段と、
前記決定手段により決定された処理を実行する処理手段と
して機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175461A JP2018041309A (ja) | 2016-09-08 | 2016-09-08 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175461A JP2018041309A (ja) | 2016-09-08 | 2016-09-08 | 情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018041309A true JP2018041309A (ja) | 2018-03-15 |
Family
ID=61626021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016175461A Pending JP2018041309A (ja) | 2016-09-08 | 2016-09-08 | 情報処理装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018041309A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022090171A (ja) * | 2020-12-07 | 2022-06-17 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置及び情報処理方法 |
-
2016
- 2016-09-08 JP JP2016175461A patent/JP2018041309A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022090171A (ja) * | 2020-12-07 | 2022-06-17 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置及び情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9069386B2 (en) | Gesture recognition device, method, program, and computer-readable medium upon which program is stored | |
US20160004373A1 (en) | Method for providing auxiliary information and touch control display apparatus using the same | |
US8633909B2 (en) | Information processing apparatus, input operation determination method, and input operation determination program | |
US8749497B2 (en) | Multi-touch shape drawing | |
US9021402B1 (en) | Operation of mobile device interface using gestures | |
US8970634B2 (en) | Operation control device, operation control method and computer program | |
JP2007317159A (ja) | 電子装置の入力装置およびその入力方法 | |
US10725543B2 (en) | Input device, display device, and method for controlling input device | |
JP6253284B2 (ja) | 情報処理装置およびその制御方法、プログラム、記録媒体 | |
US10956030B2 (en) | Multi-touch based drawing input method and apparatus | |
US8830196B2 (en) | Information processing apparatus, information processing method, and program | |
WO2019205552A1 (zh) | 在线文档的评论方法和装置 | |
US10684772B2 (en) | Document viewing apparatus and program | |
US10019919B2 (en) | Processing apparatus, command generation method and storage medium | |
JP4879933B2 (ja) | 画面表示装置、画面表示方法およびプログラム | |
JP6359862B2 (ja) | タッチ操作入力装置、タッチ操作入力方法及びプログラム | |
US10318047B2 (en) | User interface for electronic device, input processing method, and electronic device | |
JP2018041309A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US10101905B1 (en) | Proximity-based input device | |
JP5065838B2 (ja) | 座標入力装置 | |
JP2012185703A (ja) | 入力装置、入力方法およびプログラム | |
JP2015132906A (ja) | 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム | |
JP6475883B2 (ja) | タッチ入力表示装置、表示制御方法及びプログラム | |
JP6594169B2 (ja) | 情報処理装置、操作判定方法、コンピュータプログラム、及び記憶媒体 | |
AU2017210607B2 (en) | Apparatus and method for controlling motion-based user interface |