JP2017162054A - 情報処理装置及び出力装置 - Google Patents

情報処理装置及び出力装置 Download PDF

Info

Publication number
JP2017162054A
JP2017162054A JP2016044098A JP2016044098A JP2017162054A JP 2017162054 A JP2017162054 A JP 2017162054A JP 2016044098 A JP2016044098 A JP 2016044098A JP 2016044098 A JP2016044098 A JP 2016044098A JP 2017162054 A JP2017162054 A JP 2017162054A
Authority
JP
Japan
Prior art keywords
time
selection
selection operation
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016044098A
Other languages
English (en)
Inventor
俊信 中洲
Toshinobu Nakasu
俊信 中洲
司 池
Tsukasa Ike
司 池
山内 康晋
Yasuaki Yamauchi
康晋 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016044098A priority Critical patent/JP2017162054A/ja
Publication of JP2017162054A publication Critical patent/JP2017162054A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】選択動作が行われた位置をより正確に認識することを課題とする。
【解決手段】情報処理装置は、取得部と、指示位置算出部と、選択動作検出部と、選択位置算出部と、出力部とを有する。取得部は、認識対象の動きに関する時系列情報を取得する。指示位置算出部は、取得された時系列情報から、画面上の位置を指示する指示位置を算出する。選択動作検出部は、画面に表示された操作対象を選択する選択動作を検出する。選択位置算出部は、選択動作が検出された時刻よりも前の時刻に算出された指示位置を、該選択動作が行われた位置を表す選択位置として算出する。出力部は、算出された選択位置を出力する。
【選択図】図3

Description

本発明の実施形態は、情報処理装置及び出力装置に関する。
従来、身体に装着されたセンサから取得した測定値をもとに、該センサの3次元的な傾きを算出する技術が存在する。センサの3次元的な傾きは、例えばセンサを腕に装着する場合に、疑似的に腕の傾きに対応する。これにより、センサの3次元的な傾きを画面の相対位置に対応付けることで、遠隔に存在する画面上のカーソルを、ユーザの腕の傾きに対応させて動かすことが可能となる。また、カーソルを動かし、画面上のコンテンツがポインティングされた状態で、打指(例えば、摘むような形で親指と中指とを軽く打ちつける動作)等の特定の動作が行われた場合に、該コンテンツを選択するといったことも可能となる。
T. Ike, T. Nakasu and Y. Yamauchi:"Contents−Aware gesture interaction using wearable motion sensor", Proceedings of the 18th Annual International Symposium on Wearable Computers (ISWC), Vol.2, pp.5−8, 2014.
従来技術は、ユーザが選択したいコンテンツの位置からずれてしまう場合がある。例えば、コンテンツを選択する打指等の選択動作が行われた場合に、手がぶれてしまうと、正確な位置で選択されない場合がある。画面上のコンテンツがポインティングされた状態で、打指された場合に、打指の勢いによって手がぶれてしまい、手がぶれることでユーザが選択したいコンテンツの位置からずれた位置で選択動作が認識されてしまう可能性がある。選択動作された位置を誤って認識してしまうことで、誤動作につながる。
本発明が解決しようとする課題は、選択動作が行われた位置をより正確に認識することができる情報処理装置及び出力装置を提供することである。
実施形態の情報処理装置は、取得部と、指示位置算出部と、選択動作検出部と、選択位置算出部と、出力部とを有する。取得部は、認識対象の動きに関する時系列情報を取得する。指示位置算出部は、取得された時系列情報から、画面上の位置を指示する指示位置を算出する。選択動作検出部は、画面に表示された操作対象を選択する選択動作を検出する。選択位置算出部は、選択動作が検出された時刻よりも前の時刻に算出された指示位置を、該選択動作が行われた位置を表す選択位置として算出する。出力部は、算出された選択位置を出力する。
実施形態1に係る認識システムのシステム構成を示す図。 実施形態1に係る情報処理装置のハードウェア構成を示すブロック図。 実施形態1に係る情報処理装置の機能構成を示すブロック図。 装着型センサを装着した特定部位の上下方向の傾きを説明する図。 装着型センサを装着した特定部位の左右方向の傾きを説明する図。 装着型センサを装着した特定部位の右回り、左回りの傾きを説明する図。 打指のジェスチャが行われたときの手首の垂直上方向の加速度を示す図。 下方向に手を払うジェスチャが行われたときの手首の垂直上方向の加速度を示す図。 実施形態1に係るマウスカーソルの位置変動を示す図。 実施形態1に係る情報処理装置による処理の流れを示すフローチャート。 実施形態2に係る情報処理装置の機能構成を示すブロック図。 実施形態2に係る選択位置を説明する図。 実施形態2に係る情報処理装置による処理の流れを示すフローチャート。 実施形態2に係る情報処理装置による処理の流れを示すフローチャート。 実施形態3に係る情報処理装置の機能構成を示すブロック図。 実施形態3に係る情報処理装置による処理の流れを示すフローチャート。 実施形態4に係る認識システムのシステム構成を示す図。 実施形態4に係る情報処理装置の機能構成を示すブロック図。 時系列で取得される特定部位の位置を示す図。 実施形態4に係る情報処理装置による処理の流れを示すフローチャート。 実施形態5に係る認識システムのシステム構成を示す図。 実施形態5に係る出力装置のハードウェア構成を示すブロック図。 実施形態5に係る出力装置の機能構成を示すブロック図。 実施形態5に係る出力装置による処理の流れを示すフローチャート。
(実施形態1)
図1は、実施形態1に係る認識システム1のシステム構成例を示す図である。図1に示すように、認識システム1には、情報処理装置100と、装着型センサ200と、出力装置300とが含まれる。認識システム1において、各装置は、無線又は有線により通信可能である。認識システム1は、ユーザによる動作であるジェスチャに応じて画面(例えば、出力装置300の画面)を操作するために用いられる。例えば、装着型センサ200をユーザの手(手首)に装着する場合には、ユーザの手の動きに追従するように画面内のマウスカーソルを動かすように処理し、また、打指によって画面内の操作対象を選択(クリック)するように処理する。これらの他にも、ユーザの手の動きに追従して、操作対象の拡大・縮小、操作対象の移動(ドラッグ)等の各種操作を行なうことができる。
装着型センサ200は、ユーザの特定部位に装着して使用されるセンサであり、特定部位の動きに応じて測定される測定値を出力する。測定値は、情報処理装置100や出力装置300に対して出力される。一つの様態として、装着型センサ200は、加速度や角速度、地磁気等を測定するための各種センサを有していても良い。特定部位は、例えば、ユーザの腕、手首、指、頭、足等である。本実施形態では、ユーザの手首に装着型センサ200を装着する場合を例に挙げる。すなわち、測定値である装着型センサ200の加速度等は、装着型センサ200が装着されたユーザの手の加速度等として利用できる。本実施形態において、ユーザの手等の特定部位は、その動きが認識される対象となる「認識対象」に対応する。
情報処理装置100は、PCやサーバ装置等の情報処理装置である。かかる情報処理装置100は、装着型センサ200によって出力された認識対象の動きに関する時系列情報を取得し、取得した時系列情報から、出力装置300の画面上のマウスカーソルの指示位置を算出する。また、情報処理装置100は、出力装置300の画面に表示された操作対象を選択する選択動作を検出する。そして、情報処理装置100は、選択動作が検出された時刻よりも前の時刻に算出された指示位置を、該選択動作が行われた位置を表す選択位置として算出する。その後、情報処理装置100は、算出した選択位置を出力する。選択位置は、出力装置300に対して出力される。
出力装置300は、PCやテレビジョン受信装置、タブレット端末等の表示装置を有する機器である。かかる出力装置300は、装着型センサ200によって出力された測定値をもとに、画面上のマウスカーソルの移動や操作対象の選択等の操作を認識し、操作の認識に応じて画面の表示を制御する。また、出力装置300は、情報処理装置100によって出力された選択位置をもとに、自装置で認識しているマウスカーソルの指示位置を補正し、補正した指示位置で選択動作に対応する処理を実行する。図1に示した例において、マウスカーソルは矢印で表しており、操作対象は矩形A〜矩形Fで表している。
つまり、出力装置300の画面をジェスチャによって操作する状況において、打指等のジェスチャの検出時に、打指による手のぶれによって選択位置にずれが生じ、ユーザが所望する操作が実現できないことを抑制するために、打指による選択動作が検出された場合に、選択動作が行われたときよりも前の時刻における指示位置を選択位置として採用する。例えば、ジェスチャによっては手がぶれる可能性があり、手がぶれることで、ユーザが操作しようとした位置とは異なる位置でジェスチャが行われたこととして認識される場合があるため、打指等の所定動作が検出された場合に、検出された時刻よりも前の時刻の指示位置で所定動作が行われたこととする。例を挙げると、矩形Cの位置で打指された場合に手のぶれにより矩形Fが選択されることを抑制するために、打指が検出された時刻よりも前の時刻の指示位置(矩形Cの位置)を選択動作に対する選択位置として採用する。換言すると、操作対象をクリックするためにマウスカーソルを移動させ、静止させた状態のときの位置を採用することで、手のぶれによる誤操作を抑制する。
図2は、実施形態1に係る情報処理装置100のハードウェア構成例を示すブロック図である。図2に示すように、情報処理装置100は、CPU(Central Processing Unit)12と、ROM(Read Only Memory)13と、RAM(Random Access Memory)14と、通信部15とを有する。上記各部は、バス11により互いに接続される。
CPU12は、情報処理装置100全体の動作を制御する。CPU12は、RAM14等を作業領域として、ROM13等に記憶されたプログラムを実行することで、情報処理装置100全体の動作を制御する。RAM14は、各種処理に関する情報等を一時的に記憶するとともに、ROM13等に格納されたプログラムの実行時の作業領域として使用される。ROM13は、情報処理装置100による処理を実現するためのプログラムを記憶する。通信部15は、ネットワークを介して、装着型センサ200や出力装置300等の外部装置と通信する。
図3は、実施形態1に係る情報処理装置100の機能構成例を示すブロック図である。図3に示すように、情報処理装置100は、取得部110と、指示位置算出部120と、選択動作検出部130と、選択位置算出部140と、出力部150とを有する。上記各部は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。
取得部110は、認識対象の動きに関する時系列情報を取得する。より具体的には、取得部110は、認識対象の動きに応じて装着型センサ200によって測定された測定値の時系列情報を取得する。例えば、装着型センサ200は、加速度や角速度、地磁気等を測定するための各種センサを有していても良い。認識対象となる特定部位は、ユーザの腕、手首、指、頭、足等である。本実施形態では、ユーザの手首に装着型センサ200を装着する場合を例に挙げる。すなわち、測定値である装着型センサ200の加速度等は、装着型センサ200が装着されたユーザの手の加速度等として利用できる。
指示位置算出部120は、画面上の位置を指示する指示位置を算出する。指示位置とは、マウスカーソル等の指示画像の位置である。より具体的には、指示位置算出部120は、取得部110によって取得された測定値の時系列情報から、装着型センサ200の傾きを算出し、移動するマウスカーソルの相対的な指示位置を算出する。装着型センサ200の傾きは、認識対象であるユーザの手の傾きとして利用できる。
手の3次元的な傾きは、各種センサによって測定された3次元の加速度、角速度、地磁気の測定値をもとに算出することができる。ここで、3次元とは、センサの左右を軸とした上下方向の回転角であるピッチ、上下を軸とした左右方向の回転角であるヨー、センサの前後を軸とした回転角であるロールで表現できるものとする。これらは、装着する位置や角度によって異なるため、例えば、腕時計のように腕に装着し、ユーザから見て上下方向、左右方向、右回り・左回りの回転角になるように算出すれば良い。
図4は、装着型センサ200を装着した特定部位の上下方向の傾きの例を説明する図である。例えば、図4に示すように、ユーザから見て上下方向の手の動きをもとに、下方向(図4に示す「+」の方向)を正として、操作を開始した位置からの相対的な傾きを回転角として算出すれば良い。
図5は、装着型センサ200を装着した特定部位の左右方向の傾きの例を説明する図である。例えば、図5に示すように、ユーザから見て左右方向の手の動きをもとに、右方向(図5に示す「+」の方向)を正として、操作を開始した位置からの相対的な傾きを回転角として算出すれば良い。
図6は、装着型センサ200を装着した特定部位の右回り、左回りの傾きの例を説明する図である。例えば、図6に示すように、ユーザから見て右回り、左回りの手の動きをもとに、右回り(図6に示す「+」の方向)を正として、操作を開始した位置からの相対的な傾きを回転角として算出すれば良い。
選択動作検出部130は、選択動作を検出する。より具体的には、選択動作検出部130は、取得部110によって取得された測定値の時系列情報から、ユーザが打指等のジェスチャを行なったことを検出する。本実施形態において、打指は、出力装置300の画面に表示された操作対象の何れかを選択する選択動作であるものとする。例えば、選択動作である打指が行われたことについては、測定値の時系列情報をもとに、加速度の時間変化や変化量が特定の条件を満たすときに検出するものとする。例を挙げると、選択動作検出部130は、加速度の大きさが所定の閾値以上になった場合や、時間当たりの加速度の変化量の大きさが所定の閾値以上になった場合等に、選択動作である打指が行われたものとして検出する。なお、打指とは、摘むような形で親指と中指とを軽く打ちつけるジェスチャを指す。
加速度はセンサに対して3軸方向でそれぞれの値を取得することができるが、特定の軸の値を利用して打指等のジェスチャを判定しても良い。例えば、ユーザの手首に装着した装着型センサ200から出力された測定値の一つである加速度のうち、図5に示したジェスチャが行われたときの腕に対して垂直上向き方向の加速度を利用しても良い。
図7Aは、打指のジェスチャが行われたときの手首の垂直上方向の加速度の例を示す図である。また、図7Bは、下方向に手を払うジェスチャ(下方向へのフリップ)が行われたときの手首の垂直上方向の加速度の例を示す図である。図7A及び図7Bに示すように、打指のジェスチャは、下方向に手を払うジェスチャと比較して、加速度の波形が検出される時間が短く、急峻な形状となることがわかる。
そこで、以下で説明する第1条件と第2条件とから、選択動作が行われたことを検出しても良い。第1条件は、過去の所定時間の加速度の平均値を基準値として、加速度の変化量が所定の閾値「A1」以上であるという条件である。第2条件は、基準値からの加速度の変化量が最大となる時刻を「Tmax」、所定の時間間隔を「T1」,「T2」として、時刻「Tmax−T2」から時刻「Tmax−T1」までの間と、時刻「Tmax+T1」から時刻「Tmax+T2」までの間とにおける、加速度の変化量が所定の閾値「A2」未満であるという条件である。なお、時間間隔「T1」,「T2」は、「T2>T1」の関係を有する。また、所定の閾値「A1」,「A2」は、「A1>A2」の関係を有する。例えば、所定の閾値「A2」は、「A1」の半分程度、又は半分以下の値をとれば良く、基準値よりも大きい値とする。過去の所定時間は、例えば、100〜300ms(ミリセック)程度の時間である。あまり長い時間における加速度の平均値を基準値とした場合、打指のジェスチャが繰り返し行われた場合の検出が困難になる可能性があるため、ユーザによって適宜変更すると良い。また、「A1」は、例えば「0.5×重力加速度」と定義をしても良いし、打指の動作を初期設定時に行ない、ピークの値をもとに決めても良い。
詳細には、時刻「Tmax−T2」から時刻「Tmax−T1」までの間と、時刻「Tmax+T1」から時刻「Tmax+T2」までの間とは、加速度の変化量が最大となる時刻「Tmax」の前後の時間間隔である。上述したように、打指のジェスチャの波形は、加速度の波形が検出される時間が短く、急峻な形状となる。このため、加速度の変化量が最大となる時刻の前後の波形が、基準値と同様の値となっていれば、打指のジェスチャが行われたものとして検出して良い。第1条件及び第2条件を採用することで、図7Bに示したような下方向に手を払うジェスチャ等の、打指ではないジェスチャが選択動作として検出されることを抑制できる。
また、第1条件及び第2条件に、第3条件をさらに加えても良い。第3条件は、時刻「Tmax」の前後の時間間隔において、手首の位置が一定の範囲におさまるような静止状態であるという条件である。手首の位置が時系列で算出可能な場合には、第3条件をさらに加えて判定することにより、より高精度に選択動作が行われたことを検出することができる。なお、選択動作のジェスチャについては、打指に限られるものではなく、例えば、手を握る(掴む)、手首から先を下に振る、前方に手のひらを押し出す、指を鳴らす等の任意のジェスチャを採用しても良い。
選択位置算出部140は、選択動作が行われた位置を表す選択位置を算出する。より具体的には、選択位置算出部140は、選択動作検出部130によって打指等の選択動作が検出された場合に、選択動作が検出された時刻よりも前の時刻に算出された指示位置を、選択動作に対する選択位置として算出する。出力装置300の画面において、選択したい位置にマウスカーソルを合わせる場合には、ある程度の時間はマウスカーソルの動きが小さくなる。そして、打指等の選択動作が行われる場合には、打指前の振りかぶりや打指後の勢いに伴い、腕がぶれることでマウスカーソルが素早く動く傾向がある。このことから、選択位置算出部140は、打指等の選択動作が検出されると、打指時の腕のぶれが発生していない過去の指示位置を、選択動作に対する選択位置として算出する。例えば、選択位置算出部140は、選択動作検出部130によって選択動作が検出された時刻よりも所定時間だけ前の時刻における指示位置を、選択動作に対する選択位置として算出する。所定時間前の指示位置は、指示位置算出部120によって時系列に算出された指示位置を利用すれば良い。
図8は、実施形態1に係るマウスカーソルの位置変動の例を示す図である。図8において、太線は出力装置300の画面上のマウスカーソルの位置(上下方向の成分)の時間変化を表し、細線は装着型センサ200によって出力された加速度のうち、手首に対して垂直上向きの成分の時間変化を表している。図8に示すように、打指された場合には、急峻な加速度のパターン1001が出現する。このとき、打指によって腕が下に沈み込み、マウスカーソルの位置が下に沈む。パターン1001が検出されると、検出された時点1002でのマウスカーソルの位置1003で選択動作に対する選択位置となってしまう。このため、ユーザが実際にマウスカーソルを合わせたかった位置1004よりも下に移動した位置で選択動作が検出されることになり、誤動作につながる。このような誤動作を抑制するために、選択位置算出部140は、選択動作が検出された時刻よりも所定時間だけ前の時刻における指示位置(例えば、位置1004)を、選択動作に対する選択位置として算出する。
出力部150は、選択位置を出力する。より具体的には、出力部150は、選択位置算出部140によって算出された選択位置を、出力装置300に対して出力する。これにより、出力装置300は、選択位置をもとに、現在の指示位置を選択動作が行われた位置に補正するとともに、選択動作に応じた画面制御を実行する。選択動作に応じた画面制御は、例えば、選択対象の拡大や縮小、選択対象の選択(クリック)による画面遷移等である。
図9は、実施形態1に係る情報処理装置100による処理の流れの例を示すフローチャートである。図9に示すように、情報処理装置100は、装着型センサ200によって測定された測定値の時系列情報を取得する(ステップS101)。そして、情報処理装置100は、取得された測定値の時系列情報から、装着型センサ200の傾きを算出し、出力装置300の画面上を移動するマウスカーソルの相対的な指示位置を算出する(ステップS102)。装着型センサ200がユーザの手首に装着されている場合は、ユーザの手の動きに応じて装着型センサ200によって測定された加速度等が測定値として出力される。すなわち、装着型センサ200の加速度は、ユーザの手の動きに応じた加速度として利用される。
続いて、情報処理装置100は、測定値の時系列情報から、ユーザが打指等の選択動作を行なったことを検出する(ステップS103)。打指は、測定値の時系列情報をもとに、加速度の時間変化や変化量が特定の条件を満たすときに検出される。その後、情報処理装置100は、打指等の選択動作が検出された場合に、選択動作が検出された時刻の所定時間前の指示位置を、選択動作に対する選択位置として算出する(ステップS104)。所定時間前の指示位置は、時系列に算出された指示位置を利用する。そして、情報処理装置100は、算出した選択位置を、出力装置300に対して出力する(ステップS105)。
実施形態によれば、選択動作が検出された時刻の所定時間前の指示位置を、該選択動作に対する選択位置とするので、選択動作が行われた位置をより正確に認識することができる。
(実施形態2)
図10は、実施形態2に係る情報処理装置100aの機能構成例を示すブロック図である。実施形態2では、実施形態1に係る情報処理装置100の機能構成と同様の構成については同一の符号を付し、その詳細な説明を省略する場合がある。具体的には、以下に説明する選択位置算出部140a以外の各部の機能は、実施形態1に係る各部の機能と同様である。なお、実施形態2に係るシステム構成や情報処理装置100aのハードウェア構成は、実施形態1に係るシステム構成や情報処理装置100のハードウェア構成と同様である。
図10に示すように、情報処理装置100aは、取得部110と、指示位置算出部120と、選択動作検出部130と、選択位置算出部140aと、出力部150とを有する。上記各部は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。
選択位置算出部140aは、選択動作が行われた位置を表す選択位置を算出する。より具体的には、選択位置算出部140aは、選択動作検出部130によって選択動作が検出された場合に、選択動作が検出された時刻よりも前の時刻で、認識対象の動きに関する特徴量が閾値未満となる最新の時刻における指示位置を、選択動作に対する選択位置として算出する。ここで、選択動作が検出された時刻よりも前の時刻で、認識対象の動きに関する特徴量が閾値未満となる最新の時刻とは、選択動作が検出された時刻(現在時刻)により近い時刻を指す。上述したように、出力装置300の画面において、選択したい位置にマウスカーソルを合わせる場合には、ある程度の時間はマウスカーソルの動きが小さくなる。また、打指等の選択動作が行われる場合には、打指前の振りかぶりや打指後の勢いに伴い、腕がぶれることでマウスカーソルが素早く動く傾向がある。このことから、選択動作が検出された時刻よりも前の時刻で、動きに関する特徴量が閾値未満となる時刻での指示位置(選択動作に伴って腕がぶれる前の位置)を、選択動作に対する選択位置として算出する。
動きに関する特徴量が閾値未満である箇所は、取得部110によって取得された測定値に含まれる加速度の変化や変動が閾値未満となる場合とすれば良い。例えば、加速度は時系列に得られる値であり、時刻tのときの値をAtとし、ある時刻t0の後にサンプリングされる時刻をt1としたとき、加速度の変化は|At1−At0|となり、変動は所定時間での分散値として良い。また、Atは、そのまま使用するとノイズが含まれる可能性があるため、過去複数フレームで平均した値としても良い。なお、加速度ではなく、角速度や、指示位置算出部120によって算出された認識対象の傾きや位置等を使用しても良い。
上記のほかにも、以下のように、選択動作に対する選択位置を算出するようにしても良い。例えば、選択位置算出部140aは、選択動作検出部130によって選択動作が検出された場合に、選択動作が検出された時刻よりも前の時刻で、認識対象の動きに関する特徴量が所定時間にわたって閾値未満となる箇所を検出する。そして、選択動作検出部130は、所定時間で最新の時刻における指示位置を、選択動作に対する選択位置として算出する。
図11は、実施形態2に係る選択位置の例を説明する図である。図11では、実施形態1で説明したマウスカーソルの位置変動に加えて、上述した所定時間1005と、所定時間1005で最新の時刻における指示位置1006とを追加している。図11に示すように、選択位置算出部140aは、選択動作検出部130によって選択動作が検出された場合に(パターン1001が出現した場合に)、検出された時点1002よりも前の時刻で、太線で表された特徴量が所定時間1005にわたって閾値未満となる箇所を検出する。そして、選択位置算出部140aは、所定時間で最新の時刻における指示位置1006を、選択動作に対する選択位置(位置1004)として算出する。これにより、選択位置算出部140aは、打指によるぶれが発生する直前での位置を、選択動作に対する選択位置として算出する。
図12は、実施形態2に係る情報処理装置100aによる処理の流れの例を示すフローチャートである。なお、図12では、認識対象の動きに関する特徴量が閾値未満となる最新の時刻における指示位置を選択動作に対する選択位置とする場合を例に挙げる。
図12に示すように、情報処理装置100aは、装着型センサ200によって測定された測定値の時系列情報を取得する(ステップS201)。そして、情報処理装置100aは、取得された測定値の時系列情報から、装着型センサ200の傾きを算出し、出力装置300の画面上を移動するマウスカーソルの相対的な指示位置を算出する(ステップS202)。続いて、情報処理装置100aは、測定値の時系列情報から、ユーザが打指等の選択動作を行なったことを検出する(ステップS203)。その後、情報処理装置100aは、打指等の選択動作が検出された場合に、選択動作が検出された時刻よりも前の時刻で、認識対象の動きに関する特徴量が閾値未満となる最新の時刻における指示位置を、選択動作に対する選択位置として算出する(ステップS204)。そして、情報処理装置100aは、算出した選択位置を、出力装置300に対して出力する(ステップS205)。
図13は、実施形態2に係る情報処理装置100aによる処理の流れの例を示すフローチャートである。なお、図13では、認識対象の動きに関する特徴量が所定時間にわたって閾値未満となる箇所での最新の時刻における指示位置を選択動作に対する選択位置とする場合を例に挙げる。
図13に示すように、情報処理装置100aは、装着型センサ200によって測定された測定値の時系列情報を取得する(ステップS301)。そして、情報処理装置100aは、取得された測定値の時系列情報から、装着型センサ200の傾きを算出し、出力装置300の画面上を移動するマウスカーソルの相対的な指示位置を算出する(ステップS302)。続いて、情報処理装置100aは、測定値の時系列情報から、ユーザが打指等の選択動作を行なったことを検出する(ステップS303)。その後、情報処理装置100aは、打指等の選択動作が検出された場合に、選択動作が検出された時刻よりも前の時刻で、認識対象の動きに関する特徴量が所定時間にわたって閾値未満となる箇所での最新の時刻における指示位置を、選択動作に対する選択位置として算出する(ステップS304)。そして、情報処理装置100aは、算出した選択位置を、出力装置300に対して出力する(ステップS305)。
実施形態によれば、選択動作が検出された時刻よりも前の時刻で、認識対象の動きに関する特徴量が閾値未満となる最新の時刻における指示位置を選択動作に対する選択位置として算出するので、選択動作が行われた位置をより正確に認識することができる。また、実施形態によれば、選択動作が検出された時刻よりも前の時刻で、認識対象の動きに関する特徴量が所定時間にわたって閾値未満となる箇所での最新の時刻における指示位置を選択動作に対する選択位置として算出するので、選択動作が行われた位置をより正確に認識することができる。
(実施形態3)
図14は、実施形態3に係る情報処理装置100bの機能構成例を示すブロック図である。実施形態3では、実施形態1に係る情報処理装置100の機能構成と同様の構成については同一の符号を付し、その詳細な説明を省略する場合がある。具体的には、以下に説明する選択動作検出部130b、選択位置算出部140b以外の各部の機能は、実施形態1に係る各部の機能と同様である。なお、実施形態3に係るシステム構成や情報処理装置100bのハードウェア構成は、実施形態1に係るシステム構成や情報処理装置100のハードウェア構成と同様である。
図14に示すように、情報処理装置100bは、取得部110と、指示位置算出部120と、選択動作検出部130bと、選択位置算出部140bと、出力部150とを有する。上記各部は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。
選択動作検出部130bは、選択動作を検出する。より具体的には、選択動作検出部130bは、取得部110によって取得された測定値の時系列情報から、ユーザが手首を捻る動作等のジェスチャを行なったことを検出する。本実施形態において、手首を捻る動作は、出力装置300の画面に表示された操作対象の何れかを選択する選択動作であるものとする。手首を捻る動作は、図6に示したものである。例えば、選択動作である手首を捻る動作については、指示位置算出部120によって算出されたセンサのロール角が閾値以上変化したときに検出するものとする。ここで、手首を捻る動作に伴い、センサ上の位置が変動するため、選択動作が検出された時点では、ユーザが選択しようとした操作対象の位置からずれている可能性がある。
選択位置算出部140bは、選択動作が行われた位置を表す選択位置を算出する。より具体的には、選択位置算出部140bは、選択動作検出部130bによって手首を捻る動作等の選択動作が検出された場合に、選択動作が検出された時刻よりも前の時刻で、ロール角の単位時間あたりの変化量が閾値未満となる最新の時刻における指示位置を、選択動作に対する選択位置として算出する。ここで、選択動作が検出された時刻よりも前の時刻で、ロール角の単位時間あたりの変化量が閾値未満となる最新の時刻とは、選択動作が検出された時刻(現在時刻)により近い時刻を指す。なお、選択位置算出部140bによる処理は、実施形態1と同様であっても良い。
図15は、実施形態3に係る情報処理装置100bによる処理の流れの例を示すフローチャートである。図15に示すように、情報処理装置100bは、装着型センサ200によって測定された測定値の時系列情報を取得する(ステップS401)。そして、情報処理装置100bは、取得された測定値の時系列情報から、装着型センサ200の傾きを算出し、出力装置300の画面上を移動するマウスカーソルの相対的な指示位置を算出する(ステップS402)。続いて、情報処理装置100bは、センサのロール角が閾値以上変化したことに応じて、手首を捻る動作である選択動作を検出する(ステップS403)。その後、情報処理装置100bは、手首を捻る選択動作が検出された時刻よりも前の時刻で、ロール角の単位時間あたりの変化量が閾値未満となる最新の時刻における指示位置を、選択動作に対する選択位置として算出する(ステップS404)。そして、情報処理装置100bは、算出した選択位置を、出力装置300に対して出力する(ステップS405)。
実施形態によれば、手首を捻る動作を選択動作として、センサのロール角が閾値以上変化したときに選択動作を検出し、選択動作が検出された時刻よりも前の時刻で、ロール角の単位時間当たりの変化量が閾値未満となる時刻の指示位置を、選択動作に対する選択位置として算出するので、手のぶれが発生し得る様々な選択動作に対して、選択動作が行われた位置をより正確に認識することができる。
(実施形態4)
図16は、実施形態4に係る認識システム1aのシステム構成例を示す図である。図16に示すように、認識システム1aには、情報処理装置100cと、出力装置300aとが含まれる。認識システム1aにおいて、各装置は、無線又は有線により通信可能である。認識システム1aは、ユーザによる動作であるジェスチャに応じて画面(例えば、出力装置300aの画面)を操作するために用いられる。画面の操作は、出力装置300a等に搭載されたカメラ等の撮像装置を利用して認識されたユーザの特定部位(例えば、手や指等)の動きに応じて、ユーザの手の動きに追従するように画面内のマウスカーソルを動かすように処理し、また、打指又は手を握る動作等によって画面内の操作対象を選択(クリック)するように処理する。これらの他にも、ユーザの手の動きに追従して、操作対象の拡大・縮小、操作対象の移動(ドラッグ)等の各種操作を行なうことができる。図16では、出力装置300aの画面の上部に撮像装置を搭載した例を示しており、撮像装置による撮影範囲を破線で示している。すなわち、実施形態4では、カメラ画像での手の位置を時系列情報として、時系列情報から画面内でのマウスカーソルの位置を算出する。
図17は、実施形態4に係る情報処理装置100cの機能構成例を示すブロック図である。図17に示すように、情報処理装置100cは、取得部110cと、指示位置算出部120cと、選択動作検出部130cと、選択位置算出部140cと、出力部150cとを有する。上記各部は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。
取得部110cは、ユーザの特定部位の位置を時系列で取得する。より具体的には、取得部110cは、出力装置300aのカメラによって撮像された時系列の画像に対して、ユーザの手や指等の特定部位を画像毎に検出して、時系列に追跡することにより、ユーザの特定部位の位置を時系列で取得する。例えば、特定部位の位置は、手や指等の特定部位の検出領域の重心とする。また、取得する特定部位の位置は、画像上で規定されているピクセル位置等の座標で表現しても良いし、検出されたユーザの顔等の部位の位置からの相対座標で表現しても良い。これらのほかにも、ユーザの顔や最初に検出されたある部位のサイズによって正規化した座標値としても良い。また、特定部位の位置は、画像上の位置に限られるものではなく、距離センサや複数の撮像装置から推定された奥行き情報を座標軸の一つとして利用しても良い。また、特定部位は、手や指の他にも、頭、レーザポインタの発光部等でも良い。また、特定部位の位置を取得する取得部110cによる処理は、特開2006−268825号公報で開示されているパターン認識法や、特許第3777650号公報で開示されている背景差分法等を利用して、ユーザの特定部位の位置を時系列で取得しても良い。
また、位置だけでなく、各位置を取得した時刻も保存しても良い。時刻は、出力装置300aや情報処理装置100cの起動時、又は、位置取得の開始時を「0」として、開始時からの経過時間、経過クロック数、経過フレーム数等で表現される。例えば、画像上の(x,y)座標で位置を表現する場合、i番目のフレームで取得した位置(xi,yi)と、取得時の時刻「Ti」とを対応付けて保存する。
図18は、時系列で取得される特定部位の位置の例を示す図である。図18に示すように、特定部位の動きは、「P」、「P」、「P」、「P」、「P」、「P」、「P」、「P」の順に、破線の矢印で表されるように連続した軌跡を辿る。取得部110cでは、撮像によってサンプリングされた離散的な点それぞれとして、「P」〜「P」それぞれの位置が取得される。
指示位置算出部120cは、画面上の位置を指示する指示位置を算出する。より具体的には、指示位置算出部120cは、取得部110cによって取得された特定部位の位置の時系列情報をもとに、画像の所定領域を出力装置300aの画面に対応させることで、画面内でのマウスカーソルの位置を算出する。
選択動作検出部130cは、選択動作を検出する。例えば、ユーザが打指又は手を握る動作を行なうことで選択動作を実現するものとする。より具体的には、選択動作検出部130cは、ユーザの手の形状を認識することで、選択動作のジェスチャが行われたことを検出する。例えば、手の形状の認識は、サポートベクタマシン等の機械学習によって最適化された識別器を用いて、特定の形状(打指又は手を握る)か否かにより識別しても良い。その際、直前のフレームでの手の位置の近傍で様々な大きさの探索領域を設け、所定の閾値以上で上記形状の尤度が出力された場合に、特定形状であると判定して良い。なお、選択動作とする手の形状は、上記のものに限られるものではない。
選択位置算出部140cは、選択動作が行われた位置を表す選択位置を算出する。より具体的には、選択位置算出部140cは、選択動作検出部130cによって打指又は手を握る動作等の選択動作が検出された場合に、選択動作が検出された時刻よりも前の時刻に算出された指示位置を、選択動作に対する選択位置として算出する。選択位置算出部140cによる処理は、上述してきた実施形態と同様で良い。出力装置300aの画面において、選択したい位置にマウスカーソルを合わせる場合には、ある程度の時間はマウスカーソルの動きが小さくなる。また、選択動作を表す手の形状が検出される際には、選択動作検出部130cによって、手の形状の識別器の尤度が高くなる位置で検出されることになるため、その瞬間に手の位置が修正され、マウスカーソルが素早く動く傾向にある。例えば、選択位置算出部140cは、選択動作検出部130cによって選択動作が検出された時刻よりも所定時間だけ前の時刻における指示位置を、選択動作に対する選択位置として算出することで、ぶれる前の指示位置を選択動作に対する選択位置として算出することができる。
出力部150cは、選択位置を出力する。より具体的には、出力部150cは、選択位置算出部140cによって算出された選択位置を、出力装置300aに対して出力する。これにより、出力装置300aは、現在の指示位置を選択動作が行われた選択位置に補正するとともに、選択動作に応じた画面制御を実行する。
図19は、実施形態4に係る情報処理装置100cによる処理の流れの例を示すフローチャートである。図19に示すように、情報処理装置100cは、出力装置300aのカメラによって撮像された時系列の画像に対して、ユーザの特定部位を画像毎に検出し、時系列に追跡することにより、ユーザの特定部位の位置を時系列で取得する(ステップS501)。そして、情報処理装置100cは、取得した特定部位の位置の時系列情報をもとに、画像の所定領域を出力装置300aの画面に対応させることで、画面内のマウスカーソルの位置(指示位置)を算出する(ステップS502)。続いて、情報処理装置100cは、ユーザの手の形状を認識することで、打指等の選択動作が行われたことを検出する(ステップS503)。その後、情報処理装置100cは、選択動作が検出された時刻よりも所定時間だけ前の時刻における指示位置を、選択動作に対する選択位置として算出する(ステップS504)。そして、情報処理装置100cは、算出した選択位置を、出力装置300aに対して出力する(ステップS505)。
実施形態によれば、ユーザの手の動きを撮像した時系列の画像をもとに指示位置を算出し、打指又は手を握る動作等の選択動作を手の形状を認識することで検出し、選択動作が検出された時刻よりも前の時刻に算出された指示位置を、選択動作に対する選択位置として算出するので、カメラを用いてジェスチャを認識する場合においても、選択動作が行われた位置をより正確に認識することができる。
(実施形態5)
図20は、実施形態5に係る認識システム1bのシステム構成例を示す図である。図20に示すように、認識システム1bには、装着型センサ200と、出力装置300bとが含まれる。認識システム1bにおいて、各装置は、無線又は有線により通信可能である。認識システム1bは、ユーザによる動作であるジェスチャに応じて画面(例えば、出力装置300bの画面)を操作するために用いられる。例えば、装着型センサ200をユーザの手(手首)に装着する場合には、ユーザの手の動きに追従するように画面内のマウスカーソルを動かすように処理し、また、打指によって画面内の操作対象を選択(クリック)するように処理する。これらの他にも、ユーザの手の動きに追従して、操作対象の拡大・縮小、操作対象の移動(ドラッグ)等の各種操作を行なうことができる。
装着型センサ200は、ユーザの特定部位に装着して使用されるセンサであり、特定部位の動きに応じて測定される測定値を出力する。本実施形態において、測定値は、出力装置300bに対して出力される。一つの様態として、装着型センサ200は、加速度や角速度、地磁気等を測定するための各種センサを有していても良い。特定部位は、例えば、ユーザの腕、手首、指、頭、足等である。本実施形態では、ユーザの手首に装着型センサ200を装着する場合を例に挙げる。すなわち、測定値である装着型センサ200の加速度等は、装着型センサ200が装着されたユーザの手の加速度等として利用できる。
出力装置300bは、装着型センサ200によって出力された認識対象の動きに関する時系列情報を取得し、取得した時系列情報から、出力装置300bの画面上のマウスカーソルの指示位置を算出する。また、出力装置300bは、出力装置300の画面に表示された操作対象を選択する選択動作を検出する。そして、出力装置300bは、選択動作が検出された時刻よりも前の時刻に算出された指示位置を、該選択動作が行われた位置を表す選択位置として算出する。その後、出力装置300bは、算出した選択位置をもとに、マウスカーソルの指示位置を補正し、補正した位置で選択動作に対する画面制御処理を実行する。すなわち、本実施形態では、情報処理装置100等で実行されていた処理を、出力装置300bで実現する。図20に示した例において、マウスカーソルは矢印で表しており、操作対象は矩形A〜矩形Fで表している。
図21は、実施形態5に係る出力装置300bのハードウェア構成例を示すブロック図である。図21に示すように、出力装置300bは、CPU32と、ROM33と、RAM34と、表示部35と、通信部36とを有する。上記各部は、バス31により互いに接続される。
CPU32は、出力装置300b全体の動作を制御する。CPU32は、RAM34等を作業領域として、ROM33等に記憶されたプログラムを実行することで、出力装置300b全体の動作を制御する。RAM34は、各種処理に関する情報等を一時的に記憶するとともに、ROM33等に格納されたプログラムの実行時の作業領域として使用される。ROM33は、出力装置300bによる処理を実現するためのプログラムを記憶する。表示部35は、液晶ディスプレイ等を備え、各種情報を表示出力する。なお、表示部35は、液晶ディスプレイにタッチパネルを積層した操作パネルや各種操作キー等を備えていても良い。通信部36は、ネットワークを介して、装着型センサ200等の外部装置と通信する。
図22は、実施形態5に係る出力装置300bの機能構成例を示すブロック図である。図22に示すように、出力装置300bは、取得部310と、指示位置算出部320と、選択動作検出部330と、選択位置算出部340と、表示制御部350とを有する。上記各部は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。
取得部310は、認識対象の動きに関する時系列情報を取得する。より具体的には、取得部310は、認識対象の動きに応じて装着型センサ200によって測定された測定値の時系列情報を取得する。
指示位置算出部320は、画面上の位置を指示する指示位置を算出する。より具体的には、指示位置算出部320は、取得部310によって取得された測定値の時系列情報から、装着型センサ200の傾きを算出し、移動するマウスカーソルの指示位置を算出する。装着型センサ200の傾きは、認識対象であるユーザの手の傾きとして利用できる。
例えば、認識対象である特定部位の傾きそれぞれを、上下方向の回転角ピッチを「α」、左右方向の回転角ヨーを「β」、前後を軸とした回転角ロールを「γ」とする。まず、画面領域内の所定の基準点が、特定部位の所定の傾きに対応するように事前に設定しておく。例えば、操作が開始されたときの特定部位の傾き(α,β,γ)が、画面領域内の中央(X,Y)等の所定位置に対応するように設定する。なお、処理を簡易にするために、左右方向の傾き「β」と上下方向の傾き「α」のみを使用して、それぞれが画面領域上のx軸、y軸の変化を表すように変換しても良い。このとき、特定部位の傾きが(β,α)である場合には、上述した画面領域上の点(X,Y)が対応することになる。
また、画面領域内の所定距離が手の傾きの所定の変化量に対応するように設定する。例えば、左右方向の回転角ヨー「β」の「40°」分の変化量を画面領域の横サイズ「L」とし、上下方向の回転角ピッチ「α」の「40°」分の変化量を画面領域の縦サイズ「L」となるように設定する。これにより、特定部位の傾き(β,α)に対して、線形補間により画面領域上の位置(X,Y)を、以下の数式により算出できる。
X=X+L(β−β)/40
Y=Y+L(α−α)/40
装着型センサ200を装着するユーザと画面領域との距離や、ユーザの手が移動可能な範囲等を考慮して各パラメータを設定することにより、装着型センサ200を装着した手でユーザが画面領域を遠隔から指すと、その延長上の位置にマウスカーソルが配置されるようにできる。これにより、ユーザは、遠隔からポインティングできているように感じることができる。
また、画面領域内は「0≦X≦L」,「0≦Y≦L」であり、この画面領域に位置(X,Y)が含まれない場合には、マウスカーソルが画面領域外に位置するものとして、マウスカーソルの表示をしないようにしても良い。また、画面領域に位置(X,Y)が含まれない場合であっても、特定部位の位置が画面領域の端に留まるように、画面領域の中央に対応する特定部位の傾きを(α’,β’,γ’)に更新しても良い。特定部位の位置が画面領域の端に留まるようにすれば、ユーザの手がどの位置にあってもマウスカーソルを見失うことなくポインティングすることができる。
選択動作検出部330は、選択動作を検出する。より具体的には、選択動作検出部330は、取得部310によって取得された測定値の時系列情報から、ユーザが打指等のジェスチャを行なったことを検出する。本実施形態において、打指は、出力装置300bの画面に表示された操作対象の何れかを選択する選択動作であるものとする。例えば、選択動作である打指が行われたことについては、測定値の時系列情報をもとに、加速度の時間変化や変化量が特定の条件を満たすときに検出するものとする。例を挙げると、選択動作検出部330は、加速度の大きさが所定の閾値以上になった場合や、時間当たりの加速度の変化量の大きさが所定の閾値以上になった場合等に、選択動作である打指が行われたものとして検出する。
選択位置算出部340は、選択動作が行われた位置を表す選択位置を算出する。より具体的には、選択位置算出部340は、選択動作検出部330によって打指等の選択動作が検出された場合に、選択動作が検出された時刻よりも前の時刻に算出された指示位置を、選択動作に対する選択位置として算出する。一つの様態として、選択位置算出部340は、選択動作検出部330によって選択動作が検出された時刻よりも所定時間だけ前の時刻における指示位置を、選択動作に対する選択位置として算出する。所定時間前の指示位置は、指示位置算出部320によって時系列に算出された指示位置を利用すれば良い。
表示制御部350は、算出された選択位置をもとに、表示部35に対して画面表示を制御する。より具体的には、表示制御部350は、選択位置算出部340によって算出された選択位置をもとに、現在の指示位置の補正と、選択動作に対する画面表示の制御とを実行する。例えば、選択動作に対する画面表示の制御は、選択された操作対象の拡大・縮小、又は、操作対象が選択されたことによる画面遷移等の処理となる。
図23は、実施形態5に係る出力装置300bによる処理の流れの例を示すフローチャートである。図23に示すように、出力装置300bは、装着型センサ200によって測定された測定値の時系列情報を取得する(ステップS601)。そして、出力装置300bは、取得された測定値の時系列情報から、装着型センサ200の傾きを算出し、出力装置300bの画面上を移動するマウスカーソルの指示位置を算出する(ステップS602)。続いて、出力装置300bは、測定値の時系列情報から、ユーザが打指等の選択動作を行なったことを検出する(ステップS603)。その後、出力装置300bは、打指等の選択動作が検出された場合に、選択動作が検出された時刻の所定時間前の指示位置を、選択動作に対する選択位置として算出する(ステップS604)。そして、出力装置300bは、算出した選択位置をもとに、現在の指示位置を補正し、選択動作に対する画面の表示制御を実行する(ステップS605)。
実施形態によれば、選択動作が検出された時刻の所定時間前の指示位置を、該選択動作に対する選択位置とし、選択位置をもとに、現在の指示位置の補正と、選択動作に対する画面表示の制御とを実行するので、選択動作が行われた位置をより正確に認識することができる。また、実施形態によれば、選択動作が行われた位置をより正確に認識し、より正確な位置で画面制御処理を実行するので、手のぶれ等を起因とする誤操作を抑制することができる。
上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメータ等を含む情報は、特記する場合を除いて任意に変更することができる。また、図示した装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況等に応じて、任意の単位で機能的又は物理的に、分散又は統合することができる。
例えば、情報処理装置100に係る機能を、装着型センサ200に実行させ、装着型センサ200が選択位置を出力装置300に対して出力するようにしても良い。また、装着型センサ200を装着した複数のユーザによって出力装置300の画面操作を行なう場合には、装着型センサ200に備え付けのスイッチ又は起動した順等により事前にIDを割り当て、IDが最初に割り当てられたユーザのみが操作できるようにしても良い。また、各ユーザに対応したマウスカーソルを表示し、各ユーザが操作できるようにしても良い。このとき、同一の操作対象を複数ユーザが操作しようとしたときには、操作対象に対して最初に選択をしたユーザのみが操作できるようにしても良い。
また、装着型センサ200を両腕に装着する等して、1のユーザが複数の装着型センサ200を装着して操作する場合には、ペアリング等により各ユーザの装着した装着型センサ200を認識するようにしても良い。操作については、各センサでそれぞれ操作できるようにしても良いし、何れか一つのセンサだけを操作可能としても良い。また、複数のセンサの融合により操作を実現しても良い。例えば、複数のセンサの融合により、2のセンサの相対的な距離変化によってピンチインやピンチアウトを実現することができる。
また、上記実施形態では、加速度の大きさが閾値以上になった場合や、時間当たりの加速度の変化量の大きさが閾値以上になった場合に、選択動作である打指が行われたものとして検出し、選択動作が検出された時刻よりも所定時間前の時刻の指示位置を選択動作に対する選択位置とする場合を例に挙げた。このほかにも、選択動作である打指の加速度パターン(図7A参照)を認識し、打指の加速度パターンが開始される時刻よりも前の時刻で、上述してきたように選択位置を算出するようにしても良い。
また、選択動作のジェスチャとして、打指や手首を捻る動作、手を握る動作等を例に挙げたが、装着型センサ200に搭載されたスイッチが押下されたことを選択動作の一つとしても良い。装着型センサ200に搭載されたスイッチが押下されると、上述してきた選択動作時と同様に、スイッチ押下に伴う勢いで腕のぶれが発生する。このため、上述した実施形態と同様に、選択位置を算出することが有用となる。
また、上記実施形態では、装着型センサ200のセンサの傾きを算出し、移動するマウスカーソルの相対的な指示位置を算出する場合を例に挙げたが、センサの傾きを算出することなく、加速度のみから指示位置を算出するようにしても良い。加速度を累積して指示位置を算出すれば良く、例えば、センサの動きに応じて得られる加速度を2回積分することによって指示位置を算出する。このとき、所定のアプリ開始時刻において指示位置を操作画面中央に設定し、そこからの加速度変動に応じて指示位置を変化させるようにすれば良い。
また、上記実施形態に係る情報処理装置100や出力装置300は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることで実現することが可能である。実行されるプログラムは、上述してきた各機能を含むモジュール構成となっている。また、実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供しても、ROM等に予め組み込んで提供しても良い。
また、上述した実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、各実施形態は、内容を矛盾させない範囲で適宜組み合わせることが可能である。また、各実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 認識システム
100 情報処理装置
110 取得部
120 指示位置算出部
130 選択動作検出部
140 選択位置算出部
150 出力部
200 装着型センサ
300 出力装置

Claims (11)

  1. 認識対象の動きに関する時系列情報を取得する取得部と、
    取得された前記時系列情報から、画面上の位置を指示する指示位置を算出する指示位置算出部と、
    画面に表示された操作対象を選択する選択動作を検出する選択動作検出部と、
    前記選択動作が検出された時刻よりも前の時刻に算出された前記指示位置を、該選択動作が行われた位置を表す選択位置として算出する選択位置算出部と、
    算出された前記選択位置を出力する出力部と
    を有する情報処理装置。
  2. 前記選択位置算出部は、前記選択動作が検出された時刻から所定時間前の前記指示位置を、該選択動作に対する前記選択位置として算出する請求項1に記載の情報処理装置。
  3. 前記選択位置算出部は、前記選択動作が検出された時刻よりも前の時刻で、前記認識対象の動きに関する特徴量が閾値未満となる時刻での前記指示位置を、該選択動作に対する前記選択位置として算出する請求項1に記載の情報処理装置。
  4. 前記選択位置算出部は、前記選択動作が検出された時刻よりも前の時刻で、前記時系列情報の変化又は変動が閾値未満となる時刻での前記指示位置を、該選択動作に対する前記選択位置として算出する請求項1に記載の情報処理装置。
  5. 前記選択位置算出部は、前記選択動作が検出された時刻よりも前の時刻で、前記認識対象の傾きの変化又は変動が閾値未満となる時刻での前記指示位置を、該選択動作に対する前記選択位置として算出する請求項1に記載の情報処理装置。
  6. 前記選択位置算出部は、前記選択動作が検出された時刻よりも前の時刻で、前記認識対象の位置の変化又は変動が閾値未満となる時刻での前記指示位置を、該選択動作に対する前記選択位置として算出する請求項1に記載の情報処理装置。
  7. 前記選択位置算出部は、前記選択動作が検出された時刻よりも前の時刻で、所定時間にわたって前記認識対象の傾きの変化又は変動が閾値未満となる時刻での前記指示位置を、該選択動作に対する前記選択位置として算出する請求項1に記載の情報処理装置。
  8. 前記選択位置算出部は、前記選択動作が検出された時刻よりも前の時刻で、所定時間にわたって前記認識対象の位置の分散が閾値未満となる時刻での前記指示位置を、該選択動作に対する前記選択位置として算出する請求項1に記載の情報処理装置。
  9. 前記指示位置算出部は、前記時系列情報から得られた前記認識対象の傾きから前記指示位置を算出する請求項1〜8の何れか一つに記載の情報処理装置。
  10. 前記指示位置算出部は、前記時系列情報から得られた前記認識対象の加速度を累積して前記指示位置を算出する請求項1〜8の何れか一つに記載の情報処理装置。
  11. 認識対象の動きに関する時系列情報を取得する取得部と、
    取得された前記時系列情報から、画面上の位置を指示する指示位置を算出する指示位置算出部と、
    画面に表示された操作対象を選択する選択動作を検出する選択動作検出部と、
    前記選択動作が検出された時刻よりも前の時刻に算出された前記指示位置を、該選択動作が行われた位置を表す選択位置として算出する選択位置算出部と、
    算出された前記選択位置をもとに、表示部に対する画面表示を制御する表示制御部と
    を有する出力装置。
JP2016044098A 2016-03-08 2016-03-08 情報処理装置及び出力装置 Pending JP2017162054A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044098A JP2017162054A (ja) 2016-03-08 2016-03-08 情報処理装置及び出力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044098A JP2017162054A (ja) 2016-03-08 2016-03-08 情報処理装置及び出力装置

Publications (1)

Publication Number Publication Date
JP2017162054A true JP2017162054A (ja) 2017-09-14

Family

ID=59856809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044098A Pending JP2017162054A (ja) 2016-03-08 2016-03-08 情報処理装置及び出力装置

Country Status (1)

Country Link
JP (1) JP2017162054A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066110A (ja) * 2018-10-25 2020-04-30 国立大学法人千葉大学 作業補助器具の制御方法
JP2021008011A (ja) * 2019-07-02 2021-01-28 三菱電機株式会社 加工検査装置、加工検査システム、加工検査方法およびプログラム
JP2022026251A (ja) * 2020-07-30 2022-02-10 株式会社ジンズホールディングス プログラム、情報処理方法、及び情報処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157217A (ja) * 2008-12-04 2010-07-15 Seiko Epson Corp ポインティングデバイス、データ処理装置およびデータ処理システム
JP2011257899A (ja) * 2010-06-08 2011-12-22 Pioneer Electronic Corp タッチパネル入力装置
JP2015026141A (ja) * 2013-07-24 2015-02-05 船井電機株式会社 情報処理装置、及び情報処理方法
JP2015099574A (ja) * 2013-11-20 2015-05-28 株式会社東芝 認識装置、認識方法、認識プログラム及び端末装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157217A (ja) * 2008-12-04 2010-07-15 Seiko Epson Corp ポインティングデバイス、データ処理装置およびデータ処理システム
JP2011257899A (ja) * 2010-06-08 2011-12-22 Pioneer Electronic Corp タッチパネル入力装置
JP2015026141A (ja) * 2013-07-24 2015-02-05 船井電機株式会社 情報処理装置、及び情報処理方法
JP2015099574A (ja) * 2013-11-20 2015-05-28 株式会社東芝 認識装置、認識方法、認識プログラム及び端末装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066110A (ja) * 2018-10-25 2020-04-30 国立大学法人千葉大学 作業補助器具の制御方法
JP2021008011A (ja) * 2019-07-02 2021-01-28 三菱電機株式会社 加工検査装置、加工検査システム、加工検査方法およびプログラム
JP7292133B2 (ja) 2019-07-02 2023-06-16 三菱電機株式会社 加工検査装置、加工検査システム、加工検査方法およびプログラム
JP2022026251A (ja) * 2020-07-30 2022-02-10 株式会社ジンズホールディングス プログラム、情報処理方法、及び情報処理装置

Similar Documents

Publication Publication Date Title
US9134800B2 (en) Gesture input device and gesture input method
JP6524661B2 (ja) 入力支援方法、入力支援プログラムおよび入力支援装置
US9916015B2 (en) Recognition device, recognition method, and non-transitory recording medium
KR100855471B1 (ko) 입력 장치 및 상기 입력 장치의 이동 정보를 제공하는 방법
US20150138075A1 (en) Recognition device, recognition method, computer program product, and terminal device
US9538147B2 (en) Method and system for determining proper positioning of an object
US10140002B2 (en) Information processing apparatus, information processing method, and program
EP2927634A2 (en) Single-camera ranging method and system
KR20150053955A (ko) 대화형 디스플레이 시스템에서의 절대적 및 상대적 위치결정 센서 융합
EP3021206B1 (en) Method and device for refocusing multiple depth intervals, and electronic device
JP6204686B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置、および、情報処理の実行方法
JP2017162054A (ja) 情報処理装置及び出力装置
KR101365083B1 (ko) 모션 인식을 통한 인터페이스 장치 및 이의 제어방법
CN113867562B (zh) 触摸屏报点的校正方法、装置和电子设备
US20180373392A1 (en) Information processing device and information processing method
JP5766956B2 (ja) ジェスチャ入力装置
CN107957781B (zh) 信息显示方法及装置
JP5080409B2 (ja) 情報端末装置
JP2016194798A (ja) 情報処理装置、情報処理方法、およびプログラム
US9354706B2 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and method of calculating designated position
TW201523347A (zh) 手持式指向裝置以及其游標定位方法
JP2017187944A (ja) 情報処理装置、指示位置の決定方法、コンピュータプログラム、及び記憶媒体
JP2017215263A (ja) 位置検出方法及び位置検出システム
JP2021148709A (ja) 計測装置、計測方法およびプログラム
CN117891343A (zh) 用于对输入设备的输入进行消抖的方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190514