JP5413673B2 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP5413673B2
JP5413673B2 JP2010050630A JP2010050630A JP5413673B2 JP 5413673 B2 JP5413673 B2 JP 5413673B2 JP 2010050630 A JP2010050630 A JP 2010050630A JP 2010050630 A JP2010050630 A JP 2010050630A JP 5413673 B2 JP5413673 B2 JP 5413673B2
Authority
JP
Japan
Prior art keywords
gesture
application
information
recognized
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010050630A
Other languages
English (en)
Other versions
JP2011186730A5 (ja
JP2011186730A (ja
Inventor
脩 繁田
卓郎 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010050630A priority Critical patent/JP5413673B2/ja
Priority to US13/015,120 priority patent/US9229533B2/en
Priority to EP11153336.0A priority patent/EP2365422B1/en
Priority to KR1020110017885A priority patent/KR20110102173A/ko
Priority to RU2011107930/08A priority patent/RU2011107930A/ru
Priority to CN201110051064.0A priority patent/CN102193627B/zh
Priority to BRPI1101065-7A priority patent/BRPI1101065A2/pt
Publication of JP2011186730A publication Critical patent/JP2011186730A/ja
Publication of JP2011186730A5 publication Critical patent/JP2011186730A5/ja
Application granted granted Critical
Publication of JP5413673B2 publication Critical patent/JP5413673B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は情報処理装置および方法、並びにプログラムに関し、特に、バックグラウンドで実行されているアプリケーションをジェスチャに基づいて操作するようにした情報処理装置および方法、並びにプログラムに関する。
カメラ付きのパーソナルコンピュータや携帯端末において、ユーザのジェスチャを認識してアプリケーションを制御する技術が提案されている。
図1は、従来のジェスチャに基づいてアプリケーションを操作するパーソナルコンピュータ221の例を示している。
図1のパーソナルコンピュータ221においては、ディスプレイ222上にコントローラ241が表示されているとともに、カメラ223により撮像されたミラー画像242が表示されている。
ユーザの手261がカメラ223により認識され、コントローラ241上の各ボタンが、ユーザの手261の位置および形状に基づいて選択される。この選択によりディスプレイ222上に画像243を表示させているアプリケーションが制御される。
また特許文献1には、ペンデバイスやマウスデバイスのジェスチャ入力一覧表を、操作開始後一定時間入力がない場合、またはジェスチャ入力に失敗した場合に表示することで、ユーザがジェスチャコマンドを覚えられるようにする情報処理装置が提案されている。
特開2008−282092号公報
しかしながら、従来の手法でジェスチャにより制御されるのは、ディスプレイ222の前面(フォアグラウンド)に表示されている画像のアプリケーションである。
従って従来の手法では、制御対象のアプリケーションの画像をディスプレイ222の前面(フォアグラウンド)に表示してからでなければ、ジェスチャに基づきそのアプリケーションを制御することができなかった。
本発明は、このような状況に鑑みてなされたものであり、ディスプレイの前面に表示されていないアプリケーションをジェスチャに基づいて操作できるようにするものである。
本発明の一側面の情報処理装置は、ユーザのジェスチャを検出する検出手段と、前記検出手段により検出された前記ジェスチャの種類を認識する認識手段と、第1のアプリケーションと第2のアプリケーションの動作を制御する制御手段と、前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力手段と、前記認識手段により認識された前記ジェスチャが存在するかを判定する判定手段とを備え、前記制御手段がフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識手段により前記ジェスチャが認識された場合、前記制御手段は、前記認識手段により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御し、前記制御手段は、前記第1のアプリケーションの情報が出力されている通常モードにおいて、前記判定手段により認識された前記ジェスチャが存在しないと判定された場合、前記通常モードから前記ジェスチャの操作情報を前記ユーザにフィードバックするフィードバックモードに切り替える
前記判定手段により認識された前記ジェスチャが存在しないと判定された場合、前記ジェスチャの種類を類推する類推手段をさらに備え、前記制御手段は、前記出力手段に、前記類推手段により類推された前記ジェスチャの種類に対応する前記ジェスチャを学習するためのフィードバック情報を出力させることができる。
前記フィードバック情報は、類推された前記ジェスチャの動画またはアニメーションである。
前記制御手段は、前記ユーザが所定のジェスチャの操作を実行した場合、前記通常モードと前記フィードバックモードとを切り替えることができる。
前記出力手段は、前記フィードバックモードにおいて、前記操作情報として、前記検出手段による検出時に撮像された前記ユーザのミラー画像、および前記ジェスチャの一覧を出力することができる。
前記出力手段は、前記通常モードにおいて、前記ジェスチャに基づいて前記第2のアプリケーションの動作が制御された場合、前記ジェスチャに基づく制御結果に対応する情報を所定時間出力する。
前記出力手段は、前記ジェスチャに基づく制御結果に対応する情報として音声情報を出力することができる。
前記出力手段は、前記フィードバックモードに切り替えられた場合、前記第1のアプリケーションの画像の上に、前記フィードバックモードの画像を半透明に重ねて表示することができる。
前記出力手段は、前記フィードバックモードに切り替えられた場合、前記フィードバックモードの画像を前記第1のアプリケーションの画像の一部の領域に表示することができる。
本発明の一側面の情報処理方法は、ユーザのジェスチャを検出する検出ステップと、前記検出ステップの処理により検出された前記ジェスチャの種類を認識する認識ステップと、第1のアプリケーションと第2のアプリケーションの動作を制御する制御ステップと、前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力ステップと、前記認識ステップの処理により認識された前記ジェスチャが存在するかを判定する判定ステップとを含み、前記制御ステップの処理によりフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識ステップの処理により前記ジェスチャが認識された場合、前記制御ステップの処理は、前記認識ステップの処理により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御し、前記制御ステップの処理は、前記第1のアプリケーションの情報が出力されている通常モードにおいて、前記判定ステップの処理により認識された前記ジェスチャが存在しないと判定された場合、前記通常モードから前記ジェスチャの操作情報を前記ユーザにフィードバックするフィードバックモードに切り替える
本発明の一側面のプログラムは、ユーザのジェスチャを検出する検出ステップと、前記検出ステップの処理により検出された前記ジェスチャの種類を認識する認識ステップと、第1のアプリケーションと第2のアプリケーションの動作を制御する制御ステップと、前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力ステップと、前記認識ステップの処理により認識された前記ジェスチャが存在するかを判定する判定ステップとをコンピュータに実行させるプログラムであって、前記制御ステップの処理によりフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識ステップの処理により前記ジェスチャが認識された場合、前記制御ステップの処理は、前記認識ステップの処理により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御し、前記制御ステップの処理は、前記第1のアプリケーションの情報が出力されている通常モードにおいて、前記判定ステップの処理により認識された前記ジェスチャが存在しないと判定された場合、前記通常モードから前記ジェスチャの操作情報を前記ユーザにフィードバックするフィードバックモードに切り替える
本発明の一側面においては、ユーザのジェスチャが検出され、検出されたジェスチャの種類が認識され、第1のアプリケーションと第2のアプリケーションの動作が制御される。第1のアプリケーションまたは第2のアプリケーションの情報が出力され、認識されたジェスチャが存在するかが判定される。フォアグラウンドで第1のアプリケーションの動作が制御されている時に、ジェスチャが認識された場合、認識されたジェスチャの種類に基づいて、第1のアプリケーションのバックグラウンドで動作している第2のアプリケーションの動作が制御される。また、第1のアプリケーションの情報が出力されている通常モードにおいて、判定ステップの処理により認識されたジェスチャが存在しないと判定された場合、通常モードからジェスチャの操作情報をユーザにフィードバックするフィードバックモードに切り替えられる
本発明の側面によれば、バックグラウンドで動作するアプリケーションの動作を、ジェスチャに基づいて容易に制御することが可能になる。
従来のジェスチャリモコンによる操作を説明する図である。 パーソナルコンピュータの外観の構成を示す図である。 本発明を適用したパーソナルコンピュータのハードウェアの構成例を示すブロック図である。 CPUの機能的構成例を示すブロック図である。 通常モードの表示例を示す図である。 ジェスチャコマンド入力処理を説明するフローチャートである。 通常モードの表示例を示す図である。 ジェスチャコマンドと操作内容の関係を示す図である。 入力方法提示処理を説明するフローチャートである。 フィードバックモードの表示例を示す図である。 入力方法の提示の表示例を示す図である。 入力方法の提示の表示例を示す図である。 ジェスチャコマンドと表示内容の関係を示す図である。 通常モードの表示例を示す図である。 通常モードの他の表示例を示す図である。 フィードバックモードの他の表示例を示す図である。 フィードバックモードの他の表示例を示す図である。
図2は、本発明が適用されるパーソナルコンピュータ1の一実施形態としての構成例を示す図である。
図2のパーソナルコンピュータ1は、本体13と、カメラ11が装着されているディスプレイ12から構成されている。カメラ11は、単眼カメラ、ステレオカメラ、赤外線カメラ等の静止画または動画を撮像する。
ユーザ2が手3を用いて3次元空間でジェスチャを行った場合、その画像がカメラ11により撮像される。撮像された画像に基づいてジェスチャが認識され、認識されたジェスチャの種類に対応する制御が実行される。これにより、ユーザ2は、ディスプレイ12に表示されている画像のアプリケーションではなく、すなわちフォアグラウンドで動作しているアプリケーションではなく、バックグラウンドで動作しているアプリケーションを制御することができる。
[パーソナルコンピュータの構成]
図3は、パーソナルコンピュータ1のハードウェアの構成例を示すブロック図である。
コンピュータ1において、CPU22,ROM(Read Only Memory)23,RAM(Random Access Memory)24は、バス25により相互に接続されている。バス25には、さらに、入出力インタフェース26が接続されている。入出力インタフェース26には、Webカメラなどよりなるカメラ11、キーボード、タッチパネル、タッチパッド、ペンデバイス、マウス、マイクロフォンなどよりなる入力部27、ディスプレイ12、スピーカ(図示せず)などよりなる出力部21、ハードディスクや不揮発性のメモリなどよりなる記憶部28が接続されている。さらに、入出力インタフェース26には、ネットワークインタフェースなどよりなる通信部29、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア31を駆動するドライブ30が接続されている。
以上のように構成されるパーソナルコンピュータ1では、CPU22が、例えば、記憶部28に記憶されているプログラムを、入出力インタフェース26及びバス25を介して、RAM24にロードして実行することにより、上述した一連の処理が行われる。パーソナルコンピュータ1(CPU22)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)であるリムーバブルメディア31に記録して提供される。プログラムは、パッケージメディアであるリムーバブルメディア31に記録して提供される。なお、パッケージメディアとしては、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどが用いられる。あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。そして、プログラムは、リムーバブルメディア31をドライブ30に装着することにより、入出力インタフェース26を介して、記憶部28にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部29で受信し、記憶部28にインストールすることができる。その他、プログラムは、ROM23や記憶部28に、あらかじめインストールしておくことができる。
なお、パーソナルコンピュータ1が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
図4は、CPU22の機能的構成例を示すブロック図である。
CPU22は、取得部41、検出部42、判定部43、算出部44、出力部45、認識部46、制御部47、類推部48、および記憶部49から構成されている。なお、CPU22の各ブロックは、必要に応じて相互に信号を授受することが可能とされている。
CPU22の取得部41は、カメラ11、入力部27、または記憶部28から情報を取得する。検出手段としての検出部42は、カメラ11により撮像された画像から手の領域を検出する。判定手段としての判定部43は、処理が所定の条件を満たしているかを判定する。算出部44は、検出された手の領域の重心位置等を算出する。出力手段としての出力部45は、ディスプレイ12に情報を出力する。認識手段としての認識部46は、ジェスチャコマンドを認識する。制御手段としての制御部47は、アプリケーションの動作を制御する。類推手段としての類推部48は、ジェスチャコマンドを類推する。記憶部49は、取得部41が入力部27から取得した情報を記憶部28に記憶する。
[通常モード]
本発明を実行するパーソナルコンピュータ1は、通常モードとフィードバックモードで各アプリケーションを制御する。通常モードは、ユーザにより選択されたアプリケーションの画像を表示するモードである。フィードバックモードは、ジェスチャの操作情報をユーザにフィードバックするモードである。
図5は、通常モードの表示例を示す図である。図5に示されるように、通常モードでは、ディスプレイ12にフォアグラウンドで動作する第1のアプリケーションとしてのウェブブラウザによる画像61(以下、必要に応じてウェブブラウザ61と簡略して記載する)が出力部45により表示されている。
そしてバックグラウンドでは第2のアプリケーションとして音楽プレイヤが動作している。第1のアプリケーションの動作は、キーボード、マウス、タッチパネル、タッチパッド、ペンデバイス等のユーザが指で直接触れて行われる操作に基づき制御される。
これに対して、第2のアプリケーションの動作は、ユーザが手を3次元空間で移動して行うジェスチャの操作に基づき制御される。
図5の例では、ウェブブラウザ61上にバックグラウンドで動作している音楽プレイヤに選択されている曲のタイトル62が表示されている。なお、タイトル62は表示しないようにしてもよい。
[ジェスチャコマンド入力処理]
図5に示された通常モードの状態で、ユーザによりジェスチャが入力されたときのジェスチャコマンド入力処理を図6に示す。
図6は、ユーザから取得したジェスチャを認識し、認識されたジェスチャの種類をジェスチャコマンドとして入力するジェスチャコマンド入力処理を説明するフローチャートである。
このジェスチャコマンド入力処理は、図5に示されるように、フォアグラウンドで所定のアプリケーション(例えばウェブブラウザ)が動作している状態において、バックグラウンドで他のアプリケーション(例えば音楽プレイヤ)が動作しているときに実行される。
ステップS1において、取得部41は、カメラ11により撮像された画像を取得する。すなわち画像がキャプチャされ、その時の時刻情報としてタイムスタンプも取得される。取得部41は一度に複数枚の画像を取得する。取得される画像は、カメラ11から取得した画像そのものでもよいし、編集された画像、例えば濃淡画像などでもよい。
ステップS2において、検出部42は、取得された画像から手の領域を検出する。手の領域としては、例えば、取得された複数枚の画像間の差分領域が検出される。すなわち、背景画像は静止しているので、2枚の画像のその部分の画素値の差は零または充分小さくなる。それに対して手は動くのでその部分の画素値の差は充分大きな値となる。差分値が所定の閾値以上である範囲を、手の領域として検出することができる。
ステップS3において、判定部43は、ステップS2において検出された手の領域が存在するかを判定する。すなわち、選択された画像と所定時間以上前の画像、例えば100ms以上前に撮像された画像とを比較し、画素値の差分が閾値以上である領域の大きさが基準の範囲内となる領域が存在するかが判定される。所定時間以上前の画像であるかどうかはタイムスタンプに基づいて判定される。
ステップS3において、手の領域が存在しないと判定された場合、すなわち画素値の差分が閾値以上である領域の大きさが基準の範囲より大きいか、または小さいと判定された場合、処理はステップS1に戻る。
ステップS3において、手の領域が存在すると判定された場合、すなわち画素値の差分が閾値以上である領域の大きさが基準の範囲内であると判定された場合、ステップS4において、算出部44は、検出された手の領域の重心位置を算出する。
なお、ステップS2の処理により検出された手の領域が複数存在する場合、算出部44は、1つの領域を選択して選択された領域の重心位置を算出してもよいし、検出された手の領域のそれぞれに対して重心位置を算出するようにしてもよい。
ステップS5において、出力部45は、算出された手の領域の重心位置の軌跡をディスプレイ12に出力する。ディスプレイ12に手の領域の重心位置の軌跡を表示した例を図7に示す。
図7は、通常モードにおいて、ユーザの手の領域の軌跡を表示する例を示す図である。図7の例には、ディスプレイ12に手の領域の軌跡81が表示されている。
図7の軌跡81は、ジェスチャコマンド「左フリック」、つまりユーザにより画面の右側から左側に向かって手をはじくジェスチャが入力された場合の軌跡の例である。
この例において、軌跡81は、図6のステップS4で算出された重心位置を中心とした円の図形の移動として描かれる。そして軌跡81の各移動位置の円の図形は所定時間表示され、所定時間経過後に消える。
なお軌跡81の円の図形の大きさは、時間の経過、手の領域の大きさ、または手の領域の移動速度に応じて大小に変更することもできる。例えば、時間が経過するにつれて円の図形の大きさが大きくなり、所定の大きさになった後に円の図形が小さくなってから消えるようにしてもよい。
軌跡81は、円の図形の他、1本の曲線、その他、ユーザの手の動きを表すもので表現することができる。
このように軌跡81を所定時間表示することで、ユーザはウェブブラウザ61の作業を大きく阻害されることなく、ジェスチャの確認をすることができる。
なお、軌跡81は、フィードバックモード時においてのみ表示するようにし、通常モード時においては表示しないようにすることもできる。その場合、フォアグラウンドで動作しているアプリケーションの画像が軌跡81により見難しくなることが防止される。
図6に戻り、ステップS5の軌跡の出力処理の後、ステップS6において、認識部46は、手の領域の重心位置の軌跡に基づいてジェスチャコマンドを認識する。すなわち、ジェスチャの種類が認識される。認識されるジェスチャコマンドの例を図8に示す。
図8は、ジェスチャコマンドとジェスチャコマンドに対応する操作内容の関係を示す制御テーブルである。制御テーブルは予め記憶部28に記憶されている。ジェスチャコマンドとジェスチャコマンドに対応する操作内容の例を説明する。
図7を参照して上述したように、ジェスチャコマンドとして「左フリック」が入力されると、制御部47は、音楽プレイヤの現在選択されている曲を次の曲に変更する。
「右フリック」は、画面の左側から右側に向かって手をはじくジェスチャである。ジェスチャコマンドとして「右フリック」が入力されると、制御部47は、音楽プレイヤの現在選択されている曲を前の曲に変更する。
「手をかざす」は、カメラ11の前に手を所定時間留めておくジェスチャである。ジェスチャコマンドとして「手をかざす」が入力されると、制御部47は、音楽プレイヤが現在再生している曲を停止するか、または停止している曲を再生する。曲の再生音は出力手段としての出力部21を構成するスピーカから出力される。
「時計回りに二重丸を描く」は、手で時計回りに2回円を描くジェスチャである。ジェスチャコマンドとして「時計回りに二重丸を描く」が入力されると、制御部47は、音楽プレイヤにより現在選択されている曲をお気に入りとして登録する。
「反時計回りに二重丸を描く」は、手で反時計回りに2回円を描くジェスチャである。ジェスチャコマンドとして「反時計回りに二重丸を描く」が入力されると、制御部47は、音楽プレイヤにより現在選択されている曲をお気に入りから解除する。
「手を振る」は、カメラ11の前で手を左右に数回移動させるジェスチャである。ジェスチャコマンドとして「手を振る」が入力されると、制御部47は、モードの切り替えを行う。
すなわち、現在のモードが通常モードである場合、フィードバックモードに切り替えが行なわれ、現在のモードがフィードバックモードである場合、通常モードに切り替えが行なわれる。フィードバックモードについては、図10参照して後述する。
「手を振る」動作はジェスチャが認識されなかった場合、すなわちフィードバック情報をユーザに提供する必要がある場合に、ユーザが自然に行うジェスチャである。従って「手を振る」ジェスチャをモードの切り替えに対応付けておくことで、フィードバック情報をユーザにより容易に提供することが可能になる。
勿論、例えば両手でカーテンを開けるように、手が重なった状態から左右に「手を開く」ジェスチャ等をモード切り替えに対応づけることもできる。
「手を上下に動かす」は、カメラ11の前で手を上下に数回移動させるジェスチャである。ジェスチャコマンドとして「手を上下に動かす」が入力されると、制御部47は、音楽プレイヤ内に記録されている曲をランダムに1つ選択する。
このようにユーザのジェスチャが認識されると、ジェスチャコマンドが入力され、ジェスチャコマンドに対応する処理が実行される。なお、ジェスチャコマンドとジェスチャコマンドに対応する処理は、図8に示した例に限られない。
図6に戻り、ステップS7において、判定部43は、認識されたジェスチャコマンドが存在するかを判定する。すなわち、認識されたジェスチャコマンドが図8の制御テーブルのジェスチャコマンドと一致するかが判定される。
ステップS7において、認識されたジェスチャコマンドが存在しないと判定された場合、すなわち、認識されたジェスチャコマンドが図8の制御テーブルのジェスチャコマンドと一致しないと判定された場合、ステップS8において、入力方法提示処理が実行される。入力方法提示処理の詳細を図9に示す。
[入力方法提示処理]
図9は、図6のステップS8の入力方法提示処理の詳細を説明するフローチャートである。入力方法提示処理は、ユーザが入力したジェスチャが認識されなかった場合に、ユーザにジェスチャの入力方法を学習させる処理である。
ステップS31において、判定部43は、現在のモードがフィードバックモードであるかを判定する。フィードバックモードの詳細について図10に示す。
[フィードバックモード]
図10は、フィードバックモードにおける表示例を示す図である。フィードバックモードにおいては、ジェスチャの操作情報として、少なくともミラー画像とジェスチャコマンド一覧表が表示される。
図10のフィードバックモードの表示例では、表示部12上に軌跡81、ミラー画像82、ジェスチャコマンド一覧表83、ジェスチャコマンド84(具体的には84−1乃至84−6)、ジャケット写真85(具体的には85−1乃至85−7)、歌手名86−2、および曲名87−2が表示されている。
フィードバックモードでは、カメラ11により撮像されたユーザの画像に画像処理を施したミラー画像82が背景に表示されている。ミラー画像とは、画像の左右を反転させた画像である。すなわちユーザが右手を動かしたとき、ミラー画像に表示されているユーザ71の画像では、左の手72が動かされる。ユーザの左手が動かされると、ミラー画像82では、右手が動かされる。
このようにミラー画像82を表示させることで、ユーザが手でジェスチャを入力する動きと、表示部12に表示されるユーザ71の手72の動きが対応するので、ユーザはジェスチャによる操作を容易に確認することができる。
なお、ミラー画像82の代わりに、手、体、顔、動き等が検出された領域を表示したり、または、ミラー画像82にさらに他の画像処理を施した画像を表示することもできる。
ミラー画像82に他の画像処理を施した画像とは、例えば、モノクロームやセピアのように画像の色を変えた画像、顔や体のパーツを認識してパーツに対応するアバターに変更した画像、または鉛筆のスケッチや絵画風の画像などである。
画像処理を施すことにより、顔が直接表示されることを不快に思うユーザが、快適に操作を行うことができる。
ジェスチャコマンド一覧表83には、ユーザが入力することができるジェスチャの一覧、すなわちジェスチャコマンド84−1乃至84−6が表示されている。
ジェスチャコマンド84−1乃至84−6には、それぞれのジェスチャに対する簡単な入力方法、すなわち、手の動かし方および操作内容が示されている。
ジェスチャコマンド84−1の画像は、図8の制御テーブルのジェスチャコマンド「左フリック」を示している。ジェスチャコマンド84−1の「next」は、操作内容の「次の曲に変更」を示している。
ジェスチャコマンド84−2の画像は、制御テーブルのジェスチャコマンド「右フリック」を示している。ジェスチャコマンド84−2の「previous」は、操作内容の「の曲に変更」を示している。
ジェスチャコマンド84−3の画像は、制御テーブルのジェスチャコマンド「手をかざす」を示している。ジェスチャコマンド84−3の「play_stop」は、操作内容の「再生・停止の切替」を示している。
ジェスチャコマンド84−4の画像は、制御テーブルのジェスチャコマンド「時計回りに二重丸を描く」を示している。ジェスチャコマンド84−4の「thumbup」は、操作内容の「お気に入りの登録」を示している。
ジェスチャコマンド84−5の画像は、制御テーブルのジェスチャコマンド「手を上下に動かす」を示している。ジェスチャコマンド84−5の「shuffle」は、操作内容の「曲をランダムに選択」を示している。
ジェスチャコマンド84−6の画像は、制御テーブルのジェスチャコマンド「手を振る」を示している。ジェスチャコマンド84−6の「switchmode」は、操作内容の「モードの切替」を示している。
このようにジェスチャコマンド一覧表83には、ジェスチャとジェスチャに対応する操作を簡単に示したジェスチャコマンド84が表示されるので、ユーザはジェスチャの種類と対応する操作内容を容易に確認することができる。
ジャケット写真85の画像としては、音楽プレイヤに記憶されているそれぞれの曲に対応するジャケット画像が表示される。
ジャケット写真85−1乃至85−7のうち、ジャケット写真85−2が現在選択されている曲のジャケットを示している。現在選択されているジャケット写真85−2の画像は、選択されていることがわかるように、例えば、上下に揺らされたり、選択されていないジャケットより大きくされる。
歌手名86−2としての表示「redtallon」は、現在選択されているジャケット写真85−2の曲の歌手名である。現在選択されている曲名87−2「青春の森」は、現在選択されているジャケット写真85−2の曲の曲名である。
このようにフィードバックモードを表示することで、ユーザはジェスチャの入力操作の確認、ジェスチャが認識されない原因の確認、ジェスチャの種類と操作内容の確認、および音楽プレイヤなど対応するアプリケーションの動作の確認をすることができる。
図9に戻り、ステップS31において、現在のモードがフィードバックモードでないと判定された場合、すなわち、現在のモードが通常モードであると判定された場合、ステップS32において、制御部47は、通常モードをフィードバックモードに切り替える。
ステップS31において、現在のモードがフィードバックモードであると判定された場合、またはステップS32の処理が実行された後、処理はステップS33に進む。
ステップS33において、類推部48は、図6のステップS4の処理により算出された手の領域の重心位置の軌跡に基づいてジェスチャコマンドを類推する。
すなわち、図6のステップS6のジェスチャコマンドを認識する処理と同様の処理が実行され、さらにジェスチャコマンドに対する尤もらしさ(尤度)が算出され、評価されることでジェスチャコマンドが類推される。
例えば、ユーザが「円」を描くジェスチャをしたとき、類推部48は、「円」の尤もらしさを算出する。
そして、類推部48は、評価する処理として、尤もらしさが所定の閾値以上、例えば60%以上であるかを判定する。ユーザが描いた「円」の尤もらしさが、例えば80%である場合、類推部48は、ユーザのジェスチャを「円」と類推する。
ステップS34において、判定部43は、類推されたジェスチャコマンドが存在するかを判定する。すなわち、ジェスチャの尤もらしさが所定の閾値以上であるかを判定する。
ステップS34において、類推されたジェスチャコマンドが存在すると判定された場合、すなわち、ジェスチャの尤もらしさが所定の閾値以上であると判定された場合、ステップS35において、出力部45は、ジェスチャコマンドの入力方法を出力する。
ジェスチャを学習するためのフィードバック情報としてのジェスチャコマンドの入力方法を出力する例を、図11と図12に示す。
[ジェスチャコマンドの入力方法の提示]
図11は、フィードバックモードにおいて、動画を用いてジェスチャコマンドの入力方法を出力する例を示している。図12は、フィードバックモードにおいて、アニメーションを用いてジェスチャコマンドの入力方法を出力する例を示している。
ジェスチャコマンドの入力方法の出力として、動画(図11)とアニメーション(図12)のどちらを出力するかは、ユーザによって予め設定される。記憶部49は、設定された入力方法を記憶部28に記憶する。
そしてステップS35の処理が実行されるとき、ユーザにより設定された入力方法が記憶部28から読み出される。
図11には、ミラー画像82の左上に入力方法提示ウィンドウ101が表示されている。なお、入力方法提示ウィンドウ101の表示位置は、フィードバックモードの表示領域内であれば左上に限られない。
入力方法提示ウィンドウ101には、ジェスチャの指示者121、指示者の手122、およびジェスチャを学習するためのジェスチャ指示線123が表示されている。
ジェスチャ指示線123は、「円」を描くジェスチャを学習するための入力方法を示している。指示者121がジェスチャ指示線123に従って手122を動かす動画を再生することでユーザにジェスチャの入力方法を提示する。
ユーザの操作はミラー画像82に表示されているので、ユーザはミラー画像82の手72と軌跡81の動きと、入力方法提示ウィンドウ101の動画を同時に確認しながらジェスチャの入力方法を学習することができる。
入力方法を提示するための学習用の動画は、ジェスチャの種類ごとに予め記憶部28に記憶されている。出力される学習用の動画は、図9のステップS33により類推されたジェスチャ、またはユーザにより任意に選択されたジェスチャに基づいて決定される。
なお、図11の入力方法提示ウィンドウ101では、表示させる画像を画像処理してミラー画像が表示されてもよい。
図12には、ミラー画像82上にアニメーション141とアニメーションの軌跡142が表示されている。
アニメーションの軌跡142は、「円」を描くジェスチャを学習するための入力方法を示している。アニメーション141はアニメーションの軌跡142に沿って移動する。
アニメーション141およびアニメーションの軌跡142がミラー画像82上に表示されるので、ユーザはアニメーション141に従って手72を動かすことでジェスチャの入力方法を学習することができる。図12においては、ユーザが手72をアニメーションの軌跡142に沿って移動したことによる軌跡81も表示されている。
入力方法を提示するためのアニメーションも、学習用の動画と同様に、ジェスチャの種類ごとに予め記憶部28に記憶されている。出力されるアニメーションは、図9のステップS33により類推されたジェスチャ、またはユーザにより任意に選択されたジェスチャに基づいて決定される。
図9に戻り、ステップS34において、類推されたジェスチャコマンドが存在しないと判定された場合、すなわち、ジェスチャの尤もらしさが所定の閾値未満であると判定された場合、またはステップS35の処理の後、入力方法提示処理は終了し、処理は図6のステップS1に戻る。
このように入力方法提示処理により、ユーザはジェスチャによる入力が失敗したとき、すなわちジェスチャを入力しても所望の動作が実行されないとき、ジェスチャが認識されなかった原因を確認できるとともに、解決方法として正しいジェスチャコマンドの入力方法を学習することができる。
以上においては、通常モードにおいて、ジェスチャコマンドが認識できない場合、自動的にフィードバックモードに切り替えて(ステップS32)、ジェスチャコマンドの類推処理(ステップS33)を実行するようにした。この他、ジェスチャコマンドの類推を実行して、ジェスチャコマンドの類推ができた場合(ステップS34の処理においてYESと判定された場合)にのみ、フィードバックモードに自動的に切り替える(ステップS32)ようにしてもよい。
図6に戻り、ステップS7において、認識されたジェスチャコマンドが存在すると判定された場合、すなわち、認識されたジェスチャコマンドが図8の制御テーブルに記載されているジェスチャコマンドのいずれかに一致すると判定された場合、ステップS9において、判定部43は、ジェスチャコマンドが「手を振る」と認識されたかを判定する。
ステップS9において、ジェスチャコマンドが「手を振る」と認識された場合、すなわちユーザによりモードの切り替えの処理が指示された場合、ステップS10において、判定部43は、現在のモードが通常モードであるかを判定する。
ステップS10において、現在のモードが通常モードであると判定された場合、ステップS11において、制御部47は、モードをフィードバックモードに切り替える。
ステップS10において、現在のモードが通常モードでないと判定された場合、すなわち現在のモードがフィードバックモードであると判定された場合、ステップS12において、制御部47は、モードを通常モードに切り替える。
なお、フィードバックモードから通常モードへの切り替えは、ジェスチャが正しく認識されたとき、自動的に行うようにすることもできる。
一方、ステップS9において、ジェスチャコマンドが「手を振る」と認識されなかった場合、すなわちユーザによりモード切り替え以外の処理が指示された場合、ステップS13において、制御部47は、ジェスチャコマンドに対応する処理を実行する。
ジェスチャコマンドに対応する処理とは、図8の制御テーブルに記載されている操作内容を実行する処理である。具体的な例の説明は、図8を参照して上述したので省略するが、例えば再生が指示された場合、曲が出力部21のスピーカから出力される。
ステップS14において、判定部43は、現在のモードが通常モードであるかを判定する。
ステップS14において、現在のモードが通常モードであると判定された場合、ステップS15において、出力部45は、ジェスチャコマンドの制御結果に対応する情報を一定時間、ディスプレイ12に出力する。ジェスチャコマンドに対応する表示内容の例を図13に示す。
図13は、ジェスチャコマンドとジェスチャコマンドに対応する表示内容の関係を示す表示テーブルを示す図である。なお図8の制御テーブルと図13の表示テーブルは、まとめて1つのテーブルとして管理してもよい。
ジェスチャコマンドとして「左フリック」が入力されると、出力部45は、曲リストを1つ左側に移動する。「左フリック」が入力された場合の通常モードの表示例を図14に示す。
図14は、通常モードにおいて、ジェスチャコマンドとして「左フリック」が入力された場合の表示例を示す図である。図14は、図10に示されている状態、すなわちジャケット写真85−2の曲が選択されている状態から、「左フリック」が2回行われた状態を示している。
すなわち図14の例は、図10に示されているジャケット写真85−1乃至85−7のそれぞれが2つ左側に移動し、ジャケット写真85−4の曲が選択されている状態を示している。
また「左フリック」が2回行われることにより、画面左側に表示されていたジャケット写真85−1,85−2は表示されなくなり、画面右側に新たにジャケット写真85−8,85−9が表示される。
図13に戻り、ジェスチャコマンドとして「右フリック」が入力されると、出力部45は、曲リストを1つ右側に移動する。
すなわち図14の状態で「右フリック」が入力されると、ジャケット写真85−3乃至85−9のそれぞれが1つ右側に移動された画像が出力される。またジャケット写真85−9は表示されなくなり、図10に示されているジャケット写真85−2が図14のジャケット写真85−3の位置に表示される。
ジェスチャコマンドとして「手をかざす」が入力されると、出力部45は、ディスプレイ12の画面領域内に再生または停止のアイコンを表示する。
ジェスチャコマンドとして「時計回りに二重丸を描く」が入力されると、出力部45は、ジャケット写真85にお気に入りを示すアイコンを表示する。図14のジャケット写真85−4の右上に表示されているお気に入りマーク88−4がお気に入りを示すアイコンである。
ジェスチャコマンドとして「反時計回りに二重丸を描く」が入力されると、出力部45は、ジャケット写真85上にお気に入りを示すアイコンの表示を削除する。すなわち図14のお気に入りマーク88−4の表示が消去される。
ジェスチャコマンドとして「手を上下に動かす」が入力されると、出力部45には、ランダムに選択された曲のジャケット写真85−21、歌手名86−21、および曲名87−21(いずれも図示せず)が、図14のジャケット写真85−4、歌手名86−4、および曲名87−4の位置のそれぞれに表示される。
さらに、その前後の曲のジャケット写真85−20,85−22乃至85−26が図14のジャケット写真85−3,85−5乃至85−9の代わりに表示される。
このようにジェスチャコマンドに対応する処理が実行されると、ウェブブラウザ61の上にジェスチャコマンドに対応する情報が表示される。なおジェスチャコマンドとジェスチャコマンドに対応する表示内容は、図13の例に限られない。
また図6のステップS15の処理として、出力部45は、音声や効果音などの音声情報を出力してもよい。音声情報として出力部45は、例えばジェスチャコマンド「左フリック」が入力された場合、「次の曲」、「next」といった操作の名称、ジェスチャコマンドの名称等の音声、または、風切り音、かき混ぜる音などの効果音を再生する。
出力部45は、ステップS15の処理において、図13の表示テーブルの表示内容に対応する表示画像と音声情報のいずれか一方のみを出力してもよいし、表示画像と音声情報の両方を出力してもよい。
なお表示画像は、通常モードにおいて、一定時間経過後に消去される。これにより、表示画像がユーザのウェブブラウザ61の作業を大きく阻害することが抑制される。例えば、ウェブブラウザ61の画像の表示領域の一部にジェスチャコマンドに対応するアイコンを表示したり、ウェブブラウザ61の画像上に表示画像を半透明にして表示してもよい。
ステップS14において、現在のモードが通常モードでないと判定された場合、すなわち現在のモードがフィードバックモードであると判定された場合、ステップS16において、出力部45は、ジェスチャコマンドの制御結果に対応する情報を出力する。
ステップS16の処理において出力される情報は、ステップS15の処理において出力される情報と同様である。
ステップS11,S12,S15,S16の処理の後、処理はステップS1に戻り、同様の処理が繰り返される。
このようにユーザは、フォアグラウンドで動作しているアプリケーションを見ながら、バックグラウンドで動作するアプリケーションをジェスチャに基づいて操作できる。またユーザは、バックグラウンドで動作するアプリケーションのジェスチャに基づく操作結果を、フォアグラウンドで動作するアプリケーションの作業を阻害せずに確認することができる。
[通常モードの他の表示例]
図15は、通常モードの他の表示例を示す図である。図15は、ジェスチャとして手の形状を認識して、バックグラウンドで動作するアプリケーションの動作を制御する例を示している。図15の手の近傍領域161は、図7に示された軌跡81の代わりに表示される。
すなわち、この処理は、図6のステップS4において、算出部44が、手の領域の重心位置を算出する代わりに、手の形状を算出し、ステップS5において、出力部45が、手の領域の重心位置の軌跡81を出力する代わりに、手の近傍領域161を出力することにより実行される。
ユーザの手の形状は、例えばグー、パー、サムアップ(親指を立てる)などである。これらのジェスチャを認識してバックグラウンドで動作するアプリケーションの動作を制御することもできる。
[フィードバックモードの他の表示例]
図16と図17は、フィードバックモードの他の表示例を示す図である。
図16は、フィードバックモードの画像を通常モードの画像(図5)の上に半透明に重ねて出力する例を示す図である。図16の例では、簡単のためフィードバックモードの画像として半透明のミラー画像181のみが表示されている。
このように通常モードの画像の上に半透明のフィードバックモードの画像を重ねて表示することで、ユーザは、ウェブブラウザ61などのアプリケーションを表示させた状態でジェスチャの操作をフィードバックすることができる。
図17は、フィードバックモードの画像(図10)を通常モードの画像(図5)の一部の領域に出力する例を示す図である。図17の例では、フィードバックウィンドウ201がウェブブラウザ61の表示領域の右下の領域に出力されている。
フィードバックウィンドウ201内の表示は、図10に示したフィードバックモードの画像と同様である。
なお軌跡81は、通常モードとフィードバックモードのいずれかにおいても出力されるが、図17の例のようにフィードバックモードの画像を通常モードの画像の一部の領域に出力する場合、どちらか一方の画像にのみ軌跡81を表示するようにしてもよい。図17の例では、フィードバックモードの画像にのみ軌跡81が表示されている。
なお、第1のアプリケーションおよび第2のアプリケーションは、ウェブブラウザおよび音楽プレイヤに限られない。
以上の実施形態では、音楽プレイヤがバックグラウンドで動作しているので、音楽プレイヤがジェスチャコマンドに基づいて操作されるが、ウェブブラウザがバックグラウンドで動作している場合、ウェブブラウザがジェスチャコマンドに基づいて操作される。
勿論、バックグラウンドで動作している特定のアプリケーション(例えば、音楽プレイヤ)のみが、ジェスチャコマンドに基づいて操作されるようにしてもよい。
1 パーソナルコンピュータ, 11 カメラ, 12 ディスプレイ, 13 CPU, 42 検出部, 43 判定部, 45 出力部, 46 認識部, 47 制御部, 48 類推部

Claims (11)

  1. ユーザのジェスチャを検出する検出手段と、
    前記検出手段により検出された前記ジェスチャの種類を認識する認識手段と、
    第1のアプリケーションと第2のアプリケーションの動作を制御する制御手段と、
    前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力手段と
    前記認識手段により認識された前記ジェスチャが存在するかを判定する判定手段と
    を備え、
    前記制御手段がフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識手段により前記ジェスチャが認識された場合、前記制御手段は、前記認識手段により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御し、
    前記制御手段は、前記第1のアプリケーションの情報が出力されている通常モードにおいて、前記判定手段により認識された前記ジェスチャが存在しないと判定された場合、前記通常モードから前記ジェスチャの操作情報を前記ユーザにフィードバックするフィードバックモードに切り替える
    情報処理装置。
  2. 前記判定手段により認識された前記ジェスチャが存在しないと判定された場合、前記ジェスチャの種類を類推する類推手段をさらに備え、
    前記制御手段は、前記出力手段に、前記類推手段により類推された前記ジェスチャの種類に対応する前記ジェスチャを学習するためのフィードバック情報を出力させる
    請求項に記載の情報処理装置。
  3. 前記フィードバック情報は、類推された前記ジェスチャの動画またはアニメーションである
    請求項に記載の情報処理装置。
  4. 前記制御手段は、前記ユーザが所定のジェスチャの操作を実行した場合、前記通常モードと前記フィードバックモードとを切り替える
    請求項に記載の情報処理装置。
  5. 前記出力手段は、前記フィードバックモードにおいて、前記操作情報として、前記検出手段による検出時に撮像された前記ユーザのミラー画像、および前記ジェスチャの一覧を出力する
    請求項に記載の情報処理装置。
  6. 前記出力手段は、前記通常モードにおいて、前記ジェスチャに基づいて前記第2のアプリケーションの動作が制御された場合、前記ジェスチャに基づく制御結果に対応する情報を所定時間出力する
    請求項に記載の情報処理装置。
  7. 前記出力手段は、前記ジェスチャに基づく制御結果に対応する情報として音声情報を出力する
    請求項に記載の情報処理装置。
  8. 前記出力手段は、前記フィードバックモードに切り替えられた場合、前記第1のアプリケーションの画像の上に、前記フィードバックモードの画像を半透明に重ねて表示する
    請求項に記載の情報処理装置。
  9. 前記出力手段は、前記フィードバックモードに切り替えられた場合、前記フィードバックモードの画像を前記第1のアプリケーションの画像の一部の領域に表示する
    請求項に記載の情報処理装置。
  10. ユーザのジェスチャを検出する検出ステップと、
    前記検出ステップの処理により検出された前記ジェスチャの種類を認識する認識ステップと、
    第1のアプリケーションと第2のアプリケーションの動作を制御する制御ステップと、
    前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力ステップと
    前記認識ステップの処理により認識された前記ジェスチャが存在するかを判定する判定ステップと
    を含み、
    前記制御ステップの処理によりフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識ステップの処理により前記ジェスチャが認識された場合、前記制御ステップの処理は、前記認識ステップの処理により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御し、
    前記制御ステップの処理は、前記第1のアプリケーションの情報が出力されている通常モードにおいて、前記判定ステップの処理により認識された前記ジェスチャが存在しないと判定された場合、前記通常モードから前記ジェスチャの操作情報を前記ユーザにフィードバックするフィードバックモードに切り替える
    情報処理方法。
  11. ユーザのジェスチャを検出する検出ステップと、
    前記検出ステップの処理により検出された前記ジェスチャの種類を認識する認識ステップと、
    第1のアプリケーションと第2のアプリケーションの動作を制御する制御ステップと、
    前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力ステップと
    前記認識ステップの処理により認識された前記ジェスチャが存在するかを判定する判定ステップと
    をコンピュータに実行させるプログラムであって、
    前記制御ステップの処理によりフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識ステップの処理により前記ジェスチャが認識された場合、前記制御ステップの処理は、前記認識ステップの処理により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御し、
    前記制御ステップの処理は、前記第1のアプリケーションの情報が出力されている通常モードにおいて、前記判定ステップの処理により認識された前記ジェスチャが存在しないと判定された場合、前記通常モードから前記ジェスチャの操作情報を前記ユーザにフィードバックするフィードバックモードに切り替える
    プログラム。
JP2010050630A 2010-03-08 2010-03-08 情報処理装置および方法、並びにプログラム Expired - Fee Related JP5413673B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010050630A JP5413673B2 (ja) 2010-03-08 2010-03-08 情報処理装置および方法、並びにプログラム
US13/015,120 US9229533B2 (en) 2010-03-08 2011-01-27 Information processing apparatus, method, and program for gesture recognition and control
EP11153336.0A EP2365422B1 (en) 2010-03-08 2011-02-04 Information processing apparatus controlled by hand gestures and corresponding method and program
KR1020110017885A KR20110102173A (ko) 2010-03-08 2011-02-28 정보 처리 장치 및 방법, 및 프로그램
RU2011107930/08A RU2011107930A (ru) 2010-03-08 2011-03-01 Устройство и способ обработки информации и программа
CN201110051064.0A CN102193627B (zh) 2010-03-08 2011-03-01 信息处理装置和方法
BRPI1101065-7A BRPI1101065A2 (pt) 2010-03-08 2011-03-01 aparelho e mÉtodo de processamento de informaÇço, e, programa

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010050630A JP5413673B2 (ja) 2010-03-08 2010-03-08 情報処理装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2011186730A JP2011186730A (ja) 2011-09-22
JP2011186730A5 JP2011186730A5 (ja) 2013-03-14
JP5413673B2 true JP5413673B2 (ja) 2014-02-12

Family

ID=43877270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010050630A Expired - Fee Related JP5413673B2 (ja) 2010-03-08 2010-03-08 情報処理装置および方法、並びにプログラム

Country Status (7)

Country Link
US (1) US9229533B2 (ja)
EP (1) EP2365422B1 (ja)
JP (1) JP5413673B2 (ja)
KR (1) KR20110102173A (ja)
CN (1) CN102193627B (ja)
BR (1) BRPI1101065A2 (ja)
RU (1) RU2011107930A (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US20120224040A1 (en) * 2011-03-03 2012-09-06 Hand Held Products, Inc. Imager reader with hand gesture interface
US8386619B2 (en) 2011-03-23 2013-02-26 Color Labs, Inc. Sharing content among a group of devices
TWI466021B (zh) * 2011-05-24 2014-12-21 Asustek Comp Inc 電腦系統及其控制方法
US20120304067A1 (en) * 2011-05-25 2012-11-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling user interface using sound recognition
US8621019B2 (en) 2011-09-21 2013-12-31 Color Labs, Inc. Live content sharing within a social networking environment
JP2013084233A (ja) * 2011-09-28 2013-05-09 Kyocera Corp 装置、方法、及びプログラム
JP5581292B2 (ja) * 2011-09-30 2014-08-27 楽天株式会社 検索装置、検索方法、記録媒体、ならびに、プログラム
US8847881B2 (en) 2011-11-18 2014-09-30 Sony Corporation Gesture and voice recognition for control of a device
JP6243112B2 (ja) 2011-12-09 2017-12-06 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
JP5715977B2 (ja) * 2012-03-05 2015-05-13 東芝テック株式会社 操作支援表示装置およびプログラム
JP2013196482A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 入力ユーザーインターフェイス装置、投影装置、プログラム及びコマンド決定方法
TWI476706B (zh) * 2012-04-30 2015-03-11 Pixart Imaging Inc 偵測物件移動輸出命令的方法及其系統
US20130293454A1 (en) * 2012-05-04 2013-11-07 Samsung Electronics Co. Ltd. Terminal and method for controlling the same based on spatial interaction
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
US20130335587A1 (en) * 2012-06-14 2013-12-19 Sony Mobile Communications, Inc. Terminal device and image capturing method
US9098111B2 (en) * 2012-06-22 2015-08-04 Microsoft Technology Licensing, Llc Focus guidance within a three-dimensional interface
US9684398B1 (en) 2012-08-06 2017-06-20 Google Inc. Executing a default action on a touchscreen device
JP5565886B2 (ja) 2012-08-17 2014-08-06 Necシステムテクノロジー株式会社 入力装置、入力方法、及びプログラム
KR101947034B1 (ko) * 2012-08-21 2019-04-25 삼성전자 주식회사 휴대 기기의 입력 장치 및 방법
JP2014085967A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
JP2014085964A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理方法、情報処理装置、及びプログラム
JP2014085965A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
CN103941966B (zh) * 2013-01-21 2017-12-26 联想(北京)有限公司 应用控制的方法及电子设备
JP6002058B2 (ja) * 2013-02-22 2016-10-05 株式会社東芝 画像処理装置、方法、及びプログラム
JP6104639B2 (ja) 2013-03-01 2017-03-29 東芝メディカルシステムズ株式会社 X線診断装置
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US9436287B2 (en) 2013-03-15 2016-09-06 Qualcomm Incorporated Systems and methods for switching processing modes using gestures
US20140282272A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Interactive Inputs for a Background Task
US20140325418A1 (en) * 2013-04-30 2014-10-30 Microsoft Corporation Automatically manipulating visualized data based on interactivity
KR102089447B1 (ko) 2013-06-04 2020-03-16 삼성전자 주식회사 전자 기기 및 그의 애플리케이션 제어 방법
JP5747366B1 (ja) * 2013-07-22 2015-07-15 オリンパス株式会社 医療用携帯端末装置
US9832452B1 (en) 2013-08-12 2017-11-28 Amazon Technologies, Inc. Robust user detection and tracking
US11199906B1 (en) * 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US20150139483A1 (en) * 2013-11-15 2015-05-21 David Shen Interactive Controls For Operating Devices and Systems
KR20150072719A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 디스플레이장치 및 그 제어방법
US10057483B2 (en) * 2014-02-12 2018-08-21 Lg Electronics Inc. Mobile terminal and method thereof
CN103955274B (zh) * 2014-04-21 2017-09-01 小米科技有限责任公司 应用控制方法和装置
US10013160B2 (en) * 2014-05-29 2018-07-03 International Business Machines Corporation Detecting input based on multiple gestures
US10782787B2 (en) * 2014-06-06 2020-09-22 Adobe Inc. Mirroring touch gestures
JP6379822B2 (ja) * 2014-08-01 2018-08-29 ヤマハ株式会社 入力装置及び電子機器
USD768186S1 (en) * 2015-05-01 2016-10-04 Microsoft Corporation Display screen with graphical user interface
USD769928S1 (en) * 2015-05-01 2016-10-25 Microsoft Corporation Display screen with animated graphical user interface
US10332297B1 (en) * 2015-09-04 2019-06-25 Vishal Vadodaria Electronic note graphical user interface having interactive intelligent agent and specific note processing features
US10881713B2 (en) * 2015-10-28 2021-01-05 Atheer, Inc. Method and apparatus for interface control with prompt and feedback
JP6607115B2 (ja) * 2016-03-25 2019-11-20 三菱自動車工業株式会社 タッチパネル装置
DE102018208866A1 (de) * 2018-06-06 2019-12-12 Audi Ag Verfahren zum Erkennen einer Eingabe
CN109240494B (zh) * 2018-08-23 2023-09-12 京东方科技集团股份有限公司 电子显示板的控制方法、计算机可读存储介质和控制系统
CN109885231B (zh) * 2019-02-27 2021-07-02 北京市商汤科技开发有限公司 显示方法及装置、电子设备及存储介质
JP2021033967A (ja) * 2019-08-29 2021-03-01 アルパイン株式会社 タッチパネル付表示装置
US20220036678A1 (en) * 2020-07-31 2022-02-03 Viraat Authentication Systems Inc. Systems, devices and methods of collecting information via touchless technology to control access to physical spaces
CN113849093A (zh) * 2021-09-28 2021-12-28 联想(北京)有限公司 一种控制方法、装置及电子设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748974A (en) * 1994-12-13 1998-05-05 International Business Machines Corporation Multimodal natural language interface for cross-application tasks
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
JP2001202174A (ja) * 2000-01-21 2001-07-27 Canon Inc 画像表示装置、方法および記憶媒体
US20030001908A1 (en) * 2001-06-29 2003-01-02 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on speech and gesture control
US7886236B2 (en) * 2003-03-28 2011-02-08 Microsoft Corporation Dynamic feedback for gestures
EP1639439A2 (en) * 2003-06-13 2006-03-29 The University Of Lancaster User interface
US7365737B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Non-uniform gesture precision
EP1645944B1 (en) * 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
US8147248B2 (en) * 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
JP2007109118A (ja) * 2005-10-17 2007-04-26 Hitachi Ltd 入力指示処理装置および入力指示処理プログラム
US8549442B2 (en) * 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
US7783983B1 (en) * 2006-04-13 2010-08-24 Emc Corporation User interface for controls
EP2071436B1 (en) * 2006-09-28 2019-01-09 Kyocera Corporation Portable terminal and method for controlling the same
JP2008140101A (ja) * 2006-12-01 2008-06-19 Advanced Telecommunication Research Institute International 無制約、リアルタイム、かつマーカ不使用の手トラッキング装置
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
JP2008282092A (ja) 2007-05-08 2008-11-20 Canon Inc ジェスチャーコマンドを覚えながら操作できる情報処理装置
US8060063B1 (en) * 2007-09-07 2011-11-15 Sprint Communications Company L.P. Presenting messages on a mobile device that is currently presenting other media content
JP2009089068A (ja) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd 電子機器の制御装置、制御方法及び制御プログラム
US9545571B2 (en) * 2008-01-25 2017-01-17 Nintendo Co., Ltd. Methods and apparatus for a video game magic system
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
JP4591798B2 (ja) * 2008-10-23 2010-12-01 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
KR101019335B1 (ko) * 2008-11-11 2011-03-07 주식회사 팬택 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8817125B2 (en) * 2009-06-25 2014-08-26 Koninklijke Philips N.V. Gesture recognition using chroma-keying

Also Published As

Publication number Publication date
KR20110102173A (ko) 2011-09-16
EP2365422B1 (en) 2019-01-02
EP2365422A2 (en) 2011-09-14
CN102193627A (zh) 2011-09-21
EP2365422A3 (en) 2015-01-21
JP2011186730A (ja) 2011-09-22
RU2011107930A (ru) 2012-09-10
BRPI1101065A2 (pt) 2012-08-07
CN102193627B (zh) 2015-11-25
US9229533B2 (en) 2016-01-05
US20110216075A1 (en) 2011-09-08

Similar Documents

Publication Publication Date Title
JP5413673B2 (ja) 情報処理装置および方法、並びにプログラム
US10592198B2 (en) Audio recording/playback device
KR102245736B1 (ko) 미디어 콘텐츠 내비게이션을 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US20200057506A1 (en) Systems and Methods for User Generated Content Authoring
US20120306879A1 (en) Information processing apparatus, information processing method, and program
US9761277B2 (en) Playback state control by position change detection
JP6509516B2 (ja) 電子機器、方法及びプログラム
KR20140025494A (ko) 에지 제스처 기법
KR20140025493A (ko) 에지 제스처 기법
JP2013539578A (ja) コンテンツ再生方法及び装置
EP3465405B1 (en) Slow motion video playback method for computing devices with touch interfaces
KR102134882B1 (ko) 컨텐츠 재생을 제어하기 위한 방법 및 장치
KR101366150B1 (ko) 동영상 재생속도 제어 사용자 인터페이싱 방법 및 그 방법을 실행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체
KR102317619B1 (ko) 전자 장치 및 이의 제어 방법
JP2014154908A (ja) 動画再生装置およびプログラム
WO2016092864A1 (ja) ユーザーインタフェースを提供する方法、プログラム及び電子機器
KR20170028001A (ko) 전자 장치 및 이의 제어 방법
JP6468089B2 (ja) 表示装置、表示方法及びプログラム
JP2010220095A5 (ja) 画像処理装置、その制御方法及びプログラム並びに記憶媒体
JP2017103529A (ja) 再生装置及び再生プログラム
TW201430695A (zh) 語言聽力學習之方法及其電腦程式產品

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131030

R151 Written notification of patent or utility model registration

Ref document number: 5413673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees