JP2011186730A - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2011186730A
JP2011186730A JP2010050630A JP2010050630A JP2011186730A JP 2011186730 A JP2011186730 A JP 2011186730A JP 2010050630 A JP2010050630 A JP 2010050630A JP 2010050630 A JP2010050630 A JP 2010050630A JP 2011186730 A JP2011186730 A JP 2011186730A
Authority
JP
Japan
Prior art keywords
gesture
application
unit
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010050630A
Other languages
English (en)
Other versions
JP5413673B2 (ja
JP2011186730A5 (ja
Inventor
Shu Shigeta
脩 繁田
Takuro Noda
卓郎 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010050630A priority Critical patent/JP5413673B2/ja
Priority to US13/015,120 priority patent/US9229533B2/en
Priority to EP11153336.0A priority patent/EP2365422B1/en
Priority to KR1020110017885A priority patent/KR20110102173A/ko
Priority to BRPI1101065-7A priority patent/BRPI1101065A2/pt
Priority to RU2011107930/08A priority patent/RU2011107930A/ru
Priority to CN201110051064.0A priority patent/CN102193627B/zh
Publication of JP2011186730A publication Critical patent/JP2011186730A/ja
Publication of JP2011186730A5 publication Critical patent/JP2011186730A5/ja
Application granted granted Critical
Publication of JP5413673B2 publication Critical patent/JP5413673B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】バックグラウンドで動作しているアプリケーションを操作できるようにする。
【解決手段】通常モードにおいて、ディスプレイ12にフォアグラウンドで動作するアプリケーションとしてのウェブブラウザの画像61が表示される。バックグラウンドでは音楽プレイヤのアプリケーションが動作している。ユーザが手でジェスチャを入力すると、ビデオカメラでそれが撮像され、その動きからジェスチャコマンドが認識され、音楽プレイヤの動作が制御される。手の動きは軌跡81として表示される。音楽プレイヤで再生する曲のジャケット写真85−3乃至85−9は、左フリックや右フリックのジェスチャによって移動表示される。手をかざすジェスチャを入力することで曲の再生と停止が制御される。本発明は、例えば、ビデオカメラ付きのパーソナルコンピュータに適用できる。
【選択図】図14

Description

本発明は情報処理装置および方法、並びにプログラムに関し、特に、バックグラウンドで実行されているアプリケーションをジェスチャに基づいて操作するようにした情報処理装置および方法、並びにプログラムに関する。
カメラ付きのパーソナルコンピュータや携帯端末において、ユーザのジェスチャを認識してアプリケーションを制御する技術が提案されている。
図1は、従来のジェスチャに基づいてアプリケーションを操作するパーソナルコンピュータ221の例を示している。
図1のパーソナルコンピュータ221においては、ディスプレイ222上にコントローラ241が表示されているとともに、カメラ223により撮像されたミラー画像242が表示されている。
ユーザの手261がカメラ223により認識され、コントローラ241上の各ボタンが、ユーザの手261の位置および形状に基づいて選択される。この選択によりディスプレイ222上に画像243を表示させているアプリケーションが制御される。
また特許文献1には、ペンデバイスやマウスデバイスのジェスチャ入力一覧表を、操作開始後一定時間入力がない場合、またはジェスチャ入力に失敗した場合に表示することで、ユーザがジェスチャコマンドを覚えられるようにする情報処理装置が提案されている。
特開2008−282092号公報
しかしながら、従来の手法でジェスチャにより制御されるのは、ディスプレイ222の前面(フォアグラウンド)に表示されている画像のアプリケーションである。
従って従来の手法では、制御対象のアプリケーションの画像をディスプレイ222の前面(フォアグラウンド)に表示してからでなければ、ジェスチャに基づきそのアプリケーションを制御することができなかった。
本発明は、このような状況に鑑みてなされたものであり、ディスプレイの前面に表示されていないアプリケーションをジェスチャに基づいて操作できるようにするものである。
本発明の一側面の情報処理装置は、ユーザのジェスチャを検出する検出手段と、前記検出手段により検出された前記ジェスチャの種類を認識する認識手段と、第1のアプリケーションと第2のアプリケーションの動作を制御する制御手段と、前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力手段とを備え、前記制御手段がフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識手段により前記ジェスチャが認識された場合、前記制御手段は、前記認識手段により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御する。
認識された前記ジェスチャが存在するかを判定する判定手段をさらに備え、前記制御手段は、前記第1のアプリケーションの情報が出力されている通常モードにおいて、前記判定手段により認識された前記ジェスチャが存在しないと判定された場合、前記通常モードから前記ジェスチャの操作情報を前記ユーザにフィードバックするフィードバックモードに切り替えることができる。
前記判定手段により認識された前記ジェスチャが存在しないと判定された場合、前記ジェスチャの種類を類推する類推手段をさらに備え、前記制御手段は、前記出力手段に、前記類推手段により類推された前記ジェスチャの種類に対応する前記ジェスチャを学習するためのフィードバック情報を出力させることができる。
前記フィードバック情報は、類推された前記ジェスチャの動画またはアニメーションである。
前記制御手段は、前記ユーザが所定のジェスチャの操作を実行した場合、前記通常モードと前記フィードバックモードとを切り替えることができる。
前記出力手段は、前記フィードバックモードにおいて、前記操作情報として、前記検出手段による検出時に撮像された前記ユーザのミラー画像、および前記ジェスチャの一覧を出力することができる。
前記出力手段は、前記通常モードにおいて、前記ジェスチャに基づいて前記第2のアプリケーションの動作が制御された場合、前記ジェスチャに基づく制御結果に対応する情報を所定時間出力する。
前記出力手段は、前記ジェスチャに基づく制御結果に対応する情報として音声情報を出力することができる。
前記出力手段は、前記フィードバックモードに切り替えられた場合、前記第1のアプリケーションの画像の上に、前記フィードバックモードの画像を半透明に重ねて表示することができる。
前記出力手段は、前記フィードバックモードに切り替えられた場合、前記フィードバックモードの画像を前記第1のアプリケーションの画像の一部の領域に表示することができる。
本発明の一側面の情報処理方法は、ユーザのジェスチャを検出する検出ステップと、前記検出ステップの処理により検出された前記ジェスチャの種類を認識する認識ステップと、第1のアプリケーションと第2のアプリケーションの動作を制御する制御ステップと、前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力ステップとを含み、前記制御ステップの処理によりフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識ステップの処理により前記ジェスチャが認識された場合、前記制御ステップの処理は、前記認識ステップの処理により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御する。
本発明の一側面のプログラムは、ユーザのジェスチャを検出する検出ステップと、前記検出ステップの処理により検出された前記ジェスチャの種類を認識する認識ステップと、第1のアプリケーションと第2のアプリケーションの動作を制御する制御ステップと、前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力ステップとをコンピュータに実行させるプログラムであって、前記制御ステップの処理によりフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識ステップの処理により前記ジェスチャが認識された場合、前記制御ステップの処理は、前記認識ステップの処理により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御する。
本発明の一側面においては、ユーザのジェスチャが検出され、検出されたジェスチャの種類が認識され、第1のアプリケーションと第2のアプリケーションの動作が制御される。第1のアプリケーションまたは第2のアプリケーションの情報が出力される。フォアグラウンドで第1のアプリケーションの動作が制御されている時に、ジェスチャが認識された場合、認識されたジェスチャの種類に基づいて、第1のアプリケーションのバックグラウンドで動作している第2のアプリケーションの動作が制御される。
本発明の側面によれば、バックグラウンドで動作するアプリケーションの動作を、ジェスチャに基づいて容易に制御することが可能になる。
従来のジェスチャリモコンによる操作を説明する図である。 パーソナルコンピュータの外観の構成を示す図である。 本発明を適用したパーソナルコンピュータのハードウェアの構成例を示すブロック図である。 CPUの機能的構成例を示すブロック図である。 通常モードの表示例を示す図である。 ジェスチャコマンド入力処理を説明するフローチャートである。 通常モードの表示例を示す図である。 ジェスチャコマンドと操作内容の関係を示す図である。 入力方法提示処理を説明するフローチャートである。 フィードバックモードの表示例を示す図である。 入力方法の提示の表示例を示す図である。 入力方法の提示の表示例を示す図である。 ジェスチャコマンドと表示内容の関係を示す図である。 通常モードの表示例を示す図である。 通常モードの他の表示例を示す図である。 フィードバックモードの他の表示例を示す図である。 フィードバックモードの他の表示例を示す図である。
図2は、本発明が適用されるパーソナルコンピュータ1の一実施形態としての構成例を示す図である。
図2のパーソナルコンピュータ1は、本体13と、カメラ11が装着されているディスプレイ12から構成されている。カメラ11は、単眼カメラ、ステレオカメラ、赤外線カメラ等の静止画または動画を撮像する。
ユーザ2が手3を用いて3次元空間でジェスチャを行った場合、その画像がカメラ11により撮像される。撮像された画像に基づいてジェスチャが認識され、認識されたジェスチャの種類に対応する制御が実行される。これにより、ユーザ2は、ディスプレイ12に表示されている画像のアプリケーションではなく、すなわちフォアグラウンドで動作しているアプリケーションではなく、バックグラウンドで動作しているアプリケーションを制御することができる。
[パーソナルコンピュータの構成]
図3は、パーソナルコンピュータ1のハードウェアの構成例を示すブロック図である。
コンピュータ1において、CPU22,ROM(Read Only Memory)23,RAM(Random Access Memory)24は、バス25により相互に接続されている。バス25には、さらに、入出力インタフェース26が接続されている。入出力インタフェース26には、Webカメラなどよりなるカメラ11、キーボード、タッチパネル、タッチパッド、ペンデバイス、マウス、マイクロフォンなどよりなる入力部27、ディスプレイ12、スピーカ(図示せず)などよりなる出力部21、ハードディスクや不揮発性のメモリなどよりなる記憶部28が接続されている。さらに、入出力インタフェース26には、ネットワークインタフェースなどよりなる通信部29、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア31を駆動するドライブ30が接続されている。
以上のように構成されるパーソナルコンピュータ1では、CPU22が、例えば、記憶部28に記憶されているプログラムを、入出力インタフェース26及びバス25を介して、RAM24にロードして実行することにより、上述した一連の処理が行われる。パーソナルコンピュータ1(CPU22)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)であるリムーバブルメディア31に記録して提供される。プログラムは、パッケージメディアであるリムーバブルメディア31に記録して提供される。なお、パッケージメディアとしては、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどが用いられる。あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。そして、プログラムは、リムーバブルメディア31をドライブ30に装着することにより、入出力インタフェース26を介して、記憶部28にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部29で受信し、記憶部28にインストールすることができる。その他、プログラムは、ROM23や記憶部28に、あらかじめインストールしておくことができる。
なお、パーソナルコンピュータ1が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
図4は、CPU22の機能的構成例を示すブロック図である。
CPU22は、取得部41、検出部42、判定部43、算出部44、出力部45、認識部46、制御部47、類推部48、および記憶部49から構成されている。なお、CPU22の各ブロックは、必要に応じて相互に信号を授受することが可能とされている。
CPU22の取得部41は、カメラ11、入力部27、または記憶部28から情報を取得する。検出手段としての検出部42は、カメラ11により撮像された画像から手の領域を検出する。判定手段としての判定部43は、処理が所定の条件を満たしているかを判定する。算出部44は、検出された手の領域の重心位置等を算出する。出力手段としての出力部45は、ディスプレイ12に情報を出力する。認識手段としての認識部46は、ジェスチャコマンドを認識する。制御手段としての制御部47は、アプリケーションの動作を制御する。類推手段としての類推部48は、ジェスチャコマンドを類推する。記憶部49は、取得部41が入力部27から取得した情報を記憶部28に記憶する。
[通常モード]
本発明を実行するパーソナルコンピュータ1は、通常モードとフィードバックモードで各アプリケーションを制御する。通常モードは、ユーザにより選択されたアプリケーションの画像を表示するモードである。フィードバックモードは、ジェスチャの操作情報をユーザにフィードバックするモードである。
図5は、通常モードの表示例を示す図である。図5に示されるように、通常モードでは、ディスプレイ12にフォアグラウンドで動作する第1のアプリケーションとしてのウェブブラウザによる画像61(以下、必要に応じてウェブブラウザ61と簡略して記載する)が出力部45により表示されている。
そしてバックグラウンドでは第2のアプリケーションとして音楽プレイヤが動作している。第1のアプリケーションの動作は、キーボード、マウス、タッチパネル、タッチパッド、ペンデバイス等のユーザが指で直接触れて行われる操作に基づき制御される。
これに対して、第2のアプリケーションの動作は、ユーザが手を3次元空間で移動して行うジェスチャの操作に基づき制御される。
図5の例では、ウェブブラウザ61上にバックグラウンドで動作している音楽プレイヤに選択されている曲のタイトル62が表示されている。なお、タイトル62は表示しないようにしてもよい。
[ジェスチャコマンド入力処理]
図5に示された通常モードの状態で、ユーザによりジェスチャが入力されたときのジェスチャコマンド入力処理を図6に示す。
図6は、ユーザから取得したジェスチャを認識し、認識されたジェスチャの種類をジェスチャコマンドとして入力するジェスチャコマンド入力処理を説明するフローチャートである。
このジェスチャコマンド入力処理は、図5に示されるように、フォアグラウンドで所定のアプリケーション(例えばウェブブラウザ)が動作している状態において、バックグラウンドで他のアプリケーション(例えば音楽プレイヤ)が動作しているときに実行される。
ステップS1において、取得部41は、カメラ11により撮像された画像を取得する。すなわち画像がキャプチャされ、その時の時刻情報としてタイムスタンプも取得される。取得部41は一度に複数枚の画像を取得する。取得される画像は、カメラ11から取得した画像そのものでもよいし、編集された画像、例えば濃淡画像などでもよい。
ステップS2において、検出部42は、取得された画像から手の領域を検出する。手の領域としては、例えば、取得された複数枚の画像間の差分領域が検出される。すなわち、背景画像は静止しているので、2枚の画像のその部分の画素値の差は零または充分小さくなる。それに対して手は動くのでその部分の画素値の差は充分大きな値となる。差分値が所定の閾値より大きい範囲を、手の領域として検出することができる。
ステップS3において、判定部43は、ステップS2において検出された手の領域が存在するかを判定する。すなわち、選択された画像と所定時間以上前の画像、例えば100ms以上前に撮像された画像とを比較し、画素値の差分が閾値以上である領域の大きさが基準の範囲内となる領域が存在するかが判定される。所定時間以上前の画像であるかどうかはタイムスタンプに基づいて判定される。
ステップS3において、手の領域が存在しないと判定された場合、すなわち画素値の差分が閾値以上である領域の大きさが基準の範囲より大きいか、または小さいと判定された場合、処理はステップS1に戻る。
ステップS3において、手の領域が存在すると判定された場合、すなわち画素値の差分が閾値以上である領域の大きさが基準の範囲内であると判定された場合、ステップS4において、算出部44は、検出された手の領域の重心位置を算出する。
なお、ステップS2の処理により検出された手の領域が複数存在する場合、算出部44は、1つの領域を選択して選択された領域の重心位置を算出してもよいし、検出された手の領域のそれぞれに対して重心位置を算出するようにしてもよい。
ステップS5において、出力部45は、算出された手の領域の重心位置の軌跡をディスプレイ12に出力する。ディスプレイ12に手の領域の重心位置の軌跡を表示した例を図7に示す。
図7は、通常モードにおいて、ユーザの手の領域の軌跡を表示する例を示す図である。図7の例には、ディスプレイ12に手の領域の軌跡81が表示されている。
図7の軌跡81は、ジェスチャコマンド「左フリック」、つまりユーザにより画面の右側から左側に向かって手をはじくジェスチャが入力された場合の軌跡の例である。
この例において、軌跡81は、図6のステップS4で算出された重心位置を中心とした円の図形の移動として描かれる。そして軌跡81の各移動位置の円の図形は所定時間表示され、所定時間経過後に消える。
なお軌跡81の円の図形の大きさは、時間の経過、手の領域の大きさ、または手の領域の移動速度に応じて大小に変更することもできる。例えば、時間が経過するにつれて円の図形の大きさが大きくなり、所定の大きさになった後に円の図形が小さくなってから消えるようにしてもよい。
軌跡81は、円の図形の他、1本の曲線、その他、ユーザの手の動きを表すもので表現することができる。
このように軌跡81を所定時間表示することで、ユーザはウェブブラウザ61の作業を大きく阻害されることなく、ジェスチャの確認をすることができる。
なお、軌跡81は、フィードバックモード時においてのみ表示するようにし、通常モード時においては表示しないようにすることもできる。その場合、フォアグラウンドで動作しているアプリケーションの画像が軌跡81により見難しくなることが防止される。
図6に戻り、ステップS5の軌跡の出力処理の後、ステップS6において、認識部46は、手の領域の重心位置の軌跡に基づいてジェスチャコマンドを認識する。すなわち、ジェスチャの種類が認識される。認識されるジェスチャコマンドの例を図8に示す。
図8は、ジェスチャコマンドとジェスチャコマンドに対応する操作内容の関係を示す制御テーブルである。制御テーブルは予め記憶部28に記憶されている。ジェスチャコマンドとジェスチャコマンドに対応する操作内容の例を説明する。
図7を参照して上述したように、ジェスチャコマンドとして「左フリック」が入力されると、制御部47は、音楽プレイヤの現在選択されている曲を次の曲に変更する。
「右フリック」は、画面の左側から右側に向かって手をはじくジェスチャである。ジェスチャコマンドとして「右フリック」が入力されると、制御部47は、音楽プレイヤの現在選択されている曲を前の曲に変更する。
「手をかざす」は、カメラ11の前に手を所定時間留めておくジェスチャである。ジェスチャコマンドとして「手をかざす」が入力されると、制御部47は、音楽プレイヤが現在再生している曲を停止するか、または停止している曲を再生する。曲の再生音は出力手段としての出力部21を構成するスピーカから出力される。
「時計回りに二重丸を描く」は、手で時計回りに2回円を描くジェスチャである。ジェスチャコマンドとして「時計回りに二重丸を描く」が入力されると、制御部47は、音楽プレイヤにより現在選択されている曲をお気に入りとして登録する。
「反時計回りに二重丸を描く」は、手で反時計回りに2回円を描くジェスチャである。ジェスチャコマンドとして「反時計回りに二重丸を描く」が入力されると、制御部47は、音楽プレイヤにより現在選択されている曲をお気に入りから解除する。
「手を振る」は、カメラ11の前で手を左右に数回移動させるジェスチャである。ジェスチャコマンドとして「手を振る」が入力されると、制御部47は、モードの切り替えを行う。
すなわち、現在のモードが通常モードである場合、フィードバックモードに切り替えが行なわれ、現在のモードがフィードバックモードである場合、通常モードに切り替えが行なわれる。フィードバックモードについては、図10参照して後述する。
「手を振る」動作はジェスチャが認識されなかった場合、すなわちフィードバック情報をユーザに提供する必要がある場合に、ユーザが自然に行うジェスチャである。従って「手を振る」ジェスチャをモードの切り替えに対応付けておくことで、フィードバック情報をユーザにより容易に提供することが可能になる。
勿論、例えば両手でカーテンを開けるように、手が重なった状態から左右に「手を開く」ジェスチャ等をモード切り替えに対応づけることもできる。
「手を上下に動かす」は、カメラ11の前で手を上下に数回移動させるジェスチャである。ジェスチャコマンドとして「手を上下に動かす」が入力されると、制御部47は、音楽プレイヤ内に記録されている曲をランダムに1つ選択する。
このようにユーザのジェスチャが認識されると、ジェスチャコマンドが入力され、ジェスチャコマンドに対応する処理が実行される。なお、ジェスチャコマンドとジェスチャコマンドに対応する処理は、図8に示した例に限られない。
図6に戻り、ステップS7において、判定部43は、認識されたジェスチャコマンドが存在するかを判定する。すなわち、認識されたジェスチャコマンドが図8の制御テーブルのジェスチャコマンドと一致するかが判定される。
ステップS7において、認識されたジェスチャコマンドが存在しないと判定された場合、すなわち、認識されたジェスチャコマンドが図8の制御テーブルのジェスチャコマンドと一致しないと判定された場合、ステップS8において、入力方法提示処理が実行される。入力方法提示処理の詳細を図9に示す。
[入力方法提示処理]
図9は、図6のステップS8の入力方法提示処理の詳細を説明するフローチャートである。入力方法提示処理は、ユーザが入力したジェスチャが認識されなかった場合に、ユーザにジェスチャの入力方法を学習させる処理である。
ステップS31において、判定部43は、現在のモードがフィードバックモードであるかを判定する。フィードバックモードの詳細について図10に示す。
[フィードバックモード]
図10は、フィードバックモードにおける表示例を示す図である。フィードバックモードにおいては、ジェスチャの操作情報として、少なくともミラー画像とジェスチャコマンド一覧表が表示される。
図10の例のフィードバックモードの表示例では、表示部12上に軌跡81、ミラー画像82、ジェスチャコマンド一覧表83、ジェスチャコマンド84(具体的には84−1乃至84−6)、ジャケット写真85(具体的には85−1乃至84−7)、歌手名86−2、および曲名87−2が表示されている。
フィードバックモードでは、カメラ11により撮像されたユーザの画像に画像処理を施したミラー画像82が背景に表示されている。ミラー画像とは、画像の左右を反転させた画像である。すなわちユーザが右手を動かしたとき、ミラー画像に表示されているユーザ71の画像では、左の手72が動かされる。ユーザの左手が動かされると、ミラー画像82では、右手が動かされる。
このようにミラー画像82を表示させることで、ユーザが手でジェスチャを入力する動きと、表示部12に表示されるユーザ71の手72の動きが対応するので、ユーザはジェスチャによる操作を容易に確認することができる。
なお、ミラー画像82の代わりに、手、体、顔、動き等が検出された領域を表示したり、または、ミラー画像82にさらに他の画像処理を施した画像を表示することもできる。
ミラー画像82に他の画像処理を施した画像とは、例えば、モノクロームやセピアのように画像の色を変えた画像、顔や体のパーツを認識してパーツに対応するアバターに変更した画像、または鉛筆のスケッチや絵画風の画像などである。
画像処理を施すことにより、顔が直接表示されることを不快に思うユーザが、快適に操作を行うことができる。
ジェスチャコマンド一覧表83には、ユーザが入力することができるジェスチャの一覧、すなわちジェスチャコマンド84−1乃至84−6が表示されている。
ジェスチャコマンド84−1乃至84−6には、それぞれのジェスチャに対する簡単な入力方法、すなわち、手の動かし方および操作内容が示されている。
ジェスチャコマンド84−1の画像は、図8の制御テーブルのジェスチャコマンド「左フリック」を示している。ジェスチャコマンド84−1の「next」は、操作内容の「次の曲に変更」を示している。
ジェスチャコマンド84−2の画像は、制御テーブルのジェスチャコマンド「右フリック」を示している。ジェスチャコマンド84−2の「previous」は、操作内容の「次の曲に変更」を示している。
ジェスチャコマンド84−3の画像は、制御テーブルのジェスチャコマンド「手をかざす」を示している。ジェスチャコマンド84−3の「play_stop」は、操作内容の「再生・停止の切替」を示している。
ジェスチャコマンド84−4の画像は、制御テーブルのジェスチャコマンド「時計回りに二重丸を描く」を示している。ジェスチャコマンド84−4の「thumbup」は、操作内容の「お気に入りの登録」を示している。
ジェスチャコマンド84−5の画像は、制御テーブルのジェスチャコマンド「手を上下に動かす」を示している。ジェスチャコマンド84−5の「shuffle」は、操作内容の「曲をランダムに選択」を示している。
ジェスチャコマンド84−6の画像は、制御テーブルのジェスチャコマンド「手を振る」を示している。ジェスチャコマンド84−6の「switchmode」は、操作内容の「モードの切替」を示している。
このようにジェスチャコマンド一覧表83には、ジェスチャとジェスチャに対応する操作を簡単に示したジェスチャコマンド84が表示されるので、ユーザはジェスチャの種類と対応する操作内容を容易に確認することができる。
ジャケット写真85の画像としては、音楽プレイヤに記憶されているそれぞれの曲に対応するジャケット画像が表示される。
ジャケット写真85−1乃至85−7のうち、ジャケット写真85−2が現在選択されている曲のジャケットを示している。現在選択されているジャケット写真85−2の画像は、選択されていることがわかるように、例えば、上下に揺らされたり、選択されていないジャケットより大きくされる。
歌手名86−2としての表示「redtallon」は、現在選択されているジャケット写真85−2の曲の歌手名である。現在選択されている曲名87−2「青春の森」は、現在選択されているジャケット写真85−2の曲の曲名である。
このようにフィードバックモードを表示することで、ユーザはジェスチャの入力操作の確認、ジェスチャが認識されない原因の確認、ジェスチャの種類と操作内容の確認、および音楽プレイヤなど対応するアプリケーションの動作の確認をすることができる。
図9に戻り、ステップS31において、現在のモードがフィードバックモードでないと判定された場合、すなわち、現在のモードが通常モードであると判定された場合、ステップS32において、制御部47は、通常モードをフィードバックモードに切り替える。
ステップS31において、現在のモードがフィードバックモードであると判定された場合、またはステップS32の処理が実行された後、処理はステップS33に進む。
ステップS33において、類推部48は、図6のステップS4の処理により算出された手の領域の重心位置の軌跡に基づいてジェスチャコマンドを類推する。
すなわち、図6のステップS6のジェスチャコマンドを認識する処理と同様の処理が実行され、さらにジェスチャコマンドに対する尤もらしさ(尤度)が算出され、評価されることでジェスチャコマンドが類推される。
例えば、ユーザが「円」を描くジェスチャをしたとき、類推部48は、「円」の尤もらしさを算出する。
そして、類推部48は、評価する処理として、尤もらしさが所定の閾値以上、例えば60%以上であるかを判定する。ユーザが描いた「円」の尤もらしさが、例えば80%である場合、類推部48は、ユーザのジェスチャを「円」と類推する。
ステップS34において、判定部43は、類推されたジェスチャコマンドが存在するかを判定する。すなわち、ジェスチャの尤もらしさが所定の閾値以上であるかを判定する。
ステップS34において、類推されたジェスチャコマンドが存在すると判定された場合、すなわち、ジェスチャの尤もらしさが所定の閾値以上であると判定された場合、ステップS35において、出力部45は、ジェスチャコマンドの入力方法を出力する。
ジェスチャを学習するためのフィードバック情報としてのジェスチャコマンドの入力方法を出力する例を、図11と図12に示す。
[ジェスチャコマンドの入力方法の提示]
図11は、フィードバックモードにおいて、動画を用いてジェスチャコマンドの入力方法を出力する例を示している。図12は、フィードバックモードにおいて、アニメーションを用いてジェスチャコマンドの入力方法を出力する例を示している。
ジェスチャコマンドの入力方法の出力として、動画(図11)とアニメーション(図12)のどちらを出力するかは、ユーザによって予め設定される。記憶部49は、設定された入力方法を記憶部28に記憶する。
そしてステップS35の処理が実行されるとき、ユーザにより設定された入力方法が記憶部28から読み出される。
図11には、ミラー画像82の左上に入力方法提示ウィンドウ101が表示されている。なお、入力方法提示ウィンドウ101の表示位置は、フィードバックモードの表示領域内であれば左上に限られない。
入力方法提示ウィンドウ101には、ジェスチャの指示者121、指示者の手122、およびジェスチャを学習するためのジェスチャ指示線123が表示されている。
ジェスチャ指示線123は、「円」を描くジェスチャを学習するための入力方法を示している。指示者121がジェスチャ指示線123に従って手122を動かす動画を再生することでユーザにジェスチャの入力方法を提示する。
ユーザの操作はミラー画像82に表示されているので、ユーザはミラー画像82の手72と軌跡81の動きと、入力方法提示ウィンドウ101の動画を同時に確認しながらジェスチャの入力方法を学習することができる。
入力方法を提示するための学習用の動画は、ジェスチャの種類ごとに予め記憶部28に記憶されている。出力される学習用の動画は、図9のステップS33により類推されたジェスチャ、またはユーザにより任意に選択されたジェスチャに基づいて決定される。
なお、図11の入力方法提示ウィンドウ101では、表示させる画像を画像処理してミラー画像が表示されてもよい。
図12には、ミラー画像82上にアニメーション141とアニメーションの軌跡142が表示されている。
アニメーションの軌跡142は、「円」を描くジェスチャを学習するための入力方法を示している。アニメーション141はアニメーションの軌跡142に沿って移動する。
アニメーション141およびアニメーションの軌跡142がミラー画像82上に表示されるので、ユーザはアニメーション141に従って手72を動かすことでジェスチャの入力方法を学習することができる。図12においては、ユーザが手72をアニメーションの軌跡142に沿って移動したことによる軌跡81も表示されている。
入力方法を提示するためのアニメーションも、学習用の動画と同様に、ジェスチャの種類ごとに予め記憶部28に記憶されている。出力されるアニメーションは、図9のステップS33により類推されたジェスチャ、またはユーザにより任意に選択されたジェスチャに基づいて決定される。
図9に戻り、ステップS34において、類推されたジェスチャコマンドが存在しないと判定された場合、すなわち、ジェスチャの尤もらしさが所定の閾値未満であると判定された場合、またはステップS35の処理の後、入力方法提示処理は終了し、処理は図6のステップS1に戻る。
このように入力方法提示処理により、ユーザはジェスチャによる入力が失敗したとき、すなわちジェスチャを入力しても所望の動作が実行されないとき、ジェスチャが認識されなかった原因を確認できるとともに、解決方法として正しいジェスチャコマンドの入力方法を学習することができる。
以上においては、通常モードにおいて、ジェスチャコマンドが認識できない場合、自動的にフィードバックモードに切り替えて(ステップS32)、ジェスチャコマンドの類推処理(ステップS33)を実行するようにした。この他、ジェスチャコマンドの類推を実行して、ジェスチャコマンドの類推ができた場合(ステップS34の処理においてYESと判定された場合)にのみ、フィードバックモードに自動的に切り替える(ステップS32)ようにしてもよい。
図6に戻り、ステップS7において、認識されたジェスチャコマンドが存在すると判定された場合、すなわち、認識されたジェスチャコマンドが図8の制御テーブルに記載されているジェスチャコマンドのいずれかに一致すると判定された場合、ステップS9において、判定部43は、ジェスチャコマンドが「手を振る」と認識されたかを判定する。
ステップS9において、ジェスチャコマンドが「手を振る」と認識された場合、すなわちユーザによりモードの切り替えの処理が指示された場合、ステップS10において、判定部43は、現在のモードが通常モードであるかを判定する。
ステップS10において、現在のモードが通常モードであると判定された場合、ステップS11において、制御部47は、モードをフィードバックモードに切り替える。
ステップS10において、現在のモードが通常モードでないと判定された場合、すなわち現在のモードがフィードバックモードであると判定された場合、ステップS12において、制御部47は、モードを通常モードに切り替える。
なお、フィードバックモードから通常モードへの切り替えは、ジェスチャが正しく認識されたとき、自動的に行うようにすることもできる。
一方、ステップS9において、ジェスチャコマンドが「手を振る」と認識されなかった場合、すなわちユーザによりモード切り替え以外の処理が指示された場合、ステップS13において、制御部47は、ジェスチャコマンドに対応する処理を実行する。
ジェスチャコマンドに対応する処理とは、図8の制御テーブルに記載されている操作内容を実行する処理である。具体的な例の説明は、図8を参照して上述したので省略するが、例えば再生が指示された場合、曲が出力部21のスピーカから出力される。
ステップS14において、判定部43は、現在のモードが通常モードであるかを判定する。
ステップS14において、現在のモードが通常モードであると判定された場合、ステップS15において、出力部45は、ジェスチャコマンドの制御結果に対応する情報を一定時間、ディスプレイ12に出力する。ジェスチャコマンドに対応する表示内容の例を図13に示す。
図13は、ジェスチャコマンドとジェスチャコマンドに対応する表示内容の関係を示す表示テーブルを示す図である。なお図8の制御テーブルと図13の表示テーブルは、まとめて1つのテーブルとして管理してもよい。
ジェスチャコマンドとして「左フリック」が入力されると、出力部45は、曲リストを1つ左側に移動する。「左フリック」が入力された場合の通常モードの表示例を図14に示す。
図14は、通常モードにおいて、ジェスチャコマンドとして「左フリック」が入力された場合の表示例を示す図である。図14は、図10に示されている状態、すなわちジャケット写真85−2の曲が選択されている状態から、「左フリック」が2回行われた状態を示している。
すなわち図14の例は、図10に示されているジャケット写真85−1乃至85−7のそれぞれが2つ左側に移動し、ジャケット写真85−4の曲が選択されている状態を示している。
また「左フリック」が2回行われることにより、画面左側に表示されていたジャケット写真85−1,85−2は表示されなくなり、画面右側に新たにジャケット写真85−8,85−9が表示される。
図13に戻り、ジェスチャコマンドとして「右フリック」が入力されると、出力部45は、曲リストを1つ右側に移動する。
すなわち図14の状態で「右フリック」が入力されると、ジャケット写真85−3乃至85−9のそれぞれが1つ右側に移動された画像が出力される。またジャケット写真85−9は表示されなくなり、図10に示されているジャケット写真85−2が図14のジャケット写真85−3の位置に表示される。
ジェスチャコマンドとして「手をかざす」が入力されると、出力部45は、ディスプレイ12の画面領域内に再生または停止のアイコンを表示する。
ジェスチャコマンドとして「時計回りに二重丸を描く」が入力されると、出力部45は、ジャケット写真85にお気に入りを示すアイコンを表示する。図14のジャケット写真85−4の右上に表示されているお気に入りマーク88−4がお気に入りを示すアイコンである。
ジェスチャコマンドとして「反時計回りに二重丸を描く」が入力されると、出力部45は、ジャケット写真85上にお気に入りを示すアイコンの表示を削除する。すなわち図14のお気に入りマーク88−4の表示が消去される。
ジェスチャコマンドとして「手を上下に動かす」が入力されると、出力部45には、ランダムに選択された曲のジャケット写真85−21、曲名86−21、および歌手名87−21(いずれも図示せず)が、図14のジャケット写真85−4、曲名86−4、および歌手名87−4の位置のそれぞれに表示される。
さらに、その前後の曲のジャケット写真85−20,85−22乃至85−26が図14のジャケット写真85−3,85−5乃至85−9の代わりに表示される。
このようにジェスチャコマンドに対応する処理が実行されると、ウェブブラウザ61の上にジェスチャコマンドに対応する情報が表示される。なおジェスチャコマンドとジェスチャコマンドに対応する表示内容は、図13の例に限られない。
また図6のステップS15の処理として、出力部45は、音声や効果音などの音声情報を出力してもよい。音声情報として出力部45は、例えばジェスチャコマンド「左フリック」が入力された場合、「次の曲」、「next」といった操作の名称、ジェスチャコマンドの名称等の音声、または、風切り音、かき混ぜる音などの効果音を再生する。
出力部45は、ステップS15の処理において、図13の表示テーブルの表示内容に対応する表示画像と音声情報のいずれか一方のみを出力してもよいし、表示画像と音声情報の両方を出力してもよい。
なお表示画像は、通常モードにおいて、一定時間経過後に消去される。これにより、表示画像がユーザのウェブブラウザ61の作業を大きく阻害することが抑制される。例えば、ウェブブラウザ61の画像の表示領域の一部にジェスチャコマンドに対応するアイコンを表示したり、ウェブブラウザ61の画像上に表示画像を半透明にして表示してもよい。
ステップS14において、現在のモードが通常モードでないと判定された場合、すなわち現在のモードがフィードバックモードであると判定された場合、ステップS16において、出力部45は、ジェスチャコマンドの制御結果に対応する情報を出力する。
ステップS16の処理において出力される情報は、ステップS15の処理において出力される情報と同様である。
ステップS11,S12,S15,S16の処理の後、処理はステップS1に戻り、同様の処理が繰り返される。
このようにユーザは、フォアグラウンドで動作しているアプリケーションを見ながら、バックグラウンドで動作するアプリケーションをジェスチャに基づいて操作できる。またユーザは、バックグラウンドで動作するアプリケーションのジェスチャに基づく操作結果を、フォアグラウンドで動作するアプリケーションの作業を阻害せずに確認することができる。
[通常モードの他の表示例]
図15は、通常モードの他の表示例を示す図である。図15は、ジェスチャとして手の形状を認識して、バックグラウンドで動作するアプリケーションの動作を制御する例を示している。図15の手の近傍領域161は、図7に示された軌跡81の代わりに表示される。
すなわち、この処理は、図6のステップS4において、算出部44が、手の領域の重心位置を算出する代わりに、手の形状を算出し、ステップS5において、出力部45が、手の領域の重心位置の軌跡81を出力する代わりに、手の近傍領域161を出力することにより実行される。
ユーザの手の形状は、例えばグー、パー、サムアップ(親指を立てる)などである。これらのジェスチャを認識してバックグラウンドで動作するアプリケーションの動作を制御することもできる。
[フィードバックモードの他の表示例]
図16と図17は、フィードバックモードの他の表示例を示す図である。
図16は、フィードバックモードの画像を通常モードの画像(図5)の上に半透明に重ねて出力する例を示す図である。図16の例では、簡単のためフィードバックモードの画像として半透明のミラー画像181のみが表示されている。
このように通常モードの画像の上に半透明のフィードバックモードの画像を重ねて表示することで、ユーザは、ウェブブラウザ61などのアプリケーションを表示させた状態でジェスチャの操作をフィードバックすることができる。
図17は、フィードバックモードの画像(図10)を通常モードの画像(図5)の一部の領域に出力する例を示す図である。図17の例では、フィードバックウィンドウ201がウェブブラウザ61の表示領域の右下の領域に出力されている。
フィードバックウィンドウ201内の表示は、図10に示したフィードバックモードの画像と同様である。
なお軌跡81は、通常モードとフィードバックモードのいずれかにおいても出力されるが、図17の例のようにフィードバックモードの画像を通常モードの画像の一部の領域に出力する場合、どちらか一方の画像にのみ軌跡81を表示するようにしてもよい。図17の例では、フィードバックモードの画像にのみ軌跡81が表示されている。
なお、第1のアプリケーションおよび第2のアプリケーションは、ウェブブラウザおよび音楽プレイヤに限られない。
以上の実施形態では、音楽プレイヤがバックグラウンドで動作しているので、音楽プレイヤがジェスチャコマンドに基づいて操作されるが、ウェブブラウザがバックグラウンドで動作している場合、ウェブブラウザがジェスチャコマンドに基づいて操作される。
勿論、バックグラウンドで動作している特定のアプリケーション(例えば、音楽プレイヤ)のみが、ジェスチャコマンドに基づいて操作されるようにしてもよい。
1 パーソナルコンピュータ, 11 カメラ, 12 ディスプレイ, 13 CPU, 42 検出部, 43 判定部, 45 出力部, 46 認識部, 47 制御部, 48 類推部

Claims (12)

  1. ユーザのジェスチャを検出する検出手段と、
    前記検出手段により検出された前記ジェスチャの種類を認識する認識手段と、
    第1のアプリケーションと第2のアプリケーションの動作を制御する制御手段と、
    前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力手段と
    を備え、
    前記制御手段がフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識手段により前記ジェスチャが認識された場合、前記制御手段は、前記認識手段により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御する
    情報処理装置。
  2. 認識された前記ジェスチャが存在するかを判定する判定手段をさらに備え、
    前記制御手段は、前記第1のアプリケーションの情報が出力されている通常モードにおいて、前記判定手段により認識された前記ジェスチャが存在しないと判定された場合、前記通常モードから前記ジェスチャの操作情報を前記ユーザにフィードバックするフィードバックモードに切り替える
    請求項1に記載の情報処理装置。
  3. 前記判定手段により認識された前記ジェスチャが存在しないと判定された場合、前記ジェスチャの種類を類推する類推手段をさらに備え、
    前記制御手段は、前記出力手段に、前記類推手段により類推された前記ジェスチャの種類に対応する前記ジェスチャを学習するためのフィードバック情報を出力させる
    請求項2に記載の情報処理装置。
  4. 前記フィードバック情報は、類推された前記ジェスチャの動画またはアニメーションである
    請求項3に記載の情報処理装置。
  5. 前記制御手段は、前記ユーザが所定のジェスチャの操作を実行した場合、前記通常モードと前記フィードバックモードとを切り替える
    請求項4に記載の情報処理装置。
  6. 前記出力手段は、前記フィードバックモードにおいて、前記操作情報として、前記検出手段による検出時に撮像された前記ユーザのミラー画像、および前記ジェスチャの一覧を出力する
    請求項5に記載の情報処理装置。
  7. 前記出力手段は、前記通常モードにおいて、前記ジェスチャに基づいて前記第2のアプリケーションの動作が制御された場合、前記ジェスチャに基づく制御結果に対応する情報を所定時間出力する
    請求項6に記載の情報処理装置。
  8. 前記出力手段は、前記ジェスチャに基づく制御結果に対応する情報として音声情報を出力する
    請求項7に記載の情報処理装置。
  9. 前記出力手段は、前記フィードバックモードに切り替えられた場合、前記第1のアプリケーションの画像の上に、前記フィードバックモードの画像を半透明に重ねて表示する
    請求項8に記載の情報処理装置。
  10. 前記出力手段は、前記フィードバックモードに切り替えられた場合、前記フィードバックモードの画像を前記第1のアプリケーションの画像の一部の領域に表示する
    請求項8に記載の情報処理装置。
  11. ユーザのジェスチャを検出する検出ステップと、
    前記検出ステップの処理により検出された前記ジェスチャの種類を認識する認識ステップと、
    第1のアプリケーションと第2のアプリケーションの動作を制御する制御ステップと、
    前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力ステップと
    を含み、
    前記制御ステップの処理によりフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識ステップの処理により前記ジェスチャが認識された場合、前記制御ステップの処理は、前記認識ステップの処理により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御する
    情報処理方法。
  12. ユーザのジェスチャを検出する検出ステップと、
    前記検出ステップの処理により検出された前記ジェスチャの種類を認識する認識ステップと、
    第1のアプリケーションと第2のアプリケーションの動作を制御する制御ステップと、
    前記第1のアプリケーションまたは前記第2のアプリケーションの情報を出力する出力ステップと
    をコンピュータに実行させるプログラムであって、
    前記制御ステップの処理によりフォアグラウンドで前記第1のアプリケーションの動作を制御している時に、前記認識ステップの処理により前記ジェスチャが認識された場合、前記制御ステップの処理は、前記認識ステップの処理により認識された前記ジェスチャの種類に基づいて、前記第1のアプリケーションのバックグラウンドで動作している前記第2のアプリケーションの動作を制御する
    プログラム。
JP2010050630A 2010-03-08 2010-03-08 情報処理装置および方法、並びにプログラム Expired - Fee Related JP5413673B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010050630A JP5413673B2 (ja) 2010-03-08 2010-03-08 情報処理装置および方法、並びにプログラム
US13/015,120 US9229533B2 (en) 2010-03-08 2011-01-27 Information processing apparatus, method, and program for gesture recognition and control
EP11153336.0A EP2365422B1 (en) 2010-03-08 2011-02-04 Information processing apparatus controlled by hand gestures and corresponding method and program
KR1020110017885A KR20110102173A (ko) 2010-03-08 2011-02-28 정보 처리 장치 및 방법, 및 프로그램
BRPI1101065-7A BRPI1101065A2 (pt) 2010-03-08 2011-03-01 aparelho e mÉtodo de processamento de informaÇço, e, programa
RU2011107930/08A RU2011107930A (ru) 2010-03-08 2011-03-01 Устройство и способ обработки информации и программа
CN201110051064.0A CN102193627B (zh) 2010-03-08 2011-03-01 信息处理装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010050630A JP5413673B2 (ja) 2010-03-08 2010-03-08 情報処理装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2011186730A true JP2011186730A (ja) 2011-09-22
JP2011186730A5 JP2011186730A5 (ja) 2013-03-14
JP5413673B2 JP5413673B2 (ja) 2014-02-12

Family

ID=43877270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010050630A Expired - Fee Related JP5413673B2 (ja) 2010-03-08 2010-03-08 情報処理装置および方法、並びにプログラム

Country Status (7)

Country Link
US (1) US9229533B2 (ja)
EP (1) EP2365422B1 (ja)
JP (1) JP5413673B2 (ja)
KR (1) KR20110102173A (ja)
CN (1) CN102193627B (ja)
BR (1) BRPI1101065A2 (ja)
RU (1) RU2011107930A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013046768A1 (ja) * 2011-09-30 2013-04-04 楽天株式会社 検索装置、検索方法、記録媒体、ならびに、プログラム
JP2013140568A (ja) * 2011-12-09 2013-07-18 Sony Corp 情報処理装置、情報処理方法、および記録媒体
JP2013186500A (ja) * 2012-03-05 2013-09-19 Toshiba Tec Corp 操作支援表示装置およびプログラム
JP2013196482A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 入力ユーザーインターフェイス装置、投影装置、プログラム及びコマンド決定方法
JP2013235588A (ja) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
WO2014027674A1 (ja) 2012-08-17 2014-02-20 Necシステムテクノロジー株式会社 入力装置、入力方法、及び記録媒体
JP2014085964A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理方法、情報処理装置、及びプログラム
JP2014085965A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
JP2014085967A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
JP2016035640A (ja) * 2014-08-01 2016-03-17 ヤマハ株式会社 入力装置及び電子機器
JP2016512357A (ja) * 2013-03-15 2016-04-25 クアルコム,インコーポレイテッド バックグラウンドタスク用の対話式入力
JP2017174292A (ja) * 2016-03-25 2017-09-28 三菱自動車工業株式会社 タッチパネル装置
US10152216B2 (en) 2013-06-04 2018-12-11 Samsung Electronics Co., Ltd. Electronic device and method for controlling applications in the electronic device
US10506997B2 (en) 2013-03-01 2019-12-17 Canon Medical Systems Corporation X-ray diagnostic apparatus
JP2021033967A (ja) * 2019-08-29 2021-03-01 アルパイン株式会社 タッチパネル付表示装置
JP2021517285A (ja) * 2019-02-27 2021-07-15 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 表示方法及び装置、電子機器並びに記憶媒体
JP7495156B2 (ja) 2021-02-02 2024-06-04 北京地平▲線▼机器人技▲術▼研▲発▼有限公司 操作体に基づく動的表示方法、装置、記憶媒体及び電子機器

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US20120224040A1 (en) * 2011-03-03 2012-09-06 Hand Held Products, Inc. Imager reader with hand gesture interface
US8539086B2 (en) 2011-03-23 2013-09-17 Color Labs, Inc. User device group formation
TWI466021B (zh) * 2011-05-24 2014-12-21 Asustek Comp Inc 電腦系統及其控制方法
US20120304067A1 (en) * 2011-05-25 2012-11-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling user interface using sound recognition
US8327012B1 (en) 2011-09-21 2012-12-04 Color Labs, Inc Content sharing via multiple content distribution servers
JP2013084233A (ja) * 2011-09-28 2013-05-09 Kyocera Corp 装置、方法、及びプログラム
US8847881B2 (en) 2011-11-18 2014-09-30 Sony Corporation Gesture and voice recognition for control of a device
TWI476706B (zh) * 2012-04-30 2015-03-11 Pixart Imaging Inc 偵測物件移動輸出命令的方法及其系統
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
US20130335587A1 (en) * 2012-06-14 2013-12-19 Sony Mobile Communications, Inc. Terminal device and image capturing method
US9098111B2 (en) * 2012-06-22 2015-08-04 Microsoft Technology Licensing, Llc Focus guidance within a three-dimensional interface
US9684398B1 (en) 2012-08-06 2017-06-20 Google Inc. Executing a default action on a touchscreen device
KR101947034B1 (ko) * 2012-08-21 2019-04-25 삼성전자 주식회사 휴대 기기의 입력 장치 및 방법
CN103941966B (zh) * 2013-01-21 2017-12-26 联想(北京)有限公司 应用控制的方法及电子设备
JP6002058B2 (ja) * 2013-02-22 2016-10-05 株式会社東芝 画像処理装置、方法、及びプログラム
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US9436287B2 (en) 2013-03-15 2016-09-06 Qualcomm Incorporated Systems and methods for switching processing modes using gestures
US20140325418A1 (en) * 2013-04-30 2014-10-30 Microsoft Corporation Automatically manipulating visualized data based on interactivity
WO2015012006A1 (ja) * 2013-07-22 2015-01-29 オリンパスメディカルシステムズ株式会社 医療用携帯端末装置
US9832452B1 (en) 2013-08-12 2017-11-28 Amazon Technologies, Inc. Robust user detection and tracking
US11199906B1 (en) * 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US20150139483A1 (en) * 2013-11-15 2015-05-21 David Shen Interactive Controls For Operating Devices and Systems
KR20150072719A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 디스플레이장치 및 그 제어방법
US10057483B2 (en) 2014-02-12 2018-08-21 Lg Electronics Inc. Mobile terminal and method thereof
CN103955274B (zh) * 2014-04-21 2017-09-01 小米科技有限责任公司 应用控制方法和装置
US10013160B2 (en) * 2014-05-29 2018-07-03 International Business Machines Corporation Detecting input based on multiple gestures
US10782787B2 (en) * 2014-06-06 2020-09-22 Adobe Inc. Mirroring touch gestures
USD769928S1 (en) * 2015-05-01 2016-10-25 Microsoft Corporation Display screen with animated graphical user interface
USD768186S1 (en) * 2015-05-01 2016-10-04 Microsoft Corporation Display screen with graphical user interface
US10332297B1 (en) * 2015-09-04 2019-06-25 Vishal Vadodaria Electronic note graphical user interface having interactive intelligent agent and specific note processing features
US10881713B2 (en) * 2015-10-28 2021-01-05 Atheer, Inc. Method and apparatus for interface control with prompt and feedback
DE102018208866A1 (de) * 2018-06-06 2019-12-12 Audi Ag Verfahren zum Erkennen einer Eingabe
CN109240494B (zh) * 2018-08-23 2023-09-12 京东方科技集团股份有限公司 电子显示板的控制方法、计算机可读存储介质和控制系统
US20220036678A1 (en) * 2020-07-31 2022-02-03 Viraat Authentication Systems Inc. Systems, devices and methods of collecting information via touchless technology to control access to physical spaces
CN113849093A (zh) * 2021-09-28 2021-12-28 联想(北京)有限公司 一种控制方法、装置及电子设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202174A (ja) * 2000-01-21 2001-07-27 Canon Inc 画像表示装置、方法および記憶媒体
JP2002504722A (ja) * 1998-02-19 2002-02-12 マインドメーカー、インコーポレーテッド ジェスチャーカテゴリー認識およびトレーニングの方法およびシステム
JP2004531183A (ja) * 2001-06-29 2004-10-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 言葉とジェスチャーの制御に基づく、ピクチャー・イン・ピクチャーの位置の変更及び/又はサイズ変更
JP2004303207A (ja) * 2003-03-28 2004-10-28 Microsoft Corp ジェスチャの動的フィードバック
JP2006527439A (ja) * 2003-06-13 2006-11-30 ユニヴァーシティ オブ ランカスター ユーザインタフェース
JP2008140101A (ja) * 2006-12-01 2008-06-19 Advanced Telecommunication Research Institute International 無制約、リアルタイム、かつマーカ不使用の手トラッキング装置
JP2009089068A (ja) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd 電子機器の制御装置、制御方法及び制御プログラム
JP2009519552A (ja) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント 相互対話的な電子的にシミュレートされた環境の音声および映像制御
JP2010103721A (ja) * 2008-10-23 2010-05-06 Casio Hitachi Mobile Communications Co Ltd 端末装置及びプログラム
JP2010118042A (ja) * 2008-11-11 2010-05-27 Pantech Co Ltd ジェスチャを用いた移動端末のアプリケーション制御システムおよびアプリケーション制御方法
JP2011530135A (ja) * 2008-08-04 2011-12-15 マイクロソフト コーポレーション 表面コンピューティングのためのユーザ定義のジェスチャセット
JP2012531652A (ja) * 2009-06-25 2012-12-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ クロマキーを用いたジェスチャ認識

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748974A (en) * 1994-12-13 1998-05-05 International Business Machines Corporation Multimodal natural language interface for cross-application tasks
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7365737B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Non-uniform gesture precision
EP1645944B1 (en) * 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
US8147248B2 (en) * 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
JP2007109118A (ja) * 2005-10-17 2007-04-26 Hitachi Ltd 入力指示処理装置および入力指示処理プログラム
US7783983B1 (en) * 2006-04-13 2010-08-24 Emc Corporation User interface for controls
KR101058297B1 (ko) * 2006-09-28 2011-08-22 교세라 가부시키가이샤 휴대 단말 및 그 제어 방법
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
JP2008282092A (ja) 2007-05-08 2008-11-20 Canon Inc ジェスチャーコマンドを覚えながら操作できる情報処理装置
US8060063B1 (en) * 2007-09-07 2011-11-15 Sprint Communications Company L.P. Presenting messages on a mobile device that is currently presenting other media content
US9545571B2 (en) * 2008-01-25 2017-01-17 Nintendo Co., Ltd. Methods and apparatus for a video game magic system
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002504722A (ja) * 1998-02-19 2002-02-12 マインドメーカー、インコーポレーテッド ジェスチャーカテゴリー認識およびトレーニングの方法およびシステム
JP2001202174A (ja) * 2000-01-21 2001-07-27 Canon Inc 画像表示装置、方法および記憶媒体
JP2004531183A (ja) * 2001-06-29 2004-10-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 言葉とジェスチャーの制御に基づく、ピクチャー・イン・ピクチャーの位置の変更及び/又はサイズ変更
JP2004303207A (ja) * 2003-03-28 2004-10-28 Microsoft Corp ジェスチャの動的フィードバック
JP2006527439A (ja) * 2003-06-13 2006-11-30 ユニヴァーシティ オブ ランカスター ユーザインタフェース
JP2009519552A (ja) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント 相互対話的な電子的にシミュレートされた環境の音声および映像制御
JP2008140101A (ja) * 2006-12-01 2008-06-19 Advanced Telecommunication Research Institute International 無制約、リアルタイム、かつマーカ不使用の手トラッキング装置
JP2009089068A (ja) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd 電子機器の制御装置、制御方法及び制御プログラム
JP2011530135A (ja) * 2008-08-04 2011-12-15 マイクロソフト コーポレーション 表面コンピューティングのためのユーザ定義のジェスチャセット
JP2010103721A (ja) * 2008-10-23 2010-05-06 Casio Hitachi Mobile Communications Co Ltd 端末装置及びプログラム
JP2010118042A (ja) * 2008-11-11 2010-05-27 Pantech Co Ltd ジェスチャを用いた移動端末のアプリケーション制御システムおよびアプリケーション制御方法
JP2012531652A (ja) * 2009-06-25 2012-12-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ クロマキーを用いたジェスチャ認識

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9396215B2 (en) 2011-09-30 2016-07-19 Rakuten, Inc. Search device, search method, recording medium, and program
JP2013077215A (ja) * 2011-09-30 2013-04-25 Rakuten Inc 検索装置、検索方法、記録媒体、ならびに、プログラム
WO2013046768A1 (ja) * 2011-09-30 2013-04-04 楽天株式会社 検索装置、検索方法、記録媒体、ならびに、プログラム
JP2013140568A (ja) * 2011-12-09 2013-07-18 Sony Corp 情報処理装置、情報処理方法、および記録媒体
US10564827B2 (en) 2011-12-09 2020-02-18 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2013186500A (ja) * 2012-03-05 2013-09-19 Toshiba Tec Corp 操作支援表示装置およびプログラム
JP2013196482A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 入力ユーザーインターフェイス装置、投影装置、プログラム及びコマンド決定方法
JP2013235588A (ja) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
WO2014027674A1 (ja) 2012-08-17 2014-02-20 Necシステムテクノロジー株式会社 入力装置、入力方法、及び記録媒体
JP2014085964A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理方法、情報処理装置、及びプログラム
JP2014085965A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
JP2014085967A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
US10506997B2 (en) 2013-03-01 2019-12-17 Canon Medical Systems Corporation X-ray diagnostic apparatus
JP2016512357A (ja) * 2013-03-15 2016-04-25 クアルコム,インコーポレイテッド バックグラウンドタスク用の対話式入力
US10152216B2 (en) 2013-06-04 2018-12-11 Samsung Electronics Co., Ltd. Electronic device and method for controlling applications in the electronic device
JP2016035640A (ja) * 2014-08-01 2016-03-17 ヤマハ株式会社 入力装置及び電子機器
JP2017174292A (ja) * 2016-03-25 2017-09-28 三菱自動車工業株式会社 タッチパネル装置
JP2021517285A (ja) * 2019-02-27 2021-07-15 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 表示方法及び装置、電子機器並びに記憶媒体
US11687209B2 (en) 2019-02-27 2023-06-27 Beijing Sensetime Technology Development Co., Ltd. Display method and apparatus for displaying display effects
JP2021033967A (ja) * 2019-08-29 2021-03-01 アルパイン株式会社 タッチパネル付表示装置
JP7495156B2 (ja) 2021-02-02 2024-06-04 北京地平▲線▼机器人技▲術▼研▲発▼有限公司 操作体に基づく動的表示方法、装置、記憶媒体及び電子機器

Also Published As

Publication number Publication date
BRPI1101065A2 (pt) 2012-08-07
KR20110102173A (ko) 2011-09-16
JP5413673B2 (ja) 2014-02-12
EP2365422A3 (en) 2015-01-21
US9229533B2 (en) 2016-01-05
US20110216075A1 (en) 2011-09-08
CN102193627A (zh) 2011-09-21
EP2365422B1 (en) 2019-01-02
RU2011107930A (ru) 2012-09-10
CN102193627B (zh) 2015-11-25
EP2365422A2 (en) 2011-09-14

Similar Documents

Publication Publication Date Title
JP5413673B2 (ja) 情報処理装置および方法、並びにプログラム
JP6538223B2 (ja) メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
DK179171B1 (en) Device, Method, and Graphical User Interface for Providing Audiovisual Feedback
US20120306879A1 (en) Information processing apparatus, information processing method, and program
US9761277B2 (en) Playback state control by position change detection
WO2015198488A1 (ja) 電子機器及び音声再生方法
WO2015052961A1 (ja) 情報処理装置
JP6509516B2 (ja) 電子機器、方法及びプログラム
JP2013539578A (ja) コンテンツ再生方法及び装置
KR20140025493A (ko) 에지 제스처 기법
EP3465405B1 (en) Slow motion video playback method for computing devices with touch interfaces
KR102134882B1 (ko) 컨텐츠 재생을 제어하기 위한 방법 및 장치
KR101366150B1 (ko) 동영상 재생속도 제어 사용자 인터페이싱 방법 및 그 방법을 실행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체
JP2014154908A (ja) 動画再生装置およびプログラム
WO2016092864A1 (ja) ユーザーインタフェースを提供する方法、プログラム及び電子機器
JP2014109885A (ja) 表示装置及び通知方法
JP6287320B2 (ja) 画像処理装置および画像処理プログラム
JP2014150435A (ja) 再生装置および再生プログラム
JP6468089B2 (ja) 表示装置、表示方法及びプログラム
JP2021149683A (ja) 動画を再生するためのプログラム、システム、及び方法
JP2017103529A (ja) 再生装置及び再生プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131030

R151 Written notification of patent or utility model registration

Ref document number: 5413673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees