JP2015038648A - 情報処理装置、制御方法およびプログラム - Google Patents

情報処理装置、制御方法およびプログラム Download PDF

Info

Publication number
JP2015038648A
JP2015038648A JP2010287726A JP2010287726A JP2015038648A JP 2015038648 A JP2015038648 A JP 2015038648A JP 2010287726 A JP2010287726 A JP 2010287726A JP 2010287726 A JP2010287726 A JP 2010287726A JP 2015038648 A JP2015038648 A JP 2015038648A
Authority
JP
Japan
Prior art keywords
specific
display
image
operator
hand shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010287726A
Other languages
English (en)
Inventor
隆宏 荒井
Takahiro Arai
隆宏 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010287726A priority Critical patent/JP2015038648A/ja
Publication of JP2015038648A publication Critical patent/JP2015038648A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Details Of Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザにとって使い勝手の良いユーザインタフェースを提供する。【解決手段】本実施形態の情報処理装置は、表示手段と、撮影手段と、制御手段とを有する。表示手段は、画像を表示する。撮影手段は、前記表示手段に表示する画像を撮影する。制御手段は、前記撮影手段で取得した操作者の画像を、操作者の動作に応じてコマンドの実行を指示する操作アイコンの画像を表示する特定領域と特定の相対位置関係となる位置に表示する。【選択図】図2

Description

本発明の実施形態は、情報処理装置、制御方法およびプログラムに関する。
従来、ハンドジェスチャなどの操作者(ユーザ)の動作を認識して、コンテンツの再生などの各種コマンドの実行指示を入力することが可能なユーザインタフェース機能を備えた情報処理装置が知られている。
特開2009−3576号公報
しかしながら、従来のユーザインタフェースは、ユーザにとって使い勝手が良くないなどの課題がある。
そこで、本発明は、前記課題に鑑みてなされたものであり、ユーザにとって使い勝手の良いユーザインタフェースを提供することを目的とする。
本実施形態の情報処理装置は、表示手段と、撮影手段と、制御手段とを有する。表示手段は、画像を表示する。撮影手段は、前記表示手段に表示する画像を撮影する。制御手段は、前記撮影手段で取得した操作者の画像を、操作者の動作に応じてコマンドの実行を指示する操作アイコンの画像を表示する特定領域と特定の相対位置関係となる位置に表示する。
図1は、本実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。 図2は、情報処理装置のソフトウェア構成を説明するためのブロック図である。 図3は、カメラによる被写体(操作者)の撮影態様を示す模式図である。 図4は、カメラの撮影により取得される画像の一構成例を示す模式図である。 図5は、ユーザインタフェース画面の一構成例を示す図である。 図6は、ユーザインタフェース画面の一構成例を示す図である。 図7は、特定領域と顔表示領域の相対位置関係を示す模式図である。 図8は、ユーザインタフェース制御部が実行する処理手順を示すフローチャートである。 図9は、図8のステップの詳細な処理を示すフローチャートである。 図10は、分割特定領域間で特定の手形状の検出が行われた場合の表示切り替えを説明する模式図である。 図11は、分割特定領域間で特定の手形状の検出が行われた場合の表示切り替えを説明する模式図である。 図12は、特定の手形状および特定のジェスチャの変形例を示す模式図である。 図13は、特定の手形状および特定のジェスチャの変形例を示す模式図である。 図14は、ユーザインタフェース画面の表示態様の変形例を示す模式図である。
以下、本発明の実施形態について添付図面を参照して説明する。
図1は、本実施形態に係る情報処理装置1のハードウェア構成を示すブロック図である。
図1に示すように、この情報処理装置1は、パーソナルコンピュータなどの一般的なコンピュータを利用したハードウェア構成となっており、例えば、制御部10と、記憶部11と、表示部12と、操作部13と、撮影部14と、電力供給部15などを有している。
制御部10は、情報処理装置1の全体を統括的に制御し、各種処理動作を制御する制御装置であり、例えば、不図示のCPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)を有するマイクロコンピュータなどで構成される。
記憶部11は、各種プログラムや、それら各種プログラムで使用される各種データなどのファイルを記憶する記憶装置であり、例えば、HDD(Hard Disk Drive)などで構成される。なお、本実施形態の記憶部11は、後述のフローチャートにおける処理手順を実行するための処理プログラムPや、その処理プログラムPで使用する各種データ(操作者の顔を検出するための顔検出用データD1や、本実施形態特有のユーザインタフェース画面120(図5、図6参照)を表示するためのユーザインタフェース画面表示用データD2や、特定の手形状を検出するための特定の手形状検出用データD3や、特定のジェスチャを検出するための特定のジェスチャ検出用データD4など)を記憶している。
表示部12は、表示面に各種画像を表示する表示装置であり、例えば、LCD(Liquid Crystal Display)などのディスプレイ121(図3参照)と、そのディスプレイ121における各種画像の表示を制御する表示コントローラ(不図示)などで構成される。
操作部13は、各種コマンドを入力する入力装置であり、例えば、キーボード131(図3参照)と、そのキーボード131からの操作信号の入力を制御する入力コントローラ(不図示)などで構成される。
撮影部14は、被写体としての操作者を撮影する撮影装置であり、例えば、RGBカラー映像を認識可能な小型3CCD(Charge−Coupled Device)カラーカメラ(以下、単に「カメラ」という。)141などで構成される。なお、このカメラ141は、ディスプレイ121の表示面の前方を撮影することが可能な位置に設置される(図3参照)。
電力供給部15は、商用電源などから前記した各負荷部10〜14に必要な電力を供給する電源装置であり、不図示のスイッチ、電源回路および電源制御回路などで構成される。
図2は、制御部10のCPUが記憶部11に記憶されている処理プログラムPを、制御部10のRAM上に展開して実行することにより実現される情報処理装置1の機能的構成(ソフトウェア構成)を説明するためのブロック図である。
図2に示すように、情報処理装置1は、機能的構成として、後述の図8および図9に示す処理手順、即ち、操作者の顔、特定の手形状および特定のハンドジェスチャを認識して、動画や音楽などのコンテンツの再生に係る各種コマンドの実行指示を入力することが可能なユーザインタフェース機能を提供する処理を行うユーザインタフェース制御部100を有している。
そして、ユーザインタフェース制御部100は、画像入力部100a、特定部分検出部100b、画像表示部100c、手形状検出部100d、ジェスチャ検出部100e、コマンド処理部100fなどを有している。
ここで、画像入力部100aは、撮影部14を用いて被写体(特に、操作者2)の画像を取得する処理を行うものである。具体的には、図3に示す撮影態様により、撮影部14のカメラ141の画角X内に入った被写体(操作者2)の画像(図4参照)を取得し、他の機能構成部(特定部分検出部100b、画像表示部100c、手形状検出部100dおよびジェスチャ検出部100e)に出力するものである。
なお、図4は、カメラ141の撮影により取得される画像の一構成例を示す模式図であり、図4に示す画像20には、被写体としての操作者の画像21と、情報処理装置1が載置される机の画像22と、本棚の画像23と、観葉植物24などが含まれている様子を示している。
特定部分検出部100bは、画像入力部100aから入力した画像から操作者2の特定部分(顔)を検出する処理を行うものである。具体的には、この特定部分検出部100bは、顔検出用データD1に含まれる、顔の輪郭を示す情報や、目、鼻、口および耳の距離間隔を示す情報や、肌の色を示す情報などに基づいて、画像入力部100aで取得した画像から操作者2の顔を検出する。即ち、特定部分検出部100bが検出する操作者の特定部分(顔)は、後述のユーザインタフェース画面120をディスプレイ121に表示させるためのトリガとなるものである。
画像表示部100cは、特定部分検出部100bが操作者2の顔を検出した場合に、表示部12を用いて、操作者の動作に応じて、動画や音楽などのコンテンツの再生に係る各種コマンドの実行を指示することが可能なユーザインタフェース画面120(図5、図6参照)をディスプレイ121に表示する処理を行うものである。
図5および図6は、ユーザインタフェース画面120の一構成例を示す図である。
図5および図6に示すように、このユーザインタフェース画面120は、カメラ141で撮影された操作者2の画像に、各種コマンドの実行を指示するための各種操作アイコンI1〜I5の画像を重ね合わせた画像を表示するものである。
そして、本実施形態のユーザインタフェース画面120では、各種操作アイコンI1〜I5を表示する特定領域T1と、この特定領域T1と特定の相対位置関係(図7参照)にあり、操作者の顔を表示する顔表示領域T2とが定義されている。
特定領域T1は、5つの分割特定領域t1〜t5から構成されている。そして、各分割特定領域(t1〜t5)には、それぞれコンテンツの再生に係るコマンドを指示するための操作アイコン(I1〜I5)がそれぞれ一つずつ割り当てられている。
具体的には、図の例では、分割特定領域t1には、巻き戻しを指示する操作アイコンI1が割り当てられ、分割特定領域t2には、音量下げを指示する操作アイコンI2が割り当てられ、分割特定領域t3には、再生または一時停止を指示する操作アイコンI3が割り当てられ、分割特定領域t4には、音量上げを指示する操作アイコンI4が割り当てられ、分割特定領域t5には、早送りを指示する操作アイコンI5が割り当てられている。
即ち、画像表示部100cは、特定部分検出部100bが操作者2の顔を検出した場合に、各種コマンドの実行を指示する各操作アイコンI1〜I5の画像を表示する特定領域T1(分割特定領域t1〜t5)と特定の相対位置関係となる位置(図7なども参照)にある顔表示領域T2に、操作者2の顔が丁度良く収まる操作者の画像を、画像入力部100aから入力した画像から生成する。具体的には、画像表示部100cは、カメラ141で取得される画像20(図4参照)から、顔表示領域T2を考慮してユーザインタフェース画面120に表示する必要なエリア画像20Aを切り出す。なお、画像表示部100cは、操作者2の画像を左右反転させて鏡のように操作者2を表示する。
図7は、特定領域T1(分割特定領域t1〜t5)と顔表示領域T2との表示座標を示し、両者の位置関係を示す模式図である。
図7に示すように、本実施形態では、例えば、ディスプレイ121の表示可能領域の左下隅、左上隅、右下隅、右上隅の表示座標を、それぞれ(0、0)、(0、100)、(90、0)および(90、100)とした場合に、分割特定領域t1が4つの表示座標(0、30)、(0、60)、(30、30)および(30、60)で囲まれる領域となり、分割特定領域t2が4つの表示座標(0、0)、(0、30)、(30、0)および(30、30)で囲まれる領域となり、分割特定領域t3が4つの表示座標(30、0)、(30、30)、(60、0)および(60、30)で囲まれる領域となり、分割特定領域t4が4つの表示座標(60、0)、(60、30)、(90、0)および(90、30)で囲まれる領域となり、分割特定領域t5が4つの表示座標(60、30)、(60、60)、(90、30)および(90、60)で囲まれる領域となるように定義されている。
また、顔表示領域T2が、前記した5つの分割特定領域t1〜t5に近接した4つの表示座標(35、50)、(35、75)、(55、50)および(55、75)で囲まれる領域となるように定義されている。即ち、この表示領域は、顔表示領域T2に操作者2の顔(特定部分)を表示した場合に、特定領域T1に表示される各操作アイコンI1〜I5を操作者2が操作し易い(例えば、操作者2が腕を伸ばしきったりせず、体の中心や操作者2の特定部分の近辺で腕を動かす程度の動作により操作できる)と定義した領域である。なお、この領域は、例えば、操作者の特定部分(顔など)の平均的なサイズ(例えば、人の顔の平均的な横幅や、縦幅など)に、特定領域T1のサイズに応じて決定される特定の数値を掛けるなどして算出することができる。
即ち、画像表示部100cは、5つの分割特定領域t1〜t5に近接した4つの表示座標(35、50)、(35、75)、(55、50)および(55、75)で囲まれる表示領域に、操作者2の顔が配置されるように操作者2の画像を表示する。
また、画像表示部100cは、後述の手形状検出部100dおよびジェスチャ検出部100eからの信号に基づいてユーザインタフェース画面120に含まれる操作アイコン(I1〜I5)の表示を後述の通常表示、第1の特定表示および第2の特定表示の間で交互に変更する。
図2に戻って、手形状検出部100dは、ユーザインタフェース画面120に表示される操作者2の画像21およびその表示座標と、特定領域T1の表示座標と、予め登録されている特定の手形状検出用データD3とを用いて、特定領域T1における操作者2の特定の手形状を検出する処理を行うものである。
なお、特定の手形状検出用データD3には、例えば、「掌形状:操作者が掌を開いて(5本の指を伸ばして)カメラ141に向けた状態の手形状」を示す画像などが含まれており、手形状検出部100dは、「掌形状」と合致する手形状を特定の手形状として検出する。
そして、手形状検出部100dは、特定の手形状を検出した場合に、その特定の手形状を検出した分割特定領域(t1〜t5のいずれか)に対応付けられた操作アイコン(I1〜I5のいずれか)が一時的に選択(仮選択)されたことを示す選択信号を画像表示部100cに出力する。なお、画像表示部100cでは、選択信号を入力すると、該当する操作アイコン(I1〜I5のいずれか)の表示を、選択されていないことを示す通常表示(図5の白背景表示)から、一時的に選択された状態(仮選択状態)であることを示す第1の特定表示(図5の斑点表示)に切り替える。
即ち、手形状検出部100dが検出する特定の手形状は、ユーザインタフェース画面120の特定領域T1に表示される操作アイコンI1〜I5を仮選択状態にするためのトリガとなるものである。
ジェスチャ検出部100eは、手形状検出部100dが特定の手形状を検出した場合に、ユーザインタフェース画面120に表示される操作者2の画像21およびその表示座標と、特定領域の表示座標と、予め登録されている特定のジェスチャ検出用データD4とを用いて、操作者の特定のジェスチャを検出する処理を行うものである。
なお、特定のジェスチャ検出用データD4には、例えば、特定のジェスチャ結果を示す「上向き拳形状:操作者が掌を握って(5本の指を内側に曲げ固めて)、内側をカメラ141に向けた状態の手形状」を示す画像などが含まれており、ジェスチャ検出部100eは、「上向き拳形状」と合致する手形状を行うジェスチャを特定のジェスチャとして検出する。
そして、ジェスチャ検出部100eは、特定のジェスチャを検出した場合に、その特定のジェスチャを検出した分割特定領域(t1〜t5のいずれか)に対応付けられた操作アイコン(I1〜I5のいずれか)の選択が確定されたことを示す確定信号を画像表示部100cに出力する。なお、画像表示部100cは、確定信号を入力すると、該当する操作アイコン(I1〜I5のいずれか)の表示を、第1の特定表示(図5の斑点表示)から、選択が確定された状態(即ち、コマンドの実行が指示された状態)であることを示す第2の特定表示(図6の斜線表示)に一定時間(例えば、「0.5秒」など)切り替える。
また、ジェスチャ検出部100eは、操作者の特定のジェスチャ(上向き拳形状)を検出した場合に、当該特定のジェスチャ(上向き拳形状)を検出した分割特定領域(t1〜t5のいずれか)の操作アイコン(I1〜I5のいずれか)に対応付けられたコマンドの実行指示をコマンド処理部100fに出力する。
即ち、ジェスチャ検出部100eが検出する特定のジェスチャは、ユーザインタフェース画面120の特定領域T1に表示される操作アイコンI1〜I5に対応付けられたコマンドの実行指示を確定するためのトリガとなるものである。
なお、第1の特定表示の表示態様は、通常表示の表示態様と区別できる表示態様であれば良く、例えば、操作アイコンI1〜I5を発光または点滅させたり、色を変化させたり、透過性を変化させたり、アイコンの縁の太さを変化させたりして、通常表示と異ならせる表示態様とすることができる。また、第2の特定表示の表示態様も、第1の特定表示の表示態様と同様に、第1の表示態様と区別できる表示態様であれば良いものとする。
コマンド処理部100fは、ジェスチャ検出部100eから入力したコマンドの実行指示に応じて、該当するコマンドの実行処理を行う。具体的には、コマンド処理部100fは、早送りのコマンドの実行指示を入力した場合には、コンテンツの早送りを実行し、巻き戻しのコマンドの実行指示を入力した場合には、コンテンツの巻き戻しを実行する。
次に、情報処理装置1におけるコマンド入力時の処理動作について説明する。
図8は、ユーザインタフェース制御部100が実行する処理手順を示すフローチャートである。
図8に示すように、情報処理装置1では、操作者2の操作部13における所定の操作によりコンテンツを再生するアプリケーション(に組み込まれた処理プログラムP)が立ち上げられると、ユーザインタフェース制御部100が動作し、まず、ステップS1において、特定部分検出部100bが、画像入力部100aから入力する画像から操作者2の顔の検出処理を実行する。
なお、操作者2は、カメラ141の撮影窓(ディスプレイ121の表示面の前方)の前方で、カメラ141から所定距離(1m〜2m)離れた撮影範囲内に入ることにより(図3参照)、本実施形態のユーザインタフェースを最適に利用することが可能となっている。
ステップS1の処理の結果、操作者2の顔を検出すると(ステップS2:Yes)、続いて、ステップS3において、画像表示部100cが、ユーザインタフェース画面120(図5参照)をディスプレイ121に表示する。なお、このステップS3の詳細な処理を図9に示している。
図9に示すように、ステップS3の処理では、まず、ステップS31において、画像表示部100cが、操作者2の顔が顔表示領域T2に丁度良く収まる操作者の画像を、画像入力部100aから入力した画像から生成する。
その後、ステップS32において、生成した画像に、予め用意されている各種コマンドの実行を指示する操作アイコンI1〜I5の画像を重ねて表示したユーザインタフェース画面120(図5参照)をディスプレイ121に表示する。
次に、図8に戻って、ステップS4およびステップS5において、ユーザインタフェース制御部100では、手形状検出部100dが特定の手形状を検出するか否か、または、特定部分検出部100bが顔の検出を終了するか否かを判定する。
その判定の結果、手形状検出部100dが特定領域T1において特定の手形状を検出すると(ステップS4:Yes)、手形状検出部100dが画像表示部100cに選択信号を出力する。すると、ステップS6において、選択信号を受信した画像表示部100cが該当する操作アイコン(I1〜I5のいずれか)を第1の特定表示に切り替える。
なお、ステップS6の操作アイコンの表示変更処理においては、画像表示部100cは、特定領域T1内で、操作者2の手形状を検出しており、隣接する分割特定領域間(t1〜t5のいずれか2つ)で特定の手形状の移動状態が検出される場合には、特定の手形状が隣接する分割特定領域間(t1〜t5のいずれか2つ)の境界Bから一定距離移動する状態を検出しなければ(図10参照)、移動元の操作アイコン(I1〜I5のいずれか)の表示を第1の特定表示のままにし、移動先の操作アイコン(I1〜I5のいずれか)の表示を通常表示のままにする。一方、特定の手形状が隣接する分割特定領域間(t1〜t5のいずれか2つ)の境界Bから一定距離移動した状態を検出した場合(図11参照)には、移動元の操作アイコン(I1〜I5のいずれか)の表示を第1の特定表示から通常表示に切り替え、移動先の操作アイコン(I1〜I5のいずれか)の表示を通常表示から第1の特定表示に切り替える。
続いて、ステップS7およびステップS8において、ユーザインタフェース制御部100では、ジェスチャ検出部100eが特定のジェスチャを検出するか、または、手形状検出部100dが特定の手形状の検出を終了して一定時間経過したかを判定する。
その判定の結果、ジェスチャ検出部100eが特定のジェスチャを検出すると(ステップS7:Yes)、ジェスチャ検出部100eが画像表示部100cに確定信号を出力するとともに、コマンド処理部100fにコマンドの実行指示を出力する。すると、ステップS9において、確定信号を受信した画像表示部100cが該当する操作アイコン(I1〜I5のいずれか)を一定時間だけ第2の特定表示に切り替える。
即ち、本実施形態では、操作者2の特定の手形状の検出のみでは、操作アイコン(I1〜I5)に対応するコマンドの実行はされず、特定の手形状の検出後、更に、続いて、特定のジェスチャが検出された場合に、操作アイコン(I1〜I5)に対応するコマンドの実行処理が行われるようになっている。
続いて、ステップS10において、コマンド処理部100fが、該当するコマンド(例えば、「早送り」など)の実行処理を行う。
その後、ステップS11において、ステップS5と同様の処理により、操作者2の顔の検出を終了したと判定した場合には(ステップS11:Yes)、ここでの処理を終了する。一方、ステップS11において、操作者2の顔を検出している場合には(ステップS11:No)、ステップS4に戻って以下同様の処理を行う。
一方、ステップS4およびステップS5の判定の結果、特定部分検出部100bが操作者2の顔の検出を終了した場合には(ステップS5:Yes)、ここでの処理を終了する。
また、ステップS8において、手形状検出部100dが特定の手形状の検出を終了して一定時間経過したと判定した場合には(ステップS8:Yes)、ステップS4に戻って以下同様の処理を行う。
即ち、以上説明した実施形態によれば、操作者の使い勝手を向上させることが可能である。具体的には、カメラの撮影により取得した操作者の画像を、検出した操作者の手(ジェスチャ)の動作に応じてコマンドの実行を指示する操作アイコンを表示する特定領域と特定の相対位置関係(即ち、操作者が操作し易い位置関係)となる位置に表示し、操作アイコンに重なる操作者の手の動作に応じてコマンドの実行指示を入力することが可能なユーザインタフェースを提供するようにしたため、操作者は簡単な手の動作(ジェスチャ)により所望のコマンドの実行を指示することが可能である。
また、従来では、操作者は手を出し、その手により所望の操作アイコンまでカーソル(セレクタ)を移動させ、所望の操作アイコンにカーソルが重なっている状態で、所定の決定アクションを行うことにより所望のコマンドの実行が行えるユーザインタフェースがあるが、この従来のユーザインタフェースでは、カーソルの移動の途中で操作者の手の認識が途切れるとコマンドの実行が行えず、最初から操作をやり直す必要があるなど操作者にとって手間の掛かるものであった。
これに対し、本実施形態のユーザインタフェースでは、所望の操作アイコンが表示される領域で手を特定の手形状にし、特定のジェスチャを行うという簡単な操作を行うだけで良く、従来のユーザインタフェースに比べ、操作者の手間を省き、操作者にとって使い勝手が良いものである。
更に、本実施形態のユーザインタフェースでは、何度か使用しているうちに、操作者は、自分の顔を基準とした一定の距離で操作アイコンの操作を行うことができることを記憶することで、ユーザインタフェース画面を確認することなく操作アイコンを操作して各種コマンドの実行を指示することができる。
以上、例示的な実施形態に基づいて説明したが、本実施形態は、前記した実施形態により限定されるものではない。
例えば、前記した実施形態では、特定部分検出部100bが検出する操作者2の特定部分を「顔」とする場合について説明したが、これに限定されず、その他の特定部分とすることも可能である。具体的には、操作者2の特定部分としては、例えば、体の中心部分にある「鼻」や「口」、または、顔の近辺にある「肩」などが挙げられる。
また、前記した実施形態では、手形状検出部100dが検出する操作者2の特定の手形状を「掌形状」とし、ジェスチャ検出部100eが検出する特定のジェスチャを「掌形状からの上向き拳形状」とする場合について説明したが、これに限定されず、その他の特定の手形状および特定のジェスチャとすることも可能である。
具体的には、例えば、図12に示すように、特定の手形状を「上向き拳形状」とし、特定のジェスチャを「上向き拳形状からの掌形状」というジェスチャとすることも可能であるし、その他、図13に示すように、特定の手形状を、操作者2が掌を握って握った拳をカメラ141に向けた状態の形状である「前向き拳形状」とし、特定のジェスチャを、前向き拳形状から親指を上げた状態である「親指上げ拳形状」というジェスチャとすることも可能である。
また、その他の特定の手形状としては、特に図示していないが、操作者が人差し指を伸ばしてカメラ141に向けた状態の形状である「指差し形状」や、操作者が人差し指および中指を上方に向けて伸ばし、掌側をカメラ141に向けた状態の形状である「指上げ形状」などが挙げられ、他方、特定のジェスチャとしては、「掌形状から掌をカメラ141方向に倒す」というジェスチャや、「掌形状から掌をカメラ141方向に押し出す」というジェスチャなどが挙げられる。
また、前記した実施形態では、手形状検出部100dおよびジェスチャ検出部100eは、それぞれ予め定められた一つの特定の手形状、特定のジェスチャのみしか検出しない形態について説明したが、これに限定されず、予め複数の特定の手形状および特定のジェスチャを登録しておき、手形状検出部100dおよびジェスチャ検出部100eがそれぞれ登録されている複数の特定の手形状および特定のジェスチャのいずれかを検出するような形態とすることも可能である。
また、前記した実施形態では、ユーザインタフェース画面120を表示するタイミングを、操作者2の顔を検出した場合について説明したが、これに限定されず、その他のタイミングとすることも可能である。具体的には、例えば、操作者2の顔を検出した後、更に、操作者2の手形状を検出したタイミングとすることも可能である。
また、前記した実施形態では、ユーザインタフェース画面120を情報処理装置1の表示面の全体の領域に表示する形態(即ち、音楽コンテンツを再生する場合に最適な利用形態)について説明したが、これに限定されず、例えば、動画コンテンツを再生する場合に最適な利用形態として、図14に示すように、ユーザインタフェース画面120を表示面の一部の領域T3に表示し、そのT3の領域以外の他の領域T4に、動画などのコンテンツを表示するような形態とすることも可能である。
また、前記した実施形態では、図7に示すように、操作者2の顔(特定部分)を表示する顔表示領域T2を、特定領域T1との特定の相対位置関係となる位置に固定とする形態について説明したが、これに限定されず、例えば、操作者2の顔(特定部分)のサイズに応じて操作者2毎に操作し易い位置に適宜調節するような形態とすることも可能である。
また、前記した実施形態では、情報処理装置1としてパーソナルコンピュータに適用した場合について説明したが、これに限定されず、その他の情報処理装置1に適用することも可能であり、例えば、テレビジョン受像装置や、携帯型の情報端末などに適用することも可能である。
また、前記した実施形態のユーザインタフェース画面120では、特定領域T1として、5つの分割特定領域t1〜t5を有し、顔表示領域T2と特定の相対位置関係となる箇所で凹状に配置される形態について説明したが、これに限定されず、顔表示領域T2と特定の相対位置関係(即ち、操作者が操作し易い位置関係)となる箇所に配置されさえすれば、その他の配置であっても良いものとする。具体的には、顔表示領域T2の周辺を円状に囲むような配置や、顔表示領域T2の下方位置に横一列に並ぶような配置や、操作者の利き腕を認識して、その利き腕側に並べる配置などとすることも可能である。
また、前記した実施形態では、ユーザインタフェース制御部100を実現するための処理プログラムPを、コンテンツを再生するためのアプリケーションに組み込んだ場合について説明したが、これに限定されず、例えば、前記アプリケーションには組み込まれず、そのアプリケーションに対して操作者によるコマンドの実行指示を仲介する処理プログラムPとすることも可能である。なお、その場合には、コマンド処理部100fは、コマンドを実行するのではなく、コマンドの実行を指示する信号をアプリケーションに出力する。
また、前記した実施形態では、操作アイコン(I1〜I5)は、コンテンツの再生に係るコマンドの実行を指示するアイコンである場合について説明したが、これ以外にも、例えば、所定のアプリケーションの起動に係るコマンドの実行を指示する操作アイコンとすることも可能である。
また、前記した実施形態の情報処理装置1で実行される処理プログラムPは、情報処理装置1に予めインストールされる以外にも、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読取り可能な記憶媒体に記憶して提供しても良いし、インターネットなどのネットワーク経由で提供または配布するようにしても良い。
その他、前記した実施形態における情報処理装置のハードウェア構成および機能的構成や、ユーザインタフェース画面の構成や、そのユーザインタフェース画面で表示される操作アイコンの種別やレイアウトや、処理手順などは、単なる例として記載したものであり、本実施形態は、それらにより限定されない。
1 情報処理装置
10 制御部
11 記憶部
12 表示部(表示手段)
121 ディスプレイ
13 操作部
131 キーボード
14 撮影部(撮影手段)
141 カメラ(撮影手段)
15 電力供給部
100 ユーザインタフェース制御部(制御手段)
100a 画像入力部
100b 特定部分検出部(特定部分検出手段)
100c 画像表示部(画像表示手段)
100d 手形状検出部(手形状検出手段)
100e ジェスチャ検出部(ジェスチャ検出手段)
100f コマンド処理部(コマンド実行手段)
120 ユーザインタフェース画面
I1〜I5 操作アイコン
T1 特定領域
t1〜t5 分割特定領域
T2 顔表示領域

Claims (11)

  1. 画像を表示する表示手段と、
    前記表示手段に表示する画像を撮影する撮影手段と、
    前記撮影手段で取得した操作者の画像を、操作者の動作に応じてコマンドの実行を指示する操作アイコンの画像を表示する特定領域と特定の相対位置関係となる位置に表示する制御手段と、
    を有する情報処理装置。
  2. 前記制御手段は、操作者の画像を、前記特定領域の表示座標と前記操作者の特定部分の表示座標とが前記特定の相対位置関係となる位置に表示する請求項1に記載の情報処理装置。
  3. 前記特定の相対位置関係とは、前記操作アイコンを操作者が操作し易い位置と定義された位置関係のことである請求項2に記載の情報処理装置。
  4. 前記制御手段は、
    前記撮影手段で取得した画像から操作者の特定部分を検出する特定部分検出手段と、
    前記特定部分検出手段で前記特定部分を検出した場合に、前記操作アイコンの画像と、前記特定部分の画像が前記特定領域と特定の相対位置関係となる位置に配置される操作者の画像とを表示する画像表示手段と、
    前記画像表示手段の表示後、前記特定領域における操作者の特定の手形状を検出する手形状検出手段と、
    前記手形状検出手段で前記特定の手形状を検出した場合に、前記特定領域における操作者の特定のジェスチャを検出するジェスチャ検出手段と、
    前記ジェスチャ検出手段で前記特定のジェスチャを検出した場合に、前記操作アイコンに対応するコマンドを実行する処理を行うコマンド実行手段と、
    を更に有する請求項1〜3のいずれか一項に記載の情報処理装置。
  5. 前記特定領域が複数の分割特定領域に区切られ、分割特定領域毎に異なる操作アイコンが割り当て表示され、
    前記手形状検出手段および前記ジェスチャ検出手段は、分割特定領域毎に検出を行い、前記コマンド実行手段は、前記ジェスチャ検出手段で前記特定のジェスチャを検出した分割特定領域に対応するコマンドを実行する請求項4に記載の情報処理装置。
  6. 前記制御手段は、前記手形状検出手段で特定の手形状を検出した場合に、前記特定の手形状を検出した分割特定領域に対応する操作アイコンの表示を第1の特定表示に切り替え、該切り替え後、前記ジェスチャ検出手段で特定のジェスチャを検出した場合に、前記操作アイコンの表示を前記第1の特定表示と異なる第2の特定表示に切り替える請求項5に記載の情報処理装置。
  7. 前記制御手段は、前記手形状検出手段により、隣接する分割特定領域間で特定の手形状の移動が検出される場合、前記特定の手形状が前記隣接する分割特定領域間の境界から一定距離移動したのを検出した場合に、移動元の操作アイコンの表示を第1の特定表示から通常表示に戻し、他方、移動先の操作アイコンの表示を通常表示から第1の特定表示に切り替える請求項6に記載の情報処理装置。
  8. 操作アイコンとは、コンテンツの再生に係るコマンドの実行を指示するアイコンである請求項1〜7のいずれか一項に記載の情報処理装置。
  9. 操作アイコンとは、カーソルキー、決定キー、戻るキー、および、所定のアプリケーションの起動に係るコマンドの実行を指示するキーのいずれかのアイコンである請求項1〜7のいずれか一項に記載の情報処理装置。
  10. 画像を表示する表示手段と、
    前記表示手段に表示する画像を取得する撮影手段と、
    を有する情報処理装置で実行される制御方法であって、
    制御手段が、前記撮影手段で取得した操作者の画像を、操作者の動作に応じてコマンドの実行を指示する操作アイコンの画像を表示する特定領域と特定の相対位置関係となる位置に表示する制御方法。
  11. 画像を表示する表示手段と、
    前記表示手段に表示する画像を撮影する撮影手段と、
    を有する情報処理装置に実装されるコンピュータを、
    前記撮影手段で取得した操作者の画像を、操作者の動作に応じてコマンドの実行を指示する操作アイコンの画像を表示する特定領域と特定の相対位置関係となる位置に表示する制御手段と、
    して機能させるプログラム。
JP2010287726A 2010-12-24 2010-12-24 情報処理装置、制御方法およびプログラム Pending JP2015038648A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010287726A JP2015038648A (ja) 2010-12-24 2010-12-24 情報処理装置、制御方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010287726A JP2015038648A (ja) 2010-12-24 2010-12-24 情報処理装置、制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2015038648A true JP2015038648A (ja) 2015-02-26

Family

ID=52631698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010287726A Pending JP2015038648A (ja) 2010-12-24 2010-12-24 情報処理装置、制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2015038648A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7336553B2 (ja) 2022-02-07 2023-08-31 三菱電機Itソリューションズ株式会社 処理実行装置、処理実行方法及び処理実行プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7336553B2 (ja) 2022-02-07 2023-08-31 三菱電機Itソリューションズ株式会社 処理実行装置、処理実行方法及び処理実行プログラム

Similar Documents

Publication Publication Date Title
JP6286599B2 (ja) 文字入力インターフェース提供方法及び装置
JP5087532B2 (ja) 端末装置、表示制御方法および表示制御プログラム
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
TWI509497B (zh) 可攜式裝置之操作方法及系統
US9348420B2 (en) Adaptive projected information handling system output devices
US20160196060A1 (en) Gesture Controlled Adaptive Projected Information Handling System Input and Output Devices
US20170068416A1 (en) Systems And Methods for Gesture Input
US20120050192A1 (en) Information processing apparatus, information processing apparatus control method and storage medium
US20150268773A1 (en) Projected Information Handling System Input Interface with Dynamic Adjustment
US9965038B2 (en) Context adaptable projected information handling system input environment
JP2015508211A (ja) カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
KR20160060109A (ko) 모션 또는 그의 부재에 기초한 터치 기반 디바이스 상의 제어 인터페이스의 제시
KR101586559B1 (ko) 정보 처리 장치 및 정보 처리 방법
JP6265145B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、表示装置
CA2826933C (en) Method and apparatus for providing graphic user interface in mobile terminal
US20180181263A1 (en) Uninterruptable overlay on a display
JP5865615B2 (ja) 電子機器および制御方法
US10133355B2 (en) Interactive projected information handling system support input and output devices
KR20210032876A (ko) 버튼 설정 방법, 장치 및 기록 매체
US20150268739A1 (en) Projected Information Handling System Input Environment with Object Initiated Responses
US10908868B2 (en) Data processing method and mobile device
WO2016183912A1 (zh) 菜单布局方法及装置
JP5835240B2 (ja) 情報処理装置、情報処理方法及びプログラム
TWI564780B (zh) 觸控螢幕姿態技術
US20120151409A1 (en) Electronic Apparatus and Display Control Method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120424