JP2013012158A - 電子機器および制御方法 - Google Patents

電子機器および制御方法 Download PDF

Info

Publication number
JP2013012158A
JP2013012158A JP2011145960A JP2011145960A JP2013012158A JP 2013012158 A JP2013012158 A JP 2013012158A JP 2011145960 A JP2011145960 A JP 2011145960A JP 2011145960 A JP2011145960 A JP 2011145960A JP 2013012158 A JP2013012158 A JP 2013012158A
Authority
JP
Japan
Prior art keywords
hand
operation mode
face
shape
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011145960A
Other languages
English (en)
Other versions
JP5865615B2 (ja
Inventor
Takahiro Arai
隆宏 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011145960A priority Critical patent/JP5865615B2/ja
Publication of JP2013012158A publication Critical patent/JP2013012158A/ja
Application granted granted Critical
Publication of JP5865615B2 publication Critical patent/JP5865615B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ハンドジェスチャ認識で使用される操作モードを容易に選択することができる電子機器を実現する。
【解決手段】実施形態によれば、顔検出手段は、カメラによって撮影された映像内の顔を認識し、前記映像内における前記顔の位置を検出する。手形状検出手段は、前記映像内の第1の形状の手を認識し、前記映像内における前記第1の形状の手の位置を検出する。操作モード選択手段は、前記顔の検出位置に対する前記第1の形状の手の検出位置の相対位置を示す第1の値を算出し、前記第1の値に基づいて、複数の操作モードから第1の操作モードを選択する。ハンドジェスチャ認識手段は、前記映像を用いて、前記選択された前記第1の操作モードで使用されるべきハンドジェスチャに関連する手の形状および動きを認識し、前記認識結果に応じて電子機器の動作を制御する。
【選択図】図3

Description

本発明の実施形態は、電子機器および同機器を制御するための制御方法に関する。
近年、パーソナルコンピュータ(PC)等の電子機器においては、キーボード、マウス、リモコンユニット等の操作デバイスを使うことなく、電子機器を制御するための新たな入力インタフェースの開発が進められている。
このような新たな入力インタフェースの一つに、ハンドジェスチャインタフェースがある。ハンドジェスチャインタフェースは、カメラによって撮影された画像を用いてユーザの手の形状及び動き(ハンドジェスチャ)を認識し、その認識結果に基づいて電子機器を制御する。
しかし、一般に、認識可能なハンドジェスチャの種類には限りがある。一方、電子機器の機能の多様化および複雑化により、電子機器を制御するための操作の種類は増える傾向にある。
このため、最近では、操作の種類に対応する幾つかの操作モードを有するハンドジェスチャインタフェースが開発され始めている。使用する操作モードを切り替える方法としては、トップメニューのような操作モードメニューを表示し、その操作モードメニュー上の多数の項目から目的の操作モードに対応する項目を選択するという方法が考えられる。
特開2009−230460号公報
項目の選択はハンドジャスタを用いて行ってもよい。しかし、この場合には、操作モードメニュー上の目的の項目にカーソルを移動させるためのハンドジェスチャ、およびエンタキーを入力するためのハンドジェスチャといった幾つかのハンドジェスチャを認識することが必要となるかもしれない。したがって、操作モードメニューを用いる上述の方法では、目的の操作モードが利用可能になるまでに時間がかかり、これによってハンドジェスチャインタフェースの操作性が低下される可能性がある。
本発明は、ハンドジェスチャ認識で使用される操作モードを容易に選択することができる電子機器及び制御方法を提供することを目的とする。
実施形態によれば、電子機器は、顔検出手段と、手形状検出手段と、操作モード選択手段と、ハンドジェスチャ認識手段とを具備する。前記顔検出手段は、カメラによって撮影された映像内の顔を認識し、前記映像内における前記顔の位置を検出する。前記手形状検出手段は、前記映像内の第1の形状の手を認識し、前記映像内における前記第1の形状の手の位置を検出する。前記操作モード選択手段は、前記顔の検出位置に対する前記第1の形状の手の検出位置の相対位置を示す第1の値を算出し、前記第1の値に基づいて、複数の操作モードから第1の操作モードを選択する。前記ハンドジェスチャ認識手段は、前記映像を用いて、前記選択された前記第1の操作モードで使用されるべきハンドジェスチャに関連する手の形状および動きを認識し、前記認識結果に応じて前記電子機器の動作を制御する。
実施形態に係る電子機器の外観を示す斜視図。 同実施形態の電子機器のシステム構成例を示すブロック図。 同実施形態の電子機器で実行されるハンドジェスチャ認識プログラムの構成例を示すブロック図。 同実施形態の電子機器で用いられる操作モードの配置例を示す図。 同実施形態の電子機器で用いられる操作モードの1つであるセレクト操作モードの実行例を示す図。 同実施形態の電子機器で用いられる操作モードの1つであるAVコントロールメニューモードの実行例を示す図。 同実施形態の電子機器で用いられる操作モードの1つである音量操作モードの実行例を示す図。 同実施形態の電子機器で用いられる操作モードの他の配置例を示す図。 同実施形態の電子機器で用いられる操作モードの選択を説明する図。 同実施形態の電子機器で用いられる操作モード選択画面を示す図。 同実施形態の電子機器で用いられる各操作モードの基準値を説明する図。 同実施形態の電子機器において、操作モードを選択する際に用いられる一致度を説明する図。 同実施形態の電子機器によって実行される操作モード切り替え処理の手順の例を示すフローチャート。 同実施形態の電子機器で実行される操作モード選択時の操作モードの座標位置の一例を示す図。 同実施形態の電子機器で実行されるハンドジェスチャ認識プログラムの使用時に表示される表示画面の例を示す図。
以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ10として実現されている。これ以外にも、電子機器は例えば、デジタルテレビであってもよい。図1に示すように、本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、LCD(liquid crystal display)17及びビデオカメラ20が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。
ビデオカメラ20は、ディスプレイユニット12の上端部のほぼ中央位置に設けられている。ビデオカメラ20は、ユーザの画像を撮影するためのカメラである。このカメラ20によって撮影される画像(映像)は、ユーザの手の形状および動きを認識するハンドジェスチャ認識に用いられる。なお、ビデオカメラ20が設けられる位置はディスプレイユニット12の上端部でなくてもよく、例えばディスプレイユニット12の下端部であってもよい。さらに、ビデオカメラ20は、例えばUSBインタフェースを備えた外付けのビデオカメラでもよい。
コンピュータ本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。また、コンピュータ本体11の右側面には、USBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。
図2は、本コンピュータ10のシステム構成を示す図である。
本コンピュータ10は、図2に示されているように、中央処理装置(CPU)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU))105、ビデオメモリ(VRAM)105A、サウンドコントローラ106、BIOS−ROM107、LANコントローラ108、ハードディスクドライブ(HDD)109、光ディスクドライブ(ODD)110、ビデオカメラ20、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM114等を備える。
CPU101は、本コンピュータ10内の各部の動作を制御するプロセッサである。CPU101は、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)201、及びハンドジェスチャ認識プログラム202のような各種アプリケーションプログラムを実行する。ハンドジェスチャ認識プログラム202は、例えばビデオカメラ20によって取得された各画像フレーム(つまり、映像)を用いてユーザの手の形状や手の動き(ハンドジェスチャ)を認識し、その認識結果に基づいて本コンピュータ10の動作を制御するプログラムである。より詳しくは、本コンピュータ10によって実行される幾つかのアプリケーションプログラムが、ハンドジェスチャの認識結果に基づいて制御される。また、ハンドジェスチャ認識プログラム202はこれ以外にも映像に含まれる顔(顔画像)を検出し認識する。
ハンドジェスチャ認識プログラム202によって制御されるアプリケーションプログラム(ハンドジェスチャ対応アプリケーション)としては、例えば、ウェブブラウザ、メディアコンテンツ再生アプリケーション、ファイルシステムによって管理されている多数のフォルダおよび多数のファイルを閲覧するためのファイル操作プログラム、TV放送番組等のコンテンツを再生するTVアプリケーションである。
また、CPU101は、BIOS−ROM107に格納されたBIOS(basic input/output system)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、例えば、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。
サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイス及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18Bに出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、外部機器との通信を実行する。カードコントローラ111Bは、コンピュータ本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。
EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC113は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。
次に図3を参照して、ハンドジェスチャ認識プログラム202の動作について説明する。
図3は、本実施形態のハンドジェスチャ認識プログラム202の機能や動作のシステム構成を示すブロック図の一例である。
ハンドジェスチャ認識プログラム202は、ハンドジェスチャ認識部300、顔検出部304、及び制御部305から構成される。ハンドジェスチャ認識部300は、手形状検出部301、手の動き検出部302、及び機能実行部303から構成される。また、制御部305は、操作モード選択部306、グラフィカルユーザインタフェース(GUI)表示部307、位置記憶部308、及び位置設定部309から構成される。
具体的な各ブロックの機能について説明する前に、本実施形態で実施されるハンドジェスチャ認識プログラム202を使用するインタフェース(以下、ハンドジェスチャインタフェースとも称す)における操作モード選択の方法の概要について説明する。
ハンドジェスチャ認識プログラム202はアプリケーションを操作するための複数の操作の種類にそれぞれ対応する複数の操作モードを有している。操作の種類(操作モード)の例としては、例えば、AVコントロール(再生、一時停止、早送り等)、セレクト操作(矢印キー、決定、戻る)、マウスカーソル操作、ランチャーメニュー選択操作、音量操作等が挙げられる。
ハンドジェスチャ対応のアプリケーションをユーザが使用する際、ユーザは必要に応じて複数の操作モードを選択的に使用して、そのアプリケーションを操作するかもしれない。認識可能なハンドジェスチャの種類には限りがある等の理由により、ハンドジェスチャインタフェースによって上述のすべての種類の操作を同時にサポートすることは困難である。従って、操作モードを切り替える必要が生じる。また、ユーザにとって、アプリケーションの使用時に、複数の操作モードをスムーズに切り替えることができなければ不便である。そこで、本実施形態では、ビデオカメラ20によって撮影された映像(画像フレーム群)を用いてユーザの顔と操作トリガとなる特定の手形状(例えば掌)とが検出され、顔の位置に対する特定の手形状の位置の相対位置に基づいて、複数の操作モードの一つが選択される。複数の操作モードに対しては、顔に対するそれら操作モードそれぞれの位置(相対位置)が予め決められている。ユーザは、顔の位置に対して予め設定された複数の操作モードの位置の内、目的の操作モードに対応する位置に手(例えば掌)を出すことで、その目的の操作モードを選択することができる。操作モードを切り替える際には、ユーザは手をいったん下げ、別の目的の操作モードに対応する位置に再びが手(例えば掌)を出すことで、その別の目的の操作モードに切り替えることができる。
以下、図3の各ブロックの機能等について述べる。
ビデオカメラ20によって撮影された映像は、ハンドジェスチャ認識部300及び顔検出部304に送られる。顔検出部304は、ビデオカメラ20から送られてきた映像を用いて、映像内の顔(顔画像)を認識する。また、顔検出部304は、映像内における顔の位置を検出する。映像内の顔の位置とは、例えば、画像フレーム内における顔(顔画像)の位置である。また、顔検出部304は、顔の位置以外に顔の傾きや顔の向きを検出する。例えば、映像内の顔が所定の軸に対して左にいくらか傾いていた場合、顔検出部304は、映像内の顔が左にいくらか傾いていると認識する。さらに、顔検出部304は、認識された顔(顔画像)のサイズも検出する。さらに、顔検出部304はこれらの顔に関する検出結果を操作モード選択部306に送る。また、顔検出部304は、制御部305からの制御命令に従い動作する。制御命令は、例えば、映像内に複数の顔が含まれていた場合、認識可能な複数の顔の内最もサイズの大きい顔を認識対象の顔として、複数の顔から検出すべき顔を選択させる制御命令でもよい。
ハンドジェスチャ認識部300は、ビデオカメラ20から送られてくる映像を用いてユーザのハンドジェスチャ(手の形状および動き)の認識または解釈を行う(以下、認識と称す)。ハンドジェスチャ認識部300は、上述の複数の操作モードを有しており、制御部305によって指定された操作モードに対応するハンドジェスチャ認識を実行する。各操作モードには、認識対象の1以上のハンドジェスチャと、これら1以上のハンドジェスチャが認識された時に実行すべき機能とが定義されていてもよい。ハンドジェスチャ認識部300は、制御部305によって選択された操作モードで動作する。つまり、ハンドジェスチャ認識部300は、選択された操作モードで使用されるべきハンドジェスチャに関連する手の形状および動きを認識し、その認識結果に応じてハンドジェスチャ対応アプリケーション311にコマンドを送信し、これによってコンピュータ10の動作を制御する。
手形状検出部301は、ビデオカメラ20から送られてきた映像内の手の形状(または、手形状と称す)を認識し、その映像内の手形状の位置を検出する。映像内の手形状の位置は、画像フレーム内における手形状(手形状画像)の位置である。手形状検出部301によって検出される手形状には、握り手(fist)、特定の指(親指)を立てたような手形状(thumb up)、掌(palm)等がある。手形状検出部301は、手形状の検出結果を機能実行部303及び操作モード選択部306に送る。
手の動き検出部302は、ビデオカメラ20から送られてきた映像内の手の動きを検出する。手の動きとは、例えば検出された手が上下または左右に移動する動きやビデオカメラ20に対する前後の動きなどである。手の動き検出部302によって検出された手の動きの検出結果は機能実行部303に送られる。
機能実行部303は、ハンドジェスチャの認識結果に基づき、つまり、手形状検出部301からの手形状の検出結果及び手の動き検出部302からの手の動きの検出結果に基づき、ハンドジェスチャ対応アプリケーション311にコマンドを送る。例えば、映像の再生を指示する手の動きが検出されたならば、機能実行部303は、映像の再生を指示するコマンドをハンドジェスチャ対応アプリケーション311に送る。また、機能実行部303は、ハンドジェスチャの認識結果に応じてLCD17上の操作画面(グラフィカルユーザインタフェース)に変化が生じるように、ハンドジェスチャの認識結果にしたがって操作画面(グラフィカルユーザインタフェース)の表示形態を制御する。なお、ここでは、機能実行部303はがハンドジェスチャ認識部300内の1つのモジュールとして実現されている場合を例示したが、機能実行部303は制御部305内の1つのモジュールとして実現されてもよい。
ハンドジェスチャ対応アプリケーション311は、ハンドジェスチャ認識プログラム202等によって制御されるハンドジェスチャに対応したアプリケーションである。ハンドジェスチャ対応アプリケーション311は機能実行部303からのコマンドに従いその機能を実行する。
GPU105は、グラフィカルユーザインタフェース表示部307機能実行部303またはグラフィカルユーザインタフェース表示部307からのコマンド等に従いLCD17に操作モード画面(グラフィカルユーザインタフェース)などを表示させる。
制御部305は、ハンドジェスチャ認識プログラム202の制御を行う。例えば、制御部305は、ハンドジェスチャ認識部300に対して、認識対象とすべき手形状を指示してもよい。また、制御部305は、顔検出部304に対して、顔認識処理の開始を指示してもよい。
次に、制御部305に含まれる位置設定部309について説明する。
位置設定部309は、複数の操作モードそれぞれの位置を設定する。詳細は後述するが、各操作モードの位置は顔の位置に対する位置(相対位置)に設定することができる。位置設定部309は操作モード毎にこの相対位置の設定を行う。この相対位置は、各操作モードの基準位置として用いられる。
位置記憶部308は、位置設定部309によって設定された各操作モードの位置に関するデータを格納する。
操作モード選択部306は、顔検出部304による顔検出結果、手形状検出部301による手形状検出結果、及び位置記憶部308に格納されている位置に関するデータに基づいて、複数の操作モードの中から何れかの操作モードを選択する。この選択方法の具体的な説明は後述するが、例えば、顔の検出位置に対する特定の手形状の検出位置の相対位置を示す値が算出され、その値に基づいて、複数の操作モードの一つが選択される。例えば、操作モード選択部306は、何れかの操作モードを選択する際に、顔の検出位置に対する手の検出位置の相対位置を示す値を算出し、算出された値と各操作モードに対応する各基準値との間の一致度を算出する。操作モード選択部306は、算出した各一致度を比較して、その中で最も一致度の高い一致度を判定する。さらに、操作モード選択部306は、この一致度と所定の閾値とを比較する。操作モード選択部306は、所定の閾値よりも高い一致度を有する操作モードを選択する。操作モード選択部306は、選択された操作モードを、グラフィカルユーザインタフェース表示部307およびハンドジェスチャ認識部300に通知する。
グラフィカルユーザインタフェース表示部307は、操作モード選択部306によって通知された操作モードに対応する操作画面(グラフィカルユーザインタフェース)を、GPU105を介してLCD17の表示画面上に表示する。
次に、図4を参照し、顔の位置と各操作モードの位置との関係について説明する。
図4は、本実施形態のハンドジェスチャ認識プログラムによって使用される操作モードの配置の一例を示す図である。
各操作モードの位置は、ビデオカメラ20によって撮影される画像内における顔の位置を基準に予め決められている。顔406は、コンピュータ10を使用するユーザの顔を示している。顔406の位置に対して例えば3つの操作モードが割り当てられている。3つの操作モードは、セレクト操作400、AVコントロールメニュー402、及び音量操作404である。図4に示されているように、セレクト操作400、AVコントロールメニュー402、及び音量操作404は、ユーザから見て、顔406の左側、右側、及び上側に配置されている。ユーザがユーザから見て自身の顔の左側の位置に手を出すと、セレクト操作400が選択される。ユーザがユーザから見て自身の顔の右側の位置に手を出すと、AVコントロールメニュー402が選択される。ユーザがユーザから見て自身の顔の上側の位置に手を出すと、音量操作404が選択される。
なお、3つの操作モードは各々、図の点線で示されるように四角の一定の領域を持っているが、四角以外にも円形や三角の領域でもよい。さらに、図では操作モードの領域は2次元の領域で示されているが、例えば3次元の空間の操作モードの領域を顔406の周辺に配置してもよい。セレクト操作400は、アプリケーション内での方向を選択するため操作モードであり、「矢印キー」、「決定」、「戻る」といったコマンドをアプリケーションに送るために用いられる。AVコントロールメニュー402は、映像再生機器等で使用される操作モードの1つであり、「再生」、「一時停止」、「早送り」等のコマンドをアプリケーションに送るために用いられる。音量操作404は、アプリケーションの使用時に例えばスピーカ18A、18B等から出力される音の音量調節等の操作を行う操作モードである。
次に、図5乃至図7を参照し、図4に示した3つの各操作モードについて説明する。
図5は、本実施形態の操作モードの1つであるセレクト操作モードの一例を示す図である。
図5の左側の図は、顔406の位置に対してユーザが左側に手を出した場合を想定している。ユーザが顔406の位置に対して左側に手を出すことによって、図5の右側に示されるような操作画面500がLCD17に表示される。操作画面500は、セレクト操作モードに対応したグラフィカルユーザインタフェースである。操作画面500には、図に示されるように、例えばセレクトキー501、502、503、及び504が表示されている。セレクトキー501、502、503、及び504は、各々上、右、下、及び左を示す矢印のマークで示される。なお、セレクトキー501、502、503、及び504が示す向きは、上、右、下、及び左に限らず、例えば右斜め上や、左斜め下等を示していてもよい。さらに、セレクトキー501、502、503、及び504の形状は、ユーザがセレクトしたい方向の矢印のマークでなくてもよく、例えばセレクトキー501、502、503、及び504の全てを円形のマークで示してもよい。あるいは、セレクトキー501、502、503、及び504に、各々に「上」、「右」、「下」、「左」の文字を示した任意のマークを使用してもよい。手のマーク505は、「エンター」に対応するマークである。また、セレクトキー501、502、503、及び504は、ユーザによってユーザがセレクトしたい方向に手を移動させた時に、画面上の色を変えるなどのエフェクト効果を示してもよい。
セレクト操作モードにおける、ユーザの手の動き(ジェスチャー)の一例について説明する。ユーザが、右方向のセレクトキー502を選択したい場合、ユーザは手を右に振ることによってセレクトキー502が選択され、アプリケーションに右の選択したことを示すコマンド(右矢印キーコマンド)が送られる。なお、右方向のセレクトキーが502を選択したい場合のジェスチャーは右に手を振る以外にも、例えば手の形状を変えずに手を右に移動させてもよい。手(例えば掌)を押し出すようなジェスチャーによって、「決定」を示すコマンド(エンターキーコマンド)をアプリケーションに送る。エンターキーコマンドをアプリケーションに入力するためのジェスチャーは、手を押し出す以外にも、例えば手を特定の形状に変化させるジェスチャーでもよい。
図6は、本実施形態の操作モードの1つであるAVコントロールメニューモードの一例を示す図である。
図6の左側の図は、顔406の位置に対してユーザが右側に手を出した場合を想定している。ユーザが顔406の位置に対して右側に手を出すことによって、図6の右側に示されるようなAVコントロールメニュー画面600がLCD17に表示される。AVコントロールメニュー画面600はAVコントロールメニューモードに対応するグラフィカルユーザインタフェースである。AVコントロールメニュー画面600は、アイコン601乃至607から構成される。アイコン601は、アプリケーションによって再生される映像等の再生または一時停止を行う機能を示したアイコンである。アイコン602乃至605は、アプリケーションによって再生される映像等の早送り、巻き戻し、またはチャプターの移動等の機能を示すアイコンである。アイコン606は、アプリケーションを終了する機能を示したアイコンである。アイコン607は、他の特定の機能を実行するためのアイコンである。これら以外にも、映像等を再生するアプリケーションの制御に必要な機能を示したアイコンが表示されてもよい。
AVコントロールメニューモードにおける、ユーザのジェスチャーの一例について説明する。ユーザが手を左または右に振ることによって、メニュー選択のフォーカスがアイコン601乃至607間で移動する。フォーカスをアイコン601乃至607間で移動する代わりに、ユーザが手を左または右に振ることによって、画面600に表示されているアイコン601乃至607の各々が移動してもよい。例えば、図6の右側に示されようにアイコンが配置されていた場合、ユーザが右に手を一回振ることによって、現在一番手前に位置しているアイコン601がアイコン603の位置に移動すると同時に、アイコン602が一番手前に位置に移動する。また、ユーザが右に手を3回振った場合、現在一番手前に位置しているアイコン601がアイコン607の位置に、アイコン606が一番手前に位置の位置に移動する。このように、ユーザが使用したい機能を示したアイコンを一番手前の位置、図中ではアイコン601の位置に、手を複数回振ることによって移動させる。その後、ユーザは手(例えば掌)を前に押し出す等のジェスチャーを行うことによって、一番手前の位置に位置するアイコンが示す機能を実行するためのコマンドをアプリケーションに送ることができる。なお、手を振る以外のジェスチャーとして、例えば手の形状を変えずに、アイコンを移動させたい方向に手を移動させるジェスチャーを用いてもよい。
図7は、本実施形態の操作モードの1つである音量操作モードの一例を示す図である。
図7の左側の図は、ユーザが顔406の位置に対して手を上側に出した場合を想定している。ユーザは顔406の位置に対して上側に手を出すことによって、例えば図7の右側に示されるような操作画面700がLCD17に表示される。操作画面700は音量操作モードに対応するグラフィカルユーザインタフェースである。この操作画面700は、円を描く矢印701を示している。ユーザが音量を調節したい場合は、矢印701に示すような円を描くように手を動かせばよい。例えば、ユーザが音量を上げたいならば、矢印701が示す方向(時計回り)に手を動かせばよい。反対に、音量を下げたい場合は矢印701が示す方向と逆の方向(反時計回り)に手を動かせばよい。また、ユーザが円を描くように手を動かした時、矢印701の表示を変化させてもよい。例えば、音量を上げるためにユーザが手を時計周りに動かした場合、矢印701の形状と現在の音量のレベルを対応させて、矢印701の形状を変化させてもよい。
以上のような各操作モードにおけるグラフィカルユーザインタフェースに関しては様々な表示形態を用いることができる。また、各操作メニューモードにおける、各操作と手のジェスチャーとの対応関係は様々なものを利用することができる。
このように、顔406の位置に対する手の位置の相対的な位置に基づいて、その位置に対応した操作モードが選択される。その後、選択された操作モードにおいて、手のジェスチャーを行うことによってユーザはその操作モードで様々な機能を行うことができる。
次に図8を参照し、図4に示すような操作モードの配置とは異なる操作モードの別の配置の例について説明する。
図8は、本実施形態における操作モードの配置の他の例を示す図である。
図8では、4つの操作メニューモードが顔406の位置に対して配置されている。4つの操作メニューは、セレクト操作400、AVコントロールメニュー402、音量操作404、及びマウスカーソル操作800である。4つの操作メニューは、図に示すように顔406の位置に対して例えば放射状に等間隔に配置されていてもよい。なお、各操作メニューモードの領域、図中の点線で示される領域のサイズや形状等は図に示されるような領域以外でもよい。
4つの操作メニューの中で、図4と同様の機能については説明を省略する。
マウスカーソル操作800について、ユーザが前述した他の操作メニューの選択方法と同様に、手の位置を顔406の位置に対して右下に出すとマウスカーソル操作800が選択される。マウスカーソル操作800は、例えばタッチパッド16のようなポインティングデバイスの操作によって行われる操作と同等の機能をハンドジェスチャによって行う操作モードの1つである。例えば、LCD17に表示されるマウスカーソルを手の相対的な移動距離に基づいて移動させる。また、手の形状を変えることによって、LCD17に表示されている所望の場所をクリックすることができる。
以上のように顔の406の位置と手の相対的な位置関係に基づいて、操作メニューモードが選択され、選択された操作メニューモードにおける操作を様々なハンドジェスチャに従って行うことができる。すなわち、ユーザは複数の操作モードによって操作可能なハンドジェスチャ対応のアプリケーションをハンドジェスチャで操作する際に、複数の操作モードを例えば手の形状を変える等の特定のハンドジェスチャを行うことなく、顔の位置とユーザが出した手の位置との相対的な位置に基づき操作モードをスムーズに選択することができる。なお、グラフィカルユーザインタフェースはLCD17に必ずしも表示される必要はない。つまり、ユーザは顔406の位置に対して出した手の位置によって操作モードを選択し、選択された操作モードにおけるハンドジェスチャをグラフィカルユーザインタフェースが表示されている場合と同様の方法で行ってもよい。AVコントロールメニューモードにおいては、「再生」、「一時停止」、「早送り」に対して異なる手形状を割り当ててもよい。
図9は、操作モードを選択するまでの過程を説明するための図である。
図9は、図4の場合と同様に、顔406の位置に対して3つの操作モードがある場合を想定している。図9において、P1は顔406の位置に対するセレクト操作モード400の領域(領域の中心位置)の相対位置を示し、P2は顔406の位置に対するAVコントロールメニューモード402の領域(領域の中心位置)の相対位置を示し、P3は顔406の位置に対する音量操作モードの領域(領域の中心位置)の相対位置を示している。またP4は、顔406の位置に対する操作開始トリガの手形状(例えば掌)の位置(掌の中心位置)の相対位置を示している。顔406の位置は、その顔406の中心位置であってもよい。P1〜P4のいずれも、顔406の位置を基準に定められている。ハンドジェスチャ認識プログラム202は、各操作モードの領域の位置P1乃至P3それぞれと手の位置P4との間の距離(一致度または該当度)を算出する。算出された一致度の中で最も高い一致度を有する操作モードが選択される。一致度が高いとは、図9において、例えばP2とP4との間の距離がP1とP4との間の距離またはP3とP4との間の距離よりも短いことを意味している。なお、P1乃至P3は、各操作モードの中心位置以外でもよく、例えば各操作モードの領域の中で顔406に最も近い位置や最も遠い位置でもよい。
また、一致度が所定の閾値を越えることによって、閾値よりも高い一致度を有する操作モードが選択されてもよい。つまり、図9において、AVコントロールメニュー402に対応する一致度であるP2とP4との間の距離が、P1またはP3とP4との間の距離によって示される他の一致度と比較して短いが、例えばAVコントロールメニュー402に対応する一致度が所定の閾値を越えていない場合は、その時点ではまだAVコントロールメニュー402が選択されない。その後、手の位置P4または顔406の位置が移動し、AVコントロールメニュー402に対応する一致度が高くなり、さらにこの一致度が所定の閾値を越えると、AVコントロールメニュー402が選択される。
次に、ユーザが出した手の位置P4に従って算出される一致度が所定の閾値を越えていない場合に実行される処理について図9及び図10を参照して説明する。
図10は、本実施形態の操作モードメニュー画面の一例を示した図である。
図10は、AVコントロールメニューGUI1001、セレクト操作GUI1002、及び音量操作GUI1003を表示した操作画面800を示している。これら3つのGUIは、図9に示すような顔406に対する3つの操作モードの位置と対応している。例えば、画面800上の上側に音量操作モードに対応した音量操作GUI1003が表示されている。なお、画面800は例えばLCD17に表示される。
一致度が閾値を越えていない場合、図10に示すように、ユーザが選択可能なすべての操作モードのGUIを表示する。ただし、ユーザが手を出した時点で既に一致度が閾値を越えていた場合でも、図10に示されるような画面800を表示し、その後、所定の時間(例えば、0.5秒程の短時間)で画面800はフェードアウトし、閾値を越えた一致度に対応した操作モードのGUIが表示されるようにしてもよい。このように、選択可能なすべての操作モードのGUIを表示することによって、もしユーザが選択可能な操作モードの種類やその操作モードの位置を知らない場合であっても、ユーザにそれを知らせることができる。さらに、ユーザが手を出してから所望の操作モードが選択されるまでの過程及び状態がアニメーションによって示されるため、ユーザは所望の操作モードを選択するまでの過程や手順を理解しやすくなる。
また、一致度が所定の閾値を越えなかった場合、図10に示すように3つの操作モードのGUIそれぞれのサイズを変えて画面800に表示してもよい。具体的には、図9に示すように3つの操作モードの各々に対応した3つの一致度が算出され、算出された一致度と各操作モードのGUIのサイズを関連付ける。例えば、算出された3つの一致度の内、最も一致度の高い一致度に対応した操作モードのGUIを画面800上に最も大きく表示してもよい。このようにすることで、手の位置P4の変化によって算出される一致度の変化に応じて各操作モードのGUIのサイズも変化するため、ユーザは視覚的にどの操作モードが選択されようとしているか理解しやすくなる。
次に図11を参照し、前述したような一致度の算出時等に利用する、操作モード領域の中心位置P1乃至P3の設定に関して述べる。
図11は、本実施形態の各操作モード位置の設定を説明するための図である。
P1乃至P3は、一致度を算出する際に利用される以外にも、顔406の位置に対する各操作モードの位置を定めるために利用される。つまり、P1乃至P3は各操作モードの位置の基準となる位置でもある。
具体的に説明すると、始めに図11に示されるように、XYの平面座標系において、原点P0に検出された顔406の中心位置を設定する。P0は、顔の中心以外にも、顔406の目の位置の中点や、鼻の位置でもよい。次に、顔406のサイズが計測される。図中では、横がx、縦がyの四角の点線で囲まれた領域を顔406のサイズとする。計測された顔406のサイズに基づき、P1乃至P3の座標が定まる。例えば、P1及びP2の座標を図に示すように、(-ax、-by)及び(ax、-by)となるように、パラメータa及びbを設定する。同様に、P3の座標が(0、cy)となるようにパラメータcを設定する。なお、パラメータa、b、及びcに関して、例えば、P0とP1との間の距離と、P0とP2との間の距離と、P0とP3との間の距離とが互いに等しくなるようにパラメータa、b、及びcを設定してもよいが、それ以外にも任意のパラメータを設定することができる。
以上のような、図11に示されるような各操作モードの位置の基準となる位置P1乃至P3の設定方法とは異なる方法について説明する。
図示されないが、例えば、P1乃至P3の位置を上述したような方法で決定し、その後、P1乃至P3の位置にユーザが任意の操作モードを自由に設定できるようにしてもよい。例えば、上述したようなセレクト操作400、AVコントロールメニュー402、音量操作404、及びマウスカーソル操作800の4つの操作モードが利用可能な操作モードであった場合、ユーザはP1の位置にこれら4つの操作モードから選択される任意の1つの操作モードを設定することができる。P2及びP3に関しても同様に設定することができる。
さらに他の操作モードの位置の設定方法について、例えばP1乃至P3の位置を図11に示したような方法で設定するのではなく、ユーザが自由にP1乃至P3の位置を設定できる設定方法でもよい。例えば、前述したような利用可能な操作モードが4つあった場合、操作画面上に4つの操作モードの位置候補を表示し、ユーザは表示された位置候補をキャリブレーションのような操作によって調整することによって、自由に各操作モードの位置を設定することができる。
次に図12を参照し、図11で述べたP1乃至P3の位置と手の位置P4との関係について説明する。
図12は、本実施形態の操作モードの選択の過程における一致度の算出を説明する図である。
図11を用いて説明したように、操作モードの基準点P1乃至P3が設定された後、図12の手の位置P4に示されるような手形状の手をユーザが出した場合を想定して述べる。ユーザが図に示すような座標位置、すなわち顔406の位置に対して左上の位置、に手を出すことによって、ハンドジェスチャ認識プログラム202は、顔の位置に対する手の位置の相対位置と3つの操作モードそれぞれの基準値との間の一致度、つまり、手の位置P4と基準値P1との間の距離、手の位置P4と基準値P2との間の距離、手の位置P4と基準値P3との間の距離を算出する。図中において、P3とP4との間の距離が最も短いので、基準値P3と関連付けられた操作モードの一致度が最も高いことになる。なお、前述したような一致度の閾値を考慮しない場合、一致度が最も高い基準値P3と関連付けられた操作モードが選択される。
図13を参照して、上述したようなハンドジェスチャ認識プログラム202によって実行される操作モードの切り替え処理の手順を説明する。
ブロック1300で、ハンドジェスチャ認識プログラム202が実行される。なお、ハンドジェスチャ認識プログラム202はハンドジェスチャ認識プログラムに対応したアプリケーションが実行されると同時に自動的に実行されるようにしてもよい。
ブロック1302で、ハンドジェスチャ認識プログラム202は、顔検出部304によってユーザの顔406が検出されたかを判定する。顔406が検出されなかった場合、顔406が検出されるまでハンドジェスチャ認識プログラム202は待機する。顔406が検出された場合、ブロック1304に進む。
ブロック1304で、ハンドジェスチャ認識プログラム202は、手形状検出部301によってユーザの手が検出されたかを判定する。ここで検出対象とされる手は、特定の手形状の手(例えば掌)である。もちろん、掌に限る必要はなく、握り手のような手形状を検出してもよい。
手が検出されなかった場合、ブロック1302に戻り、顔406と特定の手形状の手の双方が検出されるまでハンドジェスチャ認識プログラムは待機する。ブロック1304で手が検出された場合、ブロック1306に進む。なお、ブロック1304はブロック1302よりも前に処理されてもよい。すなわち、顔406が検出される前に手が検出され、その後、顔406が検出されるとブロック1306に進む処理手順でもよい。
ブロック1306で、ハンドジェスチャ認識プログラム202の操作モード選択部306は、ブロック1302で検出された顔406の位置及びブロック1304で検出された手の位置に基づき、顔406の位置に対する手の位置の相対位置を示す値を算出し、その値と、複数の操作モードそれぞれに対応する基準との間の一致度を算出する。
ブロック1308で、操作モード選択部306がブロック1306で算出された一致度に基づき、顔406に対する手の相対位置が、顔406に対するセレクト操作モードの相対位置に該当するか判定する。セレクト操作モードに該当するとは、例えば、ブロック1306で算出された複数の操作モードのそれぞれに対応した一致度の内最も高い一致度がセレクト操作モードに対応しており、かつその一致度が閾値を越えていることを意味する。セレクト操作モードに該当した場合、ブロック1318に進む。セレクト操モードに該当しない場合、ブロック1310に進む。
ブロック1310で、操作モード選択部306は、ブロック1306で算出された一致度に基づき、顔406に対する手の相対位置が、顔406に対するAVコントロールメニューモードの相対位置に該当するか判定する。該当するかどうかの判定はブロック1308の説明で述べたことと同様である。AVコントロールメニューモードに該当した場合、ブロック1324に進み、AVコントロールメニューモードに該当しない場合ブロック1312に進む。
ブロック1312で、操作モード選択部306は、ブロック1306で算出された一致度に基づき、顔406に対する手の相対位置が、顔406に対する音量操作モードの相対位置に該当するか判定する。該当するかどうかの判定はブロック1308の説明で述べたことと同様である。音量操作モードに該当した場合、ブロック1330に進み、音量操作モードに該当しない場合ブロック1314に進む。
ブロック1314で、ブロック1308、ブロック1310、及びブロック1312において選択可能な操作モードの何れにも該当しない場合、表示可能な全ての操作モードのGUIを図10の操作画面800に示されるように表示する。また図10を参照して上述したように、グラフィカルユーザインタフェース表示部307がブロック1306で算出された複数の一致度に対応させて各操作モードのGUIの大きさを変化、変更、または調整して画面500に表示する。つまり、各操作モードのGUIは、その操作モードに対応する一致度に基づくサイズで表示される。
ブロック1316で、操作モード選択部306は、手の動き検出部302および顔検出部304それぞれから受信される検出結果に基づき、手の位置または顔の位置が変化したかどうかを判定する。手または顔の位置の変化が検出された場合、ブロック1306に進み、操作モード選択部306は、再び一致度を算出する。
次に、ブロック1308において、顔406に対する手の相対位置がセレクト操作モードに該当すると判定された場合について説明する。
この場合、ブロック1318に進み、機能実行部303の指示に従って、操作画面500のようなセレクト操作モードのGUIが表示される。ブロック1320で、ハンドジェスチャ認識部300は、セレクト操作ハンドジェスチャを、つまりセレクト操作モードで使用されるべきハンドジェスチャに関連する1以上の手の形状および動きを、認識する。そして、ハンドジェスチャ認識部300は、認識結果に基づいて、セレクト操作モードで規定されたコマンド(矢印キー、決定、等)を発行する。
ブロック1322で、ハンドジェスチャ認識部300は手を下げる動きを検出したかを判定する。手を下げる動きを検出しない場合ブロック1320に戻り、再びセレクト操作モードにおけるジェスチャーを認識する。ハンドジェスチャ認識部300が手を下げる動きを検出した場合、ブロック1302に戻る。つまり、ユーザが手を下げるというジェスチャーを行うことによってセレクト操作モードが選択された状態が解除される、すなわちセレクト操作モードの操作が終了される。なお、手を下げるというジェスチャーは、例えばビデオカメラ20によって撮影できる撮影領域の外に手を移動させるようなジェスチャーである。もちろん、手を下げるというジェスチャーは、ブロック1320でハンドジェスチャ認識部300が認識するセレクト操作モードにおけるジェスチャーに含まれないジェスチャーであればよく、特定の手形状の変化を示すジェスチャーであってもよい。
このように、ユーザは手を下げるという簡単な手の動きやジェスチャーによって操作モードを終了させ、さらにその後、上述したように手を所定の位置に再び出すことによって操作モードを容易に切り替えることができる。
ブロック1310で、顔406に対する手の相対位置がAVコントロールメニューモードに該当すると判定された場合、ブロック1324に進む。ブロック1324で、機能実行部303の指示に従って、操作画面600のようなAVコントロールメニューのGUIが表示される。ブロック1326で、ハンドジェスチャ認識部300は、AVコントロールメニューハンドジェスチャを、つまりAVコントロールメニューモードで使用されるべきハンドジェスチャに関連する1以上の手の形状および動きを、認識する。そして、ハンドジェスチャ認識部300は、認識結果に基づいて、AVコントロールメニューモードで規定されたコマンド(再生、一時停止、早送り、等)を発行する。
ブロック1328で、ハンドジェスチャ認識部300が手を下げる動きを検出したかを判定する。手を下げる動きが検出された場合、ブロック1302に戻り、AVコントロールメニューモードの操作が終了した状態になる。
同様に、ブロック1312で、顔406に対する手の相対位置が音量操作モードに該当すると判定された場合、ブロック1330に進む。ブロック1330で、機能実行部303の指示に従って操作画面700のような音量操作のGUIが表示される。ブロック1332で、音量操作モードにおけるジェスチャーをハンドジェスチャ認識部300が認識する。ブロック1334で、ハンドジェスチャ認識部300が手を下げる動きを検出したかを判定する。手を下げる動きが検出された場合、ブロック1302に戻り、音量操作モードの操作が終了した状態になる。
次に図14を参照し、さらに顔406の向きをも考慮して、顔406に対する手の相対位置に対応する操作モードを選択する処理について説明する。
顔406の向きが図14に示されるように左に傾いていた場合において、ハンドジェスチャ認識プログラム202は顔406の向きを検出する。その顔406の向きに合わせて各操作モードの位置を決定するが、例えば、検出された顔406の向き及びその傾きに合わせて、図11及び図12に示されるような座標を回転させてもよい。つまり、図11及び図12に示されるような座標に基づいて設定されたP1乃至P3の座標を、回転行列などを利用して変換した座標に基づいて、顔406が傾いていた場合のP1乃至P3の座標を設定してもよい。なお、顔406が傾いていた場合の画面500に表示される各操作モードのGUIは、図10と同様の表示であってもよい。すなわち、顔406が傾いていたとしても、画面500に表示される各操作モードのUIの表示向きは変化しなくてもよい。
最後に図15を参照して、本実施形態のハンドジェスチャ認識プログラムに対応したアプリケーションの使用時の表示画面について説明する。
図15は、ハンドジェスチャ認識プログラム202の使用時に表示される表示画面例を示す図。
LCD17には、ハンドジェスチャ認識プログラムに対応したアプリケーションのウィンドウ1500、サブウィンドウ1501、及び操作モードのGUI1502が表示されている。ウィンドウ1500は、例えばウェブブラウザのウィンドウや映像再生アプリケーションのウィンドウである。サブウィンドウ1501は、例えばビデオカメラ20によって撮影された映像を表示してもよいし、その撮影された映像を用いた手形状または顔を解析していることユーザが視覚的に分かるものを表示してもよい。操作モードのGUI1502は、図中ではセレクト操作モードのGUIが表示されているが、上述したようなAVコントロールメニューモードのGUI等を表示してもよい。なお、サブウィンドウ1501のLCD17上の位置やサイズは任意に変更可能であり、また操作モードのGUI1502と同様な第2の操作モードのGUIをLCD17上に追加で表示してもよい。
以上のように、本実施形態によれば、顔の検出位置に対する、ある形状の手の検出位置の相対位置を示す値が算出され、その算出された値に基づいて、複数の操作モードから該当する操作モードが自動的に選択される。したがって、手を出す位置に応じた操作モードを選択できるため、目的の操作モードを利用可能になるまでの時間を短縮することができる。よって、ハンドジェスチャ認識で使用される操作モードを容易に選択することができる。例えば、ユーザがハンドジェスチャ認識プログラムを利用したインタフェースを使用する際に、ユーザは顔の位置に対する手の相対的な位置によって瞬時に操作モードを選択できる。つまり、ユーザが操作を開始する際に、目的の操作をスムーズに行うことができる。さらに、操作モードを切り替える際に、手を一旦下げ再び顔の位置に対するある相対的な位置に手を移動させるだけで、操作モードをスムーズに切り替えることができる。
なお、特定の操作モード切換えジェスチャ(例えば掌を握って横に振る)を用いて操作モードを切り替えることも可能であるが、例えば、操作開始トリガとなる手形状を出すとセレクト操作モードが先に始まる場合においては、再生・一時停止のような操作を行うにためには、操作モード切換えジェスチャーを行った後、再生・一時停止メニューを選択、決定する必要がある。本実施形態では、上述のように、操作開始トリガとなる手形状を出す位置に応じた操作モードを選択できるため、目的の操作モードを利用可能になるまでの時間を大幅に短縮することができる。
なお、本実施形態では、顔の位置に対する特定の手形状の手の位置の相対位置に基づいて操作モードを選択するようにしたが、これは、操作モードの選択に要する時間をできるだけ短くするためである。
また、この特定の手形状は、ハンドジェスチャ認識プログラム202のハンドジェスチャ認識処理を開始させるトリガとして使用される特定の手形状であってもよい。ユーザは、ハンドジェスチャ認識処理を開始したい時に、特定の手形状の手を出す。この時、ユーザは使用したい操作に対応する目的の操作モードに対応する位置に手を出すことにより、ハンドジェスチャ認識処理を目的の操作モードですぐに開始させることができる。
また、本実施形態のハンドジェスチャインタフェースの処理の手順は全てソフトウェアによって実行することができる。このため、この処理手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
また、図3に示した各部の機能は、例えば、専用LSI、DSPのようなハードウェアによって実現しても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
20…ビデオカメラ、202…ハンドジェスチャ認識プログラム、300…ハンドジェスチャ認識部、301…手形状検出部、302…手の動き検出部、303…機能実行部、304…顔検出部、306…操作モード選択部、307…操作メニュー表示部、308…位置記憶部、309…位置設定部、311…ハンドジェスチャ対応アプリケーション。

Claims (9)

  1. 電子機器であって、
    カメラによって撮影された映像内の顔を認識し、前記映像内における前記顔の位置を検出する顔検出手段と、
    前記映像内の第1の形状の手を認識し、前記映像内における前記第1の形状の手の位置を検出する手形状検出手段と、
    前記顔の検出位置に対する前記第1の形状の手の検出位置の相対位置を示す第1の値を算出し、前記第1の値に基づいて、複数の操作モードから第1の操作モードを選択する操作モード選択手段と、
    前記映像を用いて、前記選択された前記第1の操作モードで使用されるべきハンドジェスチャに関連する手の形状および動きを認識し、前記認識結果に応じて前記電子機器の動作を制御するハンドジェスチャ認識手段とを具備する電子機器。
  2. 前記操作モード選択手段は、前記第1の値と、前記複数の操作モードに対応する複数の基準値それぞれとの間の一致度を算出し、所定の閾値よりも高い一致度を有する操作モードを前記第1の操作モードとして選択するように構成されている請求項1記載の電子機器。
  3. 前記操作モード選択手段は、前記選択された前記第1の操作モードに対応するグラフィカルユーザインタフェースをディスプレイに表示する請求項1記載の電子機器。
  4. 前記操作モード選択手段は、前記第1の値と、前記複数の操作モードに対応する複数の基準値それぞれとの間の一致度を算出し、所定の閾値よりも高い一致度を有する操作モードを前記第1の操作モードとして選択すると共に、前記第1の操作モードに対応するグラフィカルユーザインタフェースをディスプレイに表示し、前記所定の閾値よりも高い一致度を有する操作モードが存在しない場合、前記複数の操作モードのいずれも選択せずに、前記複数の操作モードに対応する複数のグラフィカルユーザインタフェースを、前記算出された一致度に基づくサイズで前記ディスプレイに表示するように構成されている請求項1記載の電子機器。
  5. 前記操作モード選択手段は、前記映像内の前記顔の位置または前記第1の形状の手の位置が変化した時に前記一致度を再算出する請求項4記載の電子機器。
  6. ユーザの操作に応じて、顔の位置に対する前記複数の操作モードそれぞれの相対位置を示す複数の基準値を設定する設定手段をさらに具備し、
    前記操作モード選択手段は、前記第1の値と、前記設定手段によって設定された前記複数の基準値それぞれとの間の一致度を算出し、所定の閾値よりも高い一致度を有する操作モードを前記第1の操作モードとして選択する請求項1記載の電子機器。
  7. カメラによって撮影された映像内の顔を認識し、前記映像内における前記顔の位置を検出し、
    前記映像内の第1の形状の手を認識し、前記映像内における前記第1の形状の手の位置を検出し、
    前記顔の検出位置に対する前記第1の形状の手の検出位置の相対位置を示す第1の値を算出し、前記第1の値に基づいて、複数の操作モードから第1の操作モードを選択し、
    前記映像を用いて、前記選択された前記第1の操作モードで使用されるべきハンドジェスチャに関連する手の形状および動きを認識し前記認識結果に応じて電子機器の動作を制御する制御方法。
  8. 前記操作モードを選択することは、前記第1の値と、前記複数の操作モードに対応する複数の基準値それぞれとの間の一致度を算出し、所定の閾値よりも高い一致度を有する操作モードを前記第1の操作モードとして選択することを含む請求項7記載の制御方法。
  9. コンピュータに、
    カメラによって撮影された映像内の顔を認識し、前記映像内における前記顔の位置を検出する手順と、
    前記映像内の第1の形状の手を認識し、前記映像内における前記第1の形状の手の位置を検出する手順と、
    前記顔の検出位置に対する前記第1の形状の手の検出位置の相対位置を示す第1の値を算出し、前記第1の値に基づいて、複数の操作モードから第1の操作モードを選択する手順と、
    前記映像を用いて、前記選択された前記第1の操作モードで使用されるべきハンドジェスチャに関連する手の形状および動きを認識し、前記認識結果に応じて前記コンピュータの動作を制御する手順とを実行させるプログラム。
JP2011145960A 2011-06-30 2011-06-30 電子機器および制御方法 Active JP5865615B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011145960A JP5865615B2 (ja) 2011-06-30 2011-06-30 電子機器および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011145960A JP5865615B2 (ja) 2011-06-30 2011-06-30 電子機器および制御方法

Publications (2)

Publication Number Publication Date
JP2013012158A true JP2013012158A (ja) 2013-01-17
JP5865615B2 JP5865615B2 (ja) 2016-02-17

Family

ID=47685963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011145960A Active JP5865615B2 (ja) 2011-06-30 2011-06-30 電子機器および制御方法

Country Status (1)

Country Link
JP (1) JP5865615B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002270A1 (ja) * 2014-06-30 2016-01-07 クラリオン株式会社 非接触操作検出装置
WO2016051521A1 (ja) * 2014-09-30 2016-04-07 三菱電機エンジニアリング株式会社 画面操作装置及び画面操作方法
JP2016095614A (ja) * 2014-11-13 2016-05-26 ソフトバンク株式会社 表示制御装置及びプログラム
JP2018180840A (ja) * 2017-04-11 2018-11-15 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
US10719697B2 (en) 2016-09-01 2020-07-21 Mitsubishi Electric Corporation Gesture judgment device, gesture operation device, and gesture judgment method
JP2021521512A (ja) * 2018-05-03 2021-08-26 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
WO2024070085A1 (ja) * 2022-09-27 2024-04-04 株式会社Jvcケンウッド 仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005063091A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2007072564A (ja) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
JP2012137899A (ja) * 2010-12-27 2012-07-19 Hitachi Consumer Electronics Co Ltd 映像処理装置及び映像表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005063091A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2007072564A (ja) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
JP2012137899A (ja) * 2010-12-27 2012-07-19 Hitachi Consumer Electronics Co Ltd 映像処理装置及び映像表示装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016002270A1 (ja) * 2014-06-30 2017-04-27 クラリオン株式会社 非接触操作検出装置
US10067570B2 (en) 2014-06-30 2018-09-04 Clarion Co., Ltd. Non-contact operation detection device
WO2016002270A1 (ja) * 2014-06-30 2016-01-07 クラリオン株式会社 非接触操作検出装置
CN106462252A (zh) * 2014-06-30 2017-02-22 歌乐株式会社 非接触操作检测装置
US20170102777A1 (en) * 2014-06-30 2017-04-13 Clarion Co., Ltd. Non-contact operation detection device
JPWO2016051521A1 (ja) * 2014-09-30 2017-04-27 三菱電機エンジニアリング株式会社 画面操作装置及び画面操作方法
WO2016051521A1 (ja) * 2014-09-30 2016-04-07 三菱電機エンジニアリング株式会社 画面操作装置及び画面操作方法
JP2016095614A (ja) * 2014-11-13 2016-05-26 ソフトバンク株式会社 表示制御装置及びプログラム
US10719697B2 (en) 2016-09-01 2020-07-21 Mitsubishi Electric Corporation Gesture judgment device, gesture operation device, and gesture judgment method
JP2018180840A (ja) * 2017-04-11 2018-11-15 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
JP2021521512A (ja) * 2018-05-03 2021-08-26 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
JP7252252B2 (ja) 2018-05-03 2023-04-04 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
WO2024070085A1 (ja) * 2022-09-27 2024-04-04 株式会社Jvcケンウッド 仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法

Also Published As

Publication number Publication date
JP5865615B2 (ja) 2016-02-17

Similar Documents

Publication Publication Date Title
JP5865615B2 (ja) 電子機器および制御方法
US8988342B2 (en) Display apparatus, remote controlling apparatus and control method thereof
US20130145308A1 (en) Information Processing Apparatus and Screen Selection Method
US9690475B2 (en) Information processing apparatus, information processing method, and program
JP5295839B2 (ja) 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム
JP2008146243A (ja) 情報処理装置、情報処理方法、及びプログラム
US20100300771A1 (en) Information processing apparatus, information processing method, and program
CN106471450B (zh) 信息处理设备、信息处理方法和程序
JP2014002748A (ja) 遠隔制御装置及びその制御方法
JP2015508211A (ja) カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
KR102542913B1 (ko) 회전체를 구비한 전자 장치 및 이의 동작 방법
KR20150031986A (ko) 디스플레이장치 및 그 제어방법
EP2829967A2 (en) Method of processing input and electronic device thereof
JPWO2013121807A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
KR101339985B1 (ko) 원격 제어 장치, 디스플레이 장치 및 그 제어 방법
US20140317549A1 (en) Method for Controlling Touchscreen by Using Virtual Trackball
US10719147B2 (en) Display apparatus and control method thereof
JP4977162B2 (ja) 情報処理装置、コマンド実行制御方法及びコマンド実行制御プログラム
US20120151409A1 (en) Electronic Apparatus and Display Control Method
JP2013161181A (ja) 表示制御装置および表示制御装置の制御方法
US9335827B2 (en) Gesture input systems and methods using 2D sensors
JP2014135549A (ja) 携帯電子機器、その制御方法及びプログラム
JP2014085964A (ja) 情報処理方法、情報処理装置、及びプログラム
JP2011232881A (ja) 画像処理装置、表示装置、画像処理方法、画像処理プログラム、記録媒体
JP5242748B2 (ja) 情報処理装置及び画面選択方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130730

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R151 Written notification of patent or utility model registration

Ref document number: 5865615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250