JP2013242768A - 情報処理装置、制御方法及びプログラム - Google Patents

情報処理装置、制御方法及びプログラム Download PDF

Info

Publication number
JP2013242768A
JP2013242768A JP2012116520A JP2012116520A JP2013242768A JP 2013242768 A JP2013242768 A JP 2013242768A JP 2012116520 A JP2012116520 A JP 2012116520A JP 2012116520 A JP2012116520 A JP 2012116520A JP 2013242768 A JP2013242768 A JP 2013242768A
Authority
JP
Japan
Prior art keywords
model
gesture
control command
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012116520A
Other languages
English (en)
Inventor
Ryosuke Tsuji
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012116520A priority Critical patent/JP2013242768A/ja
Publication of JP2013242768A publication Critical patent/JP2013242768A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】動作モデルと制御命令とをユーザが任意で登録することによってジェスチャー認識による制御が混乱することを回避する。
【解決手段】情報処理装置は、被写体のジェスチャーを認識するための動作モデルと特定の制御命令とが関連付けられて登録される記憶部204と、動作モデルを所定の制御命令と関連付けて記憶部204に登録する登録部205と、被写体のジェスチャーを動作モデルを記憶部204に登録する際に、記憶部204に登録された動作モデル及び制御命令から、被写体のジェスチャーと類似する動作モデルとこれに関連付けられた制御命令とを抽出する動作モデル抽出部203と、所定の制御命令を記憶部204に登録する際に、記憶部204に登録された制御命令及び動作モデルから、所定の制御命令と関連性の高い制御命令とこれに関連付けられた動作モデルとを抽出する制御命令抽出部206とを備える。
【選択図】図2

Description

本発明は、ジェスチャー認識機能を備えた情報処理装置、情報処理装置の制御方法及びそのプログラムに関する。
人間の手振りや身振り等のジェスチャーを認識する技術は、マン・マシン・インタフェースの分野において重要な技術である。近年、被写体にデータグローブ等の接触型センサやマーカを装着することなく、撮影した画像から被写体のジェスチャーを認識して、撮影制御や再生制御を行う装置が提案されている。
例えば、撮像手段により撮像されたハンドジェスチャーの認識結果に基づいて、画像に対して移動、回転、拡大、縮小等の操作を行う装置が知られている(特許文献1参照)。ここで、ジェスチャー認識による撮影制御や再生制御を行うためには、予め認識に用いる動作モデルと制御命令とを関連付けて記憶しておく必要がある。そこで、例えば、被写体の動きを撮影した画像から動きパターン画像を生成し、動きパターン画像とそれに対応した制御命令を登録する方法が提案されている(特許文献2参照)。この方法によれば、ユーザによる任意の動作モデルと制御命令の組み合わせにより、撮像装置の撮影制御や再生制御が可能となる。また、ユーザによる任意の動作モデルと制御命令の組み合わせを複数登録することにより、様々な制御が可能となる。
特開平11−338120号公報 特開2005−71208号公報
しかしながら、動作モデルの登録において、登録済みの動作モデルと類似する動作モデルを、ユーザが類似していると認識しないまま登録を行ってしまうと、ジェスチャーによる撮影制御或いは再生制御が混乱するおそれがある。また、多数の動作モデルと制御命令の組み合わせを登録する場合に、動作モデルと制御命令の組み合わせを把握することが困難になる場合がある。
本発明は、ジェスチャー認識による撮影制御又は再生制御が、ユーザによる動作モデルと制御命令の任意登録によって混乱してしまうことを回避する技術を提供することを目的とする。
本発明に係る情報処理装置は、所定の時間間隔で供給される画像に含まれる被写体のジェスチャーを認識し、認識したジェスチャーと予め関連付けられている制御命令を実行する情報処理装置であって、前記被写体のジェスチャーを認識するための動作モデルと特定の制御命令とが関連付けられて登録される記憶手段と、前記被写体のジェスチャーを前記動作モデルとして、所定の制御命令と関連付けて前記記憶手段に登録する登録手段と、前記登録手段が前記被写体のジェスチャーを動作モデルとして前記記憶手段に登録する際に、前記記憶手段に登録された動作モデル及び制御命令から、前記被写体のジェスチャーと類似する動作モデルと、該類似する動作モデルに関連付けられた制御命令とを抽出する動作モデル抽出手段と、前記登録手段が前記所定の制御命令を前記記憶手段に登録する際に、前記記憶手段に登録された制御命令及び動作モデルから、前記所定の制御命令と関連性の高い制御命令と、該関連性の高い制御命令と関連付けられた動作モデルとを抽出する制御命令抽出手段とを備えることを特徴とする。
本発明によれば、ジェスチャー認識による撮影又は再生制御が、動作モデルと制御命令をユーザが任意で登録することによって混乱してしまうことを回避するができる。
本発明の実施形態に係る情報処理装置の概略構成を示すブロック図である。 情報処理装置が備えるジェスチャー認識部の構成を示すブロック図である。 ジェスチャー認識部において実行されるジェスチャー認識処理のフローチャートである。 ジェスチャー認識部において実行される動作モデル登録処理のフローチャートである。 ジェスチャー認識部による動作モデル登録処理時の表示内容の例を示す図である。 ジェスチャー認識部が保持するジェスチャー辞書データの例を示す図である。 ジェスチャー認識部において実行される制御命令登録処理のフローチャートである。 ジェスチャー認識部による制御命令登録処理時の表示内容の例を示す図である。
以下、本発明の実施形態について添付図面を参照して詳細に説明する。本実施形態では、本発明に係る情報処理装置として撮像装置を取り上げることとするが、本発明は撮像装置に限定されるものではなく、例えば、パーソナルコンピュータ、スマートフォン、携帯電話、ゲーム機等の電子機器に対しても適用することができる。
<撮像装置の概略構成>
図1は、本実施形態に係る撮像装置100の概略構成を示すブロック図である。撮像装置100は、被写体からの光線を集光する撮像光学系を構成する撮像レンズ101と、撮像光学系を通して得られる被写体からの光線が被写体像として結像する撮像部102を備える。撮像部102は、CCDイメージセンサやCMOSイメージセンサ等の撮像素子と、撮像素子を駆動する駆動回路とを有する。被写体からの光線は、撮像素子の受光面において結像し、撮像素子による光電変換により画素単位で電荷に変換される。撮像部102は、変換された電荷を画素毎に読み出して、画像信号としてアナログ信号処理部103へ出力する。なお、撮像部102において、撮像素子からの電荷の読み出しを所定の時間間隔、例えばフレーム周期で連続的に行うことにより、動画像信号を得ることができる。
アナログ信号処理部103は、撮像部102から受信した画像信号に対して、相関二重サンプリング(CDS)やゲイン調整等のアナログ信号処理を行い、処理後の画像信号をA/D変換部104に対して出力する。A/D変換部104は、アナログ信号処理部103から受信した画像信号をデジタル信号に変換して画像データを生成し、生成した画像データを制御部105及び画像処理部106へ出力する。
制御部105は、撮像装置100全体の動作を制御する。制御部105は、CPU、ROM及びRAM等を有し、CPUは、ROMに予め記憶されたプログラムに従い、RAMをワークメモリとして用いて動作し、撮像装置100の各部を制御する。制御部105は、A/D変換部104から出力された画像データに基づいて、撮像レンズ101の合焦制御機構(不図示)や露出制御機構(不図示)を制御する撮像制御を行い、また、撮像素子の出力タイミングや出力画素等の制御を行う。更に、制御部105は、後述するジェスチャー認識部110での処理結果にしたがって、撮像装置100の各部を制御する。
画像処理部106は、A/D変換部104から供給された画像データに対して、ガンマ補正やホワイトバランス処理等の所定の画像処理を施す。また、画像処理部106は、撮像装置100が備えるジャイロセンサ(不図示)から出力される角速度情報に基づき、手ぶれによる画像ぶれを補正する処理を行うことができる。
画像処理部106において所定の処理が施された画像データは、画像処理部106から記録部107に供給され、記録媒体(不図示)記録される。記録部107は、記録媒体は、撮像装置100に対して着脱可能な、例えば、不揮発性の半導体メモリ等である。但し、これに限られず、記憶媒体は、撮像装置100に内蔵されたメモリやハードディスクであってもよいし、撮像装置100が備える通信部(不図示)により通信可能に接続された外部装置であってもよい。
画像処理部106において所定の処理が施された画像データは、画像処理部106から表示部108にも供給される。表示部108は、例えば、LCDや有機ELディスプレイ等の表示デバイスと、画像データに基づき表示デバイスを駆動する駆動回路とを有し、供給された画像データを表示デバイスに表示する。また、表示部108は、後述するジェスチャー認識部110よって抽出された情報である類似動作モデルや、類似動作モデルに関連付けられた制御命令の情報を表示する機能を有する。これらの機能の詳細については後述する。なお、時系列的に連続撮影した画像を逐次的に表示部108で表示することにより、表示部108を、撮像画像をモニタする電子ビューファインダ(EVF)として機能させることができる。
操作部109は、ユーザの操作を受け付ける入力デバイスとして、ボタン入力デバイスやタッチパネル等のポインティングデバイスを有する。なお、操作部109が備える入力デバイスは、本発明に係る情報処理装置によって異なり、前記のものに限定されるものではない。操作部109によって入力された情報は、制御部105に供給される。
画像処理部106から出力された画像データは、ジェスチャー認識部110にも供給される。ジェスチャー認識部110は、画像中の人物の身振りや手振り等のジェスチャーが、予め保持されている特定のジェスチャー(以下「動作モデル」という)と一致するか否かを判定する。撮像装置100では、動作モデルに対する制御内容が予め定められている。ジェスチャー認識部110では、特定の動作モデルが認識された場合には、認識された動作モデルに関連付けられた制御命令が制御部105によって実行される。また、ジェスチャー認識部110は、ジェスチャー認識のための辞書情報を登録する際に、辞書登録のためのアシスト情報を抽出する処理を実行する。
つまり、ジェスチャー認識部110は、認識した動作モデルに関連付けられた制御命令を出力するモードと、ジェスチャー辞書の登録及び登録のためのアシスト情報を抽出するモードの2種類のモードを有する。ジェスチャー認識部110がいずれのモードで動作するかは、操作部109において受け付けられたユーザの操作に基づく。例えば、操作部109では、ジェスチャー辞書登録のオン/オフ(ON/OFF)操作が可能となっている。ジェスチャー辞書登録がONのとき、ジェスチャー認識部110は、ジェスチャー辞書の登録及び登録のためのアシスト情報を抽出するモードで動作するように、制御部105によって制御される。一方、ジェスチャー辞書登録がOFFのとき、ジェスチャー認識部110は、画像中のジェスチャーを認識し、認識したジェスチャーに対応する動作モデルに関連付けられた制御命令を出力するモードで動作するように、制御部105によって制御される。
<ジェスチャー認識部110の構成及び動作>
図2は、ジェスチャー認識部110の構成を示すブロック図である。また、図3は、ジェスチャー認識部110において実行されるジェスチャー認識処理のフローチャートである。本実施形態では、ジェスチャー認識として、人物の身振りや手振り等を認識するものとし、以下の説明では、ジェスチャー認識部110の各部の機能説明とジェスチャー認識処理のフローとを並行して説明する。
ジェスチャー認識部110は、被写体領域検出部201、動作特徴抽出部202、動作モデル抽出部203、ジェスチャー辞書記憶部204、ジェスチャー辞書登録部205及び制御命令抽出部206を有する。なお、図2に示す制御部105、画像処理部106及び表示部108は、図1に示したものと同じである。
ジェスチャー認識処理では、最初に、被写体領域検出部201が、画像処理部106から所定の時間間隔で供給される画像データに基づき、被写体領域を検出する(ステップS301)。本実施形態では、ジェスチャー認識として、人物の身振りや手振り等を認識するため、被写体領域検出部201は、人物領域を検出する。人物領域の検出方法としては、例えば、特開2009−211311号公報に記載されている周知技術を用いることができ、本実施形態では、局所的な人体の輪郭のエッジ強度を局所特徴量として検出することとする。なお、画像から特徴量を抽出する方法としては、Sobelフィルタ、Rrewittフィルタ、Haarフィルタ等の種々の方法がある。被写体領域検出部201が備える不図示の人物判別器は、抽出された局所特徴量に基づいて人物又は非人物かを判別し、人物判別器における判別は、AdaBoost学習等の機械学習に基づき、実施される。
ステップS301の後、動作特徴抽出部202が、被写体領域検出部201において検出された被写体の動作特徴を抽出する(ステップS302)。具体的には、顔や腕等の人体を構成する各パーツの領域を推定するために、検出された被写体領域に形状モデルを当てはめる。なお、形状モデルとは、単純化された3次元パーツモデル(例えば、円筒、楕円体、super-quadrics等)により近似された人体各部の形状モデルである。例えば、顔部(頭部)の位置、姿勢を基準として、腕、手、足、動体等の存在範囲を推定することにより、人体を構成する各パーツの領域を推定する。そして、対象となる人物を構成するパーツごとの特徴量(局所的かつ幾何学的な特徴、動きベクトル、色成分特徴等)をパーツの代表点付近での平均的特徴量として所定の記憶手段に格納し、パーツ単位での代表点位置を動作特徴量として抽出する。
ステップS302の後、動作モデル抽出部203が、動作特徴抽出部202により抽出された動作特徴量とジェスチャー辞書記憶部204に記憶されている動作モデルとの照合を行う(ステップS303)。ステップS303での照合の結果として、抽出された動作特徴量と各動作モデルとの類似度が算出される。動作モデル抽出部203は、抽出された動作特徴量と動作モデルとが同じ動作を示すか否かを、算出された類似度が所定の閾値以上であるか否かによって判定する(ステップS304)。ここで、動作モデルとは、1つ以上のパーツによる時系列的な特徴量である。
なお、人物動作の抽出技術としては、周知技術を用いることができ、例えば、『星野、「人物動作における個性の抽出と再構成」画像電子学会誌第30巻、pp.631−640,2001』等に記載されている技術を用いればよい。動作モデルとのマッチング処理の基本的な方法としては、入力画像の遷移系列とモデルとの対応付けをDynamic time warpingという手法で行う方法(例えば、T. J. Darell and A. P. Pentland, 1993, “Space-Time Gestures”)がある。また、動作の状態遷移を確率モデルで行う隠れマルコフモデルを用いた手法(J. Yamato, J. Ohya and K. Ishii, 1992, “Recognizing Human Action in Time-Sequential Images Using Hidden Markov Model”,Proc. CVPR, pp. 379-385)を用いてもよい。更に、時空間エッジ画像ベクトル列の連続動的計画法(Continuous Dynamic Programming)による方法(西村、岡、「ジェスチャ動画像の逆時間動作や静止動作をスポッティング認識するためのNon-monotonic連続DP」、信学技報、PRMU 96-32, pp. 49-56, 1996)を用いてもよい。
ジェスチャー辞書記憶部204には、動作モデルと制御命令とが関連付けられて記憶されている。そこで、類似度が所定の閾値以上の動作モデルが抽出された場合(S304でYES)、動作モデル抽出部203は、その動作モデルに関連付けられた制御命令を制御部105へ供給する。制御部105は、供給された制御命令に基づいて、撮像装置100の各部を制御する(ステップS305)。一方、類似度が所定の閾値以上の動作モデルが抽出されない場合(S304でNO)、特に処理は行われない。
以上の説明の通り、撮像装置100では、撮影された被写体のジェスチャーに基づいた各種制御が可能となっている。
次に、ジェスチャー辞書の登録及び登録のためのアシスト情報を抽出する処理について説明する。上述の通り、ジェスチャー辞書記憶部204には、動作モデルと制御命令とが関連付けられて記憶されている。以下の説明では、動作モデルと制御命令とが関連付けられた登録データを「ジェスチャー辞書データ」と呼称する。よって、ジェスチャー辞書データの登録においては、動作モデルと制御命令の両方の登録を必要とする。
図4は、ジェスチャー認識部110において実行される動作モデル登録処理のフローチャートである。先ず、図3のステップS301の処理と同様に、被写体領域検出部201が、画像処理部106から供給される画像データに基づき、被写体領域を検出する(ステップS401)。なお、画像処理部106供給される画像データは、ジェスチャー辞書登録部205によって登録される可能性のある画像データである。続いて、図3のステップS302の処理と同様に、動作特徴抽出部202が、被写体領域検出部201より検出された被写体の動作特徴量を抽出する(ステップS402)。
次いで、図3のステップS303の処理と同様に、動作モデル抽出部203が、動作特徴抽出部202により抽出された動作特徴量とジェスチャー辞書記憶部204に登録済みの動作モデルとを照合する(ステップS403)。ステップS403では、動作モデル抽出部203は、照合により動作モデル毎に類似度を算出する。続いて、動作モデル抽出部203は、算出した類似度が所定の閾値以上か否かを判定する(ステップS404)。
類似度が所定の閾値以上の動作モデルが存在する場合(S404でYES)、動作モデル抽出部203は、類似した動作モデル(以下、適宜、「類似動作モデル」と記す)と、類似動作モデルに関連付けられた制御命令の内容とを、表示部108へ通知する(ステップS405)。類似度が所定の閾値以上の動作モデルが存在しない場合(S404でNO)、動作モデル抽出部203は、類似動作モデルが存在しないことを表示部108へ通知する(ステップS406)。
ジェスチャー認識部110の動作モデル登録処理時の通知情報に基づいて表示部108に表示される表示例について、図5及び図6を参照して説明する。
図5は、ジェスチャー認識部110による動作モデル登録処理時の表示内容の例を示す図である。図5(A)には、図4のステップS405において、類似動作モデル(ここでは複数の類似動作モデルを示す)と、類似動作モデルに関連付けられた制御命令とが、表示部108へ通知された場合の表示例が示されている。図5(B)には、ステップS406において、類似動作モデルが存在しないことが表示部108へ通知された場合の表示例が示されている。
図6は、ジェスチャー認識部110が保持するジェスチャー辞書データの例を示す図である。なお、本実施形態では、図6に示す情報がジェスチャー辞書データとしてジェスチャー辞書記憶部204に登録されているものとする。図6には、動作モデル601,602と、制御命令603,604とが示されている。ここで、動作モデル601と制御命令603とが、動作モデル602と制御命令604とがそれぞれ関連付けられており、ジェスチャー辞書記憶部204に記憶されているものとする。
図5(A)に示す画面501は、ステップS405にしたがって表示部108において表示される内容の全体又は一部を示している。画面501内の動作モデル502には、ジェスチャー辞書データに動作モデルとして登録される候補となる画像データの一部と、動作特徴抽出部202により抽出された動作特徴量とが示されている。図5(A)の表示例では、動作特徴量として人間の手の動きが抽出されたものとする。動作モデル502に表示される画像データは、画像処理部106から供給されて被写体領域検出部201及び動作特徴抽出部202で利用した画像データのうち、キーフレームとして選択された画像である。本実施形態でのキーフレームとは、ジェスチャー認識に用いる特徴部位のフレーム間の動作特徴が大きく変化したフレームを指す。
動作モデル502には、キーフレームとして選択した画像に対して、キーフレーム間の特徴部位の動作ベクトルが矢印で重畳されている。動作モデル502のような形態で登録候補を表示することにより、ユーザは、意図した動作が正しく動作モデルとして登録されるかを確認することができる。また、キーフレームの画像と動作ベクトルを示す矢印とを用いて動作モデルを簡略化して明示することにより、ユーザによる確認が容易となる。
画面501内には、ジェスチャー辞書記憶部204に登録されており、登録候補の動作モデル502に類似するとして、動作モデル抽出部203により抽出された類似動作モデル503が示されている。類似動作モデル503の表示方法は動作モデル502の表示方法と同様であり、類似動作モデル503は、キーフレームの画像と動作ベクトルを示す矢印とを用いて表示される。ここで、類似動作モデル503は、図6に示す動作モデル601と同様である。また、画面501内に示される制御命令504は、類似動作モデル503と関連付けられており、図6に示す制御命令603と同様である。
ユーザは、画面501内の表示内容を確認し、登録候補の動作モデル502をジェスチャー辞書記憶部204に登録するか否かを判断する。登録すると判断された場合は、ジェスチャー辞書登録部205によって登録候補の動作モデル502がジェスチャー辞書記憶部204に登録される。また、キーフレームとして選択された画像データも登録する動作モデル502と関連付けて記憶される。
なお、動作モデル抽出部203によってジェスチャー辞書記憶部204に登録済みの複数の類似動作モデル503が抽出された場合、これらの類似動作モデル503は類似度の高い順に並べて表示される。或いは、所定の時間間隔で、表示するジェスチャー辞書データを類似度の高い順に切り替えてもよい。また、動作モデル抽出部203において算出された類似度が所定の閾値以上の類似動作モデル503が存在する場合は、登録候補の動作モデル502の登録を禁止するようにしてもよい。
図5(B)に示す画面505は、ステップS406にしたがって、表示部108において表示される内容の全体又は一部を示している。画面505内の動作モデル506には、ジェスチャー辞書データに動作モデルとして登録される候補の画像データの一部と、動作特徴抽出部202により抽出された動作特徴量とが示されている。図5(B)の表示例でも、動作特徴量として人間の手の動きのみが抽出されたものとする。動作モデル506の表示方法は、図5(A)の動作モデル502の表示方法と同じであるため、その説明を省略する。図5(B)の画面505は、動作モデル506が、図6に示されるジェスチャー辞書記憶部204に登録されている動作モデルと類似していないため、類似動作モデルが登録されていないことを表示している。ユーザは、図5(A)の場合と同様に、画面505の表示内容を確認し、登録候補の動作モデル506をジェスチャー辞書記憶部204に登録するか否かを判断する。
以上のように、登録候補の動作モデルと類似した登録済みの動作モデル、登録済みの動作モデルに関連付けられた制御命令を抽出して表示することにより、ユーザの意図しない動作モデルの登録を回避することができる。
次に、制御命令の登録処理について、図7を参照して説明する。図7は、ジェスチャー認識部110において実行される制御命令登録処理のフローチャートである。ユーザが、操作部109を操作して、ジェスチャー辞書データとして登録したい制御内容を選択する。ここで選択される制御内容の例としては、静止画記録、動画記録の開始、動画記録の停止、ズームイン、ズームアウト、電源のオフ等が挙げられる。
操作部109で選択された制御内容に関する情報、すなわち、登録候補の制御命令は、制御部105を介してジェスチャー辞書登録部205に供給される。すると、制御命令抽出部206は、ジェスチャー辞書登録部205に供給された登録候補の制御命令と関連性の高い制御命令をジェスチャー辞書記憶部204に記憶されている制御命令の中から抽出する(ステップS701)。なお、関連性の高い制御命令とは、制御対象が同じであり、且つ、制御方法が異なる制御命令の組み合わせを示す。例えば、動画記録の開始と動画記録の停止、ズームインとズームアウト等は、関連性の高い制御命令である。一方、関連性の低い制御命令とは、制御対象が異なる制御命令の組み合わせを示す。例えば、動画記録の開始とズームイン、動画記録の停止とズームアウト、ズームインと電源のオフ等は、関連性の低い制御命令である。
続いて、制御命令抽出部206は、関連性の高い制御命令が抽出されたか否かを判定する(ステップS702)。関連性の高い制御命令が抽出された場合(S702でYES))、制御命令抽出部206は、ジェスチャー辞書記憶部204に登録されている関連性の高い制御命令及び動作モデルを表示部108に通知する(ステップS703)。一方、関連性の高い制御命令が抽出されなかった場合(S702でNO)、制御命令抽出部206は、関連性の高い制御命令がジェスチャー辞書記憶部204に登録されていないことを表示部108に通知する(ステップS704)。
ジェスチャー認識部110の制御命令登録処理時の通知情報に基づいて表示部108に表示される表示例について、図8を参照して説明する。図8は、ジェスチャー認識部110による制御命令登録処理時の表示内容の例を示す図である。なお、図8を参照した説明にあたっては、図6に示す情報がジェスチャー辞書データとして登録されているものとする。
図8(A)には、ステップS703において、関連性の高い動作モデルと、その動作モデルに関連付けられた制御命令とが表示部108へ通知された場合の表示例が示されている。また、図8(B)には、ステップS704において、関連性の高い制御命令が登録されていないことが表示部108へ通知された場合の表示例が示されている。
図8(A)に示す画面801は、ステップS703にしたがって表示部108において表示される内容の全体又は一部を示している。画面801には、ジェスチャー辞書データの制御命令として登録される候補となっている制御命令802が表示されている。また、画面801には、ジェスチャー辞書記憶部204に登録済みであり、制御命令抽出部206により抽出された制御命令803と、制御命令803と関連付けられた動作モデル804とが示されている。なお、制御命令803及び動作モデル804はそれぞれ、図6に示す制御命令604、動作モデル602と同じである。よって、動作モデル804の表示方法は、図5(A)に示した動作モデル502について説明した通り、キーフレームの画像と動作ベクトルを示す矢印とが重畳されて表示されている。
なお、制御命令抽出部206によりジェスチャー辞書記憶部204に登録済みの複数の制御命令が抽出された場合は、それらの制御命令は関連性の高い順に並べて表示される。或いは、表示するジェスチャー辞書データを、関連性の高い順に所定の時間間隔で切り替えてもよい。
図8(B)に示す画面805は、ステップS704にしたがって表示部108において表示される内容の全体又は一部を示している。画面801には、ジェスチャー辞書データの制御命令として登録される候補となっている制御命令806が表示されている。また、画面801には、登録候補の制御命令806が、図6に示されるジェスチャー辞書記憶部204に登録されている制御内容とは関連性の低い制御命令であったため、関連性の高い制御命令が登録されていないことが表示されている。
ユーザは、画面801又は画面805の表示内容を確認し、登録候補の制御命令802或いは制御命令806をジェスチャー辞書記憶部204に登録するか否かを判断する。登録すると判断された場合、ジェスチャー辞書登録部205により、登録すると判断された制御命令がジェスチャー辞書記憶部204に登録される。
図8(A)に示したように登録候補の制御命令802と関連性が高い制御命令803が抽出された場合、ユーザは関連性の高い制御命令803と関連付けて登録されている動作モデル804を確認することができる。関連性の高い制御命令803であれば、関連付けられた動作モデル804も関連性の高い動作モデルであることが、ジェスチャー辞書データに登録されている内容を把握する観点から好ましい。
したがって、関連性の高い制御命令803と関連付けて登録されている動作モデル804をユーザに確認させることによって、登録候補の制御命令802には、抽出された動作モデル804と関連付けられた動作モデルを登録させるように誘発することができる。具体例を図8(C)に示す。図8(C)は、図8(A)の動作モデル804と関連付けられた動作モデルの例である動作モデル807を示す。動作モデル807は、動作モデル804に対して左右の手の動作を反転させた動作モデルである。
以上の説明の通り、本実施形態によれば、ジェスチャー辞書データに動作モデルや制御命令を登録する際にアシスト情報を抽出する。これによって、ユーザが任意でジェスチャー辞書データを登録することが招くジェスチャー認識に起因する撮影制御の混乱を回避することができる。
<その他の実施形態>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。本発明は以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
100 撮像装置
103 アナログ信号処理部
104 A/D変換部
105 制御部
106 画像処理部
108 表示部
109 操作部
110 ジェスチャー認識部
201 被写体領域検出部
202 動作特徴抽出部
203 動作モデル抽出部
204 ジェスチャー辞書記憶部
205 ジェスチャー辞書登録部
206 制御命令抽出部

Claims (9)

  1. 所定の時間間隔で供給される画像に含まれる被写体のジェスチャーを認識し、認識したジェスチャーと予め関連付けられている制御命令を実行する情報処理装置であって、
    前記被写体のジェスチャーを認識するための動作モデルと特定の制御命令とが関連付けられて登録される記憶手段と、
    前記被写体のジェスチャーを前記動作モデルとして、所定の制御命令と関連付けて前記記憶手段に登録する登録手段と、
    前記登録手段が前記被写体のジェスチャーを動作モデルとして前記記憶手段に登録する際に、前記記憶手段に登録された動作モデル及び制御命令から、前記被写体のジェスチャーと類似する動作モデルと、該類似する動作モデルに関連付けられた制御命令とを抽出する動作モデル抽出手段と、
    前記登録手段が前記所定の制御命令を前記記憶手段に登録する際に、前記記憶手段に登録された制御命令及び動作モデルから、前記所定の制御命令と関連性の高い制御命令と、該関連性の高い制御命令と関連付けられた動作モデルとを抽出する制御命令抽出手段とを備えることを特徴とする情報処理装置。
  2. 前記動作モデル抽出手段は、前記被写体のジェスチャーとの前記記憶手段に登録された動作モデルとの類似度を算出し、算出された前記類似度が所定の閾値以上である動作モデルを前記類似する動作モデルとして抽出することを特徴とする請求項1記載の情報処理装置。
  3. 前記動作モデル抽出手段により前記類似する動作モデルが抽出された場合に、前記類似する動作モデルと該動作モデルに関連付けられた制御命令とを表示し、前記制御命令抽出手段により前記関連性の高い制御命令が抽出された場合に、前記関連性の高い制御命令と該制御命令に関連付けられた動作モデルとを表示する表示手段を備えることを特徴とする請求項2記載の情報処理装置。
  4. 前記動作モデル抽出手段により複数の前記類似する動作モデルが抽出された場合、前記複数の類似する動作モデルは、該複数の類似する動作モデルと関連付けられた制御命令と共に、前記類似度の大きい順に前記表示手段に表示されることを特徴とする請求項3記載の情報処理装置。
  5. 前記動作モデル抽出手段が前記所定の閾値以上の動作モデルを抽出した場合、前記登録手段は、前記被写体のジェスチャーを動作モデルとして前記記憶手段に登録しないことを特徴とする請求項2記載の情報処理装置。
  6. 前記所定の時間間隔で供給される画像のフレーム間で前記被写体の特徴部位の動作特徴が大きく変化したフレームをキーフレームとして、
    前記被写体のジェスチャーは、前記キーフレームとして選択された画像に前記キーフレーム間の特徴部位の動作ベクトルが矢印で重畳されて、前記表示手段に表示されることを特徴とする請求項3記載の情報処理装置。
  7. 前記類似する動作モデルは、前記被写体のジェスチャーに対応する画像に、該画像の特徴部位の動作ベクトルが矢印で重畳されて、前記表示手段に表示されることを特徴とする請求項6記載の情報処理装置。
  8. 所定の時間間隔で供給される画像に含まれる被写体のジェスチャーを認識し、認識したジェスチャーと予め関連付けられている制御命令を実行する情報処理装置の制御方法であって、
    所定の時間間隔で供給される画像に含まれる被写体のジェスチャーを認識し、認識したジェスチャーと予め関連付けられている制御命令を実行する情報処理装置であって、
    前記被写体のジェスチャーを認識するための動作モデルと特定の制御命令とが関連付けられて登録される記憶手段に、前記被写体のジェスチャーを前記動作モデルとして所定の制御命令と関連付けて登録する登録ステップと、
    前記登録ステップで、前記被写体のジェスチャーを動作モデルとして前記記憶手段に登録する際に、前記記憶手段に登録された動作モデル及び制御命令から、前記被写体のジェスチャーと類似する動作モデルと、該類似する動作モデルに関連付けられた制御命令とを抽出する動作モデル抽出ステップと、
    前記登録ステップで、前記所定の制御命令を前記記憶手段に登録する際に、前記記憶手段に登録された制御命令及び動作モデルから、前記所定の制御命令と関連性の高い制御命令と、該関連性の高い制御命令と関連付けられた動作モデルとを抽出する制御命令抽出ステップとを備えることを特徴とする情報処理装置の制御方法。
  9. 請求項8記載の情報処理装置の制御方法をコンピュータに実行させることを特徴とするプログラム。
JP2012116520A 2012-05-22 2012-05-22 情報処理装置、制御方法及びプログラム Pending JP2013242768A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012116520A JP2013242768A (ja) 2012-05-22 2012-05-22 情報処理装置、制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012116520A JP2013242768A (ja) 2012-05-22 2012-05-22 情報処理装置、制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2013242768A true JP2013242768A (ja) 2013-12-05

Family

ID=49843584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012116520A Pending JP2013242768A (ja) 2012-05-22 2012-05-22 情報処理装置、制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2013242768A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5855794B1 (ja) * 2014-08-13 2016-02-09 楽天株式会社 動作入力システム、動作入力方法およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5855794B1 (ja) * 2014-08-13 2016-02-09 楽天株式会社 動作入力システム、動作入力方法およびプログラム
WO2016024349A1 (ja) * 2014-08-13 2016-02-18 楽天株式会社 動作入力システム、動作入力方法およびプログラム
CN107077737A (zh) * 2014-08-13 2017-08-18 乐天株式会社 动作输入系统、动作输入方法和程序
US20170300745A1 (en) * 2014-08-13 2017-10-19 Rakuten, Inc. Motion input system, motion input method and program
EP3208772A4 (en) * 2014-08-13 2018-07-25 Rakuten, Inc. Operation input system, operation input method, and program
US10474886B2 (en) 2014-08-13 2019-11-12 Rakuten, Inc. Motion input system, motion input method and program
CN107077737B (zh) * 2014-08-13 2020-10-09 乐天株式会社 动作输入装置、动作输入方法

Similar Documents

Publication Publication Date Title
JP6106921B2 (ja) 撮像装置、撮像方法および撮像プログラム
JP4274233B2 (ja) 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP4639869B2 (ja) 撮像装置およびタイマー撮影方法
KR101537948B1 (ko) 얼굴 포즈 추정을 이용한 촬영 방법 및 장치
US9036038B2 (en) Information processing apparatus and method for extracting and categorizing postures of human figures
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
JP6049448B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
JP5959923B2 (ja) 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
EP2688287A2 (en) Photographing apparatus, photographing control method, and eyeball recognition apparatus
JP2011078009A (ja) 撮像装置および撮像装置用プログラム
CN107395957B (zh) 拍照方法、装置、存储介质及电子设备
KR20100055946A (ko) 동영상 썸네일 생성 방법 및 장치
US8648960B2 (en) Digital photographing apparatus and control method thereof
US9628700B2 (en) Imaging apparatus, imaging assist method, and non-transitory recoding medium storing an imaging assist program
KR20170112763A (ko) 전자 장치 및 그의 동작 방법
JP2007251429A (ja) 動画撮影装置及びズーム調整方法
CN114339102A (zh) 一种录像方法及设备
KR101325002B1 (ko) 화상 처리 장치, 화상 처리 방법 및 기록 매체
US12002279B2 (en) Image processing apparatus and method, and image capturing apparatus
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP2013242768A (ja) 情報処理装置、制御方法及びプログラム
JP5247419B2 (ja) 撮像装置および被写体追跡方法
JP2016048863A (ja) 被写体検出装置、その制御方法、撮像装置、表示装置及びプログラム
JP2023166863A (ja) 画像処理装置、画像処理方法および撮像装置
JP2024033747A (ja) 撮像装置、撮像装置の制御方法、プログラム