JP2011221787A - 情報処理装置、及びプログラム - Google Patents

情報処理装置、及びプログラム Download PDF

Info

Publication number
JP2011221787A
JP2011221787A JP2010090188A JP2010090188A JP2011221787A JP 2011221787 A JP2011221787 A JP 2011221787A JP 2010090188 A JP2010090188 A JP 2010090188A JP 2010090188 A JP2010090188 A JP 2010090188A JP 2011221787 A JP2011221787 A JP 2011221787A
Authority
JP
Japan
Prior art keywords
unit
display
gui
face
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010090188A
Other languages
English (en)
Inventor
Shigeru Kafuku
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010090188A priority Critical patent/JP2011221787A/ja
Publication of JP2011221787A publication Critical patent/JP2011221787A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザにとってより容易なハンドジェスチャ操作を実現可能にする。
【解決手段】情報処理装置は、画面を表示する表示部21と、ユーザを撮像することによって、撮像画像のデータを出力する撮像部22と、を備えている。このような情報処理装置において、顔検出部57は、撮像部22から出力された撮像画像のデータに基づいて、ユーザと撮像手段との位置関係に応じて変化する、撮像画像内におけるユーザの顔の像の位置及び大きさを表す顔領域を撮像画像から検出する。GUI画像生成部53は、表示部21の画面における、顔領域の対応領域を求め、当該対応領域の位置及び大きさに基づいて当該対応領域の周囲にGUIとしてのボタンを配置した画像のデータを、GUI画像のデータとして生成する。表示制御部54は、GUI画像のデータに基づいて、当該GUI画像を画面として表示部21に表示させる。
【選択図】図2

Description

本発明は、情報処理装置及びプログラムに関し、特に、ユーザにとってより容易なハンドジェスチャ操作を実現可能にする技術に関する。
近年、テレビジョン受像機等の表示装置の画面に対して、人間の手を用いた所定の所作をすることによって、表示装置を操作する技術が研究開発されている。
例えば、特許文献1には、ユーザをビデオカメラで撮像してモニタに表示し、表示された画面の中で、ユーザの手が所定の認識領域に入ったと判断されると、所定の処理を実行する、マルチメディア再生装置の技術が開示されている。
なお、「画面」とは、表示装置等の表示領域全体に表示される画像をいう。
また、以下、人間の手を用いた所作を、「ハンドジェスチャ」と呼び、また、ハンドジェスチャによる画面の操作を、「ハンドジェスチャ操作」と呼ぶ。
特開2007−72564号公報
特許文献1に開示された技術では、ユーザが画面(ビデオカメラ)の近くで動作する場合は、ユーザは画面の中で大きく表示されるため、モニタに表示される画面の中の所定の認識領域に手を到達させることは比較的容易である。一方で、例えば、ユーザが画面から遠く離れると、ユーザは画面の中で小さく表示されることになり、画面の中でユーザが占める領域が小さくなる。このため、ユーザが画面の中の所定の認識領域に手を届かせることが困難になる場合がある。このように、ユーザと画面との位置関係によってはハンドジェスチャ操作に支障が生じる場合も想定された。
本発明は、このような状況に鑑みてなされたものであり、例えば、ユーザと画面との位置が離れた場合であっても、ユーザにとって容易なハンドジェスチャ操作を実現可能にすることを目的とする。
本発明の一態様によると、
画面を表示する表示手段と、
ユーザを撮像することによって、撮像画像のデータを出力する撮像手段と、
前記撮像手段から出力された撮像画像のデータに基づいて、前記ユーザと前記撮像手段との位置関係に応じて変化する、前記撮像画像内における前記ユーザの顔の像の位置と大きさを表す顔領域を前記撮像画像から検出する顔検出手段と、
前記表示手段の画面における、前記顔検出手段により検出された前記顔領域の対応領域を求め、当該対応領域の中心位置に対して、当該対応領域が大きくなる程遠距離になる位置を、GUIとしてのボタンの配置位置として決定し、当該配置位置に前記ボタンを配置した画像のデータを、GUI画像のデータとして生成するGUI画像生成手段と、
前記GUI画像生成手段により生成された前記GUI画像のデータに基づいて、前記GUI画像を画面として前記表示手段に表示させる制御を実行する表示制御手段と、
を備える情報処理装置を提供する。
本発明の一態様によると、上述した本発明の一態様に係る情報処理装置に対応するプログラムを提供する。
本発明によれば、ユーザにとって容易なハンドジェスチャ操作を実現可能にすることができる。
本発明の一実施形態に係る情報処理装置の外観構成を模式的に示す図である。 図1の情報処理装置の機能的構成を示す機能ブロック図である。 図1の情報処理装置が実行するハンドジェスチャ操作対応処理の流れの一例を示すフローチャートである。 図3のハンドジェスチャ操作対応処理によって表示されたGUI画像の一例を示す図である。 図3のハンドジェスチャ操作対応処理によって表示されたGUI画像の一例であって、図4とは別の例を示す図である。 図2の情報処理装置を実現するハードウェア構成を示すブロック図である。
以下、本発明の一実施形態を図面に基づいて説明する。
図1は、本発明の一実施形態に係る情報処理装置の外観構成を模式的に示す図である。
図1に示す情報処理装置11は、液晶ディスプレイ等で構成される表示部21と、デジタルカメラ等で構成される撮像部22と、を備えている。情報処理装置11は、例えばカメラ付きデジタルフォトフレーム等により構成することができる。
表示部21は、情報処理装置11の正面(ユーザUに対向する面であって、図1に示される面)に設けられ、任意の画像を画面として表示することができる。図1の例では、GUI(Graphical User Interface)としてのカーソルGC及び4つのボタンGB−1乃至GB−4を含む画面が、表示部21に表示されている。
撮像部22は、情報処理装置11の正面であって例えば表示部21の上方に設けられ、情報処理装置11の正面(表示部21の画面)から前方の所定の画角の範囲内に存在する被写体を撮像することによって、当該被写体の像を含む撮像画像のデータを出力する。
本実施形態では、図1に示すように、撮像部22は、ユーザUを撮像し、ユーザUの像を含む撮像画像のデータを出力する。
このような情報処理装置11は、ユーザUによるハンドジェスチャ操作を受け付けることができる。
ハンドジェスチャ操作の一形態として、本実施形態では、表示部21の画面内でカーソルGCを移動させる操作が用いられる。このようなハンドジェスチャ操作を、以下、「カーソル移動操作」と呼ぶ。具体的には、ユーザUが手の位置を移動させる操作が、カーソル移動操作である。
情報処理装置11は、撮像部22から出力された撮像画像のデータに基づいて、撮像画像内の肌色の領域(後述する顔領域除く)を、ユーザUの手の領域として検出する。なお、以下、このようにして検出された領域を、「手領域」と呼ぶ。
情報処理装置11は、手領域が移動した場合、カーソル移動操作が行われたと認識する。そこで、情報処理装置11は、撮像画像内の手領域の位置に基づいて、表示部21の画面内のカーソルGCの位置を求め、求めた位置にカーソルGCを配置した画面を表示部21に表示させる、といった処理を所定間隔毎に繰り返し実行する。これにより、ユーザUの手の移動に連動して、カーソルGCが表示部21の画面内で移動する。
また、ハンドジェスチャ操作の別の形態として、本実施形態では、表示部21に表示されたボタンGB−1乃至GB−4のうち1つを押下する操作が用いられる。このようなハンドジェスチャ操作を、以下、「ボタン押下操作」と呼ぶ。
具体的には、ユーザUは、カーソル移動操作をして、ボタンGB―K(Kは、1乃至4のうちの任意の整数値)の上にカーソルGCを配置させる。このようにカーソルGCがボタンGB―Kの上に配置された状態で、所定時間、ユーザが手の位置をほぼ固定する操作、即ちカーソルGCをボタンGB―K内に留めておく操作が、ボタン押下操作である。
情報処理装置11は、カーソル移動操作の時と同様に、ユーザUの手領域を検出し、その検出結果に基づいて、表示部21の画面内のカーソルGCの位置を求める。情報処理装置11は、このようにして求めたカーソルGCの位置が、所定時間経過してもボタンGB―Kの領域内に留まっている場合、ボタンGB―Kに対するボタン押下操作が行われたと認識する。そして、情報処理装置11は、ボタンGB―Kに割り当てられたコマンドを実行する。
なお、ボタンGB―Kに割り当てられるコマンドは、特に限定されない。即ち、情報処理装置11の設計者等は、画像送り、画像戻し、或いはモード切替等任意のコマンドを、ボタンGB−Kに割り当てることができる。
情報処理装置11は、このようなハンドジェスチャ操作が行われる状況において、さらに、撮像部22から出力された撮像画像のデータに基づいて、撮像画像内のユーザUの顔の像の位置と大きさを表わす領域を検出することができる。なお、以下、このようにして検出された領域を、撮像画像内における「顔領域」と呼ぶ。顔領域は撮像画像内におけるユーザUの顔の像を示しているので、ユーザUと撮像部22との位置関係に応じて顔領域の位置及びサイズは変化する。
そして、情報処理装置11は、撮像画像内の顔領域の位置及びサイズに基づいて、表示部21の画面内のボタンGB−1乃至GB−4の各々の位置を求め、求めた位置にボタンGB−1乃至GB−4を配置した画面を表示部21に表示させる。
即ち、情報処理装置11は、撮像画像内の顔領域の位置及びサイズに応じて、表示部21の画面内のボタンGB−1乃至GB−4の各々の配置位置を可変することができる。
例えば、撮像画像と表示部21の画面とのアスペクト比が均一である場合に、撮像画像(反転画像)と表示部21の画面との各々を同一サイズ(同一画素数)に拡大又は縮小したときに、撮像画像の反転画像の領域に1対1に対応する表示部21の画面内の領域(1以上の画素の集合体)を、以下、「対応領域」と呼ぶものとする。この場合、情報処理装置11は、表示部21の画面における、顔領域の対応領域を求め、当該対応領域の位置及び大きさに基づいてボタンGB−1乃至GB−4の画面内の配置位置を決定し、即ち当該対応領域の周囲の各位置を配置位置として決定し、決定した各々の配置位置にボタンGB−1乃至GB−4を配置させることができる。
これにより、ユーザUは、表示部21の画面から、撮像部22の画角のうち、ボタンGB−1乃至GB−4に囲まれた範囲内に自身の顔が存在することを容易に視認することが可能になる。さらに、ユーザUは、自身の顔の周囲近傍で手を動かすだけで、即ち、大きく手を動かさずに、ボタン押下操作を行うことが可能になる。
このような情報処理装置11により実行される一連の処理、即ち、画面を表示部21に表示し、その画面にカーソルGCやボタンGB−1乃至GB−4等のGUIを表示し、カーソル移動操作やボタン押下操作等のハンドジェスチャ操作を認識して、その認識結果に基づく処理を実行するまでの一連の処理を、以下、「ハンドジェスチャ操作対応処理」と呼ぶ。
図2は、このようなハンドジェスチャ操作対応処理を実行するための情報処理装置11の機能的構成を示す機能ブロック図である。
図2において、白抜き矢印は情報の流れを示しており、実践の矢印は命令の流れを示している。
情報処理装置11は、上述した表示部21と撮像部22との他さらに、主制御部51と、表示対象画像生成部52と、GUI画像生成部53と、表示制御部54と、撮像画像取得部55と、撮像画像記憶部56と、顔検出部57と、顔検出情報記憶部58と、検出結果記憶部59と、操作認識部60と、を備えている。
主制御部51は、情報処理装置11全体の動作を制御する。即ち、主制御部51は、各種命令を発行することによって、表示対象画像生成部52、GUI画像生成部53、表示制御部54、撮像画像取得部55、及び顔検出部57の各々の動作を制御する。
表示対象画像生成部52は、リムーバブルメディア71に記憶された画像のデータ等に基づいて、表示部21に表示させる対象の画像(以下、「表示対象画像」と呼ぶ)のデータを生成し、GUI画像生成部53に供給する。
GUI画像生成部53は、表示対象画像生成部52から供給された表示対象画像のデータに基づいて、当該表示対象画像の上に、カーソルGCやボタンGB−1乃至GB−4等のGUIを重畳した画像(以下、「GUI画像」と呼ぶ)のデータを生成する。
ここで、カーソルGCやボタンGB−1乃至GB−4等のGUIの配置位置は、上述したように、ユーザUの存在位置に応じて、即ち、撮像画像内における顔領域や手領域の位置に応じて可変する。このため、GUI画像生成部53は、後述する顔検出部57による顔領域や手領域の検出結果を検出結果記憶部59から読み出すことによって、カーソルGCやボタンGB−1乃至GB−4等のGUIの配置位置を決定する。ただし、検出結果記憶部59及びその記憶内容の詳細については後述する。
GUI画像生成部53により生成されたGUI画像のデータは、表示制御部54に供給される。
なお、顔領域の検出結果が検出結果記憶部59に記憶されていない場合、ハンドジェスチャ操作は行われないものとして、表示対象画像生成部52により生成された表示対象画像のデータがそのまま、GUI画像生成部53から表示制御部54に供給される。
表示制御部54は、GUI画像生成部53から供給されたGUI画像又は表示対象画像のデータに基づいて、当該GUI画像又は表示対象画像を画面として表示部21に表示させる制御を実行する。なお、表示部21に表示されるGUI画像の具体例については、図4と図5を用いて後述する。
このようなGUI画像におけるカーソルGCやボタンGB−1乃至GB−4等のGUIの配置位置は、上述したように、撮像画像内における顔領域や手領域の位置に応じて決定される。このような撮像画像内における顔領域や手領域の位置を特定するために、撮像画像取得部55乃至検出結果記憶部59が情報処理装置11に設けられている。
撮像画像取得部55は、撮像部22から所定時間間隔毎に出力される撮像画像のデータを順次取得して、撮像画像記憶部56に順次記憶させる。
ここで、撮像部22から所定時間間隔毎に出力される撮像画像のデータの各々を、以下、「フレーム撮像画像のデータ」と呼ぶ。
撮像画像記憶部56は、時間的に連続する2枚以上のフレーム撮像画像のデータを記憶する。
顔検出部57は、撮像画像記憶部56に記憶されたフレーム撮像画像のデータに基づいて、当該フレーム撮像画像から顔領域を検出する。
なお、顔領域を検出する手法は、特に限定されないが、本実施形態では、Adaboostの手法で学習した結果得られるアピアランスベース識別器を用いて、顔領域を検出する手法が採用されている。
このため、本実施形態では、顔検出情報記憶部58は、アピアランスベース識別器を記憶している。
顔検出部57は、さらに、撮像画像記憶部56に記憶されたフレーム撮像画像のデータに基づいて、当該フレーム撮像画像から手領域を検出する。
なお、手領域を検出する手法は、特に限定されないが、本実施形態では、撮像画像の中に、顔領域以外の領域であって肌色の移動物体の領域を、手領域として検出する手法が採用されている。
即ち、本実施形態では、顔検出部57は、顔領域の検出に用いられたフレーム撮像画像のデータを処理対象として、それよりも過去に撮像されたフレーム撮像画像のデータとの差分に基づいて、処理対象のフレーム撮像画像から移動物体の領域を検出する。また、顔検出部57は、処理対象の撮像画像のデータに基づいて、当該処理対象のフレーム撮像画像の中から、HSV(Hue、Saturation、Value)表色系のHの値が規定範囲内の領域を肌色の領域として検出する。そして、顔検出部57は、肌色の領域であり、かつ、移動物体の領域であると検出した領域を、手領域として検出する。
検出結果記憶部59は、このような顔検出部57の検出結果、即ち、処理対象のフレーム撮像画像から検出された顔領域や手領域を特定可能な情報を記憶する。
検出結果記憶部59に記憶された顔検出部57の検出結果は、GUI画像生成部53に供給され、上述したように、カーソルGCやボタンGB−1乃至GB−4等のGUIの表示対象画像内の配置位置を決定するために用いられる。
例えば、GUI画像生成部53は、カーソルGCの配置位置を決定する場合、手領域を特定可能な情報を検出結果記憶部59から読み出して、当該情報に基づいて、処理対象のフレーム撮像画像内の手領域の位置を認識する。そして、GUI画像生成部53は、表示部21の画面における手領域の対応領域を、カーソルGCの配置位置として決定する。
また例えば、GUI画像生成部53は、ボタンGB−1乃至GB−4の配置位置を決定する場合、顔領域を特定可能な情報を検出結果記憶部59から読み出して、当該情報に基づいて、処理対象のフレーム撮像画像内の顔領域の位置及びサイズを認識する。GUI画像生成部53は、認識した顔領域の位置及びサイズに基づいて、表示部21の画面内のボタンGB−1乃至GB−4の各々の位置を求める。具体的には、GUI画像生成部53は、表示部21の画面における顔領域の対応領域を求め、当該対応領域の位置及び大きさに基づいて当該対応領域の周囲近傍の上下左右の各位置を、ボタンGB−1乃至GB−4の各配置位置としてそれぞれ決定する。
さらに、検出結果記憶部59に記憶された顔検出部57の検出結果は、操作認識部60にも供給される。
操作認識部60は、顔検出部57の検出結果に基づいて、ユーザUが行ったハンドジェスチャ操作を認識し、その認識結果を命令として主制御部51に通知する。
例えば、操作認識部60は、時間的に連続する複数のフレーム撮像画像の各々から検出られた手領域の各位置に基づいて、当該複数のフレーム撮像画像内での手領域の移動の軌跡を検出する。そして、操作認識部60は、このような検出結果に基づいて、GUI画像内でのカーソルGCの移動の軌跡を特定し、その特定結果に基づいて、カーソル移動操作やボタン押下操作が行われたことを認識する。
以上、情報処理装置11の機能的構成について説明した。
ただし、上述した機能的構成は例示にしか過ぎず、ハンドジェスチャ操作対応処理を実行可能であれば、情報処理装置11は任意の機能的構成を取ることができる。
次に、図3を参照して、このような機能的構成を有する情報処理装置11が実行するハンドジェスチャ操作対応処理について説明する。
図3は、ハンドジェスチャ操作対応処理の流れの一例を示すフローチャートである。
ハンドジェスチャ操作対応処理は、例えば、情報処理装置11の電源が投入されて、リムーバブルメディア71が情報処理装置11に装着されたことを契機として開始する。
ステップS1において、図2の主制御部51は、表示制御部54を制御して、表示部21における画面表示を開始させる。
即ち、この段階では、検出結果記憶部59には、顔領域の検出結果が未だ記憶されていない。このため、リムーバブルメディア71に記憶された画像のデータに基づいて表示対象画像生成部52により生成された表示対象画像のデータがそのまま、GUI画像生成部53を介して表示制御部54に供給される。そこで、表示制御部54は、当該表示対象画像、即ち、カーソルGCやボタンGB−1乃至GB−4等のGUIを含まない表示対象画像を、表示部21の画面として表示させる。
ステップS2において、主制御部51は、顔検出部57による顔検出処理を開始させる。
ここで、顔検出処理とは、顔領域を検出する処理のみならず、手領域を検出する処理も含む処理をいう。
ステップS3において、GUI画像生成部53は、主制御部51の制御の下、検出結果記憶部59の記憶内容を監視することによって、一定時間顔領域を検出しないか否かを判定する。
一定時間の間に、撮像部22から順次出力され、撮像画像取得部55を介して撮像画像記憶部56に順次記憶された複数のフレーム撮像画像のデータの各々を用いて、顔検出部57は、顔領域の検出を試みる。
顔領域の検出の試みに失敗した場合、即ち、一定時間の間に顔検出部57が顔領域を検出できなかった場合、検出結果記憶部59には顔領域に関する情報は記憶されない。このような場合、ステップS3においてYESであると判定されて、後述するステップS4乃至S8の処理は実行されずに、即ち、GUI画像は生成されず、表示対象画像が表示部21の画面として表示された状態を継続したまま、処理はステップS9に進む。なお、ステップS9以降の処理は後述する。
これに対して、顔領域の検出の試みに成功した場合、即ち、一定時間の間に顔検出部57が顔領域を検出できた場合、当該顔領域を特定可能な情報が検出結果記憶部59に記憶される。このような場合、ステップS3においてNOであると判定されて、処理はステップS4に進む。
ステップS4において、GUI画像生成部53は、主制御部51の制御の下、検出結果記憶部59の記憶内容をさらに監視することによって、手領域を検出したか否かを判定する。
顔検出部57が手領域を検出できなかった場合、検出結果記憶部59には手領域に関する情報は記憶されない。このような場合、ステップS4においてNOであると判定されて、後述するステップS5乃至S8の処理は実行されずに、即ち、GUI画像は生成されず、表示対象画像が表示部21の画面として表示された状態を継続したまま、処理はステップS9に進む。なお、ステップS9以降の処理は後述する。
これに対して、顔検出部57が手領域を検出できた場合、当該手領域を特定可能な情報が検出結果記憶部59に記憶される。このような場合、ステップS4においてYESであると判定されて、処理はステップS5に進む。
ステップS5において、GUI画像生成部53は、主制御部51の制御の下、表示制御部54を介して、表示部21の画面にカーソルGCを表示させる。
ステップS6において、GUI画像生成部53は、主制御部51の制御の下、表示部21の画面における、顔領域の対応領域を求め、当該対応領域の中心位置から、当該対応領域の大きさに応じて可変する距離だけ離間した位置を、ボタンGB−1乃至GB−4の配置位置として決定する。
ステップS7において、GUI画像生成部53は、主制御部51の制御の下、表示制御部54を介して、ボタンGB−1乃至GB−4の各々を、表示部21の画面のうち、ステップS6の処理で決定された配置位置に、ボタンGB−1乃至GB−4の各々を表示させる。
即ち、GUI画像生成部53は、検出結果記憶部59に記憶された顔領域や手領域を特定可能な情報に基づいて、フレーム撮像画像内の顔領域のサイズ及び位置並びに手領域の位置を特定する。
次に、GUI画像生成部53は、特定された手領域の位置に基づいて、表示部21の画面における、手領域の対応領域を求め、その対応領域内の位置をカーソルGCの配置位置として決定する。また、GUI画像生成部53は、特定された顔領域のサイズ及び位置に基づいて、表示部21の画面における、顔領域の対応領域を求め、その対応領域の周囲の各位置、例えば上下左右の四方の各位置を、ボタンGB−1乃至GB−4の各配置位置として決定する。
そして、GUI画像生成部53は、カーソルGCやボタンGB−1乃至GB−4の各々を、先に決定した表示対象画像内の各々の配置位置に配置させたGUI画像のデータを生成する。これにより、表示制御部54の制御の下、表示部21の画面としてGUI画像が表示される。
図4は、このようなステップS5乃至S7の処理によって、表示部21に画面として表示されたGUI画像の一例を示している。図4では、表示対象画像の一例として、道路標識の画像が表示部21に表示されている。
具体的には、図4(A)が、表示部21に画面として表示されたGUI画像の一例を示しており、図4(B)が、フレーム撮像画像の一例を示している。
即ち、図4(B)のフレーム撮像画像102Nのデータから顔検出部57によって検出された顔領域121F及び手領域122に基づいて、図4(A)のGUI画像101NのデータがGUI画像生成部53によって生成されている。
なお、図4(B)のフレーム撮像画像102Nは、説明の便宜上図示したものであって、実際には、表示部21に表示されない。
図4(A)のGUI画像101Nは、表示対象画像111の上に、カーソルGC及びボタンGB−1乃至GB−4が配置されて構成されている。
図4(A)と図4(B)とを比較するに、カーソルGCは、画面(GUI画像101N)における、手領域122の対応領域内に配置され、ボタンGB−1乃至ボタンGB−4の各々は、画面(GUI画像101N)における、顔領域121Fの対応領域121Gの上下左右の四方の各位置に配置されていることがわかる。即ち、顔領域121Fの対応領域121Gの中心位置CNから距離INだけ上下左右の各々に離間した各位置に、ボタンGB−1乃至ボタンGB−4の各々が配置されていることがわかる。
なお、図4(A)において、対応領域121Gを示す下線、対応領域121Gの中心位置CNを示す黒点、当該中心位置CNからボタンGB−Kまでの距離INを示す矢印は、説明の便宜上図示したものであって、実際には、表示部21に表示されない。
図5は、ステップS5乃至S7の処理によって、表示部21に画面として表示されたGUI画像の一例であって、図4とは別の例を示している。
具体的には、図5(A)が、表示部21に画面として表示されたGUI画像の別の例を示しており、図5(B)が、フレーム撮像画像の別の例を示している。
即ち、図5(B)のフレーム撮像画像102Fのデータから顔検出部57によって検出された顔領域131F及び手領域132に基づいて、図5(A)のGUI画像101FのデータがGUI画像生成部53によって生成されている。
なお、図5(B)のフレーム撮像画像102Fは、説明の便宜上図示したものであって、実際には、表示部21に表示されない。
図5(A)のGUI画像101Fは、表示対象画像111の上に、カーソルGC及びボタンGB−1乃至GB−4が配置されて構成されている。
図5(A)と図5(B)とを比較するに、カーソルGCは、画面(GUI画像101F)における、手領域132の対応領域内に配置され、ボタンGB−1乃至ボタンGB−4の各々は、画面(GUI画像101F)における、顔領域131Fの対応領域131Gの上下左右の四方の各位置に配置されていることがわかる。即ち、顔領域131Gの対応領域131Gの中心位置CFから距離IFだけ上下左右の各々に離間した各位置に、ボタンGB−1乃至ボタンGB−4の各々が配置されていることがわかる。
なお、図5(A)において、対応領域131Gを示す下線、対応領域131Gの中心位置CFを示す黒点、当該中心位置CFからボタンGB−Kまでの距離IFを示す矢印は、説明の便宜上図示したものであって、実際には、表示部21に表示されない。
図4(B)と図5(B)とを比較すると容易にわかることであるが、図4(A)のGUI画像101Nは、ユーザUが相対的に表示部21の画面の近傍に存在する場合に生成されたものである。一方、図4(B)のGUI画像101Fは、ユーザUが相対的に表示部21の画面から遠方に存在する場合に生成されたものである。このため、図4(B)の顔領域121Fは図5(B)の顔領域131Fよりも大きい。このため、図4(A)の顔領域121Fの対応領域121Gの方が、図5(A)の顔領域131Fの対応領域131Gよりも大きくなる。また、図5(B)では、ユーザUの像は小さく右に寄っているため、図5(A)の顔領域121Fの対応領域では反転して、左に寄ることになる。
ここで、ボタンGB−1乃至ボタンGB−4の各々の配置位置は、表示部21の画面における、ユーザUの顔領域の対応領域の上下左右の四方の各位置である。このため、表示部21の画面からユーザUまでの距離が相互に異なる場合にそれぞれ生成された図4(A)のGUI画像101Nと図5(B)のGUI画像101Fとでは、ボタンGB−1乃至ボタンGB−4の各々の配置位置が異なっている。
具体的には、図4の対応領域121の中心位置CNが、図5の対応領域131Gの中心位置CFに対して右下方向にズレているので、そのズレの分だけ、ボタンGB−1乃至ボタンGB−4の集合体の配置位置が移動している。そして、図4の対応領域121Gは図5(B)の対応領域131Gよりも大きいため、その大きさの違い分だけ、図4の対応領域121Gの中心位置CNからボタンCB−Kまでの距離INの方が、図5の対応領域131Gの中心位置CFからボタンCB−Kまでの距離IFよりも長い。従って、図4(A)のボタンGB−1乃至ボタンGB−4の方が図5(A)のボタンGB−1乃至ボタンGB−4よりも間隔が大きくなる。また、図5(B)では、ユーザUの像は小さくなり、かつ、右に寄っているため、図5(A)のボタンGB−1乃至ボタンGB−4は反転して、左に寄ることになる。
このように、ボタンGB−1乃至ボタンGB−4の各々の配置位置は、撮像部22、又は、撮像部22が設置された表示部21の画面からユーザUまでの距離に応じて可変する。
これにより、ユーザUは、表示部21の画面から、撮像部22の画角のうち、ボタンGB−1乃至GB−4に囲まれた範囲内に自身の顔が存在することを容易に認識することが可能になる。さらに、ユーザUは、自身の顔の周囲近傍で手を動かすだけで、即ち、大きく手を動かさずに、ボタン押下操作を行うことが可能になる。
図3に戻り、このようにして、ステップS5の処理でカーソルGCが表示され、かつ、ステップS6及びS7の処理でボタンGB−1乃至GB−4が表示されると、即ち、GUI画像が表示されると、操作認識部60は、ハンドジェスチャ操作を認識する動作を開始する。
例えば、操作認識部60は、ユーザUが手を動かす毎に、即ち、フレーム撮像画像における手領域の位置が移動する毎に、カーソル移動動作があったと認識する。主制御部51は、GUI画像生成部53や表示制御部54等を制御して、手の動きに連動させてカーソルGCを表示部21の画面(GUI画像)内で移動させる。
ステップS8において、操作認識部60は、ボタンGB−K(Kは、上述したように1乃至4のうちの何れかの整数値)の上に手領域(カーソルGC)が長時間留まっているか否かを判定する。
ここで、ボタンGB−Kの上に手領域が留まるとは、表示部21の画面において、手領域の対応領域がボタンGB−Kの領域内に含まれることを意味する。
従って、操作認識部60は、表示部21の画面において、手領域の対応領域がボタンGB−Kの領域内に含まれた時点から、計時を開始する。その後、一定時間計時する前に、表示部21の画面において、手領域の対応領域がボタンGB−Kの領域外に移動してしまった場合、即ち、ユーザUがカーソルGCをボタンGB−K以外の位置に移動させた場合、操作認識部60は、ステップS8においてNOであると判定する。この場合には、操作認識部60は、ボタン押下操作が行われたとは認識しない。その結果、後述するステップ98の処理は実行されずに、処理はステップS10に進む。ただし、ステップS10以降の処理は後述する。
これに対して、一定時間計時しても、表示部21の画面において、手領域の対応領域がボタンGB−Kの領域内に留まっている場合、即ち、ユーザUがカーソルGCをボタンGB−Kの上でほぼ固定させていた場合、操作認識部60は、ステップS8においてYESであると判定する。この場合には、操作認識部60は、ボタン押下操作が行われたと認識して、ボタンGB−Kに割り当てられたコマンド(命令)を主制御部51に発行する。これにより、処理はステップ98に進む。
ステップS9において、主制御部51は、当該コマンドを実行する。
これにより、処理はステップS10に進む。
ステップS10において、主制御部51は、処理の終了が指示されたか否かを判定する。
ここで、処理の終了の指示は、特に限定されないが、本実施形態では、情報処理装置11の電源が遮断されたこと又はリムーバブルメディア71が情報処理装置11から取り外されたことが、処理の終了の指示として採用されているものとする。
この場合、情報処理装置11の電源が投入され、かつ、リムーバブルメディア71が情報処理装置11に装着されている間は、ステップS10においてNOであると判定されて、処理はステップS3に戻され、それ以降の処理が繰り返される。
なお、この場合には、本実施形態では、ステップS3の処理でYESであると判定されるか、又はステップS4の処理でNOであると判定されると、カーソルGC及びボタンGB−1乃至GB−4の表示は消去されるものとする。
一方、この間に、ユーザUの顔と手が撮像部22の画角の範囲内に存在する場合には、ステップS3の処理でNOであると判定され、ステップS4の処理でYESであると判定されるとため、ステップS3乃至S10のループ処理が繰り返される。即ち、ステップS3乃至S10のループ処理が繰り返される度に、ステップS6の処理で、ボタンGB−1乃至ボタンGB−4の各々の配置位置が決定し直される。
従って、この間に、ユーザUが移動した場合には、即ち、撮像部22又は当該撮像部22が設置された表示部21の画面からユーザUまでの距離が変化する場合には、ステップS3乃至S10のループ処理が繰り返され、その都度、ステップS6の処理で、ボタンGB−1乃至ボタンGB−4の各々の配置位置が更新され、ステップS7の処理で更新後の配置位置にボタンGB−1乃至ボタンGB−4が配置される。
このようにして、ユーザUの移動に応じて、即ち、撮像部22又は当該撮像部22が設置された表示部21の画面からユーザUまでの距離の変化に応じて、ボタンGB−1乃至ボタンGB−4の表示部21の画面の表示位置が刻々と変化していく。
例えば、ユーザUが表示部21の画面に近づく程、ユーザUの顔領域は大きくなっていくので、表示部21の画面においては、対応領域も大きくなっていき、その結果、ボタンGB−1乃至ボタンGB−4の間隔が徐々に広がるように表示される。
これに対して例えば、ユーザUが表示部21の画面から遠ざかる程、ユーザUの顔領域は小さくなっていくので、表示部21の画面においては、対応領域も小さくなっていき、その結果、ボタンGB−1乃至ボタンGB−4の間隔が徐々に狭まるように表示される。
その後、情報処理装置11の電源が遮断されるか、又は、リムーバブルメディア71が情報処理装置11から取り外されると、ステップS10においてYESであると判定されて、ハンドジェスチャ操作対応処理は終了となる。
以上説明したように、本実施形態に係る情報処理装置11は、画面を表示する表示部21と、ユーザUを撮像することによって、撮像画像のデータを出力する撮像部22と、を備えている。このような情報処理装置11において、顔検出部57は、撮像部22から出力された撮像画像のデータに基づいて、ユーザUの顔領域を撮像画像から検出する。GUI画像生成部53は、表示部21の画面における、顔領域の対応領域を求め、当該対応領域の中心位置から、当該対応領域の大きさに連動して可変する距離だけ離間させた位置を、GUIとしてのボタンの配置位置として決定し、当該配置位置にボタンを配置した表示対象画像のデータを、GUI画像のデータとして生成する。表示制御部54は、GUI画像のデータに基づいて、当該GUI画像を画面として表示部21に表示させる。
これにより、ユーザUは、表示部21の画面から、撮像部22の画角のうち、ボタンGB−1乃至GB−4に囲まれた範囲内に自身の顔が存在することを容易に認識することが可能になる。さらに、ユーザUは、自身の顔の周囲近傍で手を動かすだけで、即ち、大きく手を動かさずに、ボタン押下操作を行うことが可能になる。
即ち、ユーザUにとってより容易なハンドジェスチャ操作が実現可能になる。
なお、本発明は上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、上述の実施形態では、4つのボタンGB−1乃至GB−4が、表示部21の画面における、顔領域の対応領域の上下左右の4方向に配置されている。
しかしながら、ボタンの個数や配置位置は、特にこれに限定されず、任意でよい。例えば、ユーザUの顔の位置が想定できる範囲内であれば、表示部21の画面において、顔領域の対応領域に対して任意の2方向に2つのボタンを配置することもできるし、任意の8方向にボタンを配置することもできる。
ここで、ボタンの個数を可変するということは、ボタンに割り当てられたコマンドの個数を可変することを意味する。よって、例えば、シーンに応じてボタンの個数を変更することで、シーンに応じたコマンド数の変更を実現でき、その結果、ユーザにとってより使いやすいGUIを提供することが可能になる。
また、上述の実施形態では、手領域の検出手法としては、肌色と動きとを用いた検出手法が採用されている。
しかしながら、手領域の検出手法は、特にこれに限定されず、任意の手法を採用することができる。例えば、顔領域の検出手法と同様の手法、即ち、予め用意した多数の手のパターンからAdaboostの手法で学習した結果得られるアピアランスベース識別器を用いて、手領域を検出する手法を採用することができる。当該手法を採用した場合には、より精度の高い検出が可能となる。
また例えば、上述した実施形態では、本発明が適用される情報処理装置は、カメラ付きデジタルフォトフレームとして構成される例として説明した。
しかしながら、本発明は、特にこれに限定されず、画像表示機能及び撮像機能を有する電子機器一般に適用することができ、例えば、本発明は、パーソナルコンピュータ、携帯型ナビゲーション装置、ポータブルゲーム機等に幅広く適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
図6は、上述した一連の処理をソフトウェアにより実行させる場合の、情報処理装置11のハードウェア構成を示すブロック図である。
情報処理装置11は、CPU(Central Processing Unit)301と、ROM(Read Only Memory)302と、RAM(Random Access Memory)303と、バス304と、入出力インターフェース305と、撮像部22と、操作部306と、表示部21と、記憶部307と、通信部308と、ドライブ309と、を備えている。
CPU301は、ROM302に記録されているプログラムに従って各種の処理を実行する。又は、CPU301は、記憶部307からRAM303にロードされたプログラムに従って各種の処理を実行する。
RAM303にはまた、CPU301が各種の処理を実行する上において必要なデータ等も適宜記憶される。
例えば、上述した図2の機能的構成のうち、主制御部51、表示対象画像生成部52、GUI画像生成部53、表示制御部54、撮像画像取得部55、顔検出部57、及び操作認識部60は、CPU301というハードウェアと、ROM302等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成することができる。又、上述した図6の機能的構成を実現する場合は、該撮像部22が設置された表示部21の画面からユーザUまでの距離を測定する測距センサ251を新たに設け、入出力インターフェース305を介して、CPU301というハードウェアと、ROM302等に記憶されたプログラム(ソフトウェア)との組み合わせによって制御されるようにすればよい。
また例えば、撮像画像記憶部56及び検出結果記憶部59は、RAM303若しくは記憶部307の一領域として構成することができる。例えば顔検出情報記憶部58は、ROM302の一領域として構成することができる。
CPU301、ROM302、及びRAM303は、バス304を介して相互に接続されている。このバス304にはまた、入出力インターフェース305も接続されている。入出力インターフェース305には、上述した表示部21及び撮像部22に加えてさらに、操作部306、記憶部307、通信部308、及びドライブ309が接続されている。
操作部306は、キーボード、マウス、各種キー等により構成される。記憶部307は、ハードディスク等により構成される。通信部308は、インターネット等を介して他の装置との間で行う通信を制御する。
ドライブ309には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア71が適宜装着される。ドライブ309によって読み出されたコンピュータプログラムは、必要に応じて記憶部307等にインストールされる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディア71により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されているROM302や記憶部307に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
11・・・情報処理装置、21・・・表示部、22・・・撮像部、51・・・主制御部、52・・・表示対象画像生成部、53・・・GUI画像生成部、54・・・表示制御部、55・・・撮像画像取得部、56・・・撮像画像記憶部、57・・・顔検出部、58・・・顔検出情報記憶部、59・・・検出結果記憶部、60・・・操作認識部、71・・・リムーバブルメディア、301・・・CPU、302・・・ROM、303・・・RAM、307・・・記憶部

Claims (3)

  1. 画面を表示する表示手段と、
    ユーザを撮像することによって、撮像画像のデータを出力する撮像手段と、
    前記撮像手段から出力された撮像画像のデータに基づいて、前記ユーザと前記撮像手段との位置関係に応じて変化する、前記撮像画像内における前記ユーザの顔の像の位置と大きさを表す顔領域を前記撮像画像から検出する顔検出手段と、
    前記表示手段の画面における、前記顔検出手段により検出された前記顔領域の対応領域を求め、当該対応領域の中心位置に対して、当該対応領域が大きくなる程遠距離になる位置を、GUIとしてのボタンの配置位置として決定し、当該配置位置に前記ボタンを配置した画像のデータを、GUI画像のデータとして生成するGUI画像生成手段と、
    前記GUI画像生成手段により生成された前記GUI画像のデータに基づいて、前記GUI画像を画面として前記表示手段に表示させる制御を実行する表示制御手段と、
    を備える情報処理装置。
  2. 前記撮像手段、前記顔検出手段、前記GUI画像生成手段、及び前記表示制御手段が各々の動作を繰り返し実行することで、
    顔検出手段が検出した顔領域の大きさが変化する都度、
    前記GUI画像生成手段が、前記ボタンの配置位置を決め直し、決め直した配置位置に前記ボタンを配置し直した前記GUI画像を生成し、
    前記表示制御手段が、当該GUI画像を前記表示手段に表示させる制御を実行する、
    請求項1に記載の情報処理装置。
  3. 画面を表示する表示手段と、
    ユーザを撮像することによって、撮像画像のデータを出力する撮像手段と、
    を備える情報処理装置を制御するコンピュータに、
    前記撮像手段から出力された撮像画像のデータに基づいて、前記ユーザと前記撮像手段との位置関係に応じて変化する、前記撮像画像内における前記ユーザの顔の像の位置と大きさを表す顔領域を前記撮像画像から検出する顔検出機能と、
    前記表示手段の画面における、前記顔検出機能の実現により検出された前記顔領域の対応領域を求め、当該対応領域の中心位置に対して、当該対応領域が大きくなる程遠距離になる位置を、GUIとしてのボタンの配置位置として決定し、当該配置位置に前記ボタンを配置した画像のデータを、GUI画像のデータとして生成するGUI画像生成機能と、
    前記GUI画像生成機能の実現により生成された前記GUI画像のデータに基づいて、前記GUI画像を画面として前記表示手段に表示させる制御を実行する表示制御機能と、
    を実現させるプログラム。


JP2010090188A 2010-04-09 2010-04-09 情報処理装置、及びプログラム Pending JP2011221787A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010090188A JP2011221787A (ja) 2010-04-09 2010-04-09 情報処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010090188A JP2011221787A (ja) 2010-04-09 2010-04-09 情報処理装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2011221787A true JP2011221787A (ja) 2011-11-04

Family

ID=45038702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010090188A Pending JP2011221787A (ja) 2010-04-09 2010-04-09 情報処理装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP2011221787A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013200815A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法、及び、プログラム
JP2013200784A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法およびプログラム
JP2014029649A (ja) * 2012-07-31 2014-02-13 Kyocera Document Solutions Inc ジェスチャー管理プログラム及び情報処理装置
CN114265499A (zh) * 2021-12-17 2022-04-01 交控科技股份有限公司 应用于客服终端的交互方法和系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013200815A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法、及び、プログラム
JP2013200784A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法およびプログラム
JP2014029649A (ja) * 2012-07-31 2014-02-13 Kyocera Document Solutions Inc ジェスチャー管理プログラム及び情報処理装置
CN114265499A (zh) * 2021-12-17 2022-04-01 交控科技股份有限公司 应用于客服终端的交互方法和系统

Similar Documents

Publication Publication Date Title
TWI428798B (zh) Information processing devices, information processing methods and program products
JP5087532B2 (ja) 端末装置、表示制御方法および表示制御プログラム
EP3125524A1 (en) Mobile terminal and method for controlling the same
KR20200034183A (ko) 디스플레이 장치 및 그 제어 방법
US20160037056A1 (en) Information processing apparatus, information processing method, and program
JP2010067135A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US9535604B2 (en) Display device, method for controlling display, and recording medium
JP2011186892A (ja) 画像処理装置、画像処理方法及びプログラム
KR20140012757A (ko) 시각 장애 사용자들에 의한 이미지 캡처 및 이미지 검토의 촉진
JP6287382B2 (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US20190012129A1 (en) Display apparatus and method for controlling display apparatus
JP2007034525A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR20140085061A (ko) 디스플레이 장치 및 이의 제어 방법
KR102128955B1 (ko) 스핀 이미지 생성 방법 및 그 장치
US9204037B2 (en) Method and apparatus for photographing in portable terminal
JP2011221787A (ja) 情報処理装置、及びプログラム
JP6196024B2 (ja) 情報提供システム、電子機器、制御方法及び制御プログラム
JP2011186636A (ja) 情報処理装置および方法、並びにプログラム
US10609305B2 (en) Electronic apparatus and operating method thereof
US9665260B2 (en) Method and apparatus for controlling screen of mobile device
JP2011034289A (ja) 入力受付装置、入力受付方法、及び、プログラム
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
JP2015177428A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2014109885A (ja) 表示装置及び通知方法
JP2017120324A (ja) 電子機器、表示システム、表示装置、撮像装置、表示制御方法及びプログラム