以下、本発明の一実施形態に係る携帯電子機器について説明する。携帯電子機器は、ユーザが手で持って操作可能な手持ち型の情報処理装置であり、例えば、ゲーム装置であってもよいし、携帯電話機(スマートフォン等)、タブレット端末、カメラ、腕時計型の端末等の任意の装置であってもよい。図1は、本実施形態の携帯電子機器1の正面図である。図2は、携帯電子機器1の右側面図である。図3は、携帯電子機器1の背面図である。
図1に示すように、携帯電子機器1は、ディスプレイ2と、タッチパネル3と、赤外線カメラ4と、測距センサ5と、入力ボタン6(6A〜6D)と、照射部7と、プロジェクタ8とを備え、これらはハウジング10に収納される。ハウジング10(携帯電子機器1)は、板状の形状であり、ユーザが片手又は両手で把持可能な大きさである。
ディスプレイ2としては、例えば、液晶表示装置や有機EL表示装置等が用いられ、その他、任意の表示装置が用いられてもよい。ディスプレイ2の画面は、ハウジング10の正面(T5面)に露出するように設けられる。タッチパネル3は、ディスプレイ2の画面上に設けられ、ユーザによってタッチされた画面上の位置を検出する。タッチパネル3としては、1点検出が可能なものや多点検出が可能なものが用いられ、例えば、静電容量方式、抵抗膜方式等、任意のものが用いられてもよい。
入力ボタン6A〜6Dは、ユーザによる入力(押下)を受け付ける。入力ボタン6A〜6Dは、ユーザが携帯電子機器1の両端を把持したときにユーザの指が届く位置に設けられる。具体的には、入力ボタン6Aおよび6Cは、ユーザが右手で携帯電子機器1を把持したときに右手の指が届く位置にあり、入力ボタン6Aは右手の親指が届く位置に、入力ボタン6Cは右手の人差し指又は中指が届く位置に設けられる。また、入力ボタン6Bおよび6Dは、ユーザが左手で携帯電子機器1を把持したときに左手の指が届く位置にあり、入力ボタン6Bは左手の親指が届く位置に、入力ボタン6Dは左手の人差し指又は中指が届く位置に設けられる。図1に示すように、入力ボタン6Aおよび6Bは、ハウジング10の正面(T5面)に設けられ、入力ボタン6Cおよび6Dは、ハウジング10の上面(T4面)に設けられる。なお、ユーザによる入力を受け付ける入力部としては、入力ボタン6A〜6Dの他に、方向入力のための十字キー、アナログスティック等が設けられてもよい。
赤外線カメラ4は、レンズと光(赤外線。具体的には近赤外線)に感光するセンサとを備える。赤外線カメラ4のセンサは、赤外線に感光する素子を縦横に複数並べたイメージセンサであり、当該イメージセンサの各素子が赤外線を受光して電気信号に変換することで2次元の赤外線画像を出力する。
測距センサ5は、測距センサ5に設けられた光源から射出された光(例えば、赤外光)が物体に反射し、当該反射光を受光素子で受光することで物体との間の距離を測定する。測距センサ5としては、三角測距方式、TOF(Time Of Flight)方式等任意のものが用いられてもよい。測距センサ5の光源としては、特定方向に赤外光を射出するLEDやレーザダイオード等が用いられる。
照射部7は、赤外線を所定の時間間隔(例えば、1/60秒間隔)で照射する。赤外線カメラ4が画像を撮像するタイミングと同期して、照射部7が赤外線を照射する。照射部7は、携帯電子機器1の右側面方向の所定の範囲に赤外線を照射する。照射部7によって照射された赤外線が物体によって反射され、当該反射された赤外線が赤外線カメラ4によって受光されることで、赤外線の画像が取得される。なお、照射部7は、赤外線カメラ4による赤外線画像の撮像のため、および、測距センサ5による距離の測定のために用いられてもよい。すなわち、照射部7からの赤外光を利用して、赤外線カメラ4によって画像が撮像されるとともに、測距センサ5によって距離が測定されてもよい。
また、プロジェクタ8は、可視光を射出する光源を有し、当該光源からの光を用いて文字や画像等を投影面(スクリーンや後述するようにユーザの手等)に投影する。
赤外線カメラ4、測距センサ5、照射部7、およびプロジェクタ8は、ハウジング10の側面(例えば右側面:T1面)に設けられる。具体的には、赤外線カメラ4の撮像方向(光軸)は、右側面に垂直な方向を向く。測距センサ5の検出方向、プロジェクタ8が光を照射する方向もまた同様に右側面に垂直な方向である。すなわち、赤外線カメラ4は、ユーザが左手で携帯電子機器1を把持した際に、携帯電子機器1の右側面方向の空間を撮像し、測距センサ5は、携帯電子機器1の右側面方向の空間に存在する物体までの距離を測定する。また、プロジェクタ8は、赤外線カメラ4および測距センサ5と同じ方向に可視光を照射することで画像等を投影する。
携帯電子機器1の背面(T6面)には、外側カメラ9が設けられる(図3)。外側カメラ9は、典型的には、赤外線カメラ4の撮像方向とは垂直な方向を撮像可能であり、背面と垂直な方向を撮像可能である。外側カメラ9は、レンズと可視光に感光するイメージセンサとを備える。外側カメラ9は、背面方向の空間を撮像し、カラー画像(RGB画像)を取得する。なお、背面の外側カメラ9に加えて正面にもカメラが設けられてもよいし、背面の外側カメラ9は設けられず、正面(ディスプレイ2の画面が設けられた面)にカメラが設けられてもよい。
図4は、携帯電子機器1の内部構成の一例を示すブロック図である。図4に示すように、携帯電子機器1は、上述した各部の他、バイブレータ11、マイク12、スピーカ13、制御部14、通信部15、姿勢検出部16、GPSレシーバ17、および地磁気センサ18を備える。また、携帯電子機器1は、図示しないバッテリーを備え、当該バッテリーから電源が供給される。これら各部はハウジング10内に収納される。
制御部14は、ディスプレイ2、タッチパネル3、赤外線カメラ4、測距センサ5、入力ボタン6、照射部7、プロジェクタ8、バイブレータ11、マイク12、スピーカ13、通信部15、姿勢検出部16、GPSレシーバ17、地磁気センサ18等、各部に接続され、各部を制御する。
具体的には、制御部14は、CPUやメモリ等を含み、携帯電子機器1に備えられた図示しない記憶装置(例えば、不揮発性メモリやハードディスク等)に記憶された所定のプログラム(例えば、ゲーム処理や画像処理、各種演算を行うためのアプリケーションプログラム)に基づいて所定の処理を行う。例えば、制御部14は、赤外線カメラ4からの画像を取得して当該画像を解析したり、測距センサ5からの信号に基づいて物体までの距離を算出したり、タッチパネル3や入力ボタン6からの入力信号に応じた処理を行う。そして、制御部14は、所定の処理の結果に基づく画像を生成し、ディスプレイ2に当該画像を出力する。なお、所定の処理を行うためのプログラムは、通信部15を介して外部からダウンロードされてもよい。
バイブレータ11は、制御部14からの命令に基づいて動作し、携帯電子機器1全体を振動させる。バイブレータ11は、ユーザの手に振動が伝わりやすい所定の位置(例えば、ハウジング10内の中央部や左右の何れかに偏った位置)に設けられる。
マイク12およびスピーカ13は、音声を入力/出力するために用いられる。通信部15は、所定の通信方式(例えば、無線LAN等)で他の機器と通信を行うために用いられる。また、姿勢検出部16は、例えば、加速度センサや角速度センサであり、携帯電子機器1の姿勢を検出する。
GPSレシーバ17は、GPS(Global Positioning System)衛星からの信号を受信し、当該信号を受信することで携帯電子機器1は自機の位置を計算することができる。例えば、携帯電子機器1は、特定の位置で所定の操作(例えば、後述する赤外線カメラ4を用いたジェスチャ入力やボタン入力、携帯電子機器1を振るなどの動作)が行われた場合に、当該特定の位置に対応付けられたオブジェクトを表示してもよい。例えば、携帯電子機器1においてゲームが行われる場合において、携帯電子機器1が特定の位置にある場合、当該特定の位置に対応したオブジェクトを当該ゲームに登場させてもよい。
また、地磁気センサ18は、磁気の方向および大きさを検出可能なセンサである。例えば、携帯電子機器1は、地磁気センサ18の検出結果に基づいて、特定の方位を向いているか否かを判定し、特定の方位で所定の操作(上記ジェスチャ入力等)が行われた場合に、オブジェクトを表示してもよい。例えば、携帯電子機器1においてゲームが行われる場合、特定の方位に対応したオブジェクトが当該ゲームに登場してもよい。また、携帯電子機器1は、GPSレシーバ17を用いたGPS情報と地磁気センサを用いた方位情報とを組み合わせてもよい。例えば、携帯電子機器1が、特定の位置にあり、かつ、特定の方位を向いている場合、当該特定の位置及び特定の方位に対応するオブジェクトを表示したり、当該オブジェクトをゲームに登場させてもよい。
図5は、携帯電子機器1の使用状態の一例を示す図であり、ユーザが携帯電子機器1を両手で把持したときの様子を示す図である。図5に示すように、ユーザは携帯電子機器1の左右両端部を把持する。ユーザが左右の両端部を把持した場合に、ユーザは、左手の親指で入力ボタン6Bを押下可能であり、右手の親指で入力ボタン6Aを押下可能である。また、ユーザが左右の両端部を把持した場合に、ユーザは、左手の人差し指又は中指を動かすことができ当該左手の人差し指又は中指で入力ボタン6Dを押下可能であり、右手の人差し指又は中指を動かすことができ当該右手の人差し指又は中指で入力ボタン6Cを押下可能である。
次に、携帯電子機器1に対する入力について説明する。本実施形態では、ユーザは、携帯電子機器1を左手で把持した状態で、右手を用いて携帯電子機器1に対してジェスチャ入力を行うことができる。
図6Aおよび図6Bは、ユーザが携帯電子機器1の右側面方向で右手を用いてジェスチャ入力を行う様子を示す図である。図7Aは、図6Aに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図である。図7Bは、図6Bに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図である。
図6Aおよび図6Bに示すように、ユーザは、携帯電子機器1の右側面方向の位置で右手を用いて様々なジェスチャ入力を行う。携帯電子機器1は、携帯電子機器1の右側面に設けられた赤外線カメラ4で赤外線画像を撮像し、当該撮像した赤外線画像を解析することにより、ユーザのジェスチャ入力を判別する。
具体的には、図7Aや図7Bに示す画像が赤外線カメラ4から取得されると、携帯電子機器1は、取得された画像に含まれる特定の物体(具体的には、人間の手)を検出し、当該特定の物体の形状等に基づいて、ユーザによって行われたジェスチャの種類を判別する。例えば、携帯電子機器1は、取得された画像に所定の形状の物体が存在するか否かをパターンマッチング等により判定する。例えば、携帯電子機器1は、図7Aに示す画像が取得された場合、指の本数から「グー」を認識することができ、図7Bに示す画像が取得された場合は、指の本数から「パー」を認識することができる。そして、携帯電子機器1は、後述するようにジェスチャの種類に応じた処理を行う。
ここで、判別されるジェスチャは、ユーザの手や顔等の体の一部や全体を用いた身振り・手振りであり、携帯電子機器1は、手等の静止した状態をジェスチャ入力として認識してもよいし、手を使った一連の動作をジェスチャ入力として認識してもよい。また、携帯電子機器1は、ユーザが物を持った状態で行われるジェスチャ入力を認識してもよい。この場合、携帯電子機器1は、ユーザが持っている物のみの静止状態や動作状態をジェスチャ入力として認識してもよいし、ユーザの手と物を含んだ全体の静止状態や動作状態をジェスチャ入力として認識してもよい。
また、本実施形態の携帯電子機器1は、後述するように測距センサ5を用いて携帯電子機器1と物体との間の距離を算出し、当該算出した距離に基づいて処理を行う。例えば、携帯電子機器1は、測距センサ5からの情報に基づいて、携帯電子機器1の右側面方向の物体の存否を検出したり、物体との間の距離を検出することで、右側面方向の物体の動きを検出することができる。例えば、所定時間内に測距センサ5によって検出される距離が変化している場合、携帯電子機器1は、携帯電子機器1の右側面方向においてユーザが手を左右方向に振っていると認識することができる。また、所定時間内に測距センサ5によって物体が検出されたり検出されなかったりした場合、携帯電子機器1は、ユーザが上下方向に手を振っていると認識することができる。そして、携帯電子機器1は、検出した物体の動きに応じて所定の処理を行い、当該処理の結果をディスプレイ2に表示する。
このように、本実施形態では、赤外線カメラ4及び/又は測距センサ5を用いて、携帯電子機器1の右側面方向における特定の物体を検出することで、携帯電子機器1に対する様々なジェスチャ入力を判別し、当該入力に応じた処理の結果をディスプレイ2に表示することができる。
ここで、赤外線カメラ4及び測距センサ5には、それぞれ物体を認識することが可能な認識可能範囲がある。図8は、赤外線カメラ4の認識可能範囲を示す図である。図9は、測距センサ5の認識可能範囲を示す図である。
図8に示すように、赤外線カメラ4は所定の画角θを有する。赤外線カメラ4は、携帯電子機器1の右側面方向において、赤外線カメラ4の画角θに含まれる範囲(例えば、数十〜180度の範囲)を撮像し、当該範囲が赤外線カメラ4を用いたジェスチャ入力の認識可能範囲である。ここで、認識対象の物体と携帯電子機器1との間の距離が短すぎる場合、赤外線カメラ4を用いて当該物体の全体を撮像することができない。したがって、画角θに含まれる範囲のうち、携帯電子機器1から所定の距離dより離れた領域が、赤外線カメラ4の認識可能範囲である。なお、距離dは、認識対象の物体の大きさにより異なる。
また、図9に示すように、測距センサ5は、携帯電子機器1の右側面方向に物体が存在するか否か、および、物体までの距離を測定する。例えば、測距センサ5は、数cm〜1m程度の距離を検出可能である。測距センサ5の認識可能範囲は、赤外線カメラ4とは異なり、携帯電子機器1の近傍から右側面方向にほぼ直線状に広がっている。すなわち、測距センサ5は、検出方向のほぼ直線上の位置に存在する物体を検出するものであり、指向性が極めて高い一方で、赤外線カメラ4は、ある程度広がった範囲に存在する物体を撮像するものであり、指向性は低い。
次に、赤外線カメラ4および測距センサ5を用いて検出されるジェスチャ入力に基づく処理について説明する。
図10A〜図10Dは、赤外線カメラ4を用いたジェスチャ入力に基づく処理の一例を示す図である。図10Aに示すように、ユーザが左手で携帯電子機器1を持って携帯電子機器1の右側面方向の所定位置で右手を「グー」にした場合、ディスプレイ2にはキャラクタ21が表示される。図10Aの状態から図10Bに示すように、ユーザが右手を「グー」にした状態で右手を携帯電子機器1の右側面に近づけると、ディスプレイ2のキャラクタ21は拡大表示される。
さらに、図10Bに示す状態から、ユーザが右手を「パー」にした場合、ディスプレイ2のキャラクタ21の表情が変化する(図10C)。例えば、図10Cに示すように、キャラクタ21は笑ったような表情に変化する。さらに、図10Dに示すように、ユーザが右手を「パー」にした状態で右手を携帯電子機器1に近づけると、キャラクタ21はさらに拡大表示されるとともに、キャラクタ21の表情が変化する。このとき、バイブレータ11が作動して携帯電子機器1が振動するとともに、スピーカ13から音が出力されてもよい。
図11Aは、図10Aに示すジェスチャ入力が行われた場合に赤外線カメラ4で撮像された入力画像の一例を示す図である。図11Bは、図10Bに示すジェスチャ入力が行われた場合に赤外線カメラ4で撮像された入力画像の一例を示す図である。図11Cは、図10Cに示すジェスチャ入力が行われた場合に赤外線カメラ4で撮像された入力画像の一例を示す図である。図11Dは、図10Dに示すジェスチャ入力が行われた場合に赤外線カメラ4で撮像される画像の一例を示す図である。
図11Aに示すような入力画像が赤外線カメラ4から取得された場合、携帯電子機器1は、当該取得された入力画像に含まれる物体30を検出し、当該検出した物体30の形状に基づいて、ジェスチャの種類を判別する。携帯電子機器1には、予めジェスチャの種類と、ディスプレイ2に表示されるキャラクタ21とが対応付けされて記憶されており、携帯電子機器1は、判別したジェスチャの種類に対応するキャラクタ21の画像をディスプレイ2に表示する(図10A)。なお、判別したジェスチャの種類に応じてバイブレータ11を作動させて携帯電子機器1を振動させてもよい。
次に、図11Bに示すような入力画像が取得された場合、携帯電子機器1は、取得された入力画像に含まれる物体30を検出し、当該検出した物体30の形状に基づいてジェスチャの種類を判別する。図11Bでは、図11Aと同じジェスチャと判別されるため、ディスプレイ2に表示されるキャラクタ21の画像は図10Aと同じ画像である(図10B)。しかしながら、物体(ユーザの右手)が携帯電子機器1に近づくほど、ディスプレイ2に表示されるキャラクタ21は拡大表示される。具体的には、携帯電子機器1は、図11Aに示す入力画像に含まれる物体30の大きさと、図11Bに示す入力画像に含まれる物体30の大きさとを比較することにより、ディスプレイ2に表示するキャラクタ21の画像の大きさを決定する。このように、携帯電子機器1は、赤外線カメラ4から取得した画像に含まれる特定の物体の大きさに基づいて、携帯電子機器1と特定の物体との間の相対的な距離(相対位置)を判別し、当該相対的な距離に応じてディスプレイ2に表示するキャラクタ21の大きさを決定する。このとき、相対的な距離に応じて携帯電子機器1を振動させてもよい。
次に、図11Cに示すような入力画像が赤外線カメラ4から取得されると、携帯電子機器1は、入力画像に含まれる物体30を検出し、当該検出した物体30の形状に基づいてジェスチャの種類を判別する。図11Cに示す入力画像に含まれる物体30の形状に基づいて、携帯電子機器1は、「パー」のジェスチャと判定し、図10Cに示すように、図10Aや図10Bとは異なるキャラクタ21の画像をディスプレイ2に表示する。このときに表示するキャラクタ21の大きさは、直前に決定されたキャラクタ21の大きさと同じ大きさに決定されてもよいし、入力画像に含まれる物体の大きさに基づいて決定されてもよい。
さらに、図11Dに示すような入力画像が赤外線カメラ4から取得されると、携帯電子機器1は、入力画像に含まれる物体30を検出し、当該検出した物体30の形状に基づいてジェスチャの種類を判別する。しかしながら、図11Dでは、物体30の一部が欠如しており、携帯電子機器1は、ジェスチャの種類を正確に判別することができない。このため、図10Dに示すように、携帯電子機器1は、ジェスチャの種類が判別できないことを示す態様のキャラクタ21をディスプレイ2に表示するとともに、ユーザに検出エラーを知らせるために携帯電子機器1を振動させたり、警告音を出力したりする。
なお、図10A〜図10Dに示すように、ユーザが右手を動かすことで携帯電子機器1に対するジェスチャ入力を行ったが、右手を固定して携帯電子機器1自体を動かした場合でもジェスチャ入力があったと判定されてしまうことがある。このことを避けるために、例えば、加速度センサや角速度センサを用いて携帯電子機器1自体の動きを検出し、携帯電子機器1自体の動きが所定の閾値以上の場合は、ジェスチャ入力が行われなかったと判定してもよい。例えば、加速度センサ等からの検出値を用いて携帯電子機器1自体が移動しているか否かを判定し、携帯電子機器1自体が図10Aに示す右方向に移動していると判定された場合、右手を左方向に動かすジェスチャ入力は行われなかったと判定してもよい。また、例えば赤外線カメラ4から取得された画像に基づいて右手の動きが検出された場合において、加速度センサ等を用いて携帯電子機器1自体の動きが検出された場合、当該携帯電子機器1自体の動きに応じて、画像に基づいて検出された右手の動きを打ち消す処理を行い、当該処理によって算出された右手の動きに基づいてキャラクタ21が表示されてもよい。すなわち、赤外線カメラ4から取得された画像に基づく右手の動きと、加速度センサや角速度センサを用いて検出される携帯電子機器1自体の動きとに基づいて、所定の情報処理が行われてもよい。また、携帯電子機器1自体が動いているか否かを外側カメラ9からの画像に基づいて判定し、携帯電子機器1自体が動いている場合は、ジェスチャ入力が行われなかったと判定してもよい。
図12Aおよび図12Bは、赤外線カメラ4を用いたジェスチャ入力に基づく処理の他の例を示す図である。この例では、ディスプレイ2には、計算問題が表示される。ユーザは、ディスプレイ2に表示された問題に対して右手を用いて回答する。例えば、図12Aに示すように、「1+4=?」という文字列が表示された場合において、ユーザが右手でこの問題の解答「5」を示すジェスチャ入力(「パー」のジェスチャ)を行うと、問題に正解したことを示す表示がディスプレイ2において行われる。このとき、正解したことを示す音声が出力されたり、正解したことを示すパターンでバイブレータ11を作動させて携帯電子機器1を振動させてもよい。
また、図12Bに示すように、「1+1=?」という文字列が表示された場合において、ユーザが右手でこの問題の解答「2」とは異なるジェスチャ入力(ジェスチャで「5」を入力)を行うと、不正解であることを示す表示がディスプレイ2において行われる。このとき、不正解であることを示す音声が出力されてもよいし、不正解であることを示すパターンでバイブレータ11を作動させてもよい。
このように、携帯電子機器1は、赤外線カメラ4からの入力画像に基づいてユーザによって行われたジェスチャ入力を判別し、問題に正解したか否かを判定する。そして、携帯電子機器1は、判定結果をディスプレイ2に表示する。例えば、携帯電子機器1は、複数の問題を所定時間内に順に表示し、表示された問題に対してユーザが右手を使ったジェスチャで回答する。そして、例えば、所定時間内に何問正解したかに基づいて点数がディスプレイ2に表示される。
次に、測距センサ5を用いた処理の一例について説明する。図13は、測距センサ5を用いた処理の一例を示す図である。図13に示すように、ユーザが左手で携帯電子機器1を持って携帯電子機器1の右側面方向の所定位置で右手をかざすと、蛇キャラクタ22がディスプレイ2の右端から出現する。ユーザが右手を携帯電子機器1に近づけると、蛇キャラクタ22は、ディスプレイ2の右端から左方向に伸びる。具体的には、携帯電子機器1は、測距センサ5からの情報に基づいて携帯電子機器1とユーザの右手との間の距離を算出し、算出した距離に応じて、蛇キャラクタ22の長さを決定する。そして、携帯電子機器1は、蛇キャラクタ22をディスプレイ2に表示する。また、携帯電子機器1は、距離に応じてバイブレータ11を作動させて、携帯電子機器1を振動させてもよい。
このように、携帯電子機器1は、測距センサ5を用いて携帯電子機器1の右側面方向に存在する物体との間の距離を算出し、当該算出した距離に応じた画像をディスプレイ2に表示する。測距センサ5を用いた処理では、物体が存在するか否か、及び/又は、物体との距離に基づいて、所定の処理が行われる。また、上述のように、所定時間における物体の検知や距離の変化に基づいて、携帯電子機器1の右側面方向における物体の動きが検出され、当該動きの検出に応じて所定の処理が行われる。
次に、プロジェクタ8を用いた出力の例について説明する。図14は、プロジェクタ8を用いてユーザのジェスチャ入力に応じた画像がユーザの手に投影される様子を示す図である。図14の上図に示すように、携帯電子機器1の右側面方向の所定位置において、例えばユーザが右手を「パー」にすると、ユーザの右手にキャラクタ21が投影される。具体的には、携帯電子機器1は、赤外線カメラ4によって撮像された入力画像を解析することで、ユーザによって行われたジェスチャ入力の種類を判別する。次に、携帯電子機器1は、判別されたジェスチャ入力に基づいてキャラクタ21の画像を生成し、プロジェクタ8を用いて当該キャラクタ21の画像を出力する。このとき、ディスプレイ2にも同じ(又は異なる)画像が出力されてもよい。
また、図14の下図に示すように、右手を携帯電子機器1から遠ざけると、例えば、右手に投影されるキャラクタ21のサイズが変化しないように、キャラクタ21の画像がプロジェクタ8を用いてユーザの右手に投影される。具体的には、携帯電子機器1は、赤外線カメラ4によって撮像された画像を解析することで、ユーザのジェスチャ入力を判別し、判別結果に応じた画像を生成する。また、携帯電子機器1は、赤外線カメラ4からの入力画像に含まれる手の大きさに基づいて、出力する画像の大きさを決定する。また、携帯電子機器1は、赤外線カメラ4からの入力画像に代えて、又は加えて、測距センサ5によって測定された距離に基づいて、出力する画像の大きさを決定してもよい。そして、携帯電子機器1は、決定した大きさの画像をプロジェクタ8を用いて投影する。このとき、ディスプレイ2にも同じ(又は異なる)画像が出力されてもよい。ユーザが右手を用いて図14とは異なるジェスチャ(例えば、「グー」)を行った場合は、右手には図14とは異なる画像が投影される。すなわち、ジェスチャの種類に応じて、異なる画像が投影される。
例えば、携帯電子機器1は、ディスプレイ2にユーザに行わせるジェスチャを順に表示し、表示されたジェスチャと同じジェスチャを所定時間内にユーザが行った場合に、成功判定し、表示されたジェスチャとは異なるジェスチャをユーザが行った場合は、失敗判定を行う。そして、携帯電子機器1は、判定結果に応じてプロジェクタ8から画像を出力することで、ユーザの手に判定結果に応じた画像を投影する。
なお、赤外線カメラ4でユーザの手を撮像することで、ユーザの手を追跡し、ユーザの手に画像が投影されるようにプロジェクタ8を制御してもよい。プロジェクタ8は、所定の範囲に画像を投影することが可能である。携帯電子機器1は、所定の時間間隔で赤外線カメラ4から画像を取得して、当該画像に基づいてユーザの手の位置を認識して、画像を投影する位置を定める。例えば、図14の下図のようにユーザの手に画像が投影されている状態で、手が上方向に移動した場合、携帯電子機器1は、赤外線カメラ4からの画像に基づいて手が上方向に移動したことを検出する。この検出結果に基づいて、携帯電子機器1はプロジェクタ8を用いてオブジェクトの画像を移動後のユーザの手に投影する。このように、携帯電子機器1は、所定の時間間隔で赤外線カメラ4から画像を取得することにより、ユーザの手が動いている場合でも、ユーザの手の動きに追随するように画像をユーザの手に投影することができる。また、携帯電子機器1は、ユーザの連続するジェスチャに合わせて連続的に画像を投影することができる。
また、プロジェクタ8を用いて携帯電子機器1の右側面方向に光を照射することで、ユーザによるジェスチャ入力が可能な範囲をユーザに知らせてもよい。例えば、赤外線カメラ4でユーザの手の全体が撮像できる場合は、青色の光を照射し、ユーザの手の一部しか撮像できない場合は、赤色の光を照射してもよい。すなわち、赤外線カメラ4の撮像範囲(画角)と同じ又は類似する範囲にプロジェクタ8から光を照射することでユーザにジェスチャ入力が可能な範囲を認識させることができ、ユーザを誘導することができる。なお、画像を投影可能なプロジェクタ8の代わりに、所定の光を発する光源(例えば、LED、ハロゲンランプ、蛍光ランプ、ELランプ等)が携帯電子機器1に備えられ、当該光源から光を射出することで、ジェスチャ入力が可能な範囲をユーザに知らせてもよい。
このように、本実施形態では、赤外線カメラ4や測距センサ5を用いた入力のみならず、プロジェクタ8を用いた光による出力を携帯電子機器1の側面方向から可能である。
以上のように、本実施形態では、赤外線カメラ4および測距センサ5が携帯電子機器1の右側面に設けられ、ユーザが左手で携帯電子機器1を把持しながら右手で様々なジェスチャ入力を行い、当該ジェスチャ入力に応じた所定の処理が行われる。右側面に赤外線カメラ4および測距センサ5が設けられるため、ユーザは、携帯電子機器1を一方の手で把持してディスプレイ2を視認しながら、違和感なく他方の手でジェスチャ入力を行うことができる。
例えば、ディスプレイ2の画面が設けられたT5面(正面)に、ジェスチャ入力のための赤外線カメラ4や測距センサ5が設けられる場合、ユーザがジェスチャ入力を行うと、手がディスプレイ2の画面と重なり、ディスプレイ2の視認性を低下させてしまう。また、ディスプレイ2の画面とは反対側のT6面(背面)に、ジェスチャ入力のための赤外線カメラ4や測距センサ5が設けられる場合、ユーザは画面の背面でジェスチャ入力を行うことになり、右手が見えず、ジェスチャ入力を行い難い。
しかしながら、本実施形態の携帯電子機器1では、ディスプレイ2の側面にジェスチャ入力のための赤外線カメラ4や測距センサ5が設けられる。このため、ユーザが右手でジェスチャ入力を行う場合でも、画面と右手とが重なることはなく、画面の視認性を妨げずにジェスチャ入力を行うことができる。また、ディスプレイ2の側面に赤外線カメラ等が設けられるため、一方の手で携帯電子機器1を把持しながら、他方の手で携帯電子機器1に対するジェスチャ入力を行うことができ、両手で左右方向から挟むようにして携帯電子機器1に対して入力したり、当該入力に応じた出力(画像表示)を確認したりすることができる。これにより、携帯電子機器に対する従来には無い新規な操作感、使用感をユーザに与えることができる。
図15は、左手で携帯電子機器1を把持しながら携帯電子機器1に対して右手で様々なジェスチャ入力を行う様子を示す図である。図15に示すように、ユーザが右手を左右方向に近づけたり、遠ざけたり、上下方向に動かしたり、回転させたり、右手の5本の指のうちの任意の指を伸ばしたり曲げたりすることで、携帯電子機器1に対して側面方向から入力を行うことができる。側面方向から入力を行うことで、携帯電子機器1に対して入力を行っているという感覚をユーザはより強く感じることができる。
ユーザはディスプレイ2の画面を見ながら、右手方向からジェスチャ入力を行い、当該ジェスチャ入力の結果としてディスプレイ2に表示された画像を視認することができる。すなわち、ユーザは、ディスプレイ2の画面を見ると同時に、ジェスチャ入力を行う右手も視界に入り、右手を用いた入力とディスプレイ2からの出力とを同時に視認することができ、より自然にジェスチャ入力を行ったり、それに応じた出力を確認することができる。
また、本実施形態の携帯電子機器1では、可視光の画像(RGB画像)を撮像する通常のカメラではなく赤外線カメラ4が用いられるため、ロバスト性がある。すなわち、通常のカメラを用いた場合、外部環境の明るさ(可視光の強さ)によっては、光量が多くなり過ぎたり少なくなり過ぎたりして画像認識に適した入力画像が取得できないことがある。また、通常のカメラを用いた場合において人間の手を認識する場合は、手の形状や肌の色で手を認識するが、外部環境の光の色によって、人間の手を認識できたりできなかったりすることがある。すなわち、外部環境によっては特定の物体(例えばユーザの手)を検出可能な画像が取得できないことがある。しかしながら、赤外線カメラ4を用いた場合は、可視光をフィルタで遮断しつつ照射部7からの赤外光(照射部7から照射されて物体によって反射された赤外光)を透過させることで、外部環境に影響されずに画像認識に適した入力画像を取得することができる。特に、太陽光が遮断された屋内においては赤外光の量は少なくなり、照射部7からの赤外光で特定の物体を照射することにより、外部環境の影響を受けることなく特定の物体を含む鮮明な画像を取得することができる。また、屋外においても、例えば夜間では照射部7からの赤外光で特定の物体を照射することで、画像認識に必要な画像を取得することができる。
(フローチャートの説明)
次に、携帯電子機器1において行われる処理の一例について説明する。図16は、携帯電子機器1において行われる処理の一例を示すフローチャートである。図16に示す処理は、制御部14が所定のプログラムを実行することにより行われる。また、図16に示す処理は、所定の時間間隔(例えば、1/60秒に1回)で繰り返し行われる。
図16に示すように、ステップS10において、制御部14は、赤外線カメラ4から入力画像を取得する。具体的には、制御部14は、照射部7に赤外線を照射させるとともに、赤外線カメラ4によって撮像された入力画像を取得する。次に、制御部14は、測距センサ5からの検出情報を取得する(ステップS11)。
次に、制御部14は、所定の情報処理を行う(ステップS12)。ここで、所定の情報処理としては、赤外線カメラ4からの入力画像を用いた処理、測距センサ5からの検出情報に基づく処理、及び、赤外線カメラ4と測距センサ5との両方を用いた処理の何れかが考えられる。ステップS12の所定の情報処理については、図17〜図19を参照して説明する。
ステップS12の処理の後、制御部14は、ステップS12の所定の情報処理の結果に基づく画像をディスプレイ2、及び/又は、プロジェクタ8に出力する(ステップS13)。そして、制御部14は、図16に示す処理を終了するか否かを判定し(ステップS14)、終了しないと判定した場合は、再びステップS10の処理を実行し、終了すると判定した場合は、図16に示す処理を終了する。
次に、図16のステップS12の所定の情報処理について説明する。所定の情報処理としては、上述のように、赤外線カメラ4からの画像を用いた処理、測距センサ5からの検出情報に基づく処理、及び、赤外線カメラ4と測距センサ5との両方を用いた処理がある。これら3つの処理のうち何れの処理が行われるかは、アプリケーションの種類によって定まる。以下では、それぞれの処理について、図17〜図19を参照して説明する。
(赤外線カメラ4を用いた所定の情報処理1)
図17は、赤外線カメラ4からの入力画像を用いた場合の図16のステップS12の所定の情報処理を示すフローチャートである。図17に示す処理は、例えば図10や図12で例示したアプリケーションを実行するための処理である。
図17に示すように、制御部14は、ステップS10で取得した赤外線カメラ4からの入力画像に対して画像認識処理を行う(ステップS20)。具体的には、制御部14は、赤外線カメラ4からの入力画像に含まれるユーザの手(特定の物体)を、所定の画像認識技術を用いて検出する。
次に、制御部14は、上記画像認識処理においてユーザの手を検出したか否かを判定する(ステップS21)。ユーザの手を検出した場合(ステップS21:YES)、制御部14は、ジェスチャの種類を判別する(ステップS22)。具体的には、制御部14は、検出したユーザの手の形状に基づいて、当該形状に対応するジェスチャの種類を判別する。続いて、制御部14は、ジェスチャの判別結果に応じた処理を行う(ステップS23)。例えば、制御部14は、判別したジェスチャの種類に応じた画像を選択したり、判別したジェスチャの種類に応じて、所定のゲームにおける成否を判定する(正しい入力か否かの判定を行う)。
このステップS23の処理の内容は、実行されるプログラム(アプリケーション)の種類によって異なる。例えば、プログラムとして、任意のゲームプログラムが実行されてもよい。また、携帯電子機器1に対する操作(例えば、画面の拡大、縮小、スクロール等。所定のアプリケーションの起動や終了、携帯電子機器1の設定等)を行うためのプログラムが実行されてもよい。例えば、図10に示す処理に対応するプログラムが実行される場合は、制御部14は、判別したジェスチャの種類と、入力画像に含まれるユーザの手の大きさとに基づいて、出力する画像の種類を決定するとともに、画像の大きさを決定する。また、例えば、図12に示す処理に対応するプログラムが実行される場合は、制御部14は、ユーザによって行われた回答が正しいか否か(正しいジェスチャが行われたか否か)を判定する。
次に、制御部14は、ステップS23の処理の結果に応じて、出力画像を生成する(ステップS24)。ここで生成された出力画像が、ステップS13においてディスプレイ2及び/又はプロジェクタ8に出力される。
一方、ステップS21において特定の物体を検出しなかったと判定した場合(ステップS21:NO)、制御部14は、図17に示す処理を終了する。
(測距センサ5を用いた所定の情報処理2)
図18は、測距センサ5からの検出情報に基づく処理が行われる場合の図16のステップS12の所定の情報処理を示すフローチャートである。図18に示す処理は、例えば図13で例示したアプリケーションを実行するための処理である。
図18に示すように、制御部14は、ステップS11で取得した測距センサ5からの検出情報に基づいて、物体と携帯電子機器1との間の距離を算出する(ステップS30)。次に、制御部14は、距離の算出ができたか否かを判定する(ステップS31)。距離が算出できなかった場合(ステップS31:NO)、すなわち、物体が検出されなかった場合、制御部14は、図18に示す処理を終了する。
距離の算出ができた場合(ステップS31:YES)、制御部14は、距離に応じた処理を行う(ステップS32)。
このステップS32の処理の内容は、実行されるプログラム(アプリケーション)の種類によって異なる。例えば、プログラムとして、任意のゲームプログラムが行われてもよい。また、携帯電子機器1に対する操作を行うためのプログラムが実行されてもよい。例えば、図13に示す処理に対応するプログラムが実行される場合は、制御部14は、算出した距離に基づいて、蛇オブジェクト22の長さを決定する。なお、ステップS32において、過去の所定期間に算出された距離に基づいて、物体の動きが検出されてもよい。すなわち、過去の所定期間において、物体が検出されたりされなかったりした場合や、算出した距離が変化している場合は、当該変化のパターンに基づいて、制御部14は、物体の動きを検出し、検出した動きに応じた処理を行う。
そして、制御部14は、ステップS32の処理の結果に応じて、出力画像を生成する(ステップS33)。ここで生成された出力画像が、ステップS13においてディスプレイ2及び/又はプロジェクタ8に出力される。
(赤外線カメラ4及び測距センサ5を用いた所定の情報処理3)
次に、赤外線カメラ4および測距センサ5の両方を用いた所定の情報処理について説明する。図19は、赤外線カメラ4および測距センサ5を用いた処理が行われる場合の図16のステップS12の所定の情報処理を示すフローチャートである。図19において、図17および図18と同じ処理については、同一の符号を付して説明を省略する。
図19に示すように、画像認識処理(ステップS20)に続いて、赤外線カメラ4からの入力画像の中にユーザの手(特定の物体)を検出した場合(ステップS21:YES)、制御部14は、ジェスチャの種類を判別する(ステップS22)。続いて、制御部14は、ジェスチャの種類を正常に判別できたか否かを判定する(ステップS40)。例えば、図11Dに示すように、赤外線カメラ4からの画像に含まれる画像において、特定の物体を検出した場合であっても、その特定の物体の一部が欠落している場合、制御部14は、ステップS40において「NO」と判定する。
ジェスチャを正常に判別できた場合(ステップS40:YES)、制御部14は、判別結果に応じた処理を行う(ステップS23)。
一方、ジェスチャを正常に判別できなかった場合(ステップS40:NO)、又は、ユーザの手を検出しなかった場合(ステップS21:NO)、制御部14は、測距センサ5からの検出情報に基づいて距離を算出する(ステップS30)。その後、制御部14は、図18と同様に距離を算出できたか否かを判定する。(ステップS31)。距離が算出できれば(ステップS31:YES)、制御部14は、距離に応じた処理を行う(ステップS32)。
ステップS23の処理を実行した場合、又は、ステップS32の処理を実行した場合、制御部14は、ステップS23の処理又はステップS32の処理の結果に応じて、出力画像を生成する(ステップS41)。すなわち、ステップS23の処理が実行された場合は、当該ステップS23の処理に応じた出力画像が生成され、ステップS32の処理が実行された場合は、当該ステップS32の処理に応じた出力画像が生成される。生成された出力画像は、ステップS13においてディスプレイ2及び/又はプロジェクタ8に出力される。
このように、図19に示す処理では、赤外線カメラ4および測距センサ5の両方を用いて処理が行われる。図19に示す処理では、赤外線カメラ4および測距センサ5は、同じ処理が行われる場合において互いに補完関係にある。例えば、携帯電子機器1と特定の物体との間の距離が短すぎて、赤外線カメラ4では正常にジェスチャ入力を認識できない場合、測距センサ5の検出結果に基づいて処理が行われる。すなわち、赤外線カメラ4では認識不可能な範囲に特定の物体が存在する場合は、測距センサ5を用いて特定の物体を検出する。逆に、測距センサ5では認識不可能な範囲に特定の物体が存在する場合は、赤外線カメラ4を用いて特定の物体を検出してもよい。
このように、赤外線カメラ4と測距センサ5とで、何れか一方が検出状況に応じて選択される。具体的には、一方の検出結果が所定の処理に適さない場合は他方の検出結果を用いて同じ処理を行うことで、赤外線カメラ4と測距センサ5とで互いに補完し合うことができる。これにより、ユーザによって行われたジェスチャ入力をより確実に判別することができ、操作性を向上させることができる。
なお、赤外線カメラ4および測距センサ5の両方を用いる場合において、双方の検出結果に基づいて所定の処理が行われてもよい。すなわち、赤外線カメラ4と測距センサ5とで両方が選択されて、所定の処理のために用いられてもよい。例えば、赤外線カメラ4の認識可能範囲に特定の物体が存在する場合、赤外線カメラ4によって検出された特定の物体の画像と、測距センサ5によって算出された特定の物体までの距離とに基づいて、所定の処理が行われてもよい。
また、上記実施形態のフローチャートで示した処理は単なる一例であり、上記処理の一部が実行されなくてもよいし、上記処理の他の処理が付加されてもよい。また、処理の順番はどのようなものでもよい。
以上のように、本実施形態の携帯電子機器1では、ディスプレイ2を正面から見た場合に、側面(右側面)に赤外線カメラ4および測距センサ5が設けられ、当該赤外線カメラ4および測距センサ5を用いて、ユーザの手を用いたジェスチャ入力を行うことができ、当該ジェスチャ入力に応じた出力画像をディスプレイ2やプロジェクタ8に出力することができる。赤外線カメラ4を用いた場合は、携帯電子機器1から所定距離だけ離れた位置において様々なジェスチャを識別可能であり、測距センサ5を用いた場合は、携帯電子機器1の近傍においても物体の存否を判別したり、物体と携帯電子機器1との間の距離に基づいて所定の処理を行うことができる。また、赤外線カメラ4および測距センサ5の両方を用いて所定の処理を行うことができる。そして、所定の処理の結果としての画像をディスプレイ2に表示したり、プロジェクタ8を用いて当該画像を投影したり、所定の処理の結果に応じて携帯電子機器1を振動させたりすることができる。
また、本実施形態では、赤外線カメラ4と測距センサ5とを用いるため、電力消費を抑えつつ、かつ、安価で様々なジェスチャ入力を認識することが可能である。すなわち、赤外線カメラ4による画像の撮像タイミングと同期して照射部7が赤外光を所定の時間間隔で瞬間的に照射する。このため、光を照射する時間が短くても鮮明な画像を撮像することができるため、電力消費を抑えることができる。また、測距センサ5を用いた場合は、広範囲に光を照射する必要は無く、限られた特定の方向に光を照射するだけで検出対象の物体までの絶対距離を算出することができるため、電力消費を抑制することができる。例えば、2次元画像とともに画素毎に距離を測定可能な距離画像センサを用いた場合は、照射部は広範囲に光を照射する必要があるとともに、画素毎に距離を算出する必要があるため、処理負荷および電力消費が大きくなる。また、距離画像センサは、測距センサよりも高価である。しかしながら、赤外線カメラ4と測距センサ5とを用いた場合は、コストおよび電力消費を抑制することができる一方で、様々なジェスチャ入力を判別することができる。
(応用例)
上述した処理の他に、携帯電子機器1を用いて次に示すような処理を行ってもよい。
図20は、携帯電子機器1において行われる処理の応用例を示す図である。例えば、図20に示すように、右手を携帯電子機器1に向かって移動させるジェスチャ入力が行われると、当該ジェスチャ入力に応じてディスプレイ2の画面の右端からボールが出現し、左方向に移動する。このとき、右手の動きが速ければ速いほど、ボールの移動速度は速くなる。具体的には、携帯電子機器1は、測距センサ5を用いて物体までの絶対距離を算出し、距離の変化に基づいて物体の速度を算出し、算出した速度に基づいてボールの移動速度を決定する。また、例えば、携帯電子機器1は、赤外線カメラ4からの画像に基づいて物体までの相対距離を算出し、相対距離の変化に基づいて物体の速度を算出してもよい。そして、ボールが画面の左端に到達するタイミングで、ユーザが左手で入力ボタン6Bを押下すると(あるいはディスプレイ2の画面をタッチすると)、ボールが反対方向に跳ね返り、入力ボタン6Bを押下するタイミングがずれると、ボールは反対方向に跳ね返らない。ボールが画面の左端に到達するタイミングでユーザが左手で入力ボタン6Bを押下した場合、ボールが反対方向に跳ね返るとともにバイブレータ11を動作させて左手に振動を与えてもよいし、音声を出力してもよい。このように、右手で行われたジェスチャ入力に応じてディスプレイ2に画像を表示し、所定時間経過後に左手を用いて入力を行わせるアプリケーションが実行されてもよい。
また、別の応用例では、例えば、赤外線カメラ4及び/又は測距センサ5を用いた入力と、外側カメラ9とを用いて、所定の画像が表示されてもよい。具体的には、外側カメラ9によって撮像された画像をディスプレイ2にリアルタイムで表示しながら、赤外線カメラ4及び/又は測距センサ5を用いてユーザのジェスチャ入力を検出し、当該ジェスチャ入力に応じた画像を、外側カメラ9によって撮像された画像に重畳表示してもよい。
図21は、外側カメラ9と、赤外線カメラ4及び/又は測距センサ5とを用いた処理が行われた場合のディスプレイ2に表示される画像の一例を示す図である。
図21に示すように、例えば、実空間内に所定のマーカ60が置かれ、当該マーカ60を外側カメラ9で撮像すると、外側カメラ9(実カメラ)で撮像された画像がディスプレイ2に表示されるとともに、撮像画像に含まれるマーカの位置に仮想オブジェクトが重畳表示される。ユーザは、右手でジェスチャ入力により当該仮想オブジェクトを操作する。例えば、右手を図21の矢印方向に移動させると、仮想オブジェクトが左方向に移動してもよい。具体的には、携帯電子機器は、実カメラから取得された撮像画像からマーカの位置および姿勢を検出し、実カメラとマーカとの位置関係を算出する。携帯電子機器は、算出した位置関係に基づいて、仮想空間の座標系を設定する(例えば、マーカを原点とする座標系)とともに仮想カメラを当該仮想空間に設定する。例えば、仮想カメラは、実空間における実カメラの位置に対応する仮想空間の位置に配置される。また、携帯電子機器は、当該仮想空間の所定位置(例えば原点)に仮想オブジェクトを配置する。そして、ユーザのジェスチャ入力に基づいて、仮想空間の仮想オブジェクトを操作するとともに、当該仮想オブジェクトを仮想カメラで撮像する。このようにして得られた仮想空間の画像と、外側カメラ9で撮像された実空間の画像とが重ね合わされて、ディスプレイ2に表示される。
また、例えば、携帯電子機器は、図21に示すマーカやその他特定の物体を含む画像が外側カメラ9から取得されると、当該取得された画像に対して画像認識処理を実行する。携帯電子機器は、画像認識処理の結果に基づいて、外側カメラ9で撮像された実空間の画像に、魚オブジェクト及び釣り竿オブジェクト(仮想オブジェクト)を重畳表示する。このとき、携帯電子機器の右側面方向で、ユーザが釣り竿のリールを回すようなジェスチャを行うと、携帯電子機器が当該ジェスチャを認識する。そして、携帯電子機器は、魚が釣れたような表示をディスプレイ2に行う。
このように、外側カメラ9と、赤外線カメラ4及び/又は測距センサ5とを用いた処理を行い、現実世界と仮想空間とを融合させた画像がディスプレイ2に表示されてもよい。
また、別の応用例では、プロジェクタ8によって照射された画像とディスプレイ2に表示された画像とを連動させたゲームが行われてもよい。図22は、プロジェクタ8とディスプレイ2を連動させたゲームの一例を示す図である。
図22(A)に示すように、ディスプレイ2にはバッターが表示され、ユーザが右手で「パー」のジェスチャを行うと、赤外線カメラ4からの画像に基づいて携帯電子機器1が当該ジェスチャを認識し、プロジェクタ8を用いてユーザの右手にボールの画像を投影する。次に、ユーザが右手を振るジェスチャを行うと、ユーザの右手に投影されたボールの画像が消えるとともにディスプレイ2の右端からボールが出現し、当該ボールが画面の左方向に移動する(図22(B))。ボールがバッターの所定範囲に到達したタイミングでユーザが入力ボタン6Bを押下すると、バッターはボールを打ち返す(図22(C))。打ち返されたボールは、画面の右方向に移動する。ボールがディスプレイ2の右端に到達した後の所定のタイミング(打ち返されたボールが右手に到達するタイミング)で、ユーザが「グー」のジェスチャを行う。すると、ユーザが打ち返されたボールをキャッチしたように、ユーザの右手にボールの画像が投影される(図22(D))。このとき、ディスプレイ2には、ユーザがボールのキャッチに成功したことを示す「アウト」の文字が表示されるとともに、音声が出力されてもよいし、携帯電子機器1が振動してもよい。携帯電子機器1は、赤外線カメラ4からの画像や測距センサ5によって測定された距離に基づいてユーザの右手の位置(携帯電子機器の右側面に平行な平面上の位置、及び/又は、右側面に垂直な方向の位置)を認識し、当該認識結果に応じてボールの画像をユーザの右手に投影してもよい。なお、ユーザが上記所定のタイミングで「グー」のジェスチャを行わなかったり、「グー」のジェスチャを行ったタイミングが上記所定のタイミングとずれていた場合、ボールのキャッチに成功せず、図22(D)のようなボールの画像は右手に投影されない。例えば、ボールとは異なる画像が右手に投影されたり、「エラー」や「ヒット」という文字がディスプレイ2に表示されてもよい。なお、赤外線カメラ4によってユーザのジェスチャを認識できない場合は、測距センサ5を用いて手の動きを検出することで、上記と同様の処理が行われてもよい。
また、別の応用例では、測距センサ5を用いて物体(不特定の物体)までの絶対距離を算出し、算出した距離に基づいて、ディスプレイ2に画像を出力したり、プロジェクタ8を用いて画像を投影してもよい。例えば、図22で示した応用例において、キャッチする際の右手の絶対距離に基づいて、ボールのキャッチに成功したか否かが判定され、当該判定結果に応じた画像がディスプレイ2に表示されてもよい。また、赤外線カメラ4によって撮像された画像から特定の物体の位置(画像上の位置)を検出するとともに、測距センサ5を用いて特定の物体までの距離を検出することにより、特定の物体の3次元空間における位置を検出してもよい。そして、特定の物体の3次元空間における位置に基づいて、所定の処理を行い、当該所定の処理の結果に基づく画像をディスプレイ2に表示したり、プロジェクタ8で投影したりしてもよい。
また、別の応用例では、赤外線カメラ4によって撮像された画像に基づいて、特定の物体の距離(相対距離)を算出し、算出した距離に応じてバイブレータ11を振動させてもよい。例えば、物体までの距離が所定の閾値より近い場合や遠い場合は、バイブレータ11を振動させてもよい。また、測距センサ5を用いて特定の物体までの絶対距離を算出し、算出した距離に応じてバイブレータ11を振動させてもよい。また、赤外線カメラ4、又は/及び、測距センサ5を用いて、特定の物体の動き(例えば、右手の動きやその他物体の動き)を検出し、当該特定の物体の動きに応じてバイブレータ11を振動させてもよい。具体的な例としては、ユーザがギターを弾くように右手を動かしたことに応じて、音を出力するとともに携帯電子機器1を振動させる。このとき、ディスプレイ2には、ギターの弦の画像が表示され、左手の指でディスプレイ2に表示された弦を押さえると、音が変化してもよい。このような応用例では、ユーザが右手を速く動かすほど大きな音が出力されるとともに、携帯電子機器1が強く振動するようにしてもよい。
また、上記では赤外線カメラ4及び/又は測距センサ5を用いた処理の例を複数示したが、他の任意の処理が行われてもよい。例えば、ディスプレイ2や音声によって指示された内容に応じて、所定のタイミングでユーザにジェスチャを行わせるゲームが行われてもよい。そのようなゲームでは、所定のタイミングで所定のジェスチャが行われた場合は、得点が加算され、ユーザによって行われたジェスチャのタイミングが所定のタイミングとずれていたり、所定のジェスチャとは異なるジェスチャが行われた場合には、得点が加算されない。
このように、本実施形態の携帯電子機器1は、実行されるアプリケーションの種類に応じて、所定の処理が行われ、所定の処理のために赤外線カメラ4及び測距センサ5が用いられる。例えば、あるアプリケーションでは、赤外線カメラ4からの画像が所定の処理のために用いられてもよい。また、あるアプリケーションでは、測距センサ5によって算出される距離が所定の処理のために用いられる。また、あるアプリケーションでは、赤外線カメラ4及び測距センサ5の双方が所定の処理のために用いられる。例えば、特定の物体(予め定められた物体)を検出して検出結果に基づいた処理を行うアプリケーションが実行される場合は、赤外線カメラ4が用いられる。これに対して、不特定の物体を検出して当該不特定の物体までの距離に基づいて処理を行うアプリケーションが実行される場合は、測距センサ5が用いられる。
また、あるアプリケーションでは、赤外線カメラ4及び測距センサ5のうちの何れか一方が、検出状況に応じて選択され、選択された一方が所定の処理のために用いられる。例えば、赤外線カメラ4からの画像の中に特定の物体を検出できなかったり、ジェスチャの種類を判別できなかった場合は、赤外線カメラ4の代わりに、測距センサ5が選択される。選択された測距センサ5からの情報に基づいて、物体の動きを検出し、当該検出した動きに応じて所定の情報処理が行われる。すなわち、赤外線カメラ4及び測距センサ5のうち、赤外線カメラ4が優先的に物体の検出のために用いられる。そして、所定の情報処理の結果に基づいて、画像がディスプレイ2に表示されたりプロジェクタ8で投影されたりする。赤外線カメラ4及び測距センサ5のうち、測距センサ5が優先的に物体の検出のために用いられてもよい。
また、他の応用例としては、ユーザが両手で携帯電子機器1を把持してゲームを行っているときに、ユーザが右手を離すと、携帯電子機器1は、ディスプレイ2にゲーム画像の代わりに(又は加えて)メニュー画面を表示してもよい。ユーザは、メニュー画面を用いた操作によって、例えば、実行中のゲームを終了したり、ゲームの進行状況を保存したり、他のゲームを実行したり、携帯電子機器1の設定を変更したりすることができる。具体的には、携帯電子機器1は、赤外線カメラ4や測距センサ5を用いてユーザが右手を離したことを検出する。そして、ユーザが右手を離したことを検出すると、携帯電子機器1は、実行中のゲーム処理を中断し、メニュー画面を表示する。
また、上記携帯電子機器1では、右側面に赤外線カメラ4や測距センサ5等を配置したが、ユーザが左手を用いてジェスチャ入力を行う場合は、図1に示す姿勢の携帯電子機器1を180度回転させる(すなわち、図1の携帯電子機器1を上下逆にする)。携帯電子機器1は、姿勢検出部16を用いて、例えば重力を検出することで、携帯電子機器1が回転されたことを検出する。そして、検出した携帯電子機器1の姿勢に応じて、ディスプレイ2に表示する画像を回転させる。
また、他の応用例としては、赤外線カメラ4でユーザの手を撮像することにより、ユーザのジェスチャ操作として、クリック操作、ピンチイン/ピンチアウト操作、フリック操作等を検出し、検出結果に応じた種々の処理が行われてもよい。図23は、クリック操作の一例を示す図である。図24A及び図24Bは、ピンチイン/ピンチアウト操作の一例を示す図である。図25は、フリック操作の一例を示す図である。なお、図23〜図25では、説明の都合上、左側には携帯電子機器1の画面を正面から見た図、右側には手を横から見た図(赤外線カメラ4から見える手)を示しているが、ジェスチャが行われる方向はこれに限らない。例えば、ユーザが携帯電子機器1及び手を見たときに図23〜図25に示すような手の見え方となるように、ジェスチャ操作が行われてもよい(掌が赤外線カメラ4を向くようにしてジェスチャ操作が行われてもよい)。
例えば、図23に示すように、クリック操作では、携帯電子機器1の側面方向(赤外線カメラ4の撮像範囲)において、ユーザが人差し指等を用いてマウスのボタンをクリックするような操作(タッチスクリーンをタップするような操作)を行う。具体的には、携帯電子機器1は、撮像された画像からユーザの手を検出し、指以外の掌部分は動かず指のみが動いているか否かを検出する。例えば、携帯電子機器1は、指が所定時間内に往復運動したか否かを判定することにより指が動いているか否かを判定する。このようなクリック操作が検出された場合、携帯電子機器1において所定の処理が行われる。例えば、携帯電子機器1は、クリック操作に応じた所定の処理として、ディスプレイ2に表示された複数のオブジェクト(ゲームオブジェクトやアプリケーションを示すアイコン、ファイルを示すアイコン等任意のオブジェクト)のうち何れかを選択したり、選択したオブジェクトに対応するアプリケーションやファイルを実行(又は開いたり)したり、選択したオブジェクトに関する情報を表示したりしてもよい。また、携帯電子機器1は、シングルクリック操作かダブルクリック操作かを判定し、それぞれの操作に応じて異なる処理を行ってもよい。ここで、シングルクリック操作は、所定時間内にクリック操作が1回行われることであり、ダブルクリック操作は、所定時間内にクリック操作が2回行われることである。例えば、携帯電子機器は、シングルクリック操作に応じてオブジェクトを選択してもよい。また、携帯電子機器1は、ダブルクリック操作に応じて、オブジェクトを選択するとともに当該選択したオブジェクトに応じた処理(選択したゲームオブジェクトを操作したり、選択したオブジェクトに対応するアプリケーションを実行したり、ファイルを開いたりする処理)を行ってもよい。このように、指を所定回数、所定方向に往復運動させる操作が検出された場合に、携帯電子機器1は、画面に表示されたオブジェクトを選択する処理を行ってもよい。
また、図24A及び図24Bに示すように、ピンチイン/ピンチアウト操作では、携帯電子機器1の側面方向(赤外線カメラ4の撮像範囲)において、ユーザが2本の指(親指と人差し指)の間隔を狭めたり(ピンチイン)、広めたりする(ピンチアウト)操作を行う。例えば、図24Aに示すように親指と人差し指との間隔が狭い状態(指を閉じた状態)から図24Bに示すように親指と人差し指との間隔が広い状態(指を開いた状態)になった場合(ピンチアウト)、ディスプレイ2に表示された画像や文字が拡大(表示範囲が縮小)されてもよい。逆に、図24Bに示すように親指と人差し指との間隔が広い状態から図24Aに示すように親指と人差し指との間隔が狭い状態になった場合(ピンチイン)、ディスプレイ2に表示された画像や文字が縮小(表示範囲が拡大)されてもよい。具体的には、携帯電子機器1は、赤外線カメラ4によって撮像された画像に基づいて、親指と人差し指との間隔が「0」もしくは第1所定値以下の場合、親指と人差し指との間隔が狭い状態(図24A)であると判別する。また、携帯電子機器1は、親指と人差し指との間隔が第1所定値よりも大きな第2所定値以上である場合、親指と人差し指との間隔が広い状態(図24B)であると判別する。この第1所定値及び第2所定値は、例えば、指の長さに応じて相対的に定められてもよい。例えば、人差し指として検出された指の長さに予め定められた第1係数をかけることにより第1所定値が定められてもよいし、人差し指の長さに予め定められた第2係数(第1係数よりも大きな値)をかけることにより第2所定値が定められてもよい。また、例えば、携帯電子機器1は、2本の指(例えば親指と人差し指)の先端を検出し、2本の指の先端を直径とする仮想的な円を描き、その円の大きさに基づいて図24Aに示す状態か図24Bに示す状態かを判別してもよい。例えば、携帯電子機器1は、円の直径が所定値以上であれば指を開いた状態と判断してもよい。なお、図24Aに示す状態から図24Bに示す状態になったのか、図24Bに示す状態から図24Aに示す状態になったかのかは、例えば、次のようにして判別することができる。例えば、図24Aに示す状態を検出してから所定時間経過後に図24Bに示す状態を検出し、図24Bの状態が一定期間維持された場合には、携帯電子機器1は、図24Aに示す状態から図24Bに示す状態に移行したと判別することができる。逆に、図24Bに示す状態を検出してから所定時間経過後に図24Aに示す状態を検出し、図24Aの状態が一定期間維持された場合には、携帯電子機器1は、図24Bに示す状態から図24Aに示す状態に移行したと判別することができる。このように、少なくとも2本の指の間隔を変化させる操作が検出された場合に、携帯電子機器1は、画面に表示された画像を拡大又は縮小してもよい。例えば、親指と人差し指との間隔に応じた大きさで画像や文字が拡大又は縮小されてもよい。例えば、親指と人差し指との間隔が狭い状態から広い状態に徐々に変化されることによって、画面に表示された画像や文字等が徐々に拡大されてもよいし、指の間隔が徐々に狭められることによって画像や文字等が徐々に縮小されてもよい。
また、図25に示すように、フリック操作では、携帯電子機器1の側面方向(赤外線カメラ4の撮像範囲)において、ユーザが例えば指(例えば人差し指)を弾くように素早く動かす。例えば、図25に示すように、ディスプレイ2の画面には、1画面には表示しきれない文章や画像等のコンテンツが表示されており、当該コンテンツの1ページ目が表示されているものとする。このような状態において、ユーザが例えば指を下から上方向(上から下方向でもよい)に素早く動かした場合、画面は下方向にスクロールしてコンテンツの2ページ目が表示される。また、図25に示すように、コンテンツ全体のうちのどの部分が画面に表示されているかを示すスクロールバーが、画面の右端に表示されてもよいし表示されなくてもよい。スクロールバーが表示される場合、図25に示すように、フリック操作に応じて画面が下方向にスクロールされるとともに、スクロールバーも下方向に移動する。また、画面を上方向にスクロールする際には、ユーザは、指を上から下方向に素早く動かせばよい。また、画面を左右方向にスクロールする際には、ユーザは、指を左右方向に素早く動かせばよい。なお、フリック操作によって、画面が連続的にスクロールされてもよい。また、指が動く速さによってスクロールの速度が異なってもよい。例えば、ユーザが指を立ててゆっくりと動かした(スワイプ)場合には、画面がゆっくりと連続的にスクロールされてもよい。また、フリック操作は必ずしも人差し指で行われる必要はなく、他の指や手全体を用いて行われてもよい。例えば、指とともに手全体を用いてフリック操作を行う場合には、携帯電子機器1は、容易にフリック操作とクリック操作とを区別することができる。また、指のみを用いてフリック操作を行う場合と、クリック操作を行う場合とでは、指を動かすという点で共通するが、携帯電子機器1は、指の動いた量や速度に基づいて、これらを区別することができる。例えば、携帯電子機器1は、指が所定の方向に移動しており、かつ、移動速度が所定以上の場合、フリック操作が行われたものと判断することができる。また、上下方向のフリック操作と左右方向のフリック操作とで、異なる処理が行われてもよい。例えば、携帯電子機器1は、上下方向のフリック操作を検出した場合は、画面を上下方向にスクロールし、左右方向のフリック操作を検出した場合は、画面のスクロールとは異なる処理(例えば、以前に表示した画面に戻る処理)を行ってもよい。このように、指をある方向に弾く(ある方向に向かって移動させる)操作が検出された場合に、携帯電子機器1は、画面をスクロールする処理を行ってもよい。
また、他のジェスチャ操作の例としては、手を携帯電子機器1に近づけたり遠ざけたりしながら手の形を変えるジェスチャ操作が行われて、当該ジェスチャ操作によって所定の処理が行われてもよい。図26は、手を携帯電子機器1に近づけたり遠ざけたりしながら手の形を変えるジェスチャ操作に応じた処理の一例を示す図である。
例えば、図26に示すように、携帯電子機器1の側面方向(赤外線カメラ4の撮像範囲)において、ユーザが手をグーからパーにしながら所定以上の速さで当該手を携帯電子機器1に近づけると、所定の処理が行われる。例えば、所定の処理として、ファイルがフォルダに格納されたり、所定のオブジェクトが所定の場所に格納されたりしてもよい。また、ユーザによって逆の操作が行われた場合は、所定のオブジェクトが、格納された場所から取り出される。すなわち、ユーザが手をパーからグーにしながら当該手を携帯電子機器1から遠ざけると、所定の処理として、オブジェクトが取り出される。このようなジェスチャ操作に応じた所定の処理としては、図26に例示したようなファイルを操作する処理に限らない。例えば、このような距離を変化させるとともに手の形状を変化させるジェスチャ操作に応じて、ゲーム処理において所定のゲームオブジェクトを取り出したり格納したりする処理が行われてもよい。なお、測距センサ5を用いて携帯電子機器1と手との距離が測定されてもよいし、赤外線カメラ4の画像を用いて距離が測定されてもよい。例えば、携帯電子機器1は、赤外線カメラ4の画像を取得し、画像における手の明るさに基づいて、携帯電子機器1と手との相対距離を測定することができる。照射部7が発する赤外光は、距離が長いほど弱くなるため、手と携帯電子機器1との距離が近いほど手の画像は明るくなり、逆に、距離が遠いほど手の画像は暗くなる。したがって、携帯電子機器1は、赤外線カメラ4によって撮像された画像から物体(手と検出してもよいししなくてもよい)の明るさを算出し、明るさに基づいて、物体との相対距離を測定することができる。携帯電子機器1は、このようにして算出した相対距離の変化に基づいて、手の移動速度を算出することができる。また、手の大きさに基づいて携帯電子機器1と手との相対的な距離を算出してもよい。携帯電子機器1は、このようにして算出した距離と、手の形状とに基づいて図26に示すようなジェスチャ操作が行われたことを認識し、当該ジェスチャ操作に応じて、種々の処理を行う。
また、携帯電子機器1は、検出した指の本数で処理内容を変えてもよい。例えば、指が1本立った状態で所定の操作が行われた場合と、指が2本立った状態で同じ操作が行われた場合とで、異なる処理を行ってもよい。例えば、指が1本立った状態で指が所定のパターンで振られた場合にはクリック操作が行われたものとして当該操作に応じた処理(例えば、選択処理)が行われ、指が2本立った状態で指が所定のパターンで振られた場合にはフリック操作(又はスワイプ操作)が行われたものとして当該操作に応じた処理(スクロール処理)が行われてもよい。
(変形例)
なお、上述した実施形態は単なる一例であり、例えば、以下のような変形が加えられてもよい。
例えば、携帯電子機器1は、上述したユーザの手を用いたジェスチャ入力に限らず、他の様々な物体を検出して当該物体の検出結果に応じて所定の処理を行い、所定の処理の結果をディスプレイ2に出力したり、プロジェクタ8に出力してもよい。例えば、赤外線カメラ4で側面方向に存在する特定の物体を撮像することで、携帯電子機器に対する入力を行ってもよい。例えば、特定の物体に対する操作をユーザが行うと、当該特定の物体の位置や姿勢が変化する。赤外線カメラ4で当該特定の物体を撮像することで、ユーザによって行われた特定の物体に対する操作を検出することができる。そして、当該操作に応じた処理の結果がディスプレイ2等に出力される。この場合において、携帯電子機器1は、ユーザの手およびユーザが把持した物体の双方を検出してもよいし、物体のみを検出してもよい。
また、携帯電子機器1の形状はどのようなものでもよい。例えば、携帯電子機器1(ディスプレイ2)は、横長ではなく縦長であってもよいし、正方形であってもよい。図27は、縦長の携帯電子機器50の一例を示す図である。図28は、横長の携帯電子機器の一例を示す図である。なお、図27では、入力ボタン6が表示されていないが、携帯電子機器50は入力ボタン6を備えてもよい。図27に示すように、縦長の携帯電子機器50の正面にはディスプレイ2が設けられ、右側面には、赤外線カメラ4と測距センサ5とプロジェクタ8とが設けられる。上述のように、携帯電子機器50においても、右側面に設けられた赤外線カメラ4及び測距センサ5を用いて、ユーザは、携帯電子機器50の右側面方向から右手でジェスチャ入力を行うことができる。
このように、本実施形態の携帯電子機器は、画面が縦長であっても横長であっても、画面を正面から見た場合の側面方向(左右方向)に、赤外線カメラ4等が設けられる。ここで、「画面を正面から見る」とは、ディスプレイ2の画面に表示された文字列や画像等が通常の方向から見えるように画面を見ることを意味する。例えば、図27では、画面が縦長になるように携帯電子機器を把持すると、画面に表示された文字列「ABC」や画像が通常の方向から見えるため、この状態が画面を正面から見ている状態である。また、例えば、図28では、画面が横長になるように携帯電子機器を把持すると、画面に表示された文字列「ABC」や画像が通常の方向から見えるため、この状態が画面を正面から見ている状態である。
本明細書における「側面」は、図27や図28に示すように、画面を正面から見た場合に下方向を向く底面及び上方向を向く上面を含んでもよい。すなわち、本実施形態の携帯電子機器では、画面を正面から見た場合に上方向を向く「上面」や下方向を向く「底面」に赤外線カメラ4や測距センサ5等が設けられてもよく、左方向を向く「左側面」や右方向を向く「右側面」に、赤外線カメラ4や測距センサ5等が設けられてもよい。
なお、本実施形態の携帯電子機器は、姿勢検出部16を用いて自機の姿勢を検出し、検出した姿勢に応じて、画面に表示する文字や画像等を回転させてもよい。図29は、画面を正面から見た場合の側面に赤外線カメラ4や測距センサ5等が設けられた携帯電子機器において、携帯電子機器を90度右回転させたときの様子を示す図である。
図29に示すように、携帯電子機器は、画面が横長になるように携帯電子機器を把持した場合は、画面には文字や画像が通常の方向から見え、画面を正面から見たときの右側面に、赤外線カメラ4や測距センサ5等が設けられる。一方、携帯電子機器を90度右回転させると、姿勢検出部16が例えば重力を検出することで、携帯電子機器は自機の姿勢を検出する。携帯電子機器は、当該検出結果に応じてディスプレイ2に表示された文字や画像が正面から見えるように、当該文字や画像を回転させる。すなわち、90度右回転させた後でも、ユーザは携帯電子機器の画面を正面から見ることができる。この場合、赤外線カメラ4や測距センサ5等は、携帯電子機器の画面を正面から見た場合の底面に位置することになる。このような携帯電子機器もまた、本発明の範囲に含まれる。
すなわち、携帯電子機器の持ち方によっては、赤外線カメラ4や測距センサ5等は、画面に対して下方向に位置したり上方向に位置することになってもよい。携帯電子機器がある姿勢でユーザに把持された場合には、当該ユーザが画面を正面から見たときに(画面に表示される文字や画像等が通常の方向から見えるときに)、赤外線カメラ4や測距センサ5等が画面に対して左右方向の面に位置するようになる。そのような姿勢において、ユーザは、画面に対して右方向(又は左方向)から上述のような右手(又は左手)でジェスチャを行うことにより、携帯電子機器に対してジェスチャ入力を行うことができる。また、携帯電子機器が別の姿勢でユーザに把持された場合には、当該ユーザが画面を正面から見たときに、赤外線カメラ4や測距センサ5等が画面に対して上下方向の面に位置するようになる。そのような姿勢において、ユーザは、画面に対して上方向(又は下方向)から上述のような右手(又は左手)でジェスチャを行うことにより、携帯電子機器に対してジェスチャ入力を行うことができる。
また、例えば、側面とともに上面や底面に赤外線カメラ4や測距センサ5、プロジェクタ8が設けられる構成も、本発明の範囲に含まれる。また、左側面および右側面の両方に赤外線カメラ4や測距センサ5等が設けられてもよい。この場合において、例えば測距センサによって測定された距離に基づいて、携帯電子機器の左側および右側のうちのどちらがユーザによって把持されているかを判断してもよい。例えば、携帯電子機器は、測定された距離が短い方に対応する側面(把持部)がユーザによって把持されていると判断してもよい。
図30は、側面と底面との両方に赤外線カメラ4や測距センサ5等が設けられた構成の一例を示す図である。図30に示すように、携帯電子機器の右側面には、赤外線カメラ4や測距センサ5等が設けられ、携帯電子機器の底面にも赤外線カメラ4や測距センサ5等が設けられる。ユーザは、左手で携帯電子機器を把持しながら、右手を用いてジェスチャ入力等が可能である。このような構成では、横長となるように携帯電子機器が把持された場合でも、縦長となるように携帯電子機器が把持された場合でも、横方向に赤外線カメラ4や測距センサ5等が位置するため、画面の横方向において上述のようなジェスチャ入力が可能となる。
このように、ユーザが携帯電子機器を左手(又は右手)で把持して画面を正面から見ながら、右手(又は左手)でディスプレイの画面に対して側面方向からジェスチャ入力を行うことができるものであれば、携帯電子機器はどのような構成であってもよい。
また、上記実施形態では、赤外線カメラ4や測距センサ5等が側面に垂直な方向(画面に平行)を向くものとしたが、他の構成では、赤外線カメラ4や測距センサ5等が側面に対して所定の角度だけ傾くように設けられてもよい。
図31は、赤外線カメラ4や測距センサ5を傾けた場合の携帯電子機器を底面から見た図である。図31に示すように、赤外線カメラ4の撮像方向が、携帯電子機器の右側面と垂直ではなく、画面方向に所定の角度だけ傾いていてもよい。また、測距センサ5の検出方向(光源からの光の射出方向)が、携帯電子機器の右側面と垂直ではなく、画面方向に所定の角度だけ傾いていてもよい。同様に、プロジェクタ8が、携帯電子機器の右側面と垂直ではなく、画面方向に所定の角度だけ傾いていてもよい。このように、赤外線カメラ4や測距センサ5、プロジェクタ8が画面方向に傾いている場合には、ユーザは、携帯電子機器の真横よりも画面方向の所定位置で手を使ったジェスチャ入力を行うことになる。赤外線カメラ4や測距センサ5、プロジェクタ8の傾きは、ユーザがジェスチャ入力を行い易いように、適宜調整されてもよく、例えば、赤外線カメラ4や測距センサ5、プロジェクタ8を背面方向に傾けてもよい。
また、上記実施形態では、赤外線カメラ4が用いられたが、赤外線カメラ4の代わりに可視光の画像を撮像する通常のカメラ(RGB画像を取得するカメラ)が用いられ、当該通常のカメラを用いてユーザのジェスチャが認識されてもよい。また、赤外線カメラ4の代わりに、RGB画像と赤外線画像との両方を撮像可能なカメラが用いられてもよい。図32は、RGB画像と赤外線画像との両方を撮像可能なイメージセンサの一部を示す図である。図32に示すように、4つの素子(フォトトランジスタ)のそれぞれは、赤の光(R)、緑の光(G)、青の光(B)、赤外光(IR)を受光する。このような4つの素子の組み合わせが縦横に多数並べられたイメージセンサを用いることで、RGB画像を取得することができるとともに、赤外線画像も取得することができる。これにより、RGB画像と赤外線画像のうちの何れかを用いて、ジェスチャを認識することができる。すなわち、取得されたRGB画像と赤外線画像のうち、ジェスチャ認識に適した画像を選択することができる。例えば、赤外線の光量が多すぎて取得された赤外線画像に特定の物体が検出できない場合は、RGB画像を用いてジェスチャを認識することができ、その逆も可能である。
また、上記実施形態では、プロジェクタ8が備えられたが、ユーザによるジェスチャ入力に応じた所定の情報処理(S13)の結果を、光によってユーザに知らせるものであればどのようなものでもよい。例えば、プロジェクタ8の代わりに又は加えて、所定の光を発する光源(例えば、LED、ハロゲンランプ、蛍光ランプ、ELランプ等)が携帯電子機器1に備えられてもよい。
また、上記実施形態では、赤外線カメラ4と測距センサ5とを用いて画像と距離とを別々に取得したが、他の実施形態では、例えば、TOF(Time of Flight)型の距離画像センサが設けられ、当該距離画像センサを用いて、画像と画素毎の距離とが取得されてもよい。そして、携帯電子機器は、取得された画像と距離とに基づいて、特定の物体を検出し、検出結果に応じてディスプレイ2やプロジェクタ8に画像を出力する。
また、上記実施形態では、携帯電子機器1は、アプリケーションを実行可能な情報処理装置として説明したが、他の実施形態では、携帯電子機器1は、ユーザの入力を受け付けるコントローラとして機能してもよい。この場合、ディスプレイは設けられてもよいし、設けられなくてもよい。携帯電子機器1がコントローラとして機能する場合、携帯電子機器1は、無線や有線で別の情報処理装置と接続される。携帯電子機器1に対して操作(入力ボタンに対する操作や携帯電子機器1自体を動かす操作、上記ジェスチャ操作等)が行われると、当該操作に応じた操作データが別の情報処理装置に送信される。情報処理装置は、操作データを受信すると、操作データに応じた処理を行う。操作データに応じた処理は、実行されるアプリケーションの種類によって異なる。
また、上記実施形態では、一方の手で携帯電子機器を把持し、他方の手で携帯電子機器に対してジェスチャ入力を行う例について説明した。他の実施形態では、携帯電子機器は、例えば画面を備える腕時計型の装置のように、ユーザの腕(身体)に固定されるものであってもよい。
また、携帯電子機器の形状はどのようなものでもよく、例えば、板状の楕円形状であってもよい。例えば、携帯電子機器は、折り畳み可能なものであってもよい。
また、上記実施形態では携帯型の装置としたが、他の実施形態では据置型の装置であってもよい。