JP2009259117A - ミラーシステム - Google Patents

ミラーシステム Download PDF

Info

Publication number
JP2009259117A
JP2009259117A JP2008109490A JP2008109490A JP2009259117A JP 2009259117 A JP2009259117 A JP 2009259117A JP 2008109490 A JP2008109490 A JP 2008109490A JP 2008109490 A JP2008109490 A JP 2008109490A JP 2009259117 A JP2009259117 A JP 2009259117A
Authority
JP
Japan
Prior art keywords
user
operation target
image
hand
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008109490A
Other languages
English (en)
Other versions
JP4985531B2 (ja
Inventor
Shingo Yuasa
信吾 湯浅
Yuriko Kamigaki
百合子 上垣
Itsuhito Matsuda
逸人 松田
Hideyasu Akihara
秀育 穐原
Akiko Harima
晶子 播磨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2008109490A priority Critical patent/JP4985531B2/ja
Publication of JP2009259117A publication Critical patent/JP2009259117A/ja
Application granted granted Critical
Publication of JP4985531B2 publication Critical patent/JP4985531B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させることが可能なミラーシステムを提供する。
【解決手段】ミラーシステム1は、表示部20と、目位置検出部41aと、手位置検出部41bと、接触判断部41dとを備えている。接触判断部41dは、目位置検出部41aにより検出された画像上における目の位置と、手位置検出部41bにより検出された画像上における手の位置との中間位置と、操作対象映像光の投射位置を示す制御値との対応関係から、ユーザHの手の鏡像が操作対象映像光によって示される操作対象に触れたか否かを判断する。
【選択図】図2

Description

本発明は、ミラーシステムに関する。
従来、ユーザの鏡像を映し出すハーフミラーと、ハーフミラーのユーザ反対側に設けられた拡散層に投射光を投射して情報等を表示する情報表示機能付きミラーシステムが知られている。このミラーシステムによると、鏡像の他に、鏡像として映るユーザに対応して、小鳥や犬などの映像を映し出すことができ、ユーザ自身の鏡像と映像とが一体となった表示を行うことができる(特許文献1参照)。
特開2006−330011号公報(段落[0044]参照)
ここで、特許文献1に記載のシステムは、カメラにより撮影された人の形と大きさから、表示装置に対する人の位置と距離とを計算して鏡に反射されている人の鏡像を推定し、推定された鏡像に応じて、小鳥や犬などの映像の位置や大きさを決定している。このため、特許文献1に記載のシステムは、ユーザの鏡像を推定するという複雑な処理が必要となってしまう。
また、特許文献1に記載のシステムを含む従来のミラーシステムは、ユーザの鏡像の手が、映像光によって示される映像に触れる(すなわちユーザから重なって見える)動作を行ったとしても、その動作は何ら反映されることがなかった。また、特許文献1に記載のシステムの技術を応用し、ユーザが操作対象映像光によって映し出される操作対象に触れる動作を行ったときに何らかの制御を行うシステムを提供しようとした場合、処理が非常に複雑となってしまう。すなわち、特許文献1に記載のシステムの技術を応用した場合、ユーザの鏡像を推定し、ユーザの鏡像のうち、手の位置が操作対象映像光の投射位置に合致することを演算等により求める必要がある。このため、激しく動かすことが可能な手について手が動くごとに鏡像を推定する必要があり、処理が非常に複雑となってしまう。
本発明は、上記問題点を解決するために成されたものであり、その目的とするところは、ユーザが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させることが可能なミラーシステムを提供することである。
本発明に係るミラーシステムは、映像光を投射する投光手段と、投光手段に投射された映像光を映して映像をユーザに視認可能とさせると共に、ユーザ自身の鏡像を表示可能な表示部と、ユーザを撮像するカメラと、カメラにより撮像された画像上におけるユーザの目の位置を検出する目位置検出手段と、カメラにより撮像された画像上におけるユーザの手の位置を検出する手位置検出手段と、投光手段から投射される映像光のうち、ユーザの操作対象を映し出す操作対象映像光の表示部上における投射位置を制御値に基づいて制御する制御手段と、を備え、制御手段は、目位置検出手段により検出された画像上における目の位置と、手位置検出手段により検出された画像上における手の位置との中間位置と、制御値との対応関係から、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたか否かを判断することを特徴とする。
このミラーシステムによれば、目位置検出手段により検出された画像上における目の位置と、手位置検出手段により検出された画像上における手の位置との中間位置と、制御値との対応関係から、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたか否かを判断する。ここで、ユーザは、ユーザから表示部までの距離の約2倍の位置に自己の鏡像を視認する。すなわち、ユーザとユーザの鏡像との中間に表示部が存在するような状態ともいえる。しかも、表示部は、ユーザから表示部との距離に拘わらず、常に中間に位置している。そして、ユーザの目と鏡像の手との中間にも表示部が存在するといえ、ユーザの視点からすると、ユーザの目の位置と鏡像の手の位置との中間地点に、操作対象映像光の投射位置が位置していれば、ユーザには手が操作対象に触れたように認識される。このように、ユーザが操作対象に触れたか否かを判断するにあたり、鏡像の推定は必要なく、ユーザの目の位置の情報と、ユーザの手の位置の情報と、操作対象映像光の投射位置を示す制御値の情報があれば足りる。従って、ユーザが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させる。
また、本発明に係るミラーシステムにおいて、制御手段は、カメラにより撮像された画像上における中間位置の座標値を座標変換して表示部上における第1座標値とすると共に、この第1座標値と、制御値が示す表示部上における第2座標値との差が所定値以内である場合に、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断することが好ましい。
このミラーシステムによれば、画像上における中間位置の座標値を座標変換して表示部上における第1座標値を求め、この第1座標値と制御値が示す第2座標値との差が所定値以内である場合に、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断する。このため、中間位置を求めた後は、既存技術である座標値の変換と、制御値が示す座標値との比較のみで、操作対象映像光に触れたか否かを判断でき、処理負荷を軽減させることができる。
また、本発明に係るミラーシステムにおいて、制御手段は、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断した場合、予め定められた制御を実行することが好ましい。
このミラーシステムによれば、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断した場合、予め定められた制御を実行するため、ユーザが操作対象映像光を操作して機器等を制御させるという新たな機器操作を提案することができる。
また、本発明に係るミラーシステムにおいて、制御手段は、表示部に向き合った状態でユーザに運動を促すエクササイズコンテンツを選択させる操作対象を表示させ、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断した場合、エクササイズコンテンツを実行することが好ましい。
このミラーシステムによれば、表示部に向き合った状態でユーザに運動を促すエクササイズコンテンツを選択させる操作対象を表示させ、ユーザ自身の鏡像の手が操作対象映像光によって示される操作対象に触れたと判断した場合、エクササイズコンテンツを実行する。このため、エクササイズのコンテンツを実行するにあたり、ユーザは各機器のスイッチ操作等を行うために、表示部の前から離れ、その後表示部の前に移動し、エクササイズを行うという煩わしさがなく、表示部の前から移動しないまま、操作対象に触れてエクササイズコンテンツを実行させることができる。
また、本発明に係るミラーシステムにおいて、エクササイズコンテンツは、ユーザ以外から与えられた動力によって動作する他動運動器具をユーザが使用している際に、ユーザに運動を促すコンテンツであって、制御手段は、エクササイズコンテンツの実行中において、表示部に操作対象映像光を投射させ、この操作対象映像光によって示される操作対象にユーザ自身の鏡像の手が触れたと判断した場合、得点を加算又は減算させることが好ましい。
このミラーシステムによれば、他動運動器具をユーザが使用している際に表示部に操作対象映像光を投射させ、この操作対象映像光によって示される操作対象にユーザ自身の鏡像の手が触れたと判断した場合、得点を加算又は減算させるため、単に他動運動器具を使用しているだけでなく、他動運動器具の使用に加えて、エクササイズを行うことができ、一層エクササイズ効果を高めることができる。さらに、得点の加減算を行っているため、ゲーム感覚を与えることができる。
また、本発明に係るミラーシステムにおいて、制御手段は、エクササイズコンテンツ実行中において、ユーザの手の位置を動かす経路を示す操作対象映像光を表示部に投射させ、この操作対象映像光に沿ってユーザの手が動いていると判断した場合、操作対象映像光によって示される操作対象の色を変化させることが好ましい。
このミラーシステムによれば、ユーザの手の位置を動かす経路を示す操作対象映像光を表示部に投射させるため、ユーザが行うべき動きを表現することができる。また、操作対象に沿ってユーザの手が動いていると判断した場合、操作対象の色を変化させる。このため、ユーザが適切な動きを行った場合に、その告知を行うことができる。
本発明に係るミラーシステムよれば、ユーザが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させることができる。
以下、図面を参照して、本発明の実施の形態を説明する。図1は、本発明の実施形態に係るミラーシステムを示す外観構成図である。ミラーシステム1は、ユーザHの鏡像を映し出すと共に、映像を表示するものである。このミラーシステム1は、プロジェクタ(投光手段)10と、表示部20と、正面カメラ(カメラ)30と、コンピュータ(制御手段)40とを備えている。なお、図1では、ユーザHが表示部20の表示面に対して正対している例を図示している。
プロジェクタ10は、映像光を投射するものである。表示部20は、プロジェクタ10によって投射された映像光を映して映像をユーザHに視認可能とさせると共に、ユーザH自身の鏡像を表示可能なものである。正面カメラ30は、ユーザHを撮像するものである。コンピュータ40は、正面カメラ30により撮像された撮像画像に基づいて、各種制御を行うものである。以下、各部について詳細に説明する。
プロジェクタ10は、表示部20の裏側BSに設置され、映像光を表示部20の裏側BSから投射するものである。このプロジェクタ10は、コンピュータ40から映像ケーブル或いは無線通信により映像データを受信し、この受信した映像データに基づいて映像光を投射する構成となっている。また、プロジェクタ10は、コンピュータ40からの指示に基づいて、操作対象映像光を投射する。操作対象映像光とは、映像光の1種であって、ユーザの操作対象となるアイコン映像や丸形の映像(後述の図6及び図7等参照)などを映し出す光である。
表示部20は、プロジェクタ10が投射する映像光を拡散する拡散層21と、入射する光の一部を反射し、一部を透過するハーフミラー23と、拡散層21とハーフミラー23の間に位置する透明板22とを備えている。すなわち、表示部20は、拡散層21及びハーフミラー23を、透明板22を介して重ね合わせることにより構成されている。
拡散層21は、例えばシート状の拡散部材で形成されており、透明板22に貼り付けられて設置されている。なお、拡散層21は、透明板22の一部に研磨加工などを施して透明板22の裏側BSの主面に拡散機能を持たせることにより形成されていてもよい。
透明板22はアクリル又はガラスを材料として構成されている。なお、透明板22は、これに限らず、透明材料であれば他の材料により構成されていてもよい。ハーフミラー23は、半透過膜シートを透明板22の表面に貼り付けて構成されている。また、ハーフミラー23は、透明板22の表面に金属膜を金属蒸着させて構成されていてもよい。
また、表示部20は、透明板22を有さず、拡散層21とハーフミラー23とを直接貼り合わせたものであってもよい。なお、透明板22を有する方が有さない場合よりも表示部20の平面度を保つ点で有利である。さらに、表示部20は、表側FSからみて、拡散層21、透明板22及びハーフミラー23の順に配置されていなくともよく、ハーフミラー23、拡散層21及び透明板22の順に配置されていてもよいし、透明板22、ハーフミラー23及び拡散層21の順に配置されていてもよい。
正面カメラ30は、表示部20の裏側BSに配置され、ハーフミラー23の上記性質(一部光を透過する性質)を利用することにより、表示部20を介してユーザHを撮像するものである。また、正面カメラ30は、例えば、USBケーブルにより通信が可能なUSBカメラにより構成されている。この場合、正面カメラ30は、コンピュータ40とUSBケーブルにより接続されることとなる。なお、本実施形態では、正面カメラ30は表示部20の裏側BSに設置されているが、設置位置はこれに限らず、表示部20の表面FSに設置されていてもよい。また、正面カメラ30のように、ユーザを正面から撮像するものでなくともよく、側方や上方等から撮像するものであってもよい。
図2は、図1に示したコンピュータ40の詳細を示す構成図である。コンピュータ40は、データの演算処理機能を備える処理演算部(CPU)41と、データを格納するデータベース42と、プロジェクタ10、及び正面カメラ30との間でデータの入出力を制御する入出力部43を備える。
処理演算部41は、正面カメラ30により撮像された画像上におけるユーザHの目の位置を検出する目位置検出部(目位置検出手段)41aと、正面カメラ30により撮像された画像上におけるユーザHの手の位置を検出する手位置検出部(手位置検出手段)41bとを備えている。また、処理演算部41は、プロジェクタ10からの投射される操作対象映像光の表示部20上における投射位置を制御値に基づいて制御する投射位置制御部41cと、ユーザH自身の鏡像の手が操作対象映像光によって示される操作対象に触れたか否かを判断する接触判断部41dと、接触判断部41dによりユーザH自身の鏡像の手が操作対象に触れたと判断された場合に予め定められた制御を実行する対応制御部41eを備えている。
データベース42は、映像データ格納部42aと、プログラムデータ部42bとを備えている。映像データ格納部42aは、プロジェクタ10から投射される映像光のデータを格納しており、例えば後述するアイコン映像のデータや、丸形の映像のデータなどを格納している。プログラムデータ部42bは、処理演算部41が行う演算処理のアルゴリズムを規定したコンピュータプログラムのデータを格納したものである。コンピュータプログラムには、正面カメラ30で撮影した映像をプロジェクタ10で表示部20に投影するためのアプリケーションソフトウェア(FLASH、C++などのプログラミング言語で記述されたもの)やオペレーティングシステム(OS)等の基本ソフトウェアが含まれる。
次に、処理演算部41の各部について詳細に説明する。目位置検出部41aは、正面カメラ30により撮像された画像を処理し、画像内から目を抽出して画像上における目の位置を検出する。具体的に、目位置検出部41aは、まず画像内からユーザHの顔を特定する。次いで、目位置検出部41aは、顔の画像を2値化処理し、顔の暗い部分(例えば、眉、アイライン、鼻の穴、上唇と下唇との境界)を抽出する。その後、目位置検出部41aは、顔の暗い部分の配置関係から、目の位置を検出する。なお、目の位置の検出については、種々の方法があり、目位置検出部41aは、テンプレートマッチングや濃淡画像マッチングなど他の方法により、目の位置を検出してもよい。
手位置検出部41bは、正面カメラ30により撮影された画像から手を抽出して画像上におけるユーザHの手の位置を検出するものである。例えば、手位置検出部41bは、ユーザの身体画像のうち、肌色の部分や、体の輪郭などを利用して手の位置を検出する。
投射位置制御部41cは、操作対象映像光の表示部20上における投射位置を制御するものである。この投射位置制御部41cは、操作対象映像光を投射させる際、データベース42から表示部20上のどの位置に投射するかを示す制御値の情報を読み出し、読み出した制御値に従って投射位置を決定する。そして、投射位置制御部41cは、決定した投射位置に操作対象が映るように、プロジェクタ10を制御することとなる。
接触判断部41dは、目位置検出部41aにより検出された画像上における目の位置と、手位置検出部41bにより検出された画像上における手の位置との中間位置と、制御値との対応関係から、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたか否かを判断するものである。
図3は、図2に示した接触判断部41dによる接触判断方法を説明する側面図である。図3に示すように、ユーザHは、ユーザHの目からハーフミラー23の反射面までの距離αの2倍離れた位置に自己の目の位置を視認することができる。また、ユーザHは、ユーザHの目からハーフミラー23の反射面までの距離α’の2倍離れた位置に自己の手の位置を視認することができる。このとき、ユーザHは、自己の手を表示部20上において点Sの位置で視認することとなる。
そして、点Sの位置は、ユーザHの表示部20に対する距離に拘わらず、ほぼ不変となっている。図4は、距離に応じた手の位置を説明する簡略図であり、(a)は距離が短い場合を示し、(b)は距離が長い場合を示している。
図4(a)に示すように、ユーザHの目の位置eとし、ユーザHの手の位置hとし、鏡像における目の位置e’とし、鏡像における手の位置h’とした場合、ユーザHは、表示部20上において、点e,h’の中間位置である点Sの位置で手の鏡像を確認することとなる。一方、図4(b)に示すように、表示部20に対する距離が離れた場合、ユーザHは、表示部20上において、点e,h’の中間位置である点Sの位置で手の鏡像を確認することとなる。この点Sは、図4(a)及び図4(b)に示すように、地面からの距離がγであり、一致している。
このように、ユーザHの表示部20に対する距離に拘わらず、点Sは同じとなる。より数学的に説明すると、点Sの位置は、図3から明らかなように、ユーザの目の位置とユーザの手の位置とを結ぶ直線lの中点mから表示部20に対して法線を引いた位置に該当し、ユーザHの目と手との位置にのみ依存することがわかる。このため、ユーザHの目の位置や手の位置が変わらない限り、ユーザHが表示部20に対して離れたり近寄ったりしても、点Sの位置は不変となる。そして、点Sの位置は、ユーザHの目の位置や手の位置が変化した場合のみ、他の位置に変位することとなる。よって、本実施形態では、ユーザHの目の位置と手の位置とを検出し、点Sに該当する位置を求め、投射位置が点S(具体的には表示部20の厚みを考慮して点S’)の位置となっていれば、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたか否かを判断できることとなる。
この点Sを求めるにあたり、接触判断部41dは、まず、正面カメラ30により撮像された画像上における目の位置と手の位置との情報を取得し、画像上においてこれらの中間位置の座標値を求める。そして、接触判断部41dは、求めた座標値を座標変換して、表示部20上における第1座標値(すなわち図3でいうところの点Sの位置)を求める。
具体的に説明すると、画像上における目の位置が座標(x0,y0)にあり、手の位置が座標(x1,y1)であるとすると、接触判断部41dは、中間位置である座標値((x1−x0)/2,(y1−y0)/2)を算出する。そして、接触判断部41dは、座標変換を行って、例えば表示部20上における第1座標値(例えば(x2,y2))を算出する。
また、投射位置は投射位置制御部41cからの制御値に基づいて判断できる。このため、接触判断部41dは、投射位置制御部41cから制御値の情報を読み込んで、制御値から表示部20上における第2座標値(例えば(x2’,y2’))を求める。そして、接触判断部41dは、第1座標値と第2座標値との差が所定値以内である場合(すなわち(x2,y2)と(x2’,y2’)との距離が所定値よりも近い場合)、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたと判断する。
以上から、本実施形態に係る接触判断部41dは、ユーザHの鏡像を推定することなく、簡易にユーザHが操作対象映像光に触れた状態を判断することとなる。
なお、上記実施形態ではユーザHを撮影するものとして正面カメラ30が1つだけ設けられているが、これに限らず、複数のカメラを備えていてもよい。
図5は、本実施形態に係るミラーシステム1の変形例を示す構成図である。図5に示すように、変形例に係るミラーシステム1は、表示部20の裏面BSに2つのカメラ30a,30bを有している。これらのカメラ30a,30bは、プロジェクタ10のからの投射光の邪魔にならない位置、具体的には表示部20の左右両端位置に設けられている。この構成により、ステレオ立体視の原理を用いて、ユーザHの目及び手について、より詳細に求めることができる。すなわち、正面カメラ30が1つだけであると、正面カメラ30に対して真っ直ぐに手を近づけたり離したりしても、画像上における手の位置は同じ位置に検出されてしまう。このため、座標変換をして点Sの位置を求めようとしても、不正確となってしまう可能性がある。ところが、複数のカメラ30a,30bを備える場合、表示部20からユーザHの手までの距離を求めることができ、点Sの位置を正確に求めることができる。なお、上記では手の位置について説明したが、目の位置についても同様であり、表示部20からユーザHの目までの距離を求めることで、点Sの位置を正確に求めることができる。また、上記では複数のカメラ30a,30bを備える場合を説明したが、これに限らず、距離画像カメラや距離センサ(レーザ方式及び超音波方式など)を用いてもよい。
再度、図2を参照する。図2に示す対応制御部41eは、接触判断部41dによりユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたと判断された場合に予め定められた制御を実行するものであって、例えば、後述する図6に示すようなアイコン映像(操作対象映像光によって示される操作対象の1つ)が表示部20上に表示された状態において、ユーザH自身の手の鏡像がアイコン映像に触れたと判断した場合に、アイコンの指定操作の制御を行う構成となっている。この対応制御部41eについて詳細に説明する。
図6は、アイコンの指定操作画面を示す図である。図6に示すように、プロジェクタ10からの投射光によって、表示部20上にアイコン映像101〜104が表示されている。第1アイコン映像101は、ユーザHに運動を促すエクササイズコンテンツを選択させるための操作対象である。第2アイコン映像102は、ユーザHの身体特徴(体重、身長及び体脂肪率など)を表示するための操作対象である。第3アイコン映像103は、ユーザHが過去に行ったエクササイズの履歴を参照するための操作対象である。第4アイコン映像104は、ユーザHのエクササイズや身体的特徴について、より詳細に参照させるための詳細表示用の操作対象である。
このようなアイコン映像101〜104が表示されている状態において、ユーザHの手が鏡像上において第1アイコン映像101と重なるように移動させられたとする。この場合、接触判断部41dは、図3及び図4に示した理論に基づいて、ユーザH自身の手の鏡像が操作対象である第1アイコン映像101に触れたと判断する。そして、対応制御部41eは、プロジェクタ10からサブアイコン映像101a,101b(操作対象映像光によって示される操作対象の1つ)を投射させ、表示部20は、サブアイコン映像101a,101bを表示させる。
第1サブアイコン映像101aは、他動運動器具をユーザHが使用している際に、ユーザHに運動を促す運動コンテンツを実行するための操作対象である。ここで、他動運動器具とは、ユーザH以外から与えられた動力によって動作する器具である。また、第2サブアイコン映像101aは、ユーザHのバランスを矯正するための矯正コンテンツを実行するための操作対象である。
このようなサブアイコン映像101a,101bが表示されている状態において、ユーザHの鏡像の手が表示部20上においてサブアイコン映像101a,101bと重なるように移動させられたとする。この場合、接触判断部41dは、図3及び図4に示した理論に基づいて、ユーザH自身の手の鏡像が操作対象映像光によって示されるサブアイコン映像101a,101bに触れたと判断する。そして、対応制御部41eは、運動コンテンツ又は矯正コンテンツを実行する。
図7は、ユーザH自身の手の鏡像が第1サブアイコン映像101aに触れたと判断した場合に実行される運動コンテンツを示す図である。図7に示すように、運動コンテンツにおいては、丸形の操作対象110a〜110fがユーザHの周囲に映し込まれている。また、ユーザHは、他動運動器具111である乗馬型振動マシーンに乗っており、その鏡像Iが表示部20に写し込まれている。
このような状態において、ユーザHの手が操作対象110a〜110fの位置と重なるように移動させられると、接触判断部41dは、図3及び図4に示した理論に基づいて、ユーザH自身の手の鏡像が操作対象110a〜110fに触れたと判断する。そして、対応制御部41eは、得点を加算又は減算させていき、ユーザHの運動結果を得点により示すように制御する。これにより、ユーザHにゲーム性を感じさせつつ、運動を促すようにしている。
なお、運動コンテンツでは、複数の操作対象110a〜110fのうち、いずれか1つを順次表示させ、ユーザH自身の手の鏡像が順番に各操作対象110a〜110fに触れるように促してもよい。さらに、触れるべき操作対象110a〜110fについてのみ色を変更して表示するようにしてもよい。
図8は、ユーザHが第2サブアイコン映像101bに触れたと判断した場合に実行される矯正コンテンツを示す図であり、(a)が矯正運動前の状態を示し、(b)は矯正運動中の状態を示している。図8(a)に示すように、矯正コンテンツにおいては、丸形の操作対象120がユーザHの左側に映し込まれている。また、ユーザHの鏡像Iが表示部20に写し込まれている。
このような状態において、ユーザH自身の手の鏡像が丸形の操作対象120の位置と重なるように移動させられると、接触判断部41dは、図3及び図4に示した理論に基づいて、ユーザH自身の手の鏡像が操作対象120に触れたと判断する。そして、対応制御部41eは、プロジェクタ10から図8(b)に示す8の字型の操作対象121を投射させる。
これにより、ユーザHは8の字型の操作対象121に沿って手を動かすようにしむけられることとなる。そして、腕の振り、体重移動、腰の向きの変化、及び膝の動きなどから、バランスが矯正されることとなる。なお、矯正コンテンツにおいて接触判断部41dが操作対象121に沿ってユーザの手が動いていると判断した場合、対応制御部41eは、操作対象121の色を変化させる。これにより、ユーザHが正確に手を動かしたことをユーザHに告知することとなる。このときの接触判断についても、図3及び図4に示した理論に基づくこととなる。特に、操作対象121が長い距離を有するため、接触判断部41dは、所定距離毎にポイントを設け、ユーザH自身の手の鏡像が各ポイントに触れたか否かを判断するようにしている。
次に、本実施形態に係るミラーシステム1の動作について説明する。図9は、本実施形態に係るミラーシステム1の動作を示すフローチャートである。図9に示すように、まず、投射位置制御部41cは、操作対象映像光の投射位置を決定する(S1)。このとき、投射位置制御部41cは、制御値を求めることにより投射位置を決定する。次に、処理演算部41は、制御値に基づいてプロジェクタ10を駆動させて投射位置に操作対象映像光を投射させる(S2)。
その後、目位置検出部41aは、正面カメラ30により撮影された画像上におけるユーザHの目の位置を検出する(S3)。次に、手位置検出部41bは、正面カメラ30により撮影された画像上におけるユーザHの手の位置を検出する(S4)。
次いで、接触判断部41dは、ステップS3において検出した目の位置、及び、ステップS4において検出した手の位置から、画像上における目と手との中間位置を算出する(S5)。その後、接触判断部41dは、中間位置の座標値を座標変換して表示部20上における第1座標値を算出する(S6)。その後、接触判断部41dは、制御値の情報を入力し(S7)、第2座標値を求める(S8)。
次いで、接触判断部41dは、ステップS6において算出した第1座標値、及び、ステップS7において算出した第2座標値に基づいて、ユーザHの手が操作対象映像光に触れたか否かを判断する(S9)。このとき、接触判断部41dは、第1座標値と第2座標値との距離が所定距離以内であるかに基づいて、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたか否かを判断することとなる。
ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れていないと判断した場合(S9:NO)、処理はステップS3に移行する。一方、ユーザH自身の手の鏡像が操作対象映像光によって示される操作対象に触れたと判断した場合(S9:YES)、対応制御部41eは、予め定められた制御を実行する(S10)。このときの制御は、図6を参照して説明したアイコン映像101〜104及びサブアイコン映像101a,101bの指定制御であったり、図7を参照して説明した得点の加減算制御であったりする。また、図8を参照して説明した制御であってもよい。
そして、予め定められた制御の実行後、図9に示す処理は終了する。なお、図9に示す処理は、ミラーシステム1の電源がオフとなるまで、繰り返し実行される。
このようにして、本実施形態に係るミラーシステム1によれば、目位置検出部41aにより検出された画像上における目の位置と、手位置検出部41bにより検出された画像上における手の位置との中間位置と、制御値との対応関係から、ユーザH自身の鏡像の手が操作対象映像光によって示される操作対象に触れたか否かを判断する。ここで、ユーザHは、ユーザHから表示部20までの距離の約2倍の位置に自己の鏡像Iを視認する。すなわち、ユーザHとユーザHの鏡像Iとの中間に表示部20が存在するような状態ともいえる。しかも、表示部20は、ユーザHから表示部20との距離に拘わらず、常に中間に位置している。そして、ユーザHの目と鏡像Iの手との中間にも表示部20が存在するといえ、ユーザHの視点からすると、ユーザHの目の位置と鏡像Iの手の位置との中間地点に、操作対象映像光の投射位置が位置していれば、ユーザHには手が操作対象に触れたように認識される。このように、ユーザHが操作対象に触れたか否かを判断するにあたり、鏡像Iの推定は必要なく、ユーザHの目の位置の情報と、ユーザHの手の位置の情報と、操作対象映像光の投射位置を示す制御値の情報があれば足りる。従って、ユーザHが操作対象映像光によって示される操作対象に触れる動作を行った場合の判断における処理負荷を軽減させる。
また、画像上における中間位置の座標値を座標変換して表示部20上における第1座標値を求め、この第1座標値と制御値が示す第2座標値との差が所定値以内である場合に、ユーザH自身の鏡像Iの手が操作対象映像光によって示される操作対象に触れたと判断する。このため、中間位置を求めた後は、既存技術である座標値の変換と、制御値が示す座標値との比較のみで、操作対象映像光に触れたか否かを判断でき、処理負荷を軽減させることができる。
また、ユーザH自身の鏡像Iの手が操作対象映像光によって示される操作対象に触れたと判断した場合、予め定められた制御を実行するため、ユーザHが操作対象映像光を操作して機器等を制御させるという新たな機器操作を提案することができる。
また、表示部20に向き合った状態でユーザに運動を促すエクササイズコンテンツを選択させるアイコン映像101,101a,101bを表示させ、ユーザH自身の鏡像Iの手がアイコン映像101,101a,101bに触れたと判断した場合、エクササイズコンテンツを実行する。このため、エクササイズのコンテンツを実行するにあたり、ユーザHは各機器のスイッチ操作等を行うために、表示部20の前から離れ、その後表示部20の前に移動し、エクササイズを行うという煩わしさがなく、表示部20の前から移動しないまま、アイコン映像101,101a,101bに触れてエクササイズコンテンツを実行させることができる。
また、他動運動器具111をユーザHが使用している際に表示部20に操作対象映像光110a〜110fを投射させ、この操作対象映像光によって示される操作対象110a〜110fにユーザH自身の鏡像Iの手が触れたと判断した場合、得点を加算又は減算させるため、単に他動運動器具111を使用しているだけでなく、他動運動器具111の使用に加えて、エクササイズを行うことができ、一層エクササイズ効果を高めることができる。さらに、得点の加減算を行っているため、ゲーム感覚を与えることができる。
また、ユーザHの手の位置を動かす経路を示す操作対象映像光121を表示部20に投射させるため、ユーザHが行うべき動きを表現することができる。また、操作対象映像光によって示される操作対象121に沿ってユーザの手が動いていると判断した場合、操作対象121の色を変化させる。このため、ユーザが適切な動きを行った場合に、その告知を行うことができる。
以上、本発明に係るミラーシステムを実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。
例えば、本実施形態では、図6〜図8に示す各操作対象映像光を説明したが、これらに限らず、他の操作対象映像光を表示してもよい。
また、上記実施形態において接触判断部41dは座標変換を行っているが、この座標変換の精度を向上させるため、以下のような制御を行ってもよい。すなわち、プロジェクタ10は、予め表示部20上における座標値(x3,y3)の位置に操作対象映像光を投射する。そして、ユーザHに、音声や表示によって操作対象映像光によって示される操作対象に触れる旨を提示する。これにより、ユーザHの鏡像Iの手は操作対象に触れることとなり、触れたときの目と手の位置の中間位置と、座標値(x3,y3)とが対応関係にあることが明らかとなる。そして、接触判断部41dは、この対応関係を基準に座標変換式を構築し、以後の座標変換処理に用いるようにするとよい。
なお、この場合、画像の歪みなどを考慮して、表示部20上における各位置に操作対象映像光によって示される操作対象を表示させる。例えば表示部20を16分割して16個の操作対象を表示させる。そして、ユーザHにそれぞれの操作対象に触れる旨を提示する。これにより、画像の歪みを考慮して、より詳細な座標変換式を構築することができ、一層精度を高めることができる。
さらに、上記の処理は、定期的に行うことが望ましい。これにより、ミラーシステム1を長期に使用して、プロジェクタ10や正面カメラ30の設置位置にずれが生じたとしても、ズレを補正するような座標変換式を構築でき、一層精度を高めることができる。
本発明の実施形態に係るミラーシステムを示す外観構成図である。 図1に示したコンピュータの詳細を示す構成図である。 図2に示した接触判断部による接触判断方法を説明する側面図である。 距離に応じた手の位置を説明する簡略図であり、(a)は距離が短い場合を示し、(b)は距離が長い場合を示している。 本実施形態に係るミラーシステムの変形例を示す構成図である。 アイコンの指定操作画面を示す図である。 ユーザHが第1サブアイコン映像に触れたと判断した場合に実行される運動コンテンツを示す図である。 ユーザHが第2サブアイコン映像に触れたと判断した場合に実行される矯正コンテンツを示す図であり、(a)が矯正運動前の状態を示し、(b)は矯正運動中の状態を示している。 本実施形態に係るミラーシステムの動作を示すフローチャートである。
符号の説明
1 ミラーシステム
10 プロジェクタ
20 表示部
21 拡散層
22 透明板
23 ハーフミラー
30 正面カメラ(カメラ)
40 コンピュータ(制御手段)
41 処理演算部
41a 目位置検出部(目位置検出手段)
41b 手位置検出部(手位置検出手段)
41c 投射位置制御部
41d 接触判断部
41e 対応制御部
42 データベース
42a 映像データ格納部
42b プログラムデータ部
43 入出力部

Claims (6)

  1. 映像光を投射する投光手段と、
    前記投光手段に投射された映像光を映して映像をユーザに視認可能とさせると共に、ユーザ自身の鏡像を表示可能な表示部と、
    ユーザを撮像するカメラと、
    前記カメラにより撮像された画像上におけるユーザの目の位置を検出する目位置検出手段と、
    前記カメラにより撮像された画像上におけるユーザの手の位置を検出する手位置検出手段と、
    前記投光手段から投射される映像光のうち、ユーザの操作対象を映し出す操作対象映像光の前記表示部上における投射位置を制御値に基づいて制御する制御手段と、を備え、
    前記制御手段は、前記目位置検出手段により検出された画像上における目の位置と、前記手位置検出手段により検出された画像上における手の位置との中間位置と、前記制御値との対応関係から、ユーザ自身の鏡像の手が前記操作対象映像光によって示される操作対象に触れたか否かを判断する
    ことを特徴とするミラーシステム。
  2. 前記制御手段は、前記カメラにより撮像された画像上における前記中間位置の座標値を座標変換して前記表示部上における第1座標値とすると共に、この第1座標値と、前記制御値が示す表示部上における第2座標値との差が所定値以内である場合に、ユーザ自身の鏡像の手が前記操作対象映像光によって示される操作対象に触れたと判断する
    ことを特徴とする請求項1に記載のミラーシステム。
  3. 前記制御手段は、ユーザ自身の鏡像の手が前記操作対象映像光によって示される操作対象に触れたと判断した場合、予め定められた制御を実行する
    ことを特徴とする請求項1又は請求項2のいずれかに記載のミラーシステム。
  4. 前記制御手段は、表示部に向き合った状態でユーザに運動を促すエクササイズコンテンツを選択させる操作対象を表示させ、ユーザ自身の鏡像の手が前記操作対象映像光によって示される操作対象に触れたと判断した場合、エクササイズコンテンツを実行する
    ことを特徴とする請求項1から請求項3のいずれか1項に記載のミラーシステム。
  5. 前記エクササイズコンテンツは、ユーザ以外から与えられた動力によって動作する他動運動器具をユーザが使用している際に、ユーザに運動を促すコンテンツであって、
    前記制御手段は、前記エクササイズコンテンツの実行中において、前記表示部に前記操作対象映像光を投射させ、この操作対象映像光によって示される操作対象にユーザ自身の鏡像の手が触れたと判断した場合、得点を加算又は減算させる
    ことを特徴とする請求項4に記載のミラーシステム。
  6. 前記制御手段は、前記エクササイズコンテンツ実行中において、ユーザの手の位置を動かす経路を示す操作対象映像光を前記表示部に投射させ、この操作対象映像光に沿ってユーザの手が動いていると判断した場合、操作対象映像光によって示される操作対象の色を変化させる
    ことを特徴とする請求項4に記載のミラーシステム。
JP2008109490A 2008-04-18 2008-04-18 ミラーシステム Active JP4985531B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008109490A JP4985531B2 (ja) 2008-04-18 2008-04-18 ミラーシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008109490A JP4985531B2 (ja) 2008-04-18 2008-04-18 ミラーシステム

Publications (2)

Publication Number Publication Date
JP2009259117A true JP2009259117A (ja) 2009-11-05
JP4985531B2 JP4985531B2 (ja) 2012-07-25

Family

ID=41386438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008109490A Active JP4985531B2 (ja) 2008-04-18 2008-04-18 ミラーシステム

Country Status (1)

Country Link
JP (1) JP4985531B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012043540A1 (ja) * 2010-09-27 2012-04-05 パナソニック株式会社 重心移動訓練システム
JP2012070801A (ja) * 2010-09-27 2012-04-12 Panasonic Corp 重心移動訓練システム
JP2012161418A (ja) * 2011-02-04 2012-08-30 Panasonic Corp 重心移動訓練システム
JP2016139396A (ja) * 2014-08-25 2016-08-04 キヤノン株式会社 ユーザーインターフェイス装置、方法およびプログラム
WO2019172298A1 (ja) * 2018-03-06 2019-09-12 株式会社Mtg 運動ブースの設置構造および方法
JP2019150545A (ja) * 2018-03-06 2019-09-12 株式会社 Mtg 運動ブースの設置構造および方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2006004330A (ja) * 2004-06-21 2006-01-05 Nec Viewtechnology Ltd 映像表示システム
WO2006003870A1 (ja) * 2004-06-30 2006-01-12 Sony Computer Entertainment Inc. プレイヤの画像を用いてゲームキャラクタの移動を制御する情報処理装置、ゲームキャラクタ移動制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2006004330A (ja) * 2004-06-21 2006-01-05 Nec Viewtechnology Ltd 映像表示システム
WO2006003870A1 (ja) * 2004-06-30 2006-01-12 Sony Computer Entertainment Inc. プレイヤの画像を用いてゲームキャラクタの移動を制御する情報処理装置、ゲームキャラクタ移動制御方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012043540A1 (ja) * 2010-09-27 2012-04-05 パナソニック株式会社 重心移動訓練システム
JP2012070801A (ja) * 2010-09-27 2012-04-12 Panasonic Corp 重心移動訓練システム
US9202386B2 (en) 2010-09-27 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Center of gravity shifting training system
JP2012161418A (ja) * 2011-02-04 2012-08-30 Panasonic Corp 重心移動訓練システム
JP2016139396A (ja) * 2014-08-25 2016-08-04 キヤノン株式会社 ユーザーインターフェイス装置、方法およびプログラム
WO2019172298A1 (ja) * 2018-03-06 2019-09-12 株式会社Mtg 運動ブースの設置構造および方法
JP2019150545A (ja) * 2018-03-06 2019-09-12 株式会社 Mtg 運動ブースの設置構造および方法

Also Published As

Publication number Publication date
JP4985531B2 (ja) 2012-07-25

Similar Documents

Publication Publication Date Title
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US11262840B2 (en) Gaze detection in a 3D mapping environment
JP6074494B2 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
US20190379885A1 (en) Optimized object scanning using sensor fusion
US20190238755A1 (en) Method and apparatus for push interaction
CN102780893B (zh) 图像处理设备及其控制方法
JP4985531B2 (ja) ミラーシステム
WO2014016987A1 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US8113953B2 (en) Image-linked sound output method and device
JP2002351603A (ja) 携帯情報処理装置
EP2894851B1 (en) Image processing device, image processing method, program, and computer-readable storage medium
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
JP3792907B2 (ja) ハンドポインティング装置
JP4870651B2 (ja) 情報入力システムおよび情報入力方法
JP2010266510A (ja) ミラーシステム
KR102125254B1 (ko) 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
JP2007310914A (ja) マウス代替方法、マウス代替プログラム、および記録媒体
JP2006302029A (ja) 表示装置制御プログラム、表示装置制御方法、表示装置
JP2010266918A (ja) ミラーシステム
JP2018054747A (ja) 画像表示装置、画像形成装置、及びプログラム
JP6975001B2 (ja) 傾き測定装置及び傾き測定方法
CN114740966A (zh) 多模态图像显示控制方法、系统及计算机设备
US11604517B2 (en) Information processing device, information processing method for a gesture control user interface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101222

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120416

R151 Written notification of patent or utility model registration

Ref document number: 4985531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3