JP4323180B2 - 自己画像表示を用いたインタフェース方法、装置、およびプログラム - Google Patents
自己画像表示を用いたインタフェース方法、装置、およびプログラム Download PDFInfo
- Publication number
- JP4323180B2 JP4323180B2 JP2003035122A JP2003035122A JP4323180B2 JP 4323180 B2 JP4323180 B2 JP 4323180B2 JP 2003035122 A JP2003035122 A JP 2003035122A JP 2003035122 A JP2003035122 A JP 2003035122A JP 4323180 B2 JP4323180 B2 JP 4323180B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- real object
- operator
- designated
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
本発明は、カメラからの画像を入力とし、人間の動作に基づき画面上でメニューを選択するインタフェース方法および装置に関する。
【0002】
【従来の技術】
従来、コンピュータと人間とのインタフェースにおいて、カメラからの画像を入力とし、人間の動作に基づき、画面上でメニュー選択するインタフェース装置としては、キーボードやマウス等のポインティング装置を用いる装置がある。また、体にマーカーを装着しカメラからの画像情報から動きを検出する方法や、体にセンサを装着し直接その動きを検出する方法がある。さらには、体に何も装着せずに、カメラからの入力画像等の情報から人間の動きを検出する方法もある。
【0003】
このような方法を用いたインタフェース装置の第1の従来例として、現在一般のコンピュータに接続可能で市販されている装置として、キーボード、マウス、タッチパネル型のディスプレイがある。これらはいずれもユーザの手の動きを検出し、入力情報に変換するものである。
【0004】
また、第2の従来例として、モーションキャプチャシステム関連の製品で、体にマーカーを装着し画像処理によって動きを検出する装置がある。例えば、Vicon Motion Systems Ltd.社の「3次元動作解析システムVicon」(販売元:株式会社ナックイメージテクノロジー)は、体の複数の部位に球形の反射マーカーを貼付け、複数台のカメラからの入力画像から画像処理により各マーカーの3次元座標を算出する方法である。
【0005】
また、第3の従来例として、体に動作計測可能なセンサを装着し、センサ情報から動きを検出する装置、例えば、磁気センサを用いた装置(ASCENSION社の「Motion Star」等)や、機械式センサを用いた装置(スパイス社の「Gypsy」、Immersion社の「Cyber Glove」等)などがある。
【0006】
また、第4の従来例として、体に何も装着せずにカメラ入力画像のみから動きを検出する装置がある(非特許文献1)。本方法は、画像処理によりマーカーやセンサを装着することなく人物の身振り認識をする方法で、画像から人物の動作に関わる特徴の抽出を行い動作認識を行う。
【0007】
また、第5の従来例として、Vivid Group社のGesture Xtreme Software関連製品(例えばSoccer GX, Volleyball等)がある。本製品は、CG背景画像上に自己画像を重ね合わせ、画像上でCGのボール等とユーザの体との接触判定を行い、その結果に基づいてゲーム等のCGソフトとユーザとのインタフェースを実現している。
【0008】
また、第6の従来例として、非特許文献2に記載の方法がある。本方法は、自画像上にCGのアイコンを表示させ、カメラに向かって行った動作に基づき希望のアイコンを選択(実行)するものである。
【0009】
【非特許文献1】
桐島ら、“注視点の学習と選択制御による身振りの実時間画像認識”、 PRMU2001-203, 2002.1
【非特許文献2】
佐木ら、“パソコン映像入力を用いたアクション・インタフェースの試み”、第12回ヒューマン・インタフェース・シンポジウム論文集、pp.21-218, 1996.
【0010】
【発明が解決しようとする課題】
しかしながら、上述した従来の方法では、以下に示す問題があった。
【0011】
第1の従来例は、操作者(ユーザ)の手の動きを検出する際に装置に接触する必要があることと、装置を利用するための固定し限定された場所が必要であることのため、接触型であることと、任意の場所での動作検出を行うことが困難であることである。
【0012】
第2、第3の従来例は、非接触型でありカメラ画像に写る範囲の任意の場所での動作を検出できるが、体の部位に常に何らかのマーカーまたはセンサを装着する必要があるため、家庭や職場等の通常生活におけるインタフェース装置としての利便性に欠ける。
【0013】
第4の従来例は、体に何も装着せずに動きを検出できるが、ユーザの動きが認識されているかどうか、目視で確認できないため、ユーザの利便性に欠ける。
【0014】
第5の従来例では、自画像を見ながら同じディスプレイに表示されたCGに体が触れることでユーザの位置を検出できるが、ユーザの体全体で接触判定を行うので、手指以外の部分(頭、腰、足等)がアイコン(接触すべきCG)に触っても区別なく接触とみなされることから、誤認識する可能性が高いため、認識精度が低い。また、ユーザの背後にアイコン(接触すべきCG)を置くことができないことから、インタフェース用のアイコンを任意の位置に置けないため、アイコン位置およびユーザ動作の自由度に制限がある。
【0015】
第5、第6の従来例は、自画像を見ながら同じディスプレイに表示されたCGの手指等を触れる(重ねる)ことでユーザの動きを検出できるが、背景に写っている実空間上の物体を指示することはできないため、応用範囲に制限がある。
【0016】
本発明の目的は、接触型である問題、任意の場所での動作検出を行うことが困難である問題、インタフェース装置としての利便性に欠ける問題を解決したインタフェース方法および装置を提供することにある。
【0017】
本発明の他の目的は、アイコン位置およびユーザの動作の自由度に制限がなく、かつ応用範囲に制限のないインタフェース方法および装置を提供することにある。
【0018】
【課題を解決するための手段】
上記目的を達成するために、本発明のインタフェース装置は、
操作者を含む画像(自己画像)を撮影する画像入力手段と、
入力された画像を左右反転した反転画像を生成する手段と、
該反転画像上で、操作者の指定する位置を、画像上の色情報から検出する指示位置検出手段と、
該反転画像上で、操作者の指定するコマンドを選択する手段と、
該指定された位置とコマンドに基づき該反転画像上に情報を表示する手段とを有し、
前記コマンドを選択する手段は、
該反転画像上に表示された実空間が撮影された画像中において、前記情報を表示する手段にて表示しうる情報を付与すべき実物体の位置を検出し、
該実物体の反転画像上の位置を実物体位置データとして保持し、
前記指示位置検出手段が検出した操作者の指定する位置と、前記実物体位置データとして保持されている実物体の位置とを照合することにより、操作者が指定する該反転画像上の実物体を検出するものである。
【0019】
そのため、ユーザが装置と非接触で指定するコマンドを選択でき、画像上に表示されたCGだけでなく実空間を撮影した画像中の実物体を指定することができるので、前記課題を解決できる。
【0020】
また、本発明の実施様態では、コマンドを選択する手段は、反転画像上に表示された実空間が撮影された画像中において、前記情報を表示する手段にて表示しうる情報を付与すべき実物体の位置を、実空間での位置取得可能なセンサにより検出している。
【0021】
そのため、ユーザが装置と非接触で指定するコマンドを選択でき、画像上に表示されたCGだけでなく実空間を撮影した画像中の実物体を指定することができるので、前記課題を解決できる。
【0022】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0023】
図1を参照すると、本発明の第1の実施形態のインタフェース装置は、操作者(ユーザ)を含む画像(自己画像)を入力画像とし、ユーザが自己画像を自分で見ながら、ユーザの動作に基づき、画像上でコマンド選択を実行するもので、画像入力部11と反転画像生成部12と指示位置検出部13と情報表示部14とコマンド選択部15で構成される。
【0024】
画像入力部11としては、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。ただし下記で述べる色情報を使用した方法を用いる場合はカラーカメラが必要である。
【0025】
反転画像生成部12は、画像入力部11で入力された画像(入力画像)を入力し、左右反転させた画像(反転画像)を生成する(ステップ21)。コンピュータ内へ取り込んだ入力画像に対し汎用の画像処理ソフトウェア(例:HALCON)により、リアルタイムに反転画像を生成することができる。または、入力画像を入力し反転画像をリアルタイムに生成する機器(例:(株)朋栄の画面左右反転装置UPI―100LRF、またはカメラ一体型でSONYのEVY―D100)で実現できる。
【0026】
指示位置検出部13は、反転画像生成部12で得られた該反転画像上において、ユーザが手指等の体の部位で指し示す位置(ユーザ指示位置)を検出する(ステップ22)。
【0027】
指示位置検出部13の1つ目の例として、ユーザがマーカを持ち、反転画像中のマーカーを画像処理により検出する方法がある。例えば、まず、赤色(他の色でもよいが、背景画像中に少ない色が好ましい)の物体を手に持ちもしくは装着し、それをカメラ11の前で手振りして動かす。得られたカラー画像のRGB等の色情報の値から赤色成分を抽出し(ステップ21)、ラベリング処理(固まり毎にグループに分ける一般的な画像処理方法)を行い(ステップ22)、その中で最も面積の大きい赤色部分を1つ選び(ステップ23)、その位置の重心位置(x, y)を求め、得られた(x, y)座標をユーザ指示位置とする(ステップ24)。ここで、赤色の物体の代わりに、赤色(前記物体同様、他の色でもよい)の発光ダイオード(LED)を発光させた状態で、手に持ちもしくは装着し、当該色を抽出して同様に行う方法も可能である。(x, y)は重心位置(抽出した部分の全画素値のx座標の合計値の平均値、およびy座標の合計値の平均値)でなく、中心位置(抽出した部分のx座標の最大値と最小値の中心値、およびy座標の最大値と最小値の中心値)でもよい。
【0028】
指示位置検出部13の2つ目の例として、ユーザがマーカを持たずに、反転画像中の手の位置を画像処理により直接検出する方法がある。例えば、まず、得られたカラー画像のRGB等色情報の値から肌色成分を抽出し(ステップ31)、ラベリング処理を行う(ステップ32)。得られた複数の肌色部分の中から、手の大きさや位置等の制約情報を利用して、目的とする手を選択する。その選択する具体的な方法としては、通常ユーザが衣服を着ているとすると、肌色部分の候補となる可能性が高いのは両手と顔と考えられ、また最も面積の大きいのは顔と考えられるので、2つ目と3つ目の面積が大きい肌色部分を手の候補として選択する(ステップ33)。ユーザ指定位置が両手両方とした場合、その2つの肌色部分の候補に対する重心位置を、各々左右の手のユーザ指定位置とすればよい。また、ユーザ指定位置を1つとすると、2つの候補から1つ選ぶ必要があるが、予め例えば右手を指定する手としたら、体より右手側にある候補を(右手の可能性が高いことから)右手の肌色部分として選び、その重心位置を右手のユーザ指定位置とすればよい(ステップ34)。左手の場合も同様である。
【0029】
指示位置検出部13のこれらの例では、前述した検出処理をする前に、差分画像を用いた処理を加えることにより、精度を上げることもできる。差分画像を用いた処理とは、例えば、反転画像上で、予め撮影した背景画像(ユーザのいない状態で撮影した画像)と、現在撮影している現画像(ユーザがいる状態の画像)との間で差分画像を作成する。差分画像とは、例えば、全画素について、画素毎に背景画像の画素値と(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。この差分画像を用いることにより、予め体等の動く物体だけを抽出しておき、その後前述したような画像処理(例えば、体に付けたマーカを抽出する方法や、肌色を抽出する方法等)によりユーザ指定位置を検出しその座標を取得すれば、背景画像に含まれるマーカの色や肌色に似た色の誤検出を減らせることが容易に推測できる。
【0030】
このような指示位置検出部13により、コマンド選択のために、体全体を対象とせず、マーカや手のみを接触判定部位に用いることができるので、コマンド選択のためのアイコン等を任意の位置におけるその位置およびユーザ動作に関して高い自由度が得られる。
【0031】
コマンド選択部14は、指示位置検出部13で得られたユーザ指示位置と、情報表示部15で表示される複数のコマンド情報の表示位置を照らし合わせ、両者の位置関係からユーザが指示しようとするコマンド情報を探索し選択する(ステップ23)。例えば、ユーザ指示位置からある一定の距離範囲に表示されたコマンドがあればそれを選択すればよい。指示位置検出部13では、体全体で接触判定を行わずユーザの希望する体の部位で接触判定を行うので、情報表示部15で表示するコマンド情報の表示位置は、ユーザの体の部位で接触判定を行わない部位の後ろに隠れてもかまわないため、コマンド情報の表示位置も、ユーザ自身の位置も画面上で任意の位置に配置することができる。
【0032】
情報表示部15は、反転画像生成部12で得られた反転画像と、コマンド選択部14で選択されたコマンド情報とを重ね合わせてディスプレイに表示する(ステップ24)。ディスプレイは、コンピュータ用に使われる汎用のディスプレイでよく、コンピュータの画面とカメラ画像を表示できるものであればよい。コマンド情報としては、コンピュータで作成したCGで選択可能なコマンドを各々表示すればよい。
【0033】
ユーザは、自己画像が映った画面を見ながら、同じ画面上にCG表示されているコマンド情報に手指等を重ね合わせるだけでコマンド選択が可能であるため、わかりやすく間違いの少ない指示が可能になる。
【0034】
図4を参照すると、本発明の第2の実施形態のインタフェース装置は、操作者(ユーザ)を含む画像(自己画像)を入力画像とし、ユーザが自己画像を自分で見ながら、ユーザの動作に基づき、画像上に含まれる実空間中の実物体を選択するもので、画像入力部11と反転画像生成部12と指示位置検出部13と実物体検出部16と実物体登録部19と情報表示部15で構成される。
【0035】
本実施形態では第1の実施形態で示したコマンド選択部14に、実物体の検出ができる仕組みを装備する。具体的には、第1の実施形態のコマンド選択部14を実物体検出部16と実物体登録部19で構成する。実物体登録部19は実物体登録処理部17と実物体位置データ18で構成される。他の画像入力部11、反転画像生成部12、指示位置検出部13、情報表示部15は、第1の実施形態と同様である。
【0036】
実物体登録処理部17は、反転画像上に含まれている任意の実物体(例えば家の中とすると、テレビ、エアコン、コンピュータ、時計、窓、棚、椅子、机、引出し、書類、オーディオ機器、照明機器等)について、予め、該反転画像上での表示位置を各々求め、実物体位置データ18へ各々登録・保存する(ステップ25)。もしくは、予め固定の位置を求めておくのではなく、対象とする実物体毎に位置認識可能なセンサ(市販されている磁気センサや超音波センサ等)と取り付けておくことにより、各々の物体の位置をリアルタイムに認識することができるので、それらにより得られた位置情報から該実物体位置データを算出し、常時実物体位置データを更新していくことも可能である。この場合、物体を移動させてもその位置も移動させることができる。
【0037】
実物体位置データ18は、物体の中心座標(x, y)1個でもよいが、範囲を示す情報(例えば、矩形枠の始点座標(x1, y1)と終点座標(x2, y2)や、中心座標(x, y)と半径値rや、または物体の存在する全ドットの座標リスト等)を持たせておいてもよい。第1の実施形態の指示位置検出部13の処理と同様に中心座標は重心座標でもよい。
【0038】
実物体検出部19は、実物体位置データ18に保存されている複数の位置データと、指示位置検出部13で得られたユーザ指示位置とを照らし合わせ、第1の実施形態のコマンド選択部14と同様に、両者の位置関係に基づきユーザが指示しようとする実物体を検出し、選択する(ステップ26)。例えば、ユーザ指示位置からある一定の距離範囲に実物体の位置データがあればそれを選択すればよい。または、実物体位置データとして範囲を持たせておいた場合は、ユーザ指示位置の座標がその範囲に含まれる実物体を検出し選択する。
【0039】
図6に本実施形態によるインタフェース動作の例を示す。
【0040】
ユーザが見ている自己画像上に映っている実物体について、予め表示位置を求め、各々実物体位置データ18へ登録しておく(前述したように位置認識センサ等を用いた場合は自動的に実物体位置を検出し物体位置データ18へ登録更新させることもできる)。ユーザが指示動作をしていないときは何も反応しないが、ユーザがアクセスしたい実物体に手(やマーカ)等を重ねる動作を行い、実物体検出部16で実物体を検出したと判定したとき、検出された実物体の位置が明示される。その明示の仕方は、図のように、例えば実物体と同じ形もしくはほぼ同じ大きさのアイコン(必要に応じ色を変えたものや半透明もしくは透明にしたものや点滅させたもの等)を該実物体の上に重ねて表示する方法や、実物体の中心付近や実物体周囲にCGによるマーカ(必要に応じ色を変えたものや半透明もしくは透明にしたものや点滅させたもの等)を表示する方法など容易に考えられる。すなわち、実際は実物体位置上の仮想のアイコン、もしくは表示した(透明や半透明もしくはその他の色の)CGアイコンを触ることとなる。また、検出された実物体の周囲等に、関連する情報(名称や状態等)を表示してもよい。さらに、図のように、検出された実物体の位置の周囲等に、その後続けて選択すべきメニューリストをCG表示し、ユーザはそのメニューリストから同様の選択方法(すなわち手などを選択したいメニューアイコンに重ね合わせて選択する方法)等によりメニューを選択し実行することも可能である。
【0041】
これにより、ユーザは、画像上に表示されたCGアイコンを指定してコマンド選択できるだけでなく、実空間画像中の実物体を直接選択することも可能となる。第1の実施形態のようにCGコマンド選択と組み合わせれば、例えば、テレビ等を指し示して選択すると、テレビのスイッチやチャンネル等を制御するコマンド選択のためのCGメニューが該実物体(テレビ)の周辺に表示され、ユーザは続けてコマンド選択を行い、テレビ等を制御することが可能である。
【0042】
また、図6ではユーザが指示動作をしていないときは何も反応していないが、例えば、図7のように、実物体側でユーザに提示すべき情報が獲得していた場合、自己画像上の該実物体上または周囲に該情報を表示したり、もしくはアイコン(色を変えたものや半透明にしたものや点滅させたもの等)を該実物体上に重ねたりして明示し、見ているユーザに知らせるようにすることも考えられる。その後は前述と同様に、ユーザが該実物体を選択すると、必要な情報やメニューリストが表示される。
【0043】
なお、本発明は専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フロッピーディスク、光磁気ディスク、CD―ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。
【0044】
【発明の効果】
請求項1、3、5の発明によれば、ユーザは何も装着せずに、また直接何も触れずに、ユーザが指令するコマンドを選択できるため、非接触で、かつ任意の場所での動作検出を行うことが可能である。また、ユーザが自己画像上において、自分の体の任意の部位(手指等)を直接見ながら、該画像上に表示されたコマンドを選択できるため、ユーザにとって直感的なインタフェース装置を実現でき、利便性が向上する。
【0045】
請求項2、4、5の発明によれば、画像上に表示されたCGだけでなく実空間を撮影した画像中の実物体を指定することができるため、CGによるコマンド選択だけでなく、実物体の直接選択すること可能であり、応用範囲を拡大することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態のインタフェース装置のブロック図である。
【図2】第1の実施形態の全体の処理の流れを示すフローチャートである。
【図3】指定位置検出部13の処理の流れを示すフローチャートである。
【図4】本発明の第2の実施形態のインタフェース装置のブロック図である。
【図5】第2の実施形態の処理の流れを示すフローチャートである。
【図6】第2の実施形態におけるインタフェース動作の例を説明する図である。
【図7】第2の実施形態における実物体の情報表示の例を説明する図である。
【符号の説明】
11 画像入力部
12 反転画像生成部
13 指示位置検出部
14 コマンド選択部
15 情報表示部
16 実物体検出部
17 実物体登録処理部
18 実物体位置データ
19 実物体登録部
21〜26、31〜34 ステップ
Claims (5)
- カメラからの画像を入力し、操作者の動作を認識するインタフェース方法であって、
操作者を含む画像を撮影する画像入力ステップと、
入力された画像を左右反転した反転画像を生成するステップと、
該反転画像上で、操作者の指定する位置を、画像上の色情報から検出する指示位置検出ステップと、
該反転画像上で、操作者の指定するコマンドを選択するステップと、
該指定された位置とコマンドに基づき該反転画像上に情報を表示するステップと
を有し、
前記コマンドを選択するステップは、
該反転画像上に表示された実空間が撮影された画像中において、前記情報を表示するステップにて表示しうる情報を付与すべき実物体の位置を検出し、
該実物体の反転画像上の位置を実物体位置データとして保持し、
前記指示位置検出ステップが検出した操作者の指定する位置と、前記実物体位置データとして保持されている実物体の位置とを照合することにより、操作者が指定する該反転画像上の実物体を検出する
ことを特徴とするインタフェース方法。 - 前記コマンドを選択するステップは、
該反転画像上に表示された実空間が撮影された画像中において、前記情報を表示するステップにて表示しうる情報を付与すべき実物体の位置を、実空間での位置取得可能なセンサにより検出し、
該実物体の反転画像上の位置を実物体位置データとして保持し、
前記指示位置検出ステップが検出した操作者の指定する位置と、前記実物体位置データとして保持されている実物体の位置とを照合することにより、操作者が指定する該反転画像上の実物体を検出する
ことを特徴とする請求項1記載のインタフェース方法。 - カメラからの画像を入力し、操作者の動作を認識するインタフェース装置であって、
操作者を含む画像を撮影する画像入力手段と、
入力された画像を左右反転した反転画像を生成する手段と、
該反転画像上で、操作者の指定する位置を、画像上の色情報から検出する指示位置検出手段と、
該反転画像上で、操作者の指定するコマンドを選択する手段と、
該指定された位置とコマンドに基づき該反転画像上に情報を表示する手段と
を有し、
前記コマンドを選択する手段は、
該反転画像上に表示された実空間が撮影された画像中において、前記情報を表示する手段にて表示しうる情報を付与すべき実物体の位置を検出し、
該実物体の反転画像上の位置を実物体位置データとして保持し、
前記指示位置検出手段が検出した操作者の指定する位置と、前記実物体位置データとして保持されている実物体の位置とを照合することにより、操作者が指定する該反転画像上の実物体を検出する
ことを特徴とするインタフェース装置。 - 前記コマンドを選択する手段は、
該反転画像上に表示された実空間が撮影された画像中において、前記情報を表示する手段にて表示しうる情報を付与すべき実物体の位置を、実空間での位置取得可能なセンサにより検出し、
該実物体の反転画像上の位置を実物体位置データとして保持し、
前記指示位置検出手段が検出した操作者の指定する位置と、前記実物体位置データとして保持されている実物体の位置とを照合することにより、操作者が指定する該反転画像上の実物体を検出する
ことを特徴とする請求項3記載のインタフェース方法。 - 請求項1または2に記載のインタフェース方法をコンピュータに実行させるためのインタフェースプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003035122A JP4323180B2 (ja) | 2003-02-13 | 2003-02-13 | 自己画像表示を用いたインタフェース方法、装置、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003035122A JP4323180B2 (ja) | 2003-02-13 | 2003-02-13 | 自己画像表示を用いたインタフェース方法、装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004246578A JP2004246578A (ja) | 2004-09-02 |
JP4323180B2 true JP4323180B2 (ja) | 2009-09-02 |
Family
ID=33020633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003035122A Expired - Lifetime JP4323180B2 (ja) | 2003-02-13 | 2003-02-13 | 自己画像表示を用いたインタフェース方法、装置、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4323180B2 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4035610B2 (ja) * | 2002-12-18 | 2008-01-23 | 独立行政法人産業技術総合研究所 | インタフェース装置 |
JP4419768B2 (ja) | 2004-09-21 | 2010-02-24 | 日本ビクター株式会社 | 電子機器の制御装置 |
JP4555701B2 (ja) * | 2005-02-14 | 2010-10-06 | 日本電信電話株式会社 | 情報処理方法、インタフェース装置、プログラム、および記録媒体 |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US7679689B2 (en) | 2005-05-16 | 2010-03-16 | Victor Company Of Japan, Limited | Electronic appliance |
CN100444612C (zh) * | 2005-12-14 | 2008-12-17 | 日本胜利株式会社 | 电子设备 |
JP4650381B2 (ja) * | 2006-09-08 | 2011-03-16 | 日本ビクター株式会社 | 電子機器 |
CN101636745A (zh) | 2006-12-29 | 2010-01-27 | 格斯图尔泰克股份有限公司 | 使用增强型交互系统操纵虚拟对象 |
KR101141087B1 (ko) * | 2007-09-14 | 2012-07-12 | 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 | 제스처-기반 사용자 상호작용의 프로세싱 |
JP4636064B2 (ja) | 2007-09-18 | 2011-02-23 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
JP4985531B2 (ja) * | 2008-04-18 | 2012-07-25 | パナソニック株式会社 | ミラーシステム |
JP2009277195A (ja) * | 2008-04-18 | 2009-11-26 | Panasonic Electric Works Co Ltd | 情報表示システム |
US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
JP2010176510A (ja) * | 2009-01-30 | 2010-08-12 | Sanyo Electric Co Ltd | 情報表示装置 |
US8181123B2 (en) * | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
JP5381569B2 (ja) * | 2009-09-29 | 2014-01-08 | 富士通株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム |
JP5743416B2 (ja) * | 2010-03-29 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP5399987B2 (ja) * | 2010-06-24 | 2014-01-29 | パナソニック株式会社 | 加重訓練システム |
JP5552010B2 (ja) * | 2010-09-22 | 2014-07-16 | パナソニック株式会社 | 可動域訓練システム |
JP5928676B2 (ja) * | 2011-03-22 | 2016-06-01 | 長崎県公立大学法人 | 作業療法訓練支援装置 |
JP2013224204A (ja) * | 2012-04-23 | 2013-10-31 | Toshiba Elevator Co Ltd | 乗りかご |
US9325943B2 (en) * | 2013-02-20 | 2016-04-26 | Microsoft Technology Licensing, Llc | Providing a tele-immersive experience using a mirror metaphor |
JP6210694B2 (ja) * | 2013-02-22 | 2017-10-11 | 株式会社吉田製作所 | 業務支援システム |
JP2015191480A (ja) * | 2014-03-28 | 2015-11-02 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、オブジェクトの操作方法、及びオブジェクトの操作プログラム |
US10080963B2 (en) | 2014-03-28 | 2018-09-25 | Sony Interactive Entertainment Inc. | Object manipulation method, object manipulation program, and information processing apparatus |
JP7504839B2 (ja) * | 2021-06-30 | 2024-06-24 | 賢一 丹羽 | ユーザインターフェースシステム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04123121A (ja) * | 1990-09-13 | 1992-04-23 | Sony Corp | 画像入力装置 |
JPH07175587A (ja) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | 情報処理装置 |
JP3725460B2 (ja) * | 2000-10-06 | 2005-12-14 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
-
2003
- 2003-02-13 JP JP2003035122A patent/JP4323180B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004246578A (ja) | 2004-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4323180B2 (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
US20220382379A1 (en) | Touch Free User Interface | |
US10761612B2 (en) | Gesture recognition techniques | |
US8666115B2 (en) | Computer vision gesture based control of a device | |
CN107077169B (zh) | 扩增现实中的空间交互 | |
Shen et al. | Vision-based hand interaction in augmented reality environment | |
CN107665042B (zh) | 增强的虚拟触摸板和触摸屏 | |
CN103809733B (zh) | 人机交互系统和方法 | |
TWI524210B (zh) | 基於自然姿勢之使用者介面方法及系統 | |
US20180292907A1 (en) | Gesture control system and method for smart home | |
JP2013037675A (ja) | 近距離動作のトラッキングのシステムおよび方法 | |
KR20130105725A (ko) | 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전 | |
US20140053115A1 (en) | Computer vision gesture based control of a device | |
JPH0844490A (ja) | インターフェイス装置 | |
JP2004258766A (ja) | 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム | |
Geer | Will gesture recognition technology point the way? | |
JP2005063225A (ja) | 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム | |
JP6834197B2 (ja) | 情報処理装置、表示システム、プログラム | |
CN109144235A (zh) | 基于头手协同动作的人机交互方法与系统 | |
Ntelidakis et al. | Touch detection for planar interactive displays based on lateral depth views | |
CN118689350A (zh) | 用于对象跟踪的系统、方法和用户界面 | |
Forutanpour et al. | ProJest: Enabling Higher Levels of Collaboration Using Today’s Mobile Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050125 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060809 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070323 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070404 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070622 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090604 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4323180 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120612 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130612 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140612 Year of fee payment: 5 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |