JP2008040576A - 画像処理システム及び該システムを備えた映像表示装置 - Google Patents
画像処理システム及び該システムを備えた映像表示装置 Download PDFInfo
- Publication number
- JP2008040576A JP2008040576A JP2006210496A JP2006210496A JP2008040576A JP 2008040576 A JP2008040576 A JP 2008040576A JP 2006210496 A JP2006210496 A JP 2006210496A JP 2006210496 A JP2006210496 A JP 2006210496A JP 2008040576 A JP2008040576 A JP 2008040576A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- image
- image processing
- processing system
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ユーザが理解しやすい動作で複雑なコマンドを容易に実行できるようにする。
【解決手段】3Dデータ保持部5には、人間の手が取りうる多数の形状パターンが3Dデータとして保持される。画像処理部3は、人間の手が撮像部2により撮像されたときに、その手を認識し、3Dデータ保持部5に保持している3Dデータを用いて、形状パターンや手の位置情報を得る。また画像処理部3では、画像表示部1に対して、人間の視線により認識される形状の手の画像をカーソルとして表示させる。また画像表示部1では、カーソルの操作対象の画面を表示する。インターフェース処理部4では、画像処理部3で処理された手の画像の形状パターンや位置情報を使用して、予め用意されているコマンドを特定し実行する。例えば、ユーザが対象を掴んで移動させるような動作を行った場合、画像表示部1に表示させているアイコンを移動させるようなコマンドを出力する。
【選択図】図1
【解決手段】3Dデータ保持部5には、人間の手が取りうる多数の形状パターンが3Dデータとして保持される。画像処理部3は、人間の手が撮像部2により撮像されたときに、その手を認識し、3Dデータ保持部5に保持している3Dデータを用いて、形状パターンや手の位置情報を得る。また画像処理部3では、画像表示部1に対して、人間の視線により認識される形状の手の画像をカーソルとして表示させる。また画像表示部1では、カーソルの操作対象の画面を表示する。インターフェース処理部4では、画像処理部3で処理された手の画像の形状パターンや位置情報を使用して、予め用意されているコマンドを特定し実行する。例えば、ユーザが対象を掴んで移動させるような動作を行った場合、画像表示部1に表示させているアイコンを移動させるようなコマンドを出力する。
【選択図】図1
Description
本発明は、画像処理システム及び該システムを備えた映像表示装置に関し、より詳細には、撮像画像の画像処理技術によって、自然な人間の動作で三次元操作可能なインターフェースを実現する画像処理システムと、その画像処理システムを備えた映像表示装置に関する。
機器に接触することなく、手または指の動作のみにより、コンピュータ等に対して情報を入力するハンドポインティング式の入力装置に関する技術が開示されている。
例えば特許文献1には、所定の情報を表示するディスプレイと、ディスプレイに対して指し示された入力者の手または指を撮像する複数の撮像手段と、これらの撮像手段に撮像された映像を基に、ディスプレイに対して手または指が指し示す方向を算出する方向算出手段と、方向算出手段で算出された方向に対応するディスプレイ上の位置を、カーソルによりディスプレイ上に表示する位置表示手段と、手または指のクリック動作を検出するクリック動作検出手段と、クリック動作検出手段によりクリック動作が検出された時にカーソルが位置する部分の情報を入力者が指示した情報として選択する選択手段とを備えた、ハンドポインティング式入力装置が開示されている。
特開平4−133452号公報
例えば特許文献1には、所定の情報を表示するディスプレイと、ディスプレイに対して指し示された入力者の手または指を撮像する複数の撮像手段と、これらの撮像手段に撮像された映像を基に、ディスプレイに対して手または指が指し示す方向を算出する方向算出手段と、方向算出手段で算出された方向に対応するディスプレイ上の位置を、カーソルによりディスプレイ上に表示する位置表示手段と、手または指のクリック動作を検出するクリック動作検出手段と、クリック動作検出手段によりクリック動作が検出された時にカーソルが位置する部分の情報を入力者が指示した情報として選択する選択手段とを備えた、ハンドポインティング式入力装置が開示されている。
手や指の動作によって、コンピュータ等に対して情報を入力する場合、例えば、対象を掴む、放す、持ちながら移動する、押す、押しながら移動する、などの動作を入力することが考えられる。このような入力は、例えばディスプレイに表示されたフォルダを掴んで移動させる、等の動作に適用することができる。この場合、手や指による自然な動作を入力することによって、対象を掴んだり、放したりするコマンドを実行させることができれば、操作性が向上して、大きな利便性を付与することができる。
例えばマウスなどの従来一般的なインターフェースでは、手を動かす動作に加え、フォルダを掴むためにボタンクリックの動作が必要となり、手を使った動作とは異なることに加え、複数のセンサを持つ専用の機器が必要であった。
また従来の技術により、映像の拡大縮小や、ディスプレイ上のブラウザ、あるいは図表の前面への移動などの複雑なコマンドを実行する際には、操作する対象を選択した後、クリックを行い、その後複数の選択肢から希望する項目を選択する、などの複数の動作が必要であり、人間の感覚に即した動作でコマンド処理を実行させることができなかった。
また上記特許文献1の技術は、手または指がディスプレイを指し示す方向及び位置を検出することができるが、平面内の2次元的な動きによる操作しか行うことができず、また入力可能な動作はクリックに限られていた。
本発明は、上述のごとき実情に鑑みてなされたもので、人間が通常行っている3次元空間内の動作に応じたコマンドを出力し、またその動作の状態を視覚的に確認できるようにすることで、ユーザが理解しやすい動作で複雑なコマンドを容易に実行できるようにした画像処理システムと、該画像処理システムを備えた映像表示装置とを提供することを目的とするものである。
上記課題を解決するために、第1の技術手段は、一つのカメラを備える撮像手段と、人間の手の形状パターンを記憶する形状パターン記憶部とを有し、撮像手段が撮像した撮像画像に基づいて、撮像された手に該当する形状パターンを抽出し、抽出した形状パターンに従う特定のコマンドを出力することを特徴としたものである。
第2の技術手段は、第1の技術手段において、撮像手段が連続して撮像を行ったときに、3次元空間内で手が移動するときのベクトル情報を生成し、ベクトル情報と、形状パターン情報の変化とに基づいて、特定のコマンドを出力することを特徴としたものである。
第3の技術手段は、第2の技術手段において、形状パターン記憶部が、人間の手の形状パターンとともに、各形状パターンの基準位置情報と基準大きさレベル情報とを記憶し、画像処理システムは、基準位置情報と基準大きさレベル情報に基づいて、基準位置に対する手の3次元の移動レベル情報を生成し、移動レベル情報からベクトル情報を生成することを特徴としたものである。
第4の技術手段は、第3の技術手段において、手を撮像した撮像画像に基づいて、手の形状を示すカーソルを所定のディスプレイに表示させ、ディスプレイに表示させた画像に対して、コマンドによる所定処理を実行させることを特徴としたものである。
第5の技術手段は、第4の技術手段において、コマンドによる所定処理が、手の3次元空間内での移動動作に応じて、画像に表示させた操作対象を、画面内で3次元的に移動させる処理を含むことを特徴としたものである。
第6の技術手段は、第4または第5の技術手段において、基準位置に対する手の3次元の移動レベル情報に基づいて、カーソルの表示位置及び表示する大きさを変化させることを特徴としたものである。
第7の技術手段は、第4ないし第6のいずれか1の技術手段において、形状パターン記憶部が、複数の形状パターンのそれぞれについて、視点方向が異なる複数の画像データを保持し、手を撮像した撮像画像に基づいて抽出した形状パターンについて、ユーザの視点として判断される方向から見た画像データをディスプレイに表示させることを特徴としたものである。
第8の技術手段は、ディスプレイを備えた映像表示装置であって、映像表示装置が、請求項1ないし7のいずれか1に記載の画像処理システムを備え、ディスプレイに表示した画像に対して画像処理システムで出力されたコマンドによって所定の処理を行うことができるようにしたことを特徴としたものである。
本発明によれば、人間が通常行っている3次元空間内の動作に応じたコマンドを出力し、またその動作の状態を視覚的に確認できるようにすることで、ユーザが理解しやすい動作で複雑なコマンドを容易に実行できるようにした画像処理システム及び映像表示装置を提供することができる。
例えば従来の技術ではマウスなどのポインタを表示するだけであったが、本発明によれば、撮像画像の処理技術を加えることでディスプレイに手の形状を表示させることができ、ユーザは、視覚的に自分の操作の様子がわかるため、操作性を向上させることができる。
また手の動作を撮像した画像を処理することで3次元空間における手の方向、位置、形状を検出することにより、3次元空間における動作に応じたコマンドの実行が可能になり、例えば、映像の拡大縮小や、ディスプレイ上のブラウザや図表の前面への移動などを、通常の人間の動作に応じた形態で実行できるようになる。
また本発明では、単一の撮像機器を用いて撮像した画像を処理することにより、人間の手の動作を認識することができるため、従来のような複数の撮像機器を必要とせず、システムを簡略化することができる。
さらに従来では、複雑な操作をするためにマウスなどの複数のセンサを持つインターフェースを必要としたが、本発明によれば、手の動きを撮像する撮像機器を使用することで、ユーザ操作のために専用の機器を持つ必要がなくなる。
さらに従来では、複雑な操作をするためにマウスなどの複数のセンサを持つインターフェースを必要としたが、本発明によれば、手の動きを撮像する撮像機器を使用することで、ユーザ操作のために専用の機器を持つ必要がなくなる。
図1は、本発明による画像処理システムの構成例を説明するためのブロック図である。
画像処理システムの実施形態は、人間が通常行っている3次元空間内の手の動作に応じて情報を入力することが可能で、またその動作の状態を視覚的に確認できるようにしている。
撮像部2は、画像表示部前方を撮像する固定カメラで、一台のカメラによって構成されている。3Dデータ保持部5には、人間の手が取りうる多数の形状パターンが予め保持され、さらに各形状パターン毎に、他の方向から見たときの手の形状パターンが3Dデータとして保持される。
画像処理システムの実施形態は、人間が通常行っている3次元空間内の手の動作に応じて情報を入力することが可能で、またその動作の状態を視覚的に確認できるようにしている。
撮像部2は、画像表示部前方を撮像する固定カメラで、一台のカメラによって構成されている。3Dデータ保持部5には、人間の手が取りうる多数の形状パターンが予め保持され、さらに各形状パターン毎に、他の方向から見たときの手の形状パターンが3Dデータとして保持される。
画像処理部3は、撮像部2が撮像した撮像画像を画像処理する。例えば、情報入力を行うための人間の手が撮像されたときに、その手を認識し、3Dデータ保持部5に保持している3Dデータを用いて、形状パターンや手の位置情報を得る。また画像処理部3では、画像表示部1に対して、人間の視線により認識される形状の手の画像をカーソルとして表示させることができる。また画像表示部1では、所定の入力映像信号を画像表示する。例えば、カーソルの操作対象の画面を表示することができる。
インターフェース処理部4では、画像処理部3で処理された手の画像の形状パターンや位置情報を使用して、予め用意されているコマンドを特定し、そのコマンドを実行する。コマンドは、手の動きや位置の変化の仕方に応じて予め設定されている。例えば、ユーザが対象を掴んで移動させるような動作を行った場合、画像表示部1に表示させているアイコンを移動させるようなコマンドを出力する。
また画像処理部3では、撮像部2で撮像されたユーザの手の画像に従って、ユーザの視線に合った手の画像を画像表示部1に表示させることができる。例えば、撮像部2によって手の裏側を撮像した場合でも、3Dデータ保持部5の保持データを用いて手の表側の画像を表示させるようにする。また撮像部2に手が近づくように移動した場合でも、手の大きさが小さくなっていくような表示を行わせることができる。
このような構成により、ユーザは、画像表示部1の画像を見ながら、撮像部2の前で手の動作を行うことにより、複雑な入力を容易に実行することができるようになる。
このような構成により、ユーザは、画像表示部1の画像を見ながら、撮像部2の前で手の動作を行うことにより、複雑な入力を容易に実行することができるようになる。
コマンドの設定においては、予め手の3D映像を作成しておき、手の動きの動画パターンを複数設定して記録保持しておく。そしてそれぞれの動画パターンに対して、任意の特定のコマンドを設定しておく。
そして、撮像部2が実際に手の動作を撮像したときに、画像処理部3では、その撮像画像の動画パターンから対応する動作コマンドを特定し、その動作コマンドと、手の位置情報、及び手の動きに関するベクトル情報をインターフェース処理部4に出力する。インターフェース処理部4では、例えば、出力された動作コマンドや位置,ベクトル情報に基づいて、画像表示部1のブラウザや図表、アイコンの位置などのデータを用いて、ブラウザやアイコンの移動などの操作を行い、画像表示部1の表示を変更させる。
そして、撮像部2が実際に手の動作を撮像したときに、画像処理部3では、その撮像画像の動画パターンから対応する動作コマンドを特定し、その動作コマンドと、手の位置情報、及び手の動きに関するベクトル情報をインターフェース処理部4に出力する。インターフェース処理部4では、例えば、出力された動作コマンドや位置,ベクトル情報に基づいて、画像表示部1のブラウザや図表、アイコンの位置などのデータを用いて、ブラウザやアイコンの移動などの操作を行い、画像表示部1の表示を変更させる。
上記のような動作パターンに設定するコマンドとしては、例えば上記のように、人間の手が掴んで移動する動作を行った場合、処理対象を保持して移動させるようなコマンドを割り当てることが好ましい。このように実際の手の動作イメージに基づく処理を行わせることにより、ユーザは、操作を感覚的かつ容易に実行できるようになる。
図2は、本発明の画像処理システムにおける撮像機(カメラ)の設置例と、ディスプレイの表示イメージを模式的に示す図である。図2において、10はディスプレイ、11はカメラ、12は実物の人間の手、13は手の形状のカーソルである。図2のカメラ11は、図1の撮像部2に該当し、ディスプレイ10は、画像表示部1における表示画面に該当する。
本実施形態の画像処理システムでは、単一の撮像機(カメラ)11で、ユーザの操作を判別する。カメラ11は、ディスプレイ10の近傍に設けられ、ディスプレイ10に表示された画面を見ながら情報入力操作を行うユーザの手の動きを撮像できるように設置される。
ユーザの手の動きを認識する場合、まず、撮像開始直後等のユーザの手の位置を基準とする。例えば電源がONになって、カメラ11の前方の撮像範囲内にユーザが手12を移動させたときに、そのときの手12の位置を基準位置とする。この場合、基準位置を測定して更新するために、所定の操作を行うようにしてもよい。
カメラ11に対する距離が変化する方向(奥行き方向とする)をZ軸とするとき、基準位置のZ軸の座標を0とする。また、撮像した基準位置の手の中心を、ディスプレイ10のX,Y軸の中心(0,0)とする。また撮像画像における2次元的な位置の変化(X―Y方向は、ディスプレイの画面にほぼ平行な変化であるため、以下X−Y方向を平行方向とする。
カメラ11は、連続して静止画を撮像する。そしてそれぞれの静止画を前後で比較することにより、手の移動レベルを割り出す。
カメラ11に対する奥行き方向(Z方向)の変化は、手12の画像の大きさの変化から割り出す。また平行方向(X−Y方向)の変化は、撮像された2次元映像の手の位置の変化から割り出す。そしてそれぞれの位置の変化量を数値化して、移動レベルを算出する。数値化の一例は後述するが、基準位置からの移動量を数値によって相対化できるものであればよい。
カメラ11に対する奥行き方向(Z方向)の変化は、手12の画像の大きさの変化から割り出す。また平行方向(X−Y方向)の変化は、撮像された2次元映像の手の位置の変化から割り出す。そしてそれぞれの位置の変化量を数値化して、移動レベルを算出する。数値化の一例は後述するが、基準位置からの移動量を数値によって相対化できるものであればよい。
また、手が移動していくときに、手の形状が変化していくことが予測される。このとき撮像した手12の画像を、予め記憶した3Dの手の形状パターンと比較し、最も近いパターンを抽出して、現在の手の形状パターンを特定する。
こうして、基準位置に対する手の奥行き方向の移動レベルと、平行方向の位置の移動レベルと、そのときの手の形状パターンとが刻々と認識される。これら平行方向の位置の移動レベルと、奥行き方向の移動レベルとによって、3次元空間内の移動レベル情報を得ることができ、これにより3次元空間内の移動ベクトル情報を得ることができる。
こうして、基準位置に対する手の奥行き方向の移動レベルと、平行方向の位置の移動レベルと、そのときの手の形状パターンとが刻々と認識される。これら平行方向の位置の移動レベルと、奥行き方向の移動レベルとによって、3次元空間内の移動レベル情報を得ることができ、これにより3次元空間内の移動ベクトル情報を得ることができる。
そしてディスプレイ10には、カメラ11が撮像した手12の画像に応じた手の形状のカーソル13を表示させる。カーソル13は、基準位置に対する手の移動レベルに従って、その位置と大きさを変えながら表示される。つまり、基準位置に対して平行方向に手が移動したときは、その移動レベルに従って、画面内のX−Y方向に手を移動させる。実際の手の移動量と、画面内の手の移動量との関係は適宜定めることができ、またユーザにより可変設定可能とすることができる。
またディスプレイ10に表示させるカーソル13の大きさは、基準位置の大きさレベルに対する奥行き方向の移動レベルに従って変化させる。この場合も、実際の手の移動量と画面内の大きさ変化量との関係は適宜定めることができる。
また手のカーソル13を表示させる場合に、ユーザの視線に従う手の画像を表示させる。ここでは、カメラ11と実際の手を結ぶ直線と、腕もしくは操作者の目の位置と手を結ぶ直線とがなす角度を求め、3次元空間内でユーザが手を見ている方向を割り出す。そしてその方向に従って、ユーザ自身が見える状態の手の画像をディスプレイ10に表示させる。この場合、保持している3Dの手の形状パターンを使用して、カメラ11が撮像した手の画像形状に基づいて、ユーザが見ている側からの画像データを抽出し、ディスプレイ10上に表示させるようにする。
カメラ11とユーザの目の位置との角度関係は、予め予測された角度を用いるか、もしくはユーザの目自体を認識して、カメラ11と手12、及び目との関係から、ユーザの視線方向を特定してもよい。また上述のように、前回の画像に比べて手の大きさが大きくなっている場合は、ユーザの目から手が離れてディスプレイ側に近づいているためディスプレイには手の大きさが小さくなっていくように表示する。
このように、カメラ11は、ディスプレイ10の近傍にユーザの方を向いて取り付けられ、ユーザにとってはほぼ裏側から手を撮像しているにもかかわらず、3Dの形状パターンデータを使用することによって、ユーザの視線に合った手の画像をディスプレイ10に表示させることができ、ユーザに違和感を与えることなくユーザ自身の手を表示させることができるようになる。
そして例えば手のカーソル13が移動した位置にアイコンが表示されていた場合、手の動作に対応してアイコンを移動し、変化させることができる。例えば、手でアイコンを掴んで移動させるような動作を行ったときに、その動作に対応してアイコンをカーソル13とともに移動させることができる。このときに、アイコンに対する操作が行われているときに、アイコンの色を変えるようにしてもよい。またこのときに、手12を静止させたり、手12をカメラ11の撮像範囲外に移動させることによって、カーソル13が消えるようにしてもよい。この場合、カーソル13が消えた後は、手12をカメラ11に向けるような明確な動作が行われなければ、カーソル13を表示させないようにすることもできる。
図3は、3Dの形状パターンを用いた撮像画像処理例を説明するための図である。
例えば図1に示す装置の3Dデータ保持部5には、図3(A)に示すような3Dの手の形状パターンデータが保持される。図3(A)のデータ例では、横方向にいろいろな手の形状パターンが予め設定されている。そして縦方向には、それぞれの手の形状パターンについて、上下左右に所定間隔で360度回転させたときの所定間隔の形状データが保持される。これら形状パターンの数と、回転させたときに保持しておく形状データの数は任意に設定することができるが、処理速度やメモリ使用量などから最適なデータ量を適宜定めるようにする。
例えば図1に示す装置の3Dデータ保持部5には、図3(A)に示すような3Dの手の形状パターンデータが保持される。図3(A)のデータ例では、横方向にいろいろな手の形状パターンが予め設定されている。そして縦方向には、それぞれの手の形状パターンについて、上下左右に所定間隔で360度回転させたときの所定間隔の形状データが保持される。これら形状パターンの数と、回転させたときに保持しておく形状データの数は任意に設定することができるが、処理速度やメモリ使用量などから最適なデータ量を適宜定めるようにする。
また図3(A)の3Dデータには、それぞれの手の形状について、基準サイズが記録されるものとする。基準サイズは、撮像画像から取得した手の詳細寸法に基づいてその大きさ(例えば画素(pic)サイズ)を定める。
基準サイズは、上述した手の基準位置を決めるときに、更新・記録されるものとする。この場合、例えば、手を開いた状態で基準位置の撮像を行い、手の詳細な寸法を測定しておく。あるいは予め標準的な手の位置と大きさによって、基準サイズを定めておいてもよい。
基準サイズは、上述した手の基準位置を決めるときに、更新・記録されるものとする。この場合、例えば、手を開いた状態で基準位置の撮像を行い、手の詳細な寸法を測定しておく。あるいは予め標準的な手の位置と大きさによって、基準サイズを定めておいてもよい。
そしてまずカメラ11によって、図3(B)のような手の画像を撮像したものとする。この撮像画像に基づいて、図3(A)の3Dデータの形状パターンを参照し、撮像された手に一致する形状パターンを特定する。上述のように、形状パターンを特定するためのマッチング技術は、従来公知の技術を適宜適用することができるため、ここでは説明を省略する。図3の例では、形状データ0011が特定されたものとする。
撮像画像の手の形状パターンを特定した後、さらに撮像画像の手の大きさレベルを割り出す。この場合、上述したような3Dデータに記録した各形状パターンの基準サイズと、撮像した手の画像のサイズとを比較して、基準位置に対する奥行き方向の移動レベルを算出する。例えば、特定部位(この場合、親指の長さ)の基準サイズが図3(D)に示すように30picであって、撮像画像の対応部位のサイズが5picである場合、その形状データ0011の大きさレベルは、16.7%となる。
次に、ユーザが手を動かして、図3(C)のような撮像画像が得られたものとする。この撮像画像に対しても図3(B)の画像と同様の処理を行い、該当する形状パターンを特定し、さらに基準サイズに対する大きさレベルを算出する。ここでは、形状データ0012が特定され、図3(E)に示すようにこの形状の特定部位の基準サイズが50picであり、撮像画像の対応部位のサイズが10picであって、大きさレベルが20.0%であったものとする。
これらの二つの画像の大きさレベルを比較することにより、奥行き方向の移動レベルFを算出する。この場合、二つの画像の大きさレベルの差をとってF=4%となる。この移動レベルFは、特定の基準値に対する絶対的な移動量を示すものではなく、奥行き方向の移動の量をパラメータとして表すものである。
また撮像画像の各画面においては、基準位置に対する画面内の移動レベルを算出する。これにより平行方向の手の移動レベルが得られる。画面内の移動レベルは、手の中心位置の移動量に基づいて算出される。
これらの処理により得られた形状パターンデータと、奥行き方向の移動レベルデータ、及び平行方向の移動レベルデータとを使用して、撮像画像に基づく特定のコマンドを出力させるようにする。
これらの処理により得られた形状パターンデータと、奥行き方向の移動レベルデータ、及び平行方向の移動レベルデータとを使用して、撮像画像に基づく特定のコマンドを出力させるようにする。
上述した撮像画像に基づく手の表示処理を更に詳細に説明する。3Dデータの手は、手の形状パターンデータとは別に、上述のような大きさレベルのパラメータを持ち、その大きさレベルにより手の詳細寸法(指の長さ、手の甲の大きさなどの寸法)が計算される。つまり、
3Dデータの手の形状A[大きさレベル]= 手の詳細寸法
という式で成り立っている。大きさレベルは、撮像機(カメラ)に対する手の位置が変化しなければ、撮像された手の形状が変化しても同じ大きさレベルとなる。
3Dデータの手の形状A[大きさレベル]= 手の詳細寸法
という式で成り立っている。大きさレベルは、撮像機(カメラ)に対する手の位置が変化しなければ、撮像された手の形状が変化しても同じ大きさレベルとなる。
ここで、撮像開始直後の大きさレベルは、
3Dデータの手の形状A[大きさレベル]= カメラで撮られた手の詳細寸法
大きさレベル=3Dデータの手の形状A−1[カメラで撮られた手の詳細寸法]
の処理により求めることができる。
3Dデータの手の形状A[大きさレベル]= カメラで撮られた手の詳細寸法
大きさレベル=3Dデータの手の形状A−1[カメラで撮られた手の詳細寸法]
の処理により求めることができる。
ユーザが手を動かして操作したとき、カメラに対する奥行き方向の移動量は、次の方法を用いて算出する。
例えば手の形状が変化し、それに伴って3Dデータの手の形状Aが、形状Bになったものとする。そのときのカメラが撮像した手の詳細寸法から、撮像開始直後と同様の算出方法で手の大きさレベルを算出し、そのパラメータよりカメラに対する奥行き方向の移動レベルを算出する。その算出モデル式は、
大きさレベル1=3D映像の手の形状A−1[カメラで撮像した手の詳細寸法]
大きさレベル2=3D映像の手の形状B−1[カメラで撮像した手の詳細寸法]
移動レベル= カメラからの距離関数[大きさレベル2−大きさレベル1]
とする。
例えば手の形状が変化し、それに伴って3Dデータの手の形状Aが、形状Bになったものとする。そのときのカメラが撮像した手の詳細寸法から、撮像開始直後と同様の算出方法で手の大きさレベルを算出し、そのパラメータよりカメラに対する奥行き方向の移動レベルを算出する。その算出モデル式は、
大きさレベル1=3D映像の手の形状A−1[カメラで撮像した手の詳細寸法]
大きさレベル2=3D映像の手の形状B−1[カメラで撮像した手の詳細寸法]
移動レベル= カメラからの距離関数[大きさレベル2−大きさレベル1]
とする。
図4及び図5は、本発明による画像処理システムにおける処理の流れの一例を説明するためのフローチャートである。
画像処理システムの電源(あるいは、情報処理システムが内蔵されたテレビジョン装置の電源)がONになると(ステップS1)、画像処理部では、撮像部(カメラ)をONにして撮像を開始させる(ステップS21)。そして、撮像部では、撮像画像を取得して(ステップS40)、その画像データをCPUに送信し(ステップS41)、待機する(ステップS42)。なお、図4のCPUとビデオ出力変換部が、図1のインターフェース処理部4に該当する。
画像処理システムの電源(あるいは、情報処理システムが内蔵されたテレビジョン装置の電源)がONになると(ステップS1)、画像処理部では、撮像部(カメラ)をONにして撮像を開始させる(ステップS21)。そして、撮像部では、撮像画像を取得して(ステップS40)、その画像データをCPUに送信し(ステップS41)、待機する(ステップS42)。なお、図4のCPUとビデオ出力変換部が、図1のインターフェース処理部4に該当する。
画像処理部では、撮像部から送信された画像データを受信し(ステップS22)、画像データ処理を実行する(ステップS23)。そして撮像画像において手が検出されたかどうかを判別し(ステップS24)、手が非検出であれば、非検出回数が予め定めたm回以上かどうかを判別する(ステップS25)。検出/非検出の回数は、連続して撮像する画像毎にカウントする。
手の非検出回数がm回以上であれば、前回の画像をクリアして(ステップS26)、ステップS22に戻って撮像部からの画像データを受信する。また手の非検出回数がm回未満であれば、前回の画像をクリアすることなく、そのままステップS22に戻る。
一方、上記ステップS24で手が検出された場合、手の検出回数が予め定めたn回以上かどうかを判別する(ステップS27)。
手の検出回数がn回未満であれば、ステップS22に戻って撮像部からの画像データを受信する。また手の検出回数がn回以上であれば、前回のデータがあるかどうかを判断する(ステップS28)。
手の検出回数がn回未満であれば、ステップS22に戻って撮像部からの画像データを受信する。また手の検出回数がn回以上であれば、前回のデータがあるかどうかを判断する(ステップS28)。
前回データがある場合、撮像した画像に該当する3Dデータの形状を割り出す(ステップS36)。ここでは、予め保持している3Dデータの形状パターンのなかから、撮像画像に該当する手の形状パターンを特定する。
そして、3Dデータの平行方向の位置の移動レベルを、前回の画像と比較して定める(ステップS37)。
そして、3Dデータの平行方向の位置の移動レベルを、前回の画像と比較して定める(ステップS37)。
そしてさらに、撮像された手の大きさレベルを算出する(ステップS38)。そして算出した大きさレベルと、前回の手の大きさレベルとを比較することにより、奥行き方向の移動レベルを得る(ステップS39)。
一方、ステップS28で前回のデータがない場合、撮像した画像に該当する3Dデータの形状を割り出し(ステップS29)、3Dデータの位置を中心位置とする(ステップS30)。さらに3Dデータの大きさレベルを算出し(ステップS31)、3Dデータの奥行き方向の位置を標準位置とする(ステップS32)。
そして、上記ステップS32またはS39で得られたハンドデータ(形状情報、奥行き方向の移動レベル情報、平行方向の位置の移動レベル情報)と、ユーザ位置情報とを送信する(ステップS33)。ユーザ位置情報は、撮像画像から判別したユーザの視線位置を示す情報である。
メインCPUでは、画像処理部からハンドデータとユーザ位置情報とを受け取ると、手の形状、奥行き方向及び平行方向の移動レベル情報を保存する(ステップS51)。そして位置の移動レベル情報と、奥行き方向の移動レベル情報とからベクトルを算出する(ステップS52)。次いで算出したベクトルと、手の形状パターンとから、特定の命令(コマンド)を割り出し(ステップS53)、その命令を実行する(ステップS54)。さらに命令を実行したときの反応を表すための命令実行フラグを送信する(ステップS55)。
一方、システムの電源がONになった後、ビデオ出力変換部では、システムの状態が視聴状態になっているかどうかを確認する(ステップS11)。そして視聴状態において、映像データを受信し(ステップS12)、さらに画像処理部からハンドデータとユーザ位置情報とが送信され、またCPUから命令実行フラグが送信されると、受信したデータから映像を作成する(ステップS13)。ここでは必要に応じてEPG/OSDデータが入力され、表示映像に使用される。そして作成された映像は、所定のディスプレイに出力される(ステップS14)。例えばEPGやOSD画面は、ユーザ操作の対象となり得る。
図6は、3Dデータの大きさを算出するときの処理例を説明するためのフローチャートである。まず撮像した手の画像と、データベースに保持した手の形状とを比較し(ステップS61)、撮像した手に該当する形状パターンを決定する(ステップS62)。そして画像の手の指の長さなど、所定の測定部位の寸法を測定し(ステップS63)、測定値から大きさレベルを割り出す(ステップS64)。
ここで撮像されている手が動くと(ステップS65)、さらに撮像した手の画像と、データベースに保持した手の形状とを比較し(ステップS66)、撮像した手に該当する形状を決定して(ステップS67)、画像の手の指の長さなど、所定の測定部位の寸法を測定し(ステップS68)、測定値から大きさレベルを割り出す(ステップS69)。
そしステップS64で割り出した手の大きさレベルと、ステップS69で割り出した手の大きさレベルとを比較し、その違いから奥行き方向の移動レベルを求める(ステップS70)。
そしステップS64で割り出した手の大きさレベルと、ステップS69で割り出した手の大きさレベルとを比較し、その違いから奥行き方向の移動レベルを求める(ステップS70)。
図7は、本発明の画像処理システムの構成例を説明するための図で、画像処理システムをデジタル/アナログチューナを備えたテレビジョン放送受信装置に適用した例を示すものである。
テレビジョン放送受信装置100は、デジタル放送とアナログ放送とのいずれも受信可能なテレビジョン放送受信装置であって、アナログ放送を受信する受信アンテナ101と、デジタル放送を受信する受信アンテナ102とを備える。
また、アナログ放送の受信信号をチューニングする(選局する)アナログチューナ部103と、デジタル放送の受信信号をチューニングするデジタルチューナ部104と、アナログ放送の受信データからオーディオデータ/ビデオデータを抽出するAVスイッチ部105と、チューニングされたデジタル放送のデータを復調するデジタル復調部106とを備える。
さらにテレビジョン放送受信装置100は、EPGデータの抽出や、復調されたデータの分離を行う分離部(DMUX)107と、分離されたデジタル放送のビデオデータをデコードしたり、ビデオ情報を静止画としてキャプチャするビデオデコード/キャプチャ部108と、アナログ放送のビデオ信号とデジタル放送のビデオ信号との切換を行うビデオセレクタ部109と、分離されたEPGの処理や、OSDの表示処理を行うと共に、EPGと予約情報とをミックスさせて表示する処理を行うEPG/OSD/予約データ処理部110とを備える。
さらにテレビジョン放送受信装置100は、分離されたオーディオデータをデコードするオーディオデコード部111と、セレクトされたビデオ信号とEPGやOSDとを合わせてからビデオ出力として変換するビデオ出力変換部112と、アナログ放送のオーディオ信号とデジタル放送のオーディオ信号の切換を行うオーディオセレクタ部113と、セレクトされたオーディオ信号を出力信号に変換するオーディオ出力変換部114と、アナログ放送及びデジタル放送のチューナでの選局処理を行う選局部115とを備える。
さらにテレビジョン放送受信装置100は、任意のアドレスを指定して読み書きすることが可能な半導体メモリであり、抽出したEPGデータ等を保存するRAM116と、全体の処理を担うと共に、予約処理を行う番組と同一の番組の検索や、予約情報と利用電気料金との関連付け、及び通信制御部の処理などを行うCPU117と、ビデオマウスを介して予約処理を実行するためのビデオマウスコネクタ118と、ビデオマウスで送信する信号の制御を行うビデオマウスマイコン119とを備える。
さらに、テレビジョン放送受信装置100は、プログラムやユーザデータなどが格納され、EPGデータ等が格納される書換え可能な不揮発性メモリ120と、電話回線、LAN、インターネット等のネットワーク網との制御を行うと共に、EPGデータの取得等に使用される通信制御部121と、ユーザが操作するリモートコントローラからの信号を受信するリモコン受光部122と、を備えて構成される。
またテレビジョン放送受信装置100は、ユーザの手の動きを撮像するためのカメラ123と、手の形状サンプル及び各形状サンプルの基準サイズの各データを保持する3Dデータ保持部125と、カメラ123で撮像した映像を映像処理する画像処理部124を有している。
上記のような構成によって、テレビジョン放送受信装置100では、人間の手がカメラ123により撮像されたときに、その手を認識し、3Dデータ保持部125に保持している3Dデータを用いて、形状パターンや手の位置情報を得る。また画像処理部124では、ビデオ出力変換部112に対して、人間の視線により認識される形状の手の画像をカーソルとして表示させる指示を行う。ビデオ出力変換部112では、液晶表示装置130に対して手の画像のカーソルを表示させる。
またCPU117では、画像処理部124で処理された手の画像の形状パターンや位置情報を使用して、予め用意されているコマンドを特定し実行する。例えば、ユーザが対象を掴んで移動させるような動作を行った場合、液晶表示装置130に表示させているアイコンを移動させる制御を行う。
ユーザは、液晶表示装置130の画像を見ながら、カメラ123の前で手の動作を行うことにより、テレビジョン放送受信装置100に対して必要な入力操作を容易に実行することができるようになる。
ユーザは、液晶表示装置130の画像を見ながら、カメラ123の前で手の動作を行うことにより、テレビジョン放送受信装置100に対して必要な入力操作を容易に実行することができるようになる。
1…画像表示部、2…撮像部、3…画像処理部、4…インターフェース処理部、5…3Dデータ保持部、10…ディスプレイ、11…カメラ、12…手、13…カーソル、100…テレビジョン放送受信装置、101…受信アンテナ、102…受信アンテナ、103…アナログチューナ部、104…デジタルチューナ部、105…AVスイッチ部、106…デジタル復調部、107…分離部、108…ビデオコード/キャプチャ部、109…ビデオセレクタ部、110…EPG/OSD/予約データ処理部、111…オーディオデコード部、112…ビデオ出力変換部、113…オーディオセレクタ部、114…オーディオ出力変換部、115…選局部、116…RAM、117…CPU、118…ビデオマウスコネクタ、119…ビデオマウスマイコン、120…不揮発性メモリ、121…通信制御部、122…リモコン受光部、123…カメラ、124…画像処理部、125…3Dデータ保持部、130…液晶表示装置。
Claims (8)
- 一つのカメラを備える撮像手段と、人間の手の形状パターンを記憶する形状パターン記憶部とを有し、前記撮像手段が撮像した撮像画像に基づいて、撮像された手に該当する形状パターンを抽出し、該抽出した形状パターンに従う特定のコマンドを出力することを特徴とする画像処理システム。
- 請求項1に記載の画像処理システムにおいて、前記撮像手段が連続して撮像を行ったときに、3次元空間内で手が移動するときのベクトル情報を生成し、該ベクトル情報と、前記形状パターン情報の変化とに基づいて、前記特定のコマンドを出力することを特徴とする画像処理システム。
- 請求項2に記載の画像処理システムにおいて、前記形状パターン記憶部は、前記人間の手の形状パターンとともに、各形状パターンの基準位置情報と基準大きさレベル情報とを記憶し、該画像処理システムは、前記基準位置情報と基準大きさレベル情報に基づいて、前記基準位置に対する手の3次元の移動レベル情報を生成し、該移動レベル情報から前記ベクトル情報を生成することを特徴とする画像処理システム。
- 請求項3に記載の画像処理システムにおいて、該画像処理システムは、前記手を撮像した撮像画像に基づいて、手の形状を示すカーソルを所定のディスプレイに表示させ、該ディスプレイに表示させた画像に対して、前記コマンドによる所定処理を実行させることを特徴とする画像処理システム。
- 請求項4に記載の画像処理システムにおいて、前記コマンドによる所定処理は、前記手の3次元空間内での移動動作に応じて、前記画像に表示させた操作対象を、画面内で3次元的に移動させる処理を含むことを特徴とする画像処理システム。
- 請求項4または5に記載の画像処理システムにおいて、前記基準位置に対する手の3次元の移動レベル情報に基づいて、前記カーソルの表示位置及び表示する大きさを変化させることを特徴とする画像処理システム。
- 請求項4ないし6のいずれか1に記載の画像処理システムにおいて、前記形状パターン記憶部は、複数の形状パターンのそれぞれについて、視点方向が異なる複数の画像データを保持し、前記手を撮像した撮像画像に基づいて抽出した前記形状パターンについて、ユーザの視点として判断される方向から見た前記画像データを前記ディスプレイに表示させることを特徴とする画像処理システム。
- ディスプレイを備えた映像表示装置であって、該映像表示装置は、請求項1ないし7のいずれか1に記載の画像処理システムを備え、前記ディスプレイに表示した画像に対して前記画像処理システムで出力されたコマンドによって所定の処理を行うことができるようにしたことを特徴とする映像表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006210496A JP2008040576A (ja) | 2006-08-02 | 2006-08-02 | 画像処理システム及び該システムを備えた映像表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006210496A JP2008040576A (ja) | 2006-08-02 | 2006-08-02 | 画像処理システム及び該システムを備えた映像表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008040576A true JP2008040576A (ja) | 2008-02-21 |
Family
ID=39175540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006210496A Pending JP2008040576A (ja) | 2006-08-02 | 2006-08-02 | 画像処理システム及び該システムを備えた映像表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008040576A (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244405A (ja) * | 2009-04-08 | 2010-10-28 | Kyushu Hitachi Maxell Ltd | 操作装置 |
JP2011081506A (ja) * | 2009-10-05 | 2011-04-21 | Hitachi Consumer Electronics Co Ltd | 映像表示装置、および、その表示制御方法 |
JP2011517357A (ja) * | 2008-03-04 | 2011-06-02 | ジェスチャー テック,インコーポレイテッド | 改良されたジェスチャに基づく画像操作 |
WO2011142317A1 (ja) * | 2010-05-11 | 2011-11-17 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
JP2011239398A (ja) * | 2010-05-03 | 2011-11-24 | Thomson Licensing | 設定メニューを表示する方法及び対応するデバイス |
JP2012032944A (ja) * | 2010-07-29 | 2012-02-16 | Canon Inc | 情報処理装置及びその制御方法 |
CN102710911A (zh) * | 2008-08-14 | 2012-10-03 | 索尼公司 | 信息处理装置、方法和程序 |
JP2012203736A (ja) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | 電子機器、制御方法および制御プログラム |
JP2013200815A (ja) * | 2012-03-26 | 2013-10-03 | Yahoo Japan Corp | 操作入力装置、操作入力方法、及び、プログラム |
JP2013200784A (ja) * | 2012-03-26 | 2013-10-03 | Yahoo Japan Corp | 操作入力装置、操作入力方法およびプログラム |
US20130343607A1 (en) * | 2012-06-20 | 2013-12-26 | Pointgrab Ltd. | Method for touchless control of a device |
JP2014096804A (ja) * | 2013-12-02 | 2014-05-22 | Hitachi Consumer Electronics Co Ltd | 操作制御装置及び操作表示方法 |
US8938124B2 (en) | 2012-05-10 | 2015-01-20 | Pointgrab Ltd. | Computer vision based tracking of a hand |
US9075442B2 (en) | 2010-03-10 | 2015-07-07 | Sony Corporation | Image processing apparatus, method, and computer-readable storage medium calculation size and position of one of an entire person and a part of a person in an image |
US9261958B2 (en) | 2009-07-29 | 2016-02-16 | Samsung Electronics Co., Ltd. | Apparatus and method for navigation in digital object using gaze information of user |
JP2016148901A (ja) * | 2015-02-10 | 2016-08-18 | 嘉泰 小笠原 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
JP2016165084A (ja) * | 2015-03-06 | 2016-09-08 | パイオニア株式会社 | 再生制御装置及び方法、並びにコンピュータプログラム |
KR101794233B1 (ko) * | 2015-05-11 | 2017-11-07 | (주)젠트정보기술 | 모션 인식 및 특수 효과 제어기술을 이용한 체감형 게임 콘텐츠 제공 시스템 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59132079A (ja) * | 1983-01-17 | 1984-07-30 | Nippon Telegr & Teleph Corp <Ntt> | 手操作入力装置 |
JPH09185456A (ja) * | 1995-04-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
JPH10207619A (ja) * | 1997-01-22 | 1998-08-07 | Toshiba Corp | ユーザインタフェース装置及び操作範囲呈示方法 |
JPH11102245A (ja) * | 1997-08-01 | 1999-04-13 | Sony Corp | 入力装置、入力方法、撮像装置、撮像装置の制御方法、および、伝送媒体 |
JPH11327571A (ja) * | 1998-05-07 | 1999-11-26 | Daiichikosho Co Ltd | ユーザインタフェースに特徴を有するカラオケ選曲装置、およびカラオケ演奏装置 |
JP2000075991A (ja) * | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | 情報入力装置 |
JP2000181601A (ja) * | 1998-12-18 | 2000-06-30 | Fujitsu General Ltd | 情報表示システム |
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2005050177A (ja) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | 非接触式情報入力装置 |
-
2006
- 2006-08-02 JP JP2006210496A patent/JP2008040576A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59132079A (ja) * | 1983-01-17 | 1984-07-30 | Nippon Telegr & Teleph Corp <Ntt> | 手操作入力装置 |
JPH09185456A (ja) * | 1995-04-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
JPH10207619A (ja) * | 1997-01-22 | 1998-08-07 | Toshiba Corp | ユーザインタフェース装置及び操作範囲呈示方法 |
JPH11102245A (ja) * | 1997-08-01 | 1999-04-13 | Sony Corp | 入力装置、入力方法、撮像装置、撮像装置の制御方法、および、伝送媒体 |
JPH11327571A (ja) * | 1998-05-07 | 1999-11-26 | Daiichikosho Co Ltd | ユーザインタフェースに特徴を有するカラオケ選曲装置、およびカラオケ演奏装置 |
JP2000075991A (ja) * | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | 情報入力装置 |
JP2000181601A (ja) * | 1998-12-18 | 2000-06-30 | Fujitsu General Ltd | 情報表示システム |
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2005050177A (ja) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | 非接触式情報入力装置 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
JP2011517357A (ja) * | 2008-03-04 | 2011-06-02 | ジェスチャー テック,インコーポレイテッド | 改良されたジェスチャに基づく画像操作 |
JP2014099184A (ja) * | 2008-03-04 | 2014-05-29 | Qualcomm Inc | 改良されたジェスチャに基づく画像操作 |
CN102710911A (zh) * | 2008-08-14 | 2012-10-03 | 索尼公司 | 信息处理装置、方法和程序 |
JP2010244405A (ja) * | 2009-04-08 | 2010-10-28 | Kyushu Hitachi Maxell Ltd | 操作装置 |
US9261958B2 (en) | 2009-07-29 | 2016-02-16 | Samsung Electronics Co., Ltd. | Apparatus and method for navigation in digital object using gaze information of user |
JP2011081506A (ja) * | 2009-10-05 | 2011-04-21 | Hitachi Consumer Electronics Co Ltd | 映像表示装置、および、その表示制御方法 |
US9454837B2 (en) | 2010-03-10 | 2016-09-27 | Sony Corporation | Image processing apparatus, method, and computer-readable storage medium calculating size and position of one of an entire person and a part of a person in an image |
US9075442B2 (en) | 2010-03-10 | 2015-07-07 | Sony Corporation | Image processing apparatus, method, and computer-readable storage medium calculation size and position of one of an entire person and a part of a person in an image |
JP2011239398A (ja) * | 2010-05-03 | 2011-11-24 | Thomson Licensing | 設定メニューを表示する方法及び対応するデバイス |
WO2011142317A1 (ja) * | 2010-05-11 | 2011-11-17 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
US9069386B2 (en) | 2010-05-11 | 2015-06-30 | Nippon Systemware Co., Ltd. | Gesture recognition device, method, program, and computer-readable medium upon which program is stored |
US20130057469A1 (en) * | 2010-05-11 | 2013-03-07 | Nippon Systemware Co Ltd | Gesture recognition device, method, program, and computer-readable medium upon which program is stored |
JPWO2011142317A1 (ja) * | 2010-05-11 | 2013-07-22 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
JP2012032944A (ja) * | 2010-07-29 | 2012-02-16 | Canon Inc | 情報処理装置及びその制御方法 |
US9430081B2 (en) | 2011-03-25 | 2016-08-30 | Kyocera Corporation | Electronic device, control method, and control program |
JP2012203736A (ja) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | 電子機器、制御方法および制御プログラム |
JP2013200815A (ja) * | 2012-03-26 | 2013-10-03 | Yahoo Japan Corp | 操作入力装置、操作入力方法、及び、プログラム |
JP2013200784A (ja) * | 2012-03-26 | 2013-10-03 | Yahoo Japan Corp | 操作入力装置、操作入力方法およびプログラム |
US8938124B2 (en) | 2012-05-10 | 2015-01-20 | Pointgrab Ltd. | Computer vision based tracking of a hand |
US20130343607A1 (en) * | 2012-06-20 | 2013-12-26 | Pointgrab Ltd. | Method for touchless control of a device |
JP2014096804A (ja) * | 2013-12-02 | 2014-05-22 | Hitachi Consumer Electronics Co Ltd | 操作制御装置及び操作表示方法 |
JP2016148901A (ja) * | 2015-02-10 | 2016-08-18 | 嘉泰 小笠原 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
JP2016165084A (ja) * | 2015-03-06 | 2016-09-08 | パイオニア株式会社 | 再生制御装置及び方法、並びにコンピュータプログラム |
KR101794233B1 (ko) * | 2015-05-11 | 2017-11-07 | (주)젠트정보기술 | 모션 인식 및 특수 효과 제어기술을 이용한 체감형 게임 콘텐츠 제공 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008040576A (ja) | 画像処理システム及び該システムを備えた映像表示装置 | |
US8896535B2 (en) | Image processing apparatus and method, and program therefor | |
US11089351B2 (en) | Display apparatus and remote operation control apparatus | |
US8666115B2 (en) | Computer vision gesture based control of a device | |
JP5014848B2 (ja) | 映像パターンを利用したポインティング入力装置、方法、およびシステム | |
US20110072399A1 (en) | Method for providing gui which generates gravity map to move pointer and display apparatus using the same | |
US10051244B2 (en) | Display image formation device and display image formation method | |
EP2268005A2 (en) | Display apparatus for providing a user menu and method for providing user interface (ui) applicable thereto | |
CN106105247B (zh) | 显示装置及其控制方法 | |
KR20130105725A (ko) | 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전 | |
JP4802012B2 (ja) | カメラ制御装置およびカメラ制御方法 | |
JP2011028366A (ja) | 操作制御装置および操作制御方法 | |
EP2352112A1 (en) | Remote control system for electronic device and remote control method thereof | |
AU2016202282A1 (en) | Display apparatus and controlling method thereof | |
JP6622650B2 (ja) | 情報処理装置及びその制御方法、撮影システム | |
JP2006209563A (ja) | インターフェース装置 | |
US20120019460A1 (en) | Input method and input apparatus | |
EP3438935A1 (en) | Information processing device, information processing method, program | |
JP2003316510A (ja) | 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。 | |
KR101654311B1 (ko) | 사용자 모션 인식 방법 및 장치 | |
JP2006268209A (ja) | ユーザの身体動作による遠隔命令入力装置 | |
JP2023075353A (ja) | 仮想オブジェクト操作方法およびヘッドマウントディスプレイ | |
JP2011100396A (ja) | 映像表示装置 | |
JPH11275436A (ja) | カメラ操作装置 | |
KR20080088833A (ko) | 아이템을 선택할 수 있는 영역이 확대된 gui 제공방법및 이를 적용한 영상기기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100928 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110208 |