JP2016134022A - 仮想タッチパネルポインティングシステム - Google Patents

仮想タッチパネルポインティングシステム Download PDF

Info

Publication number
JP2016134022A
JP2016134022A JP2015008691A JP2015008691A JP2016134022A JP 2016134022 A JP2016134022 A JP 2016134022A JP 2015008691 A JP2015008691 A JP 2015008691A JP 2015008691 A JP2015008691 A JP 2015008691A JP 2016134022 A JP2016134022 A JP 2016134022A
Authority
JP
Japan
Prior art keywords
operator
display
pointing
touch panel
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015008691A
Other languages
English (en)
Other versions
JP6472252B2 (ja
Inventor
上 中道
Noboru Nakamichi
上 中道
俊哉 山田
Toshiya Yamada
俊哉 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT IT Corp
Original Assignee
NTT IT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT IT Corp filed Critical NTT IT Corp
Priority to JP2015008691A priority Critical patent/JP6472252B2/ja
Publication of JP2016134022A publication Critical patent/JP2016134022A/ja
Application granted granted Critical
Publication of JP6472252B2 publication Critical patent/JP6472252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】手以外の身体の一部によってもポインティング操作が可能であるポインティングシステムを提供する。【解決手段】ポインティングシステム1は、事前のキャリブレーション処理によって、操作者10のポインティング操作に資する仮想平面である仮想タッチパネル30と、操作者10のポインティング操作の検出に資する基準パネル40とを設定する。【効果】このような構成により、従来よりも、より広い範囲におけるポインティング操作が可能となり、手以外の身体の一部によってもポインティング操作が可能となる。また、操作者10は仮想タッチパネル30を意識することなく、キャリブレーション処理の時と同様に身体の一部を動かしてポインティング操作を行うだけで、ディスプレイ20に対するポインティング操作を実現する。【選択図】図1

Description

本発明は、遠隔にあるディスプレイに対して操作を行うポインティングシステムに関する。
従来、コンピュータやタブレットへ入力する方法として、ライトペン、タッチスクリーン、キーボード等の直接指示デバイスを用いる方法が存在する。さらに、ポインティングの方法として、マウスやレーザポインタ等の間接指示デバイスを用いる方法が存在する。間接指示デバイスは、直接指示デバイスに比べて、例えばディスプレイ全体に対する指示操作がしやすい等の利点がある。しかしながら、間接指示デバイスを用いてプレゼンテーション等を行っている最中においては、逐一、ディスプレイ上に表示されるポインタの位置を確認しながら指示デバイスを操作する必要がある。
このような問題に対して、例えば非特許文献1では、指示デバイスを使用せずに、操作者が身体の一部または全体を動かすことで、ディスプレイ上のポインタを移動させるポインティング方法が開示されている。
中道上、「大画面インタラクションのためのリモートタッチポインティング」、情報処理学会 インタラクション 2013、一般社団法人情報処理学会、2013年3月2日、p.762−763
しかしながら、非特許文献1に開示されているポインティング方法においては、主に操作者が手を使って操作をすることが前提となっている。よって、例えば手が不自由な者にとってはタッチ操作の感覚で操作することは難しい。また、手を用いて操作することが前提となっているために、操作範囲や、操作可能な位置が制限されるという課題があった。
上記課題を解決するために、本発明の一態様は、撮影デバイスと、コンピュータ装置と、を含んで構成され、操作者が遠隔にあるディスプレイに対してポインティング操作を行うためのポインティングシステムであって、前記撮影デバイスは、前記操作者を撮影する撮影部と、前記撮影された操作者の撮影データに基づいて前記操作者の複数の身体上の部位とそれらの位置とを含む骨格情報を取得する撮影データ処理部と、前記操作者の前記骨格情報を出力する骨格情報出力部と、を備え、前記コンピュータ装置は、前記撮影デバイスから前記操作者の前記骨格情報を取得する骨格情報取得部と、前記骨格情報に含まれる前記操作者の身体の一部であって、前記操作者が前記ポインティング操作を行う際に使用する前記操作者の身体の一部である操作点を決定する操作点決定部と、前記操作者が前記ポインティング操作を行う際の不動点である基点を決定する基点決定部と、前記操作者が前記ディスプレイ上の少なくとも第1の位置および第2の位置についてのポインティング操作であるキャリブレーション操作を行った際の前記操作者の前記骨格情報に基づいて、前記第1の位置を指し示した際の前記操作点の位置から前記第2の位置を指し示した際の前記操作点の位置を結ぶ線分を対角線とし、かつ前記第1の位置から鉛直方向または水平方向に延びる直線の一部を一辺とする長方形の仮想タッチパネルを算出する仮想タッチパネル算出部と、前記キャリブレーション操作後に前記操作者が前記操作点を動かした際に、前記操作者の前記骨格情報に基づいて前記操作点の前記仮想タッチパネル上における位置情報を決定し、前記仮想タッチパネルと前記基点との位置関係に基づいて、前記仮想タッチパネル上における位置情報に対応する前記ディスプレイ上の位置を決定する指示位置特定部と、前記指示位置特定部において決定された前記ディスプレイ上の位置を前記ディスプレイに示すための指示位置表示情報を出力する指示位置表示情報出力部と、を備えるポインティングシステムである。
また、本発明の他の態様は、撮影デバイスと、コンピュータ装置と、を含んで構成され、操作者が遠隔にあるディスプレイに対してポインティング操作を行うためのポインティングシステムが実行するポインティング方法であって、前記撮影デバイスが、前記操作者を撮影するステップと、前記撮影デバイスが、前記撮影された操作者の撮影データに基づいて前記操作者の複数の身体上の部位とそれらの位置とを含む骨格情報を取得するステップと、前記コンピュータ装置が、前記骨格情報に含まれる前記操作者の身体の一部であって、前記操作者が前記ポインティング操作を行う際に使用する前記操作者の身体の一部である操作点を決定するステップと、前記コンピュータ装置が、前記操作者が前記ポインティング操作を行う際の不動点である基点を決定するステップと、前記コンピュータ装置が、前記操作者が前記ディスプレイ上の少なくとも第1の位置および第2の位置についてのポインティング操作であるキャリブレーション操作を行った際の前記操作者の前記骨格情報に基づいて、前記第1の位置を指し示した際の前記操作点の位置から前記第2の位置を指し示した際の前記操作点の位置を結ぶ線分を対角線とし、かつ前記第1の位置から鉛直方向または水平方向に延びる直線の一部を一辺とする長方形の仮想タッチパネルを算出するステップと、前記コンピュータ装置が、前記仮想タッチパネルおよび前記基準パネルの算出後に前記操作者が前記操作点を動かした際に、前記操作者の前記骨格情報に基づいて前記操作点の前記仮想タッチパネル上における位置情報を決定し、前記仮想タッチパネルと前記基点との位置関係に基づいて、前記仮想タッチパネル上における位置情報に対応する前記ディスプレイ上の位置を決定するステップと、前記コンピュータ装置が、決定された前記ディスプレイ上の位置を前記ディスプレイに示す表示するための指示位置表示情報を出力するステップと、を含むポインティング方法である。
また、本発明の他の態様は、上記の方法をポインティングシステムに実行させるためのコンピュータプログラムである。
本発明によれば、操作者は、手に限定されず他の身体の一部によっても操作が可能であるため、より広い範囲で、かつ、より多くの位置において、ポインティング操作を行うことが可能である。
本発明に一実施形態に係る仮想タッチパネルポインティングシステムの構成の一例を示す図である。 本発明の一実施形態に係るキャリブレーション画面の一例を示す図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおいて、操作者がキャリブレーション点の開始位置を操作点で指している時の状態を、ディスプレイの横方向から見た図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおいて、操作者がキャリブレーション点の開始位置を操作点で指している時の状態を、操作者の斜め後方からディスプレイの方向に見た図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおいて、操作者がキャリブレーション点の終了位置を操作点で指している時の状態を、ディスプレイの横方向から見た図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおいて、操作者がキャリブレーション点の終了位置を操作点で指している時の状態を、操作者の斜め後方からディスプレイの方向に見た図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおける基準パネルの算出方法の一例を説明する図である。 操作者の指示位置とディスプレイ上に反映される指示位置との関係を説明する図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおける基点と、基準パネル上の射影操作点と、ディスプレイ上の指示位置との関係を説明する図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおけるキャリブレーションおよびその他の事前設定に関する処理の一例を示すフロー図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムの利用時における処理の一例を示すフロー図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおける操作者のディスプレイに対する位置関係の一例を示す図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムの構成の一例を示す図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムのハードウェア構成の一例を示す図である。 本発明の一実施形態に係る仮想タッチパネルポインティングシステムにおいて、操作者が足先でポインティング操作を行う場合について説明する図である。
以下、図面を参照しながら、本発明の実施の形態について説明する。なお、以下の説明において参照する各図では、他の図と同等の部分は同一符号によって示される。
(仮想タッチパネルポインティングシステムの概要)
図1は、本実施形態に係る仮想タッチパネルポインティングシステム(以下、単にポインティングシステムという)の構成の一例を示す。まず、図1を参照しながら、本実施形態のポインティングシステムの概要について説明する。
図1に示されるポインティングシステム1は、操作者10が離れた位置にあるディスプレイ20にポインティング操作を行うためのシステムである。ポインティングシステム1は、操作者10がポインティング操作を行う対象であるディスプレイ20と、操作者10の関節やその位置を認識するために操作者10を撮影する撮影デバイス50と、ディスプレイ20および撮影デバイス50のそれぞれに接続されたコンピュータ装置60と、を備える。なお、図1においては、コンピュータ装置60は1つの装置として示されているが、複数のコンピュータ装置から構成されていてもよい。例えば、コンピュータ装置60の各機能が、複数のコンピュータ装置に分散処理される等となっていてもよい。
ポインティングシステム1では、操作者10と、ディスプレイ20との間に、操作者10が操作するための仮想の平面として仮想タッチパネル30が設けられる。仮想タッチパネル30は、操作者10とディスプレイ20との間の空間に仮想的に設定される平面であって、操作者10がポインティング操作を行うための仮想平面である。本実施形態に係る仮想タッチパネル30は、操作者10が視認できるような形態のものではなく、操作者10はポインティング操作を行う際に、特段、仮想タッチパネル30の存在を意識する必要がないような仕組みとなっている(詳細は後述する)。仮想タッチパネル30は、プレゼンテーション等のポインティング操作を開始する前に(例えば、ポインティングシステム1を最初に利用する際、等)、「キャリブレーション」を行うことで設定される(キャリブレーションについては後述)。
また、ポインティングシステム1では、仮想タッチパネル30とは別途、基準パネル40が設定される。基準パネル40も、仮想タッチパネル30と同様に、操作者10とディスプレイ20との間の空間に仮想的に設定される平面である。基準パネル40は、仮想タッチパネル30の設定位置によらずに操作者10の操作情報を、安定した入力情報としてコンピュータ装置60に送信するために、仮想タッチパネル30とは別途、設けられた仮想平面である。基準パネル40は、操作者10の関節の中でも動作の少ない安定した身体部位または所定の基準点(基点12)に対応して設定される。基準パネル40の設定も、ポインティング操作開始前の「キャリブレーション」によって仮想タッチパネル30とともに設定される。
ポインティングシステム1の動作の概要は、以下の通りである。
(1)プレゼンテーション等のポインティング操作を開始する前に、撮影デバイス50は操作者10を撮影して操作者10の各関節およびそれらの位置情報等を含む骨格情報を取得する。ただし、「操作者10の各関節」とは、一般的に「関節」と言われる、骨と骨とが可動的に結合されている部位を指すものに限定されない。マイクロソフト社のKinect(商標)センサのように、頭、右肩、右ひじ、腰、等の主要な身体の一部を指し示す情報であってもよい(以下、「関節」とは、このような広義の意味であるとする)(参考URL:http://kinection.jp/post/58)。なお、撮影デバイス50としては、例えば、マイクロソフト社のKinectセンサ等を採用することができる。
(2)また、ポインティング操作を開始する前に、「キャリブレーション」処理を行う。キャリブレーションにおいては、まず、例えば、ディスプレイ20上に予め定められた所定のアニメーションが表示される。そして、操作者10は、このアニメーションに合わせて動作する。この時、操作者10には、プレゼンテーション等のポインティング操作を行う時と同じ方法で動作するようにする。例えば、操作者10がプレゼンテーション等において手を用いてディスプレイ20に対するポインティング操作を行うことを前提としているのであれば、このキャリブレーションにおいても、手を用いてアニメーションに合わせた動作を行う。操作者10が、例えば足先を使ってポインティングを行う予定であれば、キャリブレーションにおいても足先を使用する。そして、撮影デバイス50は、この時の操作者10の動作を撮影し、操作者10の骨格情報が記録される。なお、アニメーションはポインティングシステム1において予め定められたものであればよいが、例えば、ディスプレイ20の左上から右下への丸いアイコンが直線的に移動するようなアニメーションが挙げられる。
(3)上記(2)において記録された操作者10の動作に関する骨格情報から、操作者10がディスプレイ20に対して操作している身体の一部を、「操作点」として算出する。図1では、一例として操作者10が手を使って操作をしている様子を示しているが、この場合、操作者10の手が操作点14となる。具体的には、例えば、キャリブレーション中に移動量が最も大きかった関節部分を操作点として決定すればよい。
(4)さらに、上記(2)において記録された操作者10の動作に関する骨格情報に基づいて、操作者10がポインティング操作を行う際に最も動きの少ない点として想定される「基点」として、最適な関節位置または操作環境位置が算出される。基点12は、操作者10がポインティング操作を行う際に最も動きの少ない点として決定される点である。例えば、手でポインティング操作をする場合には、腰の関節等がポインティング操作中において移動量が最も小さいと判定されうる。この場合、腰の関節が基点12として決定される。また、操作者10の身体の一部でなくとも、操作者10の周囲にある物品(の一部)を基点12として設定してもよい。例えば、ポインティング操作時に操作者10の頭部はほとんど動かないという前提に基づいて、操作者10が座っている座席のヘッドレストの位置や、操作者10が横たわっているベッドにおける枕の位置を基点12として決定してもよい。
(5)キャリブレーション中の操作者10の自然な動作に応じて、仮想タッチパネル30が設定される。すなわち、仮想タッチパネル30は、操作者10のポインティング操作時の手の動かし方などを踏まえて作成される。これにより、操作者10はポインティング操作を行う際に、仮想タッチパネル30の存在を特段気にすることなくポインティング操作を行うことができる。(仮想タッチパネル30の設定方法の詳細については後述する。)
(6)さらに、キャリブレーションによって、基準パネル40の設定も行われる。コンピュータ装置60は、決定された基点12と、ディスプレイ20の位置および大きさとから、基準パネル40の位置および大きさを算出する。上述した通り、仮想タッチパネル30は操作者10の操作に資するものであるが、基準パネル40は、ポインティングシステム1が操作者10のポインティング操作を検出することに資するものである。(基準パネル40の設定方法の詳細については後述する。)
(7)以上のキャリブレーションが終了すると、操作者10は、ポインティングシステム1を利用して、プレゼンテーション等におけるポインティング操作を開始することが可能となる。操作者10が仮想タッチパネル30上においてポインティング操作を行うと(ただし、操作者10は仮想タッチパネル30の位置を意識してポインティングする必要はない。キャリブレーション時と同じように自然に操作を行えばよい。)、コンピュータ装置60は、仮想タッチパネル30上における操作点14の3次元座標を特定する。そして、この仮想タッチパネル30上の位置を基準パネル40上に射影した射影点(射影操作点42)を算出する。そして、コンピュータ装置60は、この射影操作点42の位置から、操作者10がディスプレイ20上で指し示そうとした指示位置22の3次元座標を算出する。これにより、ディスプレイ20へのポインティング操作が実現される。
(8)また、ポインティングシステム1はさらに、撮影デバイス50が、指示位置22における操作者の身体の動きを撮影して検出することによって、指示位置22におけるクリック操作等を示す操作者10のジェスチャ動作を検出するようになっていてもよい。指示位置22、クリック操作等の操作結果をポインティング操作情報として、コンピュータ装置60からディスプレイ20に出力する。これにより、操作者10は単に位置を指し示すような操作だけでなく、より複雑な操作をディスプレイ20に対して行うことができる。
以下、本実施形態に係るポインティングシステムについてさらに詳述する。
(キャリブレーション)
上述したように、仮想タッチパネル30と基準パネル40は、キャリブレーションを行うことで生成される。キャリブレーションは、プレゼンテーション等のポインティング操作を行う前に実行されるべきものである。以下、キャリブレーションについて説明する。
キャリブレーションを行うために、まず、操作者10は、ディスプレイ20に対してポインティング操作を(キャリブレーションの後に)行う場合と略同一の位置に立つ。(もし操作者10がこの後のポインティング操作を椅子に座って行う場合やベッドに横になって行う場合には、操作時と同様の姿勢で椅子に座る、ベッドに横たわる、等する。)
キャリブレーションにおいては、例えば、図2に示されるようなアニメーションがディスプレイ20に表示される。図2の例においては、ディスプレイ20に動点P(以下、キャリブレーション点という)が表示され、キャリブレーション点Pは破線矢印で示されるように操作者10から見てディスプレイ20の画面左上端から画面右下端まで移動する。なお、図2の破線矢印は、説明の便宜上、示されているものであって、ディスプレイ20には表示されない。操作者10は、このキャリブレーション画面のキャリブレーション点Pの動きに合わせて、点Pを追いかけるようにして、画面左上から画面右下まで手を動かす。なお、この時、操作者10は、この後にポインティング操作を行う時に使用する身体部位と同じ部位を使用すればよく、手でなくてもよい。以下の説明においては、説明の便宜上、一例として、操作者10は手を用いてポインティング操作を行うものとする。また、このように操作者10がキャリブレーション点Pの動きに合わせて身体の一部を動かしている間に、以下に説明するように、仮想タッチパネル30や基準パネル40の設定等が行われる。
図3は、操作者10がキャリブレーション点Pの開始位置(本例ではディスプレイ20の左上端)を手で指している時の状態をディスプレイ20の横方向から見た図である。また、図4は、これを操作者10の斜め後方からディスプレイ20の方向に見た図である。まず、操作者10がキャリブレーション点Pの開始位置(ディスプレイ20の左上端)を手(操作点14)で指している時、この時の手の位置35が、仮想タッチパネル30の左上端の位置として決定される。また、この時の手の位置35は、基準パネル40の作成においても使用される(後述)。
この後、キャリブレーション点Pがディスプレイ20の右下端に移動するに従って、操作者10も自身の手を動かす。図5は、この時の状態をディスプレイ20に対して横方向から見た図である。また、図6は、これを操作者10の斜め後方からディスプレイ20の方向に見た図である。キャリブレーション点Pは、ディスプレイ20の左上端から右下端まで移動するが、ディスプレイ20の右下端に移動した際に操作者10が手で指している位置36が、仮想タッチパネル30の右下端の位置として決定される。そして、位置35から位置36を結ぶ線分を対角線として、位置35から鉛直方向(または水平方向)に延びる直線の一部37を一辺とする長方形が、仮想タッチパネル30として設定される。これにより、仮想タッチパネル30の空間位置とサイズが決定する。
また、ポインティングシステム1は、キャリブレーション中に、最も移動量が大きかった操作者10の身体部位を操作点14として判断する(あらかじめ特定の身体部位を操作点14として定めてもよい)。また、最も移動量が小さく、撮影デバイス50の位置に対して直線距離が最も近い操作者10の身体部位を算出し、この部位を基点12として判断する(あらかじめ特定の位置を基点12として定めてもよい)。
さらに、ポインティングシステム1は、基準パネル40を算出する。図7は、基準パネル40の算出方法を説明する図である。まず、ポインティングシステム1は、基点12を頂点としてディスプレイ20を底面とする四角錐を算出する。そして、この四角錐を、操作者10の骨格で決まる平面に並行な面で切断した際にできる四角形を、基準パネル40として決定する。「操作者10の骨格で決まる平面」とは、具体的には、例えば、撮影デバイス50によって認識される操作者10の関節の3ヶ所を通る平面である。
以上のようにして、キャリブレーションによって仮想タッチパネル30および基準パネル40が設定される。このように、何も意識することなく自然な形で操作者10に簡単なポインティング操作を行わせることによって仮想タッチパネル30が設定される。そして、この仮想パッチパネル30を介して、ディスプレイ20へのポインティングが行われる。これにより、プレゼンテーション等においても、操作者10は仮想タッチパネル30の存在を特段意識することなくディスプレイ20を見ながら自然に手などの操作点14を動かしてポインティング操作を行うだけで、ディスプレイ20へのポインティング操作が実現される。また、仮想タッチパネル30は、ディスプレイ20や撮影デバイス50の位置によらず、撮影デバイス50が操作者10を撮影可能な範囲であれば設定が可能である。
(操作者の指示位置とディスプレイ上に反映される指示位置との関係)
以下、本実施形態に係るポインティングシステムを使用して操作者10がプレゼンテーション等のポインティング操作をする際の、操作者の指示位置とディスプレイ上に反映される指示位置との関係について説明する。
図8は、操作者の指示位置とディスプレイ上に反映される指示位置との関係を説明する図である。例えば、操作者10が、仮想タッチパネル30上において(ただし、操作者10は特段、仮想タッチパネル30の存在を意識して操作する必要はない)点X(座標(x,y))を手で指すと、ポインティングシステム1は、両パネルのサイズ比と位置関係とに基づく写像計算によって、仮想タッチパネル30上の点Xの座標(x,y)を、基準パネル40上の点X1の座標(x1,y1)に変換する。そして、図9に示されるように、基準パネル40上の座標(x1,y1)からディスプレイ20に対する操作点X2の座標(x2,y2)への写像は、基準パネル40に写像された点X1と、基点12とを結ぶ直線と、ディスプレイ20との交点を算出することにより実行される。
(操作者10が移動した場合)
操作者10がキャリブレーションおよびポインティング操作を実行していた場所から移動した場合、基準パネル40は、その都度、設定しなおされる。この際のディスプレイ20に対する基準パネル40の位置は、操作者10の移動に伴って変化する基点12の位置の変化に応じて、延伸および/または短縮されて決定される。そして、基準パネル40の生成後、初期のキャリブレーション時に計測されたサイズ比および位置関係に応じて、仮想タッチパネル30が作成し直される。
このように、本実施形態に係るポインティングシステムによれば、操作者10が移動した場合であっても、再度、キャリブレーションを実行し直すことなく、基準パネル40および仮想タッチパネル30を生成することが可能である。特に、プレゼンテーション等の最中に操作者10が移動しても短時間で対応することが可能であるため、非常に有用である。
なお、勿論のことであるが、再度キャリブレーションを行うことで、仮想タッチパネル30および基準パネル40を再設定してもよい。いずれにしても、本実施形態のポインティングシステムによれば、操作者10が移動した場合であっても、簡単な処理のみによって新たな位置からポインティング操作を再開することができる。
(処理フロー)
以下、図10および図11を用いて、本実施形態に係るポインティングシステムにおける処理フローについて、具体例を挙げながら説明する。
(キャリブレーション)
図10は、ポインティングシステム1の使用を開始する前のキャリブレーションおよびその他の事前設定に関する処理の一例を示すフロー図である。
まず、操作者10は、コンピュータ装置60に対して環境情報を入力する操作を行う(ステップS102)。環境情報は、ディスプレイ20の大きさ、撮影デバイス50とディスプレイ20との位置関係、等を含む情報である。ここでは、“ディスプレイの大きさ:縦3m、横4m(長方形)”および“撮影デバイスはディスプレイの真下かつ画面中央に位置する”を示す情報を環境情報とする。(なお、以下においては、説明の便宜上、操作者10から見てディスプレイ20の画面左上の座標は(0,0)、画面右下の座標は(400,300)とする。)コンピュータ装置60は、入力された環境情報を受け付けてメモリ等の記憶装置に記憶する。
次に、撮影デバイス50は、操作者10を撮影して、得られる画像情報から操作者情報の算出を行う(ステップS104)。操作者情報は、例えば、操作者10の位置を示す位置情報、および操作者10の骨格情報(各骨格の位置(頭、肩、ひじ、腰、等)を含む情報)を含む。ここでは、一例であるが、操作者情報として、“撮影デバイスから直線距離で6m前方の位置(位置S1とする)に、操作者の頭、肩、腰を検出”という操作者情報が算出されることとする。なお、本実施形態においては操作者10が1人である場合を示しているが、操作者は複数人であってもよい。その場合、操作者情報は、例えば、各操作者を識別するための操作者IDと、各操作者の位置情報、および各操作者の骨格情報とが関連付けられたものを含んでいてもよい。
次に、ディスプレイ20にキャリブレーション画面を表示する(ステップS106)。撮影デバイス50は、操作者10の操作情報の記録を開始しつつ、ディスプレイ20の左上端(座標(0,0))にはキャリブレーション点が表示される。そして、キャリブレーション点は、一定時間経過後にディスプレイ20の右下端(座標(400,300))に向けて直線移動を開始する。操作者10は、この赤い点の動きに合わせて、手を使用してキャリブレーション動作を開始する(ステップS108)。
撮影デバイス50は、操作者10がキャリブレーション操作を継続している間、操作者10の操作者情報の算出を継続する。そして、撮影デバイス50は、算出した操作者情報をコンピュータ装置60に逐次、出力する。コンピュータ装置60は、撮影デバイス50から取得した操作者情報に基づいて、キャリブレーション動作中に操作者10の骨格の位置のうち、最も大きく動いている点を算出し、この点を操作点14として決定する(ステップS110)。なお、操作点14は、あらかじめ操作者10が明示的に指定しておいてもよい。また、コンピュータ装置60は、操作者点14のキャリブレーション動作の開始位置(位置A1とする)を記録しておく。ここでは、操作点の開始位置A1は、撮影デバイス50(ディスプレイ20の画面下の中央)から見て、“5.5m前方、1m上方、50cm右”であったとする。(操作者10の目から見て、50cm前方、50cm上方、30cm左が開始位置となる。)
さらに、コンピュータ装置60は、撮影デバイス50から取得した操作者情報に基づいて、基点12の算出を行う。キャリブレーション動作中に操作者10の骨格の位置のうち、移動量の最も小さい関節位置を算出し、この点を基点12として決定する(ステップS112)。なお、基点12は、あらかじめ操作者10が明示的に指定しておいてもよい。そして、コンピュータ装置60は、この基点12の位置を記録する(位置B1とする)。ここでは、基点の位置B1が、撮影デバイス50(ディスプレイ20の画面下の中央)から見て、“6m前方、0m上方、0m右”であったとする。
また、コンピュータ装置60は、基準パネル40を算出する(ステップS114)。コンピュータ装置60は、基点12の位置B1を頂点の位置として、ディスプレイ20を底面とする四角錐を算出する。そして、算出された四角錐を、撮影デバイス50によって検出された操作者10の3つの関節位置を通る平面に平行な面であって、操作者10から所定の奥行距離(設定値)にある平面でスライスしてできる断面を、基準パネル40とする。本例では説明を簡潔化するために、利用者10はがディスプレイ20の画面に正対しており(つまり、「操作者10の3つの関節位置を通る平面に平行な面」は、ディスプレイ20にも平行な面である)、設定値は“10cm(前方)”であったとする。この場合、基準パネル40は、操作者10から見ると、基点12から60cm前方の位置に、縦30cm、横40cmの長方形(ディスプレイ20の大きさ:縦3m×横4mの1/10)の基準パネル40が設定されることになる。具体的な算出方法は、以下の通りである。
基準パネル40の位置=操作点の開始位置A1(操作者10の目から見て50cm前方)+設定値10cm、と算出され、よって、基準パネル40の位置は操作者10から見て60cm前方となる。そして、これは、撮影デバイス50から(ステップS104で検出された操作者10の各関節位置である)位置S1までの距離(6m)の1/10の距離である。基準パネル40は、ディスプレイ20と平行かつ相似形となるので、基準パネル40の大きさ=ディスプレイ20の大きさの1/10=縦3m×横4mの1/10=縦30cm×横40cm、と算出される。(なお、説明の便宜上、以後においては、基準パネル40の座標は、左上(0,0)、右下(40,30)とする。)
次に、コンピュータ装置60は、仮想タッチパネル30を算出する(ステップS116)。コンピュータ装置60は、キャリブレーション開始時の操作点14の開始位置A1と、キャリブレーション終了時(キャリブレーション点がディスプレイ20において座標(400,300)に位置した時)の操作点14の位置(位置A2とする)とを使用して、仮想タッチパネル30を設定する。ここでは、操作点14が、位置A1から縦60cm、横60cmの位置まで移動したとする。この場合、仮想タッチパネル30は、縦60cm、横60cmとなる。(なお、説明の便宜上、以後においては、仮想タッチパネル30の座標は、左上(0,0)、右下(60,60)とする。)
ここで、仮想タッチパネル30の座標位置と、基準パネル40の座標位置とを対応させるために、コンピュータ装置60は、仮想タッチパネル30と基準パネル40との位置関係を記録しておく。ここでは、仮想タッチパネル30の中心位置が、基準パネル40の中心位置に対して上に30cm、右に10cm、ずれているとする。コンピュータ装置60は、仮想タッチパネル30と基準パネル40との位置関係として、縦および横のそれぞれの比率(40cm/60cm,30cm/60cm)=(2/3,1/2)、並びに、両パネルの中心のズレ(10,30)を記録する。
以上により、キャリブレーション処理が終了する(ステップS118)。
なお、基準パネルの算出(ステップS114)の処理と、仮想タッチパネルの算出(ステップS116)の処理の順番は、逆であってもよい。すなわち、仮想タッチパネルを算出した後に、基準パネルを算出するようになっていてもよい。
(利用時の処理フロー)
上述のキャリブレーションが終了した後、操作者10がポインティングシステム1を利用してプレゼンテーション等のポインティング操作を行う場合の処理フローについて説明する。図11は、ポインティングシステム1の利用時における処理の一例を示すフロー図である。なお、本フローでは、キャリブレーションおよびその他の事前設定は、図10を用いて説明した通りに行われており、操作者10の位置はキャリブレーション動作を行った時と同じであるとする(すなわち、仮想タッチパネル30と基準パネル40の設定は上述の通りであることを前提として、以下説明する)。
まず、操作者10がプレゼンテーション等において、手(操作点14)を使用してディスプレイ20のある箇所を指示(ポインティング)する。ここでは、操作者10から見て(仮想タッチパネル30上)、前方50cm、10cm上、15cm右を指示したとする(ステップS202)。コンピュータ装置60は、ステップS202において操作者10が指示した位置を、仮想タッチパネル30上の位置Aに変換する。ステップS202において操作者10が指示した位置は、上述のキャリブレーションによって設定された仮想タッチパネル30においては、位置A=(45,20):{仮想タッチパネル30の中央(30,30)から上に10、右に15の位置}となる。
さらに、コンピュータ装置60は、この仮想タッチパネル30上の位置Aを、基準パネル40上の位置Bへ写像する(ステップS206)。コンピュータ装置60は、上述した仮想タッチパネル30の中心と基準パネル40の中心のズレ=(10,30)と、仮想タッチパネル30と基準パネル40の縦横のそれぞれのサイズ比=(2/3,1/2)とに基づいて、位置Bを算出する。位置Bのx座標=45×2/3=30となり、位置Bのy座標=20×1/2=10となる。(位置B=(30,10))
次に、コンピュータ装置60は、基点12と位置Bとを結ぶ直線Cを算出する(ステップS208)。この時に必要な情報は、「基点12から見た基準パネル40の位置と基準パネル40内の情報」であって、基準パネル40がディスプレイ20や撮影デバイス50から見て、どの位置にあるかは不問である。本例では、1座標値は、1cmに対応している。よって、基点12を原点とした場合の座標空間において、基点(0,0,0)と、位置B=(60,10,5)とを通る直線Cは、x/60=y/10=z/5、となる。なお、位置Bの座標値について補足すると、ステップS206では、位置Bのyz座標=(30,10)と算出されたが、これは基準パネル40の左上端を原点(0,0)とした座標値であった。これに対し、本ステップでは基点12を原点として位置Bの座標を算出している(すなわち、基準パネル40の中心が原点(0,0)となる)ため、位置Bのyz座標(10,5)は、ステップS206で算出されたyz座標値よりも、基準パネル40の半分の座標値の分だけ異なる値となっている。なお、位置Bのx座標の“60”という値は、基点12から見た場合に、位置Bの基点12からの距離が60cmであることによる。
次に、直線Cとディスプレイ20との交点Dを算出する(ステップS210)。本例では、基点12を原点とした場合、交点Dのx座標値=600(基点12からの距離6mに対応)であり、直線Cは、x/60=y/10=z/5であることから、y座標値=100、z座標値=200、と求められる。撮影デバイス50から見て、上に200cm、右に100cmの位置である。なお、交点Dのディスプレイ20上における座標値は、(左上端を(0,0)として)(300,100)となる。この交点Dが、操作者10が手を用いたポインティング動作によってディスプレイ20上で指し示そうとしている指示位置である。
なお、本例では、図12(a)に示されるように、操作者10がディスプレイ20に正対している(平行である)ことを前提としている。この場合、操作者10から見た基準パネル40の(横方向における)両端は、ディスプレイ20の両端ステップS208の直線Cの算出を実行しなくとも、指示位置Dの座標は算出可能である。つまり、基準パネル40上の点X1の座標を等倍することでディスプレイ20上の指示位置Dが算出することができる。しかしながら、例えば、図12(b)に示されるように、操作者10はディスプレイ20と必ずしも正対しているとは限らず、この場合には基準パネル40とディスプレイ20との座標は等倍にはならない可能性がある。この場合には、上記に説明したように、直線Cを算出してから交点Dを算出することで、ディスプレイ上における指示位置が算出することができる。
図11に戻り、ステップS210で算出された交点Dを操作者10の指示位置としてディスプレイ20に表示出力する(ステップS212)。
さらに、操作者10がディスプレイ20に表示出力された指示位置において、クリック等のさらなる操作を実行するためのジェスチャ動作を行うと(ステップS214)、ポインティングシステム1は、クリック等の処理後の結果をディスプレイ20に表示出力する(ステップS216)。
なお、操作者10が移動して位置が変化した場合、操作者10のその位置において、再度キャリブレーションを行うようになっていてもよい。そして、基点12および操作点14を算出し直すとともに、仮想タッチパネル30および基準パネル40の作成をし直してもよい。その後、操作者10は、その位置においてポインティング操作を開始することができる。
また、上記説明においては、基準パネル40を用いてポインティング操作を実現したが、基準パネル40を用いずに、仮想タッチパネル30と、基点12と、ディスプレイ20との位置関係に基づいて、ポインティング操作を実現するようになっていてもよい。
(ポインティングシステムの構成)
以下、本実施形態に係るポインティングシステムの構成例について説明する。図13は、本実施形態に係るポインティングシステムの構成例を示す図である。ポインティングシステム1は、ディスプレイ20と、撮影デバイス50と、コンピュータ装置60と、を備える。
(撮影デバイスの構成)
撮影デバイス50は、撮影部502と、撮影データ処理部504と、骨格情報出力部506と、を備える。
撮影部502は、操作者10を撮影する。
撮影データ処理部504は、撮影された操作者の撮影データに基づいて操作者10の複数の身体上の部位とそれらの位置とを含む骨格情報を取得する。
骨格情報出力部506は、操作者10の骨格情報を出力する。
撮影デバイス50は、例えば、マイクロソフト社のKinectセンサ(http://kinection.jp/post/58)等の既存のシステムを利用してもよい。
(コンピュータ装置の構成)
コンピュータ装置60は、骨格情報取得部602と、操作点決定部604と、基点決定部606と、基準パネル算出部608と、仮想タッチパネル算出部610と、指示位置特定部612と、指示位置表示情報出力部614と、ジェスチャ操作検出部616と、を備える。
骨格情報取得部602は、撮影デバイス50から操作者10の骨格情報を取得する。
操作点決定部604は、骨格情報に含まれる操作者10の身体の一部であって、操作者10がポインティング操作を行う際に使用する操作者10の身体の一部である操作点を決定する。
基点決定部606は、操作者10がポインティング操作を行う際の不動点である基点12を決定する。
仮想タッチパネル算出部610は、操作者10がディスプレイ20上の第1の位置から第2の位置までのポインティング操作であるキャリブレーション操作を行った際の操作者10の骨格情報に基づいて、第1の位置を指し示した際の操作点14の位置から第2の位置を指し示した際の操作点14の位置を結ぶ線分を対角線とし、かつ第1の位置から鉛直方向または水平方向に延びる直線の一部を一辺とする長方形の仮想タッチパネル30を算出する。
基準パネル算出部608は、基点12に基づいて基準パネル40を算出する。基準パネル算出部608は、例えば、基点12を頂点としてディスプレイ20を底面とする四角錐を、骨格情報に含まれる操作者10の3つの身体上の部位を通る平面、またはこれに平行な平面で切断した場合の切断面を基準パネル40として算出する。また、基準パネル算出部608は、例えば、基点12を頂点としてディスプレイ20を底面とする四角錐を、骨格情報に含まれる操作者10の2つの身体上の部位と、撮影デバイス50から見て基点12の垂直方向もしくは水平方向に存在する1点、もしくは撮影デバイス50から見てキャリブレーション操作における始点を指し示した際の操作点14の位置の垂直方向もしくは水平方向に存在する1点と、を通る平面、またはこれに平行な平面で切断した場合の切断面を基準パネルとして算出してもよい。
指示位置特定部612は、キャリブレーション操作後に操作者10が操作点14を動かした際に、操作者10の骨格情報に基づいて操作点14の仮想タッチパネル30上における位置情報を決定し、仮想タッチパネル30と基点12との位置関係に基づいて、仮想タッチパネル30上における位置情報に対応するディスプレイ20上の位置を決定する。また、指示位置特定部612は、例えば、仮想タッチパネル30上における位置情報を基準パネル40上における位置情報に変換し、さらに基準パネル40上における位置情報をディスプレイ20上の位置情報に変換することで、仮想タッチパネル30上における位置情報に対応するディスプレイ20上の位置を決定してもよい。
指示位置表示情報出力部614は、決定されたディスプレイ20上の位置をディスプレイ20に示すための指示位置表示情報を出力する。
ジェスチャ操作検出部616は、指示位置特定部612において特定されたディスプレイ20上の位置情報が示す位置において、操作者10の身体の動きを示す骨格情報を取得し、取得した骨格情報に基づいて操作者10のジェスチャ操作を検出し、ジェスチャ操作の結果をディスプレイ20に表示するための操作結果表示情報を出力する。
(ディスプレイの構成)
ディスプレイ20は、指示位置表示情報取得部202と、表示出力部204と、を備える。
指示位置表示情報取得部202は、コンピュータ装置60の指示位置表示情報出力部614から出力される指示位置表示情報を取得する。
表示出力部204は、指示位置表示情報取得部202にて取得された指示位置表示情報に基づいて、操作者10の指示位置を表示出力する。また、表示出力部204は、コンピュータ装置60のジェスチャ操作検出部616にて検出された操作者10のジェスチャ操作の結果をさらに表示出力してもよい。
(ハードウェア構成例)
撮影デバイス50およびコンピュータ装置60は、一般的なコンピュータ装置と同様のハードウェア構成によって実現可能である。図14は、撮影デバイス50およびコンピュータ装置60のハードウェア構成の一例を示す図である。図14に示されるコンピュータ装置100は、一例として、プロセッサ101と、RAM102と、ROM103と、ハードディスク装置104と、リムーバブルメモリ105と、通信インタフェース106と、ディスプレイ/タッチパネル107と、スピーカ108と、キーボード/キーパット109とを備える。図13に示される撮影デバイス50およびコンピュータ装置60の各構成の機能は、例えば、プロセッサ101が、ハードディスク装置104にあらかじめ格納されたプログラムをメモリに読み出して実行することで実現可能である。また、通信インタフェース106は、無線通信のインタフェースであってもよい。
(まとめ)
上記の実施形態においては、操作者10が手を使用してポインティング操作を行う場合について説明したが、これに限定されない。操作者10は、例えば、図15に示されるように、足を使用してディスプレイ20に対してポインティング操作を行うことも可能である。従来のポインティングシステムでは、仮に操作者10が足で操作を行っても、その操作位置が操作者10の下方となるために、操作位置をディスプレイ20に写像することは困難であり、足などの部位で操作することは現実的には難しかった。これに対して、本実施形態に係るポインティングシステムであれば、基準パネル40を設けたことにより、より広い範囲およびより多くの位置において、ポインティング操作を行うことが可能となった。また、操作点14の制限が軽減されたために、プレゼンテーション等の用途以外でも使用可能である。例えば、身体の不自由である者が、椅子に座った状態、ベッドに横になった状態等であってもポインティング操作が可能であるので、福祉施設等においても利用可能である。
また、上記説明したように、本実施形態に係るポインティングシステムによれば、キャリブレーション処理によって仮想タッチパネル30および基準パネル40が設定される。つまり、操作者10に何も意識することなく自然な形で簡単なポインティング操作を行わせることによって、仮想タッチパネル30が設定される。すなわち、操作者10が手などを用いて操作した時に、操作者10にとって操作しやすい位置に仮想タッチパネル30が設定される。よって、プレゼンテーション等において、操作者10が仮想タッチパネル30の存在を意識することなく自然に手を動かしてポインティング操作を行うと、結果的に、仮想タッチパネル30上で操作を行うことになる。つまり、操作者10は仮想タッチパネル30の存在を気にすることなく、キャリブレーション時と同様にポインティング操作を行うだけで、ディスプレイ20へのポインティング操作が実現される。なお、仮想タッチパネル30は、ディスプレイ20や撮影デバイス50の位置によらず、撮影デバイス50が操作者10を撮影可能な範囲であれば設定が可能である。
なお、操作者10のポインティング操作が仮想タッチパネル30から大きく外れてしまう場合には、ディスプレイ20にキャリブレーションを再実行する旨のメッセージ等を表示して、キャリブレーションを再実行するようになっていてもよい。また、その際、操作者10の指示位置22を示すディスプレイ20上のカーソルやポインタは、移動せずに従前の位置に留まるようになっていてもよい。
さらに、本実施形態に係るポインティングシステムにおいては、仮想タッチパネル30の設定位置によらずに操作者10の操作情報を安定した入力としてコンピュータ装置60に送信するために、仮想タッチパネル30とは別途、操作情報の算出の基準となる基準パネル40が設けられた。また、基準パネル40は、操作者10の骨格情報の中でも動作の少ない安定した身体部位に対して操作者10に何ら操作を要求せずに自動的に設定される。
また、例えば非特許文献1に記載されているポインティング方法では、指示位置が固定的であり、操作者の動きを撮影する撮影デバイスや入力デバイスを操作対象となるディスプレイの付近に設置しなければならなかった。これに対し、本実施形態に係るポインティングシステムでは、例えば図1に示されるように、撮影デバイス50やコンピュータ装置60の設置位置にはほとんど制限がないため、設置が容易である。
また、上記の実施形態においては、キャリブレーション時にディスプレイ20にキャリブレーション画面が表示されるようになっていたが、これに限定されない。操作者10がディスプレイ20上において指し示そうとしている位置と、実際に手などの操作点が指している位置との対応関係が取得できる方法であればよい。例えば、キャリブレーション画面を表示せずに、ディスプレイ20の左上端から右下端まで直線を引くようにポインティングを行うよう指示する旨のメッセージが操作者10に対して表示または音声出力され、操作者10は、これに従ってキャリブレーション動作を行うようになっていてもよい。すなわち、操作者10のキャリブレーション動作と、このキャリブレーション動作において指し示しているディスプレイ20の位置とが、関連付けられるような仕組みになっていればよい。さらに簡潔には、単に、ディスプレイ20の左上端と右下端のそれぞれを操作点14で指し示すよう操作者10に指示するようになっていてもよい。(ただし、ディスプレイ20が上記実施形態のような平面ではなく曲面である場合には、左上端から右下端まで操作点14を動かすことを要する場合がある。)
また、上記の実施形態においては、ディスプレイ20、撮影デバイス50、およびコンピュータ装置60は、それぞれ別々の装置として示されていたが、これらの装置の一部または全ては一つの装置として構成されていてもよい。
ここまで、本発明の一実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。
本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。
1 ポインティングシステム
10 操作者
12 基点
14 操作点
20 ディスプレイ
30 仮想タッチパネル
40 基準パネル
42 射影操作点
50 撮影デバイス
60 コンピュータ装置
202 指示位置表示情報取得部
204 表示出力部
502 撮影部
504 撮影データ処理部
506 骨格情報出力部
602 骨格情報取得部
604 操作点決定部
606 基点決定部
608 基準パネル算出部
610 仮想タッチパネル算出部
612 指示位置特定部
614 指示位置表示情報出力部
616 ジェスチャ操作検出部

Claims (8)

  1. 撮影デバイスと、コンピュータ装置と、を含んで構成され、操作者が遠隔にあるディスプレイに対してポインティング操作を行うためのポインティングシステムであって、
    前記撮影デバイスは、
    前記操作者を撮影する撮影部と、
    前記撮影された操作者の撮影データに基づいて前記操作者の複数の身体上の部位とそれらの位置とを含む骨格情報を取得する撮影データ処理部と、
    前記操作者の前記骨格情報を出力する骨格情報出力部と、を備え、
    前記コンピュータ装置は、
    前記撮影デバイスから前記操作者の前記骨格情報を取得する骨格情報取得部と、
    前記骨格情報に含まれる前記操作者の身体の一部であって、前記操作者が前記ポインティング操作を行う際に使用する前記操作者の身体の一部である操作点を決定する操作点決定部と、
    前記操作者が前記ポインティング操作を行う際の不動点である基点を決定する基点決定部と、
    前記操作者が前記ディスプレイ上の少なくとも第1の位置および第2の位置についてのポインティング操作であるキャリブレーション操作を行った際の前記操作者の前記骨格情報に基づいて、前記第1の位置を指し示した際の前記操作点の位置から前記第2の位置を指し示した際の前記操作点の位置を結ぶ線分を対角線とし、かつ前記第1の位置から鉛直方向または水平方向に延びる直線の一部を一辺とする長方形の仮想タッチパネルを算出する仮想タッチパネル算出部と、
    前記キャリブレーション操作後に前記操作者が前記操作点を動かした際に、前記操作者の前記骨格情報に基づいて前記操作点の前記仮想タッチパネル上における位置情報を決定し、前記仮想タッチパネルと前記基点との位置関係に基づいて、前記仮想タッチパネル上における位置情報に対応する前記ディスプレイ上の位置を決定する指示位置特定部と、
    前記指示位置特定部において決定された前記ディスプレイ上の位置を前記ディスプレイに示すための指示位置表示情報を出力する指示位置表示情報出力部と、
    を備えるポインティングシステム。
  2. 前記コンピュータ装置は、前記基点に基づいて基準パネルを算出する基準パネル算出部をさらに備え、
    前記指示位置特定部は、
    前記操作点の前記仮想タッチパネル上における位置情報を前記基準パネル上における位置情報に変換し、この前記基準パネル上における位置情報を前記ディスプレイ上の位置情報に変換することで、前記仮想タッチパネル上における位置情報に対応する前記ディスプレイ上の位置を決定する、請求項1に記載のポインティングシステム。
  3. 前記基準パネル算出部は、
    前記基点を頂点として前記ディスプレイを底面とする四角錐を、前記骨格情報に含まれる前記操作者の3つの身体上の部位を通る平面、またはこれに平行な平面で切断した場合の切断面を基準パネルとして算出する、請求項2に記載のポインティングシステム。
  4. 前記基準パネル算出部は、
    前記基点を頂点として前記ディスプレイを底面とする四角錐を、前記骨格情報に含まれる前記操作者の2つの身体上の部位と、前記撮影デバイスから見て前記基点の垂直方向もしくは水平方向に存在する1点、もしくは前記撮影デバイスから見て前記キャリブレーション操作において前記第1の位置を指し示した際の前記操作点の位置の垂直方向もしくは水平方向に存在する1点と、を通る平面、またはこれに平行な平面で切断した場合の切断面を基準パネルとして算出する、請求項2に記載のポインティングシステム。
  5. 前記仮想タッチパネルの算出後に前記操作者の位置が変化した場合には、変化後の前記操作者の位置において、前記キャリブレーション操作を再度行って前記仮想タッチパネルの算出を実行する、請求項1から4のいずれか一項に記載のポインティングシステム。
  6. 前記コンピュータ装置は、
    前記指示位置特定部において特定された前記ディスプレイ上の位置において、前記操作者の身体の動きを示す骨格情報を取得し、前記取得した骨格情報に基づいて前記操作者のジェスチャ操作を検出し、前記ジェスチャ操作の結果を前記ディスプレイに表示するための操作結果表示情報を出力するジェスチャ操作検出部と、
    を備える、請求項1から5のいずれか一項記載のポインティングシステム。
  7. 撮影デバイスと、コンピュータ装置と、を含んで構成され、操作者が遠隔にあるディスプレイに対してポインティング操作を行うためのポインティングシステムが実行するポインティング方法であって、
    前記撮影デバイスが、前記操作者を撮影するステップと、
    前記撮影デバイスが、前記撮影された操作者の撮影データに基づいて前記操作者の複数の身体上の部位とそれらの位置とを含む骨格情報を取得するステップと、
    前記コンピュータ装置が、前記骨格情報に含まれる前記操作者の身体の一部であって、前記操作者が前記ポインティング操作を行う際に使用する前記操作者の身体の一部である操作点を決定するステップと、
    前記コンピュータ装置が、前記操作者が前記ポインティング操作を行う際の不動点である基点を決定するステップと、
    前記コンピュータ装置が、前記操作者が前記ディスプレイ上の少なくとも第1の位置および第2の位置についてのポインティング操作であるキャリブレーション操作を行った際の前記操作者の前記骨格情報に基づいて、前記第1の位置を指し示した際の前記操作点の位置から前記第2の位置を指し示した際の前記操作点の位置を結ぶ線分を対角線とし、かつ前記第1の位置から鉛直方向または水平方向に延びる直線の一部を一辺とする長方形の仮想タッチパネルを算出するステップと、
    前記コンピュータ装置が、前記仮想タッチパネルおよび前記基準パネルの算出後に前記操作者が前記操作点を動かした際に、前記操作者の前記骨格情報に基づいて前記操作点の前記仮想タッチパネル上における位置情報を決定し、前記仮想タッチパネルと前記基点との位置関係に基づいて、前記仮想タッチパネル上における位置情報に対応する前記ディスプレイ上の位置を決定するステップと、
    前記コンピュータ装置が、決定された前記ディスプレイ上の位置を前記ディスプレイに示す表示するための指示位置表示情報を出力するステップと、
    を含むポインティング方法。
  8. 請求項7に記載の方法を前記ポインティングシステムに実行させるためのコンピュータプログラム。
JP2015008691A 2015-01-20 2015-01-20 仮想タッチパネルポインティングシステム Active JP6472252B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015008691A JP6472252B2 (ja) 2015-01-20 2015-01-20 仮想タッチパネルポインティングシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015008691A JP6472252B2 (ja) 2015-01-20 2015-01-20 仮想タッチパネルポインティングシステム

Publications (2)

Publication Number Publication Date
JP2016134022A true JP2016134022A (ja) 2016-07-25
JP6472252B2 JP6472252B2 (ja) 2019-02-20

Family

ID=56434779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015008691A Active JP6472252B2 (ja) 2015-01-20 2015-01-20 仮想タッチパネルポインティングシステム

Country Status (1)

Country Link
JP (1) JP6472252B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107340962A (zh) * 2017-04-13 2017-11-10 北京安云世纪科技有限公司 基于虚拟现实设备的输入方法、装置及虚拟现实设备
WO2018083737A1 (ja) * 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置
WO2018142524A1 (ja) * 2017-02-02 2018-08-09 マクセル株式会社 表示装置、及び遠隔操作制御装置
JP2021015637A (ja) * 2020-11-05 2021-02-12 マクセル株式会社 表示装置
WO2021241038A1 (ja) * 2020-05-28 2021-12-02 ソニーセミコンダクタソリューションズ株式会社 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
JPWO2022191276A1 (ja) * 2021-03-10 2022-09-15

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134089A (ja) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd ハンドポインティング装置
US20050248529A1 (en) * 2004-05-06 2005-11-10 Kenjiro Endoh Operation input device and method of operation input
JP2005321870A (ja) * 2004-05-06 2005-11-17 Alpine Electronics Inc 操作入力装置および操作入力方法
JP2006209359A (ja) * 2005-01-26 2006-08-10 Takenaka Komuten Co Ltd 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP2010015553A (ja) * 2008-06-03 2010-01-21 Shimane Pref Gov 画像認識装置および操作判定方法並びにプログラム
JP2013514585A (ja) * 2009-12-17 2013-04-25 マイクロソフト コーポレーション プレゼンテーション用カメラ・ナビゲーション

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134089A (ja) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd ハンドポインティング装置
US6434255B1 (en) * 1997-10-29 2002-08-13 Takenaka Corporation Hand pointing apparatus
US20050248529A1 (en) * 2004-05-06 2005-11-10 Kenjiro Endoh Operation input device and method of operation input
JP2005321870A (ja) * 2004-05-06 2005-11-17 Alpine Electronics Inc 操作入力装置および操作入力方法
JP2006209359A (ja) * 2005-01-26 2006-08-10 Takenaka Komuten Co Ltd 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP2010015553A (ja) * 2008-06-03 2010-01-21 Shimane Pref Gov 画像認識装置および操作判定方法並びにプログラム
JP2013514585A (ja) * 2009-12-17 2013-04-25 マイクロソフト コーポレーション プレゼンテーション用カメラ・ナビゲーション

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018083737A1 (ja) * 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置
US11470377B2 (en) 2017-02-02 2022-10-11 Maxell, Ltd. Display apparatus and remote operation control apparatus
JPWO2018142524A1 (ja) * 2017-02-02 2019-11-07 マクセル株式会社 表示装置、及び遠隔操作制御装置
WO2018142524A1 (ja) * 2017-02-02 2018-08-09 マクセル株式会社 表示装置、及び遠隔操作制御装置
US11089351B2 (en) 2017-02-02 2021-08-10 Maxell, Ltd. Display apparatus and remote operation control apparatus
CN107340962A (zh) * 2017-04-13 2017-11-10 北京安云世纪科技有限公司 基于虚拟现实设备的输入方法、装置及虚拟现实设备
US20230176695A1 (en) * 2020-05-28 2023-06-08 Sony Semiconductor Solutions Corporation Information processing device, information processing method based on input operation of user, and computer program for executing the method
WO2021241038A1 (ja) * 2020-05-28 2021-12-02 ソニーセミコンダクタソリューションズ株式会社 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
US12014010B2 (en) 2020-05-28 2024-06-18 Sony Semiconductor Solutions Corporation Information processing device and information processing method based on input operation of user
JP2022160533A (ja) * 2020-11-05 2022-10-19 マクセル株式会社 表示装置
JP2021015637A (ja) * 2020-11-05 2021-02-12 マクセル株式会社 表示装置
JP7369834B2 (ja) 2020-11-05 2023-10-26 マクセル株式会社 表示装置
JPWO2022191276A1 (ja) * 2021-03-10 2022-09-15
WO2022191276A1 (ja) * 2021-03-10 2022-09-15 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム
JP7452917B2 (ja) 2021-03-10 2024-03-19 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム

Also Published As

Publication number Publication date
JP6472252B2 (ja) 2019-02-20

Similar Documents

Publication Publication Date Title
JP6472252B2 (ja) 仮想タッチパネルポインティングシステム
US11227446B2 (en) Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
JP5741821B2 (ja) データ加工送信装置およびデータ加工送信プログラム、方法
AU2020202551A1 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP4533087B2 (ja) 画像処理方法、画像処理装置
TWI450132B (zh) A portrait recognition device, an operation judgment method, and a computer program
JP5158006B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6304241B2 (ja) 表示制御装置、表示制御方法およびプログラム
US9495802B2 (en) Position identification method and system
JP4926826B2 (ja) 情報処理方法および情報処理装置
US20160012612A1 (en) Display control method and system
KR20140112064A (ko) 가상 자
TW200813885A (en) Geographic information system (GIS) for displaying 3D geospatial images with reference markers and related methods
JP2015087909A (ja) 情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラム
JP2006085375A (ja) 画像処理方法、画像処理装置
JP2012048656A (ja) 画像処理装置、画像処理方法
JP5247398B2 (ja) 表示調整装置、表示調整方法及びコンピュータプログラム
JP2004362408A (ja) 3次元データ表示操作装置
JP2001188916A (ja) 仮想空間操作方法、仮想空間システム、仮想空間操作入力装置及び仮想空間操作プログラムを記録した記録媒体
JP2000172402A (ja) 画像表示装置及びこのプログラムを記録したコンピュータ読取り可能な記録媒体
JP2021131764A (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム
TW201333882A (zh) 擴增實境裝置及其方法
JP2009186727A (ja) マルチプルビュー方向表示装置
JP2004310348A (ja) 情報検索装置
JP2007140977A (ja) 透視画像表示装置、透視画像表示方法及び透視画像表示プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190122

R150 Certificate of patent or registration of utility model

Ref document number: 6472252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250