JP5117418B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP5117418B2
JP5117418B2 JP2009017037A JP2009017037A JP5117418B2 JP 5117418 B2 JP5117418 B2 JP 5117418B2 JP 2009017037 A JP2009017037 A JP 2009017037A JP 2009017037 A JP2009017037 A JP 2009017037A JP 5117418 B2 JP5117418 B2 JP 5117418B2
Authority
JP
Japan
Prior art keywords
unit
information
display
coordinate system
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009017037A
Other languages
English (en)
Other versions
JP2010176313A (ja
Inventor
馨 杉田
美和子 土井
康晋 山内
澄彦 山本
秀樹 林
智 小松
尚志 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009017037A priority Critical patent/JP5117418B2/ja
Priority to US12/695,380 priority patent/US20100188355A1/en
Publication of JP2010176313A publication Critical patent/JP2010176313A/ja
Application granted granted Critical
Publication of JP5117418B2 publication Critical patent/JP5117418B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチパネルにおいてタッチ操作で指し示した位置を検出する情報処理装置及び情報処理方法に関する。
操作者がディスプレイ画面上の物体を指やスタイラス等を用いて指し示す(ポインティング操作する)ことを可能とするタッチパネルディスプレイが広く用いられている。操作者がタッチパネルの表面上に指を置いたことを判定し、その位置を検出する方法としてさまざまな手法が開発されている。
例えば、タッチパネルの外枠の部分に光を発する光源と光を検出する光センサを対になるように並べて配置し、タッチパネルの表面に指等を置いた場合に、その指によって光源から発せられる光が光センサに届く間に遮蔽されることを利用して、その指の水平方向及び垂直方向の位置を検出する方法がある(例えば、特許文献1参照。)。このような方式のタッチパネルでは、タッチパネルのパネル面に特別な部材を用いる必要はなく、透明なアクリル板等を用いることができ、タッチパネルの奥側を観察することができる。このため、既存の液晶ディスプレイ等に取り付けることでタッチパネル機能を付加することが可能である。
しかしながら、パネル面が透明であるタッチパネルと、タッチ操作により指し示す対象物を表示する表示部を離して設置する場合に、操作者の顔の位置が動く等して運動視差が生じると、パネル面におかれている指とタッチ操作により指し示していた表示部上の位置にずれが生じ、表示物体を容易に指し示すことができないという問題が生じる。
特開2006−11568号公報
本発明の目的は、操作者の視点が移動して、運動視差が生じても、操作者がタッチ操作で指し示した表示部上の表示物体を正確に判定することが可能となる情報処理装置及び情報処理方法を提供することである。
本願発明の一態様によれば、(イ)操作者のタッチ位置を検出するタッチ位置検出部のワールド座標系における位置情報を保持する第1情報保持部と、(ロ)タッチ位置検出部の位置情報を用いて、タッチ位置からワールド座標系におけるタッチ位置を算出する第1変換部と、(ハ)操作者のワールド座標系における視点位置と、ワールド座標系におけるタッチ位置とを結ぶ半直線の情報を生成する半直線情報生成部と、(ニ)タッチ位置検出部と離間して配置され、操作者がタッチ位置検出部を介して視認可能な表示物体を表示する表示部のワールド座標系における位置情報を保持する第2情報保持部と、(ホ)表示部の位置情報を用いて、半直線が表示部と交差するか判定する第1判定部と、(ヘ)表示物体のスクリーン座標系における位置情報を保持する第3情報保持部と、(ト)表示物体の位置情報を用いて、半直線が交差すると判定された表示部に表示される表示物体と半直線とが交差するか判定する第2判定部とを備える情報処理装置が提供される。
本願発明の他の態様によれば、(イ)タッチ位置検出部が、操作者のタッチ位置を検出するステップと、(ロ)第1情報保持部に保持されたタッチ位置検出部のワールド座標系における位置情報を用いて、タッチ位置から、ワールド座標系におけるタッチ位置を算出するステップと、(ハ)操作者のワールド座標系における視点位置と、ワールド座標系におけるタッチ位置とを結ぶ半直線の情報を生成するステップと、(ニ)第2情報保持部に保持された操作者がタッチ位置検出部を介して視認可能な表示物体を表示する表示部のワールド座標系における位置情報を用いて、半直線が表示部と交差するか判定するステップと、(ホ)第3情報保持部に保持された表示物体のスクリーン座標系における位置情報を用いて、半直線が交差すると判定された表示部に表示される表示物体と半直線とが交差するか判定するステップとを含む情報処理方法が提供される。
本発明によれば、操作者の視点が移動して、運動視差が生じても、操作者がタッチ操作で指し示した表示部上の表示物体を正確に判定することが可能となる情報処理装置及び情報処理方法を提供することができる。
本発明の第1の実施の形態に係る情報処理装置の一例を示すブロック図である。 本発明の第1の実施の形態に係る情報処理装置の一例を示す他のブロック図である。 本発明の第1の実施の形態に係る情報処理装置と操作者の位置関係を説明するための概略図である。 本発明の第1の実施の形態に係る情報処理装置と操作者の位置関係を空間中の点により示した概略図である。 本発明の第1の実施の形態に係るタッチ位置検出部の座標系を説明する概略図である。 本発明の第1の実施の形態に係る撮影部によって得られる画像を説明する概略図である。 本発明の第1の実施の形態に係る第2情報保持部の内部構成を説明する概略図である。 本発明の第1の実施の形態に係る第1判定部の処理を説明するためのフローチャートである。 本発明の第1の実施の形態に係る第2の表示部と半直線との交差判定を説明するための概略図である。 本発明の第1の実施の形態に係る第2の表示部の座標系を説明するための概略図である。 本発明の第1の実施の形態に係る第3情報保持部の内部構成を説明する概略図である。 本発明の第1の実施の形態に係る第2判定部の処理を説明するためのフローチャートである。 本発明の第1の実施の形態に係る情報処理方法の一例を説明するためのフローチャートである。 本発明の第1の実施の形態の第1の変形例に係る情報処理装置の他の一例を示すブロック図である。 本発明の第1の実施の形態の第2の変形例に係る表示部から表示部へのドラッグ操作の例を説明する図である。 本発明の第1の実施の形態の第2の変形例に係るドラッグ操作中の処理を説明するためのフローチャートである。 本発明の第1の実施の形態の第2の変形例に係るドラッグ操作終了時の処理を説明するためのフローチャートである。 本発明の第2の実施の形態に係る情報処理装置と操作者の位置関係を説明する概略図である。 本発明の第2の実施の形態に係る情報処理装置の一例を示すブロック図である。 本発明の第2の実施の形態に係る実物体位置情報保持部の内部構成を説明する概略図である。 本発明の第2の実施の形態に係る実物体を近似する凸包を説明する概略図である。 本発明の第2の実施の形態に係る第3判定部の処理を説明するためのフローチャートである。 本発明の第2の実施の形態に係る実物体を近似する凸包と半直線との交差判定を説明する概略図である。 本発明の第2の実施の形態に係る情報処理装置の他の一例を示すブロック図である。 本発明の第2の実施の形態に係る表示部から実物体へのドラッグ操作の例を説明する概略図である。 本発明の第2の実施の形態に係る実物体から表示部へのドラッグ操作の例を説明する概略図である。 本発明のその他の実施の形態に係る情報処理装置と操作者位置関係を説明する概略図である。
次に、図面を参照して、本発明の第1及び第2の実施の形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は現実のものとは異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判断すべきものである。又、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることはもちろんである。
また、以下に示す第1及び第2の実施の形態は、この発明の技術的思想を具体化するための装置や方法を例示するものであって、この発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものでない。この発明の技術的思想は、特許請求の範囲において、種々の変更を加えることができる。
(第1の実施の形態)
本発明の第1の実施の形態では、タッチパネルを用いて、タッチパネルから離れた位置に設置された表示部上の表示物体を操作者がポインティングしたことを判定する情報処理装置について示す。
本発明の第1の実施の形態に係る情報処理装置は、図1に示すように、撮影部8により撮影された操作者の顔画像から操作者の視点位置を算出する視点位置算出部11と、撮影部8のワールド座標系における位置情報を保持する第4情報保持部(撮影部位置情報保持部)22と、撮影部8の位置情報を用いて、視点位置からワールド座標系における視点位置を算出する第2変換部(視点位置変換部)12と、タッチ位置検出部(タッチパネル)6のワールド座標系における位置情報を保持する第1情報保持部(タッチ位置検出部位置情報保持部)21と、タッチ位置検出部6の位置情報を用いて、タッチ位置検出部6により検出されたタッチ位置から、ワールド座標系におけるタッチ位置を算出する第1変換部(タッチ位置変換部)13と、ワールド座標系における視点位置と、ワールド座標系におけるタッチ位置とを結ぶ半直線の情報を生成する半直線情報生成部14と、操作者がタッチパネルを介して視認可能な表示物体を表示する表示部のワールド座標系における位置情報を格納する第2情報保持部(表示部位置情報保持部)23と、表示部の位置情報を用いて、半直線が表示部と交差するか判定する第1判定部(表示部指示判定部)15と、表示物体のスクリーン座標系の位置情報を格納する第3情報保持部(表示物体位置情報保持部)24と、表示物体の位置情報を用いて、半直線が交差すると判定された表示部に表示される表示物体と半直線とが交差するか判定する第2判定部(表示物体指示判定部)16を備える。
本発明の1の実施の形態に係る情報処理装置は、図2に示すように実装される。本発明の1の実施の形態に係る情報処理装置は、プロセッサ2、主記憶装置(RAM)3、読み出し専用記憶装置(ROM)4、外部記憶装置5、タッチ位置検出部6、第1の表示部7、撮影部8及び第2の表示部9を備える。プロセッサ2は、図1に示した視点位置算出部11、第2変換部12、第1変換部13、半直線情報生成部14、第1判定部15及び第2判定部16をハードウェア資源であるモジュール(論理回路)として論理的に備える。例えば、主記憶装置3が、図1に示した第1情報保持部21、第4情報保持部22、第2情報保持部23、第3情報保持部24及び第5情報保持部25を備える。
本発明の第1の実施の形態に係る情報処理装置で実行されるプログラムは、外部記憶装置5から主記憶装置3に読み込まれるか、読み出し専用記憶装置4に記録され、プロセッサ2で実行される。主記憶装置3には、実行されるプログラムのパラメータや計算結果が記憶される。
図3は、各装置の空間的な位置関係を示す。タッチ位置検出部6は、操作者31の前に設置される。タッチ位置検出部6は、操作者が指やスタイラス等でパネル表面に触れた場合に、その位置を検出し出力可能なタッチパネルである。本発明の第1の実施の形態では、タッチ位置検出部6として、(株)イーアイティー製の24インチ光学式タッチパネルであるXYFer(登録商標)を使用するものとする。このタッチ位置検出部6を右に90度回転させて縦長の形状とし、垂直に立てて設置する。パネル面は透明アクリル板であるため、操作者31はタッチ位置検出部6の奥に存在する物体を容易に観察可能である。
第1の表示部7は、タッチ位置検出部6の下半分の領域に、タッチ位置検出部6に接するように設置されている。第2の表示部9は、タッチ位置検出部6より離して、遠方に配置されている。第1の表示部7及び第2の表示部9のそれぞれは、映像を表示可能なディスプレイと、ディスプレイに出力する映像を生成するためのグラフィックスプロセッサを備える。第1の表示部7としては、例えば19インチの液晶モニタが使用可能である。第2の表示部9としては、例えば100インチのプロジェクションスクリーン等の大型のディスプレイが使用可能である。
撮影部8は、タッチ位置検出部6の下部に配置されている。撮影部8は、操作者31の顔画像を実時間で撮影するビデオカメラと、撮影された動画像を主記憶装置3に入力するためのビデオ映像入力プロセッサを備える。撮影部8としては、例えばUSB接続可能なWebカメラが使用可能である。本発明の実施の形態では、撮影部8として、毎秒30回、VGA(640ピクセル×480ピクセル)の解像度の画像を撮影するものとする。
本発明の第1の実施の形態によれば、図3のような位置関係において、操作者31がタッチ位置検出部6上を指で触れた場合、その指のタッチ位置(指示位置)32と撮影部8で撮影した顔画像から検出した操作者31の視点位置34とを結ぶ半直線35と、第2の表示部9との交差位置36を求めることができる。これにより、操作者31が、第2の表示部9上に表示された表示物体33を、指示操作(ポインティング)したことを、交差位置36と表示物体33との位置関係により判定することができる。第1の表示部7上に表示された表示物体を指示操作(ポインティング)したことを判定することも同様に可能である。
図3のような位置関係において、各装置の座標を示すために、図4に示すようにワールド座標系41を定義する。座標系は右手系座標系を用いるものとし、操作者31から見て、水平右方向がx軸、鉛直上方向がy軸、手前方向がz軸となるように定義する。
タッチ位置検出部6の表面の長方形を点T1,T2,T3,T4により定義する。第1の表示部7の表面の長方形を点D1,D2,D3,D4により定義する。第2の表示部9の表面の長方形を点M1,M2,M3,M4により定義する。操作者31の右目の位置を点Er、左目の位置を点El、操作者31の視点位置を点E、操作者31がタッチ位置検出部6に触れた位置を点P、第2の表示部9上の操作者31によるタッチ位置を点Sと定義する。点T1,T2,T3,T4,D1,D2,D3,D4,M1,M2,M3,M4,Er,El,E,P,Sはすべて3次元空間中の点である。
図5に示すように、タッチ位置検出部6のパネル面上の座標系を、タッチパネル座標系51として定義する。ワールド座標系41の点T1,T2,T3,T4のそれぞれに対応するタッチパネル座標系51の点T’1,T’2,T’3,T’4を定義する。操作者31がタッチ位置である点Pに触れると、タッチ位置検出部6は、点P’(x,y)の値をタッチ位置情報として検出する。
本発明の第1の実施の形態で用いるタッチ位置検出部6であるXYFer(登録商標)は、右に90度回転して設置している。ここで、タッチ位置検出部6自体のキャリブレーションが正しく行われているものと仮定する。この場合、タッチ位置検出部6が検出位置として出力する値の、水平方向についての値は、0から65535までの値を、検出位置のパネル面の両辺からの距離で内分した整数値を出力する。すなわち、点T’3では、(x,y)=(0,0)を出力し、点T’4では、(x,y)=(0,65535)を出力し、点T’3と点T’4の中点では、(x,y)=(0,32768)を出力する。垂直方向についても同様である。
タッチ位置検出部6は、タッチパネル座標系51における3次元空間のタッチ位置Pの座標P(t)(x,y,z,1)を出力する。なお、P(t)は同次座標である。
また、タッチ位置検出部6であるXYFer(登録商標)は、そのパネル面が平面でかつ矩形であるため、タッチパネルの縦横2辺をx軸及びy軸と定義し、z座標は0としたが、タッチ位置検出部6のパネル面が湾曲した面である場合には、z座標もタッチ位置の奥行きに応じて設定される。
また、タッチ位置検出部6は、パネル面を両手で触れた場合等に、複数のタッチ位置を検出することも可能である。パネル面上の複数のタッチ位置の情報を用いる場合には、タッチ位置検出部6は、3次元空間の座標P(t)(x,y,z,1)を検出位置の数の分だけ複数出力する。
第1変換部13は、第1情報保持部21から読み出したタッチ位置検出部情報を用いて、タッチ位置検出部6により検出されたタッチ位置情報から、ワールド座標系におけるタッチ位置を算出する。タッチ位置検出部情報は、タッチパネル座標系51のワールド座標系41に対する位置関係を示す。タッチパネル座標系からワールド座標系への座標変換は、4行4列の同次変換行列M(t)で表現できる。この行列M(t)は予めタッチ位置検出部6の位置を計測することで求めてもよいし、タッチ位置検出部6に測位を行う位置センサ等を付加し、タッチ位置検出部6の位置を計測してもよい。タッチ位置検出部6の位置及び姿勢から行列M(t)を求める処理は、コンピュータビジョンや空間位置の測位の分野で公知の手法を用いることができる。
第1変換部13は、この行列M(t)を用いて、タッチパネル座標系51におけるタッチ位置の座標P(t)から、ワールド座標系におけるタッチ位置の座標P(w)を求める変換処理を行う。この変換処理は、以下の式(1)で表現される。

P(w)=M(t)P(t) …(1)

なお、P(w)は同次座標である。第1変換部13は、P(w)を出力する。
また、タッチ位置検出部6を操作者31が持ち運び、位置や向きを変更可能である場合には、磁気や超音波等による測位を行う位置センサをタッチ位置検出部6に取り付け、タッチ位置検出部6のワールド座標系についての位置、姿勢の情報を取得すればよい。
視点位置算出部11は、撮影部8により撮影された操作者31の顔画像から、カメラ画像上の座標系における操作者31の視点位置を算出する。なお、顔画像に対しては、レンズゆがみの補正、CCD面の中心位置の補正等は適宜行われる。この視点位置の算出には、画像処理分野において公知である顔の特徴量を用いて視点位置を推定する手法を用いることが可能である。
図6に示すように、画像処理において求められた右眼の位置をE’r(c)、左目の位置をE’l(c)とする場合、視点位置E’(c)は、例えばE’r(c)とE’l(c)を均等に内分する点を用いる。また、操作者31のきき眼が予め判明しており、きき眼が右目である場合には、視点位置E’(c)にE’r(c)を代入し、逆に、きき眼が左目である場合には、視点位置E’(c)にE’l(c)を代入してもよい。
また、画像中における顔の特徴量を利用する以外にも、両目の間にカラーマーカーをつけ、そのマーカーの色を抽出し、位置を求めることで、視点位置を出力する方法も利用可能である。
視点位置算出部11は、操作者31の視点が撮影部8からある一定の奥行きに存在していると仮定し、カメラ座標系における視点位置情報としてE(c)(x,y,z,1)を出力する。ここで、視点が存在している奥行きzの推定には、画像中に映っている顔の大きさ等の情報を利用できる。なお、E(c)は同次座標である。
第2変換部12は、第4情報保持部22から読み出した撮影部位置情報を用いて、視点位置算出部11により算出されたカメラ座標系における操作者31の視点位置E(c)から、ワールド座標系41における操作者31の視点位置を算出する。
撮影部位置情報は、撮影部8のカメラ座標系からワールド座標系41に対する座標変換を示す。この変換は、4行4列の同次変換行列M(c)で表現できる。この行列M(c)は、予め撮影部8の位置を計測することで求めてもよいし、撮影部8に測位を行う位置センサ等を付加し、撮影部8の位置を計測してもよい。撮影部8の位置及び姿勢から行列M(c)を求める処理は、コンピュータビジョンや空間位置の測位の分野で公知の手法を用いることができる。
第2変換部12は、この行列M(c)を用いて、カメラ座標系における視点位置E(c)から、ワールド座標系41における視点位置E(w)を求める変換処理を行う。 この変換処理は、以下の式(2)で表現される。

E(w)=M(c)E(c) …(2)

なお、E(w)は同次座標である。第2変換部12は、E(w)を出力する。
なお、本発明の第1の実施の形態では、操作者31の視点位置の取得に単一の撮影部(カメラ)8を用いたが、2つの撮影部(カメラ)を用いたステレオ撮影により奥行きを求めてもよい。また、位置センサ等を用いることも可能である。
半直線情報生成部14は、第2変換部12により座標変換されたワールド座標系41における操作者31の視点位置E(w)を始点とし、第1変換部13により座標変換されたワールド座標系41におけるタッチ位置P(w)へ向かう半直線の情報を生成する。具体的には、半直線の視点であるE(w)と、方向ベクトルであるP(w)−E(w)の単位ベクトルを生成する。
第2情報保持部23は、図7に示すように、表示部位置情報71を格納する。表示部位置情報71は、第1の表示部7についての情報72、第2の表示部9についての情報73等のワールド座標系41における表示部の位置、姿勢及び形状等に関する情報を含む。各表示部の情報は、表示部ごとに1から順に割り振られたIDと、表示部の位置情報、及び、ワールド座標系41で示された表示部上の座標を、表示部のスクリーン座標系に変換するための情報である4行4列の同次変換行列を有している。
ここで、表示部位置情報71とは、ワールド座標系41における表示部の角の点の位置を表示部の表側から見て、反時計回りに定義したものとする。反時計回りである理由は、本発明の第1の実施の形態では座標系に右手系を採用しているためであり、時計回りで定義してもプログラムの実装方法で対応することができる。
本発明の第1の実施の形態のように第1の表示部7や第2の表示部9等の矩形のディスプレイを用いる場合、ワールド座標系41における4つの点によって定義される。また、ディスプレイが曲面状に湾曲している場合には、ディスプレイの表面の曲面を近似する平面の集合として定義される。
本発明の第1の実施の形態では、第1及び第2の表示部7,9を用いるため、第1の表示部7の矩形を構成するワールド座標系41における4点D1,D2,D3,D4と、第2の表示部9の矩形を構成するワールド座標系41における4点M1,M2,M3,M4が格納されている。なお、表示部がワールド座標系41に対して位置が変化する場合には、この値は、随時更新されるものとする。第2情報保持部23は、表示部のIDを指定された場合に、そのIDに対応する表示部の情報を出力する。
第1判定部15は、第2情報保持部23から順次表示部の情報を読み出し、半直線情報生成部14により生成された半直線が、読み出した表示部と空間的に交差するか否かを判定する。半直線が複数の表示部と交差する場合には、視点に最も近い位置で交差した表示部の情報を出力する。
ここで、第1判定部15の処理を図8のフローチャートを参照しながら説明する。
(イ)ステップS101において、初期化処理として、表示部IDを示す変数iに1を代入する。視点位置Eと最も近い表示部との交差位置の距離を示す変数dsに∞(無限大の値)を代入する。半直線が交差する最も近い表示部を示す変数Isに無効な値として0を代入する。ステップS102において、第2情報保持部23から、ID=iの表示部の情報を読み出す。ステップS103において、表示部の多角形をお互いに重ならない三角形の集合に分割する。輪郭線で定義された多角形を三角形に分割する方法は、コンピュータグラフィックスの分野で公知の手法を用いることができる。例えば、グラフィックスライブラリであるOpenGLのユーティリティライブラリであるGLUのGLUTessとう関数が利用できる。例えば、図9に示すように、第1の表示部7の表面の矩形D1,D2,D3,D4は、三角形D1,D2,D3と三角形D1,D3,D4とに分割でき、第2の表示部9の矩形M1,M2,M3,M4は、三角形M1,M2,M3と三角形M1,M3,M4とに分割できる。
(ロ)ステップS104において、面が分割されたすべての三角形について、その三角形が存在する平面と、半直線との交差する点を求め、その点が、三角形の内部に存在するか否かを判定する。三角形と半直線の交差判定処理は、コンピュータグラフィックスの分野で公知の手法を用いることができる。面が分割されたいずれかの三角形の内部に、交差する点が存在していれば、面と半直線は交差することになる。これらの処理は、いずれも、コンピュータグラフィックスにおける光線追跡法等で公知の手法である。ステップS105において、半直線がいずれかの三角形と交差していれば、ステップS106に遷移し、半直線がいずれの三角形とも交差していなければステップS111に遷移する。
(ハ)ステップS106において、視点位置Eから、交差位置Sまでの距離を求め、変数dに代入する。ステップS107において、変数dsと変数dの値を比較する。変数dsの値が変数dの値よりも大きければステップS108に遷移し、変数dsの値が変数dの値以下であれば、ステップS109に遷移する。ステップS108において、変数dsに変数dの値を代入し、変数Isにiを代入する。
(ニ)ステップS109において、第2情報保持部23に登録されているすべての表示部について調査したか判定する。すべての表示部について調査したと判定された場合にはステップS110へ遷移し、調査していない表示部があると判定された場合には、ステップS111に遷移する。ステップS111において、変数iの値を1増やした後、ステップS102に遷移する。
(ホ)ステップS110において、変数Isが0以外の有効な値であるかを判定する。変数Isが0以外の有効な値であると判定された場合にはステップS112へ遷移し、変数Isが0と判定された場合にはステップS113へ遷移する。
(ヘ)ステップS112において、半直線の情報E,Vと、交差位置Sを表示部のスクリーン座標系91に変換した値を出力する。例えば、図9に示すように、第2の表示部9と点Sにおいて交差した場合には、点Sの座標を第2の表示部9のスクリーン座標系91に変換して出力する。スクリーン座標系91とは、表示部の解像度で示される2次元の座標値への変換であり、例えば、水平1920ピクセル、垂直1080ピクセルのディスプレイの場合には、図10のS1=(0,0),S2=(0,1079),S3=(1919,1079),S4=(1919,0)となる。そして処理を終了する。ここで、ワールド座標系の交差位置S(w)を表示部9のスクリーン座標系91上の座標S(s)へ変換するための処理は、以下の式(3)で表現される。ここで、M(d2)は、第2の表示部9についての情報73に格納されている、ワールド座標系で示された表示部9上の座標を、表示部9のスクリーン座標系に変換するための4行4列の同次座標行列である。

S(s)=M(d2)S(w) …(3)

なお、S(s)は同次座標である。一方、ステップS113において、半直線と交差する表示部がないという情報を出力し、処理を終了する。
第3情報保持部24は、図11に示すように、表示物体位置情報101を格納する。表示物体位置情報101は、第1の表示部7についての情報102、第2の表示部9についての情報103等の複数の表示物体の位置情報を含む。
例えば、第2の表示部9がウィンドウシステムを表示するディスプレイであり、図10に示すように重なり合った矩形のウインドウ112,113が表示されているとする。この場合、第2の表示部9についての情報103には、ウィンドウ112を示す情報104と、ウィンドウ113を示す情報105が格納される。例えば、ウィンドウ112を示す情報104は、表示物体を示すIDと、ウィンドウ112である矩形のx座標及びy座標が最小である点WA1、最大である点WA2の2点を位置情報として含む。表示物体のIDは、ウィンドウが手前にあるものから順に振られている。すなわち、ウィンドウ113よりウィンドウ112のほうが手前にあるため、ウィンドウ112を示す情報104のIDのほうが、ウィンドウ113を示す情報105のIDよりも小さい値となる。第3情報保持部24の情報は、表示物体の位置の移動や、表示物体の生成及び消滅に応じて、随時更新される。第3情報保持部24は、表示部のIDと表示物体のIDを指定された場合に、それらのIDに対応する表示物体の情報を出力する。
第2判定部16は、第3情報保持部24から表示物体位置情報を順次読み出し、第1判定部15から出力された半直線が交差する表示部に表示されている表示物体の領域内部に、交差位置Sが含まれるか否かを判定する。
ここで、第2判定部16の処理を図12のフローチャートを参照しながら説明する。
(イ)まず、ステップS201で、半直線が交差している表示部を示す変数iが0以外の値であるかを判定する。変数iが0以外の値である場合には、ステップS202へ遷移し、変数iが0であれば場合には、ステップS208へ遷移する。
(ロ)ステップS202において、初期化処理として、表示物体を示す変数jに1を代入する。ステップS203において、第3情報保持部24から、ID=iの表示部の、ID=jの表示物体の情報を読み出す。ステップS204において、読み出された表示物体の領域内に、交差位置Sが含まれるかを判定する。交差位置Sが含まれている場合には、ステップS207へ遷移し、交差位置Sが含まれていない場合には、ステップS205へ遷移する。例えば、図10では、対角点WA1とWA2で示されるウィンドウ112の内部に交差位置Sが含まれていると判定される。
(ハ)ステップS205において、第3情報保持部24に登録されているすべての表示物体について調査したか判定する。すべての表示物体について調査したと判定された場合には、ステップS208へ遷移し、調査していない表示物体があると判定された場合には、ステップS206に遷移する。ステップS206において、変数jの値を1増やし、ステップS203に遷移する。
(ニ)ステップS207において、ポインティングしている情報として、表示部のIDである変数iの値と、表示物体のIDである変数jの値、交差位置Sの座標値をまとめて指示判定結果として出力して、処理を終了する。一方、ステップS208において、ポインティングしている物体はないという情報を指示判定結果として出力し、処理を終了する。
以上の処理により、操作者31がタッチ位置検出部6から離れて設置されている複数の表示部7,9について、それらに表示されている表示物体をタッチ操作で指し示したことを判定し、その物体の情報を出力する一連の処理が完了する。
次に、本発明の実施の形態に係る情報処理装置を用いた情報処理方法の一例を、図13のフローチャートを参照しながら説明する。
(イ)ステップS1において、第1及び第2の表示部7,9が、操作者31がタッチ位置検出部6を介して視認可能な表示物体を表示する。撮影部8が、操作者31の顔画像を撮影する。ステップS2において、視点位置算出部11が、撮影部8により撮影された操作者31の顔画像から操作者31の視点位置を算出する。ステップS3において第2変換部12が、操作者の視点位置と、顔画像を撮像した撮影部の空間中の位置を示す情報から、ワールド座標系における視点位置を算出する。
(ロ)ステップS4において、タッチ位置検出部6が、操作者31のタッチ位置を検出する。ステップS5において、第1変換部13が、タッチ位置検出部6により検出されたタッチ位置から、ワールド座標系におけるタッチ位置を算出する。
(ハ)ステップS6において、半直線情報生成部14が、操作者31のワールド座標系における視点位置と、ワールド座標系におけるタッチ位置とを結ぶ半直線の情報を生成する。
(ニ)ステップS7において、第1判定部15が、第2情報保持部23から第1及び第2の表示部7,9のワールド座標系における位置情報を読み出して、半直線情報生成部14により生成された半直線が第1及び第2の表示部7,9と交差するかそれぞれ判定する。
(ホ)ステップS8において、第2判定部16が、第3情報保持部24から半直線が交差すると判定された表示部に表示される表示物体の情報を読み出して、表示物体と半直線とが交差するか判定する。交差すると判定された表示物体の情報は、第5情報保持部25に格納される。
このように、本発明の第1の実施の形態によれば、操作者31の視点が移動して、運動視差が生じても、その視差を補正し、操作者31がタッチ位置検出部6から離れて設置されている第2の表示部9上の表示物体をタッチ操作で指し示したことを判定することが可能となる。これにより、操作者31は手元のタッチ位置検出部6を操作することで、遠隔に設置された第2の表示部9上の表示物体を正確にポインティング操作することが可能となる。
なお、本発明の第1の実施の形態では、第1及び第2の表示部7,9を説明したが、表示部の配置位置、数は特に限定されない。また、本発明の第1の実施の形態では、第1の表示部7は、タッチ位置検出部に密着しており、第2の表示部9が遠方に設置されていたが、例えば、複数の表示部が遠隔に存在する形態も可能である。
<第1の変形例>
本発明の第1の実施の形態では、視点位置算出部11及び第2変換部12を用いて視点位置を取得する場合を示したが、視点位置が固定されていると仮定できる場合を説明する。第1の変形例に係る情報処理装置は、図14に示すように、操作者の視点位置の情報を予め格納する視点位置情報保持部26を更に備え、操作者の視点位置情報が半直線情報生成部14に直接入力される。この場合、図1に示した視点位置算出部11及び第2変換部12を省略することができる。
<第2の変形例>
本発明の第1の実施の形態では、操作者がタッチ操作を行った場合の表示物体の指示判定結果が求まる。第2の変形例では、表示物体の指示判定結果が得られたのち、操作者がドラッグ操作を行った場合の、表示物体の表示位置の移動処理について説明する。ドラッグ操作とは、操作者が、タッチ位置検出部(タッチパネル)6をタッチした後、パネル面から指を離さずに指の位置を動かす操作を行い、その後、指をパネル面から離す操作を行うことである。なお、操作者が、タッチした指の位置を固定したまま、顔の位置を動かした場合でも、操作者が指示している表示部上の位置は移動することになる。この場合でも、同様の処理を用いることができる。
ドラッグ操作の例を、図15を用いて説明する。第1の表示部7に表示されている表示物体141を、操作者が指140でタッチする。ここで、操作者がドラッグ操作のために移動すると指し示した表示物体141を、特に「移動表示物体」と呼ぶ。その後、操作者が指140を動かすと、移動表示物体141とは別に、ドラッグ操作を行っていることを示すためのドラッグ時用表示物体142を、指140の移動に応じて表示する。ここで、ドラッグ時用表示物体142は、移動表示物体141と同様の形状で表示してもよいし、背景の隠蔽を防ぐために、半透明で表示したり、輪郭形状を線画で表示してもよい。その後、第2の表示部9上で操作者が指140を離すと、ドラッグ時用表示物体142は非表示となり、移動表示物体141の位置が移動する。
なお、ドラッグ時用表示物体142を用いずに、ドラッグ操作に応じて、表示物体141を、第1の表示部7又は第2の表示部9に直接移動して表示する方法も可能である。
次に、操作者がドラッグ操作のうちパネル面から指を離さずに指の位置を動かしている際に行う場合の処理を、図16のフローチャートを参照しながら説明する。
(イ)ステップS301の前に、操作者がタッチ操作を行うと、図1に示した情報処理装置で表示物体の指示判定結果が出たのち、第3情報保持部24に、指示操作を行った移動表示物体141の情報を複製して、ドラッグ時用表示物体142の情報を登録する。ステップS301において、図8で示した第1判定部15の処理を用いて、現在のタッチ位置に対応する表示部を求める。
(ロ)ステップS302において、第2判定部16が、現在のタッチ位置がある表示部上に存在するか否か判定する。ある表示部上にタッチ位置が存在する場合には、ステップS303に遷移する。タッチ位置に対応する表示部がない場合、すなわち操作者が表示部以外を指示している場合は、ステップS304に遷移する。
(ハ)ステップS303において、現在のタッチ位置に対応する、表示部上のタッチ位置を引数として、第3情報保持部24内のドラッグ時用表示物体の位置情報を更新し、処理を終了する。
(ニ)ステップS304において、表示物体を表示すべき表示部が無いため、第2判定部16が、第3情報保持部24内のドラッグ時用表示物体の情報を非表示設定とし、終了する。
次に、操作者がパネル面から指を離して、ドラッグ操作を終了した場合の処理を、図17のフローチャートを参照しながら説明する。
(イ)ステップS401において、図8で示した第1判定部15の処理を用いて、指を離した位置、すなわち直前までタッチしていたタッチ位置に対応する表示部を求める。
(ロ)ステップS402において、第2判定部16が、指を離したタッチ位置がある表示部上に存在するか否か判定する。ある表示部上にタッチ位置が存在する場合には、ステップS403に遷移する。タッチ位置に対応する表示部がない場合、すなわち操作者が表示部以外を指し示しながら指を離した場合は、ステップS404に遷移する。
(ハ)ステップS403において、指を離した位置に対応する、表示部上のタッチ位置を引数として、第3情報保持部24内の移動表示物体の位置情報を更新し、ステップS405に遷移する。
(ニ)ステップS404において、表示物体を移動すべき表示部が無いため、第2判定部16が、ドラッグ操作が無効であることを出力し、ステップS405に遷移する。
(ホ)ステップS405において、第3情報保持部24内のドラッグ時用表示物体の情報を削除し、処理を終了する。
なお、第2の変形例では、ドラッグ操作により表示物体を移動する処理について説明したが、ドラッグ操作をした場合に表示物体を移動するか、それとも、もとの位置に表示したまま、移動先に複製して表示し、ドラッグ操作により複製を作成できるようにするかは、操作内容に応じて任意に定義可能である。例えば、第1の表示部7内でドラッグした場合には移動するとし、異なる表示部へ、例えば第1の表示部7から第2の表示部9にドラッグした場合には複製するとしてもよい。
(第2の実施の形態)
本発明の第2の実施の形態では、本発明の第1の実施の形態に加えて、表示部以外の実物体の位置情報を利用し、タッチパネルにより、その実物体をポインティングしたことの判定も行うことが可能な情報処理装置について示す。
本発明の第2の実施の形態では、図18に示すように、第2の表示部9の代わりに実物体181が存在する点が、図3に示した構成及び位置関係と異なる。他は、図3の構成及び位置関係と実質的に同様であるので、重複した説明を省略する。
本発明の第2の実施の形態によれば、図18のような位置関係において、操作者31がタッチ位置検出部6上を指で触れた場合、その指のタッチ位置32と、撮影部8で撮影した顔画像から検出した操作者31の視点位置34とを結ぶ半直線35と、実物体181との交差位置182を求めることができる。これにより、操作者31が実物体181を、指示操作(ポインティング)したことを、交差位置182と実物体181との位置関係により判定することができる。
本発明の第2の実施の形態に係る情報処理装置は、図19に示すように、操作者がタッチ位置検出部6を介して視認可能な実物体のワールド座標系における情報を格納する実物体位置情報保持部27と、半直線が実物体と交差するか判定する第3判定部(実物体指示判定部)17を更に備える点が、図1に示した情報処理装置と異なる。
実物体位置情報保持部27は、図20に示すように、複数の実物体のワールド座標系における位置、姿勢及び形状に関する情報を実物体位置情報211として格納する。実物体位置情報211は、実物体181についての情報212を含む。実物体の形状情報は、図21に示すように、実物体181の形状を近似して表現する凸包である多角形の集合201により表現される。実物体181についての情報212は、多角形の集合201を構成する頂点の座標と接続情報を含む。ワールド座標系に対して実物体181の位置や形状が変化する場合には、この情報は、随時更新されるものとする。実物体位置情報保持部27は、実物体のIDを指定された場合に、そのIDに対応する実物体の情報を出力する。
第3判定部17は、実物体位置情報保持部27から順次実物体の情報を読み出し、半直線情報生成部14から出力された半直線が、読み出した実物体と空間的に交差するか否かを判定する。複数の実物体と交差する場合には、視点に最も近い位置で交差した実物体を求める。
ここで、第3判定部17の処理を図22のフローチャートを参照しながら説明する。
(イ)ステップS501において、初期化処理として、実物体IDを示す変数kに1を代入する。半直線が交差する最も近い表示部を示す変数ksに無効な値として0を代入する。視点位置Eと最も近い表示部との交差位置の距離を示す変数dsは、第1判定部15から出力された値を用いる。
(ロ)ステップS502において、実物体位置情報保持部27から、ID=kの実物体の情報を読み出す。ステップS503において、実物体の多角形をお互いに重ならない三角形の集合に分割する。これは、ステップS103と同様の処理である。
次に、ステップS504において、すべての三角形について、その三角形が存在する平面と、半直線との交差する点を求め、その点が、三角形の内部に存在するか否かを判定する。これもステップS104と同様の処理である。
(ハ)ステップS505において、いずれかの三角形と半直線が交差していれば、ステップS506に遷移し、交差していなければステップS511に遷移する。ステップS506において、図23に示すように、視点位置Eから、交差位置Sまでの距離を求め、変数dに代入する。次に、ステップS507において、変数dsと変数dの値を比較し、変数dsの値が変数dの値よりも大きい場合にはステップS508に遷移し、変数dsの値が変数dの値以下である場合にはステップS509に遷移する。
(ニ)ステップS508において、変数dsに変数dの値を代入し、変数ksにkを代入する。ステップS509において、実物体位置情報保持部27に登録されているすべての実物体について調査した場合には、ステップS510へ遷移し、調査していない実物体がある場合にはステップS511に遷移する。ステップS511において、変数kの値を1増やす。
(ホ)ステップS510において、変数ksが0以外の有効な値であるかを判定する。変数ksが0以外の有効な値である場合にはステップS512へ遷移し、変数ksが0である場合にはステップS513へ遷移する。
(ヘ)ステップS512において、半直線が交差した実物体のID=ksの情報を出力して、処理を終了する。
(ト)ステップS513において、変数isが0以外の有効な値であるかを判定する。変数isが0以外の有効な値である場合にはステップS514へ遷移し、変数isが0である場合にはステップS515へ遷移する。ステップS514において、半直線の情報E,Vと、交差位置Sを表示部のスクリーン座標系に変換した値を出力し処理を終了する。これは、ステップS112の処理と同様である。ステップS515において、半直線と交差する表示部も実物体もないという情報を出力し、処理を終了する。
また、第3判定部17により半直線が交差すると判定された実物体と、第1判定部15により半直線が交差すると判定された表示部とがある場合、第3判定部17は、半直線が交差すると判定された表示部の交差位置が、半直線が交差すると判定された実物体の交差位置よりもワールド座標系における視点位置に近いか判定する。そして、半直線が交差すると判定された表示部の交差位置が、半直線が交差すると判定された実物体上の交差位置よりもワールド座標系における視点位置に遠いと判定された場合には、実物体のID=ksの情報を出力する。一方、半直線が交差すると判定された実物体上の交差位置が、半直線が交差すると判定された表示部の交差位置よりもワールド座標系における視点位置に近いと判定された場合には、第2判定部16が、表示部に表示されている表示物体と、半直線とが交差するか判定する。
このように、本発明の第2の実施の形態によれば、操作者31の視点が移動して、運動視差が生じても、その視差を補正し、操作者31がタッチ位置検出部6から離れて設置されている第1の表示部7上の物体や、実物体181をタッチ操作で指し示したことを判定することが可能となる。これにより、操作者31は手元のタッチ位置検出部6を操作することで、遠隔に設置された表示部上の表示物体や、実物体181を正確にポインティング操作することが可能となる。
なお、本発明の第2の実施の形態では、実物体及び表示部の配置位置、数は特に限定されない。また、本発明の第2の実施の形態では、第1の表示部7は、タッチ位置検出部6に密着しており、実物体181が遠方に設置されていたが、例えば、複数の表示部や実物体が遠隔に存在する形態も可能である。
<第1の変形例>
本発明の第2の実施の形態では、視点位置算出部11及び第2変換部12を用いて視点位置を取得する装置の例を示したが、第1の変形例として、視点位置が固定されていると仮定できる場合を説明する。第1の変形例に係る情報処理装置は、図24に示すように、視点位置情報を予め格納する視点位置情報保持部28を更に備え、視点位置情報が半直線情報生成部14に直接入力される。この場合、図19に示した視点位置算出部11及び第2変換部12は省略することができる。
<第2の変形例>
図19に示した情報処理装置では、操作者がタッチ操作を行った場合の表示物体又は実物体の指示判定結果が求まる。第2の変形例では、図19に示した情報処理装置で表示物体又は実物体の指示判定結果が得られたのち、操作者がドラッグ操作を行った場合の処理を説明する。なお、表示部から表示部へドラッグした場合は本発明の第1の実施の形態で述べた処理で実現できるため、ここでは、表示部から実物体へ、あるいは、実物体から表示部へドラッグ操作を行った場合について説明する。
まず、図25を用いて、第1の表示部7から実物体181へドラッグ操作した場合を説明する。第1の表示部7に表示されている表示物体251を、操作者が指250でタッチする。ここで、操作者がドラッグ操作のために移動すると指し示した表示物体251を、特に移動表示物体と呼ぶ。その後、操作者が指250を動かすと、表示物体251とは別に、ドラッグ操作を行っていることを示すためのドラッグ時用表示物体252を、指250の移動に応じて表示する。その後、実物体181上で操作者が指250を離すと、移動表示物体251と実物体181それぞれに対応した処理が実行される。この処理は実物体181の特性に応じて定義することが可能で、例えば実物体181がプリンタであれば、表示物体251の情報を予め定められた形式で印刷する等の処理が考えられる。
なお、ドラッグ時用表示物体252を用いずに、ドラッグ操作に応じて、表示物体251を直接第1の表示部7上を移動して表示する方法も可能である。
また、図25に示した表示部から実物体へドラッグ操作する処理は、本発明の第1の実施の形態に係る第2の変形例のドラッグ操作処理において、操作者が指を離した際のタッチ位置を表示部だけではなく、図22に示した実物体位置情報保持部27の情報も判定する処理を加えればよい。ここで、表示物体を実物体上にドラッグした場合に、もともと表示されていた表示物体を削除するか、もとの位置に表示したままにするかは、操作内容に応じて任意に定義可能である。
次に、図26を用いて、実物体181から第1の表示部7へドラッグ操作した場合を説明する。実物体181を、操作者が指260でタッチする。その後、操作者が指260を動かし、第1の表示部7上にタッチ位置がさしかかった場合には、第1の表示部7上に、実物体181をドラッグしていることを示すための、実物体181を画像化したドラッグ時用表示物体262を表示する。その後、第1の表示部7上で操作者が指260を離すと、実物体181に関する情報が表示物体261として表示される。この情報は実物体181の特性に応じて定義するこが可能で、例えば実物体181がある監視カメラ自体の場合には、表示物体261は、その監視カメラが撮影した映像とすることや、実物体181が操作者から見えるある建物であれば、表示物体261はその建物に関する情報とすること等が考えられる。
なお、ドラッグ時用表示物体262を用いずに、ドラッグ操作に応じて、表示物体261を、直接第1の表示部7上を移動して表示する方法も可能である。
また、図26に示した実物体から表示部へドラッグ操作する処理は、本発明の第1の実施の形態に係るドラッグ操作処理において、操作者がドラッグ操作をした際に、表示部だけではなく、図22に示した実物体位置情報保持部27の情報も判定する処理と、実物体を画像化して移動表示物体として第3情報保持部24に登録する処理を追加すればよい。
また、第2の変形例では、表示部と実物体の間でのドラッグ操作に対応する処理を説明したが、実物体を指し示したのち、実物体にドラッグした場合でも、同様の処理で実現可能である。
(その他の実施の形態)
上記のように、本発明は第1及び第2の実施の形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
例えば、図27に示すように、タッチ位置検出部6、第1の表示部7及び撮影部8に隣接してタッチ位置検出部6x、第1の表示部7x及び撮影部8xをそれぞれ設置しても良い。図27のような位置関係において、複数の操作者31,31xがタッチ位置検出部6,6x上を指でそれぞれ触れた場合、共通のワールド座標系を用いて、その指のタッチ位置(指示位置)32,32xと撮影部8,8xで撮影した顔画像から検出した操作者31,31xの視点位置34,34xとをそれぞれ結ぶ半直線35,35xと、第2の表示部9との交差位置36,36xをそれぞれ求めることができる。これにより、操作者31,31xが、第2の表示部9上に表示された表示物体33,33xを、それぞれ指示操作(ポインティング)したことを、交差位置36,36xと表示物体33,33xとの位置関係により判定することができる。
このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
本発明の実施の形態に係る情報処理装置は、次世代のパーソナルコンピュータや携帯型情報端末装置への搭載や、監視システムや管制システムへの搭載に利用可能である。
2…プロセッサ
3…主記憶装置
4…専用記憶装置
5…外部記憶装置
6,6x…タッチ位置検出部
7,7x…第1の表示部
8,8x…撮影部
9…第2の表示部
11…視点位置算出部
12…第2変換部
13…第1変換部
14…半直線情報生成部
15…第1判定部
16…第2判定部
17…第3判定部
21…第1情報保持部
22…第4情報保持部
23…第2情報保持部
24…第3情報保持部
25…第5情報保持部
26…視点位置情報保持部
27…実物体位置情報保持部
28…視点位置情報保持部

Claims (11)

  1. 操作者のタッチ位置を検出するタッチ位置検出部のワールド座標系における位置情報を保持する第1情報保持部と、
    前記タッチ位置検出部の位置情報を用いて、前記タッチ位置からワールド座標系におけるタッチ位置を算出する第1変換部と、
    前記操作者のワールド座標系における視点位置と、前記ワールド座標系におけるタッチ位置とを結ぶ半直線の情報を生成する半直線情報生成部と、
    前記タッチ位置検出部と離間して配置され、前記操作者が前記タッチ位置検出部を介して視認可能な表示物体を表示する表示部のワールド座標系における位置情報を保持する第2情報保持部と、
    前記表示部の位置情報を用いて、前記半直線が前記表示部と交差するか判定する第1判定部と、
    前記表示物体のスクリーン座標系における位置情報を保持する第3情報保持部と、
    前記表示物体の位置情報を用いて、前記半直線が交差すると判定された前記表示部に表示される前記表示物体と前記半直線とが交差するか判定する第2判定部
    とを備えることを特徴とする情報処理装置。
  2. 前記操作者の顔画像を撮像する撮影部と、
    前記操作者の顔画像から前記操作者のカメラ座標系における視点位置を算出する視点位置算出部と、
    前記撮影部のワールド座標系の位置情報を保持する第4情報保持部と、
    前記撮影部の位置情報を用いて、前記カメラ座標系における視点位置から、前記ワールド座標系における視点位置を算出する第2変換部
    とを更に備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記ワールド座標系における視点位置が固定されていることを特徴とする請求項1に記載の情報処理装置。
  4. 前記表示部が複数ある場合、前記第1判定部が、前記半直線が前記複数の表示部と交差するかそれぞれ判定することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記半直線と交差すると判定された表示部が複数ある場合、
    前記第1判定部が、前記交差位置が前記ワールド座標系における視点位置に最も近い表示部を抽出し、
    前記第2判定部が、前記半直線と前記抽出された表示部に表示される前記表示物体とが交差するか判定することを特徴とする請求項4に記載の情報処理装置。
  6. 前記表示物体が複数ある場合、前記第2判定部が、前記半直線が前記複数の表示物体と交差するかそれぞれ判定することを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 前記操作者が前記タッチ位置検出部を介して視認可能な実物体のワールド座標系における位置情報を保持する実物体位置情報保持部と、
    前記実物体の位置情報を用いて、前記半直線が前記実物体と交差するか判定する第3判定部
    とを更に備えることを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記実物体が複数ある場合、前記第3判定部が、前記半直線が前記複数の実物体と交差するかそれぞれ判定することを特徴とする請求項7に記載の情報処理装置。
  9. 前記半直線と交差すると判定された実物体が複数ある場合、
    前記第3判定部が、前記交差位置が前記ワールド座標系における視点位置に最も近い実物体を抽出することを特徴とする請求項8に記載の情報処理装置。
  10. 前記半直線と交差すると判定された表示部と、前記半直線と交差すると判定された実物体とがある場合、
    前記第3判定部が、前記半直線が交差すると判定された表示部の交差位置が、前記半直線が交差すると判定された前記実物体の交差位置よりも前記ワールド座標系における視点位置に近いか判定し、
    前記半直線が交差すると判定された表示部の交差位置が、前記半直線が交差すると判定された前記実物体上の交差位置よりも前記ワールド座標系における視点位置に近いと判定された場合に、前記第2判定部が、前記表示部に表示されている前記表示物体と、前記半直線とが交差するか判定する
    ことを特徴とする請求項7に記載の情報処理装置。
  11. タッチ位置検出部が、操作者のタッチ位置を検出するステップと、
    第1情報保持部に保持された前記タッチ位置検出部のワールド座標系における位置情報を用いて、前記タッチ位置から、ワールド座標系におけるタッチ位置を算出するステップと、
    前記操作者のワールド座標系における視点位置と、前記ワールド座標系におけるタッチ位置とを結ぶ半直線の情報を生成するステップと、
    第2情報保持部に保持された前記操作者が前記タッチ位置検出部を介して視認可能な表示物体を表示する表示部のワールド座標系における位置情報を用いて、前記半直線が前記表示部と交差するか判定するステップと、
    第3情報保持部に保持された前記表示物体のスクリーン座標系における位置情報を用いて、前記半直線が交差すると判定された前記表示部に表示される前記表示物体と前記半直線とが交差するか判定するステップ
    とを含むことを特徴とする情報処理方法。
JP2009017037A 2009-01-28 2009-01-28 情報処理装置及び情報処理方法 Expired - Fee Related JP5117418B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009017037A JP5117418B2 (ja) 2009-01-28 2009-01-28 情報処理装置及び情報処理方法
US12/695,380 US20100188355A1 (en) 2009-01-28 2010-01-28 Apparatus and method for detecting an object pointed by a user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009017037A JP5117418B2 (ja) 2009-01-28 2009-01-28 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2010176313A JP2010176313A (ja) 2010-08-12
JP5117418B2 true JP5117418B2 (ja) 2013-01-16

Family

ID=42353796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009017037A Expired - Fee Related JP5117418B2 (ja) 2009-01-28 2009-01-28 情報処理装置及び情報処理方法

Country Status (2)

Country Link
US (1) US20100188355A1 (ja)
JP (1) JP5117418B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101709497B1 (ko) * 2010-07-29 2017-02-23 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP5211120B2 (ja) 2010-07-30 2013-06-12 株式会社東芝 情報表示装置及び情報表示方法
JP2012104070A (ja) * 2010-11-15 2012-05-31 Osamu Shichinohe 情報装置、情報処理方法、プログラム、及びコンピュータ読み取り可能な記録媒体
WO2013118328A1 (ja) * 2012-02-07 2013-08-15 オリンパス株式会社 表示装置、電子機器及び表示装置用プログラム
US20140118268A1 (en) * 2012-11-01 2014-05-01 Google Inc. Touch screen operation using additional inputs
JP2014115876A (ja) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法
WO2014147715A1 (ja) * 2013-03-18 2014-09-25 株式会社 東芝 情報処理装置、制御方法およびプログラム
WO2014155747A1 (ja) * 2013-03-29 2014-10-02 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
KR102517425B1 (ko) 2013-06-27 2023-03-31 아이사이트 모빌 테크놀로지 엘티디 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법
EP2821884B1 (en) * 2013-07-01 2018-09-05 Airbus Operations GmbH Cabin management system having a three-dimensional operating panel
US9691357B2 (en) * 2013-08-09 2017-06-27 Lenovo (Beijing) Co., Ltd. Information processing method and electronic device thereof, image calibration method and apparatus, and electronic device thereof
CN107656961B (zh) * 2017-08-04 2020-03-27 阿里巴巴集团控股有限公司 一种信息显示方法及装置
JP2022515608A (ja) * 2018-12-31 2022-02-21 ガーディアン・グラス・エルエルシー 大面積透明タッチインターフェースにおける視差補正のためのシステム及び/又は方法
US10890992B2 (en) * 2019-03-14 2021-01-12 Ebay Inc. Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190640A (ja) * 1995-01-12 1996-07-23 Hitachi Ltd 情報表示方法および情報提供システム
JP4274997B2 (ja) * 2004-05-06 2009-06-10 アルパイン株式会社 操作入力装置および操作入力方法
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
JP2007080060A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd 対象物特定装置
JP4333697B2 (ja) * 2006-06-06 2009-09-16 トヨタ自動車株式会社 車両用表示装置
JP5106825B2 (ja) * 2006-11-01 2012-12-26 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム制御方法
JP4743721B2 (ja) * 2008-07-17 2011-08-10 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、および方法
JP5211120B2 (ja) * 2010-07-30 2013-06-12 株式会社東芝 情報表示装置及び情報表示方法

Also Published As

Publication number Publication date
JP2010176313A (ja) 2010-08-12
US20100188355A1 (en) 2010-07-29

Similar Documents

Publication Publication Date Title
JP5117418B2 (ja) 情報処理装置及び情報処理方法
US20210112181A1 (en) Image processing device, image processing method, and recording medium
EP2973414B1 (en) Apparatus for generation of a room model
US9696543B2 (en) Information processing apparatus and information processing method
US20180204387A1 (en) Image generation device, image generation system, and image generation method
JP5525495B2 (ja) 映像監視装置、映像監視方法およびプログラム
JP2010128727A (ja) 画像処理装置
JP7005224B2 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
KR20140121529A (ko) 광 필드 영상을 생성하는 방법 및 장치
JP2009105802A (ja) カメラ設置シミュレータプログラム
JP2015212927A (ja) 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム
JP2012124839A (ja) 画像監視装置
CN112669392A (zh) 一种应用于室内视频监控系统的地图定位方法及系统
JP2010277372A (ja) 映像表示システムおよび映像表示方法
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
Zhu et al. Wii remote–based low-cost motion capture for automated assembly simulation
JP2013065351A (ja) 画像処理装置および画像処理方法
JP6127465B2 (ja) 情報処理装置、情報処理システム及びプログラム
CN102622140A (zh) 一种摄像式多点触摸系统
CN202443449U (zh) 一种摄像式多点触摸系统
JP2017134803A (ja) 情報処理装置、情報処理方法
CN107274449A (zh) 一种光学照片对物体的空间定位系统及方法
JP5300645B2 (ja) 三次元温度分布表示装置、テクスチャ作成装置および三次元温度分布表示方法
JP6436872B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2023055284A (ja) 測定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110915

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120912

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121017

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees