JP2007293412A - 情報処理方法および装置 - Google Patents

情報処理方法および装置 Download PDF

Info

Publication number
JP2007293412A
JP2007293412A JP2006117731A JP2006117731A JP2007293412A JP 2007293412 A JP2007293412 A JP 2007293412A JP 2006117731 A JP2006117731 A JP 2006117731A JP 2006117731 A JP2006117731 A JP 2006117731A JP 2007293412 A JP2007293412 A JP 2007293412A
Authority
JP
Japan
Prior art keywords
orientation
haptic
unit
force sense
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006117731A
Other languages
English (en)
Inventor
Takeshi Kuroki
剛 黒木
Sandor Christian
クリスチャン サンドア
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006117731A priority Critical patent/JP2007293412A/ja
Publication of JP2007293412A publication Critical patent/JP2007293412A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 ユーザが手で直接的かつ自由に仮想の物体を動かし、また、その仮想の物体を視覚的および力覚的に体感することを目的とする。
【解決手段】 複合現実空間において、力覚デバイスを用いて、現実物体に重畳される仮想物体から受ける力覚をユーザに提示するための情報処理方法であって、前記現実物体の位置姿勢に基づき、該現実物体の力覚発生モデルの位置姿勢を変更する変更工程を有し、前記力覚発生モデルは、前記力覚デバイスを用いて、前記仮想物体に対する力覚をユーザに提示するために用いられるモデルであることを特徴とする。
【選択図】 図2

Description

本発明は、第一の仮想物体が重畳された力覚デバイスを用いて、現実物体に重畳された第二の仮想物体から受ける力覚をユーザに提示するものに関する。
VR(バーチャルリアリティ)システムは、コンピュータの作り出す三次元CG(コンピュータ・グラフィクス)をHMD(ヘッドマウントディスプレイ)を装着したユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。HMDを利用したVRシステムでは、ユーザの頭部の動きに合わせてユーザに提示される三次元CGが変化するため、ユーザはあたかも自分の周囲に実際に三次元CGが存在しているかのように感じることができる。
VRシステムでは、力覚デバイスと呼ばれる装置を用いて、ユーザに仮想の触感を与えることがある。力覚デバイスを用いることで、ユーザは実際には存在しない事物に仮想的に触っているかのような感触を感じることができる。力覚デバイスには機械式や糸の張力を用いた方式などさまざまな方式のものがある(たとえば、非特許文献1参照)。
また、近年、現実空間の映像に重ねて三次元CGを提示することで、VRでは見ることができなかった現実世界をユーザに提示する技術の開発もなされており、それらはMR(Mixed Reality、複合現実感)システムと呼ばれている(例えば、特許文献1参照)。
MRシステムでは、HMD(ヘッドマウントディスプレイ)を用いることが一般的である。MRシステムでは、現実空間の画像と仮想空間の画像を合成して、HMDに表示することにより、複合現実感を実現する。MRシステムで用いるHMDの方式には半透過型のHMDに三次元CG等の画像を重畳する光学シースルー方式と、HMDに装着したビデオカメラで撮影した画像に三次元CG等の画像を合成した後、HMDに表示するビデオシースルー方式がある。
MRシステムの用途としては、患者の体内の様子を透過しているように医師に提示する医療補助の用途や、工場において製品の組み立て手順を示すCGを実物に重ねて表示する作業補助の用途などが考えられている。
MRシステムの一種として、特許文献2に示されるように、三次元CADデータから簡易的に試作された模型に重ねて、同じデータから作成された三次元CGを表示するものがある。この発明におけるシステムでは、ユーザは自らの手で三次元CGを動かすことができる。
特開2001−195601号公報 特開2005−107970号公報 田村博編「ヒューマン・インタフェース」オーム社,1998年5月30日,pp.238−241 Diego C.Ruspini et al,The Haptic Display of Complex Graphical Environments,SIGGRAPH 97 Proceedings,August 1997,pp.345−352.
特許文献2に示される方法では、ユーザは実際には存在しない仮想の物体を見ながら、同じ形状の模型を手に持って動かすことができる。つまり、仮想の物体を視覚的および力覚的に体感することができる。しかしながら、この方法では、ユーザが触れたいものによってその都度模型を作らなければならない。この模型を作るのには時間もコストもかかってしまう。
本発明は、上記問題を解決するものであり、ユーザが手で直接的かつ自由に仮想の物体を動かし、また、その仮想の物体を視覚的および力覚的に体感することを目的とする。
前記の目的は、以下に示される情報処理方法によって達成される。複合現実空間において、力覚デバイスを用いて、現実物体に重畳される仮想物体から受ける力覚をユーザに提示するための情報処理方法であって、前記ユーザ視点の位置姿勢を取得する第一の取得工程と、前記現実物体の位置姿勢を取得する第二の取得工程と、前記現実物体の位置姿勢に基づき、該現実物体の力覚発生モデルの位置姿勢を変更する変更工程と、前記ユーザ視点の位置姿勢および前記現実物体の位置姿勢に基づき、前記仮想物体の仮想画像を生成する生成工程と、前記仮想画像と前記ユーザ視点の位置姿勢に応じた現実空間の画像とを合成し、提示する提示工程とを有し、前記力覚発生モデルは、前記力覚デバイスを用いて、前記仮想物体に対する力覚をユーザに提示するために用いられるモデルであることを特徴とする。
本発明によれば、ユーザが手で直接的かつ自由に仮想の物体を動かし、また、その仮想の物体を視覚的および力覚的に体感することが出来る。
以下、添付の図面を参照して本発明の好適な実施例について説明する。
以下に説明する本実施例の視覚および力覚提示システムでは、現実物体に重ねて自動車の三次元CGを合成し、ユーザの装着しているHMDに表示する。また、自動車の三次元CGと同じ形状の力覚を、力覚デバイスを通してユーザに提示する。
図4は本実施例の外観を示した図である。
100はHMDであり、ユーザの頭部に装着されて使用される。HMD100は撮像部および表示部を内蔵し、撮像部(カメラ)で撮影した映像に三次元CGを重ねた合成映像を表示部に表示する。HMD100に内蔵される撮像部はあらかじめ内部パラメータが測定されている。
401はテーブルである。テーブルは部屋に固定されており、テーブル上で複合現実感を体験することが出来る。
121は力覚デバイス本体、121aは力覚デバイスの把持部である。力覚デバイスの把持部121aは人の手で把持することができるようになっている。ユーザは、力覚デバイスの把持部121aを把持し、あらかじめ定められた範囲の分だけ、力覚デバイスの把持部121aの位置や姿勢を自由に動かすことができる。力覚デバイス本体121と力覚デバイスの把持部121aは機械的に接続され、力覚デバイス本体121が力覚デバイスの把持部121aを駆動することによって、力覚デバイスの把持部121aを把持するユーザに上下方向、左右方向、奥行き方向の三自由度の力を感じさせることができる。力覚デバイス本体121はテーブル401の上に固定されている。
403はユーザの手である。説明のため、ユーザの体の他の部分は図中に示していない。
404は現実物体であり、立方体の箱でできている。現実物体404は手で自由に位置や姿勢を動かすことができる。本実施例では現実物体を立方体の箱であるものとしたが、これは本実施例の基本構成に必須の要件ではなく、任意の物体で構成されるものとしてよい。たとえば、模型や厚紙、電子機器、各種の道具や器具などで構成されるものとしてよい。また、内部を空洞にして中に異なる重さの重りを入れられるようにしてもよいし、大きさや形状など、物理的な属性を変えられるような機構を備えてもよい。また、後に記述する位置姿勢センサのマーカ部そのもので構成されるものとしてもよい。
103は位置姿勢を計測するための構成であり、カメラ部103a、マーカ部103b、103c、103dからなる。マーカ部103bはHMD100に、マーカ部103cは力覚デバイスの把持部121aに、マーカ部103dは現実物体404に取り付けられている。マーカ部103b、マーカ部103c、マーカ部103dはそれぞれ異なる形状をしており、位置姿勢センサのカメラ部103aに備えられた、内部パラメータをあらかじめ求められた二つのカメラによって撮像される。三角測量などの手法を用いて、二つのカメラの各々によって撮像された画像から、マーカ部103b、マーカ部103c、マーカ部103dの、カメラ部103aに対する相対的な位置および姿勢を求める。位置姿勢センサのカメラ部103aは部屋に固定されている。
図3は本実施例の構成を示したブロック図である。以下、図3を参照しながら本実施例の構成について説明する。
100は図4でも示されているユーザが装着するビデオシースルー型のHMDであり、撮像部101と映像表示部102を有する。なお、本実施例では撮像部101と映像表示部102がHMD100に内蔵されるものとしたが、これは本実施例の基本構成に必須の要件ではなく、撮像部101と映像表示部102はそれぞれ別の場所に配置されるものとしてもよい。
101は撮像部であり、CCDカメラ、CMOSカメラなどの撮像デバイスによって構成される。撮影部101によって撮影された映像は映像合成部111に送られる。
102は映像表示部であり、小型の液晶表示デバイス等で構成される。映像表示部102は映像合成部111から送られてきた合成映像を表示する。
103は図4にも示されている、内蔵する撮像素子によりマーカを撮影することによって任意の物体の位置および姿勢を計測する位置姿勢センサである。位置姿勢センサ103はあらかじめマーカを付けた任意の物体の位置姿勢信号を、HMD100を装着したユーザ視点の位置姿勢計測部104、現実物体の位置姿勢計測部105および力覚デバイスの位置姿勢計測部106に出力する。
なお、本実施例では一つの位置姿勢センサ103から104〜106それぞれに位置姿勢信号を出力する。しかし、これは本実施例の基本構成に必須の要件ではない。たとえばユーザ視点の位置姿勢計測部104、現実物体の位置姿勢計測部105、力覚デバイスの位置姿勢計測部106のそれぞれに別の位置姿勢センサを設置してもよい。
また、本実施例では位置姿勢センサ103は光学式センサによって構成されているが、位置姿勢センサ103はあらかじめ定めた任意の物体の位置および姿勢を計測できる装置であればどのような装置で構成されてもよい。たとえば、磁気式の位置姿勢センサによって構成されてもよい。つまり、現実空間中のこれら三つの測定対象の位置姿勢が計測することが出来れば、いかなる構成でも良い。本実施例では、これらの位置姿勢センサ103は位置をxyz座標系におけるx座標、y座標、z座標の形で出力する。また、姿勢をz軸中心の回転であるロール角、x軸中心の回転であるピッチ角、y軸中心の回転であるヨー角で出力し、ヨー回転、ピッチ回転、ロール回転の順で測定対象を回転させると測定対象の姿勢が得られる。
なお、以下の説明においては、四行四列の行列で示すことができる位置および姿勢の情報をアルファベットの記号、たとえばMなどで表現する。この行列の中身について、位置姿勢センサ103によって得られた位置姿勢の値を例として説明する。
位置姿勢センサによって得られるx座標、y座標、z座標の値をそれぞれx、y、zとすると、位置姿勢センサ103によって得られる位置を表す三次元ベクトルtは
Figure 2007293412
で表される。また、位置姿勢センサによって得られるロール角、ピッチ角、ヨー角の値をそれぞれr、p、yとすると、ロール角、ピッチ角、ヨー角から得られる三行三列の回転変換行列Rr、Rp、Ryは
Figure 2007293412
で表される。従って、姿勢を表す三行三列の回転変換行列Rは
Figure 2007293412
で表される。
以上得られたtとRを用いて、位置姿勢センサから得られる位置と姿勢の両方を表現する四行四列の行列Mは、以下のように表現することができる。
Figure 2007293412
位置および姿勢がどのような形式で得られようと、上記のような四行四列の行列として表現できることは広く知られている。
104はユーザ視点の位置姿勢計測部であり、位置姿勢センサ103からの位置姿勢信号を受信する。そして、ユーザが装着しているHMD100に取り付けられたマーカ部103bの位置姿勢を表す信号を使って、撮像部101のユーザ視点の位置姿勢情報を生成する。生成した位置姿勢情報は、HMDの映像表示に表示する映像中のCGの位置姿勢を算出するために、CG描画部110に送られる。なお、本実施例においてはユーザ視点の位置姿勢計測部104の位置姿勢情報が位置姿勢センサ103のみから求められるものとした。しかし、それに加えて、撮像部101の撮影した映像を用いて位置姿勢情報の補正を行ってもよい。また、撮像部101の撮影した映像のみを用いてユーザ視点の位置姿勢計測部104の位置姿勢情報を求める構成としてもよい。
105は現実物体の位置姿勢計測部であり、位置姿勢センサ103からの位置姿勢信号を受信する。そして、現実物体404に取り付けられたマーカ部103dの位置姿勢を表す信号を使って、現実物体404の位置姿勢情報を生成する。生成した現実物体404の位置姿勢情報はCGシーン管理部107および力覚シーン管理部108に送られる。
106は力覚デバイスの位置姿勢計測部であり、位置姿勢センサ103からの位置姿勢信号を受信する。そして、力覚デバイスの把持部121aに取り付けられたマーカ部103cの位置姿勢を表す信号を使って、力覚デバイスの把持部121aの位置姿勢情報を生成する。生成した力覚デバイスの把持部121aの位置姿勢情報はCGシーン管理部107および力覚シーン管理部108に送られる。
107はCGシーン管理部である。CGシーン管理部107は三次元CGの生成に必要な、仮想物体の三次元CGモデルの情報を管理する。三次元CGモデルの情報はさまざまな形式で記述することができるが、本実施例の三次元CGモデル情報は、三次元CGモデルがポリゴンモデルで表されるVRML(Virtual Reality Modeling Language)ファイルで表現されている。また、VRMLファイルには、三次元CGモデルの位置および姿勢情報が格納されている。本実施例では、CGシーン管理部107に格納されているVRMLファイルは、力覚デバイスの把持部121aに重ねて表示される仮想物体の三次元CGモデルのVRMLファイルおよび現実物体404に重ねて表示される自動車の仮想物体の三次元CGモデルのVRMLファイルである。力覚デバイスの把持部121aに重ねて表示される仮想物体の三次元CGモデルのVRMLファイルは、力覚デバイスの位置姿勢計測部106から送られてくる位置姿勢情報によって更新される。自動車の仮想物体の三次元CGモデルのVRMLファイルは、現実物体の位置姿勢計測部105から送られてくる位置姿勢情報によって更新される。また、CGシーン管理部107の情報はCG描画部110によって参照される。
108は力覚シーン管理部である。力覚シーン管理部108は仮想物体間に発生する力の計算に必要な、仮想物体の力覚発生モデルの情報を管理する。力覚発生モデルの情報はさまざまな形式で記述することができるが、本実施例では、力覚発生モデルがポリゴンモデルで表されるVRMLファイルで表現されている。ただし、それらのVRMLファイルの中において、視覚的な属性を表す色や光源、テクスチャ等の属性は取り除かれており、仮にそれらの属性が含まれていたとしても無視される。また、力覚シーン管理部108にはそれらのVRMLファイルに格納された三次元CGモデルの位置および姿勢情報が格納されている。本実施例では、ここに格納されているVRMLファイルは、力覚デバイスの把持部121aに重ねて表示される三次元CGモデルのVRMLファイルおよび現実物体404に重ねて表示される自動車の三次元CGモデルのVRMLファイルである。力覚シーン管理部108の情報は現実物体の位置姿勢計測部105および力覚デバイスの位置姿勢計測部106から送られてくる位置姿勢情報によって更新される。また、力覚シーン管理部108の情報は力覚計算部120によって参照される。
110はCG描画部であり、ユーザ視点の位置姿勢計測部104から撮像部101の位置姿勢情報、CGシーン管理部107から三次元CGシーン情報を受信して、撮像部101の撮像範囲に収まるCG映像を生成する。生成したCG映像は映像合成部111に送信される。
111は映像合成部であり、撮像部101から受信した撮影映像上に、CG描画部110から受信したCG映像を上書きすることで、合成映像を生成する。合成した合成映像は映像表示部102に送出される。
120は力覚計算部であり、力覚シーン管理部108から力覚シーン情報を受信して、力覚デバイスの把持部121aに発生すべき力覚を計算する。ここで、力覚の情報は、発生する力の向きと強さによって表現される。計算した力覚情報は力覚デバイス本体121に送られる。
121は図4にも示されている、力覚デバイスであり、力覚計算部120から力覚情報を受信して、力覚デバイスの把持部121aに力を発生させる。なお、本実施例では、力覚デバイスとして複数のエンコーダ付きの制御モータを内蔵して構成された機械式のものを利用している。ただし、任意方向に力を発生できるデバイスであればどのようなデバイスで構成されてもよく、たとえば糸の張力を用いた方式による力覚デバイスで構成されてもよい。また、本実施例では、力覚デバイスはテーブル401上に配置されているが、配置場所に制限はなく、たとえばユーザの体に装着されるものであってもよい。
力覚デバイス本体121は内部に独自のデバイス座標系を持っている。よって、力覚計算部120は、力の情報を力覚デバイス本体121の座標系に変換し、力覚デバイス本体121が力覚デバイスの把持部121aに力を発生させる際には、力の情報はこの力覚デバイスの座標系で伝えられる。
以上、図3を参照して本実施例の構成を説明した。なお、図3に示したユーザ視点の位置姿勢計測部104、現実物体の位置姿勢計測部105、力覚デバイスの位置姿勢計測部106、CGシーン管理部107、力覚シーン管理部108、CG描画部110、映像合成部111および力覚計算部120の少なくとも一部は、独立した装置として実現しても良い。また、それぞれの機能を実現するためのソフトウェアを一つもしくは複数のコンピュータにインストールし、コンピュータのCPUによりソフトウェアを実行することで、その機能を実現しても良い。本実施例では、各部はそれぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。
図1は、ユーザ視点の位置姿勢計測部104、現実物体の位置姿勢計測部105、力覚デバイスの位置姿勢計測部106、CGシーン管理部107、力覚シーン管理部108、CG描画部110、映像合成部111、力覚計算部120及び130のそれぞれの機能を、ソフトウェアを実行することで実現するためのコンピュータの基本構成を示す図である。
CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行うと共に、ユーザ視点の位置姿勢計測部104、現実物体の位置姿勢計測部105、力覚デバイスの位置姿勢計測部106、CGシーン管理部107、力覚シーン管理部108、CG描画部110、映像合成部111および力覚計算部120のそれぞれのソフトウェアの実行を制御して、各部の機能を実現する。
RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。
ROM1003は、一般にコンピュータのプログラムや設定データなどが格納されている。キーボード1004、マウス1005は入力デバイスであり、操作者はこれらを用いて、各種の指示をCPU1001に入力することができる。
表示部1006は、CRTや液晶ディスプレイなどにより構成されており、例えば、映像表示部102に表示している映像を表示することができる。
外部記憶装置1007は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やCPU1001が実行するプログラム等を保存する。また本実施例の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。
記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。
I/F1009は、撮像部101を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、位置姿勢センサ103および力覚デバイス本体121を接続するためのRS232CあるいはUSB等のシリアルポート等によって構成される。それぞれから入力したデータはI/F1009を介してRAM1002に取り込まれる。映像合成部111及びユーザ視点の位置姿勢計測部104、現実物体の位置姿勢計測部105、力覚デバイスの位置姿勢計測部106および力覚計算部120の機能の一部は、I/F1009によって実現される。
上述した各構成要素は、バス1010によって相互に接続される。
図2は本実施例の処理手順を示したフローチャートである。本フローチャートに関わるプログラムは外部記憶装置1007に記憶され、ユーザがキーボード1004、マウス1005を使ってシステムの開始を指示したときにCPU1001がそのプログラムを読み出し、実行する。以下、図面を参照しながら、本実施例の処理手順を説明する。
S100はキャリブレーションステップである。S100では、ユーザ視点の位置姿勢計測部104、現実物体の位置姿勢計測部105および力覚デバイスの位置姿勢計測部106が、位置姿勢センサ103が出力する位置姿勢信号から位置姿勢情報を計算できるよう、初期設定を行う。また、力覚計算部120が力覚デバイス本体121に発生させる力を計算するための初期設定を行う。
ここで、S100中の処理手順について図12を用いて説明する。S100が開始されると、まずS1201が実行される。
S1201は位置姿勢センサのキャリブレーションを行うステップである。図10はS1201およびS1202中の処理を説明するための図である。901は、本実施例における世界座標系を表す。世界座標系901はテーブル401の隅に沿って設定される。
世界座標系401を設定するため、S1201では、ユーザがキャリブレーション器具103zをテーブル401の隅に配置する。キャリブレーション器具103zは3個のマーカが付属された、世界座標系を設定するための器具である。キャリブレーション器具103zに付属された3個のマーカの位置関係は既知である。そして、位置姿勢センサのカメラ部103aはあらかじめ内部パラメータを測定された二つのカメラを内蔵している。よって、図示しない位置姿勢センサのキャリブレーションボタンを押すことで、世界座標系901を設定することができる。以降、位置姿勢センサが出力する位置姿勢信号は、全て世界座標系901を基準として計測されたものとなる。S1201が終了したら、S1202に進む。
S1202はHMDのキャリブレーションである。このステップにおいては、ユーザがキャリブレーションマーカ902をテーブル401の隅、すなわち世界座標系901に沿って配置する。キャリブレーションマーカ902はあらかじめ定められた模様を表面に印刷された、定められた大きさの矩形の紙片である。HMD100に内蔵される撮像部101はあらかじめ内部パラメータを測定されているため、撮像部101が捉える映像中にキャリブレーションマーカ902の全体が捉えられていれば、世界座標系901における撮像部101の位置および姿勢を求めることができる。一方、HMD100にはマーカ部103bが付属しており、マーカ部103bの位置および姿勢は常に位置姿勢センサ103によって計測されている。
今、キーボード1004およびマウス1005を用いて、ユーザがS1202の実行を指示したとき、撮像部101が捉える映像から求められる撮像部101の位置姿勢をHc、位置姿勢センサから求められるマーカ部103bの位置姿勢をHs、マーカ部103bから見た撮像部101の相対的な位置姿勢をHoとすると、
Ho=Hs−1・Hc
となる。ここで求められたHoは、ユーザ視点の位置姿勢計測部104に伝えられる。S1202が終了したら、S1203に進む。
S1203は現実物体のキャリブレーションである。図11はS1203およびS1205中の処理を説明するための図である。図11中の1102は、テーブル401上にあらかじめ定められた現実物体404のキャリブレーション位置であり、テーブル401にあらかじめシールとして貼られている。現実物体のキャリブレーション位置1102は現実物体404を正射影した形状になっている。S1204の際には、ユーザがこの現実物体のキャリブレーション位置1102上に一致するように現実物体404をあらかじめ定められた向きで置く。現実物体404にはマーカ部103dが付属しており、マーカ部103dの位置および姿勢は常に位置姿勢センサ103によって計測されている。今、キーボード1004およびマウス1005を用いて、ユーザがS1203の実行を指示したとき、あらかじめ定められた世界座標系901における現実物体のキャリブレーション位置1102の位置姿勢をBd、位置姿勢センサ103から求められるマーカ部103dの位置姿勢をBs、マーカ部103dから見た現実物体404の中心の相対的な位置姿勢をBoとすると、
Bo=Bs−1・Bd
となる。ここで求められたBoは、現実物体の位置姿勢計測部105に伝えられる。S1203が終了したら、S1204に進む。
S1204は力覚デバイスのキャリブレーションである。S1204の際には、ユーザがこの力覚デバイス本体121をテーブル401上のあらかじめ定められた位置に置く。世界座標系901から見た力覚デバイス座標系の位置姿勢をDwとして表すと、Dwはマニュアルによる計測や計算によって求められ、キーボード1004やマウス1005を用いて力覚計算部120に入力される。
S1205は力覚デバイス把持部121aのキャリブレーションである。図11中の1101は、テーブル401上にあらかじめ定められた力覚デバイスの把持部121aのキャリブレーション位置であり、テーブル401にあらかじめシールとして貼られている。力覚デバイスの把持部121aのキャリブレーション位置1101は力覚デバイスの把持部121aを正射影した形状になっている。S1205の際には、ユーザがこの力覚デバイスの把持部のキャリブレーション位置1101上に一致するようにあらかじめ定められた向きで力覚デバイスの把持部121aを置く。力覚デバイスの把持部121aにはマーカ部103cが付属しており、マーカ部103cの位置および姿勢は常に位置姿勢センサ103によって計測されている。今、キーボード1004およびマウス1005を用いて、ユーザがS1203の実行を指示したとき、あらかじめ定められた世界座標系901における力覚デバイスの把持部121aのキャリブレーション位置1101の位置姿勢をPd、位置姿勢センサ103から求められるマーカ部103cの位置姿勢をPs、マーカ部103cから見た力覚デバイスの把持部121aの先端の相対的な位置姿勢をPoとすると、
Po=Ps−1・Pd
となる。ここで求められたPoは、力覚デバイスの位置姿勢計測部106に伝えられる。
S1205が終了したら、S100が終了され、S101およびS140が実行される。S140内の処理に関しては、別の図を用いて後述する。
S101は、現実空間撮像ステップである。このステップでは撮像部101が現実空間の映像を撮影する。撮影した映像は映像合成部111に送られる。ここで撮影される映像は、図5に示されるようなものである。図5中には、力覚デバイス本体121、力覚デバイスの把持部121a、マーカ部103c、マーカ部103d、現実物体404が捉えられている。S101が終わると、S102、S103およびS104が並行して実行される。
S102はユーザ視点の位置姿勢計測ステップである。ここでは、ユーザ視点の位置姿勢計測部104が、位置姿勢センサ103から送られてきている位置姿勢信号のうち、HMD100に取り付けられたマーカ部103bの位置姿勢を表す信号を使って、撮像部101の位置姿勢情報を生成する。求める撮像部101の位置姿勢をH、位置姿勢センサ103から求められるマーカ部103bの位置姿勢信号をHsnとすると、
H=Hsn・Ho
となる。求められた撮像部101の位置姿勢情報はCG描画部110に送られる。
S103は現実物体の位置姿勢計測ステップである。ここでは、現実物体の位置姿勢計測部105が位置姿勢センサ103から送られてきている位置姿勢信号のうち、現実物体404に取り付けられたマーカ部103dの位置姿勢を表す信号を使って、現実物体404の中心の位置姿勢情報を生成する。求める現実物体404の位置姿勢をB、103から求められるマーカ部103dの位置姿勢信号をBsnとすると、
B=Bsn・Bo
となる。求められた現実物体404の位置姿勢情報はCGシーン管理部107および力覚シーン管理部108に送られる。
S104は力覚デバイスの位置姿勢計測ステップである。ここでは、力覚デバイスの位置姿勢計測部106が位置姿勢センサ103から送られてきている位置姿勢信号のうち、力覚デバイスの把持部121aに取り付けられたマーカ部103cの位置姿勢を表す信号を使って、力覚デバイスの把持部121aの先端の位置姿勢情報を生成する。求める力覚デバイスの把持部121aの位置姿勢をP、位置姿勢センサ103から求められるマーカ部103cの位置姿勢信号をPsnとすると、
P=Psn・Po
となる。求められた力覚デバイスの把持部121aの位置姿勢情報はCGシーン管理部107および力覚シーン管理部108に送られる。
S102、S103およびS104が終わったらS110およびS120が実行される。
S110はCGシーンの変更ステップである。S110では、CGシーン管理部107に格納されているVRMLファイルの位置および姿勢情報が更新される。すなわち、現実物体404の位置姿勢情報が自動車を表すVRML(Virtual Reality Modeling Language)ファイルの位置姿勢情報として格納され、力覚デバイスの把持部121aの位置姿勢情報が力覚デバイスの把持部121aを表すVRMLファイルの位置姿勢情報として格納される。S110が終わったら、S111が実行される。
S111はCG描画ステップである。S111では、CG描画部110が撮像部101の位置姿勢情報を用いて、撮像部101の視点から見える仮想空間のCG映像を生成する。生成されたCG映像は映像合成部111に送出される。この際には、CGシーン管理部107に格納されている三次元CGモデルの情報が参照される。図6は、この時点で生成されるCG映像を説明する図である。図6中で、601は力覚デバイスの把持部121aを表す三次元CG、602は自動車を表す三次元CGを示している。映像合成部111が終わったら、S112が実行される。
S112は映像合成ステップである。S112では、まず撮像部101から送出されてきた撮影映像が映像合成部111の画像バッファに書き込まれる。次に、CG描画部110から送出されてきたCG映像が画像バッファに上書きされる。この結果、撮影映像を背景にし、仮想空間がその上に描画された合成映像が生成される。図7は、この時点で得られる合成映像を説明する図である。生成された合成映像は映像表示部102に送出される。S112が終わったら、S113が実行される。
S113は映像表示ステップである。S113では、映像表示部102が合成映像を表示する。
S120は力覚シーンの更新ステップである。S120では、力覚シーン管理部108に格納されている力覚シーンの更新がなされる。すなわち、現実物体404の位置姿勢情報が自動車を表す力覚発生モデルの位置姿勢情報として格納され、力覚デバイスの把持部121aの位置姿勢情報が力覚デバイスの把持部121aを表す力覚発生モデルの位置姿勢情報として格納される。S120では、現実物体404の位置姿勢に基づき、現実物体の力覚発生モデルの位置姿勢情報を更新する。従って、例えば、ユーザが自分の手で現実物体の位置姿勢を変更することによって、簡単に力覚発生モデルの位置姿勢情報を変更し、後に説明するS140の処理で、変更された力覚発生モデルに応じた力覚を発生することが出来る。
S113およびS120が終わったら、S130が実行される。
S130は終了判定ステップである。ユーザがキーボード1004、マウス1005を使ってシステムの終了を指示していればプログラムを終了し、指示していなければS101に進む。また、ユーザの指示なしで、自動的に継続処理を行ってもよい。特に、S101、S102、S103、S104、S110、S111、S112、S113、S120、S130の処理の繰り返しを高速にすることによって、現実物体や力覚デバイスの位置姿勢の変更に応じて、リアルタイムに力覚発生モデルを変更することが出来る。
以上、図2を参照して、本実施例における処理手順を説明した。
ここで、S140中の処理手順について説明する。S140では力覚シーンの情報を用いて、力覚デバイス本体121に力覚を発生させる。一般に、力覚デバイスが1000Hz以下の更新レートで力覚を提示すると、ユーザは力覚の不連続性を感じると言われているため、S140中のS201からS206に至るループは、1000Hz以上の更新レートで実行する。S140は上記条件を満たす手法であればさまざまな手法で実行されてよいが、本実施例では、力覚デバイスを用いるシステムにおいて広く用いられているVirtual Proxy法とペナルティ法を用いる。Virtual Proxy法については非特許文献2に記されている。
Virtual Proxy法は、力覚デバイスの先端を任意の半径を持った球体で表現し、その球体と力覚発生の対象となる仮想の物体との衝突を調べることで、力覚デバイスの先端に発生する力覚を計算するためのベクトルを求める手法である。
図14を用いて、Virtual Proxy法について説明する。1401は仮想物体の表面を表す。1402は力覚デバイスの先端の位置を表し、力覚デバイスの先端が仮想物体の内部に入り込んでしまっている状態を示している。1403は、力覚デバイスが本来あるべき位置を表す、Virtual Proxyである。1404は、力覚デバイスに発生する力を計算するためのベクトルを表す。Virtual Proxy法では、このように、本来力覚デバイスのあるべき位置をVirtual Proxyとして表し、実際の位置と比較する点に特徴がある。
ペナルティ法は、仮想物体間に発生する反力の強さを求める手法である。
図8は、S140中の処理手順を説明するフローチャートである。S140が開始されると、まずS201が実行される。
S201では力覚シーンの取得がなされる。ここでは、力覚計算部120が力覚シーン管理部108から力覚シーンを取得する。S201が終了すると、S202に進む。
S202では、力覚計算部120において、力覚デバイスの位置姿勢が、現実物体の座標系における位置姿勢情報に変換される。Virtual Proxy法では、力覚デバイスの先端の座標は、力覚発生の対象となる物体の座標系で表現しなければならず、この場合、力覚発生の対象となる物体の座標系は、現実物体404の座標系である。現実物体404の座標系における力覚デバイスの位置姿勢をPbとすると、
Pb=B−1・P
となる。S202が終了すると、S203に進む。
S203では、力覚計算部120が求められたPbと、力覚シーン情報内の自動車を表す力覚発生モデルを用いて、Virtual Proxy法を実行することで、力覚デバイスの把持部121aの先端に発生する力覚を計算するためのベクトルFwを計算する。S203が終了すると、S204に進む。
S204では、S203で求められたベクトルを用いて、ペナルティ法で発生する力の強さを計算する。発生する力の強さをFとすると、
F=K・|Fw|
の式によって発生する力の強さを求める。ここで、Kはバネ定数であり、あらかじめ定められている。この式は、S203で求められたベクトルに比例する力、すなわちバネのような力が力覚デバイスに加えられることを表現している。ここまでで、発生する力のベクトルと強さ、すなわち力覚が求められた。S204が終わると、S205に進む。
S205では、力覚の力覚デバイス座標系への変換が行われる。このステップでは、力覚計算部120が計算した世界座標系901における発生する力の情報を、力覚デバイス座標系における力の情報に変更する。力覚デバイス座標系における力の三自由度のベクトルFdは、
Fd=Dw−1・Fw
で表される。計算されたFd、および先に計算されたFは力覚デバイス本体121に送られる。S205が終わるとS206に進む。
S206では、力覚提示が行われる。このステップでは、力覚デバイス本体121が力覚計算部120から得た発生する力の情報を取得し、その力覚デバイスの把持部121aにその力を発生させる。S206が終了すると、S207に進む。
S207では、ユーザがキーボード1004、マウス1005を使ってシステムの終了を指示していればプログラムを終了し、指示していなければS201に進む。
以上、図8を参照して、本実施例のS140における処理手順を説明した。
本実施例において、現実物体を左手に把持し、力覚デバイスを右手に把持すれば、左手の物体を動かす操作によって右手の力覚デバイスが提示する力が変化することになる。また、左手に把持する現実物体は表示する三次元CGモデルと一致した形状である必要はなく、一般的な、たとえば立方体のような形状でよい。この現実物体に対して、操作したい三次元CGモデルを重畳表示し、本実施例で述べた方法を実行すれば、左手の自然な操作に対して右手にそのCG物体との物理的な干渉を力覚によって感じさせることが可能となる。
本実施例ではHMD100が撮像部101と映像表示部102を内蔵するビデオシースルー型のHMDであるものとしたが、これはユーザに現実世界と仮想世界の双方を提示することのできるデバイスであればどのようなもので構成されてもよく、たとえば光学シースルー型のHMDで構成されてもよい。その場合、図3中の撮像部101は必要なくなり、図2中のS101およびS112のステップは実行されない。また、ユーザの頭部に装着されるデバイスで構成される必要もなく、たとえば据え置き型の半透過型ディスプレイで構成されてもよい。その場合は、図3中の撮像部101、ユーザ視点の位置姿勢計測部104は必要なくなり、図2中のS101、S112およびS102のステップは実行されない。また、本実施例ではHMD100は撮像部101と映像表示部102を一つずつ持つ、単眼型のHMDを使用するものとしたが、撮像部101と映像表示部102をそれぞれ二つずつ持つ複眼型のHMDを使用してもよく、その場合は、図2に示される処理が両眼のそれぞれについて行われることになる。
(複数の現実物体)
第一の実施例では現実物体が一つだけであり、その上に自動車のCGが重ねて表示されるものとしたが、これは本実施例の基本構成に必須の要件ではなく、現実物体は複数存在するものとしてもよい。本実施例では、現実物体が複数存在し、そのそれぞれに異なるCGが重ねて表示される形態について説明する。
その場合、現実物体の全てに位置姿勢センサ103のマーカ部を取り付ける。また、図2中のS103中で現実物体の全てに対応して位置姿勢計測を行う。また、S110、S111およびS120の全てのステップにおいて、現実物体の全てに対応した処理を行う。
また、本実施例においては、図8に示されていたS140中の処理手順が、図9に示されるように変更される。
以下、図9を用いて、S140中の処理手順について説明する。ただし、図9中で、S201、S202、S203、S204、S205、S206およびS207の処理は図8中に示される処理と同じであるため、ここでは説明しない。S201が終了すると、S301aが実行される。これは、力覚計算を、本実施例で存在する現実物体の数だけループすることを表し、S204が終わった後のS301bで終了判定される。S301bではS202、S203およびS204の処理が現実物体の数だけ繰り返したかどうかが判定され、もし繰り返したことが確認されたらS302に進む。
S302は力覚合計ステップである。ここでは、S301のループ中で計算された、力覚の情報をすべて合計する。合計された発生する力の情報は、力覚デバイス本体121に送られる。S302が終了すると、S205に進む。
以上、図9を用いて、本実施例におけるS140中の処理手順について説明した。
前述の実施例では、力覚デバイスの位置姿勢計測部106が力覚デバイスの把持部121aの位置姿勢情報を位置姿勢センサ103から得るものとしたが、力覚デバイスの把持部121aの位置姿勢情報を、力覚デバイス本体121に内蔵される位置姿勢センサから得る構成としてもよい。その場合、図4で力覚デバイスの把持部121aに付着されるマーカ部103cの必要はなくなる。また、図12に示されるS1205の必要もなくなる。また、図2に示されるS104の処理が変更される。
本実施例におけるS104では、力覚デバイスの位置姿勢計測部106が力覚デバイス本体121に内蔵される位置姿勢センサから送られてきている位置姿勢信号を使って、力覚デバイスの把持部121aの先端の位置姿勢情報を生成する。求める力覚デバイスの把持部121aの位置姿勢をP、力覚デバイス本体121から出力される位置姿勢信号をPdnとすると、
P=Dw・Pdn
となる。求められた力覚デバイスの把持部121aの位置姿勢情報はCGシーン管理部107および力覚シーン管理部108に送られる。
前述の実施例では、力覚デバイスの把持部121aの位置姿勢情報を、力覚デバイス本体121に内蔵される位置姿勢センサから得る構成とした。しかしながら、この力覚デバイス本体121に内蔵される位置姿勢センサが出力する値は不正確であり、誤差を含むことがある。
また、実施例1において、S120において力覚デバイスの把持部121aの位置姿勢情報が力覚デバイスの把持部121aを表す力覚発生モデルの位置姿勢情報として力覚シーン管理部108に格納されるものとした。しかし、力覚デバイスの把持部121aを表す力覚発生モデルの位置姿勢が力覚デバイス本体121に内蔵される位置姿勢センサによって直接的に決定され、その後の書き換えを許さない場合がある。こうした場合、121aの不正確な位置姿勢の値が121aの力覚発生モデルの位置姿勢として格納されてしまうことになる。
本実施例では、こうした場合において、力覚デバイス本体121に内蔵される位置姿勢センサから得られる位置姿勢信号および、位置姿勢センサ103から得られる位置姿勢信号の双方を用いて、正確に力覚を提示する手法について述べる。
本実施例におけるS104では、力覚デバイスの位置姿勢計測部106が力覚デバイス本体121に内蔵される位置姿勢センサから送られてきている位置姿勢信号を使って、力覚デバイスの把持部121aの先端の位置姿勢情報を生成する。求める力覚デバイスの把持部121aの位置姿勢をPd、力覚デバイス本体121から出力される位置姿勢信号をPdnとし、マニュアルによる計測や計算によって求められた位置姿勢をDwとすると、
Pd=Dw・Pdn
となる。また、ここで、力覚デバイスの位置姿勢計測部106が位置姿勢センサ103から送られてきている位置姿勢信号のうち、力覚デバイスの把持部121aに取り付けられたマーカ部103cの位置姿勢を表す信号を使って、力覚デバイスの把持部121aの先端の位置姿勢情報を生成する。求める力覚デバイスの把持部121aの位置姿勢をP、位置姿勢センサ103から求められるマーカ部103cの位置姿勢信号をPsnとすると、
P=Psn・Po
となる。求められた力覚デバイスの把持部121aの位置姿勢情報はCGシーン管理部107および力覚シーン管理部108に送られる。
ここで、力覚デバイス本体121から得られる力覚デバイスの把持部121aの位置姿勢Pdは、位置姿勢センサ103から得られる位置姿勢Pよりも不正確である。両者の差、すなわち誤差をPeとすると、
Pe=P−Pd
となる。求められたPeは力覚シーン管理部108に送られる。
本実施例では、このようにして求められたPeを力覚シーンの誤差の補正に用いる。
S120において、まず、力覚デバイスの把持部121aの力覚モデルが力覚デバイス本体121に内蔵される位置姿勢センサによって決定される。その後、現実物体404の位置姿勢情報にPeの誤差を加えた値が自動車を表す力覚発生モデルの位置姿勢情報として格納される。このようにして、力覚デバイスの位置姿勢に含まれる誤差を他の全ての力覚モデルに与えることで、力覚シーンの誤差の補正を行うことができる。
本実施例では、S140における力覚提示の際、力覚の計算において、S103で得られる現実物体の位置姿勢とS104で得られる力覚デバイスの位置姿勢を用いて、力覚計算の工程に変更を加えるケースについて述べる。
本実施例では、図8に示されるS140内の処理手順が、図13に示されるように変更される。S202の後、S1301に進み、S1301では、力覚デバイスの、現実物体の座標系における位置姿勢の変化ベクトルDを求める。
また、本実施例では、S204の代わりに、S1302によって力覚の強さを計算する。S1302では、発生する力の強さをFを
F=L・|D|
に表される式で計算する。ここで、Lはあらかじめ定めた任意の定数である。この式は、S1302で求められたベクトルに比例する力が力覚デバイスに加えられることを表現している。S1302が終了したら、S203に進む。
以上のような制御手順を持たせることで、現実物体に対して力覚デバイスが急速に動いたときには大きな反力を発生させ、ゆっくりと動いたときには弱い反力を発生するようにすることができる。このような反力を発生させることで、ユーザがゆっくりと力覚デバイスを動かすと仮想物体の内部に入り込めるような効果を生み出すことができる。
また、Fを定める式を変更することで、異なる効果を得ることができる。
本実施例をソフトウェアで実現するためのコンピュータの基本構成を示す図 第一の実施例における処理手順を説明するためのフローチャート 第一の実施例における構成を説明するブロック図 第一の実施例の外観を大まかに示した図 第一の実施例において、S101で撮影される映像を説明する図 第一の実施例において、S111で生成されるCG映像を説明する図 第一の実施例において、S112で生成される合成映像を説明する図 第一の実施例において、S140中の処理手順を説明するフローチャート 第二の実施例において、S140中の処理手順を説明するフローチャート 第一の実施例において、S1201およびS1202中の処理を説明するための図 第一の実施例において、S1203およびS1205中の処理を説明するための図 第一の実施例において、S100中の処理手順を説明するフローチャート 第五の実施例において、S140中の処理手順を説明するフローチャート Virtual Proxy法を説明するための図

Claims (8)

  1. 複合現実空間において、力覚デバイスを用いて、現実物体に重畳される仮想物体から受ける力覚をユーザに提示するための情報処理方法であって、
    前記ユーザ視点の位置姿勢を取得する第一の取得工程と、
    前記現実物体の位置姿勢を取得する第二の取得工程と、
    前記現実物体の位置姿勢に基づき、該現実物体の力覚発生モデルの位置姿勢を変更する変更工程と、
    前記ユーザ視点の位置姿勢および前記現実物体の位置姿勢に基づき、前記仮想物体の仮想画像を生成する生成工程と、
    前記仮想画像と前記ユーザ視点の位置姿勢に応じた現実空間の画像とを合成し、提示する提示工程とを有し、
    前記力覚発生モデルは、前記力覚デバイスを用いて、前記仮想物体に対する力覚をユーザに提示するために用いられるモデルであることを特徴とする情報処理方法。
  2. 更に、前記仮想物体に対する力覚をユーザに提示する際に用いられる力覚情報を算出するためのパラメータを設定する設定工程と、
    前記第二の取得工程で取得された位置姿勢の変化量を算出する算出工程と、
    前記算出された位置姿勢の変化量に基づき、前記パラメータを変更するパラメータ変更工程を有することを特徴とする請求項1に記載の情報処理方法。
  3. 前記現実物体は複数の現実物体であり、該複数の現実物体それぞれに重畳される仮想物体から受ける力を考慮して提示する力覚を決定することを特徴とする請求項1に記載の情報処理方法。
  4. 更に、前記力覚発生モデルを補正する補正工程を有することを特徴とする請求項1に記載の情報処理方法。
  5. 前記変更工程は、前記現実物体の位置姿勢に基づき、リアルタイムに該現実物体の力覚発生モデルの位置姿勢を変更することを特徴とする請求項1に記載の情報処理方法。
  6. 複合現実空間において、力覚デバイスを用いて、現実物体に重畳される仮想物体から受ける力覚をユーザに提示するための情報処理装置であって、
    前記ユーザ視点の位置姿勢を取得する第一の取得手段と、
    前記現実物体の位置姿勢を取得する第二の取得手段と、
    前記現実物体の位置姿勢に基づき、該現実物体の力覚発生モデルの位置姿勢を変更する変更手段と、
    前記ユーザ視点の位置姿勢および前記現実物体の位置姿勢に基づき、前記仮想物体の仮想画像を生成する生成手段と、
    前記仮想画像と前記ユーザ視点の位置姿勢に応じた現実空間の画像とを合成し、提示する提示手段とを有し、
    前記力覚発生モデルは、前記力覚デバイスを用いて、前記仮想物体に対する力覚をユーザに提示するために用いられるモデルであることを特徴とする情報処理装置。
  7. 前記請求項1に記載の情報処理方法をコンピュータ上で実現するためのプログラム。
  8. 前記請求項1に記載の情報処理方法をコンピュータ上で実現するためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
JP2006117731A 2006-04-21 2006-04-21 情報処理方法および装置 Withdrawn JP2007293412A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006117731A JP2007293412A (ja) 2006-04-21 2006-04-21 情報処理方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006117731A JP2007293412A (ja) 2006-04-21 2006-04-21 情報処理方法および装置

Publications (1)

Publication Number Publication Date
JP2007293412A true JP2007293412A (ja) 2007-11-08

Family

ID=38764018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006117731A Withdrawn JP2007293412A (ja) 2006-04-21 2006-04-21 情報処理方法および装置

Country Status (1)

Country Link
JP (1) JP2007293412A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187550A (ja) * 2008-02-04 2009-08-20 Gwangju Inst Of Science & Technology 拡張現実におけるハプティックインタラクション方法およびそのシステム
JP2016062428A (ja) * 2014-09-19 2016-04-25 日本電気株式会社 力覚提示装置、情報端末、力覚提示方法、及びプログラム
WO2022202016A1 (ja) * 2021-03-26 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、記憶媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187550A (ja) * 2008-02-04 2009-08-20 Gwangju Inst Of Science & Technology 拡張現実におけるハプティックインタラクション方法およびそのシステム
US8243099B2 (en) 2008-02-04 2012-08-14 Gwangju Institute Of Science And Technology Method and system for haptic interaction in augmented reality
JP2016062428A (ja) * 2014-09-19 2016-04-25 日本電気株式会社 力覚提示装置、情報端末、力覚提示方法、及びプログラム
WO2022202016A1 (ja) * 2021-03-26 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、記憶媒体

Similar Documents

Publication Publication Date Title
JP4795091B2 (ja) 情報処理方法および装置
JP4933406B2 (ja) 画像処理装置、画像処理方法
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
US7292240B2 (en) Virtual reality presentation device and information processing method
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP4356983B2 (ja) 画像処理方法、画像処理装置
JP2000102036A (ja) 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP4677281B2 (ja) 画像処理方法、画像処理装置
JP4847195B2 (ja) 画像からの色情報の取得方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP2005108108A (ja) 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
JP2009276996A (ja) 情報処理装置、情報処理方法
JP2007299062A (ja) 情報処理方法、情報処理装置
JP2008293357A (ja) 情報処理方法および情報処理装置
JP2010257081A (ja) 画像処理方法及び画像処理装置
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2006012042A (ja) 画像生成方法及び装置
JP2009048237A (ja) 画像処理装置、画像処理方法
JP2007293412A (ja) 情報処理方法および装置
JP2005107972A (ja) 複合現実感提示方法、複合現実感提示装置
JP2008292407A (ja) 情報処理方法及び情報処理装置
JP2008070319A (ja) 物体計測装置および方法
JP7262973B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2006085375A (ja) 画像処理方法、画像処理装置
JP2011008351A (ja) 画像処理方法及び画像処理装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090707