JP2023114200A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2023114200A
JP2023114200A JP2022016424A JP2022016424A JP2023114200A JP 2023114200 A JP2023114200 A JP 2023114200A JP 2022016424 A JP2022016424 A JP 2022016424A JP 2022016424 A JP2022016424 A JP 2022016424A JP 2023114200 A JP2023114200 A JP 2023114200A
Authority
JP
Japan
Prior art keywords
virtual
information processing
orientation
movement
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022016424A
Other languages
English (en)
Inventor
直仁 中村
Naohito Nakamura
貴文 渡辺
Takafumi Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022016424A priority Critical patent/JP2023114200A/ja
Priority to US18/163,136 priority patent/US20230252729A1/en
Publication of JP2023114200A publication Critical patent/JP2023114200A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想物体を含む空間において仮想視点を移動する際に、ユーザにとって好適な仮想物体の動作制御を実現する。【解決手段】仮想視点の位置姿勢、及び1以上の仮想物体の位置姿勢を取得する取得手段と、前記仮想視点の移動を行う移動手段と、前記1以上の仮想物体の其々に対して、所定の条件を満たすかに基づいて、前記仮想視点の移動に連動させるかを制御する制御手段と、前記移動された視点での、前記制御された前記1以上の仮想物体を含む仮想画像を生成する生成手段と、を有することを特徴とする。【選択図】図2

Description

本発明は、仮想物体を提示するための情報処理技術に関する。
近年、現実空間と仮想空間とのつなぎ目のない結合を目的とした、仮想現実感(Virtual Reality:VR)や複合現実感(Mixed Reality:MR)システムの開発が盛んに行われている。
また、VRやMRシステムにおいては仮想空間内で位置移動するために観察者が実際に位置移動する場合、機材ごとの移動や、仮想空間と同じだけの実空間の確保が必要となる。そこで、位置移動を別途指定する位置移動指示手段を設けることが従来から行われている。例えば位置姿勢センサーによって方向を指定し、更に別途備えられたボタンを押すことでその方向への移動を指示することや、ジョイスティックのようなデバイスを用いて位置移動を指示することが行われている。このように仮想3次元空間内を自由に位置移動して観察することをウォークスルーと呼ぶ。ウォークスルー機能を使って移動し続けているとどの場所にいるかわかりづらくなってしまう課題を解決するために、特許文献1では、実寸観察モードと縮小観察モードを備えることが開示されている。
一方、VRやMRシステムでは、仮想物体を世界座標系に割り当てて表示するだけでなく、例えば位置姿勢の計測が可能な現実物体に対して仮想物体を割り当てて表示することも行われている。ユーザが現実物体を操作すると、その現実物体に割り当てられた仮想物体(以下、現実物体上の仮想物体と称する)の表示がユーザの操作に追従されるため、VRやMRシステムにおいてユーザに直観的な操作が提供できる。
特開2006-79174号公報
VRやMRシステムにおいてウォークスルー機能を利用する際、位置姿勢の計測が可能な現実物体に仮想物体が割り当てられている場合には、ユーザにとって好適な仮想物体の動作は、様々考えられる。例えば、世界座標系上の仮想物体と現実物体上の仮想物体とを別視点から確認したい場合、ウォークスルー機能を利用して仮想視点を移動した際には、世界座標系上の仮想物体と現実物体上の仮想物体との相対的な位置姿勢関係を維持する事が好適である。つまり、仮想物体はウォークスルー機能と連動して動作することが望ましい。また例えば、現実物体をユーザが把持して自由に操作している場合、ウォークスルー機能を利用して仮想視点を移動した際には、現実物体上の仮想物体は仮想視点の移動の影響を受けない事が好適である。つまり、仮想物体はウォークスルー機能と非連動で動作することが望ましい。しかしながら、従来は、仮想物体の動作をユーザにとって好適に制御することはできていなかった。
そこで、本発明は、仮想物体を含む空間において仮想視点を移動する際に、ユーザにとって好適な仮想物体の動作制御を実現することを目的とする。
本発明の情報処理装置は、仮想視点の位置姿勢、及び1以上の仮想物体の位置姿勢を取得する取得手段と、前記仮想視点の移動を行う移動手段と、前記1以上の仮想物体の其々に対して、所定の条件を満たすかに基づいて、前記仮想視点の移動に連動させるかを制御する制御手段と、前記移動された視点での、前記制御された前記1以上の仮想物体を含む仮想画像を生成する生成手段と、を有することを特徴とする。
本発明によれば、仮想物体を含む空間において仮想視点を移動する際に、ユーザにとって好適な仮想物体の動作制御を実現することができる。
実施形態1に係る情報処理装置を含むシステムの構成例を示す図である。 実施形態1に係る情報処理を示すフローチャートである。 実施形態1に係る情報処理を説明するための図である。 実施形態2に係る情報処理を説明するための図である。 情報処理装置の実装が可能なハードウェア構成例を示す図である。
以下、図面を参照して本発明の実施形態について説明する。
[実施形態1]
図1は、本実施形態に係る情報処理装置を含むシステムの構成例を示す。
図1は、本実施形態に係るシステムの構成例を示す図である。本実施形態に係るシステムは、現実空間と仮想空間とを融合した複合現実空間(MR空間)をシステム体験者(以下、ユーザと呼ぶ)に提示するための画像処理システムである。本実施形態では、現実空間の画像とコンピュータグラフィックス(CG)により描画される仮想空間の画像とを合成した合成画像を表示することで、ユーザにMR空間を提示する場合について説明する。
本実施形態に係るシステムは、表示装置100と、情報処理装置110と、入力装置120と、で構成されている。情報処理装置110は、表示装置100から取り込んだ現実空間の画像を、情報処理装置110内において生成された仮想空間の画像と合成し、その合成画像を複合現実感画像(MR画像)として表示装置100に出力する。なお、本発明は仮想空間の画像を表示させる情報処理装置に関するものであり、現実空間の画像と仮想空間の画像とを合成したMR画像を表示させるMRシステムに限定されない。つまり、仮想空間の画像のみをユーザに提示するVR(バーチャルリアリティ)システムや、現実空間を透過させて仮想空間の画像をユーザに提示するAR(オーグメンテッドリアリティ)システムにも適用可能である。
表示装置100は、撮像部101を備える。撮像部101は、時系列上連続して現実空間の画像を撮像し、撮像した現実空間の画像を情報処理装置110に出力する。撮像部101は、ユーザの視点位置から視線方向の現実空間を撮像可能なように互いに固定された2つのカメラからなるステレオカメラを含んで構成されていてもよい。
また、表示装置100は、表示部102を備える。表示部102は、情報処理装置110から出力されたMR画像を表示する。表示部102は、ユーザの左右の目に其々対応して配置された2つのディスプレイを含んで構成されていてもよい。この場合、ユーザの左目に対応するディスプレイには左目用のMR画像が表示され、ユーザの右目に対応するディスプレイには右目用のMR画像が表示される。
表示装置100は、例えば頭部装着型表示装置(HMD)とすることができる。ただし、表示装置100はHMDに限定されるものではなく、ハンドヘルドディスプレイ(HHD)であってもよい。HHDは、手持ちのディスプレイである。つまり、ユーザが手にとり、双眼鏡のように覗き込むことで画像を観察するディスプレイであってもよい。更に、表示装置100は、タブレットやスマートフォン等の表示端末であってもよい。
入力装置120は、入力部121を備える。入力部121は、ユーザからの方向や位置の移動指示を入力可能なコントローラであり、入力された値に応じた入力値を情報処理装置110に入力する。入力装置120は、操縦桿状のデバイスでスティックの傾きの方向に応じた値を取得できるジョイスティックである。ただし、入力装置120はジョイスティックに限定されるものではなく、キーボードやビデオゲーム用の入力装置等のデバイスで代用することも可能である。
また、情報処理装置110と表示装置100と、情報処理装置110と入力装置120とは互いにデータ通信が可能なように接続されている。なお、情報処理装置110と表示装置100との間の接続、及び情報処理装置110と入力装置120との間の接続は、有線、無線どちらでも構わない。また、表示装置100の筐体の中に情報処理装置110が配置されていても構わない。
情報処理装置110は、位置姿勢算出部111と、視点移動処理部112と、制御部113と、画像生成部114と、画像合成部115と、データ記憶部116と、を備える。
位置姿勢算出部111は、世界座標系における撮像部101の位置姿勢と、世界座標系とは別の座標系(個別座標系)が設定された現実物体の位置姿勢と、を算出する。具体的には、位置姿勢算出部111は、撮像部101により撮像された現実空間の画像から世界座標系に割り当てられているマーカーと、個別座標系に割り当てられているマーカーを抽出する。個別座標系に割り当てられているマーカーは、操作可能な現実物体に付与されている。そして、マーカーの位置姿勢に基づいて、世界座標系における撮像部101の位置姿勢と、個別座標系における現実物体の位置姿勢を算出する。そして、算出した位置姿勢情報をデータ記憶部116に格納する。
本実施形態において、位置姿勢算出部111は、撮像部101の位置姿勢を算出することにより、仮想視点の移動が発生する直前の仮想視点の位置姿勢を取得する。なお、撮像部101の位置姿勢に代えて、世界座標系上の基準となる位置姿勢を取得してもよい。
また、本実施形態において、個別座標系が設定された現実物体に対して、仮想物体が関連付けられている。位置姿勢算出部111は、個別座標系における現実物体の位置姿勢を算出することにより、仮想視点の移動が発生する直前の仮想物体の位置姿勢を取得できる。
なお、撮像部101の位置姿勢や、個別座標系における現実物体の位置姿勢を算出するための方法には様々な方法があり、上述の方法に限らない。例えば、画像中に写っている特徴点に基づいて、Simultaneous Localization and Mapping(SLAM)の処理を実施して、撮像部101の位置姿勢や、個別座標系における現実物体の位置姿勢を求めてもよい。その他にも、撮像部101に対する相対的な位置姿勢が既知のセンサーを表示装置100としてのHMDに取り付け、該センサーによる計測値を該相対的な位置姿勢に基づいて変換することで、撮像部101の位置姿勢を求めてもよい。同様に、操作可能な現実物体に対する相対的な位置姿勢が既知のセンサーを該現実物体に取り付けることによって、個別座標系における現実物体の位置姿勢を求めてもよい。また、モーションキャプチャシステムを利用してもよい。
視点移動処理部112は、入力部121からの入力値に基づいて、仮想視点の移動量を算出し、算出した仮想視点の移動量に基づいて、仮想視点の位置姿勢の移動処理を行う。仮想視点は、画像生成部114が生成する仮想空間の画像の視点のことを指す。本実施形態では、位置姿勢算出部111で算出された撮像部101の位置姿勢に、算出した仮想視点の移動量を加えて、仮想視点の位置姿勢を算出する。視点移動処理部112は、仮想視点の移動量として、入力部121からの入力値を用いて、仮想視点の位置を互いに直交する3軸の其々の方向に移動させた移動量や、仮想視点の姿勢を互いに直交する3軸の其々の方向に回転させた移動量を算出する。そして、仮想視点の位置姿勢の算出結果と、仮想視点の移動量の算出結果をデータ記憶部116に格納する。
制御部113は、個別座標系が設定された現実物体の其々について、視点移動処理部112による仮想視点の移動に連動させるか否かの判定処理を行う。制御部113は、連動させる場合、位置姿勢算出部111で算出した現実物体の位置姿勢を、仮想視点の移動量に基づき更新して、更新後の位置姿勢を仮想物体の位置姿勢としてデータ記憶部116に格納する。また、制御部113は、連動させない場合、位置姿勢算出部111で算出した現実物体の位置姿勢を、そのまま仮想物体の位置姿勢としてデータ記憶部116に格納する。
画像生成部114は、データ記憶部116に格納されている仮想空間のデータに基づいて仮想空間を構築する。仮想空間のデータには、仮想空間を構成する各仮想物体に係るデータや、仮想空間中を照射する光源に係るデータ等が含まれる。画像生成部114は、データ記憶部116に格納されている、視点移動処理部112が算出した仮想視点の位置姿勢を設定する。また、データ記憶部116に格納されている、個別座標系を持つ仮想物体の位置姿勢に対応させて、仮想物体を仮想空間中に配置する。そして、設定された位置姿勢の視点から見える仮想空間の画像(仮想画像)を生成する。なお、所定の位置姿勢の視点から見える仮想画像を生成するための技術については周知の技術であるので、これについての詳細な説明は省略する。
画像合成部115は、画像生成部114で生成された仮想画像と、撮像部101により撮像された現実空間の画像と、を合成してMR画像を生成する。そして、生成したMR画像を表示装置100に出力する。
データ記憶部116は、上述の通り、様々な情報を格納するためのものであり、RAMやハードディスクドライブ装置等により構成されている。なお、データ記憶部116には、上記の説明においてデータ記憶部116に格納するものとして説明した情報の他に、本実施形態において既知の情報として説明するものについても格納されているものとする。
図2は、情報処理装置110が、MR画像を生成し、表示装置100に対して出力するための情報処理を示すフローチャートである。前提として、現実空間に操作可能な現実物体が複数存在しており、複数の現実物体に対して個別座標系が其々設定されているものとする。また、個別座標系が設定された現実物体の位置姿勢に、仮想物体の位置姿勢が関連付けられている。
先ず、ステップS201において、位置姿勢算出部111は、撮像部101の位置姿勢と、個別座標系における現実物体の位置姿勢とを算出する。
次に、ステップS202において、視点移動処理部112は、入力部121からの入力値に基づいて、仮想視点の移動量を算出する。
次に、ステップS203において、視点移動処理部112は、ステップS201で算出した撮像部101の位置姿勢に、ステップS202で算出した仮想視点の移動量を加算して、仮想視点の位置姿勢を算出する。
次に、ステップS204において、制御部113は、k番目の現実物体の個別座標系を指定する値kの初期設定としてk=1を定める。そして、ステップS205において、制御部113は、kの値と、設定されている個別座標系の総数とを比較する。kの値が個別座標系の総数以下である場合は、ステップS206へ進み、kの値が個別座標系の総数を上回る場合は、ステップS210へ進む。
次に、ステップS206において、制御部113は、k番目の個別座標系が設定されている現実物体について、所定の条件を満たすかを判定する。制御部113が所定の条件を満たすと判定した場合、ステップS207へ進み、所定の条件を満たしていないと判定した場合、ステップS208へ進む。
ステップS207において、制御部113は、ステップS201で算出した、k番目の個別座標系が設定される現実物体に関連付く仮想物体の位置姿勢を、仮想視点の移動に、連動して移動させるよう制御する。具体的には、k番目の個別座標系における現実物体の位置姿勢を、S202で算出された仮想視点の移動量を用いて更新することにより、仮想物体の位置姿勢を取得する。これにより、仮想視点の位置姿勢と、現実物体に関連付く仮想物体の位置姿勢との関係性が維持される。
ステップS208において、制御部113は、ステップS201で算出した、k番目の個別座標系が設定される現実物体に関連付く仮想物体の位置姿勢を、仮想視点の移動に、非連動となるよう制御する。具体的には、k番目の個別座標系における現実物体の位置姿勢を、そのまま仮想物体の位置姿勢として取得する。これにより、撮像部101の位置姿勢と、現実物体に関連付く仮想物体の位置姿勢との関係性が維持される。
ステップS207及びステップS208の後、処理はステップS209に進む。ステップS209において、制御部113は、kの値を1増加させる。その後、処理はステップS205に戻る。
次に、ステップS210において、画像生成部114は、ステップS203で算出した仮想視点の位置姿勢と、ステップS207及びステップS208で算出した仮想物体の位置姿勢を用いて、仮想画像を生成する。
次に、ステップS211において、画像合成部115は、撮像部101が撮像した現実空間の画像と、ステップS210で生成した仮想画像とを合成して、MR画像を生成する。そして、生成したMR画像を表示装置100に出力する。
次に、ステップS212において、情報処理装置110が、本フローチャートの終了指示が入力されたかを判定し、終了指示が入力されたと判定した場合、本フローチャートの処理を終了する。一方、終了指示が入力されない限り、処理はS201に戻る。なお、本ステップでは、本フローチャートを終了する条件を満たしたかを判定してもよい。
個別座標系を持つ仮想物体について、仮想視点の移動処理に連動させるか否かの判定に用いる所定の条件は様々な条件が考えられるが、以下ではその一例について説明する。
図3は、画像合成部115が生成する画像合成結果としてのMR画像を示す。図3を用いて、個別座標系を持つ仮想物体に対する、仮想視点の移動処理の連動/非連動の制御について説明する。
現実物体302、303、304、305は、現実空間に存在するユーザに操作可能な物体である。図3の例では、現実物体302がユーザの手301に把持されている。マーカー306は、世界座標系に割り当てられているマーカーである。また、マーカー307、308、309、310は、個別座標系に割り当てられているマーカーである。仮想物体311は、世界座標系に割り当てられている仮想空間に存在する物体である。仮想物体312、313、314、315は、マーカー307、308、309、310が付与された現実物体302、303、304、305に関連付く仮想物体である。即ち、仮想物体312、313、314、315の其々に、個別座標系が設定されている。図3(B)の矢印316は、仮想視点の移動量を模式的に示すものである。図3(B)では仮想視点が矢印316の方向に移動した結果、仮想物体311の表示位置が移動した事を示す。また、矢印317、318、319は、仮想視点の移動量と連動して仮想物体312、313、314、315の位置姿勢が移動した事を示す。なお、矢印316、317、318、319は、本実施形態の説明のために付加的に表記したものであって、仮想画像上に実際に表示されるものではない。また、個別座標系に割り当てられたマーカーが付与されている現実物体の個数は、1以上であれば特に限定されない。
図3(A)は、入力部121からの入力がなく、仮想視点の移動量がない状態を示す。仮想視点の移動量がない場合、位置姿勢算出部111が算出した撮像部101の位置姿勢を仮想視点の位置姿勢とし、位置姿勢算出部111が算出した現実物体302~305の位置姿勢を仮想物体312~315の位置姿勢として、仮想画像が生成される。そして、仮想画像と撮像部101の現実空間の画像とを合成したMR画像が生成される。
図3(B)は、入力部121からの入力によって、仮想視点の移動が発生した状態を示す。仮想視点の移動が発生した場合、世界座標系上の仮想物体311は、矢印316の方向へ移動する。本実施形態では、個別座標系を持つ仮想物体の位置姿勢を、仮想視点の移動に連動させるかを判定するための所定の条件として、撮像部101と現実物体302~305のそれぞれとの相対的な距離を用いる。制御部113は、相対的な距離が閾値以上の場合には、個別座標系上の仮想物体の位置姿勢を、仮想視点の移動量に連動させ、相対的な距離が閾値未満の場合には、個別座標系上の仮想物体の位置姿勢を、仮想視点の移動量に非連動とする。
なお、上記の説明では、所定の条件として、撮像部101と現実物体302~305のそれぞれとの相対的な距離を用いたが、撮像部101と仮想視点の移動が発生する直前の仮想物体312~315のそれぞれとの相対的な距離を用いてもよい。また、相対的な距離に限られず、相対的な角度を用いてもよく、距離と角度の両方を用いてもよい。
図3(B)の例では、撮像部101との相対的な距離が閾値以上であると判定された現実物体303~305に関連付く仮想物体313~315の位置姿勢が、仮想視点の移動量に連動される。情報処理装置110は、相対的な距離が閾値以上と判定した場合、現実物体303~305に関連付く仮想物体313~315の表示位置を、矢印317~319の方向へ其々移動させるよう制御する。
また、図3(B)の例では、撮像部101との相対的な距離が閾値未満であると判定された現実物体302に関連付く仮想物体312の位置姿勢は、仮想視点の移動に連動されない。情報処理装置110は、相対的な距離が閾値未満であると判定した場合、現実物体302に関連付く仮想物体312の表示位置を、仮想視点の移動に連動させないよう制御する。即ち、仮想物体312は仮想視点の移動がない状態と同じ位置に表示される。
以上のように、情報処理装置110は、個別座標系を持つ仮想物体に対して、仮想視点の移動処理の連動/非連動を制御する。これにより、仮想視点の移動が発生した場合に、仮想視点の移動量に連動させる仮想物体については、世界座標系上の仮想物体と共に、仮想視点の移動量反映後の異なる視点からの視認可能となる。一方で、仮想視点の移動量に連動させない仮想物体については、仮想視点の移動量がない状態と同じ場所に表示される。これにより、仮想物体に紐づく現実物体を把持して操作するユーザは、仮想視点の移動量反映後の異なる視点においても、仮想視点の移動前と同様に操作を継続できる。以上のようにして、仮想視点の移動が発生した時に、個別座標系を持つ仮想物体の其々について、仮想視点の移動量を連動させるか否かを好適に組み合わせて生成した仮想画像をユーザに対して提示することが可能になる。
以上のような本実施形態に係る情報処理装置110によれば、仮想物体を含む空間において仮想視点を移動する際に、ユーザにとって好適な仮想物体の動作制御を実現することができる。
上記の実施形態では、個別座標系を持つ仮想物体の位置姿勢を、仮想視点の移動に連動させるか否かの判定に用いる所定の条件として、撮像部101と仮想物体が関連付く現実物体との相対的な距離を用いたが、相対的な距離を用いる場合に限られない。個別座標系を持つ仮想物体の位置姿勢に関する情報や移動に関する情報を用いてもよい。具体的には、情報処理装置110は、現実空間内の画像における、世界座標系に割り当てられているマーカー、及び個別座標系に割り当てられているマーカーの位置を時系列で解析して、仮想視点と仮想物体との相対的な移動速度や相対的な移動軌跡を取得する。そして、取得した相対的な移動速度や相対的な移動軌跡を、所定の条件として用いてもよい。なお、仮想物体の移動速度や移動軌跡を、所定の条件として用いてもよい。
また、ユーザの現実物体の把持・装着を含む接触状態を所定の条件として用いてもよい。具体的には、情報処理装置110は、ユーザの現実物体の把持状態や装着状態を検出して、把持又は装着している場合には、把持又は装着された現実物体に関連付く仮想物体については、仮想視点の移動と連動させないよう制御する。一方で、把持又は装着していない場合には、把持又は装着されていない現実物体に関連付く仮想物体については、移動処理に連動させるよう制御する。ユーザの把持又は装着の検出は、現実物体に取り付けられた感圧センサーや接触センサーを用いて行ってもよい。また、ユーザの手の位置姿勢と、現実物体の位置姿勢とを検出する検出センサーを設け、情報処理装置110が、検出センサーによる時系列的な検出結果に基づいてユーザの手の現実物体に対する接触状態を取得してもよい。また、検出センサーに代えて、情報処理装置110が、撮像部101で撮像された画像を解析することによりユーザの手の現実物体に対する接触状態を検出してもよい。なお現実物体に対して接触するユーザの部位は、手に限られず、現実物体に接触可能なユーザの所定部位であればよい。
また、上記の実施形態では、仮想物体に対して個別座標系を設定していたが、個別座標系を設定しなくてもよい。この場合には、情報処理装置110は、世界座標系上の仮想物体の位置姿勢情報に対して、仮想視点の移動処理の連動/非連動を制御してもよい。
また、上記の実施形態では、ユーザは1人であったが、複数人のユーザによって実施されてもよい。この場合、複数人のユーザ間で、世界座標系上の仮想物体の位置姿勢、仮想視点の位置姿勢、及び現実物体の位置姿勢を共有していて、ユーザ毎に仮想視点を移動させた際に、ユーザ毎に連動/非連動の制御を行う。また、世界座標系上の仮想物体の位置姿勢、仮想視点の位置姿勢、及び現実物体の位置姿勢に加えて、仮想視点の移動量や、個別座標系を持つ仮想物体に対する、仮想視点の移動処理の連動/非連動の制御結果も、複数人のユーザ間で共有されていてもよい。
[実施形態2]
本実施形態では、仮想視点の移動処理に非連動とする場合に、仮想視点の移動が発生した前後で、仮想物体の表示態様を変更する方法について説明する。例えば、情報処理装置110は、仮想物体の位置姿勢を非連動とする場合に、該仮想物体の表示位置に、別の仮想物体を複製して表示するよう制御する。
図4は、画像合成部115が生成する画像合成結果としてのMR画像を示す。図3と同じ部分については同じ番号を付しており、その説明を省略する。
図4(A)は、図3(A)と同じ状態を示す。
図4(B)は、図3(B)と同様に、入力部121からの入力値によって、仮想視点の移動が発生した状態を示す。本実施形態において、情報処理装置110は、仮想視点の移動に連動させないと判定された仮想物体の位置姿勢に対応させて、予め設定された仮想物体、又はユーザが指定した仮想物体を、複製して表示する。本実施形態では、個別座標系上の仮想物体を、仮想視点の移動に連動させるかを判定するための所定の条件として、実施形態1と同様に、撮像部101と仮想物体が関連付く現実物体との相対的な距離を用いる。情報処理装置110は、相対的な距離が閾値以上の場合には、個別座標系上の仮想物体の位置姿勢を仮想視点の移動に連動させ、相対的な距離が閾値未満の場合は、個別座標系上の仮想物体の位置姿勢を仮想視点の移動に非連動とする。
図4(B)の例では、図3(B)の場合と同様に、撮像部101との相対的な距離が閾値未満である現実物体302に関連付く仮想物体312は、仮想視点の移動に非連動と判定される。情報処理装置110は、相対的な距離が閾値未満であると判定した場合、現実物体302上の仮想物体312の位置姿勢を、仮想視点の移動に連動させないよう制御する。本実施形態では、更に、仮想視点の移動に連動する個別座標系上の仮想物体の一つである仮想物体315を複製し、複製した仮想物体315を、仮想物体312に置き換えて表示する。即ち、現実物体302上の仮想物体312が、仮想物体401に変更されて、仮想視点の移動量がない状態と同じ位置に表示される。これにより、仮想視点の移動を行い、異なる仮想視点から観察する時に、ユーザの把持する現実物体に対して、他の仮想物体がコピーされて新たに関連付けられる。従って、ユーザは同一の現実物体を把持しつつ、新たな目的で利用することが可能になる。
以上のような本実施形態に係る情報処理装置110によれば、実施形態1と同様に、仮想物体を含む空間において仮想視点を移動する際に、ユーザにとって好適な仮想物体の動作制御を実現することができる。
なお、上記の実施形態では、仮想視点の移動に連動する個別座標系上の仮想物体を複製しているが、世界座標系上の仮想物体を複製してもよいし、仮想視点の移動に非連動となる個別座標系上の仮想物体を複製してもよい。
[ハードウェア構成例]
図5は、前述した各実施形態における情報処理装置110の実装を可能なコンピュータのハードウェア構成を示す図である。前述した各実施形態における情報処理装置110を構成する各部は、其々別のハードウェアで構成されてもよく、CPU501により実行されるプログラムにより実現されてもよい。
図5において、情報処理装置110としてのコンピュータは、CPU501、RAM502、ROM503、マウス504、キーボード505、ディスプレイ506、外部記憶装置507、記憶媒体ドライブ508、及びI/F509を備える。これらの各デバイスは、バス510を介して相互に接続されている。
CPU501は、情報処理装置110を統括的に制御する。RAM502は、外部記憶装置507や記憶媒体ドライブ508からロードされたデータや情報処理に必要なデータを一時的に記憶する。またRAM502は、図1に示したデータ記憶部116としても機能する。またRAM502は、I/F509を介して表示装置100や入力装置120等の外部から受信したデータを一時的に記憶する。外部から受信したデータは、撮像部101の撮像した現実空間の画像や、入力装置120が生成した入力値を含む。またRAM502は、CPU501のワークエリアとしても機能する。ROM503は、コンピュータの設定データやブートプログラム等を格納する。マウス504及びキーボード505は、操作入力装置の一例であり、コンピュータのユーザが操作することで、各種の指示をCPU501に対して入力する。ディスプレイ506は、CRTや液晶画面等により構成され、CPU501による処理結果を画像や文字等で表示する。例えば、ディスプレイ506には、表示装置100の位置姿勢計測のために表示すべきメッセージ等を表示することができる。
外部記憶装置507は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置507には、OS(オペレーティングシステム)や、情報処理装置110により実行可能なプログラムや各種のデータが格納されている。外部記憶装置507に保存されているプログラムや各種のデータは、CPU501による制御に従って、適宜RAM502にロードされる。CPU501が外部記憶装置507に格納されるプログラムをRAM502にロードして実行することにより、コンピュータが、位置姿勢算出部111、視点移動処理部112、制御部113、画像生成部114、及び画像合成部115として機能する。また、CPU501が外部記憶装置507に格納されるプログラムをRAM502にロードして実行することにより、図2のフローチャートに示す処理が実現する。また、外部記憶装置507に格納されている各種のデータには、仮想空間を構築するためのデータや、各実施形態において既知の情報として説明したデータが含まれる。なお、外部記憶装置507が、図1に示したデータ記憶部116として機能してもよい。
記憶媒体ドライブ508は、CD-ROMやDVD-ROM等の記憶媒体に記録されたプログラムやデータをロードしたり、上記の記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置507に保存されているものとして説明したプログラムやデータの一部又は全部を、記憶媒体に記録しておいてもよい。記憶媒体ドライブ508が記憶媒体からロードしたプログラムやデータは、外部記憶装置507やRAM502に対して出力される。I/F509は、表示装置100の撮像部101を接続するためのアナログビデオポート、IEEE1394等のデジタル入出力ポート、合成画像を表示装置100の表示部102に対して出力するためのイーサネット(登録商標)ポート等によって構成される。I/F509を介して受信したデータは、RAM502や外部記憶装置507に入力される。また、仮想視点や現実物体の位置姿勢情報の取得にセンサーシステムを用いる場合、このI/F509には、センサーシステムを接続することになる。
[その他の実施形態]
尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図示したフローチャートに対応したコンピュータ読み取り可能なプログラムである。また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOS等との協働で実施形態の機能が実現されてもよい。この場合、OS等が、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。
100:表示装置、110:情報処理装置、120:入力装置

Claims (19)

  1. 仮想視点の位置姿勢、及び1以上の仮想物体の位置姿勢を取得する取得手段と、
    前記仮想視点の移動を行う移動手段と、
    前記1以上の仮想物体の其々に対して、所定の条件を満たすかに基づいて、前記仮想視点の移動に連動させるかを制御する制御手段と、
    前記移動された視点での、前記制御された前記1以上の仮想物体を含む仮想画像を生成する生成手段と、
    を有することを特徴とする情報処理装置。
  2. 前記制御手段は、前記取得手段により取得された前記仮想物体の位置姿勢を、前記仮想視点の移動に連動して移動させるかを制御することを特徴とする請求項1に記載の情報処理装置。
  3. 前記制御手段は、
    前記所定の条件を満たす前記仮想物体を、前記取得手段により取得された前記仮想物体の位置姿勢を前記仮想視点の移動に連動して移動させ、
    前記所定の条件を満たさない前記仮想物体を、前記仮想視点の移動に連動させず、前記取得手段により取得された前記仮想物体の位置姿勢のままにする
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記制御手段は、前記仮想視点の移動に連動させない前記仮想物体を、別の前記仮想物体に変更するよう制御することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記仮想物体を複製する複製手段を更に有し、
    前記制御手段は、前記仮想視点の移動に連動させない前記仮想物体を、複製された別の前記仮想物体に置き換えることを特徴とする請求項4に記載の情報処理装置。
  6. 前記所定の条件として、前記仮想視点と前記仮想物体との間の相対的な距離、及び相対的な角度のうちの少なくとも一方を用いることを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記所定の条件として、前記仮想物体の位置及び姿勢のうちの少なくとも一方を用いることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記所定の条件として、前記仮想物体の移動に関する情報を用いることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 前記所定の条件として、前記仮想視点と前記仮想物体との間の相対的な移動速度及び移動軌跡のうちの少なくとも一方を用いることを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 前記所定の条件として、前記仮想視点と前記仮想物体との間の相対的な距離を用い、
    前記制御手段は、
    前記仮想視点との間の相対的な距離が閾値未満である前記仮想物体は、前記取得手段により取得された位置姿勢のままにし、
    前記仮想視点との間の相対的な距離が閾値以上である前記仮想物体は、前記取得手段により取得された位置姿勢を前記仮想視点の移動に連動して移動させる
    ことを特徴とする請求項6に記載の情報処理装置。
  11. 前記1以上の仮想物体のうちの少なくとも1つが、現実物体に関連付けられていることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記仮想画像を観察するユーザの所定部位の前記現実物体に対する接触状態を検出する検出手段を更に有し、
    前記所定の条件として、前記現実物体に対する前記所定部位の接触状態を用いることを特徴する請求項11に記載の情報処理装置。
  13. 前記所定部位が、手であることを特徴とする請求項12に記載の情報処理装置。
  14. 前記制御手段は、
    ユーザの前記所定部位が前記現実物体に接触している場合には、当該現実物体に関連付く前記仮想物体の位置姿勢を前記取得手段で取得されたままにし、
    ユーザの前記所定部位が前記現実物体に接触していない場合には、当該現実物体に関連付く前記仮想物体の位置姿勢を前記仮想視点の移動に連動して移動させる
    ことを特徴とする請求項12又は13に記載の情報処理装置。
  15. 前記取得手段は、前記仮想視点の位置姿勢として、現実空間を撮像する撮像装置の位置姿勢を取得することを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
  16. 前記取得手段は、前記撮像装置で撮像された現実空間の画像に基づいて、前記1以上の仮想物体の位置姿勢を取得することを特徴とする請求項15に記載の情報処理装置。
  17. 前記移動手段は、前記仮想画像を観察するユーザからの方向及び又は位置の指示を入力可能な入力装置から入力された値に基づいて前記仮想視点の移動量を算出することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。
  18. 仮想視点の位置姿勢、及び1以上の仮想物体の位置姿勢を取得する取得ステップと、
    前記仮想視点の移動を行う移動ステップと、
    前記1以上の仮想物体の其々に対して、所定の条件を満たすかに基づいて、前記仮想視点の移動に連動させるかを制御する制御ステップと、
    前記移動された視点での、前記制御された前記1以上の仮想物体を含む仮想画像を生成する生成ステップと、
    を含むことを特徴とする情報処理方法。
  19. 請求項1乃至17の何れか1項に記載の情報処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2022016424A 2022-02-04 2022-02-04 情報処理装置、情報処理方法、及びプログラム Pending JP2023114200A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022016424A JP2023114200A (ja) 2022-02-04 2022-02-04 情報処理装置、情報処理方法、及びプログラム
US18/163,136 US20230252729A1 (en) 2022-02-04 2023-02-01 Information processing apparatus, information processing method, and storage medium for presenting virtual object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022016424A JP2023114200A (ja) 2022-02-04 2022-02-04 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2023114200A true JP2023114200A (ja) 2023-08-17

Family

ID=87521252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022016424A Pending JP2023114200A (ja) 2022-02-04 2022-02-04 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US20230252729A1 (ja)
JP (1) JP2023114200A (ja)

Also Published As

Publication number Publication date
US20230252729A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
US7830334B2 (en) Image displaying method and apparatus
JP4795091B2 (ja) 情報処理方法および装置
JP5824537B2 (ja) 情報処理装置および情報処理方法
WO2014141504A1 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
US7123214B2 (en) Information processing method and apparatus
EP4031050A1 (en) Surgical virtual reality user interface
JP2008040832A (ja) 複合現実感提示システム及びその制御方法
JP2006079174A (ja) 仮想現実感提示装置および情報処理方法
JP2021192304A (ja) 情報処理装置及びその制御方法、並びに、プログラム
KR20170062439A (ko) 제어 장치, 제어 방법 및 프로그램
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2012145598A (ja) 情報処理方法及び情報処理装置
JP7129839B2 (ja) 訓練装置、訓練システム、訓練方法、及びプログラム
JP4991395B2 (ja) 情報処理方法及び情報処理装置
US20240135665A1 (en) Information processing apparatus and information processing method
JP4689344B2 (ja) 情報処理方法、情報処理装置
CN111801146B (zh) 信息处理装置、记录介质、头戴式显示器及信息处理系统
CN117784926A (zh) 控制装置、控制方法和计算机可读存储介质
JP2023114200A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019045997A (ja) 情報処理装置及びその方法、プログラム
JP7451084B2 (ja) 情報処理装置および情報処理方法
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2006343954A (ja) 画像処理方法、画像処理装置
JP2021131490A (ja) 情報処理装置、情報処理方法、プログラム