JP6775957B2 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP6775957B2
JP6775957B2 JP2016016364A JP2016016364A JP6775957B2 JP 6775957 B2 JP6775957 B2 JP 6775957B2 JP 2016016364 A JP2016016364 A JP 2016016364A JP 2016016364 A JP2016016364 A JP 2016016364A JP 6775957 B2 JP6775957 B2 JP 6775957B2
Authority
JP
Japan
Prior art keywords
line
viewpoint
sight direction
user
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016016364A
Other languages
English (en)
Other versions
JP2017134771A (ja
Inventor
奈緒子 小形
奈緒子 小形
博之 渡部
博之 渡部
靖己 田中
靖己 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016016364A priority Critical patent/JP6775957B2/ja
Priority to US15/414,482 priority patent/US20170220105A1/en
Publication of JP2017134771A publication Critical patent/JP2017134771A/ja
Application granted granted Critical
Publication of JP6775957B2 publication Critical patent/JP6775957B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想画像を観察するユーザの視点を変更するための技術に関する。
近年、現実空間と仮想空間とのつなぎ目のない結合を目的とした、複合現実感(Mixed Reality:MR)システムの研究が盛んに行われている。これらのシステムの提示を行う画像表示装置は、たとえば頭部装着型ディスプレイ(Head Mount Display:HMD)を用いることができる。
従来、HMDを装着して仮想空間を移動しながら体験するためには、実際に現実空間を歩き回り、それを反映させたり、ゲームコントローラやマウス、キーボードのような入力装置を用いて視点を移動させていた。また、予め登録された位置(たとえばオブジェクトや場所名)を選択し、その地点に移動させていた(特許文献1)。
特開2001−338311号公報
しかしながら、特許文献1の方法では、予め登録された位置が自分の身長よりも低い場合には足の位置が床よりも下になってしまい、没入感が損なわれるという課題があった。また、登録された視点の視線方向がユーザの実際の視線方向と一致しないなど現実感のない移動になってしまうという課題があった。
そこで、本発明は、仮想画像を観察するユーザの視点の移動を現実感を損なわずに行うことを目的とする。
上記課題を解決するために、本願発明の情報処理装置は、例えば、ユーザが装着する表示装置に仮想物体を含む仮想画像を表示させる情報処理装置であって、前記仮想物体を観察するための前記ユーザの第1視点位置を、三次元空間における前記表示装置の位置に基づいて表す三次元位置情報を保持する視点位置保持手段と、前記三次元空間における前記表示装置の現在の位置に基づいて表される、前記ユーザの第2視点位置の三次元位置情報を取得する視点位置取得手段と、前記第1視点位置を表す三次元位置情報のうち高さ成分以外の成分と前記第2視点位置を表す三次元位置情報のうち高さ成分とに基づいて、前記仮想物体を観察するための前記ユーザの第3視点位置を設定する設定手段と、前記設定された第3視点位置に基づいて仮想物体を含む仮想画像を生成する生成手段と、前記生成された仮想画像を前記表示装置に表示させる表示制御手段とを備える。
本願発明の別の側面の情報処理装置は、例えば、ユーザが装着する表示装置に仮想物体を含む仮想画像を表示させる情報処理装置であって、 前記仮想物体を観察するための前記ユーザの第1視線方向を、三次元空間における前記表示装置の向きに基づいて表す三次元の回転角情報を保持する視線方向保持手段と、前記三次元空間における前記表示装置の現在の向きに基づいて表される、前記ユーザの第2視線方向を取得する視線方向取得手段と、前記第1視線方向を表す三次元の回転角情報のうちヨー軸まわりの成分と、前記第2視線方向を表す三次元の回転角情報のうちヨー軸まわりの成分以外の成分とに基づいて、仮想物体を観察するための前記ユーザの第3視線方向を設定する設定手段と、
前記設定された第3視線方向に基づいて仮想物体を含む仮想画像を生成する生成手段と、
前記生成された仮想画像を前記表示装置に表示させる表示制御手段とを備える。
本発明によれば、現実感を損なわずに仮想画像を観察するユーザの視点の移動を行うことが可能となる。
本発明の第1の実施形態に係るシステムの機能構成例を示すブロック図である。 本発明の第1の実施形態に係る情報処理装置の処理のフローチャートである。 本発明の第1の実施形態を説明する図である。 本発明の第2の実施形態に係るシステムの機能構成例を示すブロック図である。 本発明の第2の実施形態に係る情報処理装置の処理のフローチャートである。 本発明の第2の実施形態を説明する図である。 本発明の第3の実施形態に係るシステムの機能構成例を示すブロック図である。 本発明の第3の実施形態に係る情報処理装置の処理のフローチャートである。 本発明の第3の実施形態を説明する図である。 本発明の第4の実施形態に係るシステムの機能構成例を示すブロック図である。 本発明の第4の実施形態に係る情報処理装置の処理のフローチャートである。 本発明の第4の実施形態を説明する図である。 本発明の第5の実施形態に係るシステムの機能構成例を示すブロック図である。 本発明の第5の実施形態に係る情報処理装置の処理のフローチャートである。 本発明の第5の実施形態を説明する図である。 本発明の第6の実施形態に係るシステムの機能構成例を示すブロック図である。 本発明の第6の実施形態に係る情報処理装置の処理のフローチャートである。 本発明の第6の実施形態を説明する図である。 本発明の情報処理装置のハードウェア構成の例を示す図である。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
(第1の実施形態)
図1は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、情報処理装置1000と、頭部装着型表示装置の一例としてのHMD1100と、操作入力装置1200と、画像表示装置1300と、磁界発生装置1400、仮想データ入力部1500とで構成されている。
情報処理装置1000は、視点情報計測部1010、登録操作受取部1020、視点位置登録部1021、移動操作受取部1030、移動量算出部1031、視点情報設定部1040、仮想データ保持部1050、仮想空間画像生成部1060、撮像画像取得部1070、画像生成部1080で構成されている。
HMD1100は、センサ1110、画像撮像部1120、画像表示部1130とで構成されている。ここで、情報処理装置1000とHMD1100とはデータ通信が可能なように接続されている。情報処理装置1000とHMD1100との間の接続は、有線、無線の何れであっても構わない。また、操作入力装置1200は、登録操作部1210、移動操作部1220で構成されている。
先ず、情報処理装置1000について説明する。
図19は、本実施形態における情報処理装置1000のハードウェア構成図である。同図において、CPU1910は、バス1900を介して接続する各デバイスを統括的に制御する。CPU1910は、読み出し専用メモリ(ROM)1920に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1920に記憶されており、ランダムアクセスメモリ(RAM)1930に一時記憶され、CPU1910によって適宜実行される。また、入力I/F1940は、外部の装置(表示装置や操作装置など)から情報処理装置1000で処理可能な形式で入力信号として入力する。また、出力I/F1950は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
視点情報計測部1010は、センサ1110の計測結果を用いて、センサ1110の世界座標系における視点位置およびその視点の観察方向(以下、視線方向)を視点情報として計測する。これによりHMD1100の視点情報を計測することができる。尚、世界座標系は現実空間の1点を原点として定義し、さらに互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系とする。
登録操作受取部1020は、登録操作部1210から入力されたイベント等を受け取り、視点位置登録部1021へ登録を促す。
視点位置登録部1021は、登録操作受取部1020からの指示に従い、視点情報計測部1010で計測された視点位置を登録相対位置として登録して保持する(視点位置保持)。この視点位置は、ユーザの身体の一部である頭部に装着されたHMD1100を介して仮想物体を観察する際の視点位置(登録視点位置)である。視点位置の登録は上記のように実際に計測された値を登録しても良いし、ユーザが操作するマウスやキーボード等をつかって入力しても良い。詳しくは後述するが、HMD1100を介して仮想物体を観察するユーザは視点位置登録部1021に登録された視点位置を参照して現在の視点位置を変更することができる。
移動操作受取部1030は、移動操作部1220から入力されたイベント等を受け取り、移動量算出部1031へ移動量算出を促す。
移動量算出部1031は、視点情報計測部1010で計測された視点位置(視点位置取得)から視点位置登録部1021に登録された視点位置に移動するための移動量を算出する。詳細に関しては図2のフローチャートにつき後述する。
視点情報設定部1040は、移動操作受取部1030が移動操作部1220イベント等を受け取っている場合には移動量算出部1031から入力された移動量を反映した視点位置を視点情報に設定する。さらに、視点情報計測部1010で計測された視線方向を仮想空間の視点情報に設定する。移動操作受取部1030が移動操作部1220からイベント等を受け取っていない場合には、視点情報計測部1010で計測された視点位置および視線方向を仮想空間の視点情報に設定する。そして、設定された視点情報を仮想空間画像生成部1060に出力する。
仮想データ保持部1050は、仮想空間を構成する仮想物体に係るデータや仮想空間中に照射する光源に係るデータなど、仮想空間のデータを保持し、仮想空間画像生成部1060に入力する。
仮想空間画像生成部1060は、視点情報設定部1040から入力された視点位置および視線方向から見える仮想データ保持部1050から入力された仮想空間のデータを仮想空間の画像(仮想画像)として生成する。なお、所定の視点位置から見える仮想空間の画像を生成するための技術については周知の事実であるので、これについての詳細な説明は省略する。
撮像画像取得部1070は、画像撮像部1120により撮像された現実空間の画像(現実空間画像)を取得する。
画像生成部1080は、撮像画像取得部1070で取得された現実空間画像に仮想空間画像を重畳し、複合現実空間の画像(複合現実空間画像)を生成する。その後に、画像生成部1080は、この生成した複合現実画像をHMD1100の画像表示部1130に対して出力する(表示制御)。また、画像表示装置1300に同時に表示しても良い。また、HMDに限ったことではなく表示できる装置であれば良く、タブレット・スマートフォン等の表示端末であっても良い。
これらの各機能部は、CPU1910が、ROM1920に格納されたプログラムをRAM1930に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1910を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
次に、HMD1100について説明する。
HMD1100は、液晶画面などで構成される表示装置で、それぞれ右目用と左目用とが設けられており、夫々はHMD1100を頭部に装着したユーザの右目、左目の眼前に位置するように、HMDに取り付けられている。また、左右の画面には夫々視差のついた画像がステレオ表示される。
センサ1110は、不図示の磁界発生装置が発生させた磁場の変化を計測するためのHMD1100の視点情報を計測する磁気センサで、計測結果を情報処理装置1000に入力する。本実施形態では、センサ1110として、磁気センサを用いて説明するが、磁気センサ以外でもよい。例えば、画像処理により画像中の点や線などの特徴的な情報(特徴情報)を抽出することで視点位置および視線方向を計測しても良い。また、赤外光を用いて視点位置および視線方向を計測しても良いし、超音波を用いて視点位置および視線方向を計測しても良い。さらに、奥行きセンサを用いて視点位置および視線方向を計測しても良いし、機械的に視点位置および視線方向を計測しても良い。
画像撮像部1120は、HMD1100に映る現実空間を撮像し、撮像画像を現実空間画像として情報処理装置1000に入力する。
画像表示部1130は、情報処理装置1000で生成された複合現実画像を表示する。
上記のように、本実施形態においてHMD1100は、撮像装置により撮像された画像に基づいて生成された複合現実画像を表示装置に表示するビデオシースルー型のHMDであることとして説明する。しかしながら、HMD1100は、現実空間を透過して観察することが可能な表示媒体に仮想画像を重畳して表示する光学シースルー型のHMDを用いてもよい。
操作入力装置1200は、情報処理装置1000に対して、ユーザの操作を入力することができる装置である。登録操作部1210は視点情報を登録する場合に利用する。また、移動操作部1220は、移動したい登録された視点位置を選択し、移動する場合に利用する。操作入力装置1200は、前記の目的が達成されるのであれば、いかなる入力装置であっても良く、たとえばマウスであっても良いし、キーボードなどのボタン型装置であっても良い。また、ユーザのジェスチャを認識することによって入力する装置であっても良いし、ユーザの声を認識することによって入力する装置であっても良い。
図2は、情報処理装置1000が、複合現実空間画像を生成し、HMD1100または画像表示装置1300に対して出力するために行う処理のフローチャートである。
先ず、ステップS2000において、視点情報計測部1010はHMD1100の世界座標系での視点位置および視線方向を計測する。そして、ステップS2100に処理を移す。
ステップS2100において、登録操作受取部1020は登録操作部1210からの入力情報を参照し、視点情報を登録する操作が入力されているかどうか調べる。視点情報を登録する操作が入力されている場合は、ステップS2110に処理を移す。一方、視点情報を登録する操作が入力されていない場合は、ステップS2200に処理を移す。
ステップS2110において、視点位置登録部1021は視点情報計測部1010からの情報を参照し、視点位置を登録する。そして、ステップS2200に処理を移す。
ステップS2200において、移動操作受取部1030は移動操作部1220からの入力情報を参照し、視点情報を移動する操作が入力されているかどうかを調べる。視点情報を移動する操作が入力されている場合は、ステップS2210に処理を移す。一方、視点情報を移動する操作が入力されていない場合は、ステップS2010に処理を移す。
ステップS2210において、視点位置登録部1021は視点情報が登録されているかどうか調べる。視点情報が登録されている場合は、ステップS2220に処理を移す。一方、視点情報が登録されていない場合は、ステップS2010に処理を移す。
ステップS2220において、移動操作受取部1030は移動操作部1220からの入力情報を参照し、登録視点情報の中から移動する視点情報を選択するかどうかを調べる。登録された視点情報の中から移動する視点情報を選択している場合は、ステップS2240に処理を移す。登録された視点情報の中から移動する視点情報を選択していない場合は、ステップS2230に処理を移す。
ステップS2230において、移動操作受取部1030は移動操作部1220からの入力情報を参照し、移動操作を取りやめる操作が入力されているかどうか調べる。移動操作を取りやめる操作が入力されている場合は、ステップS2010に処理を移す。移動操作を取りやめる操作が入力されていない場合は、ステップS2220に処理を移す。
ステップS2240およびステップS2250の処理は、図3を用いて説明を行う。
図3は本実施例を用いて視点位置を登録視点情報の視点位置に移動する操作を示した図である。図3(A)は、登録時におけるユーザ3010の視点位置と仮想物体3020とを表したものである。図3(B)は、視点位置を移動する操作を実行する前におけるユーザ3110の視点位置と仮想物体3020とを表したものである。図3(C)は、視点位置を移動する操作を実行した後におけるユーザ3210の視点位置と仮想物体3020とを表したものである。
図3(A)(1)は登録時の仮想空間を三次元で示した図である。また、図3(A)(2)は図3(A)(1)をX軸上から俯瞰した図であり、図3(A)(3)は図3(A)(1)をY軸上から俯瞰した図であり、図3(A)(4)は図3(A)(1)をZ軸上から俯瞰した図である。
図3(B)(1)は視点位置を移動する操作を実行する前の仮想空間を三次元で示した図である。また、図3(B)(2)は図3(B)(1)をX軸上から俯瞰した図であり、図3(B)(3)は図3(B)(1)をY軸上から俯瞰した図であり、図3(B)(4)は図3(B)(1)をZ軸上から俯瞰した図である。
図3(C)(1)は視点位置を移動する操作を実行した後の仮想空間を三次元で示した図である。また、図3(C)(2)は図3(C)(1)をX軸上から俯瞰した図であり、図3(C)(3)は図3(C)(1)をY軸上から俯瞰した図であり、図3(C)(4)は図3(C)(1)をZ軸上から俯瞰した図である。
ステップS2240において、ステップS2220で選択された登録視点情報の世界座標での視点位置を(x,y,z)とする。また、ステップS2240実行時すなわち移動操作前の移動操作前のユーザ3110の世界座標での視点位置を(x,y,z)とする。このとき、移動量算出部1031はユーザ3110の移動操作前の視点位置(x,y,z)から登録視点情報の視点位置(x,y,z)へ移動する移動量(差分量)(Δx,Δy,Δz)を算出する。そして、ステップS2250に処理を移す。
ステップS2250において、視点情報設定部1040は視点高さを考慮し、移動量を反映させた視点位置を視点情報に設定する。すなわち、図3(C)に示すように、Z軸方向(高さ方向)における移動量は反映させず、移動操作後のユーザ3210の世界座標での視点位置(x−Δx,y−Δy,z)を視点情報に設定する(即ち高さ成分以外の成分のみ反映させる)。そして、ステップS2020に処理を移す。
ステップS2010において、視点情報設定部1040は視点情報計測部1010で計測された視点位置を視点情報に設定する。そして、ステップS2020に処理を移す。
ステップS2020において、仮想空間画像生成部1060はステップS2010またはS2250で設定された視点情報と仮想データ保持部1050から入力された仮想データから仮想空間画像を生成する。そして、ステップS2030に処理を移す。
ステップS2030において、画像生成部1080は撮像画像取得部1070で取得した現実空間画像に仮想空間画像生成部1060で生成された仮想空間画像を重畳し、複合現実画像を生成する。生成した複合現実画像は、HMD1100の画像表示部1130または画像表示装置1300に対して出力する。そして、ステップS2040に処理を移す。
ステップS2040において、ユーザによって本処理の終了指示が入力された、若しくは本処理を終了する条件が満たされた場合、本処理を終了する。一方、本処理の終了指示が入力されておらず、本処理を終了する条件も満たされていない場合は、処理をステップS2000に戻す。
本実施形態によれば、たとえばユーザAが視点位置の登録を行い、ユーザAとは身長の異なるユーザBが移動操作を行った際、ユーザBの視点高さを保ったままユーザAの登録した視点位置に移動するため、現実感を損なわず視点の移動を行うことが可能になる。
よって本実施形態によれば、複合現実空間の視点移動操作において、登録視点位置の一部の成分のみ反映させることにより、ユーザの視点高さを保ったまま移動が可能となり、現実感を損なわない移動操作を提供することが可能となる。
(変形例1)
上記実施形態では、視点位置の移動を行う場合、ユーザの視点高さを保ったまま移動する移動操作を常に行っていたが、本発明はこれに限定されない。すなわち、移動操作ユーザの視点高さを保ったまま移動するか、登録時のユーザの視点高さに移動するか選択できる情報処理装置であっても良い。
(第2の実施形態)
第1の実施形態では、視点位置を登録し、移動量を算出し、視点情報設定を行ったが、本実施形態では視線方向の移動を行う場合を示す。
図4は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
視線方向登録部4010は、視点情報計測部1010で計測された視線方向を登録視線方向として登録して保持する(視線方向保持)。視線方向の登録は上記のように実際に計測された値を登録しても良いし、ユーザが操作するマウスやキーボード等をつかって入力しても良い。
移動量算出部4020は、視点情報計測部1010で計測された視線方向(視線方向取得)から視線方向登録部4010に登録された登録視線方向に移動するための移動量を算出する。詳細に関しては図5のフローチャートにつき後述する。
視点情報設定部4030は、移動操作受取部1030が移動操作部1220イベント等を受け取っている場合には、視点情報計測部1010で計測された視点位置を視点情報に設定する。さらに、移動量算出部4020で算出された移動量を反映した視線方向を仮想空間の視点情報に設定する。移動操作受取部1030が移動操作部1220からイベント等を受け取っていない場合には、視点情報計測部1010で計測された視点位置および視線方向を仮想空間の視点情報に設定する。
図5は、移動量算出部4020において視点情報計測部1010で計測された視線方向から視線方向登録部4010で登録された登録視線方向に移動するために行う処理のフローである。図2と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
ステップS5010において、視線方向登録部4010は視点情報計測部1010からの情報を参照し、視線方向を登録視線方向として登録する。そして、ステップS2200に処理を移す。
ステップS5020およびステップS5030の処理は図6を用いて説明を行う。図3と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
図6は本実施形態において視線方向を登録視点情報の視線方向に移動する操作を示した図である。図6(A)は、登録時におけるユーザ6010の視線方向と仮想物体6020とを表したものである。図6(B)は、視線方向を移動する操作を実行する前におけるユーザ6110の視線方向と仮想物体6020とを表したものである。図6(C)は、視線方向を移動する操作を実行した後におけるユーザ6210の視線方向と仮想物体6020とを表したものである。視線方向は視点情報計測部1010で計測される視点位置を原点として定義する。さらに互いに直交する3軸を夫々ロール軸、ピッチ軸、ヨー軸として定義した座標系における夫々の軸の回転角(ロール角、ピッチ角、ヨー角)で表す。このとき、ヨー軸は重力方向に軸を持つものとする。
本実施形態では、世界座標系での視点位置および視点位置を原点としたロール軸、ピッチ軸、ヨー軸を用いた座標系での視線方向を用いていたが、本発明はこれに限定されない。すなわち、視点位置および視線方向と仮想物体の位置および方向の相対的な位置または方向を維持するように移動量を算出し、視点情報を設定しても良い。
図6(A)(1)は登録時の仮想空間を三次元で示した図である。また、図6(A)(2)は図6(A)(1)をX軸上から俯瞰した図であり、図6(A)(3)は図6(A)(1)をY軸上から俯瞰した図であり、図6(A)(4)は図6(A)(1)をZ軸上から俯瞰した図である。
図6(B)(1)は視線方向を移動する操作を実行する前の仮想空間を三次元で示した図である。また、図6(B)(2)は図6(B)(1)をX軸上から俯瞰した図であり、図6(B)(3)は図6(B)(1)をY軸上から俯瞰した図であり、図6(B)(4)は図6(B)(1)をZ軸上から俯瞰した図である。
図6(C)(1)は視線方向を移動する操作を実行した後の仮想空間を三次元で示した図である。また、図6(C)(2)は図6(C)(1)をX軸上から俯瞰した図であり、図6(C)(3)は図6(C)(1)をY軸上から俯瞰した図であり、図6(C)(4)は図6(C)(1)をZ軸上から俯瞰した図である。
ステップS5020において、ステップS2220で選択された登録視点情報の視線方向、すなわち登録時のユーザ6010の視線方向を(R,P,Y)とする。また、ステップS5020実行時、すなわち視線方向を移動する操作を実行する前の移動操作前のユーザ6110の視線方向を(R,P,Y)とする。このとき、移動量算出部4020は移動操作前のユーザ6110の視線方向(R,P,Y)から登録時のユーザ6010の視線方向(R,P,Y)へ移動する移動量(ΔR,ΔP,ΔY)を算出する。そして、ステップS5030に処理を移す。
ステップS5030において、視点情報設定部4030は現実感を損なわないよう考慮し、移動量を反映させた視線方向を視点情報に設定する。すなわち、図6(C)に示すように、ヨー軸まわりの回転のみ反映させ、視線方向(R,P,Y−ΔY)を視点情報に設定する(即ちヨー成分以外の成分のみ反映させた視線方向を設定する)。
本実施形態によれば、複合現実空間の視点移動操作においてロー角、ピッチ角の視線方向を保ったまま移動することが可能となり、現実感を損なわない移動操作を提供することが可能となる。
(変形例2)
上記第1の実施形態と第2の実施形態では、視点位置の移動を行う場合と、視線方向の移動を行う場合とを別々に説明したが、本発明はこれに限定されない。第1の実施形態の視点位置の移動と第2の実施形態の視線方向の移動を同時に行っても良い。また、視点位置の移動と視線方向の移動の両方を同時に行うか、一方のみを行うかをユーザによって選択させるようにしてもよい。
(変形例3)
上記第1の実施形態と第2の実施形態では、新たな視点位置または視線方向を設定するために登録視点位置または登録視線方向からの移動量を算出し、算出された移動量を反映させた。しかしながら移動量の算出を行わずに高さ以外の成分またはヨー成分以外の成分に登録視点位置または登録視線方向の成分を設定し、高さ成分またはヨー成分に現在の視点位置または視線方向を設定するようにしても良い。
(変形例4)
上記第2の実施形態では、視線方向の移動を行う場合、ヨー軸まわりの回転のみを反映する移動操作を常に行っていたが、本発明はこれに限定されない。すなわち、登録時の視線方向を再現するようにロール軸、ピッチ軸、ヨー軸まわりの回転のすべてを反映する移動操作を行っても良い。また、視線方向の移動に伴う視点移動の有無を選択できても良い。
(第3の実施形態)
第1または第2の実施形態では、視点情報登録後に視点位置または視線方向に変更があった場合の視点情報移動操作を行う実施形態であったが、本実施形態では仮想空間内の仮想物体が世界座標系に対し平行移動する場合を示す。
図7は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
仮想データ位置取得部7010は、世界座標系での仮想物体の位置を取得する。
位置情報登録部7020は、視点情報計測部1010で計測された視点位置および仮想データ位置取得部7010で取得した仮想物体の位置を登録し、視点位置と仮想物体との相対位置を登録相対位置として保持する。
移動量算出部7030は、位置情報登録部7020に登録された視点位置と仮想物体の位置の相対位置を再現するよう移動量を算出する。詳細に関しては図8のフローチャートにつき後述する。
図8は、移動量算出部7030において視点情報計測部1010で計測された視点位置から位置情報登録部7020で登録された視点位置と仮想物体の位置との相対位置を再現するよう移動するために行う処理のフローである。図2と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
ステップS8010において、位置情報登録部7020は視点情報計測部1010からの情報を参照し、視点位置を登録する。また、仮想データ位置取得部7010からの情報を参照し、仮想データの位置を登録する。そして、ステップS2200に処理を移す。
ステップS8020およびステップS8030の処理は図9を用いて説明を行う。
図9は本実施形態において、視点位置を登録視点情報の視点位置と仮想物体の位置との相対位置を再現するように移動する操作を示した図である。図9(A)は、登録時におけるユーザ9010の視点位置と仮想物体9020を表したものである。図9(B)は、ユーザ9110の登録時と同じ世界座標系での視点位置と、登録時から移動した仮想物体9120、登録時の仮想物体9020を表わしたものである。図9(C)は、視点位置を移動する操作を実行した後におけるユーザ9210の視点位置と移動操作前のユーザ9110と登録時から移動した仮想物体9120を表わしたものである。
図9(A)(1)は登録時の仮想空間を三次元で示した図である。また、図9(A)(2)は図9(A)(1)をX軸上から俯瞰した図であり、図9(A)(3)は図9(A)(1)をY軸上から俯瞰した図であり、図9(A)(4)は図9(A)(1)をZ軸上から俯瞰した図である。
図9(B)(1)は登録時から仮想物体の位置が移動した視点位置を移動する操作を実行する前の仮想空間を三次元で示した図である。また、図9(B)(2)は図9(B)(1)をX軸上から俯瞰した図であり、図9(B)(3)は図9(B)(1)をY軸上から俯瞰した図であり、図9(B)(4)は図9(B)(1)をZ軸上から俯瞰した図である。
図9(C)(1)は視点位置を移動する操作を実行した後の仮想空間を三次元で示した図である。
また、図9(C)(2)は図9(C)(1)をX軸上から俯瞰した図であり、図9(C)(3)は図9(C)(1)をY軸上から俯瞰した図であり、図9(C)(4)は図9(C)(1)をZ軸上から俯瞰した図である。
ステップS8020において、移動量算出部7030は登録相対位置を再現するような仮想物体の移動量を算出する。ステップS2220で選択された登録視点情報の世界座標系での視点位置を(x,y,z)とする。また、登録視点情報の世界座標系での仮想物体位置を(xV0,yV0,zV0)とする。ステップS8020実行時、すなわち視点位置を移動する操作を実行する前の仮想物体9120の世界座標系での仮想物体位置を(xV1,yV1,zV1)とする。移動量算出部7030は視点位置を移動する操作を実行する前の仮想物体9120の仮想物体位置(xV1,yV1,zV1)から登録視点情報の仮想物体位置(xV0,yV0,zV0)へ移動する移動量(Δx,Δy,Δz)を算出する。そして、ステップS8030に処理を移す。
ステップS8030において、視点情報設定部7040は移動量算出部7030から仮想物体の移動量を取得し、視点位置に反映させたものを視点情報に設定する。すなわち、図9(C)に示すように、仮想物体の移動量を視点位置に加算し、視点位置(x+Δx,y+Δy,z+Δz)および視点情報計測部1010で計測した視線方向を視点情報に設定する。そして、ステップS2020に処理を移す。
本実施形態によれば、複合現実空間の視点移動操作において登録時のユーザの視点位置と仮想物体位置の相対位置を再現する移動操作を提供することが可能となる。
(第4の実施形態)
第3の実施形態では、仮想空間内の仮想物体が世界座標系に対し平行移動する場合を示したが、本実施形態では仮想空間内の仮想物体が回転移動する場合を示す。
図10は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
仮想データ情報取得部10010は、世界座標系での仮想物体の位置および方向を取得する。
相対位置方向登録部10020は、視点情報計測部1010で計測された視点位置および仮想データ情報取得部10010で取得した仮想物体の位置および方向を登録し、視点位置と仮想物体との相対方向を登録相対方向として保持する。
移動量算出部10030は、視点情報計測部1010で計測された視点位置から、相対位置方向登録部10020に登録された視点位置と仮想物体の位置および方向との相対関係を再現するよう移動量を算出する。詳細に関しては図11のフローチャートにつき後述する。
図11は、移動量算出部10030において視点情報計測部1010で計測された視点位置から相対位置方向登録部10020で登録された視点位置と仮想物体の位置および方向との相対位置を再現するよう移動するために行う処理のフローである。図2と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
ステップS11010において、相対位置方向登録部10020は視点情報計測部1010からの情報を参照し、視点位置を登録する。また、相対位置方向登録部10020は仮想データ情報取得部10010からの情報を参照し、仮想物体の位置および方向を登録する。仮想物体の方向は仮想データ情報取得部10010から取得される仮想物体位置を原点として定義する。さらに互いに直交する3軸を夫々ロール軸、ピッチ軸、ヨー軸として定義した座標系における夫々の軸の回転角(ロール角、ピッチ角、ヨー角)で表す。このとき、ヨー軸は重力方向に軸を持つものとする。そして、ステップS2200に処理を移す。
ステップS11020およびステップS11030の処理は図12を用いて説明を行う。
図12は、本実施形態において、視点位置を登録視点情報の視点位置と仮想データの位置との相対位置を再現するように移動する操作を示した図である。図12(A)は、登録時におけるユーザ12010の視点位置と仮想物体12020を表したものである。図12(B)は、視点位置を移動する操作を実行する前における、ユーザ12110の登録時と同じ世界座標系での視点位置と登録時から移動した仮想物体12120を表わしたものである。図12(C)は、視点位置を移動する操作を実行した後におけるユーザ12210の視点位置と移動操作前のユーザ12110の視点位置と、登録時から移動した仮想物体12120を表わしたものである。
図12(A)(1)は登録時の仮想空間を三次元で示した図である。また、図12(A)(2)は図12(A)(1)をX軸上から俯瞰した図であり、図12(A)(3)は図12(A)(1)をY軸上から俯瞰した図であり、図12(A)(4)は図12(A)(1)をZ軸上から俯瞰した図である。
図12(B)(1)は登録時から仮想物体の方向が回転移動した視点位置を移動する操作を実行する前の仮想空間を三次元で示した図である。また、図12(B)(2)は図12(B)(1)をX軸上から俯瞰した図であり、図12(B)(3)は図12(B)(1)をY軸上から俯瞰した図であり、図12(B)(4)は図12(B)(1)をZ軸上から俯瞰した図である。
図12(C)(1)は視点位置を移動する操作を実行した後の仮想空間を三次元で示した図である。また、図12(C)(2)は図12(C)(1)をX軸上から俯瞰した図であり、図12(C)(3)は図12(C)(1)をY軸上から俯瞰した図であり、図12(C)(4)は図12(C)(1)をZ軸上から俯瞰した図である。
ステップS11020において、ステップS2220で選択された登録視点情報の世界座標系での視点位置を(x,y,z)とし、世界座標系での仮想物体位置を(xV0,yV0,zV0)とする。また、仮想物体方向を(RV0,PV0,YV0)とする。ステップS11020実行時、すなわち視点位置を移動する操作を実行する前の仮想物体12120の仮想物体方向を(RV1,PV1,YV1)とする。移動量算出部10030は視点位置を移動する操作を実行する前の仮想物体12120の仮想物体方向(RV1,PV1,YV1)から登録視点情報の仮想物体方向(RV0,PV0,YV0)へ移動する移動量(ΔR,ΔP,ΔY)を算出する。登録時の視点位置と仮想物体位置との相対位置を再現するため、ユーザの視点位置は図12(C)に示すように、仮想物体を中心として回転移動する。このとき視点位置の移動量(Δx,Δy,Δz)は以下のように求められる。
Figure 0006775957

そして、ステップS11030に処理を移す。
ステップS11030において、視点情報設定部10040は移動量算出部10030で算出した視点位置の移動量を反映させた視点位置を視点情報に設定する。すなわち、世界座標での視点位置(xv0+Δx,yv0+Δy,zv0+Δz)および視点情報計測部1010で計測した視線方向を視点情報に設定する。そして、ステップS2020に処理を移す。
本実施形態によれば、複合現実空間の視点移動操作において登録時のユーザの視点位置と仮想物体位置の相対位置を再現する移動操作を提供することが可能となる。
尚、移動量の計算方法は一例であり、ユーザ同士の相対位置が保たれるよう移動され、かつ、移動操作を行ったユーザは登録時のユーザの視線方向にロー角、ピッチ角の視線方向を保ったまま移動する移動操作であればいずれの方法でも良い。世界座標系の原点を中心として回転移動をした後、平行移動を行う方法であっても良いし、移動受取ユーザの視点位置を中心として回転移動した後、平行移動を行う方法であっても良い。
(第5の実施形態)
第1〜4の実施形態では、ユーザ1人が移動する場合を示したが、本実施形態では、複数ユーザが共に移動する場合を示す。
図13は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
通信部13000は、ネットワークに接続され、他のコンピュータとの接続を行う。ユーザの視点情報を他のコンピュータに送信する。
視点情報取得部13010は、移動操作を行ったユーザ(移動操作ユーザ)と他ユーザ(移動受取ユーザ)の移動前の現実空間における相対位置を保つように移動受取ユーザの移動量を移動量算出部1031から取得する。詳細に関しては図14のフローチャートにつき後述する。
視点情報設定部13020は、通信部13000からイベント等を受け取っている場合は、移動操作ユーザの移動量を反映させた視点位置および視点情報計測部1010で計測した視線方向を視点情報に設定する。移動操作受取部1030が移動操作部1220からイベント等を受け取っている場合には移動量算出部1031から入力された移動量を反映させた視点位置および視点情報計測部1010で計測した視線方向を視点情報に設定する。通信部13000からのイベント等や移動操作受取部1030が移動操作部1220からのイベント等を受け取っていない場合には視点情報計測部1010で計測された視点位置および視線方向を視点情報に設定する。そして、設定された視点情報を仮想空間画像生成部1060に出力する。
図14は、本実施形態において、複数ユーザが複合現実空間体験時に、ユーザ同士の相対位置を保ちながら登録視点情報の視点位置へと移動するために行う処理のフローである。図2と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
ステップS14010において、移動操作受取部1030は移動操作部1220からの入力情報を参照し、ユーザが他ユーザと共に移動する操作が入力されているかどうかを調べる。ユーザが他ユーザと共に移動する操作が入力されている場合は、ユーザを移動操作ユーザ、他ユーザを移動受取ユーザとし、ステップS14020に処理を移す。一方、ユーザが他ユーザと共に移動する操作が入力されていない場合は、ステップS2250に処理を移す。
ステップS14020およびステップS14030、ステップS14040の処理は図15を用いて説明を行う。
図15は、本実施形態において、移動操作ユーザの視点位置を移動受取ユーザを移動操作ユーザとの相互位置を保つように登録視点情報の視点位置に、移動する操作を示した図である。図3と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
図15(A)は図3(A)と同じ構成要素である。図15(B)は複数ユーザが複合現実空間を体験している際の、視点位置を移動する操作を実行する前の仮想空間における移動操作前の移動操作ユーザ3110と移動受取ユーザ15010、仮想物体3020、登録時のユーザ3010を表したものである。図15(C)は視点位置を移動する操作を実行した後の仮想空間における移動操作後の移動操作ユーザ3210と移動受取ユーザ15110、仮想物体3020、登録時のユーザ3010を表したものである。
図15(B)(1)は視点位置を移動する操作を実行する前の仮想空間を三次元で示した図である。また、図15(B)(2)は図15(B)(1)をX軸上から俯瞰した図であり、図15(B)(3)は図15(B)(1)をY軸上から俯瞰した図であり、図15(B)(4)は図15(B)(1)をZ軸上から俯瞰した図である。
図15(C)(1)は視点位置を移動する操作を実行した後の仮想空間を三次元で示した図である。また、図15(C)(2)は図15(C)(1)をX軸上から俯瞰した図であり、図15(C)(3)は図15(C)(1)をY軸上から俯瞰した図であり、図15(C)(4)は図15(C)(1)をZ軸上から俯瞰した図である。
ステップS14020において、視点情報取得部13010は移動操作ユーザが移動操作前のユーザ3110の視点位置(x,y,z)とし、登録時のユーザ3010の視点位置(x,y,z)とする。移動操作前のユーザ3110の視点位置から登録時のユーザ3010の視点位置へ移動する移動量(Δx,Δy,Δz)を取得する。また、取得した移動量を通信部13000へ出力する。そしてステップS2250へ処理を移す。
ステップS14030において、視点情報設定部13020は、通信部13000から移動操作ユーザの視点移動情報を受け取っているかどうか調べる。移動操作ユーザの視点移動情報を受け取っている場合は、ユーザを移動受取ユーザとし、ステップS14030に処理を移す。移動操作ユーザの視点移動情報を受け取っていない場合は、ステップS2200に処理を移す。
ステップS14040において、視点情報設定部13020は、通信部13000から受け取った移動操作ユーザの移動量(Δx,Δy,Δz)を反映させた視点位置を視点情報に設定する。移動受取ユーザの移動前の世界座標での視点位置を(x,y,z)とする。図15(C)に示すように、視点位置が移動受取ユーザ15110の現在の視点高さになるような視点位置(x−Δx,y−Δy,z)および視点情報計測部1010で計測した視線方向を視点情報に設定する。そして、ステップS2020に処理を移す。
本実施形態によれば、複数ユーザが複合現実空間を体験している際の視点移動操作において、夫々のユーザの視点高さおよびユーザ同士の相対位置が保たれるよう移動する。さらに、移動操作を行ったユーザは登録時のユーザの視点位置に移動する移動操作を提供することが可能となる。
(第6の実施形態)
第5の実施形態では、登録時から視点位置が平行移動された場合における、複数ユーザの移動を示したが、本実施形態では、視線方向が移動された場合における、複数ユーザの移動を示す。
図16は、本実施形態に係るシステムの機能構成例を示すブロック図である。図13と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
視点情報取得部16010は、通信部13000を介して他のコンピュータに接続された情報処理装置1000を使用しているユーザ(移動受取ユーザ)の視点情報を取得する。
移動量算出部16020は、移動操作を行ったユーザ(移動操作ユーザ)と移動受取ユーザの移動前の現実空間における相対位置を保つように移動受取ユーザの移動量を算出する。詳細に関しては図17のフローチャートにつき後述する。
視点情報設定部16030は、通信部13000からイベント等を受け取っている場合は、移動操作ユーザの移動量を反映させた視点位置および視点情報計測部1010で計測した視線方向を視点情報に設定する。移動操作受取部1030が移動操作部1220からイベント等を受け取っている場合には移動量算出部1031から入力された移動量を反映させた視点位置および視点情報計測部1010で計測した視線方向を視点情報に設定する。通信部13000からのイベント等や移動操作受取部1030が移動操作部1220からのイベント等を受け取っていない場合には視点情報計測部1010で計測された視点位置および視線方向を視点情報に設定する。そして、設定された視点情報を仮想空間画像生成部1060に出力する。
図17は、本実施形態において、複数ユーザが複合現実空間体験時に、ユーザ同士の相対位置を保ちながら登録視点情報の視線方向へと移動するために行う処理のフローである。図14と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
ステップS17010およびステップS17020の処理は図18を用いて説明を行う。
図18は、本実施形態において、移動操作ユーザの視線方向を登録視点情報の視線方向に、移動受取ユーザを移動操作ユーザとの相互位置を保つように移動する操作を示した図である。図6と同じ構成要素には同じ参照番号を付けており、その説明は省略する。また、視線方向は夫々のユーザの視点位置を原点と定義する。さらに互いに直交する3軸を夫々ロール軸、ピッチ軸、ヨー軸として定義した座標系における夫々の軸の回転角(ロール角、ピッチ角、ヨー角)で表す。このとき、ヨー軸は重力方向に軸を持つものとする。
図18(A)は図6(A)と同じ構成要素である。図18(B)は複数ユーザが複合現実空間を体験している際の、視点位置の移動操作を実行する前の移動操作ユーザ6110と移動受取ユーザ18010と仮想物体6020を表したものである。図18(C)は視点位置の移動操作を実行した後の仮想空間における移動操作後の移動操作ユーザ6210と移動受取ユーザ18110、仮想物体6020を表したものである。
図18(B)(1)は視点位置の移動操作を実行する前の仮想空間を三次元で示した図である。また、図18(B)(2)は図18(B)(1)をX軸上から俯瞰した図であり、図18(B)(3)は図18(B)(1)をY軸上から俯瞰した図であり、図18(B)(4)は図18(B)(1)をZ軸上から俯瞰した図である。
図18(C)(1)は視点位置の移動操作を実行した後の仮想空間を三次元で示した図である。また、図18(C)(2)は図18(C)(1)をX軸上から俯瞰した図であり、図18(C)(3)は図18(C)(1)をY軸上から俯瞰した図であり、図18(C)(4)は図18(C)(1)をZ軸上から俯瞰した図である。
ステップS17020において、移動量算出部16020は移動操作前の移動操作ユーザ6110の視線方向から登録時のユーザ6010の視線方向へ移動する移動量(ΔR,ΔP,ΔY)を取得する。移動操作ユーザの視線方向が登録視点情報の視線方向へと移動する際、ユーザ同士の相対位置を保つために、移動受取ユーザの視点位置は図18(C)に示すように、移動操作ユーザを中心とした回転移動する。このとき、ユーザの現実感を損なわないよう、移動操作ユーザのヨー軸まわりの回転のみを反映させる。移動操作前のユーザ6110の視点位置は登録時のユーザ6010の視点位置と変わらず(x,y,z)とする。このとき、移動操作を実行する前の移動受取ユーザ18010の視点位置(x,y,z)、視線方向(R,P,Y)とすると、移動受取ユーザの視点位置の移動量(Δx,Δy,Δz)は以下のように求められる。
Figure 0006775957

移動量から、移動受取ユーザの世界座標での視点位置(x+Δx,y+Δy,z)を算出し、通信部13000へ出力する。そして、ステップS4030に処理を移す。
ステップS17020において、視点情報設定部16030は、通信部13000から受け取った視点位置(x+Δx,y+Δy,z)および視点情報計測部1010で計測された視線方向を視点情報に設定する。そして、ステップS2020に処理を移す。
本実施形態によれば、複数ユーザが複合現実空間を体験している際の視点移動操作において、ユーザ同士の相対位置が保たれるよう移動する。さらに、移動操作を行ったユーザは登録時のユーザの視線方向にロー角、ピッチ角の視線方向を保ったまま移動する移動操作を提供することが可能となる。
尚、移動量の計算方法は一例であり、ユーザ同士の相対位置が保たれるよう移動され、かつ、移動操作を行ったユーザは登録時のユーザの視線方向にロー角、ピッチ角の視線方向を保ったまま移動する移動操作であればいずれの方法でも良い。世界座標系の原点を中心として回転移動をした後、平行移動を行う方法であっても良いし、移動受取ユーザの視点位置を中心として回転移動した後、平行移動を行う方法であっても良い。
(変形例5)
上記第5、第6の実施形態では、複数ユーザが複合現実空間体験時に、移動操作ユーザ以外のすべてのユーザを移動受取ユーザとし移動する場合を示したが、本発明はこれに限定されない。すなわち、移動操作ユーザは複数ユーザの中からともに移動する移動受取ユーザを選択しても良いし、移動操作を行ったユーザ以外に、ともに移動するかを選択するダイアログを表示し、移動することを選択したユーザのみを移動受取ユーザとしても良い。
(変形例6)
上記各実施形態では、ユーザが複合現実空間内で登録した視点情報を用い、視点移動を行っていたが、本発明はこれに限定されない。すなわち、システムによって登録された視点情報を用いても良いし、ユーザが仮想空間内で登録した視点情報を用いても良い。
(変形例7)
上記各実施形態では、視点登録後から視点位置または視線方向に変更があった場合の視点移動と仮想空間内の仮想物体の位置または方向に変更があった場合の視点移動のいずれかを行っていたが、本発明はこれに限定されない。すなわち、視点位置および視線方向と仮想物体の位置および方向のいずれかが変更された場合、上記実施例を組み合わせ、視点高さを保ちながら、視線方向のヨー軸まわりの回転のみを反映させる移動操作を行っても良い。さらに、仮想物体とユーザとの相対位置を再現するよう移動操作を行っても良い。
(変形例8)
上記各実施形態では、視点情報にHMDの視点情報を用いていたが、本発明はこれに限定されない。すなわち、HMDの視点情報にゲームコントローラやマウス、キーボードなどの入力装置によるウォークスルー移動を付加した視点位置および視線方向を用いても良い。尚、視点移動の際には、HMDの視点高さを保ったまま、視線方向のヨー軸まわりの回転のみを反映させ移動操作を行う。
(変形例9)
上記各実施形態では、登録時から仮想物体の位置および方向が移動した際、仮想物体を移動させずに視点位置を移動させる移動操作を行っていたが、本発明はこれに限定されない。すなわち、仮想物体の位置および方向を移動させることで、登録時のユーザの視点位置および視線方向と仮想物体位置および方向の相対位置を再現しても良い。
(変形例10)
上記各実施形態では、本発明を撮像画像に仮想画像を合成した画像を表示させるMR(MixedReality)システムに適用した例を説明した。しかしながら本発明はこれに限られない。例えば、本発明は仮想画像のみを表示させるVR(VirtualReality)システムに適用することができる。その場合には、上記各実施形態においては、画像生成部1080は、撮像画像取得部1070で取得された現実空間画像に仮想画像を重畳することなく、仮想空間画像そのままを表示装置1300に表示させるように機能すればよい。そしてそのようなVRシステムに本発明を適用する場合には、現実空間にマーカを配置しておき(マーカの配置情報は既知)、そのマーカを画像撮像部1120によって撮像した画像を用いて視点情報計測に用いてもよい。マーカを用いた視点情報の計測については広く知られているので説明は省略する。もちろん、センサ1110を用いて視点情報を計測する場合には、撮像画像取得部1070はなくてもよい。
(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (19)

  1. ユーザが装着する表示装置に仮想物体を含む仮想画像を表示させる情報処理装置であって、
    前記仮想物体を観察するための前記ユーザの第1視点位置を、三次元空間における前記表示装置の位置に基づいて表す三次元位置情報を保持する視点位置保持手段と、
    前記三次元空間における前記表示装置の現在の位置に基づいて表される、前記ユーザの第2視点位置の三次元位置情報を取得する視点位置取得手段と、
    前記第1視点位置を表す三次元位置情報のうち高さ成分以外の成分と前記第2視点位置を表す三次元位置情報のうち高さ成分とに基づいて、前記仮想物体を観察するための前記ユーザの第3視点位置を設定する設定手段と、
    前記設定された第3視点位置に基づいて仮想物体を含む仮想画像を生成する生成手段と、
    前記生成された仮想画像を前記表示装置に表示させる表示制御手段とを備えることを特徴とする情報処理装置。
  2. 前記設定手段は、予め前記保持手段に保持された前記第1視点位置のうち、操作装置を用いて選択された第1視点を表す三次元位置情報を使って、前記第3視点位置を設定することを特徴とする請求項1に記載の情報処理装置。
  3. 更に、前記第2視点位置を表す三次元位置情報と前記第1視点位置を表す三次元位置情報について、成分ごとの差分量を算出する算出手段を備え、
    前記設定手段は、前記第2視点位置を表す三次元位置情報のうち前記高さ成分以外の成分を、算出された前記差分量だけ変化させることにより、前記第3視点位置の三次元位置情報を設定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 更に、撮像手段により現実空間を撮像した撮像画像を取得する撮像画像取得手段を備え、
    前記視点位置取得手段は、前記撮像画像から抽出される特徴情報を使って計測された前記三次元空間における前記表示装置の位置に基づいて表される前記第2視点位置を取得することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記視点位置取得手段は、磁気センサまたは赤外光を用いたセンサまたは超音波または奥行きセンサを使って計測された前記三次元空間における前記表示装置の位置に基づいて表される前記第2視点位置を取得することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  6. 更に、前記設定された第3視点位置に基づいて、前記ユーザとは異なる他のユーザの視点位置を変更する変更手段を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. ユーザが装着する表示装置に仮想物体を含む仮想画像を表示させる情報処理装置であって、
    前記仮想物体を観察するための前記ユーザの第1視線方向を、三次元空間における前記表示装置の向きに基づいて表す三次元の回転角情報を保持する視線方向保持手段と、
    前記三次元空間における前記表示装置の現在の向きに基づいて表される、前記ユーザの第2視線方向を取得する視線方向取得手段と、
    前記第1視線方向を表す三次元の回転角情報のうちヨー軸まわりの成分と、前記第2視線方向を表す三次元の回転角情報のうちヨー軸まわりの成分以外の成分とに基づいて、仮想物体を観察するための前記ユーザの第3視線方向を設定する設定手段と、
    前記設定された第3視線方向に基づいて仮想物体を含む仮想画像を生成する生成手段と、
    前記生成された仮想画像を前記表示装置に表示させる表示制御手段とを備えることを特徴とする情報処理装置。
  8. 前記ヨー軸は、前記三次元空間の重力方向に沿った軸であることを特徴とする請求項7に記載の情報処理装置。
  9. 前記設定手段は、予め前記保持手段に保持された前記第1視線方向から、操作装置を用いて選択された第1視線方向を表す三次元の回転角情報を使って、前記第3視線方向を設定することを特徴とする請求項7または8に記載の情報処理装置。
  10. 更に、前記第2視線方向を表す三次元の回転角情報と前記第1視線方向を表す三次元の回転角情報について、回転角ごとに成分の差分量を算出する算出手段を備え、
    前記設定手段は、前記第2視線方向を表す三次元の回転角情報のうち前記ヨー軸まわりの成分を、前記差分量だけ変化させることにより、前記第3視線方向を設定することを特徴とする請求項7乃至9のいずれか1項に記載の情報処理装置。
  11. 更に、撮像手段により現実空間を撮像した撮像画像を取得する撮像画像取得手段を備え、
    前記視線方向取得手段は、前記撮像画像から抽出される特徴情報を使って計測された前記三次元空間における前記表示装置の向きに基づいて表される前記第2視線方向を取得することを特徴とする請求項7乃至10のいずれか1項に記載の情報処理装置。
  12. 前記視線方向取得手段は、磁気センサまたは赤外光を用いたセンサまたは超音波または奥行きセンサを使って計測された前記三次元空間における前記表示装置の向きに基づいて表される前記第2視線方向を取得することを特徴とする請求項7乃至11のいずれか1項に記載の情報処理装置。
  13. 更に、前記設定された第3視線方向に基づいて、前記ユーザとは異なる他のユーザの視線方向を変更する変更手段を備えることを特徴とする請求項7乃至11のいずれか1項に記載の情報処理装置。
  14. 前記表示装置は、光学シースルー型の表示装置であることを備えることを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
  15. 前記表示装置は、ビデオシースルー型の表示装置であることを備えることを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
  16. 前記表示装置は、頭部装着型表示装置であることを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
  17. ユーザが装着する表示装置に仮想物体を含む仮想画像を表示させる情報処理方法であって、
    前記仮想物体を観察するための前記ユーザの第1視点位置を、三次元空間における前記表示装置の位置に基づいて表す三次元位置情報を保持手段に保持する視点位置保持工程と、
    前記三次元空間における前記表示装置の現在の位置に基づいて表される、前記ユーザの第2視点位置の三次元位置情報を取得する視点位置取得工程と、
    前記第1視点位置を表す三次元位置情報のうち高さ成分以外の成分と、前記第2視点位置を表す三次元位置情報のうち高さ成分とに基づいて、前記仮想物体を観察するための前記ユーザの第3視点位置を設定する設定工程と、
    前記設定された第3視点位置に基づいて仮想物体を含む仮想画像を生成する生成工程と、
    前記生成された仮想画像を前記表示装置に表示させる表示制御工程とを備えることを特徴とする情報処理方法。
  18. ユーザが装着する表示装置に仮想物体を含む仮想画像を表示させる情報処理方法であって、
    前記仮想物体を観察するための前記ユーザの第1視線方向を、三次元空間における前記表示装置の向きに基づいて表す三次元の回転角情報を保持手段に保持する視線方向保持工程と、
    前記三次元空間における前記表示装置の現在の向きに基づいて表される、前記ユーザの第2視線方向を取得する視点位置取得工程と、
    前記第1視線方向を表す三次元の回転角情報のうちヨー軸まわりの成分と、前記第2視線方向を表す三次元の回転角情報のうちヨー軸まわりの成分以外の成分とに基づいて、前記仮想物体を観察するための前記ユーザの第3視線方向を設定する設定工程と、
    前記設定された第3視線方向に基づいて仮想物体を含む仮想画像を生成する生成工程と、
    前記生成された仮想画像を前記表示装置に表示させる表示制御工程とを備えることを特徴とする情報処理方法。
  19. コンピュータを、請求項1乃至16のいずれか1項に記載の情報処理装置の各手段として実行させるためのプログラム。
JP2016016364A 2016-01-29 2016-01-29 情報処理装置、情報処理方法、プログラム Active JP6775957B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016016364A JP6775957B2 (ja) 2016-01-29 2016-01-29 情報処理装置、情報処理方法、プログラム
US15/414,482 US20170220105A1 (en) 2016-01-29 2017-01-24 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016016364A JP6775957B2 (ja) 2016-01-29 2016-01-29 情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2017134771A JP2017134771A (ja) 2017-08-03
JP6775957B2 true JP6775957B2 (ja) 2020-10-28

Family

ID=59385554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016016364A Active JP6775957B2 (ja) 2016-01-29 2016-01-29 情報処理装置、情報処理方法、プログラム

Country Status (2)

Country Link
US (1) US20170220105A1 (ja)
JP (1) JP6775957B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102402467B1 (ko) 2016-10-05 2022-05-25 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
KR102374404B1 (ko) * 2017-07-25 2022-03-15 삼성전자주식회사 콘텐트를 제공하기 위한 디바이스 및 방법
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
US11436384B2 (en) * 2019-01-24 2022-09-06 Autodesk, Inc. Computer-aided techniques for iteratively generating designs
JP7341674B2 (ja) * 2019-02-27 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6664778B1 (ja) * 2019-03-31 2020-03-13 アヘッド・バイオコンピューティング株式会社 情報処理装置、情報処理方法、および、プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1083463A (ja) * 1996-09-06 1998-03-31 Fujitsu Ltd 画像表示装置
JP4553362B2 (ja) * 2005-01-31 2010-09-29 キヤノン株式会社 システム、画像処理装置、情報処理方法
JP5845211B2 (ja) * 2013-06-24 2016-01-20 キヤノン株式会社 画像処理装置、画像処理方法
US10996473B2 (en) * 2014-03-26 2021-05-04 Atheer, Inc. Method and apparatus for adjusting motion-based data space manipulation

Also Published As

Publication number Publication date
JP2017134771A (ja) 2017-08-03
US20170220105A1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6775957B2 (ja) 情報処理装置、情報処理方法、プログラム
JP4401728B2 (ja) 複合現実空間画像生成方法及び複合現実感システム
JP5777786B1 (ja) 情報処理装置、情報処理方法、プログラム
JP5845211B2 (ja) 画像処理装置、画像処理方法
JP4739002B2 (ja) 画像処理方法、画像処理装置
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
JP4434890B2 (ja) 画像合成方法及び装置
JP4883774B2 (ja) 情報処理装置及びその制御方法、プログラム
JP4500632B2 (ja) 仮想現実感提示装置および情報処理方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP4677281B2 (ja) 画像処理方法、画像処理装置
JP2011028309A5 (ja)
JP2009025918A (ja) 画像処理装置、画像処理方法
JP4847195B2 (ja) 画像からの色情報の取得方法
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP7005224B2 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
JP2015125641A (ja) 情報処理装置、その制御方法、及びプログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP5597064B2 (ja) 情報処理装置およびその方法
JP2008146497A (ja) 画像処理装置、画像処理方法
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2009087161A (ja) 画像処理装置、画像処理方法
JP6364389B2 (ja) 検査方法及び検査システム
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2005251118A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201007

R151 Written notification of patent or utility model registration

Ref document number: 6775957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151