JP2023011264A - 仮想現実シミュレータ及び仮想現実シミュレーションプログラム - Google Patents

仮想現実シミュレータ及び仮想現実シミュレーションプログラム Download PDF

Info

Publication number
JP2023011264A
JP2023011264A JP2021115015A JP2021115015A JP2023011264A JP 2023011264 A JP2023011264 A JP 2023011264A JP 2021115015 A JP2021115015 A JP 2021115015A JP 2021115015 A JP2021115015 A JP 2021115015A JP 2023011264 A JP2023011264 A JP 2023011264A
Authority
JP
Japan
Prior art keywords
virtual
user
virtual space
real
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021115015A
Other languages
English (en)
Inventor
航 加来
Ko Kako
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021115015A priority Critical patent/JP2023011264A/ja
Priority to US17/825,642 priority patent/US20230008807A1/en
Priority to CN202210773409.1A priority patent/CN115623186A/zh
Publication of JP2023011264A publication Critical patent/JP2023011264A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Abstract

【課題】ウェアレスVRシミュレーションにおいてユーザが感じる違和感を抑制すること。【解決手段】VRシミュレータは、実空間においてユーザから離れた位置に設置されユーザと一体的に動かない画面に、仮想空間画像を投影あるいは表示する。より詳細には、VRシミュレータは、実空間におけるユーザの頭部の位置である実ユーザ位置の情報を取得する。VRシミュレータは、実ユーザ位置に対応付けられた仮想空間内の位置である仮想ユーザ位置を取得する。そして、VRシミュレータは、仮想空間の構成を示す仮想空間構成情報に基づいて、仮想空間内の仮想ユーザ位置に配置されたカメラによって仮想空間を撮像して仮想空間画像を取得する。このとき、VRシミュレータは、実ユーザ位置と画面との間の距離に相当する遠近感がキャンセルされるようにカメラの焦点距離を調整する遠近感調整処理を行う。【選択図】図9

Description

本開示は、仮想現実(VR: Virtual Reality)シミュレーションに関する。特に、本開示は、ウェアレスVRシミュレーションに関する。
特許文献1は、画像表示装置を開示している。画像表示装置は、画像生成部と、プロジェクタと、検出部を含んでいる。画像生成部は、仮想世界の空間のデータを用いて、仮想世界の空間に設定された仮想カメラにより撮影された仮想世界の一部の画像を生成する。プロジェクタは、ユーザと一体的に動き、且つ、画像生成部により生成された画像を現実世界の空間に投影する。検出部は、プロジェクタの位置及びプロジェクタの投影方向を検出する。画像生成部は、プロジェクタの移動に応じて仮想世界の空間において仮想カメラを移動させる。また、画像生成部は、プロジェクタの投影方向に応じた方向が撮影方向となるように仮想カメラを設定する。ユーザの向きが変わり、プロジェクタの投影方向が変わると、それに応じて仮想カメラの撮影方向も変動する。
本開示の技術分野における出願時の技術レベルを示す文献として、特許文献2、特許文献3、及び特許文献4も挙げられる。
特開2018-056924号公報 特開2003-141573号公報 特開2000-312358号公報 特開平11-252523号公報
ユーザがヘッドマウントディスプレイ等のVR機器を装着することなくVRを体験することができる「ウェアレスVRシミュレーション」について考える。ウェアレスVRシミュレーションの場合、ユーザから離れた位置に画面が設置され、その画面に仮想世界(仮想空間)の画像が描画される。このようなウェアレスVRシミュレーションにおいてユーザが感じる違和感をなるべく抑制することが望まれる。
本開示の1つの目的は、ウェアレスVRシミュレーションにおいてユーザが感じる違和感を抑制することができる技術を提供することにある。
第1の観点は、仮想現実シミュレータに関連する。
仮想現実シミュレータは、
1又は複数のプロセッサと、
仮想空間の構成を示す仮想空間構成情報を格納する1又は複数の記憶装置と
を備える。
1又は複数のプロセッサは、
実空間におけるユーザの頭部の位置である実ユーザ位置の情報を取得する処理と、
実ユーザ位置に対応付けられた仮想空間内の位置である仮想ユーザ位置を取得する処理と、
仮想空間構成情報に基づいて、仮想空間内の仮想ユーザ位置に配置されたカメラによって仮想空間を撮像して仮想空間画像を取得する撮像処理と、
実空間においてユーザから離れた位置に設置され、且つ、ユーザと一体的に動かない画面に、仮想空間画像を投影あるいは表示する処理と
を行うように構成される。
撮像処理は、実ユーザ位置と画面との間の距離に相当する遠近感がキャンセルされるようにカメラの焦点距離を調整する遠近感調整処理を含む。
第2の観点は、第1の観点に加えて、次の特徴を更に含む。
1又は複数のプロセッサは、実ユーザ位置の過去の履歴に基づいて、未来の実ユーザ位置を予測する。
そして、1又は複数のプロセッサは、未来の実ユーザ位置に対応付けられた未来の仮想ユーザ位置に基づいて、撮像処理を行う。
第3の観点は、コンピュータにより実行され、仮想現実シミュレーションを行う仮想現実シミュレーションプログラムに関連する。
仮想現実シミュレーションプログラムは、
実空間におけるユーザの頭部の位置である実ユーザ位置の情報を取得する処理と、
実ユーザ位置に対応付けられた仮想空間内の位置である仮想ユーザ位置を取得する処理と、
仮想空間の構成を示す仮想空間構成情報に基づいて、仮想空間内の仮想ユーザ位置に配置されたカメラによって仮想空間を撮像して仮想空間画像を取得する撮像処理と、
実空間においてユーザから離れた位置に設置され、且つ、ユーザと一体的に動かない画面に、仮想空間画像を投影あるいは表示する処理と
をコンピュータに実行させる。
撮像処理は、実ユーザ位置と画面との間の距離に相当する遠近感がキャンセルされるようにカメラの焦点距離を調整する遠近感調整処理を含む。
本開示によれば、ウェアレスVRシミュレーションにおいてユーザが感じる違和感を抑制することが可能となる。
本開示の実施の形態に係るウェアレスVRシミュレーションの概要を説明するための概念図である。 本開示の実施の形態に係るウェアレスVRシミュレーションの概要を説明するための概念図である。 本開示の実施の形態に係るVRシミュレータの構成例を示すブロック図である。 本開示の実施の形態に係るVRシミュレータの機能構成例を示すブロック図である。 本開示の実施の形態に係るVRシミュレータによる処理を示すフローチャートである。 本開示の実施の形態に係る仮想空間撮像処理(ステップS130)を説明するための概念図である。 本開示の実施の形態に係る仮想空間撮像処理(ステップS130)における第1の特徴を説明するための概念図である。 本開示の実施の形態に係る仮想空間撮像処理(ステップS130)における第2の特徴を説明するための概念図である。 本開示の実施の形態に係る仮想空間撮像処理(ステップS130)における第3の特徴を説明するための概念図である。 本開示の実施の形態の変形例を説明するためのブロック図である。
添付図面を参照して、本開示の実施の形態を説明する。
1.ウェアレスVRシミュレーションの概要
図1は、本実施の形態に係るウェアレスVR(Virtual Reality)シミュレーションの概要を説明するための概念図である。ウェアレスVRシミュレーションでは、ユーザ1は、ヘッドマウントディスプレイ等のVR機器を装着することなくVRを体験することができる。
より詳細には、ユーザ1から離れた位置に、少なくとも一つの画面(screen)4が設置される。ヘッドマウントディスプレイの場合とは異なり、画面4は、ユーザ1から独立しており、ユーザ1と一体的には動かない。画面4の位置は固定されていてもよい。画面4は、地面に垂直に設置されてもよい。ユーザ1の周囲に複数の画面4が設置されていてもよい。複数の画面4は切れ目なく連続的に配置されていてもよい。図1に示される例では、複数の画面4が、地面に垂直に設置されており、且つ、互いに直交するように切れ目なく連続的に配置されている。画面4はユーザ1より大きくてもよい。画面4は、例えば、VR体験ルームに設置される。
このようにユーザ1から離れた画面4に、仮想世界(仮想空間)の画像が描画される。例えば、画面4から離れた位置にプロジェクタが設置され、プロジェクタから画面4に画像が投影される。他の例として、画面4は、液晶ディスプレイ、有機ELディスプレイ等の表示装置の画面であってもよい。その場合、表示装置の画面4に画像が表示される。以下の説明において、「画面4に画像を描画する」とは、画面4に画像を投影あるいは表示することを意味する。
このようなウェアレスVRシミュレーションにおいて、ユーザ1が感じる違和感をなるべく抑制することが望まれる。例えば、仮想世界には物体OBJが存在する。その物体OBJがユーザ1の位置から違和感なく見えるように、その物体OBJを画面4に描画することが望まれる。違和感が少ないとは、例えば、画面4に描画される物体OBJの画像の歪みが少ないことを意味する。他の例として、違和感が少ないとは、画面4に描画される物体OBJの距離感が現実に近いことを意味する。後述されるように、本実施の形態は、ウェアレスVRシミュレーションにおいてユーザ1が感じる違和感を抑制することができる技術を提供する。
図2を参照して、本実施の形態において用いられる主な用語について説明する。
「実空間SPr」は、ユーザ1及び画面4が実際に存在する空間である。実空間SPrにおいて、少なくとも1つの画面4がユーザ1から離れて設置される。
「実空間座標系(Xr,Yr,Zr)」は、実空間SPrを規定する座標系である。実空間座標系の原点は、実空間SPr内の任意の位置に設定される。Xr軸、Yr軸、Zr軸は互いに直交している。Xr軸及びYr軸は水平方向を表し、Zr軸は鉛直方向を表している。
「実ユーザ位置Ur」は、実空間SPr(すなわち、実空間座標系)におけるユーザ1の位置である。より詳細には、実ユーザ位置Urは、実空間SPrにおけるユーザ1の頭部の位置である。例えば、実ユーザ位置Urは、実空間SPrにおけるユーザ1の目の位置である。実ユーザ位置Urは、実空間SPrにおけるユーザ1の両目の中心位置であってもよい。
「仮想空間SPv」は、VRシミュレーションの対象である仮想世界の空間である。仮想世界は任意である。例えば、仮想世界は、一つの街である。他の例として、仮想世界は、ゲームの世界であってもよい。
「仮想空間座標系(Xv,Yv,Zv)」は、仮想空間SPvを規定する座標系である。仮想空間座標系の原点は、仮想空間SPv内の任意の位置に設定される。Xv軸、Yv軸、Zv軸は互いに直交している。Xv軸及びYv軸は水平方向を表し、Zv軸は鉛直方向を表している。
「仮想ユーザ位置Uv」は、仮想空間SPv(すなわち、仮想空間座標系)におけるユーザ1の位置である。
実空間座標系(Xr,Yr,Zr)と仮想空間座標系(Xv,Yv,Zv)は、あらかじめ互いに対応付けられる。よって、実空間座標系と仮想空間座標系との間の座標変換が可能である。つまり、実空間座標系における任意の位置を、仮想空間座標系における対応する位置に変換することが可能である。逆に、仮想空間座標系における任意の位置を、実空間座標系における対応する位置に変換することも可能である。例えば、実ユーザ位置Urを、対応する仮想ユーザ位置Uvに変換することが可能である。他の例として、実空間SPrにおける画面4の位置を、仮想空間SPvにおける対応する位置に変換することが可能である。更に他の例として、仮想空間SPvにおける物体OBJの位置を、実空間SPrにおける対応する位置に変換することも可能である。
「VRシミュレータ10」は、本実施の形態に係るウェアレスVRシミュレーションを実現するシミュレータである。VRシミュレータ10は、実空間SPrに存在する。以下、本実施の形態に係るVRシミュレータ10について詳しく説明する。
2.VRシミュレータ
2-1.VRシミュレータの構成例
図3は、本実施の形態に係るVRシミュレータ10の構成例を示すブロック図である。VRシミュレータ10は、センサ20、情報処理装置30、及び描画装置40を含んでいる。
センサ20は、実ユーザ位置Urを取得するために用いられる情報を検出する。例えば、センサ20は、ユーザ1を撮像するカメラである。他の例として、センサ20は、ユーザ1の頭部に装着される位置センサであってもよい。センサ20を用いた実ユーザ位置Urの取得方法の様々な例については後に詳しく説明する。
描画装置40は、画面4に画像を描画する。例えば、描画装置40は、プロジェクタである。プロジェクタは、画面4から離れた位置に設置され、画面4に画像を投影する。他の例として、描画装置40は、液晶ディスプレイ、有機ELディスプレイ等の表示装置である。表示装置は、画面4を備えており、自身の画面4に画像を表示する。
情報処理装置30は、各種情報処理を行うコンピュータである。情報処理装置30は、1又は複数のプロセッサ31(以下、単にプロセッサ31と呼ぶ)と1又は複数の記憶装置32(以下、単に記憶装置32と呼ぶ)を含んでいる。プロセッサ31は、各種処理を実行する。例えば、プロセッサ31は、CPU(Central Processing Unit)を含んでいる。記憶装置32は、各種情報を格納する。記憶装置32としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。
VRシミュレーションプログラム100は、ウェアレスVRシミュレーションを行うコンピュータプログラムである。情報処理装置30(プロセッサ31)がVRシミュレーションプログラム100を実行することにより、本実施の形態に係るウェアレスVRシミュレーションが実現される。VRシミュレーションプログラム100は、記憶装置32に格納される。VRシミュレーションプログラム100は、コンピュータ読み取り可能な記録媒体に記録されてもよい。VRシミュレーションプログラム100は、ネットワーク経由で提供されてもよい。
記憶装置32には、あらかじめ、座標変換情報210、仮想空間構成情報220、及び画面情報230が格納される。
座標変換情報210は、実空間座標系(Xr,Yr,Zr)と仮想空間座標系(Xv,Yv,Zv)との間の対応関係を示す(図2参照)。この座標変換情報210を用いることにより、実空間座標系と仮想空間座標系との間の座標変換を行うことが可能である。
仮想空間構成情報220は、仮想空間SPvの構成(configuration)を示す。より詳細には、仮想空間SPvには、各種の物体OBJが存在する。仮想空間構成情報220は、仮想空間SPv(仮想空間座標系)における各物体OBJの占有範囲を示す。例えば、仮想空間構成情報220は、仮想空間SPv(仮想空間座標系)における各物体OBJの位置、サイズ、及び形状を示す。
画面情報230は、実空間SPrに設置される各画面4の情報を示す。より詳細には、画面情報230は、実空間SPr(実空間座標系)における各画面4の占有範囲を示す。例えば、画面情報230は、実空間SPr(実空間座標系)における各画面4の位置、サイズ、及び形状を示す。
2-2.VRシミュレータによる処理例
図4は、本実施の形態に係るVRシミュレータ10の機能構成例を示すブロック図である。VRシミュレータ10は、機能ブロックとして、実ユーザ位置取得部110、仮想ユーザ位置取得部120、仮想空間撮像部130、及び描画部140を含んでいる。これら機能ブロックは、VRシミュレーションプログラム100を実行するプロセッサ31と記憶装置32との協働により実現される。
図5は、本実施の形態に係るVRシミュレータ10による処理を示すフローチャートである。図4及び図5を参照して、VRシミュレータ10による処理フローを説明する。
2-2-1.ステップS110(実ユーザ位置取得処理)
ステップS110において、実ユーザ位置取得部110は、実空間SPrにおける実ユーザ位置Urを取得する。上述の通り、実ユーザ位置Urは、実空間SPrにおけるユーザ1の頭部の位置である。例えば、実ユーザ位置Urは、実空間SPrにおけるユーザ1の目の位置である。実ユーザ位置Urは、実空間SPrにおけるユーザ1の両目の中心位置であってもよい。
より詳細には、実空間SPrに設置されたセンサ20が、実ユーザ位置Urを取得するために用いられる情報を検出する。センサ検出情報200は、センサ20による検出結果を示す。実ユーザ位置取得部110は、センサ20からセンサ検出情報200を取得する。センサ検出情報200は、記憶装置32に格納される。そして、実ユーザ位置取得部110は、センサ検出情報200に基づいて実ユーザ位置Urを取得する。実ユーザ位置Urの情報は、記憶装置32に格納される。
例えば、センサ20は、ユーザ1を撮像する少なくとも一台のカメラである。カメラは、例えば、VR体験ルームの所定位置に設置される。実空間座標系におけるカメラの設置位置及び設置方向の情報は、あらかじめ与えられる。センサ検出情報200は、カメラにより撮像されるユーザ1の画像である。実ユーザ位置取得部110は、センサ検出情報200で示されるユーザ1の画像を解析することによって、ユーザ1の頭部(例えば目)を認識する。そして、実ユーザ位置取得部110は、カメラから見たユーザ1の頭部の位置、カメラの設置位置及び設置方向に基づいて、実ユーザ位置Urを取得する。
他の例として、センサ20は、ユーザ1の頭部に装着される位置センサであってもよい。例えば、位置センサは、VR体験ルームの壁や天井に対する相対距離を計測する測距センサである。その場合、センサ検出情報200は、位置センサにより計測される相対距離である。実空間座標系における壁や天井の位置の情報は、あらかじめ与えられる。実ユーザ位置取得部110は、壁や天井の位置とそれらに対する相対距離に基づいて、実ユーザ位置Urを取得することができる。
2-2-2.ステップS120(仮想ユーザ位置取得処理)
ステップS120において、仮想ユーザ位置取得部120は、ステップS110において取得された実ユーザ位置Urに対応付けられた仮想ユーザ位置Uvを取得する。より詳細には、仮想ユーザ位置取得部120は、座標変換情報210に基づいて、実ユーザ位置Urをそれに対応する仮想ユーザ位置Uvに変換する。仮想ユーザ位置Uvの情報は、記憶装置32に格納される。
2-2-3.ステップS130(仮想空間撮像処理)
ステップS130において、仮想空間撮像部130は、仮想ユーザ位置Uvから見た仮想空間SPvの画像を生成する、すなわち、レンダリングを行う。仮想ユーザ位置Uvから見た仮想空間SPvの画像を、以下、「仮想空間画像IMG」と呼ぶ。
図6は、ステップS130を説明するための概念図である。仮想空間撮像部130は、仮想空間SPv内の仮想ユーザ位置Uvに仮想カメラVCを配置する。仮想カメラVCは、ソフトウェア的に実現されるカメラである。仮想カメラVCのパラメータ(焦点距離、センササイズ、等)は、人間の視覚に合うように設定される。そして、仮想空間撮像部130は、仮想ユーザ位置Uvに配置された仮想カメラVCを用いることによって仮想空間SPvを撮像する。仮想カメラVCによって撮像される仮想空間SPvの画像が、仮想空間画像IMGである。仮想空間SPvの構成、すなわち、仮想空間SPv(仮想空間座標系)における各物体OBJの位置、形状、及びサイズは、仮想空間構成情報220から得られる。よって、仮想空間撮像部130は、仮想空間構成情報220に基づいて、仮想空間SPvを撮像して仮想空間画像IMGを取得することができる、すなわち、レンダリングを行うことができる。
仮想空間撮像部130は、各画面4毎に仮想空間画像IMGを取得してもよい。実空間SPrにおける各画面4の位置は、画面情報230から得られる。仮想空間撮像部130は、画面情報230と座標変換情報210に基づいて、仮想空間SPvにおける各画面4の位置を取得する。そして、仮想空間撮像部130は、仮想カメラVCを用いて、仮想ユーザ位置Uvから各画面4の方向の仮想空間SPvを撮像する。あるいは、仮想空間撮像部130は、仮想ユーザ位置Uvから全周方向の仮想空間SPvを撮像してもよい。
尚、本実施の形態では、ユーザ1の視線方向の情報は不要である。仮想カメラVCは、ユーザ1の視線方向にかかわらず、所定方向の仮想空間SPvを撮像する。所定方向は、仮想ユーザ位置Uvから見た各画面4の方向を含む。所定方向は、全周方向であってもよい。仮想空間撮像部130は、ユーザ1の視線方向の仮想空間画像IMGを切り取るのではなく、仮想ユーザ位置Uvから見える可能性のある仮想空間画像IMGを取得するのである。比較例として、上記の特許文献1に開示された技術によれば、ユーザの向きが変わるとそれに応じて仮想カメラの撮影方向も変動する。
仮想空間撮像処理(ステップS130)では、仮想空間画像IMGが画面4に描画されたときの違和感を抑制するための工夫が行われる。違和感を抑制するための工夫については、後のセクション3において詳しく説明する。
2-2-4.ステップS140(描画処理)
ステップS140において、描画部140は、描画装置40を制御することによって、仮想空間画像IMGを画面4に描画する。このとき、描画部140は、各画面4毎に得られた仮想空間画像IMGを、各画面4毎に描画してもよい。描画装置40がプロジェクタである場合、描画部140は、プロジェクタを制御することにより、仮想空間画像IMGを画面4に投影する。他の例として、描画装置40が表示装置である場合、描画部140は、表示装置を制御することにより、仮想空間画像IMGを画面4に表示する。
3.仮想空間撮像処理(ステップS130)の特徴
仮想空間撮像処理(ステップS130)では、仮想空間画像IMGが画面4に描画されたときの違和感を抑制するための工夫が行われる。以下、本実施の形態に係る仮想空間撮像処理の特徴として、「消失点の固定」、「レンズシフト」、及び「遠近感調整」の三種類について説明する。三種類の特徴的処理のうち少なくとも一つによって、ユーザ1が感じる違和感を抑制する効果は少なくとも得られる。もちろん、三種類の特徴的処理のうち2以上が行われてもよい。
3-1.消失点の固定
図7は、仮想空間撮像処理(ステップS130)における第1の特徴を説明するための概念図である。第1の特徴として、仮想空間画像IMGの消失点は、仮想ユーザ位置Uvから見て真っすぐ水平方向の位置に固定される。言い換えれば、仮想空間撮像部130は、仮想ユーザ位置Uvから水平方向に消失点が存在するように仮想空間画像IMGを取得する。
ユーザ1の視線方向にかかわらず、消失点は仮想ユーザ位置Uvから見て水平方向に固定される。ユーザ1の視線方向が上下に変動したとしても、仮想カメラVCは上下に回転しない。仮に、ユーザ1の視線方向の上下変動に応じて仮想カメラVCを上下に回転させると、画面4に描画される仮想空間画像IMGの垂直線が収束し、仮想空間画像IMGが歪んで見えてしまう。本実施の形態によれば、ユーザ1の視線方向にかかわらず消失点は水平方向に固定されるため、画面4に描画される仮想空間画像IMGが歪むことが防止される。すなわち、ユーザ1が感じる違和感を抑制することが可能となる。
当然、実空間SPrにおいてユーザ1が視線を動かせば、それに応じてユーザ1の視界は変わる。そのとき、実空間SPrに存在する物体自体が何も変わらないように、ユーザ1の周囲の画面4に描画される仮想空間画像IMG自体も何も変わらないのである。
3-2.レンズシフト(Lens Shift)
図8は、仮想空間撮像処理(ステップS130)における第2の特徴を説明するための概念図である。第2の特徴として、仮想空間撮像部130は、画面4の全体が仮想カメラVCの視野範囲の中に収まるように、仮想カメラVCのレンズをシフトさせる「レンズシフト処理」を行う。レンズシフト処理では、仮想空間撮像部130は、焦点距離(focal length)を変えることなく、仮想カメラVCのレンズを上下方向及び/あるいは左右方向にシフトさせる。尚、レンズシフトによって消失点の位置は変わらない。
画面4の全体を仮想カメラVCの視野範囲の中に収めるために必要なレンズシフト量は、画面4のサイズ、及び、実ユーザ位置Urと画面4との位置関係から決定することができる。実空間SPrにおける画面4の位置やサイズは、画面情報230から得られる。よって、仮想空間撮像部130は、実ユーザ位置Urと画面情報230に基づいて、画面4の全体を仮想カメラVCの視野範囲の中に収めるために必要なレンズシフト量を決定することができる。
このようなレンズシフト処理を行うことにより、画面4の中で何も映らない領域が発生することが抑制される。よって、VRに対するユーザ1の没入感が向上する。
ここでも重要なことは、仮想カメラVCを上下に回転させないことである。仮に、画面4の全体を視野範囲の中に収めるために仮想カメラVCを上下に回転させると、画面4に描画される仮想空間画像IMGの垂直線が収束し、仮想空間画像IMGが歪んで見えてしまう。本実施の形態によれば、仮想カメラVCを上下に回転させるのではなく、仮想カメラVCのレンズをシフトさせるレンズシフト処理が行われる。これにより、画面4に描画される仮想空間画像IMGが歪むことを防止することが可能となる。すなわち、ユーザ1が感じる違和感を抑制することが可能となる。
3-3.遠近感の調整
図9は、仮想空間撮像処理(ステップS130)における第3の特徴を説明するための概念図である。ある画面4にある物体OBJの画像が描画される。距離DAは、ユーザ1(仮想ユーザ位置Uv)とその物体OBJとの間の距離である。距離DBは、ユーザ1(実ユーザ位置Ur)とその画面4との間の距離である。
仮想カメラVCは、仮想ユーザ位置Uvから距離DAだけ離れた物体OBJを撮像し、その物体OBJを含む仮想空間画像IMGを生成する。仮に、距離DAだけ離れた物体OBJの画像が距離DBだけ離れた画面4にそのまま描画されるとすると、その物体OBJは、実ユーザ位置Urから見ると距離DA+DBだけ離れた位置に存在するように見えてしまう。例えば、距離DAが10mであり、距離DBが2mであるとする。10m先の物体OBJの画像が2m先の画面4にそのまま描画されると、その物体OBJは12m先に存在するように見えてしまう。すなわち、仮想空間SPvにおける遠近感に加えて、実空間SPrにおける遠近感が不必要に加わってしまう。その結果、物体OBJが本来よりも小さく見えてしまう。このことも、違和感の原因となり得る。
そこで、第3の特徴として、仮想空間撮像部130は、実ユーザ位置Urと画面4との間の距離DBに相当する遠近感をキャンセルする。より詳細には、仮想空間撮像部130は、実ユーザ位置Urと画面4との間の距離DBに相当する遠近感がキャンセルされるように、仮想カメラVCの焦点距離を望遠側に調整する。これにより、不必要な遠近感がキャンセルされ、仮想空間SPvにおける本来の距離感が再現され、ユーザ1が感じる違和感が抑制される。
不必要な遠近感をキャンセルするために必要な焦点距離の調整量は、実ユーザ位置Urと画面4との間の距離DBに基づいて決定される。実空間SPrにおける画面4の位置は、画面情報230から得られる。仮想空間撮像部130は、実ユーザ位置Urと画面情報230に基づいて、距離DBに相当する遠近感をキャンセルするために必要な焦点距離の調整量を決定することができる。尚、仮想空間撮像部130は、画面4毎に遠近感の調整を行う。
4.変形例
上述の通り、実ユーザ位置Urの取得から仮想空間画像IMGの描画までに各種の処理が行われる。その処理時間の分だけ、画面4に描画される仮想空間画像IMGの見た目の遅延が発生する可能性がある。そのような遅延を抑制するために、変形例では、未来の実ユーザ位置Urの予測(推定)が行われる。
図10は、変形例を説明するためのブロック図である。既出の図4と重複する説明は適宜省略する。履歴情報HSTは、実ユーザ位置Urの過去の履歴を示す情報であり、記憶装置32に格納される。
ステップS110において、実ユーザ位置取得部110は、実ユーザ位置Urを取得する。実ユーザ位置取得部110は、取得した実ユーザ位置Urを履歴情報HSTに登録し、履歴情報HSTを更新する。また、実ユーザ位置取得部110は、履歴情報HSTで示される実ユーザ位置Urの過去の履歴に基づいて、未来の実ユーザ位置Urを予測(推定)する。例えば、実ユーザ位置取得部110は、実ユーザ位置Urの過去の履歴に基づいて実ユーザ位置Urの加速度を算出し、その加速度から未来の実ユーザ位置Urを予測する。実ユーザ位置Urの予測に、カルマンフィルタ等が用いられてもよい。
ステップS120において、仮想ユーザ位置取得部120は、ステップS110において予測された未来の実ユーザ位置Urに対応付けられた仮想ユーザ位置Uvを取得する。つまり、仮想ユーザ位置取得部120は、未来の仮想ユーザ位置Uvを取得する。そして、ステップS130において、仮想空間撮像部130は、未来の仮想ユーザ位置Uvに仮想カメラVCを配置して、仮想空間撮像処理を行う。
このように、変形例によれば、未来の実ユーザ位置Urが予測され、未来の実ユーザ位置Urに対応付けられた未来の仮想ユーザ位置Uvに基づいて仮想空間撮像処理が行われる。これにより、画面4に描画される仮想空間画像IMGの見た目の遅延が抑制される。このことも、ユーザ1が感じる違和感の抑制に寄与する。
5.まとめ
以上に説明されたように、本実施の形態によれば、ウェアレスVRシミュレーションが実現される。具体的には、実ユーザ位置Urに対応付けられた仮想ユーザ位置Uvに仮想カメラVCが配置され、その仮想カメラVCによって仮想空間SPvを撮像することにより仮想空間画像IMGが取得される。仮想空間画像IMGは、ユーザ1から離れた位置に設置されユーザ1と一体的に動かない画面4に描画される。
仮想空間画像IMGが画面4に描画されたときの違和感を抑制するための工夫として、「消失点の固定」、「レンズシフト」、及び「遠近感調整」の三種類が説明された(セクション3参照)。これら三種類の特徴的処理のうち少なくとも一つによって、ユーザ1が感じる違和感を抑制する効果は少なくとも得られる。もちろん、三種類の特徴的処理のうち2以上が行われてもよい。
本実施の形態に係るウェアレスVRシミュレーションは、画面4の位置、方位、形状に依存しない。天井、床、前後、左右の6面体のVR体験ルームを作ることも可能である。画面4を更に分割し、より複雑な形状の画面構成を実現することも可能である。全天球型のVR体験ルームを作ることも可能である。
1 ユーザ
4 画面
10 VRシミュレータ
20 センサ
30 情報処理装置
31 プロセッサ
32 記憶装置
40 描画装置
100 VRシミュレーションプログラム
110 実ユーザ位置取得部
120 仮想ユーザ位置取得部
130 仮想空間撮像部
140 描画部
200 センサ検出情報
210 座標変換情報
220 仮想空間構成情報
230 画面情報
IMG 仮想空間画像
OBJ 物体
Ur 実ユーザ位置
Uv 仮想ユーザ位置
VC 仮想カメラ

Claims (3)

  1. 1又は複数のプロセッサと、
    仮想空間の構成を示す仮想空間構成情報を格納する1又は複数の記憶装置と
    を備え、
    前記1又は複数のプロセッサは、
    実空間におけるユーザの頭部の位置である実ユーザ位置の情報を取得する処理と、
    前記実ユーザ位置に対応付けられた前記仮想空間内の位置である仮想ユーザ位置を取得する処理と、
    前記仮想空間構成情報に基づいて、前記仮想空間内の前記仮想ユーザ位置に配置されたカメラによって前記仮想空間を撮像して仮想空間画像を取得する撮像処理と、
    前記実空間において前記ユーザから離れた位置に設置され、且つ、前記ユーザと一体的に動かない画面に、前記仮想空間画像を投影あるいは表示する処理と
    を行うように構成され、
    前記撮像処理は、前記実ユーザ位置と前記画面との間の距離に相当する遠近感がキャンセルされるように前記カメラの焦点距離を調整する遠近感調整処理を含む
    仮想現実シミュレータ。
  2. 請求項1に記載の仮想現実シミュレータであって、
    前記1又は複数のプロセッサは、
    前記実ユーザ位置の過去の履歴に基づいて、未来の前記実ユーザ位置を予測し、
    未来の前記実ユーザ位置に対応付けられた未来の前記仮想ユーザ位置に基づいて、前記撮像処理を行う
    仮想現実シミュレータ。
  3. コンピュータにより実行され、仮想現実シミュレーションを行う仮想現実シミュレーションプログラムであって、
    実空間におけるユーザの頭部の位置である実ユーザ位置の情報を取得する処理と、
    前記実ユーザ位置に対応付けられた仮想空間内の位置である仮想ユーザ位置を取得する処理と、
    前記仮想空間の構成を示す仮想空間構成情報に基づいて、前記仮想空間内の前記仮想ユーザ位置に配置されたカメラによって前記仮想空間を撮像して仮想空間画像を取得する撮像処理と、
    前記実空間において前記ユーザから離れた位置に設置され、且つ、前記ユーザと一体的に動かない画面に、前記仮想空間画像を投影あるいは表示する処理と
    を前記コンピュータに実行させ、
    前記撮像処理は、前記実ユーザ位置と前記画面との間の距離に相当する遠近感がキャンセルされるように前記カメラの焦点距離を調整する遠近感調整処理を含む
    仮想現実シミュレーションプログラム。
JP2021115015A 2021-07-12 2021-07-12 仮想現実シミュレータ及び仮想現実シミュレーションプログラム Pending JP2023011264A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021115015A JP2023011264A (ja) 2021-07-12 2021-07-12 仮想現実シミュレータ及び仮想現実シミュレーションプログラム
US17/825,642 US20230008807A1 (en) 2021-07-12 2022-05-26 Virtual reality simulator and virtual reality simulation program
CN202210773409.1A CN115623186A (zh) 2021-07-12 2022-07-01 虚拟现实模拟器以及计算机可读取记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021115015A JP2023011264A (ja) 2021-07-12 2021-07-12 仮想現実シミュレータ及び仮想現実シミュレーションプログラム

Publications (1)

Publication Number Publication Date
JP2023011264A true JP2023011264A (ja) 2023-01-24

Family

ID=84799529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021115015A Pending JP2023011264A (ja) 2021-07-12 2021-07-12 仮想現実シミュレータ及び仮想現実シミュレーションプログラム

Country Status (3)

Country Link
US (1) US20230008807A1 (ja)
JP (1) JP2023011264A (ja)
CN (1) CN115623186A (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4863527B2 (ja) * 2009-12-01 2012-01-25 稔 稲葉 立体映像撮像装置
BR112014002186B1 (pt) * 2011-07-29 2020-12-29 Hewlett-Packard Development Company, L.P sistema de projeção de captura, meio executável de processamento e método de colaboração em espaço de trabalho
EP3502839A1 (en) * 2017-12-22 2019-06-26 Nokia Technologies Oy Methods, apparatus, systems, computer programs for enabling mediated reality
WO2022050734A1 (en) * 2020-09-03 2022-03-10 Samsung Electronics Co., Ltd. Method and device for reducing performance difference between contents and devices in communication system
US11698707B2 (en) * 2021-03-31 2023-07-11 Sy Interiors Pvt. Ltd. Methods and systems for provisioning a collaborative virtual experience of a building
JP2023011265A (ja) * 2021-07-12 2023-01-24 トヨタ自動車株式会社 仮想現実シミュレータ及び仮想現実シミュレーションプログラム
JP2023011263A (ja) * 2021-07-12 2023-01-24 トヨタ自動車株式会社 仮想現実シミュレータ及び仮想現実シミュレーションプログラム
JP2023011262A (ja) * 2021-07-12 2023-01-24 トヨタ自動車株式会社 仮想現実シミュレータ及び仮想現実シミュレーションプログラム

Also Published As

Publication number Publication date
US20230008807A1 (en) 2023-01-12
CN115623186A (zh) 2023-01-17

Similar Documents

Publication Publication Date Title
TWI681663B (zh) 具有經由眼睛追蹤之延伸有效眼動範圍之近眼顯示器
KR20170007102A (ko) 3차원 지도 생성 및 표시 장치 및 방법
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP5237234B2 (ja) 映像コミュニケーションシステム、及び映像コミュニケーション方法
JP7073481B2 (ja) 画像表示システム
JP2019510991A (ja) 適応焦点面を有して仮想現実をレンダリングする構成
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN103517060A (zh) 一种终端设备的显示控制方法及装置
JP2020042362A (ja) 制御装置及びその制御方法
US11443719B2 (en) Information processing apparatus and information processing method
JP2023011262A (ja) 仮想現実シミュレータ及び仮想現実シミュレーションプログラム
JP2023011263A (ja) 仮想現実シミュレータ及び仮想現実シミュレーションプログラム
US11212502B2 (en) Method of modifying an image on a computational device
US11748938B2 (en) Virtual reality simulator and virtual reality simulation program
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2023011264A (ja) 仮想現実シミュレータ及び仮想現実シミュレーションプログラム
US11187895B2 (en) Content generation apparatus and method
JP6456551B1 (ja) 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム
JP7172036B2 (ja) 3dcg空間の鑑賞条件連動システム、方法、およびプログラム
JP2019146010A (ja) 画像処理装置、画像処理方法およびプログラム
US20240078743A1 (en) Stereo Depth Markers
WO2021065607A1 (ja) 情報処理装置および方法、並びにプログラム
US20220044351A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
GB2575932A (en) Method and system for providing at least a portion of content having six degrees of freedom motion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230721