JP7305185B2 - 情報処理装置、情報処理方法、および、プログラム - Google Patents

情報処理装置、情報処理方法、および、プログラム Download PDF

Info

Publication number
JP7305185B2
JP7305185B2 JP2019230436A JP2019230436A JP7305185B2 JP 7305185 B2 JP7305185 B2 JP 7305185B2 JP 2019230436 A JP2019230436 A JP 2019230436A JP 2019230436 A JP2019230436 A JP 2019230436A JP 7305185 B2 JP7305185 B2 JP 7305185B2
Authority
JP
Japan
Prior art keywords
angle
virtual space
correction
user
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019230436A
Other languages
English (en)
Other versions
JP2020170501A (ja
JP2020170501A5 (ja
Inventor
泰 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AHEAD BIOCOMPUTING, CO. LTD.
Original Assignee
AHEAD BIOCOMPUTING, CO. LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019069568A external-priority patent/JP6664778B1/ja
Application filed by AHEAD BIOCOMPUTING, CO. LTD. filed Critical AHEAD BIOCOMPUTING, CO. LTD.
Priority to JP2019230436A priority Critical patent/JP7305185B2/ja
Publication of JP2020170501A publication Critical patent/JP2020170501A/ja
Publication of JP2020170501A5 publication Critical patent/JP2020170501A5/ja
Priority to JP2023102053A priority patent/JP2023126252A/ja
Application granted granted Critical
Publication of JP7305185B2 publication Critical patent/JP7305185B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法、および、プログラムに関するものである。
近年、ヘッドマウントディスプレイを用いて、仮想空間を提供する技術が急速に普及している。このような技術では、ユーザがその体験をあたかも現実のように感じられる、「没入感」を得られるか否かが、感動や満足感を提供する上できわめて重要な要素であることが指摘されている。
特許文献1には、人体の対象部位に姿勢角検出装置を取付けて対象部位の姿勢角を計測する際に、姿勢角検出装置の対象部位に対する取付け角度を予め初期姿勢角として保存しておき、人体の姿勢角検出時に、姿勢角検出装置の角速度および角加速度と、初期姿勢角とを用いて演算処理することにより、姿勢角検出装置の対象部位に対する取付け角度誤差が補正され、対象部位に関する姿勢角の検出を高い精度で行う技術が開示されている。
このような技術によれば、ヘッドマウントディスプレイを頭部に装着している利用者の実際の動きと、ヘッドマウントディスプレイの出力姿勢角とが一致するので、ヘッドマウントディスプレイに表示される画像と利用者の感覚との間に違和感が生じず、利用者は自然な感覚でヘッドマウントディスプレイの画像を鑑賞することができる。
特開2004-150900号公報
ところで、手や足などの身体の一部が表示されることで、没入感を高められる場合があることが知られており、今後は、仮想空間の中に、より積極的に第一人称視点の主人公役の身体の一部を表示していく方向が想定される。
このように、第一人称視点の主人公役の身体の一部を表示する場合、画面内に表現されている主人公の体の一部の位置が、現実のユーザの体の対応する部分の位置と大きく異なると、没入感が著しく阻害されてしまう。
しかしながら、特許文献1では、このような問題点を解決することができない。
そこで、本発明は、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制することが可能な情報処理装置、情報処理方法、および、プログラムを提供することを目的としている。
上記課題を解決するために、本発明は、ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理装置において、前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力手段と、前記第1入力手段が入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成手段と、前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力手段と、前記第2入力手段が入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正手段と、前記修正手段によってピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示手段と、を有することを特徴とする。
このような構成によれば、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制することができる。
また、本発明は、前記第2入力手段から入力された前記修正情報を記憶する記憶手段を有し、前記修正手段は、前記記憶手段に記憶された前記修正情報に基づいて前記仮想空間のピッチ方向の角度を修正する、ことを特徴とする。
このような構成によれば、記憶されている修正情報に基づいてピッチ方向の角度の修正を適宜継続して行うことができる。
また、本発明は、前記修正手段は、ピッチ方向の修正角度を新たに指定する場合には、前記記憶手段に記憶されている前記修正情報の前回値を初期値として、前記仮想空間のピッチ方向の角度の修正値を指定することを特徴とする。
このような構成によれば、再修正を容易に行うことができる。
また、本発明は、前記デバイスは、前記ユーザの前後方向または上下方向に対応する方向に関する操作が可能な操作部を有し、前記修正手段は、前記操作部の前記前後方向または上下方向に対応する方向に関する操作量を参照して、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、ことを特徴とする。
このような構成によれば、前後方向または上下方向の操作によって感覚的に分かりやすく調整を行うことができる。
また、本発明は、前記デバイスは、前記仮想空間内の少なくとも1点を指定可能であり、前記修正手段は、前記デバイスによって指定された位置を参照し、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、ことを特徴とする。
このような構成によれば、ポインティングデバイスを用いて、ピッチ方向の角度を容易に調整することができる。
また、本発明は、前記仮想空間における前記身体画像のピッチ方向の角度を取得する取得手段を有し、前記修正手段は、前記取得手段によって取得されたピッチ方向の角度を参照して、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、ことを特徴とする。
このような構成によれば、ピッチ方向の角度を自動的に設定することが可能になる。
また、本発明は、前記修正手段は、前記第2入力手段から入力された前記修正情報に基づいて、ピッチ方向の角度の修正量を示すゲージを前記仮想空間の一部に表示することを特徴とする。
このような構成によれば、ゲージを参照することで修正量を正確に把握することができる。
また、本発明は、ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理方法において、前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力ステップと、前記第1入力ステップにおいて入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成ステップと、前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力ステップと、前記第2入力ステップにおいて入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正ステップと、前記修正ステップにおいてピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示ステップと、を有することを特徴とする。
このような方法によれば、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制することができる。
また、本発明は、ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理をコンピュータに機能させる前記コンピュータが読み取り可能なプログラムにおいて、前記コンピュータを、前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力手段、前記第1入力手段が入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成手段、前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力手段、前記第2入力手段が入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正手段、前記修正手段によってピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示手段、として機能させることを特徴とする。
このようなプログラムによれば、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制することができる。
本発明によれば、主人公役の身体の一部の表示位置と、対応するユーザの身体の一部の位置との乖離を抑制可能な情報処理装置、情報処理方法、および、プログラムを提供することができる。
本発明の実施形態に係る情報処理装置を含むシステムの構成例である。 図1に示す情報処理装置の構成例を示す図である。 図1に示すHMDの構成例を示す図である。 図3に示すHMDが有する3つの軸方向を示す図である。 図1に示す操作デバイスの外観斜視図である。 図1に示す操作デバイスの電気的な構成例を示す図である。 制作者等が意図するVR空間画像の位置関係を示す図である。 実際のVR空間画像の位置関係を示す図である。 ピッチ角修正後のVR空間画像の位置関係を示す図である。 制作者等が意図するVR空間画像の位置関係を示す図である。 実際のVR空間画像の位置関係を示す図である。 ピッチ角修正後のVR空間画像の位置関係を示す図である。 図2に示す実施形態において実行される処理の一例を説明するためのフローチャートである。 図5に示す操作デバイスの他の構成例を示す図である。 図5に示す操作デバイスのさらに他の構成例を示す図である。 ポインティングデバイスを用いてピッチ角を調整する場合の表示画面の一例を示す図である。 図2に示す実施形態において実行される他の処理の一例を説明するためのフローチャートである。 図2に示す実施形態において実行されるさらに他の処理の一例を説明するためのフローチャートである。
次に、本発明の実施形態について説明する。
(A)本発明の実施形態の構成の説明
図1は、本発明の実施形態に係る情報処理装置を含む情報処理システムの構成例を示す図である。図1に示すように、本発明の実施形態に係る情報処理装置システムは、情報処理装置10、HMD(Head Mount Display)30、操作デバイス50、および、ネットワーク70を有している。
ここで、情報処理装置10は、後述するように、パーソナルコンピュータ等によって構成され、例えば、ネットワーク70に接続されたサーバ(不図示)から供給されるプログラムまたはデータに基づいて、VR(Virtual Reality)空間画像を生成してHMD30に供給するとともに、HMD30を装着したユーザの頭部の動きに応じてVR空間画像を更新する。また、情報処理装置10は、操作デバイス50がユーザによって操作された場合には、操作量を取得し、操作量に応じた処理(後述する)を実行する。
HMD30は、ユーザが頭部に装着し、情報処理装置10から供給されるVR空間画像を内蔵されているディスプレイに表示するとともに、ユーザの頭部の動きを検出して情報処理装置10に供給する。
操作デバイス50は、ユーザによって操作され、操作量に応じた情報を生成して出力する。
ネットワーク70は、例えば、インターネット等によって構成され、図示しないサーバと情報処理装置10との間で情報をIPパケットとして伝送する。
図2は、情報処理装置10の電気的な構成例を示すブロック図である。図2に示すように、情報処理装置10は、ピッチ角修正量設定部11、入力部12、VR空間画像生成部13、HMD動き検出部14、アバター生成部15、および、通信部16を有している。
ここで、ピッチ角修正量設定部11は、操作デバイス50から入力される情報に基づいてVR空間画像のピッチ角を修正する量を設定する。
入力部12は、操作デバイス50が操作された場合に、操作量を示す情報を操作デバイス50から入力する。
VR空間画像生成部13は、ユーザの周囲に構築するVR空間画像を生成して、HMD30に供給する。
HMD動き検出部14は、HMD30が有する加速度センサ(後述する)から出力される、HMD30の動きに関する情報を入力し、HMD30の動きを検出することで、ユーザの頭部の動きを検出する。
アバター生成部15は、第一人称視点の主人公役である化身としてのアバターの身体の少なくとも一部の画像を生成する。
通信部16は、ネットワーク70を介して、図示しないサーバにアクセスし、サーバに格納されている情報を取得したり、サーバに対して情報を送信したりする。
図3は、HMD30の電気的な構成例を示すブロック図である。図3に示すように、HMD30は、プロセッサ31、メモリ32、1組のディスプレイ33、複数の加速度センサ34、複数のLED(Light Emitting Diode)35、通信部36、スピーカ37、および、マイクロフォン(以下、単に「マイク」と称する)38を有している。
なお、HMD30は、ユーザの頭部に装着して使用される。HMD30は、情報処理装置10から供給されるVR空間画像を、ユーザの左右の目に対して表示するための左右1組のディスプレイ33を有するとともに、ディスプレイ33とユーザの目の間に位置して視野角を拡大するための左右一対の光学レンズ、ユーザの頭部の動きを検出するための加速度センサ34を有している。
ここで、プロセッサ31は、メモリ32に格納されているプログラムおよびデータに基づいて、装置の各部を制御する。
メモリ32は、例えば、RAM(Random Access Memory)およびROM(Read Only Memory)等によって構成され、プロセッサ31が実行するプログラムやデータを格納する。
ディスプレイ33は、情報処理装置10から供給されるVR空間画像をユーザの左右の目に対して提示する。
加速度センサ34は、例えば、ジャイロセンサによって構成される。加速度センサ34は、図4に示すように、ユーザの頭部の動きを、首を左右にかしげる方向であるロール方向の角度としてのロール角θr、左右に顔を振る方向であるヨー方向の角度としてのヨー角θy、および、顎の上げ下げ方向であるピッチ方向の角度としてのピッチ角θpのそれぞれの加速度として検出して出力する。
図3に戻る。LED35は、例えば、発光マーカを構成し、情報処理装置10に対して、HMD30の位置を検出可能に配置されて構成されている。
通信部36は、無線または有線によって情報処理装置10と接続され、VR空間画像を情報処理装置10から受信するとともに、加速度センサ34によって検出されたHMD30の3軸方向の加速度を示す情報を情報処理装置10に送信する。
スピーカ37は、情報処理装置10から通信部36を介して供給される音声情報を音声に変換して放音する。なお、スピーカ37の代わりに、ヘッドフォンを使用するようにしてもよい。
マイク38は、ユーザの発した音声を電気信号に変換して出力する。
図5は、操作デバイス50の構成例を示す外観斜視図である。図5に示すように、操作デバイス50は、例えば、樹脂によって構成される本体部501を有し、この本体部501をユーザが把持して使用する。また、本体部501の端部には、操作部503が配置される平面部502が形成されている。ユーザが操作部503を回転することで、後述するようにVR空間画像を提示する際のピッチ角を調整することができる。
図6は、操作デバイス50の電気的な構成例を示す図である。図6に示すように、操作デバイス50は、プロセッサ51、メモリ52、操作量検出部53、センサ群54、通信部55、および、振動部56を有している。
ここで、プロセッサ51は、メモリ52に格納されたプログラムおよびデータに基づいて、装置の各部を制御する。
メモリ52は、RAMおよびROM等によって構成され、プロセッサ51が実行するプログラムおよびデータを格納している。
操作量検出部53は、例えば、図5に示す操作部503の操作量を検出して出力する。より詳細には、図5の例では、操作部503はダイアル型の構造を有し、操作量検出部53は、ダイアル型の操作部503の回転角度を検出するロータリーエンコーダによって構成され、ユーザの操作量を示す情報を生成して出力する。
センサ群54は、例えば、傾きセンサ等によって構成され、操作デバイス50の角度を検出して出力する。
通信部55は、無線または有線によって情報処理装置10と接続され、例えば、振動部56を制御するための情報を情報処理装置10から受信するとともに、操作量検出部53およびセンサ群54によって検出された情報を情報処理装置10に送信する。
振動部56は、例えば、バイブレーションモータによって構成され、プロセッサ51の制御により、振動を発生して操作デバイス50の本体部501を振動させる。
(B)本発明の実施形態の動作の説明
つぎに、本発明の実施形態の動作について説明する。以下では、本発明の実施形態の動作の概要について説明した後、フローチャートを参照して動作の詳細について説明する。
図7~図12は、本発明の動作の概要を説明するための図である。図7は、VR空間画像として、海の中の環境を提示する場合であって、VR空間画像の制作者または撮影者(以下、「制作者等」と称する)が想定している状況を示す図である。図7の例では、VR空間画像として海の中の環境(詳細は図面の簡略化のために省略する)がユーザ90に提示される。また、図7の例では、ユーザ90のアバター(化身)の身体の一部としてのフィン100が、ユーザ90の足と一致する位置に提示される。また、図7の例では、フィン100に対して鮫110が攻撃している。すなわち、制作者等は、ユーザ90が、例えば、座位にて鑑賞することを想定するとともに、仮想カメラの正面方向よりも約45度下方にユーザ90の足が存在することを想定して、VR空間画像を制作または撮影(以下、「制作等」と称する)している。
図8は、ユーザ90の実際の鑑賞時の状況を示している。図8の例では、ユーザ90は、座位ではなく、例えば、ソファ92等に横になる仰臥位にてVR空間画像を鑑賞している。このような場合、VR空間画像を提示する従来の情報処理装置では、ユーザ90がどのような姿勢かは考慮しないことから、図8に示すように、ユーザ90の足から離れた位置にフィン100が表示されてしまう。その場合、ユーザ90はフィン100を自分の身体の一部と認識することは困難であることから、このようなフィン100に対して鮫110が攻撃をしたとしても、自身に対する攻撃と感じることは困難である。
VR空間内で敵、怪物、友人等の他者が、一人称視点の主人公役の身体に接近または接触などの干渉を加えようとした場合に、VR空間画像に提示されている主人公の体の一部の位置が、現実のユーザ90の位置と異なる場合には、没入感が著しく阻害されてしまうことが、従来は問題であった。
そこで、本発明の実施形態では、VR空間画像の再生開始時またはVR空間画像の再生中に、ユーザ90が操作デバイス50の操作部503を操作することで、図9に示すように、ピッチ角θpを修正し、制作者等が想定している位置に、ユーザ90のアバターの身体の一部や、身体の一部に干渉を加えようとする他者等の画像が提示されるように調整を行うことを特徴とする。
図10~図12は別のコンテンツの場合を示している。図10は、制作者等が意図したVR空間画像とユーザ90との関係を示している。すなわち、図10の例では、ユーザ90は立位であり、ユーザ90の足下に犬120が存在する状態を示している。
図11は、実際の鑑賞時の状態を示している。図11の例では、ユーザ90は、上半身が鉛直方向よりも傾いた状態の座位である。このような場合、犬120は、ユーザ90の足下ではなく、空中に浮かんだ状態で表示される。VR空間画像中に、これと対応する位置にユーザ90のアバターの一部である手が表示されて、そのアバターの手によって犬120を撫でる場合、この手を自身の手と認識することは困難である。
図12は、本実施形態によって、表示位置を調整した場合の表示例を示している。本実施形態では、VR空間画像の再生開始時またはVR空間画像の再生中に、ユーザ90が操作デバイス50の操作部503を操作することで、図12に示すように、ピッチ角θpを調整し、制作者等が想定している位置にVR空間画像が提示されるように修正を行うことができるので、犬120をユーザ90の足下に表示させることができる。この場合、ユーザ90のアバターの一部である手が表示され、アバターの手によって犬120を撫でる場合、この手を自身の手と認識することができる。
このように、調整を行って、アバターの体の一部と、ユーザ90の体の一部とを一致させることで、アバターに対する身体所有感覚を高め、これにより没入感を高めることができる。
なお、身体所有感については、以下のような論文が知られている。
例えば、論文1(Botvinick M., and Cohen J.: "Rubber hands ‘feel’ touch that eyes see", Nature, 391(6669):756, (1998))では、被検者に提示する視野の中にゴム製の義手を置き、視野から隠された場所にある被験者の実際の手を触るのと同じタイミングで、ゴム製の義手にも触れるという事前の訓練を行うと、脳の錯覚によりゴム製の義手が触られている視覚情報だけでも自分が接触されたような感覚(RHI:Rubber Hand Illusion)を生じることが記載されている。なお、これと類似した一連の現象は、身体感覚の転移、または、身体所有感などと呼ばれ、近年きわめて熱心に研究されるようになっている。
また、論文2(Slater M., Spanlang B., Sanchez-Vives M.V., and Blanke O.: “First Person Experience of Body Transfer in Virtual Reality," PLoS ONE, 5(5):e10564, (2010))では第一人称視点だけでなく第三人称視点でも身体所有感が得られることが記載されている。
また、論文3(Peck T.C., Seinfeld S., Aglioti S.M., and Slater M.: "Putting yourself in the skin of a black avatar reduces implicit racial bias", Consciousness and cognition, 22(3):779-787, (2013))では表示されるアバターの肌の色の違いなどに関わらず身体所有感が得られることが記載されている。
また、論文4(Kondo R., Sugimoto M., Minamizawa K., Hoshi T., Inami M., and Kitazaki M.: "Illusory body ownership of an invisible body interpolated between virtual hands and feet via visual-motor synchronicity", Scientific reports, 8:7541, (2018))では手と足先だけが被検者の動きと同期して表示され、その間をつなぐべき人体があたかも透明人間のように何も表示されない場合ですら、その透明な部分に身体所有感が得られるという事実が示されている。
一方、論文5(Pavani F.: "Visual capture of touch : Out-of-the-body experiences with rubber gloves", Psychological Science, 11(5):353-359, (2000))では、置かれた義手の角度と、現実の手が見えるべき角度の差が少ないほうが、身体所有の感覚が強くなることが述べられている。すなわち、人間の認知上の自然の性質として、仮想空間内での主人公の身体の表示は、できる限り現実空間内でのユーザの身体が置かれている位置と近い方が身体感覚の転移が起きやすく、したがって没入感も得やすい傾向があることが示唆される。
すなわち、本実施形態は、人間の脳の認知機構が自然に有しているこれらの科学的性質に立脚した上で、仮想現実に関わる多くのコンテンツが共有している諸性質にも注目することにより、例えば、図8に示す状況に対して、技術的な解決手段を提供しようとするものである。
また、本実施形態では、ユーザ90の頭部の動きから検出し、視線の調整に用いられている3つの角度(θr,θy,θp)のうち、ピッチ角θpに特に注目するという点が特徴である。すなわち、第一人称視点の主人公役としてのアバターの姿勢は、物語の進行に応じて様々に変化する可能性があるが、人間の眼が自分の体を視野内に捉えているとき、首をかしげていること(ロール軸方向の動き)や、左右に振り返ること(ヨー軸方向の動き)は相対的に稀な事象である。主人公は首をかしげておらず、興味をもつべき対象に対して左右にずれずにほぼ正面を向いていることを仮定しても、多くの場合には問題が生じない。
視野内に映る自分の身体は、多くの場合は視野の正面中心付近にあり、自分の肩幅の中で存在していることを多くの場合には期待できる。このとき、顎の上げ下げ(ピッチ軸方向の動き)によって、その見え方は大きく変わる。人間の諸動作、例えば、立つ、座る、屈む、横たわるなどの動作に応じて、自らの身体の視野内での形は変わるが、それらの変化は主にピッチ角の調整により近似的に合わせることができる。
そこで、本発明では、ユーザの頭部の動きを感知するセンサからのロール角θr、ヨー角θy、ピッチ角θpに基づく視線移動を検出するHMD動き検出部14に加えて、特に視線の上下方向の変化を司るピッチ角に関して、ユーザ90の意図に基づく強制移動(ピッチアップ、ピッチダウン)を可能とするためのピッチ角修正量設定部11を設けることで、第一人称視点の主人公のとしてのアバターの身体表現とユーザの現実の姿勢の齟齬を減少することができる。
人間の脳は大きな調整能力を持つために、四肢の位置の大まかな重ね合わせを調整するだけでも、没入感を保てるだけの大きな心理的効果を得られることが期待される。このため本実施形態は、第一人称視点の主人公役であるアバターの身体と、現実のユーザ90の身体の姿勢の大まかな位置合わせを、操作デバイス50によって実施し、ユーザ90がその自らの意図に応じて操作デバイス50を操作することで、より没入感が高い仮想空間を提供することができる。
図13は、本発明の実施形態において実行される処理の一例を説明するためのフローチャートである。以下では、図13に示すフローチャートを参照して、本発明の詳細な動作について説明する。図13に示すフローチャートの処理が開始されると、以下のステップが実行される。
ステップS10では、情報処理装置10のHMD動き検出部14は、HMD30の加速度センサ34の出力を参照して、HMD30の初期位置を検出する。すなわち、HMD30の3軸方向の初期位置として、例えば、初期ロール角θr0、初期ヨー角θy0、および、初期ピッチ角θp0を検出する。例えば、θr0=0、θy0=0、および、θp0=0である場合には、描画の基準となるロール角θr、ヨー角θy、および、ピッチ角θpは、それぞれ、θr=0、θy=0、および、θp=0に設定される。なお、加速度センサ34の出力ではなく、HMD30に設けられたLED35を点灯させ、これらをマーカとして、画像認識によって初期位置を検出するようにしてもよい。
ステップS11では、ピッチ角修正量設定部11は、ピッチ角修正量θpcの初期値として“0”を代入する。
ステップS12では、アバター生成部15は、ステップS10で検出した初期位置としてのロール角θr、ヨー角θy、および、ピッチ角θpに基づいて、ユーザ90のアバター画像を生成する処理を実行する。例えば、図7の例では、アバター生成部15は、ユーザ90のアバターの体の一部に装着されるフィン100の画像を生成する。
ステップS13では、VR空間画像生成部13は、ステップS10で検出した初期位置としてのロール角θr、ヨー角θy、および、ピッチ角θpに基づいて、VR空間画像を生成する処理を実行する。例えば、図7の例では、海中の環境を示す画像を生成するとともに、ステップS12で生成したアバター画像を重畳して、VR空間画を生成する。
ステップS14では、VR空間画像生成部13は、ステップS13で生成したVR空間画像をHMD30に対して出力する。この結果、HMD30では、例えば、通信部36がVR空間画像を受信し、プロセッサ31に供給する。プロセッサ31は、通信部36から供給されるVR空間画像をディスプレイ33に表示する。
ステップS15では、HMD動き検出部14は、HMD30の加速度センサ34から供給される情報を参照して、HMD30の位置を検出する。より詳細には、HMD動き検出部14は、図5に示すロール軸方向、ヨー軸方向、および、ピッチ軸方向の動きを検出する。
ステップS16では、ピッチ角修正量設定部11は、入力部12から入力される情報を参照し、操作デバイス50の操作部503に対して、ピッチアップまたはピッチダウンの操作がされたか否かを判定し、操作がされたと判定した場合(ステップS16:Y)にはステップS17に進み、それ以外の場合(ステップS16:N)にはステップS18に進む。例えば、操作部503がユーザの親指等によって回転された場合にはYと判定してステップS17に進む。
ステップS17では、ピッチ角修正量設定部11は、ステップS16で検出した操作デバイス50の操作部503に対する操作量に応じてピッチ角修正量θpcを更新する処理を実行する。例えば、図9の例では、一例として、操作部503の操作量に応じた“-35度”が入力されるので、ピッチ角修正量θpc=-35に設定される。操作部503の操作量からピッチ角修正量θpcへの変換については、例えば、システムのオプション画面等でその感度を調整できることが望ましい。
ステップS18では、VR空間画像生成部13は、ステップS17において更新されたピッチ角修正量に応じてピッチ角を修正する処理を実行する。例えば、前述した図9の例では、ピッチ角修正量θpc=-35であるので、VR空間画像生成部13は、ピッチ角θpを-35度修正する処理(θp←θp+θpcとする処理)を実行する。
ステップS19では、アバター生成部15は、ステップS18で修正されたピッチ角に基づいて、ユーザ90のアバター画像を生成する処理を実行する。例えば、前述した図9の例では、アバター生成部15は、ステップS18で修正されたピッチ角θpに基づいて、ユーザ90のアバターの体の一部に装着されるフィン100の画像を生成する。
ステップS20では、VR空間画像生成部13は、VR空間画像を生成する処理を実行する。例えば、前述した図9の例では、ステップS18で修正されたピッチ角θpに基づいて、海中の環境を示す画像を生成するとともに、鮫110の画像を生成する。そして、これらの画像に対して、ステップS12で生成したアバター画像を重畳して、VR空間画を生成する。
ステップS21では、VR空間画像生成部13は、ステップS20で生成したVR空間画像をHMD30に対して出力する。この結果、HMD30では、例えば、通信部36がVR空間画像を受信し、プロセッサ31に供給する。プロセッサ31は、通信部36から供給されるVR空間画像をディスプレイ33に表示する。この結果、図9に示すように、アバター画像であるフィン100と、鮫110の位置が適切に調整されたVR空間画像がHMD30のディスプレイ33に表示される。前述したように、人間の脳はVR空間内の主人公役と自己との間で身体感覚の転移を起こし、身体所有感を持つことが知られている。その時、仮想空間上で提供される主人公の身体に関する視覚的表現が、自分の身体が本来あるべき位置と近ければ近いほどその感覚を得やすいという性質がある。このため、ピッチ角θpを修正することで、例えば、図9の例では、フィン100に対する身体所有感を強めることができる。これにより、鮫110の攻撃を自身に対する攻撃と強く認識することができるため、VR空間への没入感を高めることができる。
ステップS22では、VR空間画像生成部13は、処理を終了するか否かを判定し、処理を終了すると判定した場合(ステップS22:Y)には処理を終了し、それ以外の場合(ステップS22:N)にはステップS15に戻って前述の場合と同様の処理を繰り返す。
以上の処理によれば、例えば、図8に示すように、アバター画像の一部であるフィン100の位置と、ユーザ90の足の位置とが一致していない場合には、操作デバイス50の操作部503を操作することでピッチ角θpを修正し、図9に示すように、これらを一致させることで、VR空間への没入感を高めることができる。
(C)変形実施形態の説明
以上の実施形態は一例であって、本発明が上述したような場合のみに限定されるものでないことはいうまでもない。例えば、前述した実施形態では、図5に示すような操作デバイス50を用いる場合を例に挙げて説明したが、例えば、図14または図15に示す操作デバイス50A,50Bを用いるようにしてもよい。図14は、レバー型の操作部503Aを有する操作デバイス50Aの例である。すなわち、図14の例では、操作部503Aをユーザ90の親指等で操作することにより、ピッチ角を修正することができる。なお、操作部503Aを連続して操作した場合には、操作部503Aの操作量(傾き)に応じた所定の速度(例えば、最大限操作した場合には5度/秒)でピッチ角が変化するようにできる。
図15は、ボタン型の操作部503B,503Cを有する操作デバイス50Bの構成例である。すなわち、図15の構成例では、ピッチアップする場合には操作部503Bを操作し、ピッチダウンする場合には操作部503Cを操作することで所望の角度に調整することができる。なお、操作部503B,503Cを連続して操作した場合には、所定の速度(例えば、5度/秒)でピッチ角が変化するようにできる。なお、図5、図14、および、図15に示す操作デバイスでは、前後方向をピッチ角と対応させて調整を行うようにしたが、ユーザの上下方向とピッチ角とを対応させて調整を行うようにしてもよい。
また、VR空間への没入感の喪失を避けるためには、前述した操作デバイス50,50A,50Bを用いることが望ましいが、システムの構成を簡易化する等の目的で操作デバイスを使用しない場合には、代替手段としてVR空間内に、例えば、図16に示すような操作画面を表示し、この操作画面からピッチ角修正量の入力を受けるようにしてもよい。
より詳細には、HMD30または情報処理装置10に付属されている、VR空間内のオブジェクトを操作または指定するためのポインティングデバイスを利用し、図16に示す操作画面を操作するようにしてもよい。
図16の表示例では、画面の左右端の一定の幅の帯内(以下、「ゲージ表示領域」と称する)をポインティングデバイスでクリックすることで、ピッチ角調整ゲージが一定時間(例えば10秒間)表示され、さらにそのゲージ上の一点をクリックすることで、ピッチ量(増減量)を指定できるようにする。ゲージの上方がピッチアップ、下方がピッチダウンとすることが望ましい。ゲージの数直線が表現するピッチ量は、例えば、プラス45度(ピッチアップ)からマイナス45度(ピッチダウン)の範囲とすることが考えられる。
図16の場合も、操作デバイス50の場合と同様に、システムのオプション画面で感度(ゲージが表すピッチ角修正量の大きさ)を調整できることが望ましい。ゲージ上の一点がクリックされた際には、ピッチ角調整を反映した後に、再度同じ時間(前述の例では10秒間)ゲージの表示とクリックの受け付けを継続する。これにより、ユーザがピッチ角調整を何度か繰り返して、好適な角度に微調整をすることが可能となる。
ピッチ角調整ゲージは、仮想空間の明暗に影響されないよう、非透過色で描画されることが好ましい。また標準的には左右両端にゲージ表示領域を設けるが、オプション設定により、左右片側だけにしか設置しないことも、ユーザの好みにより選択できることが望ましい。また、ピッチ角調整ゲージの範囲外の一点をクリックした場合でも有効な入力として取り扱い、ピッチ角調整を行うようにすることもできる。これにより、仮想空間内で興味のあるオブジェクトをクリックし、それが視線正面になるようにピッチ角を調整することが可能となる。
図17は、図16に示す表示画面に基づいて、ピッチ角修正量を設定するためのフローチャートの一例である。なお、図17において、図13に示すフローチャートと対応する部分には同一の符号を付してその説明を省略する。図17では、図13と比較すると、ステップS16が除外され、ステップS30~S32が新たに追加されている。このため、以下では、ステップS30~S32を中心に説明する。
ステップS30では、ピッチ角修正量設定部11は、ポインティングデバイスによってVR空間の一点が指定されたか否かを判定し、指定されたと判定した場合(ステップS30:Y)にはステップS31に進み、それ以外の場合(ステップS30:N)にはステップS18に進む。例えば、図16において、画面の左右端のゲージ表示領域がポインティングデバイスでクリックされた後、ゲージ上の一点がクリックされた場合には、Yと判定してステップS31に進む。
ステップS31では、ピッチ角修正量設定部11は、クリックされた点を特定する。例えば、図16において、ポインティングデバイスによりクリックされたゲージ上の一点を特定する。
ステップS32では、ピッチ角修正量設定部11は、指定された点からピッチ角修正量θpcを算出する。例えば、図16において、ポインティングデバイスによりクリックされたゲージ上の一点の位置からピッチ角修正量θpcを算出する。
ステップS17では、ピッチ角修正量設定部11は、ステップS32で算出したピッチ角修正量θpcによって、既存のピッチ角修正量θpcを更新する。
以上の処理により、図16に示す表示画面を用いてピッチ角修正量を更新することができる。このような変形実施形態によれば、新たな操作デバイスを追加することなく、既存のポインティングデバイスを利用してピッチ角修正量を設定することができる。
また、以上の実施形態では、ピッチ角修正量は、ユーザがマニュアル操作で入力するようにしたが、制作者等の意図に基づき、提示するアバターの姿勢が変化する場合には、自動的に調整するようにしてもよい。具体的には、VR空間画像を生成するデータの中に、アバターの姿勢を示す情報を格納しておき、アバターの姿勢を示す情報に基づいて、ピッチ角修正量を自動的に更新するようにしてもよい。
図18は、このような処理を実現するためのフローチャートである。なお、図18において、図13と対応する部分には同一の符号を付してその説明を省略する。図18では、図13と比較すると、ステップS50およびステップS51の処理が追加されている。これら以外は、図13と同様であるので、以下では、ステップS50およびステップS51の処理を中心に説明する。なお、以下の処理を実現するためには、前提として、VR空間画像を生成するデータに対して、例えば、アバターの姿勢に対応したピッチ角修正量を予め埋め込んでおく必要がある。
ステップS50では、ピッチ角修正量設定部11は、現在提示されているVR空間画像のシーンに対応するピッチ角修正量θpcを、例えば、VR空間画像生成部13から取得する。例えば、当該シーンにおいて提示されるアバターの姿勢に応じて、VR空間画像を生成するためのデータに予め埋め込まれているピッチ角修正量θpcを取得する。VR空間画像のシーンが変化して、制作者等の意図に基づき、アバターの姿勢が変化する場合には、ピッチ角修正量θpcが変化する。このため、ピッチ角修正量θpcが変化した場合には、新たなピッチ角修正量θpcが、例えば、VR空間画像生成部13またはアバター生成部15から取得される。
ステップS51では、ピッチ角修正量設定部11は、ステップS50で取得されたピッチ角修正量θpcによって既存のピッチ角修正量θpcを更新する。例えば、直前のシーンのピッチ角修正量がθpc1であり、新たなシーンのピッチ角修正量がθpc2である場合、ピッチ角修正量θpc2を新たに設定する。
ステップS16およびステップS17では、例えば、前述した操作デバイス50の操作に応じてピッチ角修正量が設定される。なお、ステップS17では、ステップS51で更新されたピッチ角修正量θpcに対して、操作デバイス50の操作に応じた値を増減することで、ピッチ角修正量θpcを設定することができる。
以上の処理によれば、シーンが変化する毎に、自動的にピッチ角を修正できるので、ユーザ90がマニュアル操作でピッチ角修正量を設定する手間をおおよそ省略でき、ユーザ90は操作デバイス50の操作で微修正のみを行えば良いようにできる。
なお、以上に示す実施形態では、VR空間画像をコンピュータグラフィックスによって描画する場合を例に挙げて説明したが、本発明は、コンピューグラフィックスに限定されるものではなく、例えば、全天周映像を撮像できるカメラで撮像した実写画像を用いるようにしてもよい。すなわち、イメージベースレンダリングまたはイメージベースモデリングに対して、本発明を適用するようにしてもよい。なお、実写画像を用いる場合には、実写画像にアバターが含まれるので、その場合には、図2に示す構成から、アバター生成部15を除外することができる。もちろん、全天周(360°)映像ではなく、180°映像を用いるようにしてもよい。
また、図18に示す変形実施形態では、VR空間画像を生成するデータに対して、シーンに応じたピッチ角修正量を埋め込むようにしたが、例えば、提示するVR空間画像が、コンピュータグラフィックスではなく、撮影された画像の場合には、画像に含まれる主人公の画像のピッチ角修正量を埋め込むのではなく、図3に示す構成に画像解析処理部を追加し、画像解析処理部による解析処理によって、適切なピッチ角修正量を画像から特定し、特定されたピッチ角修正量を設定するようにしてもよい。
また、以上の実施形態では、図13等に示す処理が、情報処理装置10で実行されるようにしたが、情報処理装置10の構成をHMD30に組み込み、図13等に示す処理を、HMD30で実行するようにしてもよい。
また、図1に示す構成例では、ネットワーク70およびサーバを有するようにしたが、ネットワーク70を含まない構成としてもよい。また、サーバに格納される情報を、情報処理装置10またはHMD30に格納するようにしてもよい。
また、以上の実施形態では、ピッチ角を調整するようにしたが、必要に応じて、ヨー角およびロール角を調整できるようにしてもよい。
10 情報処理装置
11 ピッチ角修正量設定部
12 入力部
13 VR空間画像生成部
14 HMD動き検出部
15 アバター生成部
16 通信部
30 HMD
31 プロセッサ
32 メモリ
33 ディスプレイ
34 加速度センサ
35 LED
36 通信部
37 スピーカ
38 マイク
50,50A,50B 操作デバイス
51 プロセッサ
52 メモリ
53 操作量検出部
54 センサ群
55 通信部
56 振動部
70 ネットワーク
90 ユーザ
92 ソファ
100 フィン
110 鮫
120 犬
501 本体部
502 平面部
503,503A,503B,503C 操作部

Claims (8)

  1. ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理装置において、
    前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力手段と、
    前記第1入力手段が入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成手段と、
    前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力手段と、
    前記第2入力手段が入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正手段と、
    前記修正手段によってピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示手段と、
    を有することを特徴とする情報処理装置であって、
    前記修正手段は、前記第2入力手段から入力された前記修正情報に基づいて、ピッチ方向の角度の修正量を示すゲージを前記仮想空間の一部に表示する、
    情報処理装置
  2. 前記第2入力手段から入力された前記修正情報を記憶する記憶手段を有し、
    前記修正手段は、前記記憶手段に記憶された前記修正情報に基づいて前記仮想空間のピッチ方向の角度を修正する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記修正手段は、ピッチ方向の修正角度を新たに指定する場合には、前記記憶手段に記憶されている前記修正情報の前回値を初期値として、前記仮想空間のピッチ方向の角度の修正値を指定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記デバイスは、前記ユーザの前後方向または上下方向に対応する方向に関する操作が可能な操作部を有し、
    前記修正手段は、前記操作部の前記前後方向または上下方向に対応する方向に関する操作量を参照して、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、
    ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記デバイスは、前記仮想空間内の少なくとも1点を指定可能であり、
    前記修正手段は、前記デバイスによって指定された位置を参照し、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、
    ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  6. 前記仮想空間における前記身体画像のピッチ方向の角度を取得する取得手段を有し、
    前記修正手段は、前記取得手段によって取得されたピッチ方向の角度を参照して、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する、
    ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理方法において、
    前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力ステップと、
    前記第1入力ステップにおいて入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成ステップと、
    前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力ステップと、
    前記第2入力ステップにおいて入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正ステップと、
    前記修正ステップにおいてピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示ステップと、
    を有することを特徴とする情報処理方法であって、
    前記修正ステップにおいて、入力された前記修正情報に基づいて、ピッチ方向の角度の修正量を示すゲージを前記仮想空間の一部に表示する、
    情報処理方法
  8. ユーザの頭部に装着されたディスプレイに仮想空間を提示する情報処理をコンピュータに機能させる前記コンピュータが読み取り可能なプログラムにおいて、
    前記コンピュータを、
    前記ユーザの頭部の動きを検出するセンサからの検出情報を入力する第1入力手段、
    前記第1入力手段が入力した検出情報に応じて、前記ユーザの身体の少なくとも一部を示す身体画像を含む前記仮想空間を生成する生成手段、
    前記ユーザの頭部のピッチ方向の角度を修正する操作が行われるデバイスからの修正情報を入力する第2入力手段、
    前記第2入力手段が入力した前記修正情報に基づいて、前記ディスプレイに前記仮想空間を提示する際のピッチ方向の角度を修正する修正手段、
    前記修正手段によってピッチ方向の角度が修正された前記仮想空間を前記ディスプレイに提示する提示手段、
    として機能させることを特徴とするプログラムであって、
    前記修正手段は、前記第2入力手段から入力された前記修正情報に基づいて、ピッチ方向の角度の修正量を示すゲージを前記仮想空間の一部に表示する、
    プログラム
JP2019230436A 2019-03-31 2019-12-20 情報処理装置、情報処理方法、および、プログラム Active JP7305185B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019230436A JP7305185B2 (ja) 2019-03-31 2019-12-20 情報処理装置、情報処理方法、および、プログラム
JP2023102053A JP2023126252A (ja) 2019-03-31 2023-06-21 情報処理装置、情報処理方法、および、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019069568A JP6664778B1 (ja) 2019-03-31 2019-03-31 情報処理装置、情報処理方法、および、プログラム
JP2019230436A JP7305185B2 (ja) 2019-03-31 2019-12-20 情報処理装置、情報処理方法、および、プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019069568A Division JP6664778B1 (ja) 2019-03-31 2019-03-31 情報処理装置、情報処理方法、および、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023102053A Division JP2023126252A (ja) 2019-03-31 2023-06-21 情報処理装置、情報処理方法、および、プログラム

Publications (3)

Publication Number Publication Date
JP2020170501A JP2020170501A (ja) 2020-10-15
JP2020170501A5 JP2020170501A5 (ja) 2022-04-08
JP7305185B2 true JP7305185B2 (ja) 2023-07-10

Family

ID=87072433

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019230436A Active JP7305185B2 (ja) 2019-03-31 2019-12-20 情報処理装置、情報処理方法、および、プログラム
JP2023102053A Pending JP2023126252A (ja) 2019-03-31 2023-06-21 情報処理装置、情報処理方法、および、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023102053A Pending JP2023126252A (ja) 2019-03-31 2023-06-21 情報処理装置、情報処理方法、および、プログラム

Country Status (1)

Country Link
JP (2) JP7305185B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010486A (ja) 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010486A (ja) 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム

Also Published As

Publication number Publication date
JP2020170501A (ja) 2020-10-15
JP2023126252A (ja) 2023-09-07

Similar Documents

Publication Publication Date Title
US20220101593A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
JP6511386B2 (ja) 情報処理装置および画像生成方法
US10223064B2 (en) Method for providing virtual space, program and apparatus therefor
JP2020522795A (ja) 眼追跡較正技術
US11663737B2 (en) Information processing apparatus and representative coordinate derivation method
JP2011258159A (ja) プログラム、情報記憶媒体及び画像生成システム
WO2020039568A1 (ja) 画像生成装置および画像生成方法
US11880502B2 (en) Information processing device, information processing method, and non-transitory computer readable storage medium storing an information processing program
JP7488867B2 (ja) プログラムおよびシステム
US20180299948A1 (en) Method for communicating via virtual space and system for executing the method
WO2019065846A1 (ja) プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
JP2023501079A (ja) 共有人工現実環境における同じ場所での姿勢推定
TW202104974A (zh) 視角校正方法、虛擬實境顯示系統與運算裝置
JP7367689B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2020017435A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200342621A1 (en) Information processing apparatus and device information derivation method
JP7305185B2 (ja) 情報処理装置、情報処理方法、および、プログラム
JP6820299B2 (ja) プログラム、情報処理装置、および方法
JP2023116432A (ja) アニメーション制作システム
JP6535699B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
US20230360316A1 (en) Information processing device, information processing method, and information distribution system
GB2582106A (en) Display device and display device control method
JP2016005007A (ja) ヘッドマウントディスプレイおよび画像処理装置
US20220036622A1 (en) Animation production system
JP7111848B2 (ja) プログラム、情報処理装置、および方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230621

R150 Certificate of patent or registration of utility model

Ref document number: 7305185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150