JP7259717B2 - 表示制御方法、表示制御プログラムおよび表示制御装置 - Google Patents

表示制御方法、表示制御プログラムおよび表示制御装置 Download PDF

Info

Publication number
JP7259717B2
JP7259717B2 JP2019215719A JP2019215719A JP7259717B2 JP 7259717 B2 JP7259717 B2 JP 7259717B2 JP 2019215719 A JP2019215719 A JP 2019215719A JP 2019215719 A JP2019215719 A JP 2019215719A JP 7259717 B2 JP7259717 B2 JP 7259717B2
Authority
JP
Japan
Prior art keywords
virtual space
user
marker
vertical axis
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019215719A
Other languages
English (en)
Other versions
JP2021086452A (ja
Inventor
聖美 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019215719A priority Critical patent/JP7259717B2/ja
Publication of JP2021086452A publication Critical patent/JP2021086452A/ja
Application granted granted Critical
Publication of JP7259717B2 publication Critical patent/JP7259717B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、表示制御方法、表示制御プログラムおよび表示制御装置に関する。
従来、HMD(Head Mounted Display)などによりユーザーに仮想空間を現実的に視覚させるVR(Virtual Reality)表示が知られており、このVR表示はゲームや3DCAD(CAD:Computer Aided Design)を用いた設計現場などに用いられている。
VR表示中のユーザーは、仮想空間内の移動先を指定することで、実世界での移動なしに、仮想空間内を移動する。VR表示中のユーザーの移動に関する技術としては、HMDを装着したユーザーに仮想空間の視界画像を提供し、ユーザーが注視したオブジェクトに対応する仮想空間上の位置に視点を移動させる従来技術がある。また、仮想空間の移動を補助するための副画面内に仮想空間の平面図を表示して移動指示を受け付ける従来技術がある。
特開2018-147334号公報 特開2001-338311号公報
しかしながら、上記の従来技術では、仮想空間内で上下方向へ移動先を指定する際に、仮想空間内における現在の高さや移動後の高さをユーザーが把握しづらいという問題がある。
1つの側面では、仮想空間内の上下移動を支援できる表示制御方法、表示制御プログラムおよび表示制御装置を提供することを目的とする。
1つの案では、表示制御方法は、表示装置に表示する処理と、縦軸を表示する処理と、縦軸上に表示する処理とをコンピュータが実行する。表示装置に表示する処理は、仮想空間をユーザーに視覚させるVR画像を表示装置に表示する。縦軸を表示する処理は、仮想空間内における上下方向への移動開始の第一の指示に応じて、VR画像内に仮想空間の上下方向を示す縦軸を表示する。縦軸上に表示する処理は、第一の指示の後に移動決定の第二の指示の間に受け付けるユーザーの操作に応じて、仮想空間におけるユーザーの高さ位置を示す第1のマーカーと、ユーザーの操作に基づく仮想空間の上下方向における移動先の高さ位置を示す第2のマーカーとを縦軸上に表示する。また、表示装置に表示する処理は、第二の指示を受け付けた場合、第二の指示で指定された仮想空間の上下方向における移動先の高さ位置に対応するVR画像を、表示装置に表示する。
仮想空間内の上下移動を支援できる。
図1は、実施形態にかかる表示制御装置の機能構成例を示すブロック図である。 図2は、HMD装置で再現される仮想空間を説明する説明図である。 図3は、実施形態にかかる表示制御装置の動作例を示すフローチャートである。 図4は、UI表示処理の一例を示すフローチャートである。 図5Aは、横方向から俯瞰した仮想空間の一例を示す説明図である。 図5Bは、VR表示の一例を示す説明図である。 図6Aは、横方向から俯瞰した仮想空間の一例を示す説明図である。 図6Bは、VR表示の一例を示す説明図である。 図7Aは、VR表示の一例を示す説明図である。 図7Bは、VR表示の一例を示す説明図である。 図8Aは、横方向から俯瞰した仮想空間の一例を示す説明図である。 図8Bは、VR表示の一例を示す説明図である。 図9Aは、横方向から俯瞰した仮想空間の一例を示す説明図である。 図9Bは、VR表示の一例を示す説明図である。 図10は、プログラムを実行するコンピュータの一例を示すブロック図である。
以下、図面を参照して、実施形態にかかる表示制御方法、表示制御プログラムおよび表示制御装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する表示制御方法、表示制御プログラムおよび表示制御装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
図1は、実施形態にかかる表示制御装置の機能構成例を示すブロック図である。図1に示すように、表示制御装置4には、HMD装置1と、操作入力装置2と、センサ装置3とが無線通信等により接続される。表示制御装置4は、例えば、PC(Personal Computer)などの情報処理装置を適用できる。なお、本実施形態では、HMD装置1と、表示制御装置4とを別筐体としているが、表示制御装置4は、HMD装置1に内蔵されていてもよい。すなわち、HMD装置1内のコンピュータが表示制御装置4としての機能を提供してもよい。
HMD装置1は、表示制御装置4の制御のもと、ユーザーに対して仮想空間を現実的に視覚させるVR表示を行う装置である。例えば、HMD装置1は、ユーザーが頭部に装着して使用する没入型の装置であり、ユーザーの装着時における両目位置にはLCD(Liquid Crystal Display)などが設けられている。
図2は、HMD装置1で再現される仮想空間を説明する説明図である。図2に示すように、HMD装置1は、表示制御装置4の制御のもと、ユーザー5の視界に合わせて、ユーザー5の両目に仮想空間40および仮想空間40内に配置された仮想構造物41を再現したVR画像を表示する。これにより、HMD装置1は、ユーザー5に対して仮想空間40および仮想空間40内の仮想構造物41を現実的に視覚させる。
例えば、本実施形態では、工場内を再現した仮想空間40と、工場内においてパレットに積まれた製造物を再現した仮想構造物41とを例示し、ユーザー5は、仮想空間40および仮想構造物41等のVR表示により工場内を仮想的に体験できる構成としている。なお、VR表示により仮想的に体験できるものは、工場内に限定するものではなく、例えば、ゲーム内における仮想空間40および仮想構造物41を仮想的に体験できる構成であってもよい。
また、ユーザー5に対する、仮想空間40を再現したVR画像の表示(VR表示)は、HMD装置1を用いる構成に限定しない。例えば、ユーザー5の周囲に配置したスクリーンに対し、プロジェクターより図2に例示した仮想空間40および仮想構造物41に関する画像を投射することで、VR表示を行う構成であってもよい。
操作入力装置2は、ユーザー5による入力操作を受け付ける装置であり、例えばユーザー5が手に持って使用するスティック型の装置などがある。例えば、操作入力装置2は、ジャイロセンサーにより操作入力装置2の姿勢を検知することで、ユーザー5が指し示す方向(操作入力装置2を向けた方向)を入力操作として受け付ける。また、操作入力装置2は、ユーザー5によるボタンの押下操作などを入力操作として受け付ける。操作入力装置2は、ユーザー5より受け付けた入力操作を、例えば無線通信などを介して表示制御装置4へ通知する。
なお、操作入力装置2は、ユーザー5が手に持って使用する形式の装置に限定しない。例えば、操作入力装置2は、ユーザー5を撮影した画像の画像認識により、ユーザー5のジェスチャーによる入力操作を受け付ける装置であってもよい。また、操作入力装置2は、ユーザー5が発する音声の音声認識により、音声コマンドに応じた入力操作を受け付ける装置であってもよい。
センサ装置3は、HMD装置1および操作入力装置2に関するセンサ情報(現実空間におけるHMD装置1および操作入力装置2の位置および向きなど)を検出する装置である。例えば、センサ装置3は、複数の異なる方向から同時に撮影することにより、HMD装置1および操作入力装置2の位置および向きの情報を取得するステレオカメラであってもよい。また、センサ装置3は、HMD装置1および操作入力装置2との通信により距離を測定する複数の通信装置であり、求めた距離をもとに三角測量法によりHMD装置1および操作入力装置2の位置および向きの情報を取得してもよい。また、センサ装置3は、HMD装置1および操作入力装置2に設けられたジャイロセンサーにより、HMD装置1および操作入力装置2の向きの情報を取得してもよい。センサ装置3は、取得したセンサ情報を表示制御装置4へ通知する。
表示制御装置4は、通信部10、記憶部20および制御部30を有する。通信部10は、制御部30の制御のもと、接続する外部機器(HMD装置1、操作入力装置2およびセンサ装置3)との通信を行う。
記憶部20は、HDD(Hard Disk Drive)や半導体メモリ装置などの記憶装置であり、空間情報21、オブジェクト情報22および設定情報23を記憶する。
空間情報21は、仮想空間40を定義するためのテンプレート情報である。例えば、空間情報21は、工場内の各フロアにおける床、壁、天井などの配置を示す3次元見取り図である。
オブジェクト情報22は、仮想空間40内に配置するオブジェクトである仮想構造物41の形状、配置位置(仮想空間40内における3次元の位置情報)などを示す情報である。例えば、オブジェクト情報22には、仮想構造物41の3DCADデータなどが含まれる。
設定情報23は、ユーザー5などが予め設定した情報であり、例えばVR表示における初期設定の情報などが含まれる。例えば、設定情報23は、VR表示を開始する際の、仮想空間40内におけるユーザー5の立ち位置の情報(仮想空間40内における3次元の位置情報)などがある。
制御部30は、表示制御装置4の動作を制御する処理部である。制御部30は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。
制御部30は、仮想空間構築部31、取得部32、視界設定部33、VR画像表示処理部34、UI表示処理部35および出力部36を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部30の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
仮想空間構築部31は、仮想空間40を構築する処理部である。具体的には、仮想空間構築部31は、空間情報21をもとに、例えば工場内の各フロアにおける床、壁、天井を配置した仮想空間40を構築する。次いで、仮想空間構築部31は、オブジェクト情報22をもとに、仮想空間40内の所定の位置に仮想構造物41を配置する。また、仮想空間構築部31は、VR表示開始時において、設定情報23に含まれるユーザー5の立ち位置の情報をもとに仮想空間40内にユーザー5を配置する。
取得部32は、センサ装置3より入力操作やセンサ情報を取得する処理部である。具体的には、取得部32は、ユーザー5によるボタン操作などの入力操作を取得する。また、取得部32は、HMD装置1および操作入力装置2に関するセンサ情報(現実空間におけるHMD装置1および操作入力装置2の位置および向きなど)を取得する。
視界設定部33は、仮想空間40内におけるユーザー5の視点位置および視点位置からの視野範囲等の、仮想空間40に対するユーザー5の視界に関する設定を行う処理部である。
具体的には、視界設定部33は、取得したセンサ情報に含まれる現実空間におけるHMD装置1の位置をもとに、HMD装置1の床面からの高さを加えるなどして、仮想空間40内におけるユーザー5の立ち位置に立って仮想空間40を眺める場合の視点位置を求める。次いで、視界設定部33は、取得したセンサ情報に含まれる現実空間におけるHMD装置1の向きをもとに、視点位置からの視野範囲(視野角)を求める。視界設定部33は、求めた視点位置および視野範囲を、仮想空間40内におけるユーザー5の視界として設定する。
VR画像表示処理部34は、ユーザー5に対して仮想空間40および仮想空間40内の仮想構造物41を現実的に視覚させるためのVR画像を生成し、生成したVR画像をHMD装置1より表示する処理部である。なおVR画像の作成には、HMD装置1に付随するVR画像作成用のAPI(Application Programming Interface)など、公知のVR画像作成技術を用いてもよい。
例えば、VR画像表示処理部34は、視界設定部33が設定したユーザー5の視界をもとに、仮想空間構築部31により仮想構造物41が配置された仮想空間40内における、視点位置を中心とした3次元の視野座標系を求める。次いで、VR画像表示処理部34は、求めた視野座標系より、仮想空間40および仮想空間40内に配置された仮想構造物41を視野範囲で俯瞰した場合の両目それぞれに対応するVR画像を作成する。
UI表示処理部35は、操作入力装置2によるユーザー5からの入力操作に応じて、VR画像内に各種操作を受け付けるためのUI(User Interface)表示を行う処理部である。例えば、UI表示処理部35は、操作入力装置2において所定の操作を開始するためのボタン操作などがあった場合、VR画像内において対応する操作に関連するUIの表示部品を表示する。
具体的には、仮想空間40内の平面方向への移動(水平移動)を開始するためのボタン操作などがあった場合、UI表示処理部35は、仮想空間40内における水平移動の先を示すポインターを、操作入力装置2が向けられた方向に対応してVR画像内に表示する。
また、仮想空間40内の上下方向への移動を開始するためのボタン操作などがあった場合、UI表示処理部35は、上下方向への移動指示を受け付けるためのUIの表示部品をVR画像内に表示する。
具体的には、UI表示処理部35は、VR画像内に仮想空間40の上下方向を示す縦軸を、例えば表示制御装置4の立ち位置から数メートル先に表示する。また、UI表示処理部35は、上下方向を示す縦軸上に、仮想空間40における現在のユーザー5の高さ位置を示す移動元マーカーと、仮想空間40の上下方向における移動先の高さ位置を示す移動先マーカーとを表示する。この移動先マーカーは、水平移動の場合のポインターと同様、操作入力装置2が向けられた方向に対応して縦軸上の高さ位置が変動する。
これにより、ユーザー5は、仮想空間40内における現在の高さと、移動後の高さとを確認しながら、移動先マーカーの位置を調整して高さの設定を行うことができる。
出力部36は、HMD装置1や操作入力装置2を介してユーザー5への報知に関する出力処理を行う処理部である。具体的には、出力部36は、HMD装置1に表示するVR画像内に所定の画像を重畳するなどして、ユーザー5への報知を行う。また、出力部36は、操作入力装置2のバイブレーション機構を動作させるなどして、ユーザー5への報知を行う。
図3は、実施形態にかかる表示制御装置4の動作例を示すフローチャートである。図3に示すように、処理が開始されると、仮想空間構築部31は、空間情報21をもとに仮想空間40を構築する(S1)。
次いで、仮想空間構築部31は、オブジェクト情報22および設定情報23をもとに、構築した仮想空間40内に各種のオブジェクトを配置する初期配置を行う(S2)。具体的には、仮想空間構築部31は、オブジェクト情報22より、構築した仮想空間40の所定の位置に仮想構造物41を配置する。また、仮想空間構築部31は、設定情報23に含まれるユーザー5の立ち位置の情報をもとに仮想空間40内にユーザー5を配置する。
次いで、取得部32は、HMD装置1および操作入力装置2に関するセンサ情報(現実空間におけるHMD装置1および操作入力装置2の位置および向きなど)を取得する(S3)。
次いで、視界設定部33は、仮想空間40に対するユーザー5の視界に関する設定を行う(S4)。具体的には、視界設定部33は、取得したセンサ情報に含まれる現実空間におけるHMD装置1の位置をもとに、仮想空間40内におけるユーザー5の立ち位置(初期配置時の立ち位置または移動後の立ち位置)における視点位置を求める。次いで、視界設定部33は、取得したセンサ情報に含まれる現実空間におけるHMD装置1の向きをもとに、視点位置からの視野範囲を求め、求めた視点位置および視野範囲をユーザー5の視界として設定する。
次いで、VR画像表示処理部34は、S4で設定したユーザー5の視界をもとに、その視界において仮想空間40および仮想空間40内の仮想構造物41を現実的に視覚させるためのVR画像を生成する(S5)。次いで、VR画像表示処理部34は、生成したVR画像をHMD装置1よりユーザー5に表示する(S6)。
次いで、UI表示処理部35は、取得部32が取得した入力操作をもとに、仮想空間40内の上下方向への移動を開始するか否かを判定する(S7)。
上下方向への移動を開始しない場合(S7:No)、UI表示処理部35は、入力操作による他の指示に応じたUIの表示処理を行う(S8)。
例えば、UI表示処理部35は、水平移動の開始の指示である場合、操作入力装置2が向けられた方向に対応し、水平移動の先を示すポインターをVR画像内に表示する。このポインターにより移動先が指定された場合、視界設定部33は、指定された移動先を新たな立ち位置としてユーザー5の視界を設定する。次いで、VR画像表示処理部34は、新たな立ち位置でのVR画像を生成し、生成したVR画像をHMD装置1より表示する。これにより、ユーザー5は、仮想空間40内を水平移動したような視覚を得ることができる。
上下方向への移動を開始する場合(S7:Yes)、UI表示処理部35は、上下移動用の表示部品をVR画像内に表示する表示処理を実行する(S9)。
図4は、UI表示処理の一例を示すフローチャートである。より具体的には、図4のフローチャートは、上下移動用の表示部品をVR画像内に表示するUI表示処理の一例を示している。
図4に示すように、UI表示処理が開始されると、UI表示処理部35は、VR画像内に表示するための高さ方向の縦軸を仮想空間40内に配置する(S20)。具体的には、UI表示処理部35は、仮想空間40内におけるユーザー5の立ち位置からユーザー5の正面(視野中心)方向において所定距離おいた所に鉛直方向に伸びる縦軸を配置する。なお、ユーザー5と軸との距離は、設定情報23などに予め設定されていてよく、例えば仮想空間40内のユーザー5が俯瞰した場合に見やすい距離として1メートル程度の値が予め設定される。
次いで、UI表示処理部35は、仮想空間40内におけるユーザー5の現在の高さ位置を取得する(S21)。具体的には、UI表示処理部35は、初期配置からユーザー5が移動していない場合は、設定情報23に設定されたユーザー5の立ち位置より現在の高さ位置を得る。初期配置からユーザー5が移動した場合、UI表示処理部35は、移動後のユーザー5の立ち位置より現在の高さ位置を得る。
次いで、UI表示処理部35は、視界設定部33よりHMD装置1および操作入力装置2に関するセンサ情報を取得する(S22)。次いで、UI表示処理部35は、S20で配置した高さ方向の縦軸上に、仮想空間40における現在のユーザー5の高さ位置と、センサ情報で特定される移動先の高さ位置とを示すマーカーを配置する(S23)。たとえば、ユーザーは操作入力装置2を上下に傾ける操作を実行することで、移動先の高さ位置を仮指定または変更する。
具体的には、UI表示処理部35は、S21で取得した仮想空間40における現在のユーザー5の高さ位置をもとに、現在のユーザー5の高さ位置を示す移動元マーカーを縦軸上に配置する。また、UI表示処理部35は、S22で取得した操作入力装置2に関するセンサ情報に基づく操作入力装置2が指し示す方向と、縦軸とが交差するポイントに、移動先の高さ位置を示す移動先マーカーを配置する。
次いで、UI表示処理部35は、S20で配置した縦軸およびS23で配置したマーカーを含めた仮想空間40のVR画像を生成し(S24)、生成したVR画像をHMD装置1よりユーザー5に表示する(S25)。これにより、ユーザー5は、上下移動用の表示部品が仮想空間40内に存在するように視覚することができる。
図5Aは、横方向から俯瞰した仮想空間40の一例を示す説明図である。図5Bは、VR表示の一例を示す説明図であり、具体的には図5Aにおける視野範囲(一点鎖線の領域)のVR表示例を示す図である。
図5Aに示すように、仮想空間40は、床面42、壁面43、天井面44に囲まれた工場内などであり、床面42にはパレットに積まれた製造物が仮想構造物41として配置されている。また、仮想空間40内におけるユーザー5の立ち位置は、仮想構造物41の手前の入り口付近であり、立ち位置の高さは床面42と同一であるものとする。
図5Aに示すように、仮想空間40内に立つユーザー5が、上下方向の移動を指示した場合、ユーザー5の立ち位置から正面(視野中心)方向において所定距離おいた所に鉛直方向に伸びる縦軸51が配置される。また、縦軸51上には、ユーザー5の立ち位置に対応する高さ位置に移動元マーカー52と、操作入力装置2が指し示すところに移動先マーカー53とが配置される。なお、操作入力装置2に関するセンサ情報に基づき、操作入力装置2が指し示す仮想空間内での高さが特定される。
これにより、図5Bに示すように、ユーザー5に対するHMD装置1のVR表示では、視野範囲の正面に縦軸51が表示される。また、縦軸51上には、ユーザー5の現在の高さ位置を示す移動元マーカー52と、操作入力装置2が指し示す指示線54と縦軸51との交点には移動先マーカー53とが表示される。したがって、ユーザー5は、VR表示された縦軸51と、縦軸51上の移動元マーカー52および移動先マーカー53とにより、仮想空間40内における現在の高さや移動後の高さを容易に把握することができる。
図4に次いで、UI表示処理部35は、HMD装置1および操作入力装置2に関するセンサ情報の更新の有無を判定する(S26)。HMD装置1および操作入力装置2に関するセンサ情報の更新がある場合(S26:Yes)、UI表示処理部35は、更新後のセンサ情報に基づき、VR画像の表示を更新する(S27)。
具体的には、UI表示処理部35は、操作入力装置2に関するセンサ情報に基づく操作入力装置2が指し示す方向に更新がある場合、更新後の方向に応じて仮想空間40内の移動先マーカー53の配置位置を更新することで、VR画像内の移動先マーカー53の表示を更新する。また、UI表示処理部35は、HMD装置1に関するセンサ情報に基づくユーザー5の視界設定の更新がある場合、更新後の視界設定に応じたVR画像を生成することで、VR画像の表示を更新する。
なお、HMD装置1および操作入力装置2に関するセンサ情報の更新がない場合(S26:No)、UI表示処理部35は、S27の処理をスキップする。
次いで、UI表示処理部35は、操作入力装置2の入力操作をもとに、上下移動の指示の有無を判定する(S28)。具体的には、UI表示処理部35は、操作入力装置2の入力操作より移動先マーカー53を移動先とする移動指示(例えばボタン押下)があった場合、上下移動の指示ありと判定する。
上下移動の指示ありの場合(S28:Yes)、UI表示処理部35は、移動先マーカー53が示す高さ位置をもとに移動先の視点位置を決定するものとし(S29)、処理をリターンする。上下移動の指示なしの高さ場合(S28:No)、UI表示処理部35は、移動先の視点位置を決定することなく(現在の高さ位置のままとして)、処理をリターンする。
図3に戻り、S9に次いで、視界設定部33は、S9におけるUI表示処理において移動先の視点位置とするものとして決定した高さ位置(移動先マーカー53が示す高さ位置)をもとに、ユーザー5の視界設定における視点位置(上下方向)を変更する(S10)。
具体的には、視界設定部33は、移動先マーカー53が示す高さ位置をユーザー5の新たな高さ位置とする。次いで、視界設定部33は、取得したセンサ情報に含まれる現実空間におけるHMD装置1の位置をもとに、HMD装置1の床面からの高さを加えるなどして、仮想空間40内における新たなユーザー5の立ち位置に立って仮想空間40を眺める場合の視点位置を求める。
次いで、VR画像表示処理部34は、S10で変更したユーザー5の視界設定をもとに、その視界において仮想空間40および仮想空間40内の仮想構造物41を現実的に視覚させるためのVR画像を生成する(S11)。次いで、VR画像表示処理部34は、生成したVR画像をHMD装置1よりユーザー5に表示する(S12)。これにより、上下移動後のVR表示を行うことができる。
次いで、VR画像表示処理部34は、操作入力装置2の操作入力などにより、VR表示を終了するか否かを判定し(S13)、終了操作などが行われて終了する場合(S13:Yes)は処理を終了する。処理を継続する場合(13:No)、VR画像表示処理部34は、S3へ処理を戻し、VR表示を継続する。
図6Aは、横方向から俯瞰した仮想空間40の一例を示す説明図である。図6Bは、VR表示の一例を示す説明図であり、具体的には図6Aにおける視野範囲(一点鎖線の領域)のVR表示例を示す図である。
図6Aに示すように、仮想構造物41の上面を新たなユーザー5の立ち位置として指示することで、仮想空間40内におけるユーザー5の立ち位置を、床面42から仮想構造物41の上面と同一の高さ位置とすることができる。これにより、図6Bに示すように、ユーザー5は、仮想構造物41の上面と同一の高さ位置に立って仮想空間40内を眺めるように視覚することができる。
なお、UI表示処理部35は、S23において、仮想空間40内の所定の構造物(例えば床面42、天井面44および仮想構造物41など)に関する高さ位置に応じたマーカーを縦軸51上に配置し、VR表示してもよい。
具体的には、UI表示処理部35は、仮想空間構築部31が構築した仮想空間40および仮想構造物41における高さ情報を参照し、床面42、天井面44および仮想構造物41などの所定の構造物の高さ情報を得る。次いで、UI表示処理部35は、取得した高さ情報に対応する縦軸51上の位置に、床面42、天井面44および仮想構造物41に対応するマーカーを配置することで、VR表示を行う。
図7Aは、VR表示の一例を示す説明図である。図7Aに示すように、縦軸51上の床面42に対応する高さ位置には、基準面マーカー55Aが表示される。また、仮想構造物41のパレット上面や仮想構造物41の製造物の上面に対応する高さ位置には、基準面マーカー55B、55Cが表示される。このように、縦軸51上に基準面マーカー55A、55B、55Cを表示することで、ユーザー5は、床面42、仮想構造物41のパレット上面、仮想構造物41の製造物の上面等の仮想空間40内の構造物の高さ位置を容易に把握することができる。
また、UI表示処理部35は、縦軸51上に、目盛り情報を付与してもよい。また、UI表示処理部35は、縦軸51上の目盛りなどに対応する移動先マーカー53の高さ情報を移動先マーカー53に対応付けて表示してもよい。
図7Bは、VR表示の一例を示す説明図である。図7Bに示すように、UI表示処理部35は、移動元を示す移動元マーカー52からの相対的な高さを縦軸51上の高さ目盛り56Aとして付与してもよい。なお、高さ目盛り56Aについては、相対的な高さではなく、仮想空間40における座標情報(絶対的な高さ)であってもよい。また、移動先マーカー53は、縦軸51上の移動先マーカー53が示す高さ情報56Bを、例えば移動先マーカー53からの吹き出しなどのように移動先マーカー53に対応付けて表示してもよい。
また、UI表示処理部35は、S27においてVR画像の表示を更新する際に、移動先マーカー53がユーザー5の視界方向にある不透過面(例えば床面42、天井面44など)を超えた場合に、その不透過面を透過表示としてもよい。具体的には、UI表示処理部35は、更新後のユーザー5の視界が示す視野範囲において、移動先マーカー53が不透過面を跨いでいる場合、その不透過面の表示設定を透過(半透過を含む)の設定とする。
図8Aは、横方向から俯瞰した仮想空間40の一例を示す説明図である。図8Bは、VR表示の一例を示す説明図であり、具体的には図8Aにおける視野範囲(一点鎖線の領域)のVR表示例を示す図である。
図8Aに示すように、ユーザー5が下を向いたことで、ユーザー5の視野範囲は主に表示を不透過とされた床面42にあるものとする。この場合、図8Bに示すように、ユーザー5に対するVR表示では、床面42に隠された床面42下のフロアの様子は不明である。
図9Aは、横方向から俯瞰した仮想空間40の一例を示す説明図である。図9Bは、VR表示の一例を示す説明図であり、具体的には図9Aにおける視野範囲(一点鎖線の領域)のVR表示例を示す図である。
図9Aに示すように、ユーザー5が操作入力装置2を下に向けたことで移動先マーカー53が床面42を超えた下側にあるものとする。このような場合、UI表示処理部35は、床面42を不透過から透過(半透過であってもよい)の表示とする。これにより、図9Bに示すように、ユーザー5は、床面42下にある仮想構造物41Aなど、床面42下のフロアの状況を確認しながら移動先マーカー53による移動先の設定を行うことができる。なお、図示例では、床面42を透過する場合を例示しているが、仮想構造物41や天井面44を透過してもよいことは言うまでもないことである。
また、S27においてVR画像の表示を更新する際に、縦軸51上の移動先マーカー53が他のマーカー(例えば移動元マーカー52、基準面マーカー55A~55C)と重複し、他のマーカーを跨ぐ場合がある。具体的には、上述した不透過面である床面42に対応する基準面マーカー55Aと重複し、跨ぐ場合などがある。このように移動先マーカー53が他のマーカーと重複した場合、出力部36は、移動先マーカー53が他のマーカーと重複したことをユーザー5に対して報知してもよい。これにより、ユーザー5は、移動先マーカー53が他のマーカーと重複した高さ位置であることを容易に把握することができる。
例えば、出力部36は、移動先マーカー53が他のマーカーと重複した場合、操作入力装置2のバイブレーション機構を動作させるなどして、ユーザー5への報知を行ってもよい。また、出力部36は、移動先マーカー53が他のマーカーと重複した場合、HMD装置1に表示するVR画像内の移動先マーカー53および移動先マーカー53と重複したマーカーなどを点滅して表示することで、ユーザー5へ報知してもよい。
以上のように、表示制御装置4は、VR画像表示処理部34と、UI表示処理部35とを有する。VR画像表示処理部34は、仮想空間40をユーザー5に視覚させるVR画像をHMD装置1より表示する。UI表示処理部35は、仮想空間40内における上下方向への移動開始の指示に応じて、VR画像内に仮想空間40の上下方向を示す縦軸51を表示する。また、UI表示処理部35は、上下方向への移動開始の指示の後に移動決定の指示の間に受け付けるユーザーの操作に応じて、仮想空間40におけるユーザー5の高さ位置を示す移動元マーカー52と、仮想空間40の上下方向における移動先の高さ位置を示す移動先マーカー53とを縦軸51上に表示する。また、VR画像表示処理部34は、移動決定の指示を受け付けた場合、移動決定の指示で指定された仮想空間40の上下方向における移動先の高さ位置に対応するVR画像をHMD装置1に表示する。
したがって、ユーザー5は、仮想空間40内における上下方向への移動の際に、VR画像内における縦軸51と、縦軸51上の移動元マーカー52および移動先マーカー53とにより、仮想空間40内における現在の高さや移動後の高さを容易に把握することができる。このように、表示制御装置4は、仮想空間40内におけるユーザー5の上下移動を支援できる。たとえば、大規模設備や工場を仮想空間に再現し、設備設計の検証や、工場の動線の検証を、仮想的に実施したい場合がある。本実施形態は、設計データのCADなどに基づき大規模設備や工場を仮想空間として再現する。そして、本実施形態は、仮想空間内を、水平方向だけでなく、垂直方向にも仮想的に移動することができるため、様々な目線の高さで、設計の検証や動線の検証を実施することができる。さらに、本実施形態は、垂直方向における移動先の高さが仮想空間では把握しにくいという問題を解消可能な支援表示を、VR画像に重畳することで、仮想的な垂直方向の移動を支援する。
また、UI表示処理部35は、仮想空間40内の所定の構造物(例えば仮想構造物41)に関する高さ位置に応じた基準面マーカー55A~55Cを縦軸51上に表示する。したがって、ユーザー5は、仮想空間40内における上下方向への移動の際に、縦軸51上の基準面マーカー55A~55Cにより所定の構造物(例えば仮想構造物41)に関する高さ位置を容易に把握することができる。
また、UI表示処理部35は、移動先マーカー53に対応付けて移動先マーカー53が示す仮想空間40内の高さ情報56Bを表示する。したがって、ユーザー5は、仮想空間40内における上下方向への移動の際に、高さ情報56Bにより移動後の高さ情報を容易に把握することができる。
また、UI表示処理部35は、移動先マーカー53がユーザー5の視界方向にある不透過面(例えば床面42)を超えた場合に、不透過面を透過表示とする。したがって、ユーザー5は、例えば床面42や天井面44を跨いだ上下移動など、ユーザー5の視界方向にある不透過面(床面42や天井面44)を超えて移動しようとする場合であっても、不透過面で隠された仮想空間40の状況を容易に把握することができる。
また、表示制御装置4は、移動先マーカー53が縦軸51上の他のマーカー(例えば移動元マーカー52、基準面マーカー55A~55C)と重複した場合に、重複したことをユーザー5に対して報知する出力部36をさらに有する。したがって、ユーザー5は、移動先とする高さについて、他のマーカーが示す高さ(例えば現在の高さ、所定の構造物の高さなど)と一致するか否かを容易に把握することができる。
また、移動元マーカー52は、ユーザー5の立ち位置の高さを示す。したがって、ユーザー5は、縦軸51上の移動元マーカー52によりユーザー5の立ち位置の高さを容易に把握することができる。
また、縦軸51には所定の高さ位置を示す高さ目盛り56Aが付与される。したがって、ユーザー5は、縦軸51に付与された高さ目盛り56Aにより縦軸51上の所定の高さ位置を容易に把握することができる。
図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、VR画像表示処理部34とUI表示処理部35とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
例えば、本実施形態における仮想空間40内におけるユーザー5の高さ位置は、ユーザー5の立ち位置を基準とするものとしたが、ユーザー5の視点位置を基準としてもよい。すなわち、移動元マーカー52および移動先マーカー53は、ユーザー5の視点位置を基準とする移動元および移動先を示してもよい。この場合、視界設定部33は、視点位置を求める際に、取得したセンサ情報に含まれる現実空間におけるHMD装置1の位置をもとに、HMD装置1の床面からの高さを加えなくてもよい。
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の各実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施形態と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図10は、プログラムを実行するコンピュータの一例を示すブロック図である。
図10に示すように、コンピュータ100は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103とを有する。また、コンピュータ100は、記憶媒体からプログラム等を読み取る媒体読取装置104と、各種装置と接続するためのインタフェース装置105と、他の情報処理装置等と有線または無線により接続するための通信装置106とを有する。また、コンピュータ100は、各種情報を一時記憶するRAM107と、ハードディスク装置108とを有する。また、各装置101~108は、バス109に接続される。
ハードディスク装置108には、図1に示した仮想空間構築部31、取得部32、視界設定部33、VR画像表示処理部34、UI表示処理部35および出力部36の各処理部と同様の機能を実現するためのプログラム108Aが記憶される。また、ハードディスク装置108には、空間情報21、オブジェクト情報22および設定情報23などの各種データが記憶される。入力装置102は、例えば、コンピュータ100の利用者から操作情報等の各種情報の入力を受け付ける。モニタ103は、例えば、コンピュータ100の利用者に対して表示画面等の各種画面を表示する。インタフェース装置105は、例えば印刷装置等が接続される。通信装置106は、図示しないネットワークと接続され、他の情報処理装置と各種情報をやりとりする。
CPU101は、ハードディスク装置108に記憶されたプログラム108Aを読み出して、RAM107に展開して実行することで、コンピュータ100の各機能を実行するプロセスを動作させる。すなわち、このプロセスは、コンピュータ100が有する各処理部と同様の機能を実行する。具体的には、CPU101は、仮想空間構築部31、取得部32、視界設定部33、VR画像表示処理部34、UI表示処理部35および出力部36と同様の機能を実現するためのプログラム108Aをハードディスク装置108から読み出す。そして、CPU101は、仮想空間構築部31、取得部32、視界設定部33、VR画像表示処理部34、UI表示処理部35および出力部36と同様の処理を実行するプロセスを実行する。
なお、上記のプログラム108Aは、ハードディスク装置108に記憶されていなくてもよい。例えば、コンピュータ100が読み取り可能な記憶媒体に記憶されたプログラム108Aを、コンピュータ100が読み出して実行するようにしてもよい。コンピュータ100が読み取り可能な記憶媒体は、例えば、CD-ROMやDVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にプログラム108Aを記憶させておき、コンピュータ100がこれらからプログラム108Aを読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)仮想空間をユーザーに視覚させるVR画像を表示装置に表示し、
前記仮想空間内における上下方向への移動開始の第一の指示に応じて、前記VR画像内に前記仮想空間の上下方向を示す縦軸を表示し、
前記第一の指示の後に移動決定の第二の指示の間に受け付けるユーザーの操作に応じて、前記仮想空間における前記ユーザーの高さ位置を示す第1のマーカーと、前記ユーザーの操作に基づく前記仮想空間の上下方向における移動先の高さ位置を示す第2のマーカーとを前記縦軸上に表示し、
前記第二の指示を受け付けた場合、前記第二の指示で指定された前記仮想空間の上下方向における移動先の高さ位置に対応するVR画像を、前記表示装置に表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2)前記縦軸上に表示する処理は、前記仮想空間内の所定の構造物に関する高さ位置に応じた第3のマーカーを前記縦軸上に表示する、
ことを特徴とする付記1に記載の表示制御方法。
(付記3)前記縦軸上に表示する処理は、前記第2のマーカーに対応付けて当該第2のマーカーが示す前記仮想空間内の高さ情報を表示する、
ことを特徴とする付記1または2に記載の表示制御方法。
(付記4)前記縦軸上に表示する処理は、前記第2のマーカーが前記ユーザーの視界方向にある不透過面を超えた場合に、当該不透過面を透過表示とする、
ことを特徴とする付記1乃至3のいずれか一に記載の表示制御方法。
(付記5)前記第2のマーカーが前記縦軸上の他のマーカーと重複した場合に、当該重複したことを前記ユーザーに対して報知する処理をさらにコンピュータが実行する、
ことを特徴とする付記1乃至4のいずれか一に記載の表示制御方法。
(付記6)前記第1のマーカーは、前記ユーザーの立ち位置の高さを示す、
ことを特徴とする付記1乃至5のいずれか一に記載の表示制御方法。
(付記7)前記縦軸には所定の高さ位置を示す目盛りが付与される、
ことを特徴とする付記1乃至6のいずれか一に記載の表示制御方法。
(付記8)仮想空間をユーザーに視覚させるVR画像を表示装置に表示し、
前記仮想空間内における上下方向への移動開始の第一の指示に応じて、前記VR画像内に前記仮想空間の上下方向を示す縦軸を表示し、
前記第一の指示の後に移動決定の第二の指示の間に受け付けるユーザーの操作に応じて、前記仮想空間における前記ユーザーの高さ位置を示す第1のマーカーと、前記ユーザーの操作に基づく前記仮想空間の上下方向における移動先の高さ位置を示す第2のマーカーとを前記縦軸上に表示し、
前記第二の指示を受け付けた場合、前記第二の指示で指定された前記仮想空間の上下方向における移動先の高さ位置に対応するVR画像を、前記表示装置に表示する、
処理をコンピュータに実行させることを特徴とする表示制御プログラム。
(付記9)前記縦軸上に表示する処理は、前記仮想空間内の所定の構造物に関する高さ位置に応じた第3のマーカーを前記縦軸上に表示する、
ことを特徴とする付記8に記載の表示制御プログラム。
(付記10)前記縦軸上に表示する処理は、前記第2のマーカーに対応付けて当該第2のマーカーが示す前記仮想空間内の高さ情報を表示する、
ことを特徴とする付記8または9に記載の表示制御プログラム。
(付記11)前記縦軸上に表示する処理は、前記第2のマーカーが前記ユーザーの視界方向にある不透過面を超えた場合に、当該不透過面を透過表示とする、
ことを特徴とする付記8乃至10のいずれか一に記載の表示制御プログラム。
(付記12)前記第2のマーカーが前記縦軸上の他のマーカーと重複した場合に、当該重複したことを前記ユーザーに対して報知する処理をさらにコンピュータに実行させる、
ことを特徴とする付記8乃至11のいずれか一に記載の表示制御プログラム。
(付記13)前記第1のマーカーは、前記ユーザーの立ち位置の高さを示す、
ことを特徴とする付記8乃至12のいずれか一に記載の表示制御プログラム。
(付記14)前記縦軸には所定の高さ位置を示す目盛りが付与される、
ことを特徴とする付記8乃至13のいずれか一に記載の表示制御プログラム。
(付記15)仮想空間をユーザーに視覚させるVR画像を表示装置に表示するVR画像表示部と、
前記仮想空間内における上下方向への移動開始の第一の指示に応じて、前記VR画像内に前記仮想空間の上下方向を示す縦軸を表示し、前記第一の指示の後に移動決定の第二の指示の間に受け付けるユーザーの操作に応じて、前記仮想空間における前記ユーザーの高さ位置を示す第1のマーカーと、前記ユーザーの操作に基づく前記仮想空間の上下方向における移動先の高さ位置を示す第2のマーカーとを前記縦軸上に表示するUI表示処理部と、を有し、
前記VR画像表示部は、前記第二の指示を受け付けた場合、前記第二の指示で指定された前記仮想空間の上下方向における移動先の高さ位置に対応するVR画像を、前記表示装置に表示する、
ことを特徴とする表示制御装置。
(付記16)前記UI表示部は、前記仮想空間内の所定の構造物に関する高さ位置に応じた第3のマーカーを前記縦軸上に表示する、
ことを特徴とする付記15に記載の表示制御装置。
(付記17)前記UI表示部は、前記第2のマーカーに対応付けて当該第2のマーカーが示す前記仮想空間内の高さ情報を表示する、
ことを特徴とする付記15または16に記載の表示制御装置。
(付記18)前記UI表示部は、前記第2のマーカーが前記ユーザーの視界方向にある不透過面を超えた場合に、当該不透過面を透過表示とする、
ことを特徴とする付記15乃至17のいずれか一に記載の表示制御装置。
(付記19)前記第2のマーカーが前記縦軸上の他のマーカーと重複した場合に、当該重複したことを前記ユーザーに対して報知する報知部をさらに有する、
ことを特徴とする付記15乃至18のいずれか一に記載の表示制御装置。
(付記20)前記第1のマーカーは、前記ユーザーの立ち位置の高さを示す、
ことを特徴とする付記15乃至19のいずれか一に記載の表示制御装置。
(付記21)前記縦軸には所定の高さ位置を示す目盛りが付与される、
ことを特徴とする付記15乃至20のいずれか一に記載の表示制御装置。
1…HMD装置
2…操作入力装置
3…センサ装置
4…表示制御装置
5…ユーザー
10…通信部
20…記憶部
21…空間情報
22…オブジェクト情報
23…設定情報
30…制御部
31…仮想空間構築部
32…取得部
33…視界設定部
34…VR画像表示処理部
35…UI表示処理部
36…出力部
40…仮想空間
41、41A…仮想構造物
42…床面
43…壁面
44…天井面
51…縦軸
52…移動元マーカー
53…移動先マーカー
54…指示線
55A~55C…基準面マーカー
56A…高さ目盛り
56B…高さ情報
100…コンピュータ
101…CPU
102…入力装置
103…モニタ
104…媒体読取装置
105…インタフェース装置
106…通信装置
107…RAM
108…ハードディスク装置
108A…プログラム
109…バス

Claims (9)

  1. 仮想空間をユーザーに視覚させるVR画像を表示装置に表示し、
    前記仮想空間内における上下方向への移動開始の第一の指示に応じて、前記VR画像内に前記仮想空間の上下方向を示す縦軸を表示し、
    前記第一の指示の後に移動決定の第二の指示の間に受け付けるユーザーの操作に応じて、前記仮想空間における前記ユーザーの高さ位置を示す第1のマーカーと、前記ユーザーの操作に基づく前記仮想空間の上下方向における移動先の高さ位置を示す第2のマーカーとを前記縦軸上に表示し、
    前記第二の指示を受け付けた場合、前記第二の指示で指定された前記仮想空間の上下方向における移動先の高さ位置に対応するVR画像を、前記表示装置に表示する、
    処理をコンピュータが実行することを特徴とする表示制御方法。
  2. 前記縦軸上に表示する処理は、前記仮想空間内の所定の構造物に関する高さ位置に応じた第3のマーカーを前記縦軸上に表示する、
    ことを特徴とする請求項1に記載の表示制御方法。
  3. 前記縦軸上に表示する処理は、前記第2のマーカーに対応付けて当該第2のマーカーが示す前記仮想空間内の高さ情報を表示する、
    ことを特徴とする請求項1または2に記載の表示制御方法。
  4. 前記縦軸上に表示する処理は、前記第2のマーカーが前記ユーザーの視界方向にある不透過面を超えた場合に、当該不透過面を透過表示とする、
    ことを特徴とする請求項1乃至3のいずれか一項に記載の表示制御方法。
  5. 前記第2のマーカーが前記縦軸上の他のマーカーと重複した場合に、当該重複したことを前記ユーザーに対して報知する処理をさらにコンピュータが実行する、
    ことを特徴とする請求項1乃至4のいずれか一項に記載の表示制御方法。
  6. 前記第1のマーカーは、前記ユーザーの立ち位置の高さを示す、
    ことを特徴とする請求項1乃至5のいずれか一項に記載の表示制御方法。
  7. 前記縦軸には所定の高さ位置を示す目盛りが付与される、
    ことを特徴とする請求項1乃至6のいずれか一項に記載の表示制御方法。
  8. 仮想空間をユーザーに視覚させるVR画像を表示装置に表示し、
    前記仮想空間内における上下方向への移動開始の第一の指示に応じて、前記VR画像内に前記仮想空間の上下方向を示す縦軸を表示し、
    前記第一の指示の後に移動決定の第二の指示の間に受け付けるユーザーの操作に応じて、前記仮想空間における前記ユーザーの高さ位置を示す第1のマーカーと、前記ユーザーの操作に基づく前記仮想空間の上下方向における移動先の高さ位置を示す第2のマーカーとを前記縦軸上に表示し、
    前記第二の指示を受け付けた場合、前記第二の指示で指定された前記仮想空間の上下方向における移動先の高さ位置に対応するVR画像を、前記表示装置に表示する、
    処理をコンピュータに実行させることを特徴とする表示制御プログラム。
  9. 仮想空間をユーザーに視覚させるVR画像を表示装置に表示するVR画像表示部と、
    前記仮想空間内における上下方向への移動開始の第一の指示に応じて、前記VR画像内に前記仮想空間の上下方向を示す縦軸を表示し、前記第一の指示の後に移動決定の第二の指示の間に受け付けるユーザーの操作に応じて、前記仮想空間における前記ユーザーの高さ位置を示す第1のマーカーと、前記ユーザーの操作に基づく前記仮想空間の上下方向における移動先の高さ位置を示す第2のマーカーとを前記縦軸上に表示するUI表示処理部と、を有し、
    前記VR画像表示部は、前記第二の指示を受け付けた場合、前記第二の指示で指定された前記仮想空間の上下方向における移動先の高さ位置に対応するVR画像を、前記表示装置に表示する、
    ことを特徴とする表示制御装置。
JP2019215719A 2019-11-28 2019-11-28 表示制御方法、表示制御プログラムおよび表示制御装置 Active JP7259717B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019215719A JP7259717B2 (ja) 2019-11-28 2019-11-28 表示制御方法、表示制御プログラムおよび表示制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019215719A JP7259717B2 (ja) 2019-11-28 2019-11-28 表示制御方法、表示制御プログラムおよび表示制御装置

Publications (2)

Publication Number Publication Date
JP2021086452A JP2021086452A (ja) 2021-06-03
JP7259717B2 true JP7259717B2 (ja) 2023-04-18

Family

ID=76087814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215719A Active JP7259717B2 (ja) 2019-11-28 2019-11-28 表示制御方法、表示制御プログラムおよび表示制御装置

Country Status (1)

Country Link
JP (1) JP7259717B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248860A (ja) 2010-04-28 2011-12-08 Ns Solutions Corp 情報処理システム、情報処理方法及びプログラム
JP2018526716A (ja) 2015-06-16 2018-09-13 ノキア テクノロジーズ オーユー 媒介現実
JP2018186432A (ja) 2017-04-27 2018-11-22 アイシン精機株式会社 表示制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248860A (ja) 2010-04-28 2011-12-08 Ns Solutions Corp 情報処理システム、情報処理方法及びプログラム
JP2018526716A (ja) 2015-06-16 2018-09-13 ノキア テクノロジーズ オーユー 媒介現実
JP2018186432A (ja) 2017-04-27 2018-11-22 アイシン精機株式会社 表示制御装置

Also Published As

Publication number Publication date
JP2021086452A (ja) 2021-06-03

Similar Documents

Publication Publication Date Title
JP5876607B1 (ja) フローティング・グラフィカルユーザインターフェース
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP6766824B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6235790B2 (ja) 表示制御システム、表示制御装置、表示制御プログラム、および表示制御方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP6110893B2 (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP6290754B2 (ja) 仮想空間表示装置、仮想空間表示方法及びプログラム
JP5496032B2 (ja) 触感呈示装置及び触感呈示装置の制御方法
JP2004054590A (ja) 仮想空間描画表示装置、及び仮想空間描画表示方法
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2019154981A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2017156887A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017191377A (ja) シミュレーション制御装置及びシミュレーション制御プログラム
JP7259717B2 (ja) 表示制御方法、表示制御プログラムおよび表示制御装置
JP6113337B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2018171455A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP6975001B2 (ja) 傾き測定装置及び傾き測定方法
JP2017211912A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2006018444A (ja) 画像処理システム及び付加情報指示装置
JP6253834B1 (ja) 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
JP2016122443A (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP2013225321A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US11972037B2 (en) Head mounted information processing apparatus and head mounted display system
JP5095704B2 (ja) ゲーム装置及びゲームプログラム
WO2020045254A1 (ja) 表示システム、サーバ、表示方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7259717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150