JP2019070909A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2019070909A JP2019070909A JP2017195984A JP2017195984A JP2019070909A JP 2019070909 A JP2019070909 A JP 2019070909A JP 2017195984 A JP2017195984 A JP 2017195984A JP 2017195984 A JP2017195984 A JP 2017195984A JP 2019070909 A JP2019070909 A JP 2019070909A
- Authority
- JP
- Japan
- Prior art keywords
- tool
- real object
- collision
- user
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 ユーザが把持する現実物体又はユーザの体の一部とその他の現実物体との衝突による、ユーザの体の一部や現実物体へのダメージを低減するための情報処理を提供することを目的とする。【解決手段】 ユーザが把持するツールの位置情報と現実物体の位置情報とに基づいて、前記ツールと前記現実物体との衝突を予測する予測手段と、前記予測手段によって前記ツールが前記現実物体と衝突すると予測された場合、前記衝突の衝撃に関するパラメータに基づいて、前記衝突が前記ツール又は前記現実物体にダメージを与えるか否かを判定する判定手段と、前記判定手段によって前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記ユーザに対して警告するための制御を行う制御手段と、を有することを特徴とする情報処理装置。【選択図】 図1
Description
本発明は、ユーザに複合現実感を提供する技術に関する。
近年、設計・製造分野において、現実空間にあたかも仮想物体が実在しているかのような感覚を起こさせる複合現実感システムが用いられている。この複合現実感システムは、現実空間を撮像して得られる実写映像に、CG(コンピュータグラフィックス)によって作成した仮想空間の映像を重畳させて表示する技術を用いている。以下、複合現実感をMR(Mixed Reality)と呼び、複合現実感システムをMRシステムと呼ぶ。特許文献1においては、仮想物体の面上の距離を仮想計測工具によって計測するためのMRシステムが開示されている。
ところで、上述したMRシステムにおいて、その仮想空間の映像における物体が現実物体であるか仮想物体であるかを、ユーザが判断し辛くなる状況が往々にして発生する。観察している物体が現実物体であるにも関わらず仮想物体であると誤認して、ユーザが手や把持している現実物体を動かす場合がある。この場合、手や把持している現実物体がその他の現実物体に衝突してしまい、その衝突が手や現実物体にダメージを与えてしまうという課題がある。
本発明は、上記課題に鑑みてなされたものであり、ユーザが把持する現実物体又はユーザの体の一部とその他の現実物体との衝突による、ユーザの体の一部や現実物体へのダメージを低減するための情報処理を提供することを目的とする。
上記課題を解決するために、本発明に係る情報処理装置は、ユーザが把持するツールの位置情報を取得する取得手段と、現実空間における現実物体の位置情報を記憶する記憶手段と、前記ツールの位置情報と前記現実物体の位置情報とに基づいて、前記ツールと前記現実物体との衝突を予測する予測手段と、前記予測手段によって前記ツールが前記現実物体と衝突すると予測された場合、前記衝突の衝撃に関するパラメータに基づいて、前記衝突が前記ツール又は前記現実物体にダメージを与えるか否かを判定する判定手段と、前記判定手段によって前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記ユーザに対して警告するための制御を行う制御手段と、を有することを特徴とする。
本発明によれば、ユーザが把持する現実物体又はユーザの体の一部とその他の現実物体との衝突による、ユーザの体の一部や現実物体へのダメージを低減することができる。
[実施形態1]
以下、本発明の実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。尚、同一の構成については、同一の符号を付して説明する。
以下、本発明の実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。尚、同一の構成については、同一の符号を付して説明する。
本実施形態においては、MR技術を利用したMRシステムにおいて用いられる操作ツールとその他の現実物体との衝突による、操作ツールや現実物体への影響(ダメージ)を低減する例を説明する。MRシステムは、現実空間を撮像した実写映像に、CGによって作成した仮想空間の映像を重畳させて表示する技術を用いるシステムである。以下、実写映像によって表わされる空間を現実空間、仮想映像によって表わされる空間を仮想空間、現実空間と仮想空間とが融合した空間を複合現実空間と呼ぶ。
<操作ツールと現実物体との衝突>
本実施形態のMRシステムにおける操作ツールは、図8に示すような、ユーザが手に把持する棒状の道具であり、仮想物体を切断するツールである。以下、本実施形態における操作ツールを切断ツールと呼ぶ。尚、把持することは、物体(ツール)全体を持ち上げていることである。ユーザは、仮想物体を切断するように切断ツールを動かすと、仮想物体が切断されてその断面を観察することができる。ユーザが仮想物体と思い違いをして現実物体に対して切断ツールを当てようとすると、図8に示すように、切断ツールが現実物体に衝突し、切断ツールあるいは現実物体にダメージを与えてしまったり、壊してしまったりする場合がある。図8(a)及び図8(b)は、ユーザが仮想物体を切断しようとしている様子を示しており、図8(c)及び図8(d)は、ユーザが現実物体を仮想物体と誤認して切断しようとしている様子を示している。
本実施形態のMRシステムにおける操作ツールは、図8に示すような、ユーザが手に把持する棒状の道具であり、仮想物体を切断するツールである。以下、本実施形態における操作ツールを切断ツールと呼ぶ。尚、把持することは、物体(ツール)全体を持ち上げていることである。ユーザは、仮想物体を切断するように切断ツールを動かすと、仮想物体が切断されてその断面を観察することができる。ユーザが仮想物体と思い違いをして現実物体に対して切断ツールを当てようとすると、図8に示すように、切断ツールが現実物体に衝突し、切断ツールあるいは現実物体にダメージを与えてしまったり、壊してしまったりする場合がある。図8(a)及び図8(b)は、ユーザが仮想物体を切断しようとしている様子を示しており、図8(c)及び図8(d)は、ユーザが現実物体を仮想物体と誤認して切断しようとしている様子を示している。
図8(a)は仮想物体500に対して切断ツール200を用いて切断操作を行おうとしている図であり、切断操作を行うと図8(b)に示すように仮想物体500が切断ツール200の位置姿勢に応じて切断される。これに対し、図8(c)は現実物体600に対して切断ツール200を用いて切断操作を行おうとしている図であり、切断操作を行うと図8(d)に示すように切断ツール200が現実物体600に衝突して壊れてしまう。以下においては、切断ツールのような操作ツールを用いて仮想物体に所定の操作を行う際の、衝突によって生じた操作ツールあるいはその他の現実物体へのダメージを低減する例を説明する。具体的には、操作ツールが閾値以上の速度で現実物体に衝突しそうになった場合に、操作ツールのユーザに警告を提示する。尚、ユーザの頭部に装着されている装置は、ヘッドマウントディスプレイ(HMD)300である。尚、上述した位置姿勢は、物体の位置と姿勢とを意味する。具体的には、位置は物体の三次元空間における位置(座標)であり、姿勢は物体の傾き(角度)である。
<情報処理装置のハードウェア構成>
図9は、本実施形態における情報処理装置100のハードウェア構成図である。図9において、中央処理装置(CPU)191は、バス190を介して接続する各デバイスを統括的に制御する。CPU191は、読み出し専用メモリ(ROM)192に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)や、本実施形態に係る各処理プログラム、デバイスドライバ等はROM192に記憶されており、ランダムアクセスメモリ(RAM)193に一時記憶され、CPU191によって適宜実行される。また、入力インタフェース(入力I/F)194は、情報処理装置100において処理可能な形式の入力信号を外部の装置から入力する。また、出力インタフェース(出力I/F)195は、外部の装置が処理可能な形式の出力信号を外部の装置に出力する。
図9は、本実施形態における情報処理装置100のハードウェア構成図である。図9において、中央処理装置(CPU)191は、バス190を介して接続する各デバイスを統括的に制御する。CPU191は、読み出し専用メモリ(ROM)192に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)や、本実施形態に係る各処理プログラム、デバイスドライバ等はROM192に記憶されており、ランダムアクセスメモリ(RAM)193に一時記憶され、CPU191によって適宜実行される。また、入力インタフェース(入力I/F)194は、情報処理装置100において処理可能な形式の入力信号を外部の装置から入力する。また、出力インタフェース(出力I/F)195は、外部の装置が処理可能な形式の出力信号を外部の装置に出力する。
<MRシステムの機能構成>
図1は本実施形態におけるMRシステムの機能構成を示すブロック図である。MRシステムは、情報処理装置100と、HMD300と、切断ツール200と、現実空間測定部400と、入力装置500と、を有する。情報処理装置100は、HMD300における撮像部301から取り込んだ現実空間の画像と仮想空間の画像とを合成し、合成した画像を複合現実感映像としてHMD300における表示部302に出力する。
図1は本実施形態におけるMRシステムの機能構成を示すブロック図である。MRシステムは、情報処理装置100と、HMD300と、切断ツール200と、現実空間測定部400と、入力装置500と、を有する。情報処理装置100は、HMD300における撮像部301から取り込んだ現実空間の画像と仮想空間の画像とを合成し、合成した画像を複合現実感映像としてHMD300における表示部302に出力する。
HMD300は、ユーザの頭部に装着する頭部装着装置である。HMD300は、撮像部301と、表示部302と、を有する。撮像部301は、現実空間を撮像し、撮像によって得られた画像を情報処理装置100に出力する。撮像によって得られた画像は、合成部110において仮想空間の画像と合成され、表示部302によって合成画像として表示される。本実施形態においては、撮像部301は、HMD300に内蔵されているものとする。表示部302は、合成部110において生成された合成画像をユーザに提示する。本実施形態においては、HMD300に内蔵されたディスプレイを用いて合成画像の提示を行う。
切断ツール200は、音提示部201と、振動提示部と、入力部203と、を有する。切断ツール200は、現実物体に切断ツール200が衝突しそうになった際に警告を行う機能を搭載している。具体的な警告方法は、警告音や警告振動を提示する方法である。本実施形態においては説明を省くが、この音や振動は、通常、仮想物体に切断ツール200が接触していることをユーザに通知するために用いられる。
音提示部201は、ユーザに音を提示するためのスピーカーやその駆動回路である。尚、音の提示を簡易的に実施するのであればブザーのような物でも良い。本実施形態における音提示部201は、切断ツール200と現実物体との衝突を警告するために使用される。尚、入力に対する応答に使用するなど、その他の目的に使用してもよい。振動提示部202は、ユーザに何らかの触覚を振動によって提示するための振動モーターやその駆動回路である。具体的に、振動モーターは、形状に偏りがある重りをモーターの軸に取り付け、それを回転させることで振動を作り出す偏心モーターである。尚、圧電素子やリニアバイブレータなどを用いて振動を生成してもよい。本実施形態においては、切断ツール200と現実物体との衝突を警告するために使用する。尚、仮想物体へ接触した際の触感を提示するために使用するなど、その他の目的に使用してもよい。入力部(断面固定ボタン)203は、本システムの動作モードを切り替えるためのスイッチである。本実施形態においては、切断ツール200を用いて仮想物体を切断した際の切断面を固定させるか否かの切り替えに使用する。具体的には、切断ツール200によって仮想物体が切断された状態において入力部203が押下されると、仮想物体から切断ツール200が離れたとしても、入力部203が押下されたときの断面の表示が維持される。尚、処理の開始や処理の停止等、様々な動作の切り替えに使用してもよい。
現実空間測定部400は、現実空間の3Dモデルを生成する。本実施形態においては、測距用レーザーを用いて得られる距離データを基に3Dモデルを生成する。尚、3Dモデルの生成方法は、測距用レーザーを用いる方法に限定されない。例えば、複数のカメラからの撮像データを基に3Dモデルを生成してもよい。
入力装置500は、キーボードやマウスなど、ユーザが指示入力を行うための装置である。
情報処理装置100は、位置姿勢取得部101と、衝突予測部102と、現実空間3Dモデル記憶部103と、衝突判定部104と、警告表示描画部105と、接触判定部106と、を有する。さらに、情報処理装置100は、仮想物体データベース107と、接触部位算出部108と、仮想物体描画部109と、合成部110と、閾値設定部111と、警告制御部112と、を有する。これらの各機能部は、CPU191が、ROM192に格納されたプログラムをRAM193に展開し、後述する各フローチャートに従った処理を実行することによって実現されている。尚、CPU191を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
位置姿勢取得部101は、撮像部301から取り込んだ画像に基づいて、現実空間における撮像部301の位置姿勢(即ち、HMD300の位置姿勢)と、切断ツール200の位置姿勢と、を推定する。本実施形態においては、撮像部301の位置姿勢をユーザの視点の位置姿勢とする。撮像部301の位置姿勢の算出は、現実空間に配置されたマーカを撮像して得られる画像に基づいて行われる。切断ツール200の位置姿勢は、以下のように推定する。まず、切断ツール200にマーカを貼りつけておき、そのマーカを撮像部301によって撮像する。撮像によって得られた画像に基づいて、ユーザの視点に対する切断ツール200の相対的な位置姿勢を推定する。さらに、ユーザの視点に対する切断ツール200の相対的な位置姿勢と撮像部301の位置姿勢とに基づいて、現実空間における切断ツール200の位置姿勢を算出する。これにより、ユーザが把持した切断ツール200を動かした場合でも、切断ツール200の位置姿勢を算出することが可能となる。尚、仮想物体501は予め設定された位置に基づいて表示すれば良いが、切断ツール200と仮想物体501とのインタラクションに応じて、あるいは、仮想物体501が可動物体である場合はその動きに応じて位置姿勢を計算により変更してもよい。尚、インタラクションは、切断ツール200と仮想物体501とが接触又は重なり合うことを意味する。以下、インタラクションについての処理をインタラクション処理と呼ぶ。
また、ユーザの視点の位置姿勢や仮想物体の位置姿勢を取得する方法はこれに限定されない。例えば、切断ツール200に三次元の位置姿勢を計測するモーションセンサを付設または内蔵させてもよい。市販のモーションキャプチャシステムを利用して撮像部301に対する現実物体の位置姿勢を計測することによって、仮想物体の位置姿勢を求めることも可能である。
衝突予測部102は、現実空間測定部400により取り込んだ現実空間の3Dモデルと、切断ツール200の位置姿勢及び形状と、に基づいて、現実物体と切断ツール200との衝突の有無を仮想空間上で予測する。具体的には、現実物体と切断ツール200との衝突予測は、以下の手順で行う。まず、現実空間の3Dモデルに基づいて、三角形要素を組み合わせることによって仮想空間を生成する。次に、切断ツール200の位置姿勢から三角形要素を組み合わせることによって、仮想空間における仮想物体としての切断ツール200を生成する。過去の切断ツール200の位置姿勢に関する情報と現在の位置姿勢に関する情報との差分に基づいて、切断ツール200の軌道、速度及び加速度を求める。尚、過去の切断ツール200の位置姿勢に関する情報としては、この後の処理によって所定時間ごとに求められる切断ツール200の位置姿勢を保持しておいて用いる。求めた切断ツール200の軌道、速度及び加速度に基づいて、所定時間(例えば、0.1秒)後の切断ツール200の位置姿勢を求める。三角形要素を組み合わせることによって仮想空間における仮想物体としての切断ツール200を生成する。生成された仮想空間における仮想物体と所定時間後の切断ツール200とから三角形要素を一つずつ取り出し、その三角形要素同士が交差しているか否かを判定する。この判定を全ての三角形要素の組み合わせに対して行い、一つでも交差している場合は現実物体と切断ツール200とが所定時間後に衝突すると判定する。衝突すると判定した場合には、衝突するときの時間(衝突予測時間)と、仮想空間における衝突予測箇所と、衝突の衝撃に関するパラメータと、を記憶する。本実施形態における衝突の衝撃に関するパラメータは、衝突するときの予測速度(衝突予測速度)である。衝突しないと判定した場合には、さらに所定時間(例えば、0.1秒)後に関して、同様の処理を行う。これを、規定時間(例えば、0.5秒)後まで行っても衝突しないと判定した場合は、衝突しないと判定する。尚、衝突予測時間や衝突予測速度を求める方法は、上記方法に限るものではなく、公知の各種シミュレーション技法を用いても良い。尚、衝突の衝撃に関するパラメータは衝突予測速度に限定されず、衝突する際のツールの移動方向などでもよい。また、衝突予測速度や移動方向に加えて、予め保持されているツールの重さや形状、材質などを取得してパラメータとして用いてもよい。
現実空間3Dモデル記憶部103は、現実空間測定部400の測定結果に基づいて、現実空間の3Dモデルを記憶しておく記憶部である。本実施形態においては、最初に現実空間の3Dモデルを生成して記憶しておき、それを使い回す。尚、定期的に現実空間の3Dモデルを取り込んで最新のデータに更新することも可能である。
衝突判定部104は、衝突予測部102において取得した衝突予測時間と衝撃に関するパラメータとに基づいて、衝突がツール又は現実物体にダメージを与えるか否かを判定し、判定結果を警告制御部112に送る。衝突予測時間が所定時間(例えば、0.5秒)より大きければ、予測された衝突はまだ先の事象であり、衝突の確実性に欠けるため警告は行わないと判定する。また、衝突予測速度が遅い場合、即ちゆっくり操作ツールと現実物体とが衝突する場合は、衝突によるダメージが少ないため警告は行わないと判定する。ダメージの有無は、現実物体としての切断ツール200の形状や材質等に応じて変わるため、本実施形態においては、ユーザが衝突予測速度の閾値を入力できるようにする。閾値の設定は、閾値設定部111が行う。閾値設定部111は、情報処理装置100に接続されたディスプレイなどの表示装置にユーザインタフェース(UI)を含む画面を表示させ、入力装置500を用いて入力されたユーザからの閾値に関する指示を受け付ける。ユーザからの指示入力に基づいて、閾値の設定を行う。尚、入力装置には、タッチパネルとディスプレイとが一体化したタッチパネルディスプレイを用いてもよい。尚、衝突の衝撃に関するパラメータが移動方向の場合は、移動方向が所定の移動方向である場合に、ダメージが大きいとして警告を行うと判定する。
警告制御部112は、衝突判定部104における判定結果に応じて、ユーザに対する警告の提示を制御する。具体的には、警告制御部112は、衝突判定部104による判定結果が警告を行うべきであるという判定結果であった場合は、ツール制御部113に警告を提示させるための情報を出力する。ツール制御部113は、警告制御部112から出力される情報に基づいて、切断ツール200における音提示部201に音を出力させ、振動提示部202に振動を生成させる。さらに、警告制御部112は、警告表示描画部105に警告表示を描画させる。
警告表示描画部105は、衝突判定部104において警告すべきと判定された場合に、衝突予測部102において記憶された衝突予測箇所を、位置姿勢取得部101において取得された位置姿勢に基づいて設定された投影面に投影する。さらに、図6に示すように、投影された衝突予測箇所を略中心にして警告表示603を描画する。尚、警告表示は、表示の背景が見えるように、光を透過する半透明な表示とする。
接触判定部106は、仮想物体の位置姿勢及び形状に基づいて、複数の仮想物体同士の接触の有無を判定する。仮想物体同士の接触は、例えば、仮想物体501と切断ツール200との接触である。2つの仮想物体同士の接触判定は、以下の手順で行う。ここで、仮想物体は三角形要素を組み合わせることによって生成されているものとする。まず、それぞれの仮想物体から三角形要素を一つずつ取り出し、その三角形要素同士が交差しているか否かを判定する。これを全ての三角形要素の組み合わせに対して行い、一つでも交差している場合は仮想物体同士が接触していると判定する。さらに、この処理を全ての仮想物体の組み合わせに対して行う。
しかしながら、接触判定の方法はこれに限るものではない。例えば、仮想物体501の一面を有限あるいは無限に延伸し、延伸した面と切断ツール200の三角形要素とが交差する際に、仮想物体501と切断ツール200とが接触していると判定してもよい。また、例えば、仮想物体501の周囲に仮想的なバウンダリーボックスを設け、バウンダリーボックスと切断ツール200とが交差した際に、仮想物体501と切断ツール200とが接触していると判定してもよい。さらに、このような接触状態の判定に代えて、所定の近接した位置関係であるか否かを判定してもよい。例えば、仮想物体501と切断ツール200との距離が閾値未満であることを判定して、後述する接触した場合の処理と同様の処理を行うようにしてもよい。
仮想物体データベース107は、仮想物体の3Dモデルを保持するデータベースである。仮想物体の3Dモデルには、仮想物体501や切断ツール200が含まれる。仮想物体の3Dモデルは、例えば、仮想物体の形状、表示色、初期位置姿勢を含んでいる。本実施形態においては、図7(a)に示すような切断ツール200を用いて、仮想物体501を切断する場合を例にとって説明する。
接触部位算出部108は、接触判定部106において接触していると判定された仮想物体に基づいて、接触部位を算出する。本実施形態においては、交差している三角形要素の集合と、三角形要素同士の交差における交線の集合と、を接触部位として算出する。接触部位算出部108は、算出した交線の集合を接触部位情報として出力する。
仮想物体描画部109は、接触部位と仮想物体501及び切断ツール200とを描画した仮想空間の画像を生成する。具体的には、仮想物体データベース107に保存されているモデルデータや接触部位算出部108において算出された接触部位情報に基づいて、仮想空間の画像を生成する。まず、仮想空間の画像を生成するための仮想視点の位置姿勢を位置姿勢取得部101から取得する。仮想視点の位置姿勢は、基準とする世界座標系における撮像部301の位置姿勢情報を入力する。また、仮想物体501の三次元の頂点位置及び切断ツール200の三次元の頂点位置は、位置姿勢取得部101において取得された位置姿勢に基づいて更新される。接触部位は、仮想物体501の三次元の頂点位置及び切断ツール200の三次元の頂点位置の更新に応じて更新される。更新された仮想物体の三次元の頂点と接触部位とは、仮想視点に基づいて設定された投影面に投影される。投影後の三角形要素及び線分の描画処理は、一般的な三次元画像の生成における描画処理と同じであるため詳細な説明は省略する。
本実施形態においては、仮想物体501と切断ツール200とが接触した際、仮想物体501が切断ツール200の刃205に平行な断面502が生成される。したがって、接触判定部106において接触していると判定されると、接触部位算出部108において接触部位が算出される。算出された接触部位に関する情報に基づいて、仮想物体描画部109が演算を行う。仮想物体データベース107に保存された切断ツール200及び仮想物体501のモデルデータを呼び出す。さらに、接触部位情報が示す接触部位を含む切断ツール200の刃205に平行な断面において切断した仮想物体501及び切断ツール200を表示させる。
合成部110は、撮像部301から取り込んだ現実空間の画像と、警告表示描画部105において描画された警告表示と、仮想物体描画部109において描画された仮想空間の画像と、を合成する。合成処理は、撮像部301を用いた撮像により得られた現実空間の実写画像の上に仮想空間の画像を描画することにより行う。すなわち、仮想物体501に対応する領域及び切断ツール200に対応する領域以外の領域は、現実空間画像の画素が表示される合成画像となる。尚、仮想空間の画像を半透明にして、背景の現実空間の画像が透けて見えるようにしてもよい。表示部302は、合成部110において描画した合成画像を複合現実画像としてユーザに提示する。
<警告表示>
図6は本実施形態における操作ツールと現実物体との衝突に対する警告表示の例を示す図である。図6(a)は撮像部301を用いた撮像により得られた撮像画像の例である。図6(a)の撮像画像には、現実物体601が含まれており、衝突予測部102において予測された衝突予測箇所が衝突予測箇所602である。衝突判定部104において警告すべきと判定された場合、衝突予測箇所602を、位置姿勢取得部101において取得された位置姿勢に基づいて設定された投影面に投影する。さらに、警告表示描画部105において、投影された衝突予測箇所を略中心にして半透明な警告表示603を投影面に描画する。警告表示描画部105において描画する警告表示の例として、3種類の警告表示を図6(b)〜図6(d)に示す。
図6は本実施形態における操作ツールと現実物体との衝突に対する警告表示の例を示す図である。図6(a)は撮像部301を用いた撮像により得られた撮像画像の例である。図6(a)の撮像画像には、現実物体601が含まれており、衝突予測部102において予測された衝突予測箇所が衝突予測箇所602である。衝突判定部104において警告すべきと判定された場合、衝突予測箇所602を、位置姿勢取得部101において取得された位置姿勢に基づいて設定された投影面に投影する。さらに、警告表示描画部105において、投影された衝突予測箇所を略中心にして半透明な警告表示603を投影面に描画する。警告表示描画部105において描画する警告表示の例として、3種類の警告表示を図6(b)〜図6(d)に示す。
図6(b)は、撮像部301から取り込んだ現実空間の画像に、円形の警告表示603bを重畳した複合現実画像を示した図である。円形の警告表示603bは、大凡どの辺りに衝突しそうかということが判る程度の警告表示である。円形の警告表示603bはあまり警告表示を強調したくない場合などに好適である。表示の色も黒色や灰色などの暗い色にすることにより、突然表示される警告に対するユーザの驚きを軽減することが可能となる。
図6(c)は、撮像部301から取り込んだ現実空間の画像に、星形の警告表示603cを重畳した複合現実画像を示した図である。星形の警告表示603cは、大凡どの辺りに衝突しそうかということが判る程度の警告表示である。星形の警告表示603cは、円形より警告が強調されるため、警告表示を強調したい場合などに好適である。表示の色も赤色や黄色などの明るい色にすることにより、突然表示される警告に対するユーザの驚きを増強することが可能となる。
図6(d)は、撮像部301から取り込んだ現実空間の画像に、中心部の表示を抜いた放射線状の警告表示603dを重畳した複合現実画像を示した図である。中心部の表示を抜いた放射線状の警告表示603dは、衝突しそうな箇所が明確に判る警告表示である。中心部の表示を抜いた放射線状の警告表示603dは、星形より警告が強調されるため、警告表示をより強調したい場合などに好適である。表示の色も明るい色にすることにより、突然表示される警告に対するユーザの驚きを増強し、どこに衝突しそうかをピンポイントに提示することが可能となる。
尚、図6(b)、図6(c)、図6(d)の各警告表示は、常にいずれか一種類を表示するようにしても良いし、衝突予測部102において予測した衝突予測時間、衝突予測速度、衝突予測箇所等に応じて段階的に変えて表示しても良い。例えば、衝突予測時間が0.5秒から0.4秒の間は警告表示603bを、0.4秒から0.2秒の間は警告表示603cを、0.2秒以下の場合は警告表示603dを描画する等、段階的に警告表示を変更するようにしても良い。衝突予測速度、衝突予測箇所等に対しても同様に、段階的に警告表示を変更するようにしても良い。
<仮想物体の断面の生成方法>
図7は本実施形態における仮想物体の断面の生成方法を示す模式図である。図7(a)において、仮想空間における仮想物体501と仮想物体としての切断ツール200とを示す。仮想物体としての切断ツール200は、現実空間においてユーザが操作する切断ツール200の位置姿勢に対応して位置姿勢を逐次変更できる。ユーザは、切断ツール200を用いて仮想物体501の任意の位置を指定し、断面502を生成することが可能である。切断ツール200には、刃205が備わっており、この刃205の方向に仮想物体501を切断可能である。ユーザが操作する切断ツール200には、断面の固定指示を行うための断面固定ボタン203を設けている。本実施形態における断面固定ボタン203は断面固定解除ボタンを兼ねており、断面固定ボタン203を押下すると、押下した時点の断面を固定して表示できる断面固定モードとなる。再度断面固定ボタン203を押下すると断面の固定が解除される断面非固定モードとなる。尚、断面固定ボタン203と断面固定解除ボタンとを別に設けてもよい。
図7は本実施形態における仮想物体の断面の生成方法を示す模式図である。図7(a)において、仮想空間における仮想物体501と仮想物体としての切断ツール200とを示す。仮想物体としての切断ツール200は、現実空間においてユーザが操作する切断ツール200の位置姿勢に対応して位置姿勢を逐次変更できる。ユーザは、切断ツール200を用いて仮想物体501の任意の位置を指定し、断面502を生成することが可能である。切断ツール200には、刃205が備わっており、この刃205の方向に仮想物体501を切断可能である。ユーザが操作する切断ツール200には、断面の固定指示を行うための断面固定ボタン203を設けている。本実施形態における断面固定ボタン203は断面固定解除ボタンを兼ねており、断面固定ボタン203を押下すると、押下した時点の断面を固定して表示できる断面固定モードとなる。再度断面固定ボタン203を押下すると断面の固定が解除される断面非固定モードとなる。尚、断面固定ボタン203と断面固定解除ボタンとを別に設けてもよい。
図7(b)は、仮想物体501が切断ツール200によって切断された様子を示している。図7(b)においては、刃205が仮想物体501に接触し、刃205に平行な断面502が生成されている。尚、断面502を仮想物体501の表面と識別可能な表示態様で表示してもよい。具体的には、断面を物体の表面と異なる色で着色するようにしてもよい。これにより、ユーザはより断面を見やすくなる。切断ツール200によって切断された仮想物体501は、断面固定ボタン203を押下して断面固定モードとすることにより、切断ツール200を離しても図7(c)に示すような切断された仮想物体501の表示を維持する。
<MRシステムにおける処理>
次に、図2及び図3のフローチャートを用いて、本実施形態における処理の流れについて説明する。図2は、本実施形態におけるMRシステムの処理を示すフローチャートである。図3は、インタラクション処理を示すフローチャートである。以下、各ステップ(工程)は符号の前にSをつけて表す。
次に、図2及び図3のフローチャートを用いて、本実施形態における処理の流れについて説明する。図2は、本実施形態におけるMRシステムの処理を示すフローチャートである。図3は、インタラクション処理を示すフローチャートである。以下、各ステップ(工程)は符号の前にSをつけて表す。
S701において、閾値設定部111は、衝突予測速度の閾値をユーザに入力させ、ユーザの入力に基づいて衝突予測速度の閾値を設定する。尚、予め保持していた値を閾値として設定してもよい。S702において、現実空間測定部400は、現実空間を測定し、測定結果を用いて現実空間を3Dモデル化する。3Dモデル化した現実空間情報を、現実空間3Dモデル記憶部103に書き込む。S703において、仮想物体の3Dモデルを保持している仮想物体データベース107から、仮想物体501や切断ツール200の形状や表示色、初期位置姿勢等を含んだ3Dモデルを読み込む。
S704において、撮像部301は、現実空間を撮像し、現実空間の画像を得る。情報処理装置100は、撮像部301から撮像によって得られた画像を取り込み、位置姿勢取得部101と合成部110とに送る。S705において、位置姿勢取得部101は、撮像部301から取り込んだ画像に基づいて、現実空間の撮像部301の位置姿勢(即ち、HMD300の位置姿勢)と、切断ツール200の位置姿勢と、仮想物体の位置姿勢と、を推定する。S706において、衝突予測部102は、現実空間3Dモデル記憶部103から読み出した現実空間3Dモデルと、切断ツール200の位置姿勢及び形状と、に基づいて、現実物体と切断ツール200との衝突の有無を仮想空間上で予測する。また、衝突すると判定した場合には、そのときの時間(衝突予測時間)と、そのときの予測速度(衝突予測速度)と、仮想化した現実空間の衝突予測箇所と、を記憶する。
S707において、衝突判定部104は、衝突予測部102において求めた衝突までの衝突予測時間が閾値(例えば、0.5秒)以下であるか否かを判定する。衝突予測時間が閾値より大きい場合は、インタラクション処理を実行するため、S710に移行する。衝突予測時間が閾値以下の場合は、S708に移行する。S708において、衝突判定部104は、衝突予測部102において求めた衝突時の衝突予測速度がS701において設定した閾値以下であるか否かを判定する。衝突予測速度が閾値以下の場合は、インタラクション処理を実行するため、S710に移行する。衝突予測速度が閾値より大きい場合は、S709に移行する。
S709において、警告制御部112は、警告表示描画部105に警告表示を描画するよう指示する。指示を受けた警告表示描画部105は、衝突予測部102において記憶された衝突予測箇所を、位置姿勢取得部101において取得された位置姿勢に基づいて設定された投影面に投影する。警告表示描画部105は、さらに、図6に示すように、投影された衝突予測箇所を略中心にして半透明な警告表示603を描画する。また、警告制御部112は、警告表示603の描画と同時にツール制御部113を制御し、音提示部201に警告用の音を出力させ、振動提示部202に警告用の振動を生成させる。ここで、警告用の音としては、サイレン等のような音でも良く、「衝突します」や「それは現実物体です」等の音声で警告を提示しても良い。また、警告用の振動としては、振動強度の大きな振動や警告を想定するような触覚を提示しても良い。S710において、インタラクション処理が実行される。インタラクション処理の詳細は後述する。
S711において、合成部110は、撮像部301から取り込んだ現実空間の画像と、警告表示描画部105において描画された警告表示と、仮想物体描画部109において描画された仮想空間の画像と、を合成する。さらに、合成部110は、合成された複合現実感画像をHMD300に内蔵されている表示部302に表示させる。S712において、情報処理装置100は、ユーザから終了コマンドが送信されたか否かを判定し、終了コマンドが送信されていないと判定された場合はS704に戻って処理を行い、終了コマンドが送信されたと判定された場合は処理を終了する。
<インタラクション処理>
以下において、図3を用いてインタラクション処理の流れを説明する。S801において、ツール制御部113は、動作モードが断面固定モードになっているか、断面非固定モードになっているかを判定する。ここで、動作モードの初期モードは、断面非固定モードとする。動作モードが断面固定モードであった場合、S802に移行する。動作モードが断面非固定モードであった場合、S804に移行する。S802において、ツール制御部113は、断面固定ボタン203が押されたか否かを判定する。断面固定ボタン203が押された場合は、S803において動作モードを断面非固定モードに変更し、S804に移行する。断面固定ボタン203が押されていない場合は、S807に移行する。
以下において、図3を用いてインタラクション処理の流れを説明する。S801において、ツール制御部113は、動作モードが断面固定モードになっているか、断面非固定モードになっているかを判定する。ここで、動作モードの初期モードは、断面非固定モードとする。動作モードが断面固定モードであった場合、S802に移行する。動作モードが断面非固定モードであった場合、S804に移行する。S802において、ツール制御部113は、断面固定ボタン203が押されたか否かを判定する。断面固定ボタン203が押された場合は、S803において動作モードを断面非固定モードに変更し、S804に移行する。断面固定ボタン203が押されていない場合は、S807に移行する。
S804において、接触判定部106は、仮想物体の位置姿勢及び形状に基づいて、仮想物体501と切断ツール200との接触の有無を判定する。仮想物体501と切断ツール200とが接触していると判定した場合は、S805に移行する。仮想物体501と切断ツール200とが接触していないと判定した場合は、S809に移行する。S805において、ツール制御部113は、断面固定ボタン203が押されたか否かを判定する。断面固定ボタン203が押された場合は、S806において動作モードを断面固定モードに変更し、S807に移行する。断面固定ボタン203が押されていない場合は、S808に移行する。
S807において、仮想物体描画部109は、接触部位算出部108が算出した接触部位に基づいて、図7(c)に示すような固定された断面502で切断された仮想物体501、及び他の仮想物体を仮想空間の画像として描画する。S808において、仮想物体描画部109は、接触部位と位置姿勢とに基づいて、図7(b)に示すような接触位置で切断された仮想物体501、及び他の仮想物体を仮想空間の画像として描画する。S809において、仮想物体描画部109は、位置姿勢取得部101において取得された位置姿勢に基づいて、未切断の仮想物体501、及び他の仮想物体を仮想空間の画像として描画する。
これら仮想空間画像の描画を行った後、S711における実写画像と仮想画像との合成へ処理を移行する。
<実施形態1の効果>
以上説明したように、本実施形態における画像処理装置1は、操作ツールの位置情報と、現実物体の位置情報と、に基づいて、ツールと現実物体との衝突を予測する。操作ツールが現実物体と衝突すると予測された場合、衝突がツール又は現実物体にダメージを与えるか否かを判定する。衝突がツール又は現実物体にダメージを与えると判定された場合、ユーザに対して警告するための制御を行う。これにより、現実物体とツールとの衝突が予測された場合に提示される警告によって、ユーザは衝突の危険があることに気づき、衝突を回避することができる。よって、ユーザが把持する現実物体又はユーザの体の一部とその他の現実物体との衝突による、ユーザの体の一部や現実物体へのダメージを低減することができる。また、衝突がツール又は現実物体にダメージを与えるか否かを判定することによって、ツール又は現実物体にダメージを与えない衝突が予測された場合に不要な警告を行わないため、頻繁な警告によってユーザが感じる煩わしさを低減することができる。
以上説明したように、本実施形態における画像処理装置1は、操作ツールの位置情報と、現実物体の位置情報と、に基づいて、ツールと現実物体との衝突を予測する。操作ツールが現実物体と衝突すると予測された場合、衝突がツール又は現実物体にダメージを与えるか否かを判定する。衝突がツール又は現実物体にダメージを与えると判定された場合、ユーザに対して警告するための制御を行う。これにより、現実物体とツールとの衝突が予測された場合に提示される警告によって、ユーザは衝突の危険があることに気づき、衝突を回避することができる。よって、ユーザが把持する現実物体又はユーザの体の一部とその他の現実物体との衝突による、ユーザの体の一部や現実物体へのダメージを低減することができる。また、衝突がツール又は現実物体にダメージを与えるか否かを判定することによって、ツール又は現実物体にダメージを与えない衝突が予測された場合に不要な警告を行わないため、頻繁な警告によってユーザが感じる煩わしさを低減することができる。
<変形例>
尚、本実施形態においては、ユーザが把持する現実物体を切断ツール200として説明しているが、これに限るものでない。例えば、長さを計測するための仮想定規や仮想ねじを締めるための仮想レンチなどの操作ツールであってもよい。また、ユーザが把持する現実物体であれば、仮想物体に操作を行う操作ツールでなくてもよい。またツールでなくでも、ユーザの手とユーザの周囲にある物体との衝突に対する警告を行う形態であってもよい。さらに、モーションキャプチャシステムのようにユーザの体の各部位の位置姿勢を検出できる機能を備えれば、手や足等、体の一部が現実物体に衝突することを回避することも可能となる。
尚、本実施形態においては、ユーザが把持する現実物体を切断ツール200として説明しているが、これに限るものでない。例えば、長さを計測するための仮想定規や仮想ねじを締めるための仮想レンチなどの操作ツールであってもよい。また、ユーザが把持する現実物体であれば、仮想物体に操作を行う操作ツールでなくてもよい。またツールでなくでも、ユーザの手とユーザの周囲にある物体との衝突に対する警告を行う形態であってもよい。さらに、モーションキャプチャシステムのようにユーザの体の各部位の位置姿勢を検出できる機能を備えれば、手や足等、体の一部が現実物体に衝突することを回避することも可能となる。
また、本実施形態においては、ユーザが把持する切断ツール200は、振動によってユーザに触覚を提示するハプティックデバイスである例を説明したが、これに限るものではない。ユーザに所定の力や動きを伝えることによって触覚を提示するハプティックデバイスであってもよい。
また、本実施形態においては、操作ツールと現実物体との衝突を予測するために位置と姿勢とを取得したが、位置姿勢取得部において物体の位置のみを取得し、取得した位置に基づいて衝突予測を行ってもよい。
また、本実施形態においては、現実物体の位置情報を特定する現実空間の3Dモデルを用いて衝突予測を行ったが、現実物体の位置情報として、各現実物体の三次元空間における座標を示す座標データを用いてもよい。この場合、例えば、現実物体に対応する座標と操作ツールに対応する座標とが重なった場合に衝突すると予測する。
また、本実施形態におけるHMD300は、撮像部301を用いた撮像により得られた現実空間の画像に基づいて生成された複合現実感画像を表示部302に表示するビデオシースルー型のHMDであった。しかしながら、HMD300は、現実空間を透過して観察することが可能な表示媒体に仮想画像を重畳して表示する光学シースルー型のHMDを用いてもよい。
また、本実施形態においては、現実空間のモデルデータを用いて現実物体と操作ツールとが衝突するか否かを判定した。しかしながら、測距レーザーなどを用いて物体との距離を測定する機能を有する操作ツールやジャイロセンサなどのセンサを搭載した操作ツールから得られた情報を用いて、現実物体と操作ツールとが衝突するか否かを判定してもよい。
また、本実施形態においては、衝突判定部104が衝突予測時間に関する判定を行った後、衝突速度に関する判定を行ったが、どちらか少なくとも一方に関する判定を行うのであれば、判定処理は上記一例に限定されない。例えば、衝突判定部104は、衝突速度に関する判定のみを行ってもよいし、衝突予測時間に関する判定のみを行ってもよい。また、衝突判定部104は、衝突速度の判定を行った後、衝突予測時間の判定を行ってもよい。また、衝突判定部104は、2つの判定を同時に行い、衝突速度が閾値より大きく、かつ、衝突予測時間が閾値より小さい場合に、ユーザに対する警告を行うと判定してもよい。
また、本実施形態においては、ユーザに対する警告の提示を音、振動、表示の3つによって行ったが、ユーザが衝突の危険性を認識することができれば、警告の提示方法は上記一例に限定されない。例えば、警告表示のみ行ってもよい。この場合、操作ツールは音提示部201及び振動提示部202を備えている必要はない。また、音による警告のみ行う場合は、情報処理装置100は警告表示を描画する必要はなく、操作ツールは振動提示部202を備えている必要はない。
また、本実施形態における切断ツール200は入力部203を有する操作ツールであったが、操作ツールは入力部203を有していなくてもよい。この場合は、操作ツールが接触している仮想物体の断面は固定せず、常に上述した非断面固定モードである場合の処理を行う。
また、本実施形態においては、三角形要素を組み合わせることによって仮想空間における仮想物体を生成したが、要素は三角形に限らず、四角形要素など他の多角形要素であってもよい。
また、本実施形態においては、MRを体験するユーザが把持するツールと現実物体との衝突を予測して警告する例を示したが、衝突予測及び警告を行うための制御は他の形態に応用が可能である。例えば、ユーザが把持するスマートフォンとその他の現実物体との衝突に応用できる。
[実施形態2]
実施形態1においては、現実空間3Dモデル記憶部103に記憶する現実空間の3Dモデルは、現実空間測定部400を用いて生成される。本実施形態においては、HMD300に内蔵されている撮像部301の撮像画像を基に現実空間の3Dモデルを生成する。以下に、本実施形態と実施形態1との異なる部分を主に説明する。本実施形態における情報処理装置100のハードウェア構成は、図9に示した実施形態1における情報処理装置100のハードウェア構成と同じである。
実施形態1においては、現実空間3Dモデル記憶部103に記憶する現実空間の3Dモデルは、現実空間測定部400を用いて生成される。本実施形態においては、HMD300に内蔵されている撮像部301の撮像画像を基に現実空間の3Dモデルを生成する。以下に、本実施形態と実施形態1との異なる部分を主に説明する。本実施形態における情報処理装置100のハードウェア構成は、図9に示した実施形態1における情報処理装置100のハードウェア構成と同じである。
<MRシステムの機能構成>
図4は、本実施形態におけるMRシステムの機能構成を示すブロック図である。図4において、実施形態1におけるMRシステムと異なる点は、現実空間測定部400が無くなり、代わりに3Dモデル生成部120が追加されている点である。
図4は、本実施形態におけるMRシステムの機能構成を示すブロック図である。図4において、実施形態1におけるMRシステムと異なる点は、現実空間測定部400が無くなり、代わりに3Dモデル生成部120が追加されている点である。
3Dモデル生成部120は、HMD300に内蔵されている撮像部301から取り込んだ左右2枚のステレオ画像及び過去に取得した撮像画像に基づいて、現実空間の3Dモデル化を行う。現実空間を3Dモデル化する方法としては、まず、撮像部301から取り込んだ画像に含まれるマーカ画像のパターンや位置、形状等に基づいて、撮像部301の現実空間における位置姿勢を位置姿勢取得部101において推定する。撮像部301の位置姿勢と撮像画像とをセットする。左右二つの視点位置からの2つの撮像画像や過去の撮像画像等、幾つかの視点からの撮像画像と位置姿勢とのセットを用いた三角測量法により、各視点位置からの各現実物体の距離を算出する。これら幾つかの視点からの距離情報から、各現実物体の現実空間の位置情報を求める。それら各現実物体の位置情報を基に、現実空間の3Dモデルを生成し、現実空間3Dモデル記憶部103へ書き込む。
本実施形態においては、最初に周囲の現実空間を撮像部301を用いて撮像しながら3Dモデルを更新することにより、3Dモデル化した現実空間の範囲や精度を向上させ、充分な3Dモデルデータを生成してから処理を開始する。また、処理開始後も撮像部301を用いた撮像によって得られる現実空間の撮像画像から3Dモデルを更新しているため、現実物体が移動しているような状況にも対応することが可能である。尚、移動している現実物体に関してもその後の位置予測を行うことによって、その情報を基に衝突予測を行った方が衝突予測の予測精度を向上させることが可能となる。また、移動する現実物体が存在しないような状況の場合には、処理開始後の3Dモデルの更新は行わないようにすることも可能である。
<MRシステムにおける処理>
図5は、本実施形態におけるMRシステムの処理を示すフローチャートである。尚、S701〜S712は上述の実施形態1と同様の処理である。
図5は、本実施形態におけるMRシステムの処理を示すフローチャートである。尚、S701〜S712は上述の実施形態1と同様の処理である。
S901において、情報処理装置100は、複合現実感を体験しているユーザの周囲の現実空間を撮像部301を用いて撮像し、撮像によって得られた画像を取り込む。HMD300を装着したユーザの周囲の現実空間を撮像するためには、表示部302や操作ツールなどを用いてユーザに指示を出し、周囲を見回させればよい。S902において、位置姿勢取得部101は、撮像部301から取り込んだ画像に基づいて、現実空間の撮像部301の位置姿勢を推定する。また、3Dモデル生成部120は、左右二つの視点位置からの2つの撮像画像や過去の撮像画像等、幾つかの視点からの撮像画像から三角測量法により、各視点位置からの各現実物体の距離を算出する。さらに、これら幾つかの視点からの距離情報から、各現実物体の現実空間の位置情報を求め、それら各現実物体の位置情報を基に、現実空間の3Dモデルを生成する。S903において、生成した現実空間の3Dモデルを現実空間3Dモデル記憶部103に書き込み、3Dモデルを更新する。
S904において、3Dモデル生成部120は、充分な3Dモデルを生成するための撮像データを取得したか否かを判定する。充分な撮像データを取得した場合はS704に移行する。充分な撮像データを取得していない場合はS901に戻る。尚、充分な3Dモデルを生成するための撮像データを取得した場合は、表示部302や操作ツールなどを用いてユーザに通知するようにしてもよい。
S905において、3Dモデル生成部120は、位置姿勢取得部101において推定した左右二つの視点位置からの2つの撮像画像から三角測量法により、各視点位置からの各現実物体の距離を算出する。さらに、これら二つの視点からの距離情報に基づいて各現実物体の現実空間の位置情報を求め、それら各現実物体の位置情報を基に、現実空間の3Dモデルを生成する。S906において、3Dモデル生成部120は、現実空間3Dモデル記憶部103から直前の3Dモデルを読み出し、S905において新たに生成した現実空間の3Dモデルとの差分を現実空間3Dモデル記憶部103に書き込み、3Dモデルを更新する。
<実施形態2の効果>
以上説明したように、本実施形態における画像処理装置1は、現実空間測定部400を利用せずに得られた現実空間のモデルデータを用いて、現実物体とツールとの衝突の予測を行うことができる。よって、現実空間測定部400を利用できない場合であっても、ユーザが把持する現実物体又はユーザの体の一部とその他の現実物体との衝突による、ユーザの体の一部や現実物体へのダメージを低減することができる。
以上説明したように、本実施形態における画像処理装置1は、現実空間測定部400を利用せずに得られた現実空間のモデルデータを用いて、現実物体とツールとの衝突の予測を行うことができる。よって、現実空間測定部400を利用できない場合であっても、ユーザが把持する現実物体又はユーザの体の一部とその他の現実物体との衝突による、ユーザの体の一部や現実物体へのダメージを低減することができる。
[その他の実施形態]
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、コンピュータによって読み取り可能なプログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、コンピュータによって読み取り可能なプログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
更に、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 情報処理装置
101 位置姿勢取得部
102 衝突予測部
103 現実空間3Dモデル記憶部
104 衝突判定部
112 警告制御部
101 位置姿勢取得部
102 衝突予測部
103 現実空間3Dモデル記憶部
104 衝突判定部
112 警告制御部
Claims (22)
- ユーザが把持するツールの位置情報を取得する取得手段と、
現実空間における現実物体の位置情報を記憶する記憶手段と、
前記ツールの位置情報と前記現実物体の位置情報とに基づいて、前記ツールと前記現実物体との衝突を予測する予測手段と、
前記予測手段によって前記ツールが前記現実物体と衝突すると予測された場合、前記衝突の衝撃に関するパラメータに基づいて、前記衝突が前記ツール又は前記現実物体にダメージを与えるか否かを判定する判定手段と、
前記判定手段によって前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記ユーザに対して警告するための制御を行う制御手段と、
を有することを特徴とする情報処理装置。 - 前記情報処理装置は、表示手段を有する頭部装着装置を含むシステムを制御するための装置であることを特徴とする請求項1に記載の情報処理装置。
- 前記ツールは、前記表示手段に表示された仮想物体に所定の操作を行うために前記ユーザが把持する操作ツールであって、
前記システムは、前記ツールを含むことを特徴とする請求項2に記載の情報処理装置。 - 前記ツールは、音を出力する音提示手段を有し、
前記制御手段は、前記判定手段によって前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記音提示手段を制御することによって、前記ユーザに対して音により警告することを特徴とする請求項3に記載の情報処理装置。 - 前記ツールは、振動を生成する振動提示手段を有し、
前記制御手段は、前記判定手段によって前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記振動提示手段を制御することによって、前記ユーザに対して振動により警告することを特徴とする請求項3又は請求項4に記載の情報処理装置。 - 警告を行うための警告表示を描画し、前記表示手段に前記警告表示を表示させる描画手段をさらに有し、
前記制御手段は、前記判定手段によって前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記描画手段を制御することによって、前記ユーザに対して前記警告表示により警告することを特徴とする請求項2乃至請求項5のいずれか一項に記載の情報処理装置。 - 前記予測手段は、前記ツールと前記現実物体とが衝突すると予測した場合、前記衝撃に関するパラメータとして、前記衝突時の前記ツールの速度を取得し、
前記判定手段は、前記速度が閾値より大きい場合に、前記衝突が前記ツール又は前記現実物体にダメージを与えると判定することを特徴とする請求項1乃至請求項6のいずれか一項に記載の情報処理装置。 - 前記予測手段は、前記ツールと前記現実物体とが衝突すると予測した場合、前記衝撃に関するパラメータとして、前記衝突時の前記ツールの移動方向を取得し、
前記判定手段は、前記移動方向が所定の移動方向である場合に、前記衝突が前記ツール又は前記現実物体にダメージを与えると判定することを特徴とする請求項1乃至請求項7のいずれか一項に記載の情報処理装置。 - 前記予測手段は、前記ツールと前記現実物体とが衝突すると予測した場合、前記衝撃に関するパラメータとして、前記衝撃に関するパラメータとして、前記ツールの重さと材質と形状との少なくとも1つを取得することを特徴とする請求項1乃至請求項8のいずれか一項に記載の情報処理装置。
- 前記ユーザからの指示入力に基づいて、前記閾値を設定する設定手段をさらに有することを特徴とする請求項7に記載の情報処理装置。
- 前記取得手段は、前記ツールの位置情報に加えて、前記操作ツールの姿勢情報を取得し、
前記予測手段は、さらに前記姿勢情報に基づいて、前記衝突を予測することを特徴とする請求項1乃至請求項10のいずれか一項に記載の情報処理装置。 - 前記システムは、前記現実空間を測定する測定手段を有し、
前記記憶手段は、前記測定手段によって得られた測定結果に基づいて生成した前記現実物体の位置情報を記憶することを特徴とする請求項2乃至請求項11のいずれか一項に記載の情報処理装置。 - 前記頭部装着装置は、撮像を行う撮像手段をさらに有し、
前記記憶手段は、前記撮像手段によって得られた画像を取り込み、前記画像に基づいて生成した前記現実物体の位置情報を記憶することを特徴とする請求項2乃至請求項12のいずれか一項に記載の情報処理装置。 - 前記記憶手段は、前記現実物体の位置情報として、前記現実空間の3Dモデルを示すモデルデータを記憶することを特徴とする請求項1乃至請求項13のいずれか一項に記載の情報処理装置。
- 前記予測手段は、仮想空間において、多角形要素によって構成された所定時間後の前記ツールと、多角形要素によって構成された前記現実物体と、を生成し、所定時間後の前記ツールを構成する多角形要素と前記現実物体を構成する多角形要素とが交差している場合に、前記ツールと前記現実空間における前記現実物体とが衝突すると予測することを特徴とする請求項14に記載の情報処理装置。
- 前記頭部装着装置は、ビデオシースルー型のヘッドマウントディスプレイであることを特徴とする請求項2乃至請求項15のいずれか一項に記載の情報処理装置。
- 前記頭部装着装置は、光学シースルー型のヘッドマウントディスプレイであることを特徴とする請求項2乃至請求項15のいずれか一項に記載の情報処理装置。
- 第1現実物体と第2現実物体との衝突を予測する予測手段と、
前記予測手段によって前記第1現実物体と前記第2現実物体とが衝突すると予測された場合、前記衝突が前記第1現実物体又は前記第2現実物体にダメージを与えるか否かを判定する判定手段と、
前記判定手段によって前記衝突が前記第1現実物体又は前記第2現実物体にダメージを与えると判定された場合、前記ユーザに対して警告するための制御を行う制御手段と、
を有することを特徴とする情報処理装置。 - ユーザの頭部に装着する頭部装着装置であって、
ユーザが把持するツールの位置情報を取得する取得手段と、
現実空間における現実物体の位置情報を記憶する記憶手段と、
前記ツールの位置情報と前記現実物体の位置情報とに基づいて、前記ツールと前記現実物体との衝突を予測する予測手段と、
前記予測手段によって前記ツールが前記現実物体と衝突すると予測された場合、前記衝突が前記ツール又は前記現実物体にダメージを与えるか否かを判定する判定手段と、
前記判定手段によって前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記ユーザに対して警告するための制御を行う制御手段と、
を有することを特徴とする頭部装着装置。 - 頭部装着装置と、ユーザが把持するツールと、前記ツールと前記頭部装着装置とを制御する情報処理装置と、を有するシステムであって、
前記ツールの位置情報を取得する取得手段と、
現実空間における現実物体の位置情報を記憶する記憶手段と、
前記ツールの位置情報と前記現実物体の位置情報とに基づいて、前記ツールと前記現実物体との衝突を予測する予測手段と、
前記予測手段によって前記ツールが前記現実物体と衝突すると予測された場合、前記衝突が前記ツール又は前記現実物体にダメージを与えるか否かを判定する判定手段と、
前記判定手段によって前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記ユーザに対して警告を提示する提示手段と、
を有することを特徴とするシステム。 - コンピュータを請求項1乃至請求項17のいずれか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
- ユーザが把持するツールの位置情報を取得する取得ステップと、
現実空間における現実物体の位置情報を記憶する記憶ステップと、
前記ツールの位置情報と前記現実物体の位置情報とに基づいて、前記ツールと前記現実物体との衝突を予測する予測ステップと、
前記予測ステップにおいて前記ツールが前記現実物体と衝突すると予測された場合、前記衝突の衝撃に関するパラメータに基づいて、前記衝突が前記ツール又は前記現実物体にダメージを与えるか否かを判定する判定ステップと、
前記判定ステップにおいて前記衝突が前記ツール又は前記現実物体にダメージを与えると判定された場合、前記ユーザに対して警告するための制御を行う制御ステップと、
を有することを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017195984A JP2019070909A (ja) | 2017-10-06 | 2017-10-06 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017195984A JP2019070909A (ja) | 2017-10-06 | 2017-10-06 | 情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019070909A true JP2019070909A (ja) | 2019-05-09 |
Family
ID=66441218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017195984A Pending JP2019070909A (ja) | 2017-10-06 | 2017-10-06 | 情報処理装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019070909A (ja) |
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020168151A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168162A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168148A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168154A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168160A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168156A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168150A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168161A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168152A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168153A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168147A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168157A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168163A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168155A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168159A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168158A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020178873A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178798A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178800A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178872A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178802A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178801A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178870A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178874A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178871A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178799A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2021003404A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003402A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003409A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003407A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003405A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003403A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003410A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003406A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003408A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021029560A (ja) * | 2019-08-23 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029498A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029495A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029491A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029561A (ja) * | 2019-08-23 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029492A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029497A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029493A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029494A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029496A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021058266A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
JP2021058265A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
JP2021058268A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
JP2021058267A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
JP2021058269A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
WO2023223388A1 (ja) * | 2022-05-16 | 2023-11-23 | 三菱電機株式会社 | 作業監視装置、作業監視方法、作業監視プログラム、作業教育システムおよび作業教育方法 |
-
2017
- 2017-10-06 JP JP2017195984A patent/JP2019070909A/ja active Pending
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020168147A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168160A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168151A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168163A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168157A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168156A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168150A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168161A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168152A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168153A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168148A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168162A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168154A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168155A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168159A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020168158A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社三洋物産 | 遊技機 |
JP2020178799A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178798A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178800A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178801A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178802A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178874A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178870A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178872A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178871A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2020178873A (ja) * | 2019-04-25 | 2020-11-05 | 株式会社三洋物産 | 遊技機 |
JP2021003404A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003402A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003409A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003407A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003405A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003403A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003410A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003406A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021003408A (ja) * | 2019-06-27 | 2021-01-14 | 株式会社三洋物産 | 遊技機 |
JP2021029498A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029494A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029495A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029491A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029496A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029492A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029497A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029493A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029561A (ja) * | 2019-08-23 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021029560A (ja) * | 2019-08-23 | 2021-03-01 | 株式会社三洋物産 | 遊技機 |
JP2021058266A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
JP2021058265A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
JP2021058268A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
JP2021058267A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
JP2021058269A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社三洋物産 | 遊技機 |
WO2023223388A1 (ja) * | 2022-05-16 | 2023-11-23 | 三菱電機株式会社 | 作業監視装置、作業監視方法、作業監視プログラム、作業教育システムおよび作業教育方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019070909A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP4777182B2 (ja) | 複合現実感提示装置及びその制御方法、プログラム | |
JP5059978B2 (ja) | 危険提示装置、危険提示システム、危険提示方法およびプログラム | |
US10453235B2 (en) | Image processing apparatus displaying image of virtual object and method of displaying the same | |
JP6017664B1 (ja) | 情報処理方法及び情報処理プログラム | |
JP6737288B2 (ja) | 周囲監視装置、画像処理方法、及び画像処理プログラム | |
US10614590B2 (en) | Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium | |
JP6863927B2 (ja) | ロボットのシミュレーション装置 | |
JP6122459B2 (ja) | ポジショントラッキング領域表示システム、及び方法 | |
JP2017142785A (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2017169273A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7413077B2 (ja) | ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム | |
JP6723743B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR102059834B1 (ko) | 정보 처리장치, 정보 처리방법, 기억매체 및 프로그램 | |
CN109710077B (zh) | 基于vr的虚拟物体碰撞判断方法、装置及机车实训系统 | |
JP2016218916A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP4689344B2 (ja) | 情報処理方法、情報処理装置 | |
JP7039216B2 (ja) | 情報処理装置及びその方法、プログラム | |
JP2017134803A (ja) | 情報処理装置、情報処理方法 | |
JP6704698B2 (ja) | 情報処理装置、情報処理方法、情報処理システム、及びプログラム | |
JP2008059375A (ja) | 情報処理方法、情報処理装置 | |
JP2006343954A (ja) | 画像処理方法、画像処理装置 | |
WO2020045254A1 (ja) | 表示システム、サーバ、表示方法及び装置 | |
JP6983939B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
WO2022190537A1 (ja) | 情報処理装置および情報処理方法、並びにプログラム |