JP2005141433A - 3次元仮想現実感シミュレータ - Google Patents
3次元仮想現実感シミュレータ Download PDFInfo
- Publication number
- JP2005141433A JP2005141433A JP2003376232A JP2003376232A JP2005141433A JP 2005141433 A JP2005141433 A JP 2005141433A JP 2003376232 A JP2003376232 A JP 2003376232A JP 2003376232 A JP2003376232 A JP 2003376232A JP 2005141433 A JP2005141433 A JP 2005141433A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- virtual reality
- dimensional structure
- reality simulator
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 3次元構造体の寸法を安全に短時間に計測すると同時にインターアクティブ性が高い3次元仮想現実感シミュレータがリアルな映像を生成するために必要な演算の演算量を減少する。
【解決手段】 本発明による3次元仮想現実感シミュレータは,3次元構造体(3)の表面の座標を取得する3次元座標取得装置(2)と,ユーザと同体に保持される位置センサ(図示されず)と,ユーザに装着される立体メガネ(9)と,立体映像表示室(8)の内側の複数の面に映像を表示する表示装置(7)と,前記位置センサの位置に応答して,3次元構造体(3)の表面の座標をデータ処理し,立体メガネ(9)を通して3次元構造体(3)が立体的に観察されるように前記映像を生成する演算装置(1)とを備えている。
【選択図】 図1
【解決手段】 本発明による3次元仮想現実感シミュレータは,3次元構造体(3)の表面の座標を取得する3次元座標取得装置(2)と,ユーザと同体に保持される位置センサ(図示されず)と,ユーザに装着される立体メガネ(9)と,立体映像表示室(8)の内側の複数の面に映像を表示する表示装置(7)と,前記位置センサの位置に応答して,3次元構造体(3)の表面の座標をデータ処理し,立体メガネ(9)を通して3次元構造体(3)が立体的に観察されるように前記映像を生成する演算装置(1)とを備えている。
【選択図】 図1
Description
本発明は,3次元仮想現実感シミュレータに関する。
立体的構造を有する3次元構造体をコンピュータグラフィックスによって再現する3次元仮想現実感シミュレータが知られている。3次元仮想現実感シミュレータは,プラント,建築物,機械設備,車両,航空機,及び船舶のような大型の3次元構造体の設計や,人の体の検査に広く使用されている。3次元仮想現実感シミュレータは,例えば,特許文献1乃至特許文献5に開示されている。
特開平06−19256号公報
特開平09−1482号公報
特開2000−140415号公報
特開平09−54540号公報
特開平08−38743号公報
3次元仮想現実感シミュレータの有用性の一つは,ユーザとのインターアクティブ性が高いことである。ユーザは,3次元仮想現実感シミュレータに指示を与えることにより,3次元構造体を観察する視点を自在に変更したり,映像に対して任意の画像処理を行ったりすることが可能である。
インターアクティブ性が高い3次元仮想現実感シミュレータが,特許文献6に知られている。当該3次元仮想現実感シミュレータでは,映像表示室の天井,壁,及び床の3面に,映像が映し出される。ユーザが,3D表示メガネを通して該映像をみると,ユーザには,該映像が立体的に見える。3D表示メガネには,位置センサが組み込まれており,ユーザの位置が位置センサによって検知される。ユーザが移動すると,ユーザの位置に応じて映像が変化する。これにより,インターアクティブ性が高い3次元仮想現実感シミュレータが実現されている。
米国特許第6,154,723号公報
このような3次元仮想現実感シミュレータは,没入感に溢れたリアルな映像を生成可能である一方,該映像を生成するために必要な演算の演算量が膨大になる。映像を生成するために必要な演算の演算量は,減少されることが望まれる。
本発明の目的は,インターアクティブ性が高い3次元仮想現実感シミュレータがリアルな映像を生成するために必要な演算の演算量を減少する技術を提供することにある。
本発明の他の目的は、3次元構造体が大型であったり高温であったりして計測に危険が伴う場合に、安全に短時間に寸法計測することにある。
本発明の他の目的は、3次元構造体が大型であったり高温であったりして計測に危険が伴う場合に、安全に短時間に寸法計測することにある。
以下に,[発明を実施するための最良の形態]で使用される番号・符号を用いて,課題を解決するための手段を説明する。これらの番号・符号は,[特許請求の範囲]の記載と[発明を実施するための最良の形態]の記載との対応関係を明らかにするために付加されている。但し,付加された番号・符号は,[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。
本発明による3次元仮想現実感シミュレータは,3次元構造体(3)の表面の座標を取得する3次元座標取得装置(2)と,ユーザと同体に保持される位置センサ(図示されず)と,ユーザに装着される立体メガネ(9)と,立体映像表示室(8)の内側の複数の面に映像を表示する表示装置(7)と,前記位置センサの位置に応答して,3次元構造体(3)の表面の座標をデータ処理し,立体メガネ(9)を通して3次元構造体(3)が立体的に観察されるように前記映像を生成する演算装置(1)とを備えている。3次元構造体(3)の表面の座標を用いて表示装置(7)が表示する映像を生成することは,該映像の生成に必要な演算量を効果的に減少させる。
演算装置(1)は,3次元構造体(3)の表面の座標から3次元モデルを生成し,前記3次元モデルから表示装置(7)が表示する映像を生成することが好適である。
位置センサは,立体メガネ(9)に内蔵される場合があり,立体メガネ(9)と別体に設けられることがある。
3次元座標取得装置(2)としては,好適には,レーザ光を前記3次元構造体(3)に照射し,3次元構造体(3)から前記レーザ光が反射されて生じる反射光から3次元構造体(3)の表面の座標を測定するレーザスキャナーが使用される。
また,3次元座標取得装置(2)としては,音波を前記3次元構造体(3)に照射し,前記3次元構造体(3)から前記音波が反射されて生じる反射音波から3次元構造体(3)の表面の座標を測定するソナーが使用され得る。このような構成は,水中の3次元構造体(3)の構造の把握により適している。
3次元座標取得装置(2)は,移動可能であることが好ましく,当該3次元仮想現実感シミュレータのユーザインターフェースに対してユーザが行った操作に応答して,3次元座標取得装置(2)が移動することは,より好適である。あるいは、事前にデータを取得しておくことも好適である。
当該3次元仮想現実感シミュレータが,更に,画像を撮像する撮像装置(5)を備え,演算装置(1)は,前記画像と前記座標をデータ処理して前記映像を生成することは,表示装置(7)が表示する映像に背景及び3次元構造体表面の色彩を挿入可能にする点で好適である。
本発明により,インターアクティブ性が高い3次元仮想現実感シミュレータがリアルな映像を生成するために必要な演算の演算量を減少する技術が提供される。
また、3次元構造体が大型であったり高温であったりして計測に危険が伴う場合に、安全に短時間に寸法計測することができる。
また、3次元構造体が大型であったり高温であったりして計測に危険が伴う場合に、安全に短時間に寸法計測することができる。
以下,添付図面を参照しながら,本発明による3次元仮想現実感シミュレータの実施の一形態を説明する。
本発明による3次元仮想現実感シミュレータの実施の第1形態では,図1に示されているように,演算装置1がレーザスキャナ2とともに設けられている。レーザスキャナ2は,レーザ光を使用して,観察対象である3次元構造体3の表面の座標を測定する。3次元構造体3としては,プラントや建物の内部,建物の外部,機械設備,車両,船舶,及び航空機が例示される。レーザスキャナ2は,3次元構造体3にレーザ光を照射し,3次元構造体3から該レーザ光が反射されて生じる反射光から,3次元構造体3の表面の座標を測定する。測定される座標は,3次元である。レーザスキャナ2は,3次元構造体3の表面の座標を示す3次元座標データ4を,演算装置1に送る。
3次元構造体3の表面の座標を,様々な位置から観測可能にするために,レーザスキャナ2は,移動機構(図示されない)を有している。レーザスキャナー2は,演算装置1からの指示に応答して,移動し,又はその向きを回転する。レーザスキャナー2が移動可能であり,回転可能であることにより,3次元構造体3の構造をより正確に観測可能になる。
演算装置1は,カメラ5に接続されている。カメラ5は,3次元構造体3およびその周辺を撮影し,撮像画像6を生成する。カメラ5は,撮像画像6を演算装置1に送る。
演算装置1は,立体映像表示室8に設けられた立体プロジェクタ7に接続されている。立体プロジェクタ7は,立体映像表示室8の天井面8a,床面8b,壁面8c,8d,及び8eに映像を投影する。
立体プロジェクタ7が投影する映像は,演算装置1によって生成される。演算装置1は,レーザスキャナ2から送られる3次元座標データ4と,カメラ5から送られる撮像画像6とから,立体プロジェクタ7が投影する映像を生成する。ユーザは,立体映像表示室8の中で,立体メガネ9を通して投影された映像を観察する。立体メガネ9を通して立体プロジェクタ7が投影する映像を見ると,ユーザには,3次元構造体3が立体的に見える。複数の内面に映像が投影された立体映像表示室8の中で映像を観察するため,ユーザは,没入感にあふれたリアルな映像を観察することができる。
当該3次元仮想現実感シミュレータをインターラクティブに操作する第1のユーザインターフェースとして,立体メガネ9には,ユーザの位置を検出する位置センサ(図示されない)が設けられている。該位置センサは,演算装置1に接続され,自己の位置を示す位置情報10を演算装置1に送る。ユーザの移動に伴って位置センサの位置が移動すると,演算装置1は,3次元構造体3を観察する観察位置を位置センサの位置に応じて変化させながら立体プロジェクタ7が投影する映像を生成する。これにより,当該3次元仮想現実感シミュレータとユーザとの間のインターラクティブ性が向上されている。
当該3次元仮想現実感シミュレータをインターラクティブに操作する第2のユーザインターフェースとして,立体映像表示室8の床面8bには,操作画面を表示するための表示領域8fが定められている。表示された操作画面に対してユーザが行った操作を検出するために,光センサアレイ11が操作領域8fに埋め込まれている。光センサアレイ11は,演算装置1に接続されている。演算装置1は,光センサアレイ11が検出した光の強度及び強度の分布によって,操作画面になされた操作を識別する。演算装置1は,操作領域8fに対してなされた操作に応じて,立体プロジェクタ7が投影する映像に所定の処理を行う。更に演算装置1は,操作領域8fに対してなされた操作に応じて,レーザスキャナ2に移動し又は回転するように指示する指示信号を送信する。レーザスキャナ2は,該指示信号に応答して,移動し又は回転する。これにより,ユーザが望む位置から3次元構造体3を観察した映像を生成することが可能になる。但し、このレーザスキャナ2の移動又は回転は、リアルタイムに行われるだけでなく、自動又は手動によって事前に映像を生成し録画することも可能である。
立体プロジェクタ7が投影する映像は,下記の方法によって生成される。立体プロジェクタ7が投影する映像のうち,3次元構造体3が映し出されている部分は,3次元座標データ4から生成される。より詳細には,演算装置1は,3次元座標データ4から3次元構造体3の3次元モデル(例えば,サーフェスモデルやポリゴン)を生成し,更に,生成した3次元モデルから,立体プロジェクタ7が投影する映像の3次元構造体3に相当する部分を生成する。3次元座標データ4から3次元構造体3の3次元モデルを生成することには,多くの演算量は必要でなく,3次元モデルから立体プロジェクタ7が投影する映像の3次元構造体3に相当する部分を生成することには,多くの演算量は必要でない。従って,3次元構造体3が映し出されている部分をレーザスキャン2によって取得される3次元座標データ4から生成することにより,立体プロジェクタ7が投影する映像の生成に必要な演算量を抑制できる。
立体プロジェクタ7が投影する映像のうち,3次元構造体3の表面色及び背景に相当する部分は,カメラ5によって撮像された撮像画像6から生成される。撮像画像6と,3次元座標データ4から生成された3次元構造体3の画像とが重ね合わされて,立体プロジェクタ7が投影する映像が生成される。このようにして立体プロジェクタ7が投影する映像を生成することにより,レーザスキャナー2の短所がカバーされている。第1に、レーザスキャナー2は,3次元座標を取得可能である一方,焦点を無限遠に設定することが出来ない。これは,3次元構造体3の背景の映像を生成することを困難にする。3次元構造体3の背景に相当する部分を,カメラ5によって撮像された撮像画像6から生成することにより,立体プロジェクタ7が投影する映像に,背景を入れることが可能になる。第2に、レーザスキャナー2は,3次元構造体3の色彩を取得することは困難である。カメラ5によって撮像された撮像画像6からは3次元構造体3の色彩を取得することが可能であり、撮像画像6から3次元構造体3の表面色を生成することにより、立体プロジェクタ7が投影する映像において3次元構造体3に色彩を付けることが可能になる。
以上に説明されているように,本実施の形態では,3次元座標データ4から3次元構造体3の映像を生成することにより,立体プロジェクタ7が投影する映像の生成に必要な演算量が抑制されている。更に,撮像画像6から3次元構造体3の背景の映像を生成することにより,立体プロジェクタ7が投影する映像への,背景の挿入が実現されている。更に、撮像画像6から3次元構造体3の表面色を生成することにより,立体プロジェクタ7が投影する映像において3次元構造体3に色彩を付けることが実現されている。
本実施の形態の3次元仮想現実感シミュレータは、3次元構造体の各部の寸法を安全に、且つ、短時間で計測するために特に有効である。当該3次元仮想現実感シミュレータは、3次元構造体が大型であっても、高温であっても、非接触的に安全に寸法が計測可能である。更に、上記の3次元仮想現実感シミュレータは、映像の生成に必要な演算量が抑制されるから、所望の測定箇所を指定したときに、その測定箇所の寸法を短時間で算出可能である。
本実施の形態において,位置センサは,立体メガネ8とは別体に設けられることが可能である。例えば,ユーザによって使用される指し棒に位置センサが内蔵されることが可能である。
図2は、本発明による3次元仮想現実感シミュレータの実施の第2形態を示す。実施の第2形態では、レーザスキャナ2の代わりにソナー2’が使用される。ソナー2’は、音波を3次元構造体3に照射し、3次元構造体3から該音波が反射されて生じる反射音から3次元構造体3の表面の3次元座標を測定する。ソナー2’は、3次元構造体3の表面の3次元座標を示す3次元座標データ4を生成して演算装置1に送信する。実施の第2形態の3次元仮想現実感シミュレータの他の構成は、実施の第1形態と同一である。実施の第2形態のように、ソナーによって3次元座標データ4を生成することは,水中に存在する物体の立体的構造の把握に特に適している。
1:演算装置
2:レーザースキャナ
2’:ソナー
3:3次元構造体
4:3次元座標データ
5:カメラ
6:撮像画像
7:立体プロジェクタ
8:立体映像表示室
9:立体メガネ
10:位置情報
11:光センサアレイ
2:レーザースキャナ
2’:ソナー
3:3次元構造体
4:3次元座標データ
5:カメラ
6:撮像画像
7:立体プロジェクタ
8:立体映像表示室
9:立体メガネ
10:位置情報
11:光センサアレイ
Claims (10)
- 3次元構造体の表面の座標を取得する3次元座標取得装置と,
ユーザと同体に保持される位置センサと,
ユーザに装着される立体メガネと,
立体映像表示室の内側の複数の面に映像を表示する表示装置と,
前記位置センサの位置に応答して,前記座標をデータ処理し,前記立体メガネを通して前記3次元構造体が立体的に観察されるように前記映像を生成する演算装置
とを備えた
3次元仮想現実感シミュレータ。 - 請求項1に記載の3次元仮想現実感シミュレータにおいて,
前記演算装置は,前記座標から3次元モデルを生成し,前記3次元モデルから前記映像を生成する
3次元仮想現実感シミュレータ。 - 請求項1に記載の3次元仮想現実感シミュレータにおいて,
前記位置センサは,前記立体メガネに内蔵された
3次元仮想現実感シミュレータ。 - 請求項1に記載の3次元仮想現実感シミュレータにおいて,
前記3次元座標取得装置は,レーザ光を前記3次元構造体に照射し,前記3次元構造体から前記レーザ光が反射されて生じる反射光から前記座標を測定するレーザスキャナーである
3次元仮想現実感シミュレータ。 - 請求項1に記載の3次元仮想現実感シミュレータにおいて,
前記3次元座標取得装置は,音波を前記3次元構造体に照射し,前記3次元構造体から前記音波が反射されて生じる反射音波から前記座標を測定するソナーである
3次元仮想現実感シミュレータ。 - 請求項1に記載の3次元仮想現実感シミュレータにおいて,
前記3次元座標取得装置は,移動可能である
3次元仮想現実感シミュレータ。 - 請求項6に記載の3次元仮想現実感シミュレータにおいて,
更に,
ユーザインターフェース
を備え,
前記3次元座標取得装置は,前記ユーザインターフェースに対してユーザが行う操作に応答して,移動する
3次元仮想現実感シミュレータ。 - 請求項1に記載の3次元仮想現実感シミュレータにおいて,
更に,
画像を撮像する撮像装置
を備え,
前記演算装置は,前記画像と前記座標をデータ処理して前記映像を生成する
3次元仮想現実感シミュレータ。 - 請求項8に記載の3次元仮想現実感シミュレータにおいて,
前記演算装置は,前記映像のうちの前記3次元構造体が写される背景として前記画像を使用する
3次元仮想現実感シミュレータ。 - 請求項8に記載の3次元仮想現実感シミュレータにおいて,
前記演算装置は,前記映像における前記3次元構造体の表面色を前記画像から生成する
3次元仮想現実感シミュレータ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003376232A JP2005141433A (ja) | 2003-11-05 | 2003-11-05 | 3次元仮想現実感シミュレータ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003376232A JP2005141433A (ja) | 2003-11-05 | 2003-11-05 | 3次元仮想現実感シミュレータ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005141433A true JP2005141433A (ja) | 2005-06-02 |
Family
ID=34687367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003376232A Withdrawn JP2005141433A (ja) | 2003-11-05 | 2003-11-05 | 3次元仮想現実感シミュレータ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005141433A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG131777A1 (en) * | 2005-10-06 | 2007-05-28 | Sony Corp | Game machine with internal positioning device |
KR100867407B1 (ko) * | 2007-03-06 | 2008-11-06 | 한국과학기술원 | 이동식 몰입형 가상환경제공 시스템 |
CN103915003A (zh) * | 2014-01-02 | 2014-07-09 | 河南理工大学 | 煤矿架空乘坐装置虚拟实操仪 |
CN110332906A (zh) * | 2019-07-24 | 2019-10-15 | 黄河科技学院 | 室内设计用测量装置 |
CN111090103A (zh) * | 2019-12-25 | 2020-05-01 | 河海大学 | 水下小目标动态精细检测三维成像装置及方法 |
CN111563185A (zh) * | 2020-03-19 | 2020-08-21 | 平安城市建设科技(深圳)有限公司 | 基于gis系统的视频画面显示方法、装置、终端及存储介质 |
-
2003
- 2003-11-05 JP JP2003376232A patent/JP2005141433A/ja not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG131777A1 (en) * | 2005-10-06 | 2007-05-28 | Sony Corp | Game machine with internal positioning device |
KR100867407B1 (ko) * | 2007-03-06 | 2008-11-06 | 한국과학기술원 | 이동식 몰입형 가상환경제공 시스템 |
CN103915003A (zh) * | 2014-01-02 | 2014-07-09 | 河南理工大学 | 煤矿架空乘坐装置虚拟实操仪 |
CN110332906A (zh) * | 2019-07-24 | 2019-10-15 | 黄河科技学院 | 室内设计用测量装置 |
CN111090103A (zh) * | 2019-12-25 | 2020-05-01 | 河海大学 | 水下小目标动态精细检测三维成像装置及方法 |
CN111563185A (zh) * | 2020-03-19 | 2020-08-21 | 平安城市建设科技(深圳)有限公司 | 基于gis系统的视频画面显示方法、装置、终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11928838B2 (en) | Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display | |
JP4739002B2 (ja) | 画像処理方法、画像処理装置 | |
JP6340017B2 (ja) | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム | |
WO2017020256A1 (zh) | 三维超声流体成像方法及系统 | |
JP2006302034A (ja) | 画像処理方法、画像処理装置 | |
CN110956695B (zh) | 信息处理装置、信息处理方法和存储介质 | |
JP2008219772A (ja) | 立体映像表示システム | |
Jia et al. | 3D image reconstruction and human body tracking using stereo vision and Kinect technology | |
JP2008146221A (ja) | 画像表示システム | |
JP2005165776A (ja) | 画像処理方法、画像処理装置 | |
Edgcumbe et al. | Pico Lantern: Surface reconstruction and augmented reality in laparoscopic surgery using a pick-up laser projector | |
JP5059986B2 (ja) | 画像生成方法、画像生成プログラム及び画像投影装置 | |
US20080204834A1 (en) | Displaying holographic images | |
JP2000010194A (ja) | 画像表示方法及び装置 | |
Hertel et al. | Augmented reality for maritime navigation assistance-egocentric depth perception in large distance outdoor environments | |
US20220147138A1 (en) | Image generation apparatus and information presentation method | |
Avveduto et al. | Real-world occlusion in optical see-through AR displays | |
JP6295296B2 (ja) | 複合システム及びターゲットマーカ | |
Livingston | Vision-based tracking with dynamic structured light for video see-through augmented reality | |
JP2005141433A (ja) | 3次元仮想現実感シミュレータ | |
JP6679966B2 (ja) | 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム | |
JP2002074347A (ja) | 情報取得システム | |
JP2009294047A (ja) | X線検査装置 | |
JP2006085375A (ja) | 画像処理方法、画像処理装置 | |
JP2006352473A (ja) | 遮蔽空間の可視化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070109 |