JP2021157697A - Review system and review method - Google Patents
Review system and review method Download PDFInfo
- Publication number
- JP2021157697A JP2021157697A JP2020059733A JP2020059733A JP2021157697A JP 2021157697 A JP2021157697 A JP 2021157697A JP 2020059733 A JP2020059733 A JP 2020059733A JP 2020059733 A JP2020059733 A JP 2020059733A JP 2021157697 A JP2021157697 A JP 2021157697A
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- data
- review
- virtual space
- intermediate data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012552 review Methods 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title claims description 59
- 238000006243 chemical reaction Methods 0.000 claims abstract description 46
- 241000196324 Embryophyta Species 0.000 description 49
- 238000011960 computer-aided design Methods 0.000 description 49
- 230000008569 process Effects 0.000 description 46
- 238000012545 processing Methods 0.000 description 42
- 239000003550 marker Substances 0.000 description 29
- 230000005484 gravity Effects 0.000 description 20
- 238000003860 storage Methods 0.000 description 16
- 210000003128 head Anatomy 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 240000004050 Pentaglottis sempervirens Species 0.000 description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 5
- 238000003825 pressing Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000004705 lumbosacral region Anatomy 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、特に工業用のプラントをレビュー(検証)するレビューシステム、及びレビュー方法に関する。 The present invention particularly relates to a review system and a review method for reviewing (verifying) an industrial plant.
従来から、三次元(3D)のCAD(Computer-Aided Design)データを用いた工業用プラントの設計が行われている。
特許文献1を参照すると、CADデータと配管始終点データとを入力する入力部と、入力部で入力したCADデータと配管始終点データとから配管の始終点を含む経路探索のためのグラフを作成するグラフ作成部とを有する配管経路探索装置において、グラフ作成部で作成したグラフから、始点からの累積距離と累積配置可能部品数を集計する累積距離・部品数集計部と、累積距離と累積配置可能部品数をグラフの各ノードに表示する表示部とを備えることを特徴とする配管経路探索装置が記載されている。
特許文献1の装置は、配管部品の据付および操作スペースを確保した配管経路データを効率良く作成し、配管設計時間を削減することを特徴としている。
Conventionally, industrial plants have been designed using three-dimensional (3D) CAD (Computer-Aided Design) data.
With reference to Patent Document 1, a graph for route search including the start and end points of the pipe is created from the input unit for inputting the CAD data and the pipe start and end point data, and the CAD data and the pipe start and end point data input in the input unit. In the piping route search device having the graph creation unit, the cumulative distance from the start point and the cumulative number of parts that can be arranged are aggregated from the graph created by the graph creation unit, and the cumulative distance and the cumulative arrangement are performed. Described is a piping route search device characterized by including a display unit that displays the number of possible parts on each node of the graph.
The apparatus of Patent Document 1 is characterized in that it efficiently creates piping route data that secures installation and operation space of piping parts and reduces piping design time.
しかしながら、特許文献1の技術は、実際に設計されたプラントの整備性等を評価(レビュー)することが難しかった。 However, with the technique of Patent Document 1, it is difficult to evaluate (review) the maintainability of the actually designed plant.
本発明は、このような状況に鑑みてなされたものであり、上述の問題を解消することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to solve the above-mentioned problems.
本発明のレビューシステムは、工業用のプラントをレビューするためのレビューシステムであって、プラントのCADデータを、複数の面データを含む中間データに変換する中間データ変換手段と、前記中間データ変換手段により変換された前記中間データと同スケールの座標系に、レビュー用のオブジェクトを配置するオブジェクト配置手段と、前記オブジェクト配置手段により配置された前記オブジェクトと前記中間データとに対応した仮想空間を描画する描画手段と、前記描画手段に描画された前記仮想空間の映像を表示するヘッドマウントディスプレイとを備えることを特徴とする。
本発明のレビューシステムは、前記仮想空間内に見学コースを設定するコース設定手段を更に備え、前記描画手段は、前記見学コースに沿った前記仮想空間を描画することを特徴とする。
本発明のレビューシステムは、前記オブジェクト配置手段は、レビューワーの指示を取得し、前記仮想空間内で、前記オブジェクトを付加及び/又は移動することを特徴とする。
本発明のレビューシステムは、前記オブジェクト配置手段は、レビューワーの指示を取得し、前記仮想空間内で、前記オブジェクトを単位毎に分解することを特徴とする。
本発明のレビューシステムは、前記オブジェクト配置手段は、前記オブジェクトとして、前記仮想空間内に音源及び/又は照明器具を配置し、前記描画手段は、前記照明器具が配置された場合、照明を描画し、前記ヘッドマウントディスプレイは、前記音源が配置された場合、当該音源に対応した音声も出力することを特徴とする。
本発明のレビュー方法は、工業用のプラントをレビューするためのレビューシステムにより実行されるレビュー方法であって、プラントのCADデータを、複数の面データを含む中間データに変換し、変換された前記中間データと同スケールの座標系に、レビュー用のオブジェクトを配置し、配置された前記オブジェクトと前記中間データとを含む仮想空間を描画し、描画された前記仮想空間の映像をヘッドマウントディスプレイに表示することを特徴とする。
The review system of the present invention is a review system for reviewing an industrial plant, and is an intermediate data conversion means for converting CAD data of a plant into intermediate data including a plurality of surface data, and the intermediate data conversion means. An object arranging means for arranging an object for review and a virtual space corresponding to the object arranged by the object arranging means and the intermediate data are drawn in a coordinate system of the same scale as the intermediate data converted by. It is characterized by including a drawing means and a head mount display for displaying an image of the virtual space drawn on the drawing means.
The review system of the present invention further includes a course setting means for setting a tour course in the virtual space, and the drawing means draws the virtual space along the tour course.
The review system of the present invention is characterized in that the object arranging means acquires an instruction of a reviewer and adds and / or moves the object in the virtual space.
The review system of the present invention is characterized in that the object arranging means acquires an instruction of a reviewer and decomposes the object unit by unit in the virtual space.
In the review system of the present invention, the object arranging means arranges a sound source and / or a lighting fixture in the virtual space as the object, and the drawing means draws a light when the luminaire is arranged. The head-mounted display is characterized in that, when the sound source is arranged, the sound corresponding to the sound source is also output.
The review method of the present invention is a review method executed by a review system for reviewing an industrial plant, in which the CAD data of the plant is converted into intermediate data including a plurality of surface data, and the converted data is described. An object for review is placed in a coordinate system of the same scale as the intermediate data, a virtual space including the placed object and the intermediate data is drawn, and the drawn image of the virtual space is displayed on the head-mounted display. It is characterized by doing.
本発明によれば、プラントのCADデータを、複数の面データを含む中間データに変換し、中間データと同スケールの座標系にレビューワーのアバターを配置し、この視点位置に対応して、中間データに対応した仮想空間を描画することで、プラントを容易にレビューすることが可能なレビュー装置を提供することができる。 According to the present invention, the CAD data of the plant is converted into intermediate data including a plurality of surface data, the reviewer's avatar is placed in the coordinate system of the same scale as the intermediate data, and the intermediate is corresponding to this viewpoint position. By drawing a virtual space corresponding to the data, it is possible to provide a review device capable of easily reviewing the plant.
<第一実施形態>
〔レビューシステムXのシステム構成〕
まず、図1により、本発明の実施の形態に係るレビューシステムXのシステム構成の説明を行う。本実施形態のレビューシステムXは、レビュー装置1に、HMD2及びコントローラー3が接続されて構成されている。
<First Embodiment>
[System configuration of review system X]
First, the system configuration of the review system X according to the embodiment of the present invention will be described with reference to FIG. The review system X of the present embodiment is configured by connecting the
レビュー装置1は、工業用のプラントの設計段階での評価(レビュー)を行うための制御演算手段と記録媒体とを備えた情報処理装置である。レビュー装置1は、例えば、携帯型又は据え置き型のPC(Personal Computer)、FC(Factory Computer)、ワークステーション、サーバー、スマートフォンやタブレット端末のような携帯端末等であってもよい。 The review device 1 is an information processing device including a control calculation means and a recording medium for performing evaluation (review) at the design stage of an industrial plant. The review device 1 may be, for example, a portable or stationary PC (Personal Computer), FC (Factory Computer), workstation, server, mobile terminal such as a smartphone or tablet terminal, or the like.
HMD2は、VR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)、SR(Substitutional Reality)等の「XR」表示を行うためのヘッドマウントディスプレイ(Head Mounted Display、HMD)や眼鏡等に取り付けてレンズや網膜に投影するタイプの他装着型AR装置等である(以下、単に「HMD」という。)。 HMD2 is used for head-mounted displays (HMDs), glasses, etc. for displaying "XR" such as VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), SR (Substitutional Reality), etc. It is a type of other wearable AR device that is attached and projected onto a lens or retina (hereinafter, simply referred to as "HMD").
HMD2は、表示手段、音声出力手段、及び位置取得手段を備えている。
このうち、表示手段は、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic EL)若しくはOLED(Organic light-emitting diode)ディスプレイ、マイクロLEDアレイ、MEMSレーザープロジェクター、その他網膜投影型ディスプレイ等である。本実施形態においては、立体視が可能なように、左右二つの表示手段が備えられている例について説明する。
音声出力手段は、ヘッドフォンやイヤフォン等と、D/A(Digital to Analog)コンバーター等である。音声出力手段は、レビュー装置1で生成された音声を、レビューワーが聞こえるように出力可能である。
位置取得手段は、三次元加速度センサー、ジャイロ、カメラ、レーダー、ライダー(Light Detection and Ranging、LIDAR)、赤外線センサー、GPS(Global Positioning System)、その他の部屋位置特定センサー等である。位置取得手段により、HMD2は、これを装着したレビューワーの三次元空間上の位置、向き、速度、加速度等の情報を取得することが可能である。位置取得手段は、HMD2本体に備えられていてもよい。または、位置取得手段は、赤外線センサー等を備えた別装置として、HMD2を使用する部屋に別途備えられていてもよい。
The HMD2 includes a display means, an audio output means, and a position acquisition means.
Among these, the display means is a liquid crystal display (Liquid Crystal Display), an organic EL (Organic EL) or an OLED (Organic light-emitting diode) display, a micro LED array, a MEMS laser projector, and other retinal projection type displays. In the present embodiment, an example in which two left and right display means are provided so that stereoscopic viewing is possible will be described.
The audio output means include headphones, earphones, and the like, and a D / A (Digital to Analog) converter and the like. The audio output means can output the audio generated by the review device 1 so that the reviewer can hear it.
Position acquisition means include a three-dimensional acceleration sensor, a gyro, a camera, a radar, a lidar (Light Detection and Ranging, LIDAR), an infrared sensor, a GPS (Global Positioning System), and other room positioning sensors. By the position acquisition means, the HMD2 can acquire information such as the position, direction, speed, acceleration, etc. of the reviewer equipped with the position acquisition means in the three-dimensional space. The position acquisition means may be provided in the HMD2 main body. Alternatively, the position acquisition means may be separately provided in the room where the HMD2 is used as a separate device equipped with an infrared sensor or the like.
コントローラー3は、HMD2に対応づけられて、三次元空間上の位置、向き、速度、加速度、ボタンの押下等を検知可能なコントローラーである。このため、コントローラー3は、複数のボタンやパッドを含んでいる。さらに、コントローラー3は、HMD2と同様に、各種の位置取得手段を含んでいる。
The
加えて、レビュー装置1は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、近距離ネットワーク、携帯電話網等の外部ネットワークと接続可能である。 In addition, the review device 1 can be connected to an external network such as a LAN (Local Area Network), a WAN (Wide Area Network), a short-distance network, or a mobile phone network.
(レビュー装置1の制御構成)
次に、レビュー装置1の制御構成について説明する。レビュー装置1は、制御部10、画像処理部11、記憶部12、入力部13、表示部14、及び接続部15を備えている。各部は共通のバスで接続されても、更に各部の間で専用のバスで接続されてもよい。
(Control configuration of review device 1)
Next, the control configuration of the review device 1 will be described. The review device 1 includes a
制御部10は、レビュー装置1の全体を制御する制御演算部である。制御部10は、例えば、一般的なCPU(Central Processing Unit)やMPU(Micro Processing Unit)等であってもよい。
The
画像処理部11は、画像処理等を実行する制御演算部である。画像処理部11は、例えば、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)等を含んでいてもよい。また、画像処理部11は、Direct X(登録商標)、Open GL規格等の各種三次元データのレンダリング、シェーダー(Shader)演算等を高速に実行可能であってもよい。また、画像処理部11は、レイトレーシング(Ray Tracing)法やラジオシティ(Radiosity)法等の演算を支援するアクセレレーターとして機能してもよい。また、画像処理部11は、構造や強度計算等の物理演算の支援機能を備えていてもよい。また、画像処理部11は、ポリゴンの分割や法線の演算等の支援機能を備えていてもよい。画像処理部11は、例えば、プログラマブルシェーダー(shader)を実行可能である。
The
記憶部12は、各種データが格納される一時的でない記録媒体である。記憶部12は、例えば、各種RAM(Random Access Memory)、ROM(Read Only Memory)、eMMC(embedded Multi Media Card)、SSD(Solid State Drive)、HDD(Hard Disk Drive)、光学記録媒体等である。ここで、記憶部12のRAM等の高速にアクセスされる記録媒体に関しては、制御部10と直接接続されていてもよい。
The
入力部13は、レビュー装置1のユーザーが各種指示を行うための機器である。入力部13は、例えば、キーボード、マウス、タッチパッド、タッチパネル、デジタイザー、3Dマウス、ステレオカメラ等である。
The
表示部14は、レビュー装置1の各種データを表示する機器である。表示部14は、例えば、液晶ディスプレイ、有機EL若しくはOLEDディスプレイ、マイクロLEDディスプレイ等の各種ディスプレイであってもよい。
なお、入力部13と表示部14とは、一体となったタッチパネル、デジタイザー等として構成されていてもよい。
The
The
接続部15は、HMD2と接続するための、例えば、USB(Universal Serial Bus)、Thunderbolt(登録商標)、無線LAN、ブルートゥース(登録商標)、その他の独自インターフェイス等の接続インターフェイスである。これに加えて、接続部15は、外部ネットワークとの接続のためのインターフェイスを含んでいてもよい。
The
〔レビューシステムXの制御構成〕
次に、図2により、本実施形態のレビューシステムXの制御構成について説明する。
本実施形態のレビュー装置1の制御部10は、中間データ変換手段100、アバター配置手段110、描画手段120、及び接触判定手段130を備える。
記憶部12は、CADデータ200、中間データ210、アバターデータ220、及びマーカー設定データ230を備える。
[Control configuration of review system X]
Next, the control configuration of the review system X of the present embodiment will be described with reference to FIG.
The
The
中間データ変換手段100は、プラントのCADデータ200を、中間データ210に変換する。
加えて、中間データ変換手段100は、CADデータ200を「.obf」形式のデータ(以下、「OBFデータ」という。)に変換することも可能である。
The intermediate data conversion means 100 converts the
In addition, the intermediate data conversion means 100 can also convert the
アバター配置手段110は、中間データ変換手段100により変換された中間データ210と同スケールの座標系にレビューワーのアバターを配置する。このため、アバター配置手段110は、仮想空間内のアバターの手の位置を、ヘッドマウントディスプレイにより取得された現実空間の位置に合わせることも可能である。
さらに、アバター配置手段110は、コントローラー3にて、レビューワーの指示を取得する。そして、アバター配置手段110は、このレビューワーの指示にて、アバターを移動させることも可能である。この際、アバター配置手段110は、アバターを高速で移動させる高速移動モードと、アバターを高速移動モードよりも遅く移動させる低速移動モードとを切り換え可能である。アバター配置手段110は、高速移動モードの場合、重力を加えない設定とし、仮想空間内の面との当たり判定をせずに仮想空間の上下方向を移動可能とする。アバター配置手段110は、低速移動モードの場合、アバターに重力を加える設定とする。この場合、アバター配置手段110は、仮想空間内でアバターの腰部から体軸の下方向で最初に接触した略水平面の位置に、アバターの足裏の位置を合わせる。
The avatar arranging means 110 arranges the reviewer's avatar in the coordinate system of the same scale as the
Further, the avatar arranging means 110 acquires the instruction of the reviewer on the
描画手段120は、アバター配置手段110により配置されたアバターの視点位置に対応して、中間データ210に対応した仮想空間を描画する。描画手段120は、この仮想空間を、表示部14及び/又はHMD2の表示手段へ表示されるようにする。
描画手段120は、アバターの視界において、中間データ210のスケールに対応した特定閾値よりも奥の面を描画しないようにすることが可能である。
The drawing means 120 draws a virtual space corresponding to the
The drawing means 120 can prevent the drawing means 120 from drawing a surface deeper than the specific threshold value corresponding to the scale of the
接触判定手段130は、アバターの移動中に、アバターと、仮想空間内の略水平面以外の面との接触を判定する。この略水平面は、例えば、重力と垂直方向において、例えば、−45°〜45°迄の角度(傾斜)の面(以下、単に「45°以下の面」という。)を用いてもよい。
接触判定手段130は、接触を判定された場合、仮想空間内の面の接触位置にマーカーを付加する、及び/又は、音声出力にてレビューワーに警告する。
The contact determination means 130 determines the contact between the avatar and a surface other than the substantially horizontal plane in the virtual space while the avatar is moving. For this substantially horizontal plane, for example, a surface having an angle (inclination) from −45 ° to 45 ° (hereinafter, simply referred to as “a surface having a temperature of 45 ° or less”) may be used in the direction perpendicular to gravity.
When the contact is determined, the contact determination means 130 adds a marker to the contact position of the surface in the virtual space and / or warns the reviewer by audio output.
加えて、本実施形態において、HMD2は、描画手段120により描画された仮想空間の画像を表示手段に表示する。さらに、HMD2は、位置取得手段により、現実空間(三次元空間)上での位置、向き、速度、加速度等(以下、「位置向き等」という。)の情報を取得可能である。
また、コントローラー3も、現実空間(三次元空間)上での位置向き等、ボタンの押下の情報を取得可能である。すなわち、コントローラー3のボタンの押下を検出することで、レビューワーの指示を取得可能である。
In addition, in the present embodiment, the
In addition, the
CADデータ200は、工業用プラントの設計用データである。本実施形態において、CADデータ200は、例えば、3D CAD(Computer-Aided Design)データであり、ポリゴン(多角形)の立体座標と面座標等を含む3Dデータである。さらに、CADデータ200は、例えば、各ポリゴンの素材(テクスチャー)データ、配置データ、その他のデータ等を含んでいてもよい。また、この配置データは、各パイプが連結される際の配置の情報を含んでいてもよい。
より具体的には、CADデータ200は、例えば、「.DXF」「.dwg」「.stl」形式のファイル等から、プラントのレビューには必要性が低いデータを除いた「.obj」形式のデータ(以下、「OBJデータ」という。)のファイル等を用いることが可能である。
The
More specifically, the
中間データ210は、例えば、複数のポリゴン(多角形、面)の頂点、面、色、及びテクスチャー等のデータを含むメッシュのデータである。すなわち、中間データ210は、複数の面データを含む。ここで、中間データ210は、メッシュを数値化したバイナリー(binary)データ、又は、このバイナリーデータをテキストファイル化したデータ等であってもよい。この中間データ210は、例えば、「.obf」形式のデータ(以下、「OBFデータ」という。)であってもよい。さらに、中間データ210は、CADデータ200の各オブジェクト単位で分けられていてもよい。このオブジェクトは、プラントの各建物、各装置等に対応していてもよい。加えて、オブジェクトは、工具、配管、装置、施設、設備、その他、ポリゴンで構成される面の集合を含んでいてもよい。
The
アバターデータ220は、レビューワーの分身として仮想空間内で移動するオブジェクトであるアバターのデータである。このアバターのオブジェクトは、例えば、頭、胴体、腰部、腕、脚等の各部位のポリゴンのオブジェクトと、これらに接続された骨格(ボーン)のデータとを含んでいる。さらに、アバターデータ220は、頭と腰部とを結ぶ直線状の体軸のデータを含んでいる。この体軸は、頭を上、腰部を下の方向とすることが可能である。さらに、アバターデータ220は、アバターの視線の向き、高速移動モードと低速移動モードとを示すモード情報も含む。さらに、アバターデータ220は、工具等のオブジェクトを手等に装着することが可能である。この装着についても、ボーンのデータに付加することが可能である。
The
マーカー設定データ230は、仮想空間内でアバターが接触した箇所を示すマーカーのオブジェクトのデータである。このマーカーは、例えば、多角形や円形や平面の文字等が設定される。アバターが複数の面に接触した場合、複数のマーカー設定データ230を格納可能である。さらに、マーカー設定データ230は、接触したアバターの部位や接触時間等のデータを含んでいてもよい。
The
これに加え、マーカー設定データ230は、各種設定の値を含んでいる。この各種設定は、動作モードの設定を含んでいる。この動作モードの設定は、高速移動モード及び低速移動モードの種別、重力の有無、及び衝突判定の有無についての設定を含む。ここで、高速移動モードは、低速移動モードよりも高速にアバターを移動させるモードである。重力の有無は、アバターを、重力を模した加速度で仮想空間の下方に降下させるか否かの設定である。衝突判定の有無は、後述するマーカーの付加に関する設定である。本実施形態においては、高速移動モードに設定されている場合、例えば、重力及び衝突判定のいずれも「無し」に設定される。一方、低速移動モードの場合、例えば、重力及び衝突判定のいずれも「有り」に設定される。なお、これらの設定を、別々に設定したり、入力部13のボタンの押下により切り換えたり、一時的に変更したりすることも可能である。
In addition to this, the
ここで、レビュー装置1の制御部10は、記憶部12に記憶された制御プログラムを実行することで、中間データ変換手段100、アバター配置手段110、描画手段120、及び接触判定手段130として機能させられる。この制御プログラムは、各種OS(Operating System)、Unity(登録商標)等の三次元グラフィック表示用ミドルウェア、及び本実施形態のアプリケーションソフトウェアを含む。
また、上述のレビュー装置1の各部は、本発明の画像形成方法を実行するハードウェア資源となる。
なお、上述の機能構成の一部又は任意の組み合わせをICやプログラマブルロジックやFPGA(Field-Programmable Gate Array)等でハードウェア的、回路的に構成してもよい。
Here, the
Further, each part of the above-mentioned review device 1 becomes a hardware resource for executing the image forming method of the present invention.
It should be noted that a part or any combination of the above-mentioned functional configurations may be configured in terms of hardware or circuit by IC, programmable logic, FPGA (Field-Programmable Gate Array) or the like.
〔レビューシステムXによるレビュー処理〕
次に、図3〜図7を参照して、本実施形態に係るレビューシステムXによるレビュー処理の説明を行う。
本実施形態のレビュー処理においては、プラントのCADデータ200を、複数の面データを含む中間データ210に変換する。そして、変換された中間データ210と同スケールの座標系にレビューワーのアバターを配置する。その上で、アバターの視点位置に対応して、前記中間データ210を含む仮想空間を描画する。
[Review processing by review system X]
Next, the review process by the review system X according to the present embodiment will be described with reference to FIGS. 3 to 7.
In the review process of the present embodiment, the
本実施形態のレビュー処理においては、仮想空間として、現実の三次元空間を模して三次元CG(Computer Graphics)で描画(Rendering)可能な空間を用いる例について説明する。この本実施形態の仮想空間は、縦(奥行き)、横、高さ方向が設定されており、それぞれ、Z軸、X軸、Y軸に対応する。本実施形態では、視線位置からみて、各軸は、Z軸は手前から奥方向で数値が大きくなり、X軸は左から右方向で数値が大きくなり、Y軸は上から下方向で数値が大きくなる座標系を用いる例を示す。本実施形態においては、下方向は、重力を加える方向として設定される。
本実施形態のレビュー処理は、主にレビュー装置1の制御部10が、記憶部12に記憶されたプログラムを、各部と協働し、ハードウェア資源を用いて実行する。
以下で、図3のフローチャートを参照して、レビュー処理の詳細をステップ毎に説明する。
In the review process of the present embodiment, an example in which a space that can be rendered by three-dimensional CG (Computer Graphics) is used as a virtual space to imitate a real three-dimensional space will be described. The virtual space of this embodiment is set in the vertical (depth), horizontal, and height directions, and corresponds to the Z-axis, the X-axis, and the Y-axis, respectively. In the present embodiment, when viewed from the line-of-sight position, the Z-axis has a large numerical value from the front to the back, the X-axis has a large numerical value from the left to the right, and the Y-axis has a numerical value from the top to the bottom. An example of using a larger coordinate system is shown. In the present embodiment, the downward direction is set as the direction in which gravity is applied.
In the review process of the present embodiment, the
Hereinafter, the details of the review process will be described step by step with reference to the flowchart of FIG.
(ステップS100)
まず、中間データ変換手段100が、CADデータ取得処理を行う。
中間データ変換手段100は、表示部14にGUI(Graphical User Interface)のメニューを表示し、工業用のプラントの設計用等のCADデータ200をレビューワー(ユーザー)に選択させる。中間データ変換手段100は、このCADデータ200を、ロード等して、記憶部12のRAM等に展開する。この際、中間データ変換手段100は、CADデータ200をOBJ形式のデータに変換することも可能であってもよい。
(Step S100)
First, the intermediate data conversion means 100 performs the CAD data acquisition process.
The intermediate data conversion means 100 displays a GUI (Graphical User Interface) menu on the
(ステップS101)
次に、中間データ変換手段100が、中間データ変換処理を行う。
中間データ変換手段100は、CADデータ200を、中間データ210に変換する。
より具体的には、中間データ変換手段100は、例えば、ファイルを読み込み処理、メッシュ展開処理、及び、表示制御処理等の処理を行う。
(Step S101)
Next, the intermediate data conversion means 100 performs the intermediate data conversion process.
The intermediate data conversion means 100 converts the
More specifically, the intermediate data conversion means 100 performs processing such as file reading processing, mesh expansion processing, and display control processing.
このファイル読み込み処理では、中間データ変換手段100は、Unityの関数等を用いて、例えば、CADデータ200として、OBJ形式のデータのファイルを、マルチスレッド対応で読み込む。すなわち、複数のオブジェクト単位で分けられたOBJ形式のファイルを、各スレッドから一度に読み込むことが可能である。これにより、読み込みの処理性能を向上させることができる。
In this file reading process, the intermediate data conversion means 100 uses a Unity function or the like to read, for example, a file of OBJ format data as
メッシュ展開処理では、中間データ変換手段100は、マルチスレッド対応で、OBJデータ内に含まれる各ポリゴン(メッシュ)を、RAM等に展開する。これにより、メッシュの展開の処理性能も向上させることができる。
なお、一度、読み込まれたことのあるCADデータ200については、後述するようにOBF形式のデータを直接読み込んで、メッシュ展開することも可能である。
In the mesh expansion process, the intermediate data conversion means 100 supports multithreading and expands each polygon (mesh) included in the OBJ data into a RAM or the like. As a result, the processing performance of mesh expansion can also be improved.
As for the
表示制御処理では、中間データ変換手段100は、ポリゴン表示制御用のデータ変換を行う。中間データ変換手段100は、このデータ変換では、オブジェクト分割生成、生成モデルのバイナリー保存又は再生を行う。
たとえば、Unityでは、一つのオブジェクトに対する頂点数の上限値が65535個である。このため、中間データ変換手段100は、一つのオブジェクトの頂点数が、65535個より多ければ、オブジェクトを分割する。中間データ変換手段100は、この分割として、CADデータ200内の各プラントをオブジェクトとして分ける等の処理を行ってもよい。また、例えば、ポリゴンが分離している箇所を優先して分割することが可能である。さらに、中間データ変換手段100は、特定条件によりポリゴンをつなげて平均化することで、頂点数を上限数以下に変換することも可能である。加えて、中間データ変換手段100は、プラントの敷地以外のオブジェクトについては、削除するようにすることも可能である。
さらに、中間データ変換手段100は、ポリゴンのスケール変換、座標系の変換、オブジェクト単位での変換、マテリアル、テクスチャー関係の変換等も行う。
以下、RAMに展開され、これらの処理が行われた中間データ210を、単にバイナリーデータという。
In the display control process, the intermediate data conversion means 100 performs data conversion for polygon display control. In this data conversion, the intermediate data conversion means 100 performs object division generation, binary storage or reproduction of the generation model.
For example, in Unity, the upper limit of the number of vertices for one object is 65535. Therefore, the intermediate data conversion means 100 divides the object if the number of vertices of one object is more than 65535. As this division, the intermediate data conversion means 100 may perform processing such as dividing each plant in the
Further, the intermediate data conversion means 100 also performs polygon scale conversion, coordinate system conversion, object-based conversion, material, texture-related conversion, and the like.
Hereinafter, the
その後、中間データ変換手段100は、作成したオブジェクトを含むバイナリーデータを、CADデータ200に対応付けて、OBF形式のデータとして、記憶部12に格納しておくことが可能である。これにより、次回、CADデータ200を指定した際に、このOBF形式のデータを直接読み込んで、読み込みに必要な時間を短縮することができる。
After that, the intermediate data conversion means 100 can store the binary data including the created object in the
以降、RAMに展開されたこのバイナリーデータを基に仮想空間の描画が実行される。 After that, drawing of the virtual space is executed based on this binary data expanded in RAM.
(ステップS102)
ここで、アバター配置手段110が、HMD情報取得処理を行う。
この処理にて、アバター配置手段110は、HMD2の位置向き等のデータを取得する。
さらに、アバター配置手段110は、コントローラー3のボタンの押下の情報を、レビューワーの指示として取得する。この指示は、例えば、ボタンやパッドでの移動指示、高速移動モード又は低速移動モードの指示等を含む。
さらに、アバター配置手段110は、設定された地点に移動する自動移動の指示を取得することも可能である。この自動移動は、例えば、記憶部12に移動する地点を設定しておき、仮想空間内で目的とする場所に移動させることが可能な機能である。この地点の設定は、例えば、一度、移動した場所でコントローラー3の特定のボタンを押下することで動的に登録することが可能である。設定された地点の指示は、例えば、レビューワーが、メニューや後述するミニマップ等で選択することで、指示することが可能である。
アバター配置手段110は、これらの指示を、アバターデータ220へ設定する。すなわち、高速移動モードであるか、低速移動モードであるかについても、アバターデータ220へ設定する。
(Step S102)
Here, the avatar arranging means 110 performs the HMD information acquisition process.
In this process, the avatar arranging means 110 acquires data such as the position orientation of the HMD2.
Further, the avatar arranging means 110 acquires the information of pressing the button of the
Further, the avatar arranging means 110 can also acquire an instruction for automatic movement to move to a set point. This automatic movement is, for example, a function that can set a point to move to the
The avatar arranging means 110 sets these instructions in the
(ステップS103)
次に、アバター配置手段110が、アバター配置処理を行う。
アバター配置手段110は、中間データ210と同スケールの座標系にレビューワーのアバターを配置する。本実施形態においては、アバター配置手段110は、仮想空間内のアバターの頭部を、HMD2により取得された位置向き等の情報に対応して配置することで、同スケールに配置可能である。すなわち、アバター配置手段110は、アバターの頭部の位置及び向きを、現実空間のレビューワーの頭部の位置及び向きに合わせて配置する。
これにより、HMD2での高さと、仮想空間内でアバターの高さとを合わせることができる。よって、実際にプラントでレビューワーが眺めるのと同じ感覚の風景を、HMD2で閲覧することができる。さらに、HMD2で足元を眺めことで、構造物における高さを感覚的に理解可能となる。
(Step S103)
Next, the avatar placement means 110 performs the avatar placement process.
The avatar arranging means 110 arranges the reviewer's avatar in the coordinate system of the same scale as the
As a result, the height in HMD2 can be matched with the height of the avatar in the virtual space. Therefore, it is possible to browse the scenery with the same feeling as the reviewer actually sees at the plant with HMD2. Furthermore, by looking at the feet with the HMD2, the height of the structure can be intuitively understood.
(ステップS104)
次に、アバター配置手段110が、高速移動モードか否かを判断する。アバター配置手段110は、アバターデータ220及びマーカー設定データ230を参照し、高速移動モードが設定されていた場合に、Yesと判断する。さらに、アバター配置手段110は、自動移動の指示が行われていた場合も、高速移動モードと同様として、Yesと判断する。アバター配置手段110は、それ以外の場合には、Noと判断する。
Yesの場合、アバター配置手段110は、処理をステップS105に進める。
Noの場合、アバター配置手段110は、処理をステップS106に進める。この場合、低速移動モードにて移動が行われてもよい。
(Step S104)
Next, the avatar arranging means 110 determines whether or not it is in the high-speed movement mode. The avatar arranging means 110 refers to the
In the case of Yes, the avatar arranging means 110 advances the process to step S105.
If No, the avatar arranging means 110 proceeds to step S106. In this case, the movement may be performed in the low-speed movement mode.
(ステップS105)
高速移動モードであった場合、アバター配置手段110は、高速移動処理を行う。
アバター配置手段110は、高速移動モードでの移動指示があった場合には、コントローラー3での指示に対応して、仮想空間内でアバターを移動させる。この際、アバター配置手段110は、低速移動モードよりも高速に移動させる。
さらに、アバター配置手段110は、自動移動の指示があった場合、設定された位置まで、アバターを高速で移動させる。この際、面に当たるのを無視して最短距離で移動させても、できるだけオブジェクトのない位置を優先してコース(ルート)を検索して移動させてもよい。
ここで、アバター配置手段110は、高速移動モードでは、下記で説明する重力や足裏の処理も行わず、面への当たり判定も行わずに移動させてもよい。加えて、アバター配置手段110は、コントローラー3の移動指示により、上下方向への移動も行ってもよい。
(Step S105)
In the high-speed movement mode, the avatar arranging means 110 performs high-speed movement processing.
When the avatar arranging means 110 receives a movement instruction in the high-speed movement mode, the avatar arranging means 110 moves the avatar in the virtual space in response to the instruction in the
Further, the avatar arranging means 110 moves the avatar at a high speed to the set position when instructed to move automatically. At this time, it may be moved by the shortest distance ignoring the contact with the surface, or the course (route) may be searched and moved by giving priority to the position where there is no object as much as possible.
Here, in the high-speed movement mode, the avatar arranging means 110 may be moved without performing the gravity and sole processing described below and without performing the collision determination with the surface. In addition, the avatar arranging means 110 may also move in the vertical direction according to the movement instruction of the
(ステップS106)
ここで、アバター配置手段110が、重力処理を行う。
たとえば、低速移動モードであり、マーカー設定データ230で重力が「有り」に設定されている場合、アバター配置手段110は、所定の重力加速度で、アバターをY軸の下方向に移動させる。この際、高い箇所から落ちた場合に、恐怖感を和らげるため、特定スピード以上になった場合には、それ以上のスピードにならないようにすることが好適である。
(Step S106)
Here, the avatar arranging means 110 performs gravity processing.
For example, in the low-speed movement mode, when gravity is set to "Yes" in the
(ステップS107)
次に、アバター配置手段110が、足裏処理を行う。
たとえば、低速移動モードであり、マーカー設定データ230で衝突判定が「有り」に設定されている場合、アバター配置手段110は、アバターの腰部から体軸の下方向で最初に接触した略水平面の位置に、アバターの足裏の位置を合わせることで、階段、グレーチング等から落下しないようにすることが可能である。すなわち、レビューワーのレビューにおいて、いちいち、中間データ210に階段等の指定を行わなくても、階段を上り下りすることが可能になる。
(Step S107)
Next, the avatar arranging means 110 performs the sole processing.
For example, in the low-speed movement mode, when the collision detection is set to "Yes" in the
図4及び図5を用いて、この足裏処理の具体例について説明する。
図4によると、アバターAは、上述の重力処理により、そのままだと、薄色の一点鎖線の輪郭で示すようにY軸の下方向に移動される、すなわち落下する。
ここで、アバター配置手段110は、アバターAの腰部Hから、体軸に沿った下方向(頭部から腰部Hの方向)に、ベクトルを延ばす。図4Aでは、このベクトルを濃色の一点鎖線で示している。このベクトルについて、中間データ210の各ポリゴン(面)との接触判定(衝突判定、交差判定)を行う。ここで、アバター配置手段110は、この衝突判定で最初に接触した面が例えば、X軸とZ軸からなる水平面を0°として、水平方向の角度が45°以下の場合、「略水平面」と判断する。図4の例では、ベクトルが略水平面Sと接触している。
A specific example of this foot sole treatment will be described with reference to FIGS. 4 and 5.
According to FIG. 4, the avatar A is moved downward on the Y-axis, that is, dropped, as it is, as shown by the outline of the light-colored alternate long and short dash line, by the above-mentioned gravity processing.
Here, the avatar arranging means 110 extends the vector from the waist H of the avatar A in the downward direction (direction from the head to the waist H) along the body axis. In FIG. 4A, this vector is shown by a dark alternate long and short dash line. With respect to this vector, contact determination (collision determination, intersection determination) with each polygon (plane) of the
この上で、アバター配置手段110は、アバターAの足裏LのY軸方向の座標が、この略水平面のY軸方向の座標よりも下であった場合、接触しているとして、この略水平面の位置に合わせる。この例の場合、アバター配置手段110は、アバターAの位置を、Y軸方向で上方向に移動させて、足裏LのY軸の座標と、略水平面SのY軸の座標とを合わせている。または、アバター配置手段110は、略水平面SよりY軸方向で下になった脚部の位置のみを移動させ、物理エンジンで他の関節との協働をさせるように処理してもよい。 On this, when the coordinates of the sole L of the avatar A in the Y-axis direction are lower than the coordinates in the Y-axis direction of the substantially horizontal plane, the avatar arranging means 110 considers that they are in contact with each other in the substantially horizontal plane. Align with the position of. In the case of this example, the avatar arranging means 110 moves the position of the avatar A upward in the Y-axis direction, and aligns the coordinates of the Y-axis of the sole L with the coordinates of the Y-axis of the substantially horizontal plane S. There is. Alternatively, the avatar arranging means 110 may move only the position of the leg portion that is below the substantially horizontal plane S in the Y-axis direction, and may be processed so as to cooperate with other joints by the physics engine.
図5によると、例えば、図5(a)のように、アバターは、階段の水平面Sの上に位置することが可能である。この上で、図5(b)のように、アバターAがZ軸で手前方向から奧方向に移動した場合、次の略水平面Sについて接触判定を行う。そして、図5(c)に示すように、アバターAをY軸方向で上方向に移動させることで、階段を上らせることが可能となる。 According to FIG. 5, for example, as shown in FIG. 5A, the avatar can be located on the horizontal plane S of the stairs. Then, as shown in FIG. 5B, when the avatar A moves from the front direction to the back direction on the Z axis, a contact determination is made for the next substantially horizontal plane S. Then, as shown in FIG. 5C, by moving the avatar A upward in the Y-axis direction, it is possible to climb the stairs.
また、上述の重力処理で、プラントの二階以上の位置から落下した場合でも、下の面に接触した場合、下の階の略水平面を認識して、当たった位置に移動させることが可能である。
なお、アバターの腰部からのベクトルの接触判定において、略水平面以外の面、すなわち45°以上の面と接触した場合、足裏処理は行わなくてもよい。これにより、アバターを立たせる面と、それ以外の箇所とを区別することができ、移動不能の箇所が生じるのを避けることができる。
Further, by the above-mentioned gravity treatment, even if the plant falls from a position on the second floor or higher, if it comes into contact with the lower surface, it is possible to recognize the substantially horizontal plane of the lower floor and move it to the hit position. ..
In the contact determination of the vector from the waist of the avatar, when the contact is made with a surface other than a substantially horizontal plane, that is, a surface of 45 ° or more, the sole treatment may not be performed. As a result, it is possible to distinguish between the surface on which the avatar stands and the other parts, and it is possible to avoid the occurrence of immovable parts.
(ステップS108)
ここで、接触判定手段130が、衝突判定有りでアバターが接触したか否かを判断する。
接触判定手段130は、マーカー設定データ230を設定し、衝突判定が「有り」であるか否かを判断する。この上で、衝突判定が「有り」の状態で、アバターが仮想空間内で移動した際に、足裏処理をした略水平面以外のポリゴン(面)に接触した場合に、Yesと判断する。ここで、接触判定手段130は、アバターの頭部、胴体、腕や脚等に加えて、アバターが装着した工具等のオブジェクトも接触判定してもよい。これにより、製造、整備時にどこが干渉するかを知ることが可能となる。また、接触判定手段130は、アバターがポリゴンに接触していない場合には、Noと判断する。
(Step S108)
Here, the contact determination means 130 determines whether or not the avatar has contacted with the collision determination.
The contact determination means 130 sets the
図6(a)は、オブジェクトOの面の一つに、移動したアバターAが接触した例を示す。 FIG. 6A shows an example in which the moved avatar A comes into contact with one of the surfaces of the object O.
Yesの場合、接触判定手段130は、処理をステップS109に進める。
Noの場合、接触判定手段130は、処理をステップS110に進める。
In the case of Yes, the contact determination means 130 advances the process to step S109.
If No, the contact determination means 130 advances the process to step S110.
(ステップS109)
接触が判定された場合、接触判定手段130が、マーカー付加処理を行う。
接触判定手段130は、接触を判定された場合、仮想空間内の面の接触位置にマーカーを付加する。
接触判定手段130は、付加したマーカーをオブジェクトとして、マーカー設定データ230に付加する。この際、接触判定手段130は、マーカーを、アバターの体の部位、工具等のオブジェクト毎に色分けして付加することが可能である。さらに、接触判定手段130は、例えば、保存数を設定して、複数個、マーカー設定データ230に付加することが可能である。
なお、この保存数を超えた場合、接触判定手段130は、古いマーカーから消すことも可能である。
さらに、接触判定手段130は、マーカーの付加された時間、その際のアバターの動き(軌跡)等も、データとしてマーカー設定データ230に付加可能である。
加えて、接触判定手段130は、マーカー設定データ230に格納されたこのマーカーの位置(座標)等を、CADデータ200に書き出して出力することも可能である。
(Step S109)
When the contact is determined, the contact determination means 130 performs the marker addition process.
When the contact is determined, the contact determination means 130 adds a marker to the contact position of the surface in the virtual space.
The contact determination means 130 adds the added marker as an object to the
When the number of stored items is exceeded, the contact determination means 130 can be erased from the old marker.
Further, the contact determination means 130 can add the time when the marker is added, the movement (trajectory) of the avatar at that time, and the like to the
In addition, the contact determination means 130 can write out the position (coordinates) of the marker stored in the
図6(b)に、このマーカー付加の例を示す。このような場合、接触判定手段130は、接触した箇所の中心部分で、面の表面になるように、マーカーMを配置する。図6(b)では、マーカーMは、星形をしている例を示すものの、単なる球形等であってもよい。 FIG. 6B shows an example of this marker addition. In such a case, the contact determination means 130 arranges the marker M at the central portion of the contacted portion so as to be the surface of the surface. Although FIG. 6B shows an example in which the marker M has a star shape, it may be a simple sphere or the like.
さらに、接触判定手段130は、接触判定の際、HMD2からブザーや低音のヒット音を出力させ、音声出力にてレビューワーに報知することも可能である。さらに、接触判定手段130は、音声だけでなく、コントローラー3の振動等によっても報知可能である。
Further, the contact determination means 130 can output a buzzer or a low-pitched hit sound from the
(ステップS110)
ここで、描画手段120が、描画処理を行う。
描画手段120は、アバターの視点位置に対応して、仮想空間として、RAMに展開され各種処理が実行された中間データ210であるバイナリーデータを描画する。
(Step S110)
Here, the drawing means 120 performs the drawing process.
The drawing means 120 draws binary data, which is
この際、描画手段120は、各種プログラマブルシェーダーを実行して、頂点や描画を調整することが可能である。
具体的には、描画手段120は、アバターの視界において、中間データ210のスケールに対応した特定閾値よりも奥の面を描画しないように構成することが可能である。すなわち、レンダリングされる距離(奥行)を、可変に設定可能である。
このため、例えば、描画手段120は、描画するポリゴンの奥行き方向の座標を可変とする頂点シェーダーやピクセルシェーダーの処理を実行可能である。これらのシェーダーにおいて、描画手段120は、アバターの視点方向の奥行きが特定閾値より奥(遠い)のポリゴンを、描画し辛くするように設定できる。この特定閾値は、例えば、中間データ210のスケールとして、表示されるポリゴン数、画像処理部11や記憶部12の負荷、プラントの敷地内で直接、検証に必要な距離等から算出して設定可能である。または、描画手段120は、アバターの視点の回転時等の条件を指定して、特定閾値を短く(小さく)してポリゴンの表示数を抑えることも可能である。
At this time, the drawing means 120 can execute various programmable shaders to adjust the vertices and drawing.
Specifically, the drawing means 120 can be configured so as not to draw a surface deeper than the specific threshold value corresponding to the scale of the
Therefore, for example, the drawing means 120 can execute the processing of the vertex shader or the pixel shader in which the coordinates in the depth direction of the polygon to be drawn are variable. In these shaders, the drawing means 120 can be set so as to make it difficult to draw a polygon whose depth in the viewpoint direction of the avatar is deeper (farther) than a specific threshold value. This specific threshold value can be calculated and set, for example, as the scale of the
レンダリングされる距離より奧側のポリゴンを描画し辛くする方式として、描画手段120は、ポリゴンを描画しない、ポリゴンを少なくしたりビルボード化したりして表示する、点表示する、フォグ等の処理を行う等の処理を行うことが可能である。
ここで、描画手段120は、描画し辛くされたポリゴンのあるオブジェクトに関しては「**施設」のように文字表示等、その方向になにがあるのかを確認可能にしておくことが可能である。この際、描画手段120は、設置された機器のオブジェクトが多かった場合、機器名ではなく「プラントA、プラントB、原料タンクヤード、製造設備」等のエリア名の表示をすることが可能である。
As a method of making it difficult to draw polygons on the back side of the rendered distance, the drawing means 120 performs processing such as not drawing polygons, reducing the number of polygons or making them billboarded, displaying points, and fog. It is possible to perform processing such as performing.
Here, the drawing means 120 can make it possible to confirm what is in the direction of an object having polygons that are difficult to draw, such as displaying characters like "** facility". .. At this time, when there are many objects of the installed equipment, the drawing means 120 can display the area name such as "plant A, plant B, raw material tank yard, manufacturing equipment" instead of the equipment name. ..
図7(a)の画面例500に示すように、描画手段120は、HMD2の表示手段に対応した描画を行うことが可能である。この他に、描画手段120は、表示部14に、表示することも可能である。これにより、レビューワーは、実際の工業用のプラント内で、そのプラントを見るかのように検証することが可能となる。
As shown in the screen example 500 of FIG. 7A, the drawing means 120 can perform drawing corresponding to the display means of the HMD2. In addition to this, the drawing means 120 can also be displayed on the
さらに、描画手段120は、中間データ210を仮想空間内に配置した地図(マップ)の描画を行うことも可能である。
Further, the drawing means 120 can also draw a map in which the
図7(b)の画面例501に示すように、この地図は、ミニマップとして、HMD2に常時表示させておいてもよく、又は、画面全体のマップとして表示させてもよい。この画面例501では、大きなオブジェクトOとして、プラントA、プラントBが示され、アバターAの位置がアイコンで、この視線の向きが矢印で示されている。これにより、レビューワーが、仮想空間内で、現在どこにいるか容易に確認できるようになる。さらに、画面全体のマップでは、移動する地点Pを指定して、コントローラー3のボタン操作で指示することで、上述したように、その位置まで高速移動モードですぐ移動可能となる。
As shown in the screen example 501 of FIG. 7B, this map may be displayed on the HMD2 as a mini-map at all times, or may be displayed as a map of the entire screen. In this screen example 501, plant A and plant B are shown as large objects O, the position of avatar A is indicated by an icon, and the direction of the line of sight is indicated by an arrow. This allows the reviewer to easily see where they are in the virtual space. Further, in the map of the entire screen, by designating the moving point P and instructing it by operating the button of the
さらに、描画手段120は、表示部14で表示する用の俯瞰映像を描画することも可能である。この際、描画手段120は、俯瞰映像にアバターのオブジェクトを描画し、この上からミニマップを半透明等で描画することが可能である。すなわち、アバターのオブジェクトは、HMD2用には描画されず、表示部14に表示される俯瞰映像で描画されるようにしてもよい。この俯瞰映像において、視点や視線方向等は、入力部13等から指示可能である。
Further, the drawing means 120 can also draw a bird's-eye view image to be displayed on the
(ステップS111)
次に、描画手段120が、レビューを終了するか否かを判断する。描画手段120は、コントローラー3や入力部13にて、レビューワーがレビュー終了の指示をしたことを検出した場合、Yesと判断する。描画手段120は、それ以外の場合には、Noと判断する。
Yesの場合、描画手段120は、レビュー処理を終了する。
Noの場合、描画手段120は、処理をステップS102に戻して、レビュー用の描画を続ける。
以上により、本発明の第一実施形態に係るレビュー処理を終了する。
(Step S111)
Next, the drawing means 120 determines whether or not to end the review. When the drawing means 120 detects that the reviewer has instructed the end of the review by the
In the case of Yes, the drawing means 120 ends the review process.
If No, the drawing means 120 returns the process to step S102 and continues drawing for review.
As described above, the review process according to the first embodiment of the present invention is completed.
以上のように構成することで、以下のような効果を得ることができる。
従来、特許文献1の技術では、配管の設計を行う手助けはできるものの、実際に設計されたプラントの整備性等を評価(レビュー)することはできなかった。
このため、CADデータ200をCADソフトウェアで表示してレビューしようとしても、直感的に把握することは難しかった。
With the above configuration, the following effects can be obtained.
Conventionally, although the technique of Patent Document 1 can assist in the design of piping, it has not been possible to evaluate (review) the maintainability of the actually designed plant.
Therefore, even if the
これに対して、本発明の実施の形態に係るレビュー装置1は、工業用のプラントをレビューするためのレビュー装置であって、プラントのCADデータ200を、複数の面データを含む中間データ210に変換する中間データ変換手段100と、中間データ変換手段100により変換された中間データ210と同スケールの座標系にレビューワーのアバターを配置するアバター配置手段110と、アバター配置手段110により配置されたアバターの視点位置から、中間データ210に対応した仮想空間を描画する描画手段120とを備えることを特徴とする。
このように構成することで、プラント設計において、3DCADデータファイルを読み込んで、直感的にプラントの配管等のレビューをすることが可能となる。これにより、CADデータ200を用意するだけで、アバターの視点からみた仮想空間を俯瞰して、直感的にレビューを行うことが可能となる。結果として、メンテナンススペースの体感、運転時の操作シミュレーション等、各種調整のシミュレーションを行うことができる。よって、設計の短期化、コスト低減が実現できる。
On the other hand, the review device 1 according to the embodiment of the present invention is a review device for reviewing an industrial plant, and the
With this configuration, it is possible to read the 3D CAD data file and intuitively review the piping of the plant in the plant design. As a result, it is possible to intuitively review the virtual space from the viewpoint of the avatar just by preparing the
また、従来、CADデータ200をXR等で閲覧可能とするためには、メーカー等に依頼して、手動でデータをXR等用に変換する必要があった。
これに対して、本発明の実施の形態に係るレビュー装置1は、描画手段120により描画された仮想空間の画像を表示し、現実空間の位置及び向きを取得可能なHMD2が接続され、アバター配置手段110は、仮想空間内のアバターの頭部の位置を、HMD2により取得された現実空間の位置及び向きに合わせることを特徴とする。
このように構成し、中間データ210に変換してから仮想空間を描画することで、いちいちメーカー等により手動でCADデータ200を変換する必要がなくなる。このため、CADデータ200をそのままXR等で閲覧できるようになる。よって、CADデータ200の修正、変更があった際に、すぐレビューすることが可能となる。
Further, conventionally, in order to make the
On the other hand, the review device 1 according to the embodiment of the present invention displays an image of the virtual space drawn by the drawing means 120, is connected to an HMD2 capable of acquiring the position and orientation of the real space, and arranges an avatar. The means 110 is characterized in that the position of the head of the avatar in the virtual space is aligned with the position and orientation of the real space acquired by the HMD2.
By configuring in this way and drawing the virtual space after converting to the
また、CADデータ200をXR等で閲覧可能とするためには、CADデータ200上で、階段等と設定する必要があった。この上で、メーカー等に依頼して、階段等の位置を、手動で上下移動可能な通路のようにデータを手直しする必要があった。
これに対して、本発明の実施の形態に係るレビュー装置1は、アバター配置手段110は、仮想空間内でアバターの腰部から体軸の下方向で最初に接触した略水平面の位置に、アバターの足裏の位置を合わせることを特徴とする。
このように構成することで、CADデータ200上で、特に階段等を設定することなく、階段の隙間から落ちないようにして、アバター等を上り下りさせることができるようになる。すなわち、CADデータ200の手直しが必要なくなる。このため、CADデータ200をそのままXR等で閲覧できるようになる。
Further, in order to make the
On the other hand, in the review device 1 according to the embodiment of the present invention, the avatar arranging means 110 is located at a position on a substantially horizontal plane where the avatar arranging means 110 first contacts the avatar from the waist to the downward direction of the body axis in the virtual space. It is characterized by aligning the soles of the feet.
With this configuration, it is possible to move the avatar or the like up and down on the
また、本発明の実施の形態に係るレビュー装置1は、アバター配置手段110は、ビューワーの指示を取得し、アバターに重力を加えるか否か、及び/又はアバターを高速移動させる高速移動モードか否かを設定し、重力を加えない設定の場合又は高速移動モードの場合には、仮想空間内の面との当たり判定をせずに仮想空間の上下方向を移動可能とすることを特徴とする。
このように構成することで、レビューワーの意図に沿って、仮想空間内でアバターを容易に移動させることが可能となる。また、現実空間内でも、レビューワーが移動する際に、壁等にぶつかる可能性を減らせる。よって、不必要な衝突判定を自動でオフにすることで、処理負担を軽くして、ユーザーの回避等の負担も軽くすることでユーザビリティーを向上させることができる。
さらに、仮想空間内の移動方法を高速移動モードと低速移動モードの二つにすることで、初めて操作するレビューワーでも、感覚的に操作することができる。そして、仮想空間内で行きたい場所に素早く移動することが可能となる。さらに、重力なしでも移動できるようにすることで、仮想空間内の高い位置へ簡単に移動することが可能となる。
Further, in the review device 1 according to the embodiment of the present invention, whether or not the avatar arranging means 110 acquires the instruction of the viewer and applies gravity to the avatar, and / or whether or not the avatar is in the high-speed movement mode for moving the avatar at high speed. In the case of setting that does not apply gravity or in the high-speed movement mode, it is characterized in that it can move in the vertical direction of the virtual space without determining the contact with the surface in the virtual space.
With this configuration, it is possible to easily move the avatar in the virtual space according to the intention of the reviewer. Also, even in the real space, the possibility of hitting a wall or the like when the reviewer moves can be reduced. Therefore, by automatically turning off unnecessary collision detection, the processing load can be lightened, and the burden of avoiding the user can be lightened to improve usability.
Furthermore, by setting the movement method in the virtual space to two modes, a high-speed movement mode and a low-speed movement mode, even a reviewer who operates for the first time can operate it intuitively. Then, it becomes possible to quickly move to the desired place in the virtual space. Furthermore, by making it possible to move without gravity, it becomes possible to easily move to a high position in the virtual space.
また、本発明の実施の形態に係るレビュー装置1は、アバターの移動中に、アバターと、仮想空間内の略水平面以外の面との接触を判定する接触判定手段130を更に備えることを特徴とする。
このように構成することで、アバターのと、壁や機器等のオブジェクトの面との接触判定の結果を容易に把握できる。よって、製造、整備時にどこが干渉するか、容易に知ることが可能となる。すなわち、実寸大でプラントを動き回り、手や頭が当たるような事態を容易に検証可能となる。
また、高速移動モード時には、接触判定を行わないようにすることで、レビューワーによるアバターの指示や移動を妨げないようにすることができる。
Further, the review device 1 according to the embodiment of the present invention is further provided with a contact determination means 130 for determining contact between the avatar and a surface other than the substantially horizontal plane in the virtual space while the avatar is moving. do.
With this configuration, the result of contact determination between the avatar and the surface of an object such as a wall or device can be easily grasped. Therefore, it is possible to easily know where the interference occurs during manufacturing and maintenance. In other words, it is possible to easily verify a situation in which a hand or head hits the plant while moving around the plant at the actual size.
In addition, in the high-speed movement mode, it is possible to prevent the reviewer from interfering with the instruction and movement of the avatar by not performing the contact determination.
また、本発明の実施の形態に係るレビュー装置1は、接触判定手段130は、接触を判定された場合、仮想空間内の面の接触位置にマーカーを付加する、及び/又は、音声出力にてレビューワーに警告することを特徴とする。
このように構成することで、接触したことを後からでも確認でき、検証しやすくなる。
また、高速移動モード時には、マーカーを付加しないようにすることで、不要なマーカーが付加されないようにすることが可能となる。
Further, in the review device 1 according to the embodiment of the present invention, when the contact determination means 130 determines the contact, a marker is added to the contact position of the surface in the virtual space, and / or by voice output. It is characterized by warning the reviewer.
With such a configuration, it is possible to confirm the contact even afterwards, and it becomes easy to verify.
Further, in the high-speed movement mode, it is possible to prevent unnecessary markers from being added by not adding markers.
また、本発明の実施の形態に係るレビュー装置1は、現実空間の位置及び向きを取得可能なコントローラー3が接続され、アバター配置手段110は、仮想空間内のアバターの手の位置を、HMD2により取得された現実空間の位置に合わせ、接触判定手段130は、アバターの手に仮想的に把持された工具についても、仮想空間内の面との接触を判定することを特徴とする。
このように構成することで、アバターが装着した工具等のオブジェクトの干渉を把握することが可能となる。
Further, the review device 1 according to the embodiment of the present invention is connected to the
With this configuration, it is possible to grasp the interference of objects such as tools worn by the avatar.
また、本発明の実施の形態に係るレビュー装置1は、描画手段120は、アバターの視界において、中間データ210のスケールに対応した特定閾値よりも奥の面を描画しないことを特徴とする。
このように、必要に応じて画像処理範囲を限定するよう構成することで、大規模な中間データ210でも、スムーズに表示できるようになり、表示パフォーマンスを改善できる。
Further, the review device 1 according to the embodiment of the present invention is characterized in that the drawing means 120 does not draw a surface deeper than a specific threshold value corresponding to the scale of the
By configuring the image processing range to be limited as needed in this way, even a large-scale
なお、上述の第一実施形態では、中間データ210をバイナリーデータに展開する際に、ポリゴンの表示制御を行う表示制御処理を、主に制御部10の中間データ変換手段100にて実行する例について説明した。
これについて、OBJ形式のデータやOBF形式のデータを読み込む際の処理を、画像処理部11を用いて、コンピュートシェーダー等で、マルチスレッド等も用いて最適化することも可能である。また、描画手段120についても、画像処理部11により高速に描画可能である。さらに、画像処理部11により、バイナリーデータで表示される生成モデルの最適化(Triangle Strips等)及び奥行き方向の描画の最適化を行うことも可能である。
In the first embodiment described above, when the
Regarding this, it is also possible to optimize the processing when reading the OBJ format data or the OBF format data by using the
上述の第一実施形態では、アバターの腰部からベクトルを体軸に沿って下ろし、略水平面との接触を判定するように記載した。
しかしながら、体軸とは関係なしに、Y軸方向の下方向にベクトルを延ばして接触判定することも可能である。この場合、例えば、アバターの腰部の位置を、アバターの身長の1/2の位置のように決定する。すなわち、アバターの身長の1/2の高さから、Y軸方向の下方向にベクトルを下ろして接触判定を行うような構成としてもよい。そして、このベクトルと面との接触判定を行った場合、アバターの「足裏」のポリゴン等との直接の接触判定を行わなくてもよい。これにより、アバターの姿勢に関わらず、略水平面との判定を行うことができ、階段等を踏み外す可能性を減じることが可能である。
さらに、腰部よりも下の位置からベクトルを延ばすように設定することも可能である。すなわち、このベクトルの始点をアバターの身長の1/2より小さく、例えば、膝下くらいにするような調整を行うことも可能である。
加えて、上述の第一実施形態では、接触判定をベクトルの点で行うように記載したものの、円形の範囲で行うことも可能である。これにより、グレーチング等の構造物があった場合でも、アバターを確実に落ちなくすることが可能となる。
さらに、アバターの腰部から下のポリゴン全体と、他のポリゴン等との接触判定を行うようにしてもよい。この場合、他のポリゴン等と接触していた場合、アバターの足裏の位置を当該ポリゴンの上になるように決定してもよい。
In the first embodiment described above, a vector is lowered from the waist of the avatar along the body axis to determine contact with a substantially horizontal plane.
However, it is also possible to extend the vector downward in the Y-axis direction to determine the contact regardless of the body axis. In this case, for example, the position of the waist of the avatar is determined as the position of 1/2 of the height of the avatar. That is, the contact may be determined by lowering the vector in the downward direction in the Y-axis direction from the height of 1/2 of the height of the avatar. Then, when the contact determination between this vector and the surface is performed, it is not necessary to directly determine the contact with the polygon or the like of the "sole" of the avatar. As a result, it is possible to determine that the avatar is in a substantially horizontal plane regardless of the posture of the avatar, and it is possible to reduce the possibility of stepping off the stairs or the like.
Furthermore, it is also possible to set the vector to extend from a position below the lumbar region. That is, it is possible to adjust the starting point of this vector to be smaller than 1/2 of the height of the avatar, for example, below the knee.
In addition, in the above-described first embodiment, although it is described that the contact determination is performed at the point of the vector, it is also possible to perform the contact determination in a circular range. As a result, even if there is a structure such as grating, it is possible to surely prevent the avatar from falling.
Further, the contact determination between the entire polygon below the waist of the avatar and another polygon or the like may be performed. In this case, if the avatar is in contact with another polygon or the like, the position of the sole of the avatar may be determined to be above the polygon.
上述の第一実施形態では、45°以上の角度の面とは、足裏処理にて接触判定を行わないように記載したものの、斜めでも垂直でも接触判定をするようにしてもよい。これにより、斜めのスロープやパイプや坂等であっても、上るようにすることが可能となる。
加えて、水平方向で手すりやラッタルを自動認識したり、テクスチャーやマテリアルで階段の面であることを認識するように構成することも可能である。
In the above-described first embodiment, although it is described that the contact determination is not performed on the surface having an angle of 45 ° or more by the sole treatment, the contact determination may be performed either diagonally or vertically. This makes it possible to climb even diagonal slopes, pipes, slopes, and the like.
In addition, it can be configured to automatically recognize handrails and rattals in the horizontal direction, and to recognize that it is a surface of stairs with textures and materials.
上述の第一実施形態では、高速移動モード又は低速移動モードの切り換えと、重力の有無とが連動するよう記載した。しかしながら、重力のありなしのみを、モードの切り換えとは別に設定可能としてもよい。
この場合、例えば、アバター配置手段110は、コントローラー3のボタンによる重力の有無を切り換えることが可能である。
さらに、コントローラー3を複数備えて、例えば、右手に把持されたコントローラー3のボタン押下では低速移動モード、左手に把持されたコントローラー3のボタン押下では高速移動モードとするような切り換えを行うことも可能である。
または、特定のボタンやパッドの押下によっては、高速移動モード又は低速移動モードで移動するように構成することも可能である。
In the first embodiment described above, it is described that the switching between the high-speed movement mode and the low-speed movement mode and the presence / absence of gravity are linked. However, only the presence or absence of gravity may be set separately from the mode switching.
In this case, for example, the avatar arranging means 110 can switch the presence or absence of gravity by the button of the
Further, it is also possible to provide a plurality of
Alternatively, it can be configured to move in the high-speed movement mode or the low-speed movement mode depending on the pressing of a specific button or pad.
上述の第一実施形態では、描画手段120は、アバターの視界において、中間データ210のスケールに対応した特定閾値よりも奥の面を描画しないように記載した。
これについて、特定閾値自体を変化させる構成も可能である。たとえば、中間データ210のポリゴン量が多い場合、すなわち、混み合ったプラントの場合は、特定閾値をアバターの視界方向でより手前に設定可能である。逆に、中間データ210のポリゴン量が少ない場合、すなわち、空いているプラントの場合、特定閾値をより奥に設定可能である。または、特定閾値を変化させず、プラントのスケール自体を変更することで、より遠近感を出すようにして、結果として描画するポリゴン量を調整し、処理量を調整してもよい。
In the first embodiment described above, the drawing means 120 is described so as not to draw a surface deeper than the specific threshold value corresponding to the scale of the
Regarding this, a configuration in which the specific threshold value itself is changed is also possible. For example, when the amount of polygons in the
<第二実施形態>
次に、本発明の第二実施形態に係るレビューシステムYについて説明する。
本実施形態では、工業用のプラントをレビューする際に、建物や工具等のオブジェクトを用いて、検証を行うことが可能である。さらに、照明やスピーカー等についても検証可能となる。
<Second embodiment>
Next, the review system Y according to the second embodiment of the present invention will be described.
In this embodiment, when reviewing an industrial plant, it is possible to perform verification using objects such as buildings and tools. Furthermore, it is possible to verify lighting, speakers, and the like.
具体的に、図8により説明すると、本実施形態のレビューシステムYは、第一実施形態のレビュー装置1と同様のハードウェア構成のレビュー装置1b、HMD2、及びコントローラー3を備えている。なお、以下において、第一実施形態と同じ符号は、同様の構成要素を示す。
Specifically, as described with reference to FIG. 8, the review system Y of the present embodiment includes a
制御部10bは、中間データ変換手段100、オブジェクト配置手段111、描画音声手段121、及びコース設定手段140を備えている。
記憶部12bは、CADデータ200、中間データ210、オブジェクトデータ221、及びコースデータ240を格納する。
以下では、第一実施形態のレビューシステムXと異なる構成について説明する。
The
The
Hereinafter, a configuration different from the review system X of the first embodiment will be described.
オブジェクト配置手段111は、中間データ変換手段100により変換された中間データ210と同スケールの座標系に、レビュー用のオブジェクトを配置する。
また、オブジェクト配置手段111は、レビューワーの指示を取得し、仮想空間内で、オブジェクトを付加及び/又は移動することも可能である。
具体的には、オブジェクト配置手段111は、オブジェクトとして、例えば、仮想空間内に音源及び/又は照明器具を配置することが可能である。
The
Further, the
Specifically, the
描画音声手段121は、第一実施形態の描画手段120と同様の機能を備えている。本実施形態においては、描画音声手段121は、オブジェクト配置手段111により配置されたオブジェクトと中間データ210とに対応した仮想空間を描画する。
これに加えて、描画音声手段121は、コースデータ240を参照し、設定された見学コースに沿った仮想空間を描画することも可能である。
さらに、描画音声手段121は、照明器具が配置された場合、照明を描画可能である。
加えて、描画音声手段121は、音源が配置された場合、当該音源に対応した音声も、HMD2から出力させることが可能である。すなわち、描画音声手段121は、音源からの音声を仮想空間上の仮想音声として出力を計算することが可能である。これにより、描画音声手段121は、本実施形態の描画手段、及び音声算出手段として機能する。
The drawing voice means 121 has the same function as the drawing means 120 of the first embodiment. In the present embodiment, the drawing voice means 121 draws a virtual space corresponding to the object arranged by the
In addition to this, the drawing voice means 121 can also refer to the
Further, the drawing voice means 121 can draw the lighting when the lighting fixture is arranged.
In addition, when the sound source is arranged, the drawing sound means 121 can also output the sound corresponding to the sound source from the HMD2. That is, the drawing voice means 121 can calculate the output of the voice from the sound source as the virtual voice in the virtual space. As a result, the drawing voice means 121 functions as the drawing means and the voice calculation means of the present embodiment.
コース設定手段140は、仮想空間内に見学コースを設定する。
コース設定手段140は、ユーザーの指示にてコースデータ240に設定する。または、コース設定手段140は、中間データ210からコースを自動的に算出し、コースデータ240に設定することも可能である。
The course setting means 140 sets a tour course in the virtual space.
The course setting means 140 sets the
オブジェクトデータ221は、レビューワーにより操作されるオブジェクトが設定されたデータである。このオブジェクトは、例えば、工具、配管、装置、施設、設備、その他、ポリゴンで構成される面等の集合を含む。具体的には、装置は、エンジンや各種の外部から搬入される装置、施設は設置される足場等を含む。これにより、プラント内での設置等の検証を行うことが可能となる。設備としては、スピーカー等の音源のオブジェクト、照明器具のオブジェクト等、及びこれらの配線等のオブジェクトを配置可能である。
さらに、オブジェクトは、複数に分解、変形可能であってもよい。すなわち、装置等の場合、一部に分解したり、変形したりすることが可能である。このため、工具等の特別なオブジェクトが設定されていてもよい。さらに、オブジェクトデータ221は、上述の第二実施形態のアバターデータ220と同様のデータを含んでいてもよい。
The
Further, the object may be decomposed and deformed into a plurality of objects. That is, in the case of a device or the like, it can be partially disassembled or deformed. Therefore, a special object such as a tool may be set. Further, the
コースデータ240は、レビューワーの見学用のコースが設定されたデータである。具体的には、中間データ210内でどのような道順で移動するかのコース、立ち止まる時間等が設定されている。
The
ここで、レビュー装置1bの制御部10bは、記憶部12bに記憶された制御プログラムを実行することで、中間データ変換手段100、オブジェクト配置手段111、描画音声手段121、及びコース設定手段140として機能させられる。これらがハードウェア資源を用いる等については、第一実施形態と同様である。
Here, the
〔レビューシステムYによるレビュー処理〕
次に、図9を参照して、本実施形態に係るレビューシステムYによるレビュー処理の説明を行う。
本実施形態のレビュー処理においては、プラントのCADデータ200を、中間データ210に変換する。そして、変換された中間データ210と同スケールの座標系に、レビュー用のオブジェクトを配置する。この上で、配置されたオブジェクトと中間データ210とを含む仮想空間を描画する。この描画された仮想空間の映像は、HMD2に表示される。
本実施形態のレビュー処理は、主にレビュー装置1bの制御部10bが、記憶部12bに記憶されたプログラムを、各部と協働し、ハードウェア資源を用いて実行する。
以下で、図9のフローチャートを参照して、レビュー処理の詳細をステップ毎に説明する。
[Review processing by review system Y]
Next, the review process by the review system Y according to the present embodiment will be described with reference to FIG.
In the review process of this embodiment, the
In the review process of the present embodiment, the
Hereinafter, the details of the review process will be described step by step with reference to the flowchart of FIG.
(ステップS200)
まず、中間データ変換手段100が、CADデータ取得処理を行う。この処理は、図3のステップS100と同様である。
(Step S200)
First, the intermediate data conversion means 100 performs the CAD data acquisition process. This process is the same as in step S100 of FIG.
(ステップS201)
次に、中間データ変換手段100が、中間データ変換処理を行う。この処理も、図3のステップS101と同様である。
(Step S201)
Next, the intermediate data conversion means 100 performs the intermediate data conversion process. This process is also the same as in step S101 of FIG.
(ステップS202)
次に、コース設定手段140が、コース設定処理を行う。
コース設定手段140は、仮想空間内に見学コースを設定し、コースデータ240に格納する。
コース設定手段140は、ユーザーの指示でコースを設定、又はコースを自動的に算出し、コースデータ240に設定する。コース設定手段140は、例えば、中間データ210のオブジェクト単位で、レビューワーが閲覧できるようなコースを、循環セールスマン問題等を用いて算出することが可能である。
(Step S202)
Next, the course setting means 140 performs the course setting process.
The course setting means 140 sets a tour course in the virtual space and stores it in the
The course setting means 140 sets the course according to the instruction of the user, or automatically calculates the course and sets it in the
図10(a)によると、レビューワーが、コースをコースデータ240に設定した例を示している。この例では、プラントAのオブジェクトから、プラントBのオブジェクトへ移動している。
According to FIG. 10 (a), the reviewer shows an example in which the course is set to the
(ステップS203)
ここで、オブジェクト配置手段111が、オブジェクト配置処理を行う。
オブジェクト配置手段111は、中間データ210と同スケールの座標系に、レビュー用のオブジェクトを配置する。この中間データ210と同スケールの座標系の算出は、図3のステップS103の処理と同様に行う。
(Step S203)
Here, the
The
オブジェクト配置手段111は、コントローラー3からレビューワーの指示を取得し、オブジェクトデータ221のオブジェクトを変更可能である。オブジェクト配置手段111は、この変更としては、仮想空間内で、オブジェクトを付加したり、移動したりすることが可能である。たとえば、オブジェクト配置手段111は、工具、配管、装置、設備、施設、その他、ポリゴンで構成されるオブジェクトを、特定の位置に配置したり、分解したり、変形したりすることが可能である。この際、オブジェクト配置手段111は、オブジェクトとして、例えば、仮想空間内に音源及び/又は照明器具を配置することが可能である。
The
図10(a)の画面例502によると、レビューワーは、一点鎖線の範囲で示す照明器具Iによる照明を閲覧したり、音源Uからの音の広がり等を確認したりすることも可能である。
図10(b)の画面例503、及び図10(c)の画面例504によると、レビューワーは、オブジェクトOについて、アバターのレンチ等のアイコンで分解することが可能である。
According to the screen example 502 of FIG. 10A, the reviewer can also view the illumination by the lighting fixture I shown in the range of the alternate long and short dash line, and can confirm the spread of the sound from the sound source U. ..
According to the screen example 503 of FIG. 10B and the screen example 504 of FIG. 10C, the reviewer can decompose the object O with an icon such as an avatar wrench.
(ステップS204)
次に、描画音声手段121が、描画処理を行う。この処理も、図3のステップS109の処理と同様に行う。
(Step S204)
Next, the drawing voice means 121 performs drawing processing. This process is also performed in the same manner as the process in step S109 of FIG.
(ステップS205)
次に、描画音声手段121が、音声出力処理を行う。
描画音声手段121は、オブジェクトとして、仮想空間内に音源が配置された場合、当該音源に対応した音声を、HMD2から出力させる。
(Step S205)
Next, the drawing audio means 121 performs audio output processing.
When a sound source is arranged in the virtual space as an object, the drawing voice means 121 outputs the voice corresponding to the sound source from the HMD2.
(ステップS206)
次に、描画音声手段121が、レビューを終了するか否かを判断する。描画音声手段121は、レビュー終了の指示を検出した場合、Yesと判断する。描画音声手段121は、それ以外の場合には、Noと判断する。
Yesの場合、描画音声手段121は、レビュー処理を終了する。
Noの場合、描画音声手段121は、処理をステップS203に戻して、レビュー用の描画を続ける。
以上により、本発明の第二実施形態に係るレビュー処理を終了する。
(Step S206)
Next, the drawing voice means 121 determines whether or not to end the review. When the drawing voice means 121 detects the instruction to end the review, it determines Yes. The drawing voice means 121 determines No in other cases.
In the case of Yes, the drawing voice means 121 ends the review process.
If No, the drawing voice means 121 returns the process to step S203 and continues drawing for review.
This completes the review process according to the second embodiment of the present invention.
以上のように構成することで、以下のような効果を得ることができる。
従来は、配管レビューや機器配置計画等のプラント設計には、XRは使用されていなかった。このため、例えば、レビューを実行する際には、3DのCADデータ200を大画面に表示しながら、配管位置やバルブの操作性等を検討していた。この場合、3D CADの扱いに慣れているレビューワーには、距離感やサイズ感が理解できる。しかし、慣れていないレビューワーでは、画面上で見るだけでは、具体的なイメージがつかめないという問題があった。
With the above configuration, the following effects can be obtained.
Conventionally, XR has not been used for plant design such as piping review and equipment layout planning. Therefore, for example, when executing the review, while displaying the
これに対して、本実施形態のレビューシステムYは、工業用のプラントをレビューするためのレビューシステムであって、プラントのCADデータ200を、複数の面データを含む中間データ210に変換する中間データ変換手段100と、中間データ変換手段100により変換された中間データ210と同スケールの座標系に、レビュー用のオブジェクトを配置するオブジェクト配置手段111と、オブジェクト配置手段111により配置されたオブジェクトと中間データ210とに対応した仮想空間を描画する描画音声手段121と、描画音声手段121に描画された仮想空間の映像を表示するHMD2とを備えることを特徴とする。
このように構成することで、プラントのレビューにて、HMD2によりXRでレビューすることが可能となる。XRにより、実寸のプラントを移動したりすることができ、メンテナンス性や操作性、通路の広さ等、実際の作業者の視点で確認することが可能となる。
On the other hand, the review system Y of the present embodiment is a review system for reviewing an industrial plant, and is intermediate data that converts the
With this configuration, it is possible to review the plant with XR by HMD2. With the XR, it is possible to move the actual size plant, and it is possible to check the maintainability, operability, aisle width, etc. from the viewpoint of an actual worker.
また、本実施形態に係るレビュー装置1bは、仮想空間内に見学コースを設定するコース設定手段140を更に備え、描画音声手段121は、見学コースに沿った仮想空間を描画することを特徴とする。
このように構成することで、XRデータ内で見学コースを設定することが可能となる。これにより、実際のプラントに行かなくても、見学をすることができる。
Further, the
With this configuration, it is possible to set a tour course in the XR data. This allows you to tour without going to the actual plant.
また、本実施形態に係るレビュー装置1bは、オブジェクト配置手段111は、レビューワーの指示を取得し、仮想空間内で、オブジェクトを付加及び/又は移動することを特徴とする。
このように構成することで、XR中で、オブジェクトを移動したり、付加させたりすることが可能となる。よって、仮設足場の設置計画等ができるようになる。また、クレーン等の重機を置き、工事の配置計画ができる。加えて、道具をつかったオペレーションのシミュレーション、配管の改造計画等を行うことが可能となる。
Further, the
With this configuration, it is possible to move and add objects in the XR. Therefore, it becomes possible to plan the installation of temporary scaffolding. In addition, heavy machinery such as cranes can be placed to plan the layout of construction work. In addition, it will be possible to simulate operations using tools, plan modifications to piping, and so on.
また、本実施形態に係るレビュー装置1bは、オブジェクト配置手段111は、レビューワーの指示を取得し、仮想空間内で、オブジェクトを単位毎に分解することを特徴とする。
このように構成することで、XRのオブジェクトを分解操作することが可能となる。よって、メンテナンススペースの確認や、分解手順の学習等に使用できる。
Further, the
With this configuration, it is possible to disassemble the XR object. Therefore, it can be used for checking the maintenance space and learning the disassembly procedure.
また、本実施形態に係るレビュー装置1bは、オブジェクト配置手段111は、オブジェクトとして、仮想空間内に音源及び/又は照明器具を配置し、描画音声手段121は、照明器具が配置された場合、照明を描画し、HMD2は、音源が配置された場合、当該音源に対応した音声も出力することを特徴とする。
このように構成することで、プラント内に音源を設置し、放送機器の設置場所と音源の検証を行うことが可能となる。または、機器からでる騒音の確認を行うことも可能となる。さらに、照明器具を設置することで、照明の配置や数を実際の作業者の目線で確認することが可能となる。
Further, in the
With this configuration, it is possible to install a sound source in the plant and verify the installation location of the broadcasting equipment and the sound source. Alternatively, it is possible to check the noise emitted from the device. Furthermore, by installing lighting equipment, it is possible to check the arrangement and number of lighting from the perspective of an actual worker.
<他の実施の形態>
なお、上述の第一実施形態と第二次実施形態は、単なる例であって、この組み合わせ及び一部の実施は任意に行うことが可能である。たとえば、第一実施形態と第二実施形態とを同時に含むような構成であってもよい。オブジェクトデータ221にアバターデータ220を含ませてもよい。また、アバターをコースデータ240内で動かすようにしてもよい。
また、上述の第一実施形態と第二次実施形態では、HMD2を用いてXR表示する例について説明した。しかしながら、表示部14のみを用いて、HMD2を用いない構成であってもよい。この場合、俯瞰映像のみを表示するようにしても、表示部14にアバターからの始点画像を表示するようにしてもよい。さらに、コントローラー3を用いない構成であってもよい。この場合、入力部13により各種処理を実行してもよい。
<Other embodiments>
The above-mentioned first embodiment and the second embodiment are merely examples, and this combination and some of the embodiments can be performed arbitrarily. For example, the configuration may include the first embodiment and the second embodiment at the same time. The
Further, in the above-described first embodiment and the second embodiment, an example of XR display using HMD2 has been described. However, a configuration may be configured in which only the
また、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。 Further, it is needless to say that the configuration and operation of the above-described embodiment are examples and can be appropriately modified and executed without departing from the spirit of the present invention.
1、1b レビュー装置
2 HMD
3 コントローラー
10、10b 制御部
11 画像処理部
12、12b 記憶部
13 入力部
14 表示部
15 接続部
100 中間データ変換手段
110 アバター配置手段
111 オブジェクト配置手段
120 描画手段
121 描画音声手段
130 接触判定手段
140 コース設定手段
200 CADデータ
210 中間データ
220 アバターデータ
221 オブジェクトデータ
230 マーカー設定データ
240 コースデータ
500、501、502、503、504 画面例
A アバター
H 腰部
I 照明器具
L 足裏
M マーカー
O オブジェクト
P 地点
S 水平面
U 音源
X、Y レビューシステム
1,
3
Claims (6)
プラントのCADデータを、複数の面データを含む中間データに変換する中間データ変換手段と、
前記中間データ変換手段により変換された前記中間データと同スケールの座標系に、レビュー用のオブジェクトを配置するオブジェクト配置手段と、
前記オブジェクト配置手段により配置された前記オブジェクトと前記中間データとに対応した仮想空間を描画する描画手段と、
前記描画手段に描画された前記仮想空間の映像を表示するヘッドマウントディスプレイとを備える
ことを特徴とするレビューシステム。 A review system for reviewing industrial plants
An intermediate data conversion means for converting CAD data of a plant into intermediate data including a plurality of surface data,
An object arranging means for arranging an object for review in a coordinate system of the same scale as the intermediate data converted by the intermediate data conversion means, and an object arranging means.
A drawing means for drawing a virtual space corresponding to the object placed by the object placement means and the intermediate data, and
A review system including a head-mounted display that displays an image of the virtual space drawn on the drawing means.
前記描画手段は、
前記見学コースに沿った前記仮想空間を描画する
ことを特徴とする請求項1に記載のレビューシステム。 Further provided with a course setting means for setting a tour course in the virtual space,
The drawing means
The review system according to claim 1, wherein the virtual space is drawn along the tour course.
レビューワーの指示を取得し、前記仮想空間内で、前記オブジェクトを付加及び/又は移動する
ことを特徴とする請求項1又は2に記載のレビューシステム。 The object placement means is
The review system according to claim 1 or 2, wherein the reviewer's instruction is acquired and the object is added and / or moved in the virtual space.
レビューワーの指示を取得し、前記仮想空間内で、前記オブジェクトを単位毎に分解する
ことを特徴とする請求項1乃至3のいずれか1項に記載のレビューシステム。 The object placement means is
The review system according to any one of claims 1 to 3, wherein the reviewer's instruction is acquired and the object is decomposed into units in the virtual space.
前記オブジェクトとして、前記仮想空間内に音源及び/又は照明器具を配置し、
前記描画手段は、前記照明器具が配置された場合、照明を描画し、
前記ヘッドマウントディスプレイは、前記音源が配置された場合、当該音源に対応した音声も出力する
ことを特徴とする請求項1乃至4のいずれか1項に記載のレビューシステム。 The object placement means is
As the object, a sound source and / or a lighting fixture is arranged in the virtual space, and the object is arranged.
The drawing means draws the lighting when the luminaire is arranged.
The review system according to any one of claims 1 to 4, wherein the head-mounted display also outputs sound corresponding to the sound source when the sound source is arranged.
プラントのCADデータを、複数の面データを含む中間データに変換し、
変換された前記中間データと同スケールの座標系に、レビュー用のオブジェクトを配置し、
配置された前記オブジェクトと前記中間データとを含む仮想空間を描画し、
描画された前記仮想空間の映像をヘッドマウントディスプレイに表示する
ことを特徴とするレビュー方法。 A review method performed by a review system for reviewing industrial plants,
Convert the CAD data of the plant to intermediate data including multiple surface data,
Place the object for review in the coordinate system of the same scale as the converted intermediate data,
Draw a virtual space containing the placed object and the intermediate data,
A review method characterized by displaying a drawn image of the virtual space on a head-mounted display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020059733A JP2021157697A (en) | 2020-03-30 | 2020-03-30 | Review system and review method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020059733A JP2021157697A (en) | 2020-03-30 | 2020-03-30 | Review system and review method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021157697A true JP2021157697A (en) | 2021-10-07 |
Family
ID=77918608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020059733A Pending JP2021157697A (en) | 2020-03-30 | 2020-03-30 | Review system and review method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021157697A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7571321B1 (en) | 2023-04-13 | 2024-10-22 | 鹿島建設株式会社 | program |
-
2020
- 2020-03-30 JP JP2020059733A patent/JP2021157697A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7571321B1 (en) | 2023-04-13 | 2024-10-22 | 鹿島建設株式会社 | program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11270514B2 (en) | Mixed-reality and CAD architectural design environment | |
US11850755B2 (en) | Visualization and modification of operational bounding zones using augmented reality | |
JP5609416B2 (en) | Information processing apparatus, information processing method, and program | |
Marner et al. | Spatial user interfaces for large-scale projector-based augmented reality | |
CN112313605B (en) | Placement and manipulation of objects in an augmented reality environment | |
EP3458942B1 (en) | Display of three-dimensional model information in virtual reality | |
JP2023504992A (en) | Posture-based virtual space composition | |
Weichel et al. | SPATA: Spatio-tangible tools for fabrication-aware design | |
CN110299042B (en) | Immersive nuclear power plant main equipment process simulation deduction method and system | |
WO2013108749A1 (en) | Delivery route planning system | |
JP2016526222A (en) | HUD object design and display method. | |
JP2018008347A (en) | Robot system and operation region display method | |
EP4020398A1 (en) | Method and system for displaying a large 3d model on a remote device | |
JP5195641B2 (en) | Harness verification device and harness verification program | |
Mladenov et al. | A short review of the SDKs and wearable devices to be used for ar application for industrial working environment | |
Kensek et al. | Augmented reality: An application for architecture | |
JP2021157697A (en) | Review system and review method | |
JP2021157696A (en) | Review device, review system, and review method | |
JP6253834B1 (en) | Virtual work display method, virtual work data creation method, and three-dimensional space marking data creation method | |
US20130090895A1 (en) | Device and associated methodology for manipulating three-dimensional objects | |
JP6299151B2 (en) | Display program, auxiliary information automatic arrangement apparatus, and method | |
JP2002251625A (en) | Device and method for processing image, recording medium for recording program for processing image operating on computer | |
JPH04180180A (en) | Three-dimensional position input method and device | |
US20190188910A1 (en) | Systems and methods for teleporting a virtual position of a user in a virtual environment to a teleportable point of a virtual object | |
Makanae | Development of the VR-CAD system for landscape and town planning |