JP2021157697A - Review system and review method - Google Patents

Review system and review method Download PDF

Info

Publication number
JP2021157697A
JP2021157697A JP2020059733A JP2020059733A JP2021157697A JP 2021157697 A JP2021157697 A JP 2021157697A JP 2020059733 A JP2020059733 A JP 2020059733A JP 2020059733 A JP2020059733 A JP 2020059733A JP 2021157697 A JP2021157697 A JP 2021157697A
Authority
JP
Japan
Prior art keywords
avatar
data
review
virtual space
intermediate data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020059733A
Other languages
Japanese (ja)
Inventor
敬紀 伊與
Takanori Iyo
敬紀 伊與
昌 後藤
Akira Goto
昌 後藤
未来 井坂
Miki Isaka
未来 井坂
龍一 山本
Ryuichi Yamamoto
龍一 山本
誠裕 小松
Masahiro Komatsu
誠裕 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JFE Project One Co Ltd
Original Assignee
JFE Project One Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JFE Project One Co Ltd filed Critical JFE Project One Co Ltd
Priority to JP2020059733A priority Critical patent/JP2021157697A/en
Publication of JP2021157697A publication Critical patent/JP2021157697A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a review system capable of easily verifying maintainability and the like of a plant.SOLUTION: A review system Y is a system for reviewing industrial plants. Intermediate data conversion means 100 converts CAD data 200 of a plant into intermediate data 210 containing a plurality of surface data. Object placement means 111 arranges an object for review in a coordinates system of a same scale as the intermediate data 210 converted by the intermediate data conversion means 100. Drawing sound means 121 draws a virtual space corresponding to an object arranged by the object placement means 111 and the intermediate data 210. An HMD 2 displays an image of a virtual space drawn on the drawing sound means 121.SELECTED DRAWING: Figure 8

Description

本発明は、特に工業用のプラントをレビュー(検証)するレビューシステム、及びレビュー方法に関する。 The present invention particularly relates to a review system and a review method for reviewing (verifying) an industrial plant.

従来から、三次元(3D)のCAD(Computer-Aided Design)データを用いた工業用プラントの設計が行われている。
特許文献1を参照すると、CADデータと配管始終点データとを入力する入力部と、入力部で入力したCADデータと配管始終点データとから配管の始終点を含む経路探索のためのグラフを作成するグラフ作成部とを有する配管経路探索装置において、グラフ作成部で作成したグラフから、始点からの累積距離と累積配置可能部品数を集計する累積距離・部品数集計部と、累積距離と累積配置可能部品数をグラフの各ノードに表示する表示部とを備えることを特徴とする配管経路探索装置が記載されている。
特許文献1の装置は、配管部品の据付および操作スペースを確保した配管経路データを効率良く作成し、配管設計時間を削減することを特徴としている。
Conventionally, industrial plants have been designed using three-dimensional (3D) CAD (Computer-Aided Design) data.
With reference to Patent Document 1, a graph for route search including the start and end points of the pipe is created from the input unit for inputting the CAD data and the pipe start and end point data, and the CAD data and the pipe start and end point data input in the input unit. In the piping route search device having the graph creation unit, the cumulative distance from the start point and the cumulative number of parts that can be arranged are aggregated from the graph created by the graph creation unit, and the cumulative distance and the cumulative arrangement are performed. Described is a piping route search device characterized by including a display unit that displays the number of possible parts on each node of the graph.
The apparatus of Patent Document 1 is characterized in that it efficiently creates piping route data that secures installation and operation space of piping parts and reduces piping design time.

特開2012−155565号公報Japanese Unexamined Patent Publication No. 2012-155565

しかしながら、特許文献1の技術は、実際に設計されたプラントの整備性等を評価(レビュー)することが難しかった。 However, with the technique of Patent Document 1, it is difficult to evaluate (review) the maintainability of the actually designed plant.

本発明は、このような状況に鑑みてなされたものであり、上述の問題を解消することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to solve the above-mentioned problems.

本発明のレビューシステムは、工業用のプラントをレビューするためのレビューシステムであって、プラントのCADデータを、複数の面データを含む中間データに変換する中間データ変換手段と、前記中間データ変換手段により変換された前記中間データと同スケールの座標系に、レビュー用のオブジェクトを配置するオブジェクト配置手段と、前記オブジェクト配置手段により配置された前記オブジェクトと前記中間データとに対応した仮想空間を描画する描画手段と、前記描画手段に描画された前記仮想空間の映像を表示するヘッドマウントディスプレイとを備えることを特徴とする。
本発明のレビューシステムは、前記仮想空間内に見学コースを設定するコース設定手段を更に備え、前記描画手段は、前記見学コースに沿った前記仮想空間を描画することを特徴とする。
本発明のレビューシステムは、前記オブジェクト配置手段は、レビューワーの指示を取得し、前記仮想空間内で、前記オブジェクトを付加及び/又は移動することを特徴とする。
本発明のレビューシステムは、前記オブジェクト配置手段は、レビューワーの指示を取得し、前記仮想空間内で、前記オブジェクトを単位毎に分解することを特徴とする。
本発明のレビューシステムは、前記オブジェクト配置手段は、前記オブジェクトとして、前記仮想空間内に音源及び/又は照明器具を配置し、前記描画手段は、前記照明器具が配置された場合、照明を描画し、前記ヘッドマウントディスプレイは、前記音源が配置された場合、当該音源に対応した音声も出力することを特徴とする。
本発明のレビュー方法は、工業用のプラントをレビューするためのレビューシステムにより実行されるレビュー方法であって、プラントのCADデータを、複数の面データを含む中間データに変換し、変換された前記中間データと同スケールの座標系に、レビュー用のオブジェクトを配置し、配置された前記オブジェクトと前記中間データとを含む仮想空間を描画し、描画された前記仮想空間の映像をヘッドマウントディスプレイに表示することを特徴とする。
The review system of the present invention is a review system for reviewing an industrial plant, and is an intermediate data conversion means for converting CAD data of a plant into intermediate data including a plurality of surface data, and the intermediate data conversion means. An object arranging means for arranging an object for review and a virtual space corresponding to the object arranged by the object arranging means and the intermediate data are drawn in a coordinate system of the same scale as the intermediate data converted by. It is characterized by including a drawing means and a head mount display for displaying an image of the virtual space drawn on the drawing means.
The review system of the present invention further includes a course setting means for setting a tour course in the virtual space, and the drawing means draws the virtual space along the tour course.
The review system of the present invention is characterized in that the object arranging means acquires an instruction of a reviewer and adds and / or moves the object in the virtual space.
The review system of the present invention is characterized in that the object arranging means acquires an instruction of a reviewer and decomposes the object unit by unit in the virtual space.
In the review system of the present invention, the object arranging means arranges a sound source and / or a lighting fixture in the virtual space as the object, and the drawing means draws a light when the luminaire is arranged. The head-mounted display is characterized in that, when the sound source is arranged, the sound corresponding to the sound source is also output.
The review method of the present invention is a review method executed by a review system for reviewing an industrial plant, in which the CAD data of the plant is converted into intermediate data including a plurality of surface data, and the converted data is described. An object for review is placed in a coordinate system of the same scale as the intermediate data, a virtual space including the placed object and the intermediate data is drawn, and the drawn image of the virtual space is displayed on the head-mounted display. It is characterized by doing.

本発明によれば、プラントのCADデータを、複数の面データを含む中間データに変換し、中間データと同スケールの座標系にレビューワーのアバターを配置し、この視点位置に対応して、中間データに対応した仮想空間を描画することで、プラントを容易にレビューすることが可能なレビュー装置を提供することができる。 According to the present invention, the CAD data of the plant is converted into intermediate data including a plurality of surface data, the reviewer's avatar is placed in the coordinate system of the same scale as the intermediate data, and the intermediate is corresponding to this viewpoint position. By drawing a virtual space corresponding to the data, it is possible to provide a review device capable of easily reviewing the plant.

本発明の第一実施形態に係るレビューシステムのシステム構成図である。It is a system block diagram of the review system which concerns on 1st Embodiment of this invention. 図1に示すレビューシステムの機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the review system shown in FIG. 本発明の第一実施形態に係るレビュー処理のフローチャートである。It is a flowchart of the review process which concerns on 1st Embodiment of this invention. 図3に示す足裏処理の概念図である。It is a conceptual diagram of the sole processing shown in FIG. 図3に示す足裏処理の概念図である。It is a conceptual diagram of the sole processing shown in FIG. 図3に示すマーカー付加処理の概念図である。It is a conceptual diagram of the marker addition process shown in FIG. 図3に示す描画処理の画面例である。It is a screen example of the drawing process shown in FIG. 本発明の第二実施形態に係るレビューシステムの機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the review system which concerns on 2nd Embodiment of this invention. 本発明の第二実施形態に係るレビュー処理のフローチャートである。It is a flowchart of the review process which concerns on 2nd Embodiment of this invention. 図9に示すレビュー処理の画面例である。It is a screen example of the review process shown in FIG.

<第一実施形態>
〔レビューシステムXのシステム構成〕
まず、図1により、本発明の実施の形態に係るレビューシステムXのシステム構成の説明を行う。本実施形態のレビューシステムXは、レビュー装置1に、HMD2及びコントローラー3が接続されて構成されている。
<First Embodiment>
[System configuration of review system X]
First, the system configuration of the review system X according to the embodiment of the present invention will be described with reference to FIG. The review system X of the present embodiment is configured by connecting the HMD 2 and the controller 3 to the review device 1.

レビュー装置1は、工業用のプラントの設計段階での評価(レビュー)を行うための制御演算手段と記録媒体とを備えた情報処理装置である。レビュー装置1は、例えば、携帯型又は据え置き型のPC(Personal Computer)、FC(Factory Computer)、ワークステーション、サーバー、スマートフォンやタブレット端末のような携帯端末等であってもよい。 The review device 1 is an information processing device including a control calculation means and a recording medium for performing evaluation (review) at the design stage of an industrial plant. The review device 1 may be, for example, a portable or stationary PC (Personal Computer), FC (Factory Computer), workstation, server, mobile terminal such as a smartphone or tablet terminal, or the like.

HMD2は、VR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)、SR(Substitutional Reality)等の「XR」表示を行うためのヘッドマウントディスプレイ(Head Mounted Display、HMD)や眼鏡等に取り付けてレンズや網膜に投影するタイプの他装着型AR装置等である(以下、単に「HMD」という。)。 HMD2 is used for head-mounted displays (HMDs), glasses, etc. for displaying "XR" such as VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), SR (Substitutional Reality), etc. It is a type of other wearable AR device that is attached and projected onto a lens or retina (hereinafter, simply referred to as "HMD").

HMD2は、表示手段、音声出力手段、及び位置取得手段を備えている。
このうち、表示手段は、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic EL)若しくはOLED(Organic light-emitting diode)ディスプレイ、マイクロLEDアレイ、MEMSレーザープロジェクター、その他網膜投影型ディスプレイ等である。本実施形態においては、立体視が可能なように、左右二つの表示手段が備えられている例について説明する。
音声出力手段は、ヘッドフォンやイヤフォン等と、D/A(Digital to Analog)コンバーター等である。音声出力手段は、レビュー装置1で生成された音声を、レビューワーが聞こえるように出力可能である。
位置取得手段は、三次元加速度センサー、ジャイロ、カメラ、レーダー、ライダー(Light Detection and Ranging、LIDAR)、赤外線センサー、GPS(Global Positioning System)、その他の部屋位置特定センサー等である。位置取得手段により、HMD2は、これを装着したレビューワーの三次元空間上の位置、向き、速度、加速度等の情報を取得することが可能である。位置取得手段は、HMD2本体に備えられていてもよい。または、位置取得手段は、赤外線センサー等を備えた別装置として、HMD2を使用する部屋に別途備えられていてもよい。
The HMD2 includes a display means, an audio output means, and a position acquisition means.
Among these, the display means is a liquid crystal display (Liquid Crystal Display), an organic EL (Organic EL) or an OLED (Organic light-emitting diode) display, a micro LED array, a MEMS laser projector, and other retinal projection type displays. In the present embodiment, an example in which two left and right display means are provided so that stereoscopic viewing is possible will be described.
The audio output means include headphones, earphones, and the like, and a D / A (Digital to Analog) converter and the like. The audio output means can output the audio generated by the review device 1 so that the reviewer can hear it.
Position acquisition means include a three-dimensional acceleration sensor, a gyro, a camera, a radar, a lidar (Light Detection and Ranging, LIDAR), an infrared sensor, a GPS (Global Positioning System), and other room positioning sensors. By the position acquisition means, the HMD2 can acquire information such as the position, direction, speed, acceleration, etc. of the reviewer equipped with the position acquisition means in the three-dimensional space. The position acquisition means may be provided in the HMD2 main body. Alternatively, the position acquisition means may be separately provided in the room where the HMD2 is used as a separate device equipped with an infrared sensor or the like.

コントローラー3は、HMD2に対応づけられて、三次元空間上の位置、向き、速度、加速度、ボタンの押下等を検知可能なコントローラーである。このため、コントローラー3は、複数のボタンやパッドを含んでいる。さらに、コントローラー3は、HMD2と同様に、各種の位置取得手段を含んでいる。 The controller 3 is a controller associated with the HMD2 and capable of detecting a position, orientation, speed, acceleration, button press, etc. in a three-dimensional space. Therefore, the controller 3 includes a plurality of buttons and pads. Further, the controller 3 includes various position acquisition means like the HMD 2.

加えて、レビュー装置1は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、近距離ネットワーク、携帯電話網等の外部ネットワークと接続可能である。 In addition, the review device 1 can be connected to an external network such as a LAN (Local Area Network), a WAN (Wide Area Network), a short-distance network, or a mobile phone network.

(レビュー装置1の制御構成)
次に、レビュー装置1の制御構成について説明する。レビュー装置1は、制御部10、画像処理部11、記憶部12、入力部13、表示部14、及び接続部15を備えている。各部は共通のバスで接続されても、更に各部の間で専用のバスで接続されてもよい。
(Control configuration of review device 1)
Next, the control configuration of the review device 1 will be described. The review device 1 includes a control unit 10, an image processing unit 11, a storage unit 12, an input unit 13, a display unit 14, and a connection unit 15. Each part may be connected by a common bus, or may be further connected by a dedicated bus between each part.

制御部10は、レビュー装置1の全体を制御する制御演算部である。制御部10は、例えば、一般的なCPU(Central Processing Unit)やMPU(Micro Processing Unit)等であってもよい。 The control unit 10 is a control calculation unit that controls the entire review device 1. The control unit 10 may be, for example, a general CPU (Central Processing Unit), MPU (Micro Processing Unit), or the like.

画像処理部11は、画像処理等を実行する制御演算部である。画像処理部11は、例えば、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)等を含んでいてもよい。また、画像処理部11は、Direct X(登録商標)、Open GL規格等の各種三次元データのレンダリング、シェーダー(Shader)演算等を高速に実行可能であってもよい。また、画像処理部11は、レイトレーシング(Ray Tracing)法やラジオシティ(Radiosity)法等の演算を支援するアクセレレーターとして機能してもよい。また、画像処理部11は、構造や強度計算等の物理演算の支援機能を備えていてもよい。また、画像処理部11は、ポリゴンの分割や法線の演算等の支援機能を備えていてもよい。画像処理部11は、例えば、プログラマブルシェーダー(shader)を実行可能である。 The image processing unit 11 is a control calculation unit that executes image processing and the like. The image processing unit 11 may include, for example, a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or the like. Further, the image processing unit 11 may be able to perform rendering of various three-dimensional data such as Direct X (registered trademark) and Open GL standard, shader calculation, and the like at high speed. In addition, the image processing unit 11 may function as an accelerator that supports calculations such as the Ray Tracing method and the Radiosity method. Further, the image processing unit 11 may be provided with a support function for physical calculations such as structure and strength calculation. Further, the image processing unit 11 may be provided with support functions such as polygon division and normal calculation. The image processing unit 11 can execute, for example, a programmable shader.

記憶部12は、各種データが格納される一時的でない記録媒体である。記憶部12は、例えば、各種RAM(Random Access Memory)、ROM(Read Only Memory)、eMMC(embedded Multi Media Card)、SSD(Solid State Drive)、HDD(Hard Disk Drive)、光学記録媒体等である。ここで、記憶部12のRAM等の高速にアクセスされる記録媒体に関しては、制御部10と直接接続されていてもよい。 The storage unit 12 is a non-temporary recording medium in which various data are stored. The storage unit 12 is, for example, various RAM (Random Access Memory), ROM (Read Only Memory), eMMC (embedded Multi Media Card), SSD (Solid State Drive), HDD (Hard Disk Drive), optical recording medium, or the like. .. Here, the recording medium that is accessed at high speed, such as the RAM of the storage unit 12, may be directly connected to the control unit 10.

入力部13は、レビュー装置1のユーザーが各種指示を行うための機器である。入力部13は、例えば、キーボード、マウス、タッチパッド、タッチパネル、デジタイザー、3Dマウス、ステレオカメラ等である。 The input unit 13 is a device for the user of the review device 1 to give various instructions. The input unit 13 is, for example, a keyboard, a mouse, a touch pad, a touch panel, a digitizer, a 3D mouse, a stereo camera, or the like.

表示部14は、レビュー装置1の各種データを表示する機器である。表示部14は、例えば、液晶ディスプレイ、有機EL若しくはOLEDディスプレイ、マイクロLEDディスプレイ等の各種ディスプレイであってもよい。
なお、入力部13と表示部14とは、一体となったタッチパネル、デジタイザー等として構成されていてもよい。
The display unit 14 is a device that displays various data of the review device 1. The display unit 14 may be, for example, various displays such as a liquid crystal display, an organic EL or OLED display, and a micro LED display.
The input unit 13 and the display unit 14 may be configured as an integrated touch panel, digitizer, or the like.

接続部15は、HMD2と接続するための、例えば、USB(Universal Serial Bus)、Thunderbolt(登録商標)、無線LAN、ブルートゥース(登録商標)、その他の独自インターフェイス等の接続インターフェイスである。これに加えて、接続部15は、外部ネットワークとの接続のためのインターフェイスを含んでいてもよい。 The connection unit 15 is a connection interface for connecting to the HMD2, such as USB (Universal Serial Bus), Thunderbolt (registered trademark), wireless LAN, Bluetooth (registered trademark), and other unique interfaces. In addition to this, the connection unit 15 may include an interface for connecting to an external network.

〔レビューシステムXの制御構成〕
次に、図2により、本実施形態のレビューシステムXの制御構成について説明する。
本実施形態のレビュー装置1の制御部10は、中間データ変換手段100、アバター配置手段110、描画手段120、及び接触判定手段130を備える。
記憶部12は、CADデータ200、中間データ210、アバターデータ220、及びマーカー設定データ230を備える。
[Control configuration of review system X]
Next, the control configuration of the review system X of the present embodiment will be described with reference to FIG.
The control unit 10 of the review device 1 of the present embodiment includes an intermediate data conversion means 100, an avatar arranging means 110, a drawing means 120, and a contact determination means 130.
The storage unit 12 includes CAD data 200, intermediate data 210, avatar data 220, and marker setting data 230.

中間データ変換手段100は、プラントのCADデータ200を、中間データ210に変換する。
加えて、中間データ変換手段100は、CADデータ200を「.obf」形式のデータ(以下、「OBFデータ」という。)に変換することも可能である。
The intermediate data conversion means 100 converts the CAD data 200 of the plant into the intermediate data 210.
In addition, the intermediate data conversion means 100 can also convert the CAD data 200 into data in the ".obf" format (hereinafter, referred to as "OBF data").

アバター配置手段110は、中間データ変換手段100により変換された中間データ210と同スケールの座標系にレビューワーのアバターを配置する。このため、アバター配置手段110は、仮想空間内のアバターの手の位置を、ヘッドマウントディスプレイにより取得された現実空間の位置に合わせることも可能である。
さらに、アバター配置手段110は、コントローラー3にて、レビューワーの指示を取得する。そして、アバター配置手段110は、このレビューワーの指示にて、アバターを移動させることも可能である。この際、アバター配置手段110は、アバターを高速で移動させる高速移動モードと、アバターを高速移動モードよりも遅く移動させる低速移動モードとを切り換え可能である。アバター配置手段110は、高速移動モードの場合、重力を加えない設定とし、仮想空間内の面との当たり判定をせずに仮想空間の上下方向を移動可能とする。アバター配置手段110は、低速移動モードの場合、アバターに重力を加える設定とする。この場合、アバター配置手段110は、仮想空間内でアバターの腰部から体軸の下方向で最初に接触した略水平面の位置に、アバターの足裏の位置を合わせる。
The avatar arranging means 110 arranges the reviewer's avatar in the coordinate system of the same scale as the intermediate data 210 converted by the intermediate data converting means 100. Therefore, the avatar arranging means 110 can also align the position of the avatar's hand in the virtual space with the position of the real space acquired by the head-mounted display.
Further, the avatar arranging means 110 acquires the instruction of the reviewer on the controller 3. Then, the avatar arranging means 110 can move the avatar according to the instruction of the reviewer. At this time, the avatar arranging means 110 can switch between a high-speed movement mode in which the avatar is moved at high speed and a low-speed movement mode in which the avatar is moved slower than the high-speed movement mode. In the high-speed movement mode, the avatar arranging means 110 is set so that gravity is not applied, and the avatar arranging means 110 can move in the vertical direction of the virtual space without determining the collision with the surface in the virtual space. The avatar arranging means 110 is set to apply gravity to the avatar in the low-speed movement mode. In this case, the avatar arranging means 110 aligns the position of the sole of the avatar with the position of the substantially horizontal plane that first contacts the avatar from the waist in the downward direction of the body axis in the virtual space.

描画手段120は、アバター配置手段110により配置されたアバターの視点位置に対応して、中間データ210に対応した仮想空間を描画する。描画手段120は、この仮想空間を、表示部14及び/又はHMD2の表示手段へ表示されるようにする。
描画手段120は、アバターの視界において、中間データ210のスケールに対応した特定閾値よりも奥の面を描画しないようにすることが可能である。
The drawing means 120 draws a virtual space corresponding to the intermediate data 210 corresponding to the viewpoint position of the avatar placed by the avatar arranging means 110. The drawing means 120 causes the virtual space to be displayed on the display unit 14 and / or the display means of the HMD2.
The drawing means 120 can prevent the drawing means 120 from drawing a surface deeper than the specific threshold value corresponding to the scale of the intermediate data 210 in the field of view of the avatar.

接触判定手段130は、アバターの移動中に、アバターと、仮想空間内の略水平面以外の面との接触を判定する。この略水平面は、例えば、重力と垂直方向において、例えば、−45°〜45°迄の角度(傾斜)の面(以下、単に「45°以下の面」という。)を用いてもよい。
接触判定手段130は、接触を判定された場合、仮想空間内の面の接触位置にマーカーを付加する、及び/又は、音声出力にてレビューワーに警告する。
The contact determination means 130 determines the contact between the avatar and a surface other than the substantially horizontal plane in the virtual space while the avatar is moving. For this substantially horizontal plane, for example, a surface having an angle (inclination) from −45 ° to 45 ° (hereinafter, simply referred to as “a surface having a temperature of 45 ° or less”) may be used in the direction perpendicular to gravity.
When the contact is determined, the contact determination means 130 adds a marker to the contact position of the surface in the virtual space and / or warns the reviewer by audio output.

加えて、本実施形態において、HMD2は、描画手段120により描画された仮想空間の画像を表示手段に表示する。さらに、HMD2は、位置取得手段により、現実空間(三次元空間)上での位置、向き、速度、加速度等(以下、「位置向き等」という。)の情報を取得可能である。
また、コントローラー3も、現実空間(三次元空間)上での位置向き等、ボタンの押下の情報を取得可能である。すなわち、コントローラー3のボタンの押下を検出することで、レビューワーの指示を取得可能である。
In addition, in the present embodiment, the HMD 2 displays an image of the virtual space drawn by the drawing means 120 on the display means. Further, the HMD2 can acquire information on the position, orientation, velocity, acceleration, etc. (hereinafter, referred to as “position orientation, etc.”) in the real space (three-dimensional space) by the position acquisition means.
In addition, the controller 3 can also acquire information on button presses such as the position orientation in the real space (three-dimensional space). That is, the instruction of the reviewer can be obtained by detecting the pressing of the button of the controller 3.

CADデータ200は、工業用プラントの設計用データである。本実施形態において、CADデータ200は、例えば、3D CAD(Computer-Aided Design)データであり、ポリゴン(多角形)の立体座標と面座標等を含む3Dデータである。さらに、CADデータ200は、例えば、各ポリゴンの素材(テクスチャー)データ、配置データ、その他のデータ等を含んでいてもよい。また、この配置データは、各パイプが連結される際の配置の情報を含んでいてもよい。
より具体的には、CADデータ200は、例えば、「.DXF」「.dwg」「.stl」形式のファイル等から、プラントのレビューには必要性が低いデータを除いた「.obj」形式のデータ(以下、「OBJデータ」という。)のファイル等を用いることが可能である。
The CAD data 200 is data for designing an industrial plant. In the present embodiment, the CAD data 200 is, for example, 3D CAD (Computer-Aided Design) data, which is 3D data including three-dimensional coordinates and surface coordinates of polygons. Further, the CAD data 200 may include, for example, material (texture) data of each polygon, arrangement data, other data, and the like. In addition, this arrangement data may include arrangement information when each pipe is connected.
More specifically, the CAD data 200 is in the ".obj" format, for example, excluding data that is not necessary for plant review from files in the ".DXF", ".dwg", and ".stl" formats. It is possible to use a file of data (hereinafter referred to as "OBJ data") or the like.

中間データ210は、例えば、複数のポリゴン(多角形、面)の頂点、面、色、及びテクスチャー等のデータを含むメッシュのデータである。すなわち、中間データ210は、複数の面データを含む。ここで、中間データ210は、メッシュを数値化したバイナリー(binary)データ、又は、このバイナリーデータをテキストファイル化したデータ等であってもよい。この中間データ210は、例えば、「.obf」形式のデータ(以下、「OBFデータ」という。)であってもよい。さらに、中間データ210は、CADデータ200の各オブジェクト単位で分けられていてもよい。このオブジェクトは、プラントの各建物、各装置等に対応していてもよい。加えて、オブジェクトは、工具、配管、装置、施設、設備、その他、ポリゴンで構成される面の集合を含んでいてもよい。 The intermediate data 210 is, for example, mesh data including data such as vertices, faces, colors, and textures of a plurality of polygons (polygons, faces). That is, the intermediate data 210 includes a plurality of surface data. Here, the intermediate data 210 may be binary data obtained by digitizing the mesh, data obtained by converting the binary data into a text file, or the like. The intermediate data 210 may be, for example, data in the “.obf” format (hereinafter, referred to as “OBF data”). Further, the intermediate data 210 may be divided for each object of the CAD data 200. This object may correspond to each building, each device, etc. of the plant. In addition, the object may include tools, pipes, equipment, facilities, equipment, and other collections of faces made up of polygons.

アバターデータ220は、レビューワーの分身として仮想空間内で移動するオブジェクトであるアバターのデータである。このアバターのオブジェクトは、例えば、頭、胴体、腰部、腕、脚等の各部位のポリゴンのオブジェクトと、これらに接続された骨格(ボーン)のデータとを含んでいる。さらに、アバターデータ220は、頭と腰部とを結ぶ直線状の体軸のデータを含んでいる。この体軸は、頭を上、腰部を下の方向とすることが可能である。さらに、アバターデータ220は、アバターの視線の向き、高速移動モードと低速移動モードとを示すモード情報も含む。さらに、アバターデータ220は、工具等のオブジェクトを手等に装着することが可能である。この装着についても、ボーンのデータに付加することが可能である。 The avatar data 220 is data of an avatar, which is an object that moves in the virtual space as a reviewer's alter ego. The object of this avatar includes, for example, a polygon object of each part such as a head, a torso, a waist, an arm, and a leg, and data of a skeleton (bone) connected to these objects. Further, the avatar data 220 includes data of a linear body axis connecting the head and the lumbar region. This body axis can have the head facing up and the waist facing down. Further, the avatar data 220 also includes mode information indicating the direction of the line of sight of the avatar and the high-speed movement mode and the low-speed movement mode. Further, the avatar data 220 can attach an object such as a tool to a hand or the like. This mounting can also be added to the bone data.

マーカー設定データ230は、仮想空間内でアバターが接触した箇所を示すマーカーのオブジェクトのデータである。このマーカーは、例えば、多角形や円形や平面の文字等が設定される。アバターが複数の面に接触した場合、複数のマーカー設定データ230を格納可能である。さらに、マーカー設定データ230は、接触したアバターの部位や接触時間等のデータを含んでいてもよい。 The marker setting data 230 is data of a marker object indicating a location where the avatar touches in the virtual space. For this marker, for example, a polygonal character, a circular character, a flat character, or the like is set. When the avatar touches a plurality of surfaces, a plurality of marker setting data 230 can be stored. Further, the marker setting data 230 may include data such as a contacted avatar site and a contact time.

これに加え、マーカー設定データ230は、各種設定の値を含んでいる。この各種設定は、動作モードの設定を含んでいる。この動作モードの設定は、高速移動モード及び低速移動モードの種別、重力の有無、及び衝突判定の有無についての設定を含む。ここで、高速移動モードは、低速移動モードよりも高速にアバターを移動させるモードである。重力の有無は、アバターを、重力を模した加速度で仮想空間の下方に降下させるか否かの設定である。衝突判定の有無は、後述するマーカーの付加に関する設定である。本実施形態においては、高速移動モードに設定されている場合、例えば、重力及び衝突判定のいずれも「無し」に設定される。一方、低速移動モードの場合、例えば、重力及び衝突判定のいずれも「有り」に設定される。なお、これらの設定を、別々に設定したり、入力部13のボタンの押下により切り換えたり、一時的に変更したりすることも可能である。 In addition to this, the marker setting data 230 includes values of various settings. These various settings include operation mode settings. The setting of this operation mode includes a setting regarding the types of the high-speed movement mode and the low-speed movement mode, the presence / absence of gravity, and the presence / absence of collision determination. Here, the high-speed movement mode is a mode in which the avatar is moved at a higher speed than the low-speed movement mode. The presence or absence of gravity is a setting of whether or not the avatar is lowered below the virtual space with an acceleration that imitates gravity. The presence or absence of collision determination is a setting related to the addition of markers, which will be described later. In the present embodiment, when the high-speed movement mode is set, for example, both gravity and collision determination are set to "none". On the other hand, in the low-speed movement mode, for example, both gravity and collision detection are set to "Yes". It is also possible to set these settings separately, switch them by pressing a button on the input unit 13, or temporarily change them.

ここで、レビュー装置1の制御部10は、記憶部12に記憶された制御プログラムを実行することで、中間データ変換手段100、アバター配置手段110、描画手段120、及び接触判定手段130として機能させられる。この制御プログラムは、各種OS(Operating System)、Unity(登録商標)等の三次元グラフィック表示用ミドルウェア、及び本実施形態のアプリケーションソフトウェアを含む。
また、上述のレビュー装置1の各部は、本発明の画像形成方法を実行するハードウェア資源となる。
なお、上述の機能構成の一部又は任意の組み合わせをICやプログラマブルロジックやFPGA(Field-Programmable Gate Array)等でハードウェア的、回路的に構成してもよい。
Here, the control unit 10 of the review device 1 functions as the intermediate data conversion means 100, the avatar arranging means 110, the drawing means 120, and the contact determination means 130 by executing the control program stored in the storage unit 12. Be done. This control program includes various operating systems (OS), middleware for displaying three-dimensional graphics such as Unity (registered trademark), and application software of the present embodiment.
Further, each part of the above-mentioned review device 1 becomes a hardware resource for executing the image forming method of the present invention.
It should be noted that a part or any combination of the above-mentioned functional configurations may be configured in terms of hardware or circuit by IC, programmable logic, FPGA (Field-Programmable Gate Array) or the like.

〔レビューシステムXによるレビュー処理〕
次に、図3〜図7を参照して、本実施形態に係るレビューシステムXによるレビュー処理の説明を行う。
本実施形態のレビュー処理においては、プラントのCADデータ200を、複数の面データを含む中間データ210に変換する。そして、変換された中間データ210と同スケールの座標系にレビューワーのアバターを配置する。その上で、アバターの視点位置に対応して、前記中間データ210を含む仮想空間を描画する。
[Review processing by review system X]
Next, the review process by the review system X according to the present embodiment will be described with reference to FIGS. 3 to 7.
In the review process of the present embodiment, the CAD data 200 of the plant is converted into the intermediate data 210 including a plurality of surface data. Then, the reviewer's avatar is placed in the coordinate system of the same scale as the converted intermediate data 210. Then, the virtual space including the intermediate data 210 is drawn corresponding to the viewpoint position of the avatar.

本実施形態のレビュー処理においては、仮想空間として、現実の三次元空間を模して三次元CG(Computer Graphics)で描画(Rendering)可能な空間を用いる例について説明する。この本実施形態の仮想空間は、縦(奥行き)、横、高さ方向が設定されており、それぞれ、Z軸、X軸、Y軸に対応する。本実施形態では、視線位置からみて、各軸は、Z軸は手前から奥方向で数値が大きくなり、X軸は左から右方向で数値が大きくなり、Y軸は上から下方向で数値が大きくなる座標系を用いる例を示す。本実施形態においては、下方向は、重力を加える方向として設定される。
本実施形態のレビュー処理は、主にレビュー装置1の制御部10が、記憶部12に記憶されたプログラムを、各部と協働し、ハードウェア資源を用いて実行する。
以下で、図3のフローチャートを参照して、レビュー処理の詳細をステップ毎に説明する。
In the review process of the present embodiment, an example in which a space that can be rendered by three-dimensional CG (Computer Graphics) is used as a virtual space to imitate a real three-dimensional space will be described. The virtual space of this embodiment is set in the vertical (depth), horizontal, and height directions, and corresponds to the Z-axis, the X-axis, and the Y-axis, respectively. In the present embodiment, when viewed from the line-of-sight position, the Z-axis has a large numerical value from the front to the back, the X-axis has a large numerical value from the left to the right, and the Y-axis has a numerical value from the top to the bottom. An example of using a larger coordinate system is shown. In the present embodiment, the downward direction is set as the direction in which gravity is applied.
In the review process of the present embodiment, the control unit 10 of the review device 1 mainly executes the program stored in the storage unit 12 in cooperation with each unit and uses the hardware resources.
Hereinafter, the details of the review process will be described step by step with reference to the flowchart of FIG.

(ステップS100)
まず、中間データ変換手段100が、CADデータ取得処理を行う。
中間データ変換手段100は、表示部14にGUI(Graphical User Interface)のメニューを表示し、工業用のプラントの設計用等のCADデータ200をレビューワー(ユーザー)に選択させる。中間データ変換手段100は、このCADデータ200を、ロード等して、記憶部12のRAM等に展開する。この際、中間データ変換手段100は、CADデータ200をOBJ形式のデータに変換することも可能であってもよい。
(Step S100)
First, the intermediate data conversion means 100 performs the CAD data acquisition process.
The intermediate data conversion means 100 displays a GUI (Graphical User Interface) menu on the display unit 14 and causes a reviewer (user) to select CAD data 200 for designing an industrial plant or the like. The intermediate data conversion means 100 loads the CAD data 200 and develops it in the RAM or the like of the storage unit 12. At this time, the intermediate data conversion means 100 may be able to convert the CAD data 200 into OBJ format data.

(ステップS101)
次に、中間データ変換手段100が、中間データ変換処理を行う。
中間データ変換手段100は、CADデータ200を、中間データ210に変換する。
より具体的には、中間データ変換手段100は、例えば、ファイルを読み込み処理、メッシュ展開処理、及び、表示制御処理等の処理を行う。
(Step S101)
Next, the intermediate data conversion means 100 performs the intermediate data conversion process.
The intermediate data conversion means 100 converts the CAD data 200 into the intermediate data 210.
More specifically, the intermediate data conversion means 100 performs processing such as file reading processing, mesh expansion processing, and display control processing.

このファイル読み込み処理では、中間データ変換手段100は、Unityの関数等を用いて、例えば、CADデータ200として、OBJ形式のデータのファイルを、マルチスレッド対応で読み込む。すなわち、複数のオブジェクト単位で分けられたOBJ形式のファイルを、各スレッドから一度に読み込むことが可能である。これにより、読み込みの処理性能を向上させることができる。 In this file reading process, the intermediate data conversion means 100 uses a Unity function or the like to read, for example, a file of OBJ format data as CAD data 200 in a multi-threaded manner. That is, it is possible to read an OBJ format file divided into a plurality of object units from each thread at once. As a result, the reading processing performance can be improved.

メッシュ展開処理では、中間データ変換手段100は、マルチスレッド対応で、OBJデータ内に含まれる各ポリゴン(メッシュ)を、RAM等に展開する。これにより、メッシュの展開の処理性能も向上させることができる。
なお、一度、読み込まれたことのあるCADデータ200については、後述するようにOBF形式のデータを直接読み込んで、メッシュ展開することも可能である。
In the mesh expansion process, the intermediate data conversion means 100 supports multithreading and expands each polygon (mesh) included in the OBJ data into a RAM or the like. As a result, the processing performance of mesh expansion can also be improved.
As for the CAD data 200 that has been read once, it is also possible to directly read the OBF format data and develop the mesh as described later.

表示制御処理では、中間データ変換手段100は、ポリゴン表示制御用のデータ変換を行う。中間データ変換手段100は、このデータ変換では、オブジェクト分割生成、生成モデルのバイナリー保存又は再生を行う。
たとえば、Unityでは、一つのオブジェクトに対する頂点数の上限値が65535個である。このため、中間データ変換手段100は、一つのオブジェクトの頂点数が、65535個より多ければ、オブジェクトを分割する。中間データ変換手段100は、この分割として、CADデータ200内の各プラントをオブジェクトとして分ける等の処理を行ってもよい。また、例えば、ポリゴンが分離している箇所を優先して分割することが可能である。さらに、中間データ変換手段100は、特定条件によりポリゴンをつなげて平均化することで、頂点数を上限数以下に変換することも可能である。加えて、中間データ変換手段100は、プラントの敷地以外のオブジェクトについては、削除するようにすることも可能である。
さらに、中間データ変換手段100は、ポリゴンのスケール変換、座標系の変換、オブジェクト単位での変換、マテリアル、テクスチャー関係の変換等も行う。
以下、RAMに展開され、これらの処理が行われた中間データ210を、単にバイナリーデータという。
In the display control process, the intermediate data conversion means 100 performs data conversion for polygon display control. In this data conversion, the intermediate data conversion means 100 performs object division generation, binary storage or reproduction of the generation model.
For example, in Unity, the upper limit of the number of vertices for one object is 65535. Therefore, the intermediate data conversion means 100 divides the object if the number of vertices of one object is more than 65535. As this division, the intermediate data conversion means 100 may perform processing such as dividing each plant in the CAD data 200 as an object. Further, for example, it is possible to preferentially divide a portion where polygons are separated. Further, the intermediate data conversion means 100 can convert the number of vertices to the upper limit number or less by connecting polygons and averaging them according to specific conditions. In addition, the intermediate data conversion means 100 can delete objects other than the site of the plant.
Further, the intermediate data conversion means 100 also performs polygon scale conversion, coordinate system conversion, object-based conversion, material, texture-related conversion, and the like.
Hereinafter, the intermediate data 210 that has been expanded into the RAM and subjected to these processes is simply referred to as binary data.

その後、中間データ変換手段100は、作成したオブジェクトを含むバイナリーデータを、CADデータ200に対応付けて、OBF形式のデータとして、記憶部12に格納しておくことが可能である。これにより、次回、CADデータ200を指定した際に、このOBF形式のデータを直接読み込んで、読み込みに必要な時間を短縮することができる。 After that, the intermediate data conversion means 100 can store the binary data including the created object in the storage unit 12 as OBF format data in association with the CAD data 200. As a result, when the CAD data 200 is specified next time, the OBF format data can be directly read and the time required for reading can be shortened.

以降、RAMに展開されたこのバイナリーデータを基に仮想空間の描画が実行される。 After that, drawing of the virtual space is executed based on this binary data expanded in RAM.

(ステップS102)
ここで、アバター配置手段110が、HMD情報取得処理を行う。
この処理にて、アバター配置手段110は、HMD2の位置向き等のデータを取得する。
さらに、アバター配置手段110は、コントローラー3のボタンの押下の情報を、レビューワーの指示として取得する。この指示は、例えば、ボタンやパッドでの移動指示、高速移動モード又は低速移動モードの指示等を含む。
さらに、アバター配置手段110は、設定された地点に移動する自動移動の指示を取得することも可能である。この自動移動は、例えば、記憶部12に移動する地点を設定しておき、仮想空間内で目的とする場所に移動させることが可能な機能である。この地点の設定は、例えば、一度、移動した場所でコントローラー3の特定のボタンを押下することで動的に登録することが可能である。設定された地点の指示は、例えば、レビューワーが、メニューや後述するミニマップ等で選択することで、指示することが可能である。
アバター配置手段110は、これらの指示を、アバターデータ220へ設定する。すなわち、高速移動モードであるか、低速移動モードであるかについても、アバターデータ220へ設定する。
(Step S102)
Here, the avatar arranging means 110 performs the HMD information acquisition process.
In this process, the avatar arranging means 110 acquires data such as the position orientation of the HMD2.
Further, the avatar arranging means 110 acquires the information of pressing the button of the controller 3 as an instruction of the reviewer. This instruction includes, for example, a movement instruction with a button or a pad, an instruction of a high-speed movement mode or a low-speed movement mode, and the like.
Further, the avatar arranging means 110 can also acquire an instruction for automatic movement to move to a set point. This automatic movement is, for example, a function that can set a point to move to the storage unit 12 and move it to a target place in the virtual space. The setting of this point can be dynamically registered, for example, by pressing a specific button of the controller 3 at the moved place. The set point can be instructed by, for example, the reviewer selecting it from a menu or a mini-map described later.
The avatar arranging means 110 sets these instructions in the avatar data 220. That is, whether it is the high-speed movement mode or the low-speed movement mode is also set in the avatar data 220.

(ステップS103)
次に、アバター配置手段110が、アバター配置処理を行う。
アバター配置手段110は、中間データ210と同スケールの座標系にレビューワーのアバターを配置する。本実施形態においては、アバター配置手段110は、仮想空間内のアバターの頭部を、HMD2により取得された位置向き等の情報に対応して配置することで、同スケールに配置可能である。すなわち、アバター配置手段110は、アバターの頭部の位置及び向きを、現実空間のレビューワーの頭部の位置及び向きに合わせて配置する。
これにより、HMD2での高さと、仮想空間内でアバターの高さとを合わせることができる。よって、実際にプラントでレビューワーが眺めるのと同じ感覚の風景を、HMD2で閲覧することができる。さらに、HMD2で足元を眺めことで、構造物における高さを感覚的に理解可能となる。
(Step S103)
Next, the avatar placement means 110 performs the avatar placement process.
The avatar arranging means 110 arranges the reviewer's avatar in the coordinate system of the same scale as the intermediate data 210. In the present embodiment, the avatar arranging means 110 can be arranged on the same scale by arranging the head of the avatar in the virtual space corresponding to the information such as the position orientation acquired by the HMD2. That is, the avatar arranging means 110 arranges the position and orientation of the avatar's head according to the position and orientation of the head of the reviewer in the real space.
As a result, the height in HMD2 can be matched with the height of the avatar in the virtual space. Therefore, it is possible to browse the scenery with the same feeling as the reviewer actually sees at the plant with HMD2. Furthermore, by looking at the feet with the HMD2, the height of the structure can be intuitively understood.

(ステップS104)
次に、アバター配置手段110が、高速移動モードか否かを判断する。アバター配置手段110は、アバターデータ220及びマーカー設定データ230を参照し、高速移動モードが設定されていた場合に、Yesと判断する。さらに、アバター配置手段110は、自動移動の指示が行われていた場合も、高速移動モードと同様として、Yesと判断する。アバター配置手段110は、それ以外の場合には、Noと判断する。
Yesの場合、アバター配置手段110は、処理をステップS105に進める。
Noの場合、アバター配置手段110は、処理をステップS106に進める。この場合、低速移動モードにて移動が行われてもよい。
(Step S104)
Next, the avatar arranging means 110 determines whether or not it is in the high-speed movement mode. The avatar arranging means 110 refers to the avatar data 220 and the marker setting data 230, and determines Yes when the high-speed movement mode is set. Further, the avatar arranging means 110 determines Yes even when the automatic movement instruction is given, as in the high-speed movement mode. The avatar arranging means 110 determines No in other cases.
In the case of Yes, the avatar arranging means 110 advances the process to step S105.
If No, the avatar arranging means 110 proceeds to step S106. In this case, the movement may be performed in the low-speed movement mode.

(ステップS105)
高速移動モードであった場合、アバター配置手段110は、高速移動処理を行う。
アバター配置手段110は、高速移動モードでの移動指示があった場合には、コントローラー3での指示に対応して、仮想空間内でアバターを移動させる。この際、アバター配置手段110は、低速移動モードよりも高速に移動させる。
さらに、アバター配置手段110は、自動移動の指示があった場合、設定された位置まで、アバターを高速で移動させる。この際、面に当たるのを無視して最短距離で移動させても、できるだけオブジェクトのない位置を優先してコース(ルート)を検索して移動させてもよい。
ここで、アバター配置手段110は、高速移動モードでは、下記で説明する重力や足裏の処理も行わず、面への当たり判定も行わずに移動させてもよい。加えて、アバター配置手段110は、コントローラー3の移動指示により、上下方向への移動も行ってもよい。
(Step S105)
In the high-speed movement mode, the avatar arranging means 110 performs high-speed movement processing.
When the avatar arranging means 110 receives a movement instruction in the high-speed movement mode, the avatar arranging means 110 moves the avatar in the virtual space in response to the instruction in the controller 3. At this time, the avatar arranging means 110 moves at a higher speed than the low-speed movement mode.
Further, the avatar arranging means 110 moves the avatar at a high speed to the set position when instructed to move automatically. At this time, it may be moved by the shortest distance ignoring the contact with the surface, or the course (route) may be searched and moved by giving priority to the position where there is no object as much as possible.
Here, in the high-speed movement mode, the avatar arranging means 110 may be moved without performing the gravity and sole processing described below and without performing the collision determination with the surface. In addition, the avatar arranging means 110 may also move in the vertical direction according to the movement instruction of the controller 3.

(ステップS106)
ここで、アバター配置手段110が、重力処理を行う。
たとえば、低速移動モードであり、マーカー設定データ230で重力が「有り」に設定されている場合、アバター配置手段110は、所定の重力加速度で、アバターをY軸の下方向に移動させる。この際、高い箇所から落ちた場合に、恐怖感を和らげるため、特定スピード以上になった場合には、それ以上のスピードにならないようにすることが好適である。
(Step S106)
Here, the avatar arranging means 110 performs gravity processing.
For example, in the low-speed movement mode, when gravity is set to "Yes" in the marker setting data 230, the avatar arranging means 110 moves the avatar downward on the Y-axis with a predetermined gravitational acceleration. At this time, in order to alleviate the feeling of fear when falling from a high place, it is preferable not to exceed a specific speed.

(ステップS107)
次に、アバター配置手段110が、足裏処理を行う。
たとえば、低速移動モードであり、マーカー設定データ230で衝突判定が「有り」に設定されている場合、アバター配置手段110は、アバターの腰部から体軸の下方向で最初に接触した略水平面の位置に、アバターの足裏の位置を合わせることで、階段、グレーチング等から落下しないようにすることが可能である。すなわち、レビューワーのレビューにおいて、いちいち、中間データ210に階段等の指定を行わなくても、階段を上り下りすることが可能になる。
(Step S107)
Next, the avatar arranging means 110 performs the sole processing.
For example, in the low-speed movement mode, when the collision detection is set to "Yes" in the marker setting data 230, the avatar arranging means 110 is the position of the substantially horizontal plane that first contacts the avatar from the waist in the downward direction of the body axis. In addition, by aligning the soles of the avatar's feet, it is possible to prevent them from falling from stairs, grating, etc. That is, in the reviewer's review, it is possible to go up and down the stairs without designating the stairs or the like in the intermediate data 210 one by one.

図4及び図5を用いて、この足裏処理の具体例について説明する。
図4によると、アバターAは、上述の重力処理により、そのままだと、薄色の一点鎖線の輪郭で示すようにY軸の下方向に移動される、すなわち落下する。
ここで、アバター配置手段110は、アバターAの腰部Hから、体軸に沿った下方向(頭部から腰部Hの方向)に、ベクトルを延ばす。図4Aでは、このベクトルを濃色の一点鎖線で示している。このベクトルについて、中間データ210の各ポリゴン(面)との接触判定(衝突判定、交差判定)を行う。ここで、アバター配置手段110は、この衝突判定で最初に接触した面が例えば、X軸とZ軸からなる水平面を0°として、水平方向の角度が45°以下の場合、「略水平面」と判断する。図4の例では、ベクトルが略水平面Sと接触している。
A specific example of this foot sole treatment will be described with reference to FIGS. 4 and 5.
According to FIG. 4, the avatar A is moved downward on the Y-axis, that is, dropped, as it is, as shown by the outline of the light-colored alternate long and short dash line, by the above-mentioned gravity processing.
Here, the avatar arranging means 110 extends the vector from the waist H of the avatar A in the downward direction (direction from the head to the waist H) along the body axis. In FIG. 4A, this vector is shown by a dark alternate long and short dash line. With respect to this vector, contact determination (collision determination, intersection determination) with each polygon (plane) of the intermediate data 210 is performed. Here, the avatar arranging means 110 is referred to as a "substantial horizontal plane" when the first contact surface in this collision determination is, for example, a horizontal plane including the X-axis and the Z-axis as 0 ° and a horizontal angle of 45 ° or less. to decide. In the example of FIG. 4, the vector is in contact with the substantially horizontal plane S.

この上で、アバター配置手段110は、アバターAの足裏LのY軸方向の座標が、この略水平面のY軸方向の座標よりも下であった場合、接触しているとして、この略水平面の位置に合わせる。この例の場合、アバター配置手段110は、アバターAの位置を、Y軸方向で上方向に移動させて、足裏LのY軸の座標と、略水平面SのY軸の座標とを合わせている。または、アバター配置手段110は、略水平面SよりY軸方向で下になった脚部の位置のみを移動させ、物理エンジンで他の関節との協働をさせるように処理してもよい。 On this, when the coordinates of the sole L of the avatar A in the Y-axis direction are lower than the coordinates in the Y-axis direction of the substantially horizontal plane, the avatar arranging means 110 considers that they are in contact with each other in the substantially horizontal plane. Align with the position of. In the case of this example, the avatar arranging means 110 moves the position of the avatar A upward in the Y-axis direction, and aligns the coordinates of the Y-axis of the sole L with the coordinates of the Y-axis of the substantially horizontal plane S. There is. Alternatively, the avatar arranging means 110 may move only the position of the leg portion that is below the substantially horizontal plane S in the Y-axis direction, and may be processed so as to cooperate with other joints by the physics engine.

図5によると、例えば、図5(a)のように、アバターは、階段の水平面Sの上に位置することが可能である。この上で、図5(b)のように、アバターAがZ軸で手前方向から奧方向に移動した場合、次の略水平面Sについて接触判定を行う。そして、図5(c)に示すように、アバターAをY軸方向で上方向に移動させることで、階段を上らせることが可能となる。 According to FIG. 5, for example, as shown in FIG. 5A, the avatar can be located on the horizontal plane S of the stairs. Then, as shown in FIG. 5B, when the avatar A moves from the front direction to the back direction on the Z axis, a contact determination is made for the next substantially horizontal plane S. Then, as shown in FIG. 5C, by moving the avatar A upward in the Y-axis direction, it is possible to climb the stairs.

また、上述の重力処理で、プラントの二階以上の位置から落下した場合でも、下の面に接触した場合、下の階の略水平面を認識して、当たった位置に移動させることが可能である。
なお、アバターの腰部からのベクトルの接触判定において、略水平面以外の面、すなわち45°以上の面と接触した場合、足裏処理は行わなくてもよい。これにより、アバターを立たせる面と、それ以外の箇所とを区別することができ、移動不能の箇所が生じるのを避けることができる。
Further, by the above-mentioned gravity treatment, even if the plant falls from a position on the second floor or higher, if it comes into contact with the lower surface, it is possible to recognize the substantially horizontal plane of the lower floor and move it to the hit position. ..
In the contact determination of the vector from the waist of the avatar, when the contact is made with a surface other than a substantially horizontal plane, that is, a surface of 45 ° or more, the sole treatment may not be performed. As a result, it is possible to distinguish between the surface on which the avatar stands and the other parts, and it is possible to avoid the occurrence of immovable parts.

(ステップS108)
ここで、接触判定手段130が、衝突判定有りでアバターが接触したか否かを判断する。
接触判定手段130は、マーカー設定データ230を設定し、衝突判定が「有り」であるか否かを判断する。この上で、衝突判定が「有り」の状態で、アバターが仮想空間内で移動した際に、足裏処理をした略水平面以外のポリゴン(面)に接触した場合に、Yesと判断する。ここで、接触判定手段130は、アバターの頭部、胴体、腕や脚等に加えて、アバターが装着した工具等のオブジェクトも接触判定してもよい。これにより、製造、整備時にどこが干渉するかを知ることが可能となる。また、接触判定手段130は、アバターがポリゴンに接触していない場合には、Noと判断する。
(Step S108)
Here, the contact determination means 130 determines whether or not the avatar has contacted with the collision determination.
The contact determination means 130 sets the marker setting data 230 and determines whether or not the collision determination is “yes”. On this basis, when the avatar moves in the virtual space in the state where the collision determination is "Yes", it is determined to be Yes when it comes into contact with a polygon (plane) other than the substantially horizontal plane treated by the sole of the foot. Here, the contact determination means 130 may determine contact with an object such as a tool worn by the avatar in addition to the head, body, arms, legs, and the like of the avatar. This makes it possible to know where the interference occurs during manufacturing and maintenance. Further, the contact determination means 130 determines No when the avatar is not in contact with the polygon.

図6(a)は、オブジェクトOの面の一つに、移動したアバターAが接触した例を示す。 FIG. 6A shows an example in which the moved avatar A comes into contact with one of the surfaces of the object O.

Yesの場合、接触判定手段130は、処理をステップS109に進める。
Noの場合、接触判定手段130は、処理をステップS110に進める。
In the case of Yes, the contact determination means 130 advances the process to step S109.
If No, the contact determination means 130 advances the process to step S110.

(ステップS109)
接触が判定された場合、接触判定手段130が、マーカー付加処理を行う。
接触判定手段130は、接触を判定された場合、仮想空間内の面の接触位置にマーカーを付加する。
接触判定手段130は、付加したマーカーをオブジェクトとして、マーカー設定データ230に付加する。この際、接触判定手段130は、マーカーを、アバターの体の部位、工具等のオブジェクト毎に色分けして付加することが可能である。さらに、接触判定手段130は、例えば、保存数を設定して、複数個、マーカー設定データ230に付加することが可能である。
なお、この保存数を超えた場合、接触判定手段130は、古いマーカーから消すことも可能である。
さらに、接触判定手段130は、マーカーの付加された時間、その際のアバターの動き(軌跡)等も、データとしてマーカー設定データ230に付加可能である。
加えて、接触判定手段130は、マーカー設定データ230に格納されたこのマーカーの位置(座標)等を、CADデータ200に書き出して出力することも可能である。
(Step S109)
When the contact is determined, the contact determination means 130 performs the marker addition process.
When the contact is determined, the contact determination means 130 adds a marker to the contact position of the surface in the virtual space.
The contact determination means 130 adds the added marker as an object to the marker setting data 230. At this time, the contact determination means 130 can add markers by color-coding each object such as a body part of the avatar and a tool. Further, the contact determination means 130 can, for example, set the number of stored items and add a plurality of the contact determination means 130 to the marker setting data 230.
When the number of stored items is exceeded, the contact determination means 130 can be erased from the old marker.
Further, the contact determination means 130 can add the time when the marker is added, the movement (trajectory) of the avatar at that time, and the like to the marker setting data 230 as data.
In addition, the contact determination means 130 can write out the position (coordinates) of the marker stored in the marker setting data 230 to the CAD data 200 and output it.

図6(b)に、このマーカー付加の例を示す。このような場合、接触判定手段130は、接触した箇所の中心部分で、面の表面になるように、マーカーMを配置する。図6(b)では、マーカーMは、星形をしている例を示すものの、単なる球形等であってもよい。 FIG. 6B shows an example of this marker addition. In such a case, the contact determination means 130 arranges the marker M at the central portion of the contacted portion so as to be the surface of the surface. Although FIG. 6B shows an example in which the marker M has a star shape, it may be a simple sphere or the like.

さらに、接触判定手段130は、接触判定の際、HMD2からブザーや低音のヒット音を出力させ、音声出力にてレビューワーに報知することも可能である。さらに、接触判定手段130は、音声だけでなく、コントローラー3の振動等によっても報知可能である。 Further, the contact determination means 130 can output a buzzer or a low-pitched hit sound from the HMD 2 at the time of contact determination, and notify the reviewer by voice output. Further, the contact determination means 130 can be notified not only by voice but also by vibration of the controller 3.

(ステップS110)
ここで、描画手段120が、描画処理を行う。
描画手段120は、アバターの視点位置に対応して、仮想空間として、RAMに展開され各種処理が実行された中間データ210であるバイナリーデータを描画する。
(Step S110)
Here, the drawing means 120 performs the drawing process.
The drawing means 120 draws binary data, which is intermediate data 210 developed in the RAM and executed various processes, as a virtual space corresponding to the viewpoint position of the avatar.

この際、描画手段120は、各種プログラマブルシェーダーを実行して、頂点や描画を調整することが可能である。
具体的には、描画手段120は、アバターの視界において、中間データ210のスケールに対応した特定閾値よりも奥の面を描画しないように構成することが可能である。すなわち、レンダリングされる距離(奥行)を、可変に設定可能である。
このため、例えば、描画手段120は、描画するポリゴンの奥行き方向の座標を可変とする頂点シェーダーやピクセルシェーダーの処理を実行可能である。これらのシェーダーにおいて、描画手段120は、アバターの視点方向の奥行きが特定閾値より奥(遠い)のポリゴンを、描画し辛くするように設定できる。この特定閾値は、例えば、中間データ210のスケールとして、表示されるポリゴン数、画像処理部11や記憶部12の負荷、プラントの敷地内で直接、検証に必要な距離等から算出して設定可能である。または、描画手段120は、アバターの視点の回転時等の条件を指定して、特定閾値を短く(小さく)してポリゴンの表示数を抑えることも可能である。
At this time, the drawing means 120 can execute various programmable shaders to adjust the vertices and drawing.
Specifically, the drawing means 120 can be configured so as not to draw a surface deeper than the specific threshold value corresponding to the scale of the intermediate data 210 in the field of view of the avatar. That is, the rendered distance (depth) can be set variably.
Therefore, for example, the drawing means 120 can execute the processing of the vertex shader or the pixel shader in which the coordinates in the depth direction of the polygon to be drawn are variable. In these shaders, the drawing means 120 can be set so as to make it difficult to draw a polygon whose depth in the viewpoint direction of the avatar is deeper (farther) than a specific threshold value. This specific threshold value can be calculated and set, for example, as the scale of the intermediate data 210, from the number of polygons displayed, the load of the image processing unit 11 and the storage unit 12, the distance required for verification directly on the plant site, and the like. Is. Alternatively, the drawing means 120 can specify conditions such as when the viewpoint of the avatar is rotated to shorten (reduce) the specific threshold value and reduce the number of polygons displayed.

レンダリングされる距離より奧側のポリゴンを描画し辛くする方式として、描画手段120は、ポリゴンを描画しない、ポリゴンを少なくしたりビルボード化したりして表示する、点表示する、フォグ等の処理を行う等の処理を行うことが可能である。
ここで、描画手段120は、描画し辛くされたポリゴンのあるオブジェクトに関しては「**施設」のように文字表示等、その方向になにがあるのかを確認可能にしておくことが可能である。この際、描画手段120は、設置された機器のオブジェクトが多かった場合、機器名ではなく「プラントA、プラントB、原料タンクヤード、製造設備」等のエリア名の表示をすることが可能である。
As a method of making it difficult to draw polygons on the back side of the rendered distance, the drawing means 120 performs processing such as not drawing polygons, reducing the number of polygons or making them billboarded, displaying points, and fog. It is possible to perform processing such as performing.
Here, the drawing means 120 can make it possible to confirm what is in the direction of an object having polygons that are difficult to draw, such as displaying characters like "** facility". .. At this time, when there are many objects of the installed equipment, the drawing means 120 can display the area name such as "plant A, plant B, raw material tank yard, manufacturing equipment" instead of the equipment name. ..

図7(a)の画面例500に示すように、描画手段120は、HMD2の表示手段に対応した描画を行うことが可能である。この他に、描画手段120は、表示部14に、表示することも可能である。これにより、レビューワーは、実際の工業用のプラント内で、そのプラントを見るかのように検証することが可能となる。 As shown in the screen example 500 of FIG. 7A, the drawing means 120 can perform drawing corresponding to the display means of the HMD2. In addition to this, the drawing means 120 can also be displayed on the display unit 14. This allows the reviewer to verify the plant as if it were seen in an actual industrial plant.

さらに、描画手段120は、中間データ210を仮想空間内に配置した地図(マップ)の描画を行うことも可能である。 Further, the drawing means 120 can also draw a map in which the intermediate data 210 is arranged in the virtual space.

図7(b)の画面例501に示すように、この地図は、ミニマップとして、HMD2に常時表示させておいてもよく、又は、画面全体のマップとして表示させてもよい。この画面例501では、大きなオブジェクトOとして、プラントA、プラントBが示され、アバターAの位置がアイコンで、この視線の向きが矢印で示されている。これにより、レビューワーが、仮想空間内で、現在どこにいるか容易に確認できるようになる。さらに、画面全体のマップでは、移動する地点Pを指定して、コントローラー3のボタン操作で指示することで、上述したように、その位置まで高速移動モードですぐ移動可能となる。 As shown in the screen example 501 of FIG. 7B, this map may be displayed on the HMD2 as a mini-map at all times, or may be displayed as a map of the entire screen. In this screen example 501, plant A and plant B are shown as large objects O, the position of avatar A is indicated by an icon, and the direction of the line of sight is indicated by an arrow. This allows the reviewer to easily see where they are in the virtual space. Further, in the map of the entire screen, by designating the moving point P and instructing it by operating the button of the controller 3, as described above, it is possible to immediately move to that position in the high-speed moving mode.

さらに、描画手段120は、表示部14で表示する用の俯瞰映像を描画することも可能である。この際、描画手段120は、俯瞰映像にアバターのオブジェクトを描画し、この上からミニマップを半透明等で描画することが可能である。すなわち、アバターのオブジェクトは、HMD2用には描画されず、表示部14に表示される俯瞰映像で描画されるようにしてもよい。この俯瞰映像において、視点や視線方向等は、入力部13等から指示可能である。 Further, the drawing means 120 can also draw a bird's-eye view image to be displayed on the display unit 14. At this time, the drawing means 120 can draw an avatar object on the bird's-eye view image, and draw a mini-map on it in a semi-transparent manner. That is, the avatar object may not be drawn for HMD2, but may be drawn in the bird's-eye view image displayed on the display unit 14. In this bird's-eye view image, the viewpoint, the line-of-sight direction, and the like can be instructed from the input unit 13 and the like.

(ステップS111)
次に、描画手段120が、レビューを終了するか否かを判断する。描画手段120は、コントローラー3や入力部13にて、レビューワーがレビュー終了の指示をしたことを検出した場合、Yesと判断する。描画手段120は、それ以外の場合には、Noと判断する。
Yesの場合、描画手段120は、レビュー処理を終了する。
Noの場合、描画手段120は、処理をステップS102に戻して、レビュー用の描画を続ける。
以上により、本発明の第一実施形態に係るレビュー処理を終了する。
(Step S111)
Next, the drawing means 120 determines whether or not to end the review. When the drawing means 120 detects that the reviewer has instructed the end of the review by the controller 3 or the input unit 13, it determines Yes. The drawing means 120 determines No in other cases.
In the case of Yes, the drawing means 120 ends the review process.
If No, the drawing means 120 returns the process to step S102 and continues drawing for review.
As described above, the review process according to the first embodiment of the present invention is completed.

以上のように構成することで、以下のような効果を得ることができる。
従来、特許文献1の技術では、配管の設計を行う手助けはできるものの、実際に設計されたプラントの整備性等を評価(レビュー)することはできなかった。
このため、CADデータ200をCADソフトウェアで表示してレビューしようとしても、直感的に把握することは難しかった。
With the above configuration, the following effects can be obtained.
Conventionally, although the technique of Patent Document 1 can assist in the design of piping, it has not been possible to evaluate (review) the maintainability of the actually designed plant.
Therefore, even if the CAD data 200 is displayed and reviewed by CAD software, it is difficult to grasp it intuitively.

これに対して、本発明の実施の形態に係るレビュー装置1は、工業用のプラントをレビューするためのレビュー装置であって、プラントのCADデータ200を、複数の面データを含む中間データ210に変換する中間データ変換手段100と、中間データ変換手段100により変換された中間データ210と同スケールの座標系にレビューワーのアバターを配置するアバター配置手段110と、アバター配置手段110により配置されたアバターの視点位置から、中間データ210に対応した仮想空間を描画する描画手段120とを備えることを特徴とする。
このように構成することで、プラント設計において、3DCADデータファイルを読み込んで、直感的にプラントの配管等のレビューをすることが可能となる。これにより、CADデータ200を用意するだけで、アバターの視点からみた仮想空間を俯瞰して、直感的にレビューを行うことが可能となる。結果として、メンテナンススペースの体感、運転時の操作シミュレーション等、各種調整のシミュレーションを行うことができる。よって、設計の短期化、コスト低減が実現できる。
On the other hand, the review device 1 according to the embodiment of the present invention is a review device for reviewing an industrial plant, and the CAD data 200 of the plant is converted into intermediate data 210 including a plurality of surface data. The intermediate data conversion means 100 to be converted, the avatar placement means 110 for arranging the reviewer's avatar in the coordinate system of the same scale as the intermediate data 210 converted by the intermediate data conversion means 100, and the avatar placed by the avatar placement means 110. It is characterized by including a drawing means 120 for drawing a virtual space corresponding to the intermediate data 210 from the viewpoint position of the above.
With this configuration, it is possible to read the 3D CAD data file and intuitively review the piping of the plant in the plant design. As a result, it is possible to intuitively review the virtual space from the viewpoint of the avatar just by preparing the CAD data 200. As a result, it is possible to perform simulations of various adjustments such as experience of maintenance space and operation simulation during operation. Therefore, the design can be shortened and the cost can be reduced.

また、従来、CADデータ200をXR等で閲覧可能とするためには、メーカー等に依頼して、手動でデータをXR等用に変換する必要があった。
これに対して、本発明の実施の形態に係るレビュー装置1は、描画手段120により描画された仮想空間の画像を表示し、現実空間の位置及び向きを取得可能なHMD2が接続され、アバター配置手段110は、仮想空間内のアバターの頭部の位置を、HMD2により取得された現実空間の位置及び向きに合わせることを特徴とする。
このように構成し、中間データ210に変換してから仮想空間を描画することで、いちいちメーカー等により手動でCADデータ200を変換する必要がなくなる。このため、CADデータ200をそのままXR等で閲覧できるようになる。よって、CADデータ200の修正、変更があった際に、すぐレビューすることが可能となる。
Further, conventionally, in order to make the CAD data 200 viewable by XR or the like, it has been necessary to request a manufacturer or the like to manually convert the data for XR or the like.
On the other hand, the review device 1 according to the embodiment of the present invention displays an image of the virtual space drawn by the drawing means 120, is connected to an HMD2 capable of acquiring the position and orientation of the real space, and arranges an avatar. The means 110 is characterized in that the position of the head of the avatar in the virtual space is aligned with the position and orientation of the real space acquired by the HMD2.
By configuring in this way and drawing the virtual space after converting to the intermediate data 210, it is not necessary to manually convert the CAD data 200 by the manufacturer or the like. Therefore, the CAD data 200 can be viewed as it is by XR or the like. Therefore, when the CAD data 200 is modified or changed, it can be reviewed immediately.

また、CADデータ200をXR等で閲覧可能とするためには、CADデータ200上で、階段等と設定する必要があった。この上で、メーカー等に依頼して、階段等の位置を、手動で上下移動可能な通路のようにデータを手直しする必要があった。
これに対して、本発明の実施の形態に係るレビュー装置1は、アバター配置手段110は、仮想空間内でアバターの腰部から体軸の下方向で最初に接触した略水平面の位置に、アバターの足裏の位置を合わせることを特徴とする。
このように構成することで、CADデータ200上で、特に階段等を設定することなく、階段の隙間から落ちないようにして、アバター等を上り下りさせることができるようになる。すなわち、CADデータ200の手直しが必要なくなる。このため、CADデータ200をそのままXR等で閲覧できるようになる。
Further, in order to make the CAD data 200 viewable by XR or the like, it is necessary to set the stairs or the like on the CAD data 200. On top of this, it was necessary to ask the manufacturer or the like to reposition the stairs or the like so that the data could be manually moved up and down like a passage.
On the other hand, in the review device 1 according to the embodiment of the present invention, the avatar arranging means 110 is located at a position on a substantially horizontal plane where the avatar arranging means 110 first contacts the avatar from the waist to the downward direction of the body axis in the virtual space. It is characterized by aligning the soles of the feet.
With this configuration, it is possible to move the avatar or the like up and down on the CAD data 200 without setting the stairs or the like so as not to fall from the gap between the stairs. That is, it is not necessary to modify the CAD data 200. Therefore, the CAD data 200 can be viewed as it is by XR or the like.

また、本発明の実施の形態に係るレビュー装置1は、アバター配置手段110は、ビューワーの指示を取得し、アバターに重力を加えるか否か、及び/又はアバターを高速移動させる高速移動モードか否かを設定し、重力を加えない設定の場合又は高速移動モードの場合には、仮想空間内の面との当たり判定をせずに仮想空間の上下方向を移動可能とすることを特徴とする。
このように構成することで、レビューワーの意図に沿って、仮想空間内でアバターを容易に移動させることが可能となる。また、現実空間内でも、レビューワーが移動する際に、壁等にぶつかる可能性を減らせる。よって、不必要な衝突判定を自動でオフにすることで、処理負担を軽くして、ユーザーの回避等の負担も軽くすることでユーザビリティーを向上させることができる。
さらに、仮想空間内の移動方法を高速移動モードと低速移動モードの二つにすることで、初めて操作するレビューワーでも、感覚的に操作することができる。そして、仮想空間内で行きたい場所に素早く移動することが可能となる。さらに、重力なしでも移動できるようにすることで、仮想空間内の高い位置へ簡単に移動することが可能となる。
Further, in the review device 1 according to the embodiment of the present invention, whether or not the avatar arranging means 110 acquires the instruction of the viewer and applies gravity to the avatar, and / or whether or not the avatar is in the high-speed movement mode for moving the avatar at high speed. In the case of setting that does not apply gravity or in the high-speed movement mode, it is characterized in that it can move in the vertical direction of the virtual space without determining the contact with the surface in the virtual space.
With this configuration, it is possible to easily move the avatar in the virtual space according to the intention of the reviewer. Also, even in the real space, the possibility of hitting a wall or the like when the reviewer moves can be reduced. Therefore, by automatically turning off unnecessary collision detection, the processing load can be lightened, and the burden of avoiding the user can be lightened to improve usability.
Furthermore, by setting the movement method in the virtual space to two modes, a high-speed movement mode and a low-speed movement mode, even a reviewer who operates for the first time can operate it intuitively. Then, it becomes possible to quickly move to the desired place in the virtual space. Furthermore, by making it possible to move without gravity, it becomes possible to easily move to a high position in the virtual space.

また、本発明の実施の形態に係るレビュー装置1は、アバターの移動中に、アバターと、仮想空間内の略水平面以外の面との接触を判定する接触判定手段130を更に備えることを特徴とする。
このように構成することで、アバターのと、壁や機器等のオブジェクトの面との接触判定の結果を容易に把握できる。よって、製造、整備時にどこが干渉するか、容易に知ることが可能となる。すなわち、実寸大でプラントを動き回り、手や頭が当たるような事態を容易に検証可能となる。
また、高速移動モード時には、接触判定を行わないようにすることで、レビューワーによるアバターの指示や移動を妨げないようにすることができる。
Further, the review device 1 according to the embodiment of the present invention is further provided with a contact determination means 130 for determining contact between the avatar and a surface other than the substantially horizontal plane in the virtual space while the avatar is moving. do.
With this configuration, the result of contact determination between the avatar and the surface of an object such as a wall or device can be easily grasped. Therefore, it is possible to easily know where the interference occurs during manufacturing and maintenance. In other words, it is possible to easily verify a situation in which a hand or head hits the plant while moving around the plant at the actual size.
In addition, in the high-speed movement mode, it is possible to prevent the reviewer from interfering with the instruction and movement of the avatar by not performing the contact determination.

また、本発明の実施の形態に係るレビュー装置1は、接触判定手段130は、接触を判定された場合、仮想空間内の面の接触位置にマーカーを付加する、及び/又は、音声出力にてレビューワーに警告することを特徴とする。
このように構成することで、接触したことを後からでも確認でき、検証しやすくなる。
また、高速移動モード時には、マーカーを付加しないようにすることで、不要なマーカーが付加されないようにすることが可能となる。
Further, in the review device 1 according to the embodiment of the present invention, when the contact determination means 130 determines the contact, a marker is added to the contact position of the surface in the virtual space, and / or by voice output. It is characterized by warning the reviewer.
With such a configuration, it is possible to confirm the contact even afterwards, and it becomes easy to verify.
Further, in the high-speed movement mode, it is possible to prevent unnecessary markers from being added by not adding markers.

また、本発明の実施の形態に係るレビュー装置1は、現実空間の位置及び向きを取得可能なコントローラー3が接続され、アバター配置手段110は、仮想空間内のアバターの手の位置を、HMD2により取得された現実空間の位置に合わせ、接触判定手段130は、アバターの手に仮想的に把持された工具についても、仮想空間内の面との接触を判定することを特徴とする。
このように構成することで、アバターが装着した工具等のオブジェクトの干渉を把握することが可能となる。
Further, the review device 1 according to the embodiment of the present invention is connected to the controller 3 capable of acquiring the position and orientation in the real space, and the avatar arranging means 110 sets the position of the avatar's hand in the virtual space by the HMD2. The contact determination means 130 determines the contact with the surface in the virtual space even for the tool virtually held by the avatar's hand according to the acquired position in the real space.
With this configuration, it is possible to grasp the interference of objects such as tools worn by the avatar.

また、本発明の実施の形態に係るレビュー装置1は、描画手段120は、アバターの視界において、中間データ210のスケールに対応した特定閾値よりも奥の面を描画しないことを特徴とする。
このように、必要に応じて画像処理範囲を限定するよう構成することで、大規模な中間データ210でも、スムーズに表示できるようになり、表示パフォーマンスを改善できる。
Further, the review device 1 according to the embodiment of the present invention is characterized in that the drawing means 120 does not draw a surface deeper than a specific threshold value corresponding to the scale of the intermediate data 210 in the field of view of the avatar.
By configuring the image processing range to be limited as needed in this way, even a large-scale intermediate data 210 can be smoothly displayed, and the display performance can be improved.

なお、上述の第一実施形態では、中間データ210をバイナリーデータに展開する際に、ポリゴンの表示制御を行う表示制御処理を、主に制御部10の中間データ変換手段100にて実行する例について説明した。
これについて、OBJ形式のデータやOBF形式のデータを読み込む際の処理を、画像処理部11を用いて、コンピュートシェーダー等で、マルチスレッド等も用いて最適化することも可能である。また、描画手段120についても、画像処理部11により高速に描画可能である。さらに、画像処理部11により、バイナリーデータで表示される生成モデルの最適化(Triangle Strips等)及び奥行き方向の描画の最適化を行うことも可能である。
In the first embodiment described above, when the intermediate data 210 is expanded into binary data, the display control process for controlling the display of polygons is mainly executed by the intermediate data conversion means 100 of the control unit 10. explained.
Regarding this, it is also possible to optimize the processing when reading the OBJ format data or the OBF format data by using the image processing unit 11 and using a compute shader or the like, or using multithreading or the like. Further, the drawing means 120 can also be drawn at high speed by the image processing unit 11. Further, the image processing unit 11 can optimize the generation model displayed as binary data (Triangle Strips, etc.) and the drawing in the depth direction.

上述の第一実施形態では、アバターの腰部からベクトルを体軸に沿って下ろし、略水平面との接触を判定するように記載した。
しかしながら、体軸とは関係なしに、Y軸方向の下方向にベクトルを延ばして接触判定することも可能である。この場合、例えば、アバターの腰部の位置を、アバターの身長の1/2の位置のように決定する。すなわち、アバターの身長の1/2の高さから、Y軸方向の下方向にベクトルを下ろして接触判定を行うような構成としてもよい。そして、このベクトルと面との接触判定を行った場合、アバターの「足裏」のポリゴン等との直接の接触判定を行わなくてもよい。これにより、アバターの姿勢に関わらず、略水平面との判定を行うことができ、階段等を踏み外す可能性を減じることが可能である。
さらに、腰部よりも下の位置からベクトルを延ばすように設定することも可能である。すなわち、このベクトルの始点をアバターの身長の1/2より小さく、例えば、膝下くらいにするような調整を行うことも可能である。
加えて、上述の第一実施形態では、接触判定をベクトルの点で行うように記載したものの、円形の範囲で行うことも可能である。これにより、グレーチング等の構造物があった場合でも、アバターを確実に落ちなくすることが可能となる。
さらに、アバターの腰部から下のポリゴン全体と、他のポリゴン等との接触判定を行うようにしてもよい。この場合、他のポリゴン等と接触していた場合、アバターの足裏の位置を当該ポリゴンの上になるように決定してもよい。
In the first embodiment described above, a vector is lowered from the waist of the avatar along the body axis to determine contact with a substantially horizontal plane.
However, it is also possible to extend the vector downward in the Y-axis direction to determine the contact regardless of the body axis. In this case, for example, the position of the waist of the avatar is determined as the position of 1/2 of the height of the avatar. That is, the contact may be determined by lowering the vector in the downward direction in the Y-axis direction from the height of 1/2 of the height of the avatar. Then, when the contact determination between this vector and the surface is performed, it is not necessary to directly determine the contact with the polygon or the like of the "sole" of the avatar. As a result, it is possible to determine that the avatar is in a substantially horizontal plane regardless of the posture of the avatar, and it is possible to reduce the possibility of stepping off the stairs or the like.
Furthermore, it is also possible to set the vector to extend from a position below the lumbar region. That is, it is possible to adjust the starting point of this vector to be smaller than 1/2 of the height of the avatar, for example, below the knee.
In addition, in the above-described first embodiment, although it is described that the contact determination is performed at the point of the vector, it is also possible to perform the contact determination in a circular range. As a result, even if there is a structure such as grating, it is possible to surely prevent the avatar from falling.
Further, the contact determination between the entire polygon below the waist of the avatar and another polygon or the like may be performed. In this case, if the avatar is in contact with another polygon or the like, the position of the sole of the avatar may be determined to be above the polygon.

上述の第一実施形態では、45°以上の角度の面とは、足裏処理にて接触判定を行わないように記載したものの、斜めでも垂直でも接触判定をするようにしてもよい。これにより、斜めのスロープやパイプや坂等であっても、上るようにすることが可能となる。
加えて、水平方向で手すりやラッタルを自動認識したり、テクスチャーやマテリアルで階段の面であることを認識するように構成することも可能である。
In the above-described first embodiment, although it is described that the contact determination is not performed on the surface having an angle of 45 ° or more by the sole treatment, the contact determination may be performed either diagonally or vertically. This makes it possible to climb even diagonal slopes, pipes, slopes, and the like.
In addition, it can be configured to automatically recognize handrails and rattals in the horizontal direction, and to recognize that it is a surface of stairs with textures and materials.

上述の第一実施形態では、高速移動モード又は低速移動モードの切り換えと、重力の有無とが連動するよう記載した。しかしながら、重力のありなしのみを、モードの切り換えとは別に設定可能としてもよい。
この場合、例えば、アバター配置手段110は、コントローラー3のボタンによる重力の有無を切り換えることが可能である。
さらに、コントローラー3を複数備えて、例えば、右手に把持されたコントローラー3のボタン押下では低速移動モード、左手に把持されたコントローラー3のボタン押下では高速移動モードとするような切り換えを行うことも可能である。
または、特定のボタンやパッドの押下によっては、高速移動モード又は低速移動モードで移動するように構成することも可能である。
In the first embodiment described above, it is described that the switching between the high-speed movement mode and the low-speed movement mode and the presence / absence of gravity are linked. However, only the presence or absence of gravity may be set separately from the mode switching.
In this case, for example, the avatar arranging means 110 can switch the presence or absence of gravity by the button of the controller 3.
Further, it is also possible to provide a plurality of controllers 3 and switch to, for example, a low-speed movement mode when the button of the controller 3 held in the right hand is pressed, and a high-speed movement mode when the button of the controller 3 held in the left hand is pressed. Is.
Alternatively, it can be configured to move in the high-speed movement mode or the low-speed movement mode depending on the pressing of a specific button or pad.

上述の第一実施形態では、描画手段120は、アバターの視界において、中間データ210のスケールに対応した特定閾値よりも奥の面を描画しないように記載した。
これについて、特定閾値自体を変化させる構成も可能である。たとえば、中間データ210のポリゴン量が多い場合、すなわち、混み合ったプラントの場合は、特定閾値をアバターの視界方向でより手前に設定可能である。逆に、中間データ210のポリゴン量が少ない場合、すなわち、空いているプラントの場合、特定閾値をより奥に設定可能である。または、特定閾値を変化させず、プラントのスケール自体を変更することで、より遠近感を出すようにして、結果として描画するポリゴン量を調整し、処理量を調整してもよい。
In the first embodiment described above, the drawing means 120 is described so as not to draw a surface deeper than the specific threshold value corresponding to the scale of the intermediate data 210 in the field of view of the avatar.
Regarding this, a configuration in which the specific threshold value itself is changed is also possible. For example, when the amount of polygons in the intermediate data 210 is large, that is, in the case of a crowded plant, a specific threshold value can be set closer to the front in the field of view of the avatar. On the contrary, when the amount of polygons in the intermediate data 210 is small, that is, in the case of a vacant plant, the specific threshold value can be set deeper. Alternatively, the scale itself of the plant may be changed without changing the specific threshold value to give a more perspective, and as a result, the amount of polygons to be drawn may be adjusted and the amount of processing may be adjusted.

<第二実施形態>
次に、本発明の第二実施形態に係るレビューシステムYについて説明する。
本実施形態では、工業用のプラントをレビューする際に、建物や工具等のオブジェクトを用いて、検証を行うことが可能である。さらに、照明やスピーカー等についても検証可能となる。
<Second embodiment>
Next, the review system Y according to the second embodiment of the present invention will be described.
In this embodiment, when reviewing an industrial plant, it is possible to perform verification using objects such as buildings and tools. Furthermore, it is possible to verify lighting, speakers, and the like.

具体的に、図8により説明すると、本実施形態のレビューシステムYは、第一実施形態のレビュー装置1と同様のハードウェア構成のレビュー装置1b、HMD2、及びコントローラー3を備えている。なお、以下において、第一実施形態と同じ符号は、同様の構成要素を示す。 Specifically, as described with reference to FIG. 8, the review system Y of the present embodiment includes a review device 1b, an HMD2, and a controller 3 having the same hardware configuration as the review device 1 of the first embodiment. In the following, the same reference numerals as those in the first embodiment indicate the same components.

制御部10bは、中間データ変換手段100、オブジェクト配置手段111、描画音声手段121、及びコース設定手段140を備えている。
記憶部12bは、CADデータ200、中間データ210、オブジェクトデータ221、及びコースデータ240を格納する。
以下では、第一実施形態のレビューシステムXと異なる構成について説明する。
The control unit 10b includes an intermediate data conversion means 100, an object arranging means 111, a drawing voice means 121, and a course setting means 140.
The storage unit 12b stores CAD data 200, intermediate data 210, object data 221 and course data 240.
Hereinafter, a configuration different from the review system X of the first embodiment will be described.

オブジェクト配置手段111は、中間データ変換手段100により変換された中間データ210と同スケールの座標系に、レビュー用のオブジェクトを配置する。
また、オブジェクト配置手段111は、レビューワーの指示を取得し、仮想空間内で、オブジェクトを付加及び/又は移動することも可能である。
具体的には、オブジェクト配置手段111は、オブジェクトとして、例えば、仮想空間内に音源及び/又は照明器具を配置することが可能である。
The object arranging means 111 arranges the object for review in the coordinate system of the same scale as the intermediate data 210 converted by the intermediate data conversion means 100.
Further, the object arranging means 111 can acquire the instruction of the reviewer and add and / or move the object in the virtual space.
Specifically, the object arranging means 111 can arrange a sound source and / or a lighting fixture as an object, for example, in a virtual space.

描画音声手段121は、第一実施形態の描画手段120と同様の機能を備えている。本実施形態においては、描画音声手段121は、オブジェクト配置手段111により配置されたオブジェクトと中間データ210とに対応した仮想空間を描画する。
これに加えて、描画音声手段121は、コースデータ240を参照し、設定された見学コースに沿った仮想空間を描画することも可能である。
さらに、描画音声手段121は、照明器具が配置された場合、照明を描画可能である。
加えて、描画音声手段121は、音源が配置された場合、当該音源に対応した音声も、HMD2から出力させることが可能である。すなわち、描画音声手段121は、音源からの音声を仮想空間上の仮想音声として出力を計算することが可能である。これにより、描画音声手段121は、本実施形態の描画手段、及び音声算出手段として機能する。
The drawing voice means 121 has the same function as the drawing means 120 of the first embodiment. In the present embodiment, the drawing voice means 121 draws a virtual space corresponding to the object arranged by the object arranging means 111 and the intermediate data 210.
In addition to this, the drawing voice means 121 can also refer to the course data 240 and draw a virtual space along the set tour course.
Further, the drawing voice means 121 can draw the lighting when the lighting fixture is arranged.
In addition, when the sound source is arranged, the drawing sound means 121 can also output the sound corresponding to the sound source from the HMD2. That is, the drawing voice means 121 can calculate the output of the voice from the sound source as the virtual voice in the virtual space. As a result, the drawing voice means 121 functions as the drawing means and the voice calculation means of the present embodiment.

コース設定手段140は、仮想空間内に見学コースを設定する。
コース設定手段140は、ユーザーの指示にてコースデータ240に設定する。または、コース設定手段140は、中間データ210からコースを自動的に算出し、コースデータ240に設定することも可能である。
The course setting means 140 sets a tour course in the virtual space.
The course setting means 140 sets the course data 240 according to the user's instruction. Alternatively, the course setting means 140 can automatically calculate the course from the intermediate data 210 and set it in the course data 240.

オブジェクトデータ221は、レビューワーにより操作されるオブジェクトが設定されたデータである。このオブジェクトは、例えば、工具、配管、装置、施設、設備、その他、ポリゴンで構成される面等の集合を含む。具体的には、装置は、エンジンや各種の外部から搬入される装置、施設は設置される足場等を含む。これにより、プラント内での設置等の検証を行うことが可能となる。設備としては、スピーカー等の音源のオブジェクト、照明器具のオブジェクト等、及びこれらの配線等のオブジェクトを配置可能である。
さらに、オブジェクトは、複数に分解、変形可能であってもよい。すなわち、装置等の場合、一部に分解したり、変形したりすることが可能である。このため、工具等の特別なオブジェクトが設定されていてもよい。さらに、オブジェクトデータ221は、上述の第二実施形態のアバターデータ220と同様のデータを含んでいてもよい。
The object data 221 is data in which an object operated by the reviewer is set. This object includes, for example, a set of tools, pipes, devices, facilities, equipment, and other faces composed of polygons. Specifically, the device includes an engine, various devices carried in from the outside, and a scaffold on which the facility is installed. This makes it possible to verify the installation in the plant. As equipment, sound source objects such as speakers, lighting fixture objects, and other objects such as wiring can be arranged.
Further, the object may be decomposed and deformed into a plurality of objects. That is, in the case of a device or the like, it can be partially disassembled or deformed. Therefore, a special object such as a tool may be set. Further, the object data 221 may include the same data as the avatar data 220 of the second embodiment described above.

コースデータ240は、レビューワーの見学用のコースが設定されたデータである。具体的には、中間データ210内でどのような道順で移動するかのコース、立ち止まる時間等が設定されている。 The course data 240 is data in which a course for a reviewer's tour is set. Specifically, the course of the route to move in the intermediate data 210, the time to stop, and the like are set.

ここで、レビュー装置1bの制御部10bは、記憶部12bに記憶された制御プログラムを実行することで、中間データ変換手段100、オブジェクト配置手段111、描画音声手段121、及びコース設定手段140として機能させられる。これらがハードウェア資源を用いる等については、第一実施形態と同様である。 Here, the control unit 10b of the review device 1b functions as the intermediate data conversion means 100, the object arranging means 111, the drawing voice means 121, and the course setting means 140 by executing the control program stored in the storage unit 12b. Be made to. The use of hardware resources and the like are the same as in the first embodiment.

〔レビューシステムYによるレビュー処理〕
次に、図9を参照して、本実施形態に係るレビューシステムYによるレビュー処理の説明を行う。
本実施形態のレビュー処理においては、プラントのCADデータ200を、中間データ210に変換する。そして、変換された中間データ210と同スケールの座標系に、レビュー用のオブジェクトを配置する。この上で、配置されたオブジェクトと中間データ210とを含む仮想空間を描画する。この描画された仮想空間の映像は、HMD2に表示される。
本実施形態のレビュー処理は、主にレビュー装置1bの制御部10bが、記憶部12bに記憶されたプログラムを、各部と協働し、ハードウェア資源を用いて実行する。
以下で、図9のフローチャートを参照して、レビュー処理の詳細をステップ毎に説明する。
[Review processing by review system Y]
Next, the review process by the review system Y according to the present embodiment will be described with reference to FIG.
In the review process of this embodiment, the CAD data 200 of the plant is converted into the intermediate data 210. Then, the object for review is placed in the coordinate system of the same scale as the converted intermediate data 210. On this, a virtual space including the arranged object and the intermediate data 210 is drawn. The drawn image of the virtual space is displayed on the HMD2.
In the review process of the present embodiment, the control unit 10b of the review device 1b mainly executes the program stored in the storage unit 12b in cooperation with each unit and uses the hardware resources.
Hereinafter, the details of the review process will be described step by step with reference to the flowchart of FIG.

(ステップS200)
まず、中間データ変換手段100が、CADデータ取得処理を行う。この処理は、図3のステップS100と同様である。
(Step S200)
First, the intermediate data conversion means 100 performs the CAD data acquisition process. This process is the same as in step S100 of FIG.

(ステップS201)
次に、中間データ変換手段100が、中間データ変換処理を行う。この処理も、図3のステップS101と同様である。
(Step S201)
Next, the intermediate data conversion means 100 performs the intermediate data conversion process. This process is also the same as in step S101 of FIG.

(ステップS202)
次に、コース設定手段140が、コース設定処理を行う。
コース設定手段140は、仮想空間内に見学コースを設定し、コースデータ240に格納する。
コース設定手段140は、ユーザーの指示でコースを設定、又はコースを自動的に算出し、コースデータ240に設定する。コース設定手段140は、例えば、中間データ210のオブジェクト単位で、レビューワーが閲覧できるようなコースを、循環セールスマン問題等を用いて算出することが可能である。
(Step S202)
Next, the course setting means 140 performs the course setting process.
The course setting means 140 sets a tour course in the virtual space and stores it in the course data 240.
The course setting means 140 sets the course according to the instruction of the user, or automatically calculates the course and sets it in the course data 240. The course setting means 140 can calculate, for example, a course that can be viewed by the reviewer for each object of the intermediate data 210 by using the traveling salesman problem or the like.

図10(a)によると、レビューワーが、コースをコースデータ240に設定した例を示している。この例では、プラントAのオブジェクトから、プラントBのオブジェクトへ移動している。 According to FIG. 10 (a), the reviewer shows an example in which the course is set to the course data 240. In this example, the object of plant A is moved to the object of plant B.

(ステップS203)
ここで、オブジェクト配置手段111が、オブジェクト配置処理を行う。
オブジェクト配置手段111は、中間データ210と同スケールの座標系に、レビュー用のオブジェクトを配置する。この中間データ210と同スケールの座標系の算出は、図3のステップS103の処理と同様に行う。
(Step S203)
Here, the object arranging means 111 performs the object arranging process.
The object arranging means 111 arranges the object for review in the coordinate system of the same scale as the intermediate data 210. The calculation of the coordinate system of the same scale as the intermediate data 210 is performed in the same manner as the process of step S103 of FIG.

オブジェクト配置手段111は、コントローラー3からレビューワーの指示を取得し、オブジェクトデータ221のオブジェクトを変更可能である。オブジェクト配置手段111は、この変更としては、仮想空間内で、オブジェクトを付加したり、移動したりすることが可能である。たとえば、オブジェクト配置手段111は、工具、配管、装置、設備、施設、その他、ポリゴンで構成されるオブジェクトを、特定の位置に配置したり、分解したり、変形したりすることが可能である。この際、オブジェクト配置手段111は、オブジェクトとして、例えば、仮想空間内に音源及び/又は照明器具を配置することが可能である。 The object arranging means 111 can acquire the instruction of the reviewer from the controller 3 and change the object of the object data 221. As this change, the object arranging means 111 can add or move an object in the virtual space. For example, the object arranging means 111 can arrange, disassemble, or deform a tool, a pipe, a device, an equipment, a facility, or an object composed of polygons at a specific position. At this time, the object arranging means 111 can arrange a sound source and / or a lighting fixture as an object, for example, in a virtual space.

図10(a)の画面例502によると、レビューワーは、一点鎖線の範囲で示す照明器具Iによる照明を閲覧したり、音源Uからの音の広がり等を確認したりすることも可能である。
図10(b)の画面例503、及び図10(c)の画面例504によると、レビューワーは、オブジェクトOについて、アバターのレンチ等のアイコンで分解することが可能である。
According to the screen example 502 of FIG. 10A, the reviewer can also view the illumination by the lighting fixture I shown in the range of the alternate long and short dash line, and can confirm the spread of the sound from the sound source U. ..
According to the screen example 503 of FIG. 10B and the screen example 504 of FIG. 10C, the reviewer can decompose the object O with an icon such as an avatar wrench.

(ステップS204)
次に、描画音声手段121が、描画処理を行う。この処理も、図3のステップS109の処理と同様に行う。
(Step S204)
Next, the drawing voice means 121 performs drawing processing. This process is also performed in the same manner as the process in step S109 of FIG.

(ステップS205)
次に、描画音声手段121が、音声出力処理を行う。
描画音声手段121は、オブジェクトとして、仮想空間内に音源が配置された場合、当該音源に対応した音声を、HMD2から出力させる。
(Step S205)
Next, the drawing audio means 121 performs audio output processing.
When a sound source is arranged in the virtual space as an object, the drawing voice means 121 outputs the voice corresponding to the sound source from the HMD2.

(ステップS206)
次に、描画音声手段121が、レビューを終了するか否かを判断する。描画音声手段121は、レビュー終了の指示を検出した場合、Yesと判断する。描画音声手段121は、それ以外の場合には、Noと判断する。
Yesの場合、描画音声手段121は、レビュー処理を終了する。
Noの場合、描画音声手段121は、処理をステップS203に戻して、レビュー用の描画を続ける。
以上により、本発明の第二実施形態に係るレビュー処理を終了する。
(Step S206)
Next, the drawing voice means 121 determines whether or not to end the review. When the drawing voice means 121 detects the instruction to end the review, it determines Yes. The drawing voice means 121 determines No in other cases.
In the case of Yes, the drawing voice means 121 ends the review process.
If No, the drawing voice means 121 returns the process to step S203 and continues drawing for review.
This completes the review process according to the second embodiment of the present invention.

以上のように構成することで、以下のような効果を得ることができる。
従来は、配管レビューや機器配置計画等のプラント設計には、XRは使用されていなかった。このため、例えば、レビューを実行する際には、3DのCADデータ200を大画面に表示しながら、配管位置やバルブの操作性等を検討していた。この場合、3D CADの扱いに慣れているレビューワーには、距離感やサイズ感が理解できる。しかし、慣れていないレビューワーでは、画面上で見るだけでは、具体的なイメージがつかめないという問題があった。
With the above configuration, the following effects can be obtained.
Conventionally, XR has not been used for plant design such as piping review and equipment layout planning. Therefore, for example, when executing the review, while displaying the 3D CAD data 200 on a large screen, the piping position, the operability of the valve, and the like have been examined. In this case, the reviewer who is accustomed to handling 3D CAD can understand the sense of distance and the sense of size. However, unfamiliar reviewers have the problem that they cannot get a concrete image just by looking at it on the screen.

これに対して、本実施形態のレビューシステムYは、工業用のプラントをレビューするためのレビューシステムであって、プラントのCADデータ200を、複数の面データを含む中間データ210に変換する中間データ変換手段100と、中間データ変換手段100により変換された中間データ210と同スケールの座標系に、レビュー用のオブジェクトを配置するオブジェクト配置手段111と、オブジェクト配置手段111により配置されたオブジェクトと中間データ210とに対応した仮想空間を描画する描画音声手段121と、描画音声手段121に描画された仮想空間の映像を表示するHMD2とを備えることを特徴とする。
このように構成することで、プラントのレビューにて、HMD2によりXRでレビューすることが可能となる。XRにより、実寸のプラントを移動したりすることができ、メンテナンス性や操作性、通路の広さ等、実際の作業者の視点で確認することが可能となる。
On the other hand, the review system Y of the present embodiment is a review system for reviewing an industrial plant, and is intermediate data that converts the CAD data 200 of the plant into intermediate data 210 including a plurality of surface data. An object arranging means 111 for arranging an object for review in a coordinate system of the same scale as the conversion means 100 and the intermediate data 210 converted by the intermediate data conversion means 100, and an object and intermediate data arranged by the object arranging means 111. It is characterized by including a drawing audio means 121 for drawing a virtual space corresponding to 210, and an HMD 2 for displaying an image of the virtual space drawn on the drawing audio means 121.
With this configuration, it is possible to review the plant with XR by HMD2. With the XR, it is possible to move the actual size plant, and it is possible to check the maintainability, operability, aisle width, etc. from the viewpoint of an actual worker.

また、本実施形態に係るレビュー装置1bは、仮想空間内に見学コースを設定するコース設定手段140を更に備え、描画音声手段121は、見学コースに沿った仮想空間を描画することを特徴とする。
このように構成することで、XRデータ内で見学コースを設定することが可能となる。これにより、実際のプラントに行かなくても、見学をすることができる。
Further, the review device 1b according to the present embodiment further includes a course setting means 140 for setting a tour course in the virtual space, and the drawing voice means 121 is characterized in that the virtual space along the tour course is drawn. ..
With this configuration, it is possible to set a tour course in the XR data. This allows you to tour without going to the actual plant.

また、本実施形態に係るレビュー装置1bは、オブジェクト配置手段111は、レビューワーの指示を取得し、仮想空間内で、オブジェクトを付加及び/又は移動することを特徴とする。
このように構成することで、XR中で、オブジェクトを移動したり、付加させたりすることが可能となる。よって、仮設足場の設置計画等ができるようになる。また、クレーン等の重機を置き、工事の配置計画ができる。加えて、道具をつかったオペレーションのシミュレーション、配管の改造計画等を行うことが可能となる。
Further, the review device 1b according to the present embodiment is characterized in that the object arranging means 111 acquires the instruction of the reviewer and adds and / or moves the object in the virtual space.
With this configuration, it is possible to move and add objects in the XR. Therefore, it becomes possible to plan the installation of temporary scaffolding. In addition, heavy machinery such as cranes can be placed to plan the layout of construction work. In addition, it will be possible to simulate operations using tools, plan modifications to piping, and so on.

また、本実施形態に係るレビュー装置1bは、オブジェクト配置手段111は、レビューワーの指示を取得し、仮想空間内で、オブジェクトを単位毎に分解することを特徴とする。
このように構成することで、XRのオブジェクトを分解操作することが可能となる。よって、メンテナンススペースの確認や、分解手順の学習等に使用できる。
Further, the review device 1b according to the present embodiment is characterized in that the object arranging means 111 acquires the instruction of the reviewer and decomposes the object unit by unit in the virtual space.
With this configuration, it is possible to disassemble the XR object. Therefore, it can be used for checking the maintenance space and learning the disassembly procedure.

また、本実施形態に係るレビュー装置1bは、オブジェクト配置手段111は、オブジェクトとして、仮想空間内に音源及び/又は照明器具を配置し、描画音声手段121は、照明器具が配置された場合、照明を描画し、HMD2は、音源が配置された場合、当該音源に対応した音声も出力することを特徴とする。
このように構成することで、プラント内に音源を設置し、放送機器の設置場所と音源の検証を行うことが可能となる。または、機器からでる騒音の確認を行うことも可能となる。さらに、照明器具を設置することで、照明の配置や数を実際の作業者の目線で確認することが可能となる。
Further, in the review device 1b according to the present embodiment, the object arranging means 111 arranges a sound source and / or a lighting fixture as an object in the virtual space, and the drawing sound means 121 illuminates when the lighting fixture is arranged. The HMD2 is characterized in that, when a sound source is arranged, the sound corresponding to the sound source is also output.
With this configuration, it is possible to install a sound source in the plant and verify the installation location of the broadcasting equipment and the sound source. Alternatively, it is possible to check the noise emitted from the device. Furthermore, by installing lighting equipment, it is possible to check the arrangement and number of lighting from the perspective of an actual worker.

<他の実施の形態>
なお、上述の第一実施形態と第二次実施形態は、単なる例であって、この組み合わせ及び一部の実施は任意に行うことが可能である。たとえば、第一実施形態と第二実施形態とを同時に含むような構成であってもよい。オブジェクトデータ221にアバターデータ220を含ませてもよい。また、アバターをコースデータ240内で動かすようにしてもよい。
また、上述の第一実施形態と第二次実施形態では、HMD2を用いてXR表示する例について説明した。しかしながら、表示部14のみを用いて、HMD2を用いない構成であってもよい。この場合、俯瞰映像のみを表示するようにしても、表示部14にアバターからの始点画像を表示するようにしてもよい。さらに、コントローラー3を用いない構成であってもよい。この場合、入力部13により各種処理を実行してもよい。
<Other embodiments>
The above-mentioned first embodiment and the second embodiment are merely examples, and this combination and some of the embodiments can be performed arbitrarily. For example, the configuration may include the first embodiment and the second embodiment at the same time. The object data 221 may include the avatar data 220. Further, the avatar may be moved in the course data 240.
Further, in the above-described first embodiment and the second embodiment, an example of XR display using HMD2 has been described. However, a configuration may be configured in which only the display unit 14 is used and HMD2 is not used. In this case, only the bird's-eye view image may be displayed, or the start point image from the avatar may be displayed on the display unit 14. Further, the configuration may not use the controller 3. In this case, various processes may be executed by the input unit 13.

また、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。 Further, it is needless to say that the configuration and operation of the above-described embodiment are examples and can be appropriately modified and executed without departing from the spirit of the present invention.

1、1b レビュー装置
2 HMD
3 コントローラー
10、10b 制御部
11 画像処理部
12、12b 記憶部
13 入力部
14 表示部
15 接続部
100 中間データ変換手段
110 アバター配置手段
111 オブジェクト配置手段
120 描画手段
121 描画音声手段
130 接触判定手段
140 コース設定手段
200 CADデータ
210 中間データ
220 アバターデータ
221 オブジェクトデータ
230 マーカー設定データ
240 コースデータ
500、501、502、503、504 画面例
A アバター
H 腰部
I 照明器具
L 足裏
M マーカー
O オブジェクト
P 地点
S 水平面
U 音源
X、Y レビューシステム
1, 1b Review device 2 HMD
3 Controller 10, 10b Control unit 11 Image processing unit 12, 12b Storage unit 13 Input unit 14 Display unit 15 Connection unit 100 Intermediate data conversion means 110 Avatar placement means 111 Object placement means 120 Drawing means 121 Drawing voice means 130 Contact determination means 140 Course setting means 200 CAD data 210 Intermediate data 220 Avatar data 221 Object data 230 Marker setting data 240 Course data 500, 501, 502, 503, 504 Screen example A Avatar H Waist I Lighting equipment L Foot M Marker O Object P Point S Horizontal plane U sound source X, Y review system

Claims (6)

工業用のプラントをレビューするためのレビューシステムであって、
プラントのCADデータを、複数の面データを含む中間データに変換する中間データ変換手段と、
前記中間データ変換手段により変換された前記中間データと同スケールの座標系に、レビュー用のオブジェクトを配置するオブジェクト配置手段と、
前記オブジェクト配置手段により配置された前記オブジェクトと前記中間データとに対応した仮想空間を描画する描画手段と、
前記描画手段に描画された前記仮想空間の映像を表示するヘッドマウントディスプレイとを備える
ことを特徴とするレビューシステム。
A review system for reviewing industrial plants
An intermediate data conversion means for converting CAD data of a plant into intermediate data including a plurality of surface data,
An object arranging means for arranging an object for review in a coordinate system of the same scale as the intermediate data converted by the intermediate data conversion means, and an object arranging means.
A drawing means for drawing a virtual space corresponding to the object placed by the object placement means and the intermediate data, and
A review system including a head-mounted display that displays an image of the virtual space drawn on the drawing means.
前記仮想空間内に見学コースを設定するコース設定手段を更に備え、
前記描画手段は、
前記見学コースに沿った前記仮想空間を描画する
ことを特徴とする請求項1に記載のレビューシステム。
Further provided with a course setting means for setting a tour course in the virtual space,
The drawing means
The review system according to claim 1, wherein the virtual space is drawn along the tour course.
前記オブジェクト配置手段は、
レビューワーの指示を取得し、前記仮想空間内で、前記オブジェクトを付加及び/又は移動する
ことを特徴とする請求項1又は2に記載のレビューシステム。
The object placement means is
The review system according to claim 1 or 2, wherein the reviewer's instruction is acquired and the object is added and / or moved in the virtual space.
前記オブジェクト配置手段は、
レビューワーの指示を取得し、前記仮想空間内で、前記オブジェクトを単位毎に分解する
ことを特徴とする請求項1乃至3のいずれか1項に記載のレビューシステム。
The object placement means is
The review system according to any one of claims 1 to 3, wherein the reviewer's instruction is acquired and the object is decomposed into units in the virtual space.
前記オブジェクト配置手段は、
前記オブジェクトとして、前記仮想空間内に音源及び/又は照明器具を配置し、
前記描画手段は、前記照明器具が配置された場合、照明を描画し、
前記ヘッドマウントディスプレイは、前記音源が配置された場合、当該音源に対応した音声も出力する
ことを特徴とする請求項1乃至4のいずれか1項に記載のレビューシステム。
The object placement means is
As the object, a sound source and / or a lighting fixture is arranged in the virtual space, and the object is arranged.
The drawing means draws the lighting when the luminaire is arranged.
The review system according to any one of claims 1 to 4, wherein the head-mounted display also outputs sound corresponding to the sound source when the sound source is arranged.
工業用のプラントをレビューするためのレビューシステムにより実行されるレビュー方法であって、
プラントのCADデータを、複数の面データを含む中間データに変換し、
変換された前記中間データと同スケールの座標系に、レビュー用のオブジェクトを配置し、
配置された前記オブジェクトと前記中間データとを含む仮想空間を描画し、
描画された前記仮想空間の映像をヘッドマウントディスプレイに表示する
ことを特徴とするレビュー方法。
A review method performed by a review system for reviewing industrial plants,
Convert the CAD data of the plant to intermediate data including multiple surface data,
Place the object for review in the coordinate system of the same scale as the converted intermediate data,
Draw a virtual space containing the placed object and the intermediate data,
A review method characterized by displaying a drawn image of the virtual space on a head-mounted display.
JP2020059733A 2020-03-30 2020-03-30 Review system and review method Pending JP2021157697A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020059733A JP2021157697A (en) 2020-03-30 2020-03-30 Review system and review method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020059733A JP2021157697A (en) 2020-03-30 2020-03-30 Review system and review method

Publications (1)

Publication Number Publication Date
JP2021157697A true JP2021157697A (en) 2021-10-07

Family

ID=77918608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020059733A Pending JP2021157697A (en) 2020-03-30 2020-03-30 Review system and review method

Country Status (1)

Country Link
JP (1) JP2021157697A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7571321B1 (en) 2023-04-13 2024-10-22 鹿島建設株式会社 program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7571321B1 (en) 2023-04-13 2024-10-22 鹿島建設株式会社 program

Similar Documents

Publication Publication Date Title
US11270514B2 (en) Mixed-reality and CAD architectural design environment
US11850755B2 (en) Visualization and modification of operational bounding zones using augmented reality
JP5609416B2 (en) Information processing apparatus, information processing method, and program
Marner et al. Spatial user interfaces for large-scale projector-based augmented reality
CN112313605B (en) Placement and manipulation of objects in an augmented reality environment
EP3458942B1 (en) Display of three-dimensional model information in virtual reality
JP2023504992A (en) Posture-based virtual space composition
Weichel et al. SPATA: Spatio-tangible tools for fabrication-aware design
CN110299042B (en) Immersive nuclear power plant main equipment process simulation deduction method and system
WO2013108749A1 (en) Delivery route planning system
JP2016526222A (en) HUD object design and display method.
JP2018008347A (en) Robot system and operation region display method
EP4020398A1 (en) Method and system for displaying a large 3d model on a remote device
JP5195641B2 (en) Harness verification device and harness verification program
Mladenov et al. A short review of the SDKs and wearable devices to be used for ar application for industrial working environment
Kensek et al. Augmented reality: An application for architecture
JP2021157697A (en) Review system and review method
JP2021157696A (en) Review device, review system, and review method
JP6253834B1 (en) Virtual work display method, virtual work data creation method, and three-dimensional space marking data creation method
US20130090895A1 (en) Device and associated methodology for manipulating three-dimensional objects
JP6299151B2 (en) Display program, auxiliary information automatic arrangement apparatus, and method
JP2002251625A (en) Device and method for processing image, recording medium for recording program for processing image operating on computer
JPH04180180A (en) Three-dimensional position input method and device
US20190188910A1 (en) Systems and methods for teleporting a virtual position of a user in a virtual environment to a teleportable point of a virtual object
Makanae Development of the VR-CAD system for landscape and town planning