JP2001239983A - Outfit assisting system - Google Patents

Outfit assisting system

Info

Publication number
JP2001239983A
JP2001239983A JP2000053003A JP2000053003A JP2001239983A JP 2001239983 A JP2001239983 A JP 2001239983A JP 2000053003 A JP2000053003 A JP 2000053003A JP 2000053003 A JP2000053003 A JP 2000053003A JP 2001239983 A JP2001239983 A JP 2001239983A
Authority
JP
Japan
Prior art keywords
data
worker
skeleton
image
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000053003A
Other languages
Japanese (ja)
Inventor
Michitaro Usui
道太郎 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2000053003A priority Critical patent/JP2001239983A/en
Publication of JP2001239983A publication Critical patent/JP2001239983A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an outfit assisting system capable of efficiently mounting equipment. SOLUTION: A position and posture measuring device 2 measures the position and posture data of a worker to indicate the position and posture of the worker. A watch data generating part 31 generates watch data to indicate wherefrom and whereto the worker is looking. A display data segmenting part 33 segments the image data of an equipment mounted in an area within the visibility range of the worker in a body K as display data from three dimensional drawing data memorized in a three dimensional CAD device 1. An image projecting device 4 mounted to the head part of the worker displays the visual reality image of the equipment indicated by the display data, and transmits the reality image of the body K. It looks to the worker as if the equipment as the virtual reality image were attached to the body K as the reality image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、躯体その他に各種
の艤装品を取り付ける際に利用される艤装支援システム
に、関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an outfitting support system used when various outfittings are attached to a frame or the like.

【0002】[0002]

【従来の技術】一般に、大型の船舶は、複数のブロック
が互いに結合された構造を有する。即ち、このような船
舶は、予め工場において夫々製造された各ブロックがド
ックにおいて互いに結合されることにより、建造される
のである。
2. Description of the Related Art Generally, a large ship has a structure in which a plurality of blocks are connected to each other. That is, such a ship is constructed by connecting the blocks manufactured in advance in the factory respectively to each other in the dock.

【0003】例えば、船室を構成する船室ブロックは、
立体的な構造を有する躯体に、空気ダクト,パイプ,及
びケーブル等の各種艤装品が取り付けられることによ
り、製造される。従来、このような船室ブロックを製造
するために、予め、マーキングという処理が行われてい
た。
[0003] For example, a cabin block constituting a cabin is
It is manufactured by attaching various fittings such as air ducts, pipes, and cables to a skeleton having a three-dimensional structure. Conventionally, in order to manufacture such a cabin block, a process called marking has been performed in advance.

【0004】このマーキングは、作業員が、船室の設計
図を参照しながら行うものである。即ち、作業員は、艤
装品が取り付けられた状態を示す船室平面図及び船室側
面図を読んで、躯体に対する艤装品の位置を特定し、当
該艤装品の取り付け位置を白墨や石墨等で躯体表面上に
書き込む。そして、マーキングされた躯体に対して、艤
装品が取り付けられるのである。
[0004] This marking is performed by an operator with reference to the design drawing of the cabin. That is, the worker reads the cabin plan view and the cabin side view showing the state in which the outfitted parts are attached, specifies the position of the outfitted parts with respect to the skeleton, and indicates the mounting position of the outfitted parts with chalk or graphite. Write on top. Then, fittings are attached to the marked skeleton.

【0005】[0005]

【発明が解決しようとする課題】ところで、船室ブロッ
クは、工場内において、その天井を下にして配置されて
いる。これに対し、船室平面図は、天井の上から見て描
かれていることが多い。即ち、作業員がマーキングを行
う実際の躯体と船室平面図とは、互いに鏡像の関係にな
っているのである。なお、実際の躯体と船室側面図と
は、互いに倒立像の関係になっている。
By the way, the cabin block is placed in a factory with its ceiling down. In contrast, the cabin plan is often drawn from above the ceiling. That is, the actual skeleton on which the worker performs marking and the plan view of the cabin are mirror images of each other. The actual skeleton and the cabin side view have an inverted image relationship with each other.

【0006】このため、これらの図面を読んでマーキン
グを行う作業には、通常の図面を読む作業とは異なり、
特殊な技能が必要とされる。さらに、艤装品は空気ダク
ト,パイプ,及びケーブル等の種類毎に分類されてお
り、これらの種類毎に図面は夫々分かれている。そし
て、作業員は、複数の図面に記述された情報を正しく読
み取らなければならない。
For this reason, the work of reading and marking these drawings is different from the work of reading ordinary drawings.
Special skills are required. Further, the fittings are classified according to types such as air ducts, pipes, cables, and the like, and the drawings are divided according to these types. Then, the worker must correctly read the information described in the plurality of drawings.

【0007】従って、熟練していない作業員がこのマー
キング作業を行うと、作業効率が著しく低下するだけで
なく、異なる位置にマーキングを行ってしまうおそれが
ある。このマーキングが正しくなされないと、艤装品が
正しく取り付けられないことになる。特に、各艤装品の
位置が互いに干渉していわゆる当たりが発生してしまう
と、これらの艤装品は取付不能になってしまう。
Therefore, when an unskilled worker performs this marking work, not only the work efficiency is significantly reduced, but also the marking may be performed at a different position. If this marking is not done correctly, the fittings will not be installed correctly. In particular, if the positions of the outfits interfere with each other to cause a so-called hit, the outfits cannot be mounted.

【0008】このようなマーキング作業を軽減するため
に、図面をプロジェクタ等の投影装置により躯体上に直
接投影する艤装支援方式が提案されている。この方式で
は、作業員は、躯体上に投影された図面及び各種指定を
示す文字情報に従って、躯体上にマーキングを施すので
ある。このため、マーキングのために図面を読み込む作
業は、軽減される。
In order to reduce such marking work, there has been proposed an outfitting support system for projecting a drawing directly on a frame by a projection device such as a projector. In this method, an operator performs marking on the skeleton according to the drawing projected on the skeleton and character information indicating various designations. For this reason, the work of reading drawings for marking is reduced.

【0009】しかし、このような艤装支援方式では、投
影装置と投影面が離れているので、作業員がこれら投影
装置と投影面との間に介在してしまうと、必要な図面情
報及び文字情報が陰に隠れてしまうという問題がある。
また、文字情報が投影領域外にはみ出してしまう場合に
は、作業員は、図面をずらしたり他の図面を併せて参照
しなければならない。このため、作業効率の向上はあま
り期待できない。
However, in such an outfitting support system, since the projection device and the projection surface are separated from each other, if an operator intervenes between the projection device and the projection surface, necessary drawing information and character information are required. There is a problem that is hidden behind.
Further, when the character information protrudes out of the projection area, the worker must shift the drawing or refer to another drawing. For this reason, improvement in working efficiency cannot be expected very much.

【0010】そこで、熟練工以外の作業員であっても、
正確に効率よく艤装品の取り付けができるようにする艤
装支援システムを提供することを、本発明の課題とす
る。
Therefore, even workers other than skilled workers,
An object of the present invention is to provide an outfitting support system that enables accurate and efficient installation of outfitted components.

【0011】[0011]

【課題を解決するための手段】本発明による艤装支援シ
ステムは、上記課題を解決するために、以下のような構
成を採用した。
The outfitting support system according to the present invention employs the following configuration in order to solve the above problems.

【0012】即ち、この艤装支援システムは、躯体及び
この躯体に取り付けられる艤装品の位置及び姿勢を示す
3次元図面データを記憶する3次元CAD装置と、前記
躯体に艤装品を取り付ける作業員の位置及び姿勢を示す
作業員位置姿勢データを取得する位置姿勢計測装置と、
前記作業員に対し、該作業員が視認する現実映像に重ね
合わせた状態で仮想現実映像を表示する画像投影装置
と、前記作業員位置姿勢データに基づいて、前記作業員
がどの位置からどの方向を向いているかを示す注視デー
タを生成する注視データ生成部と、前記注視データに基
づき、前記3次元CAD装置内に記憶された前記3次元
図面データから、前記躯体における前記作業員の視野範
囲内の領域に取り付けられる前記艤装品の画像データを
表示データとして切り出す表示データ切出部と、前記表
示データを、前記画像投影装置へ送信して、この画像投
影装置により当該表示データを前記作業員に対して前記
仮想現実映像として表示させる通信部とを、備えたこと
を特徴とする。
That is, the outfitting support system includes a three-dimensional CAD device that stores three-dimensional drawing data indicating the position and orientation of a skeleton and the outfitting components attached to the skeleton, and the position of a worker attaching the outfitting component to the skeleton. And a position and orientation measurement device for acquiring worker position and orientation data indicating the orientation,
An image projection device that displays a virtual reality image in a state where the worker is superimposed on a real image visually recognized by the worker; and from which position the worker is in which direction based on the worker position and orientation data. A gaze data generation unit that generates gaze data indicating whether the user is facing the camera, and, based on the gaze data, from the three-dimensional drawing data stored in the three-dimensional CAD device, within a visual field range of the worker in the skeleton. A display data cutout unit that cuts out image data of the outfitting device attached to the area as display data, and transmits the display data to the image projection device, and the image projection device sends the display data to the worker. A communication unit for displaying the virtual reality image as the virtual reality image.

【0013】このように構成されると、作業員は、画像
投影装置により透過された現実映像とこの画像投影装置
により表示された仮想現実映像とを重ね合わせた状態で
視認することになる。即ち、作業員は、現実の躯体とこ
の躯体に対して取り付けられるべき艤装品とが重ね合わ
された映像を、視認することができるのである。
With this configuration, the worker visually recognizes the real image transmitted by the image projection device and the virtual reality image displayed by the image projection device in a superimposed state. That is, the worker can visually recognize an image in which the actual frame and the fittings to be attached to the frame are superimposed.

【0014】また、この艤装支援システムは、躯体及び
この躯体に取り付けられる艤装品の位置及び姿勢が所定
の設計図座標系により表現された3次元図面データを記
憶する3次元CAD装置と、前記躯体に艤装品を取り付
ける作業員に対し、該作業員が視認する現実映像に重ね
合わせた状態で仮想現実映像を表示する画像投影装置
と、前記躯体及び該躯体近傍に位置する作業員を撮影可
能なカメラと、前記カメラにより取得された前記躯体の
映像から、当該躯体の位置及び姿勢を、前記現場座標系
により表現された躯体位置姿勢データとして取得すると
ともに、この躯体位置姿勢データと前記3次元図面デー
タに含まれた前記躯体の位置及び姿勢を示すデータとを
比較することにより、前記設計図座標系と前記現場座標
系との変換関係を座標変換データとして取得する躯体位
置姿勢計測装置と、前記カメラにより取得された前記作
業員の映像から当該作業員の位置及び姿勢を、前記現場
座標系により表現された作業員位置姿勢データとして取
得する作業員位置姿勢計測装置と、前記作業員位置姿勢
計測装置により取得された前記作業員位置姿勢データに
基づいて、前記作業員がどの位置からどの方向を向いて
いるかを示す注視データを、前記現場座標系に従って生
成する注視データ生成部と、前記躯体位置姿勢計測装置
により取得された前記座標変換データ,及び,前記注視
データ生成部により生成された前記注視データに基づい
て、前記作業員がどの位置からどの方向を向いているか
を前記設計図座標系により表現した設計図注視データを
生成する座標変換部と、前記座標変換部により生成され
た前記設計図注視データに基づき、前記3次元CAD装
置内に記憶された前記3次元図面データから、前記躯体
における前記作業員の視野範囲内の領域に取り付けられ
る前記艤装品の画像データを表示データとして切り出す
表示データ切出部と、前記表示データ切出部により取得
された前記表示データを、前記画像投影装置へ送信し
て、該画像投影装置により前記表示データを前記作業員
に対して前記仮想現実映像として表示させる通信部と
を、備えていてもよい。
Further, the outfitting support system includes a three-dimensional CAD device for storing three-dimensional drawing data in which the position and posture of a skeleton and an outfit attached to the skeleton are expressed in a predetermined design drawing coordinate system; For a worker who attaches outfitting to an image projection device that displays a virtual reality image in a state of being superimposed on a real image visually recognized by the worker, the worker can photograph the skeleton and a worker located near the skeleton. From a camera and the image of the skeleton acquired by the camera, the position and orientation of the skeleton are acquired as skeleton position and orientation data expressed by the on-site coordinate system, and the skeleton position and orientation data and the three-dimensional drawing are acquired. By comparing the data indicating the position and orientation of the skeleton included in the data, the conversion relationship between the design drawing coordinate system and the site coordinate system is represented. A skeleton position / posture measurement device that acquires as conversion data, and an operation that acquires the position and orientation of the worker from the image of the worker acquired by the camera as worker position / posture data expressed by the on-site coordinate system. Based on the worker position and posture measurement device and the worker position and posture data acquired by the worker position and posture measurement device, the gaze data indicating from which position the worker is facing in which direction; A gaze data generation unit generated according to a system, the coordinate transformation data acquired by the skeleton position and orientation measurement device, and the gaze data generated by the gaze data generation unit, from which position the worker A coordinate conversion unit that generates a design drawing gaze data expressing which direction is directed by the design drawing coordinate system, and the coordinate conversion From the three-dimensional drawing data stored in the three-dimensional CAD apparatus based on the design drawing gaze data generated by the above, image data of the outfitting parts attached to an area within the field of view of the worker in the skeleton A display data cutout unit that cuts out as display data, and the display data acquired by the display data cutout unit is transmitted to the image projection device, and the display data is sent to the worker by the image projection device. And a communication unit for displaying the image as the virtual reality image.

【0015】なお、前記画像投影装置は、前記艤装品の
種類毎に、その仮想現実映像の表示又は非表示を切替可
能であってもよく、その仮想現実映像を互いに異なる色
で表示可能であってもよい。さらに、前記画像投影装置
は、前記艤装品取付工程において完成に至る各段階毎
に、当該艤装品の仮想現実映像の表示又は非表示を切替
可能であってもよい。また、作業員位置姿勢データは、
電波センサ,音波センサ,又はジャイロセンサ等により
検出された信号に基づいて生成されてもよい。
[0015] The image projection device may be capable of switching display or non-display of the virtual reality video for each type of the outfit, and may display the virtual reality video in different colors. You may. Further, the image projection device may be capable of switching display or non-display of a virtual reality image of the outfitting component at each stage of the outfitting component mounting process to completion. The worker position and orientation data is
It may be generated based on a signal detected by a radio wave sensor, a sound wave sensor, a gyro sensor, or the like.

【0016】[0016]

【発明の実施の形態】以下、図面に基づいて本発明の一
実施形態を説明する。図1は、本実施形態による艤装支
援システムの構成及び処理の流れを模式的に示す図であ
る。この図1に示されるように、艤装支援システムは、
3次元CAD装置1,位置姿勢計測装置2,画像取得装
置3,及び,画像投影装置4を、備えている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram schematically illustrating a configuration and a processing flow of the outfitting support system according to the present embodiment. As shown in FIG. 1, the outfitting support system includes:
It includes a three-dimensional CAD device 1, a position and orientation measurement device 2, an image acquisition device 3, and an image projection device 4.

【0017】3次元CAD装置1は、その図示せぬ記憶
部内に、3次元座標(例えば3次元デカルト座標)であ
る所定の設計図座標系に従って表現された船室設計図
(3次元図面データ)を、有する。この船室設計図は、
3次元CAD装置1により作成されてもよい。また、こ
の船室設計図は、以下に示すように、3次元CAD装置
1により2次元図面データから変換されて得られてもよ
い。
The three-dimensional CAD apparatus 1 stores, in a storage unit (not shown), a cabin design drawing (three-dimensional drawing data) expressed in accordance with a predetermined design drawing coordinate system which is three-dimensional coordinates (for example, three-dimensional Cartesian coordinates). Have. This cabin plan is
It may be created by the three-dimensional CAD device 1. Further, the cabin plan may be obtained by converting the two-dimensional drawing data by the three-dimensional CAD device 1 as described below.

【0018】図2は、3次元CAD装置1の処理を示す
説明図である。この3次元CAD装置1は、3面図等の
2次元図面データを読み込んで、この2次元図面データ
により表現された物体を設計図座標系内に3次元図面デ
ータとして表現することができる。即ち、この3次元C
AD装置1は、2次元図面データを読み込んで、3次元
図面データを出力するのである。
FIG. 2 is an explanatory diagram showing the processing of the three-dimensional CAD apparatus 1. The three-dimensional CAD device 1 can read two-dimensional drawing data such as a three-sided drawing, and can represent an object represented by the two-dimensional drawing data as three-dimensional drawing data in a design drawing coordinate system. That is, this three-dimensional C
The AD device 1 reads two-dimensional drawing data and outputs three-dimensional drawing data.

【0019】図3は、位置姿勢計測装置2の説明図であ
る。この図3に示されるように、位置姿勢計測装置2
は、カメラ21,画像処理部22,カメラ駆動部23,
カメラ制御部24,カメラセンサ25,及び,位置姿勢
演算部26を、備えている。
FIG. 3 is an explanatory diagram of the position and orientation measuring device 2. As shown in FIG. 3, the position and orientation measurement device 2
Are a camera 21, an image processing unit 22, a camera driving unit 23,
The camera includes a camera control unit 24, a camera sensor 25, and a position and orientation calculation unit 26.

【0020】また、図4は、艤装工場の模式図である。
この艤装工場内には、躯体Kがその天井を下にした状態
で配置されている。そして、各カメラ21は、この艤装
工場内の躯体Kを見渡すことができる3箇所以上の位置
に、夫々設けられている。
FIG. 4 is a schematic diagram of an outfitting factory.
In this outfitting factory, a frame K is arranged with its ceiling down. Each of the cameras 21 is provided at three or more positions where the frame K in the outfitting factory can be seen.

【0021】これら各カメラ21は、例えばレンズ及び
CCDを有し、図3に示されるように、当該各カメラ2
1毎に設けられた画像処理部22に夫々接続されてお
り、画像データを取得してこの画像処理部22に送信す
る。
Each of these cameras 21 has, for example, a lens and a CCD, and as shown in FIG.
Each of the image processing units 22 is connected to an image processing unit 22 provided for each of them, and acquires image data and transmits the image data to the image processing unit 22.

【0022】また、カメラ駆動部23は、各カメラ21
毎に設けられているとともに、カメラ制御部24に接続
されている。そして、このカメラ駆動部23は、カメラ
制御部24に制御されて、対応するカメラ21を所定の
2軸方向に回転させる。さらに、このカメラ駆動部23
は、カメラ制御部24に制御されて、対応するカメラ2
1の撮影範囲内における所定の位置に存在する物体に対
して、当該カメラのレンズを合焦させることができる。
Further, the camera driving unit 23
It is provided for each camera and is connected to the camera control unit 24. Then, the camera driving unit 23 is controlled by the camera control unit 24 to rotate the corresponding camera 21 in a predetermined two-axis direction. Further, the camera driving unit 23
Is controlled by the camera control unit 24 and the corresponding camera 2
The lens of the camera can be focused on an object existing at a predetermined position within one shooting range.

【0023】カメラセンサ25は、各カメラ21毎に設
けられているとともに、カメラ制御部24に接続されて
いる。そして、各カメラセンサ25は、対応するカメラ
21の姿勢(2軸方向の回転位置),及び,物体までの
距離を、当該カメラ21から取得するとともにカメラ姿
勢距離データとしてカメラ制御部24へ送信する。
The camera sensor 25 is provided for each camera 21 and is connected to the camera control unit 24. Then, each camera sensor 25 acquires the attitude (rotational position in two axial directions) of the corresponding camera 21 and the distance to the object from the camera 21 and transmits the camera attitude distance data to the camera control unit 24. .

【0024】各画像処理部22は、対応するカメラ21
から取得した画像データに対して画像処理を施し、その
画像内における物体の位置及び姿勢のデータ(画像内位
置姿勢データ)を抽出する。
Each image processing section 22 has a corresponding camera 21
Performs image processing on the image data obtained from the image data, and extracts data on the position and orientation of the object in the image (position and orientation data in the image).

【0025】位置姿勢演算部26は、例えばコンピュー
タによりなり、各画像処理部22及び各カメラ制御部2
4に夫々接続されている。この位置姿勢演算部26は、
各カメラ制御部24からカメラ姿勢距離データを夫々取
得するとともに、各画像処理部22から画像内位置姿勢
データを夫々取得する。
The position / orientation calculation unit 26 is, for example, a computer, and includes the image processing units 22 and the camera control units 2.
4, respectively. This position and orientation calculation unit 26
The camera posture distance data is acquired from each camera control unit 24, and the position and orientation data in the image is acquired from each image processing unit 22.

【0026】そして、この位置姿勢演算部26は、取得
されたカメラ姿勢距離データ及び画像内位置姿勢データ
に基づき、以下に示すように、躯体位置姿勢データ及び
作業員位置姿勢データを生成する。なお、これら躯体位
置姿勢データ及び作業員位置姿勢データは、所定の3次
元座標系である現場座標系に従って表現される。この現
場座標系は、例えば3次元デカルト座標であり、床面に
対して水平な所定の面内にx軸及びy軸を有するととも
に、所定の原点においてこれらx軸及びy軸に対して夫
々直交するz軸を有する。
The position / posture calculation unit 26 generates frame position / posture data and worker position / posture data as described below based on the acquired camera posture distance data and the in-image position / posture data. Note that these body position / posture data and worker position / posture data are expressed in accordance with a site coordinate system which is a predetermined three-dimensional coordinate system. This site coordinate system is, for example, a three-dimensional Cartesian coordinate system, has an x-axis and a y-axis in a predetermined plane horizontal to the floor, and is orthogonal to the x-axis and the y-axis at a predetermined origin. It has a z-axis.

【0027】まず、図5乃至図7を併せて参照して、躯
体位置姿勢データの生成について説明する。なお、図5
は、躯体K及びカメラ21の斜視図である。また、図6
は、躯体K及びカメラ21の側面図であり、図7は、躯
体K及びカメラ21の平面図になっている。これらの図
では、3つのカメラ21のうちの1つのみが示されてい
るが、他のカメラ21についても同様の処理がなされ
る。
First, generation of body position / posture data will be described with reference to FIGS. FIG.
Is a perspective view of the frame K and the camera 21. FIG. FIG.
7 is a side view of the skeleton K and the camera 21, and FIG. 7 is a plan view of the skeleton K and the camera 21. In these figures, only one of the three cameras 21 is shown, but the same processing is performed for the other cameras 21.

【0028】図5に示されるように、カメラ21は、そ
の所定の撮影範囲P内の物体を撮影することができる。
さらに、図6に示されるように、カメラ21は、その撮
影範囲P内における中央(レンズの光軸上)に位置する
物体(躯体K)までの距離Lを計測することができる。
このカメラ21から床面へ向けて下ろした垂線と、その
レンズの光軸とのなす角を第1のカメラ回転角ψとする
と、レンズの光軸と躯体K表面との交点Sから垂線まで
の水平距離dは、 d=L・sinψ である。
As shown in FIG. 5, the camera 21 can photograph an object within the predetermined photographing range P.
Further, as shown in FIG. 6, the camera 21 can measure a distance L to an object (body K) located at the center (on the optical axis of the lens) within the photographing range P.
Assuming that the angle between the vertical line lowered from the camera 21 toward the floor and the optical axis of the lens is the first camera rotation angle ψ, the angle from the intersection S between the optical axis of the lens and the surface of the body K to the vertical line The horizontal distance d is d = L · sinψ.

【0029】なお、このカメラ21の位置は、現場座標
系により、 (x,y,z)=(xcam,ycam,zcam) として表される。そして、このカメラ21の位置は、予
め、位置姿勢演算部26の図示せぬ記憶領域内に記憶さ
れている。
The position of the camera 21 is represented by (x, y, z) = (x cam , y cam , z cam ) in the on-site coordinate system. The position of the camera 21 is stored in advance in a storage area (not shown) of the position and orientation calculation unit 26.

【0030】このカメラ21の位置を原点とし、x軸,
y軸,及びz軸に対して夫々平行なX軸,Y軸,Z軸に
よりなる所定の3次元デカルト座標系(ローカル座標
系)を設定すると、図6及び図7に示されるように、交
点Sは、このローカル座標系により、 〔X,Y,Z〕=〔LX,LY,LZ〕 として表される。
Using the position of the camera 21 as the origin, the x-axis,
When a predetermined three-dimensional Cartesian coordinate system (local coordinate system) including an X axis, a Y axis, and a Z axis parallel to the y axis and the z axis is set, as shown in FIGS. S is represented by this local coordinate system as [X, Y, Z] = [L X , L Y , L Z ].

【0031】そして、図7に示されるように、カメラ2
1及び交点Sを結ぶ直線をX−Y平面に投影して得られ
る直線と、X軸とのなす角を第2のカメラ回転角φとす
ると、LX及びLYは、夫々、 LX=d・cosφ=L・sinψ・cosφ … LY=d・sinφ=L・sinψ・sinφ … である。
Then, as shown in FIG.
Assuming that the angle between the X axis and the straight line obtained by projecting the straight line connecting 1 and the intersection point S on the XY plane is the second camera rotation angle φ, L X and L Y are L X = d · cosφ = L · sinψ · cosφ ... L Y = d · sinφ = L · sinψ · sinφ ... is.

【0032】また、図6に示されるように、LZは、 LZ=L・cosψ … である。Also, as shown in FIG. 6, L Z is L Z = L · cos….

【0033】なお、カメラセンサ25が取得するカメラ
姿勢距離データは、上記の距離L,第1のカメラ回転角
ψ,及び,第2のカメラ回転角φを含んでいる。そし
て、位置姿勢演算部26は、このカメラ姿勢距離データ
を、カメラ制御部24を介してカメラセンサ25から取
得して、そのL,ψ及びφの値を上式,及びに代
入することにより、ローカル座標系による交点Sの座標
〔LX,LY,LZ〕を、算出する。
The camera attitude distance data acquired by the camera sensor 25 includes the above distance L, the first camera rotation angle ψ, and the second camera rotation angle φ. Then, the position and orientation calculation unit 26 acquires the camera orientation distance data from the camera sensor 25 via the camera control unit 24, and substitutes the values of L, ψ, and φ into the above equations, and The coordinates [L X , L Y , L Z ] of the intersection S in the local coordinate system are calculated.

【0034】また、位置姿勢演算部26は、その図示せ
ぬ記憶領域に予め記憶された現場座標系によるカメラ2
1の位置(xcam,ycam,zcam)と、ローカル座標系
による交点Sの座標〔LX,LY,LZ〕とから、現場座
標系による交点Sの座標(xs,ys,zs)を算出する
ことができる。なお、これらxs,ys及びzsは、下記
の式、 xs=xcam+LXs=ycam+LYs=zcam+LZ により、夫々算出される。
The position / orientation calculation unit 26 is a camera 2 based on a site coordinate system stored in advance in a storage area (not shown).
1 position (x cam, y cam, z cam) and the coordinates of the intersection point S by the local coordinate system [L X, L Y, L Z] from the coordinates of the intersection point S by the site coordinate system (x s, y s , Z s ) can be calculated. Note that these x s, y s and z s is the following expression, the x s = x cam + L X y s = y cam + L Y z s = z cam + L Z, respectively are calculated.

【0035】一方、画像処理部22は、カメラ21から
取得した画像に対して画像処理を施す。即ち、画像処理
部22は、画像内の境界線(輪郭線)を検出する処理を
行う。そして、画像処理部22は、カメラ21の撮影範
囲P内における躯体Kの輪郭線を含んだ線画像を、画像
内位置データとして取得して位置姿勢演算部26へ送信
する。
On the other hand, the image processing section 22 performs image processing on the image obtained from the camera 21. That is, the image processing unit 22 performs a process of detecting a boundary line (contour line) in the image. Then, the image processing unit 22 acquires a line image including the outline of the skeleton K within the photographing range P of the camera 21 as position data in the image, and transmits the line image to the position / posture calculation unit 26.

【0036】この位置姿勢演算部26は、各カメラ21
に夫々対応した画像処理部22から出力された画像内位
置データに基づき、躯体Kの3次元立体外形線図を作成
する。なお、位置姿勢演算部26は、現場座標系による
交点Sの座標(xs,ys,z s)を用いて、この躯体K
の3次元立体外形線図を現場座標系において表現するこ
とにより、躯体位置姿勢データを生成する。
The position / posture calculation unit 26 is provided for each camera 21.
Of the image output from the image processing unit 22 corresponding to
Creates a three-dimensional outline drawing of the skeleton K based on the placement data
I do. The position and orientation calculation unit 26 uses a site coordinate system.
Coordinates of the intersection S (xs, Ys, Z s), And this skeleton K
The three-dimensional three-dimensional outline drawing in the field coordinate system
Thus, frame position / posture data is generated.

【0037】さらに、位置姿勢演算部26は、この躯体
位置姿勢データを、3次元CAD装置1内の3次元図面
データと比較することにより、現場座標系による躯体位
置姿勢データと設計図座標系による3次元図面データと
の変換関係を、取得する。
Further, the position / posture calculating section 26 compares the skeleton position / posture data with the three-dimensional drawing data in the three-dimensional CAD apparatus 1 to obtain the skeleton position / posture data based on the site coordinate system and the design drawing coordinate system. The conversion relationship with the three-dimensional drawing data is acquired.

【0038】即ち、位置姿勢演算部26は、3次元図面
データを所定の3軸方向に夫々回転させるとともに所定
の3軸方向に夫々並進させ、躯体位置姿勢データと比較
する。そして、位置姿勢演算部26は、躯体位置姿勢デ
ータと3次元図面データとが一致するまで、3次元図面
データを回転・並進させる。この処理により、現場座標
系による躯体位置姿勢データと設計図座標系による3次
元図面データとの変換関係が、取得されることになる。
That is, the position / posture calculation unit 26 rotates the three-dimensional drawing data in the predetermined three-axis directions and translates the three-dimensional drawing data in the predetermined three-axis directions, respectively, and compares the data with the body position / posture data. Then, the position and orientation calculation unit 26 rotates and translates the three-dimensional drawing data until the skeleton position and orientation data matches the three-dimensional drawing data. By this processing, the conversion relationship between the frame position / posture data in the site coordinate system and the three-dimensional drawing data in the design drawing coordinate system is obtained.

【0039】この変換関係は、現場座標系と設計図座標
系との変換関係になっている。即ち、位置姿勢演算部2
6は、現場座標系における任意の位置姿勢データに作用
させることにより当該データを設計図座標系における位
置姿勢データに変換するマトリクス等の演算子を、座標
変換データとして取得して、画像取得装置3(座標変換
部32)へ送信する。
This conversion relationship is a conversion relationship between the site coordinate system and the design drawing coordinate system. That is, the position and orientation calculation unit 2
6 acquires an operator such as a matrix for converting the data into position and orientation data in the design drawing coordinate system by acting on arbitrary position and orientation data in the site coordinate system as coordinate conversion data, (Coordinate conversion unit 32).

【0040】このように、位置姿勢計測装置2は、躯体
位置姿勢データ及び座標変換データを生成した後に、当
該躯体Kに対して艤装品を取り付ける作業員に関する作
業員位置姿勢データを、生成する。以下に、この作業員
位置姿勢データの生成について説明する。
As described above, the position and orientation measurement device 2 generates the worker's position and orientation data on the worker who attaches the outfit to the frame K after generating the body position and orientation data and the coordinate conversion data. Hereinafter, generation of the worker position and orientation data will be described.

【0041】なお、作業員は、図8に示されるように、
画像投影装置4を装着している。この画像投影装置4
は、ゴーグル状に形成された透過型の3次元画像投影装
置であり、画像取得装置3により後述した如く得られた
仮想現実映像を、表示することができる。そして、作業
員は、表示された仮想現実映像と現実映像とを重ね合わ
せた状態で、視認することができる。
The worker, as shown in FIG.
The image projection device 4 is mounted. This image projection device 4
Is a transmission type three-dimensional image projection device formed in a goggle shape, and can display a virtual reality video obtained by the image acquisition device 3 as described later. Then, the worker can visually recognize the displayed virtual reality video and the displayed real video in a superimposed state.

【0042】位置姿勢計測装置2は、この作業員が装着
した画像投影装置4の位置及び姿勢を示す作業員位置姿
勢データを取得する。なお、この作業員位置姿勢データ
は、上述の躯体位置姿勢データと略同様に取得される。
The position and orientation measuring device 2 acquires worker position and orientation data indicating the position and orientation of the image projection device 4 worn by the worker. The worker position / posture data is obtained in substantially the same manner as the above-described skeleton position / posture data.

【0043】但し、作業員は常に移動するので、カメラ
21はこの作業員をその撮影範囲P中央に収めるよう
に、当該作業員を自動追尾する。即ち、カメラ制御部2
4は、位置姿勢演算部26から得られた最新の作業員位
置姿勢データに基づき、カメラ21が作業員をその撮影
範囲P中央に収めるように、カメラ駆動部23を制御す
る。カメラ駆動部23は、カメラ制御部24の制御に従
って、カメラ21の姿勢(ψ,φ)を変化させるのであ
る。そして、位置姿勢計測装置2は、作業員が艤装作業
を開始してから完了するまで、リアルタイムで作業員位
置姿勢データを取得し、画像取得装置3(注視データ生
成部31)へ送信し続ける。
However, since the worker always moves, the camera 21 automatically tracks the worker so as to put the worker in the center of the photographing range P. That is, the camera control unit 2
4 controls the camera driving unit 23 based on the latest worker position and orientation data obtained from the position and orientation calculation unit 26 so that the camera 21 puts the worker in the center of the shooting range P. The camera driving unit 23 changes the posture (ψ, φ) of the camera 21 according to the control of the camera control unit 24. Then, the position and orientation measurement device 2 acquires the worker's position and orientation data in real time from the start of the outfitting work by the worker until it is completed, and continuously transmits the data to the image acquisition device 3 (the gaze data generation unit 31).

【0044】なお、上記説明において、躯体位置姿勢デ
ータ及び作業員位置姿勢データは、同一の位置姿勢計測
装置2により取得されることとした。この場合、当該位
置姿勢計測装置2は、躯体位置姿勢計測装置及び作業員
位置姿勢計測装置を兼ねることになる。しかし、これら
躯体位置姿勢計測装置及び作業員位置姿勢計測装置は、
互いに独立した装置であってもよい。
In the above description, the body position / posture data and the worker position / posture data are acquired by the same position / posture measuring device 2. In this case, the position and orientation measurement device 2 also serves as a skeleton position and orientation measurement device and a worker position and orientation measurement device. However, these skeleton position and orientation measurement devices and worker position and orientation measurement devices are:
The devices may be independent of each other.

【0045】次に、画像取得装置3について説明する。
図1に示されるように、この画像取得装置3は、注視デ
ータ生成部31,座標変換部32,表示データ切出部3
3,及び通信部34を、備えている。なお、この画像取
得装置3における注視データ生成部31,座標変換部3
2,及び表示データ切出部33は、コンピュータにより
構成されていてもよく、専用に設計された電子回路によ
り構成されていてもよい。また、通信部34は、無線通
信機能を有しており、画像投影装置4の図示せぬ無線通
信部とデータの送受信を行うことができる。
Next, the image acquisition device 3 will be described.
As shown in FIG. 1, the image acquisition device 3 includes a gaze data generation unit 31, a coordinate conversion unit 32, and a display data cutout unit 3.
3 and a communication unit 34. The gaze data generation unit 31 and the coordinate conversion unit 3 in the image acquisition device 3
2, and the display data extracting unit 33 may be configured by a computer or may be configured by an electronic circuit designed specifically. Further, the communication unit 34 has a wireless communication function, and can transmit and receive data to and from a wireless communication unit (not shown) of the image projection device 4.

【0046】注視データ生成部31は、位置姿勢計測装
置2から作業員位置姿勢データを取得する。そして、注
視データ生成部31は、この作業員位置姿勢データに基
づき、作業員がどの位置からどの方向を向いているかを
認識し、この位置及び方向を現場座標系に基づいた注視
データとして座標変換部32へ送出する。
The gaze data generator 31 obtains worker position / posture data from the position / posture measuring device 2. The gaze data generation unit 31 recognizes from which position the worker is facing in which direction based on the worker position and orientation data, and converts the position and direction as gaze data based on the site coordinate system. To the unit 32.

【0047】座標変換部32は、予め、位置姿勢計測装
置2から座標変換データを取得しておく。さらに、この
座標変換部32は、注視データ生成部31から得られた
現場座標系による注視データを取得し、この注視データ
に座標変換データを作用させることにより、作業員がど
の位置からどの方向を向いているかを設計図座標系によ
り表現した設計図注視データに変換して、表示データ切
出部33へ送信する。
The coordinate conversion unit 32 acquires coordinate conversion data from the position and orientation measurement device 2 in advance. Further, the coordinate conversion unit 32 acquires the gaze data in the on-site coordinate system obtained from the gaze data generation unit 31, and applies the coordinate conversion data to the gaze data, so that the worker can determine which direction from which position. It is converted into the design drawing gaze data expressing the orientation of the drawing in the design drawing coordinate system, and transmitted to the display data cutout unit 33.

【0048】表示データ切出部33は、この座標変換部
32から送信された設計図注視データに基づき、3次元
CAD装置1内に記憶された3次元図面データから、表
示データを切り出す。即ち、表示データ切出部33は、
設計図座標系に基づき3次元図面データとして表現され
た船室ブロックに対し、作業員が設計図座標系における
どの位置からどの方向を向いていることになるのかを認
識し、この作業員の視野範囲内に入るはずの艤装品の画
像を表示データとして抽出するのである。
The display data extracting section 33 extracts display data from the three-dimensional drawing data stored in the three-dimensional CAD apparatus 1 based on the design drawing gaze data transmitted from the coordinate converting section 32. That is, the display data extracting unit 33
The operator recognizes from which position in the blueprint coordinate system the heading is to be directed to the cabin block expressed as three-dimensional drawing data based on the blueprint coordinate system, and the visual field range of this worker The image of the fittings that should be inside is extracted as display data.

【0049】なお、3次元CADデータには、躯体Kの
データ,及び取付済みの艤装品のデータがともに含まれ
ているが、表示データ切出部33は、当該3次元CAD
データから躯体Kのデータを除くとともに艤装品のデー
タのみを抽出して、表示データを生成する。また、この
表示データは、作業員の左目に投影される画像,及び,
右目に投影される画像が含まれたステレオ画像データで
ある。
It should be noted that the three-dimensional CAD data includes both the data of the frame K and the data of the installed fittings.
The display data is generated by removing the data of the skeleton K from the data and extracting only the data of the fittings. In addition, the display data includes an image projected on the left eye of the worker, and
This is stereo image data including an image projected to the right eye.

【0050】通信部34は、表示データ切出部33によ
り切り出された表示データを取得して、画像投影装置4
へ無線送信する。この画像投影装置4は、表示データを
受信して、作業員の左右両眼の夫々に対応させてステレ
オ表示する。すると、作業員は、この表示データをステ
レオ映像として視認するとともに、実在の躯体Kを視認
する。即ち、作業員には、現実映像である躯体Kに、仮
想現実映像としての艤装品が所定の設計位置に取り付け
られたように、見えるのである。なお、表示データに
は、設計図に記された各種の文字情報が含まれていても
よい。この場合、作業員は、現実映像である躯体K,並
びに,仮想現実映像である艤装品及び文字情報を、視認
することになる。
The communication section 34 acquires the display data cut out by the display data cutting section 33 and
Wirelessly. The image projection device 4 receives the display data and performs stereo display corresponding to each of the left and right eyes of the worker. Then, the worker visually recognizes the display data as a stereoscopic image and visually recognizes the actual frame K. That is, to the worker, it looks as if the fittings as the virtual reality images are attached to the frame K which is the real images at the predetermined design positions. The display data may include various types of character information described in the design drawing. In this case, the worker visually recognizes the skeleton K, which is a real image, and the fittings and character information, which are virtual reality images.

【0051】そして、作業員は、所定の設計位置に正し
く配置された艤装品の仮想現実映像を見ながら、実在の
躯体Kに対して当該艤装品を取り付けてゆく。このた
め、作業員は、図面を読む作業やマーキング作業等を行
う必要がなく、見たとおりに実物の艤装品を取り付けて
ゆけばよい。従って、熟練工以外の作業員であっても、
正確かつ迅速に艤装作業を行うことができるのである。
Then, the worker attaches the outfit to the actual frame K while watching a virtual reality image of the outfit correctly arranged at a predetermined design position. For this reason, the worker does not need to perform the work of reading the drawings, the work of marking, and the like, and only needs to attach the actual outfitting parts as seen. Therefore, even workers other than skilled workers,
Outfitting work can be performed accurately and quickly.

【0052】<変形例>上記実施形態において、画像投
影装置4は、艤装品の種類毎にその映像を表示又は非表
示とすることが可能であってもよい。この場合、3次元
CAD装置1内の3次元図面データには、各艤装品毎に
その種類を示す属性データが予め含まれており、表示デ
ータ切出部33は、各艤装品の画像に当該艤装品に対応
する属性データを付与して表示データを作成し、画像投
影装置4は、作業員の指示に従って艤装品の種類毎にそ
の表示又は非表示を切り替えるのである。
<Modification> In the above embodiment, the image projection device 4 may be capable of displaying or not displaying an image for each type of fitting. In this case, the three-dimensional drawing data in the three-dimensional CAD apparatus 1 previously includes attribute data indicating the type of each of the outfits, and the display data cutout unit 33 applies the attribute data to the image of each outfit. The display data is created by adding attribute data corresponding to the fittings, and the image projection device 4 switches display or non-display for each type of fitting according to the instruction of the worker.

【0053】このため、作業員は、画像投影装置4の図
示せぬ操作部を操作することにより、必要な種類の艤装
品のみを表示させることができる。例えば、作業員は、
空気ダクト,パイプ,及びケーブルから選択される1種
類又は2種類の艤装品のみを選択して画像投影装置4に
表示させることができる。従って、作業員は、全ての艤
装品の映像を表示させた状態で、各艤装品同士にいわゆ
る当たりが生じていないことを確認したうえで、現在取
り付けようとしている種類の艤装品のみを表示させて作
業を行うこともできるのである。
Therefore, the operator can display only necessary types of fittings by operating an operation unit (not shown) of the image projection device 4. For example, a worker
Only one or two types of fittings selected from an air duct, a pipe, and a cable can be selected and displayed on the image projection device 4. Therefore, while displaying images of all the outfits, the worker confirms that there is no so-called hit between the outfits, and then displays only the outfits of the type currently being installed. You can also do the work.

【0054】さらに、表示データ切出部33は、画像投
影装置4が艤装品の種類毎にその仮想現実映像を互いに
異なる色で表示できるように、表示データを作成しても
よい。また、各艤装品は、その種類毎に異なるパターン
(線種やハッチング等)で表示されてもよい。
Further, the display data extracting section 33 may create display data so that the image projection device 4 can display virtual reality images in different colors for each type of fitting. Further, each outfit may be displayed in a different pattern (line type, hatching, etc.) for each type.

【0055】また、画像投影装置4は、作業員の視線方
向を視線データとして検出する図示せぬ視線方向センサ
を有していてもよい。
The image projection device 4 may have a visual line direction sensor (not shown) for detecting the visual line direction of the worker as visual line data.

【0056】[0056]

【発明の効果】以上のように構成された艤装支援システ
ムによると、作業員は、所定の設計位置に正しく配置さ
れた艤装品の仮想現実映像を見ながら、実在の躯体に対
して当該艤装品を取り付けてゆくことができる。従っ
て、作業員は、図面を読む作業やマーキング作業等を行
う必要がなく、見たとおりに実物の艤装品を取り付けて
ゆけばよいので、熟練工以外の作業員であっても、正確
かつ迅速に艤装作業を行うことができるようになる。
According to the outfitting support system configured as described above, a worker can view a virtual reality image of an outfitted component correctly placed at a predetermined design position while watching the outfitting component with respect to the actual skeleton. Can be attached. Therefore, there is no need for the worker to read the drawings or perform the marking work, etc., and it is only necessary to attach the actual outfitting parts as seen, so even workers other than skilled workers can accurately and quickly Outfitting work can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態による艤装支援システム
の構成及び処理の流れを模式的に示す図
FIG. 1 is a diagram schematically showing a configuration and a processing flow of an outfitting support system according to an embodiment of the present invention.

【図2】 3次元CAD装置の処理を示す説明図FIG. 2 is an explanatory diagram showing processing of a three-dimensional CAD device.

【図3】 位置姿勢計測装置の説明図FIG. 3 is an explanatory diagram of a position and orientation measurement device.

【図4】 艤装工場の模式図Fig. 4 Schematic diagram of an outfitting factory

【図5】 躯体及びカメラの斜視図FIG. 5 is a perspective view of a frame and a camera.

【図6】 躯体及びカメラの側面図FIG. 6 is a side view of a frame and a camera.

【図7】 躯体及びカメラの平面図FIG. 7 is a plan view of a frame and a camera.

【図8】 作業員の頭部イメージ図FIG. 8 is an image of a worker's head

【符号の説明】[Explanation of symbols]

1 3次元CAD装置 2 位置姿勢計測装置 21 カメラ 3 画像取得装置 31 注視データ生成部 32 座標変換部 33 表示データ切出部 34 通信部 4 画像投影装置 K 躯体 Reference Signs List 1 3D CAD device 2 Position and orientation measurement device 21 Camera 3 Image acquisition device 31 Gaze data generation unit 32 Coordinate conversion unit 33 Display data extraction unit 34 Communication unit 4 Image projection device K Body

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】躯体及びこの躯体に取り付けられる艤装品
の位置及び姿勢を示す3次元図面データを記憶する3次
元CAD装置と、 前記躯体に艤装品を取り付ける作業員の位置及び姿勢を
示す作業員位置姿勢データを取得する位置姿勢計測装置
と、 前記作業員に対し、該作業員が視認する現実映像に重ね
合わせた状態で仮想現実映像を表示する画像投影装置
と、 前記作業員位置姿勢データに基づいて、前記作業員がど
の位置からどの方向を向いているかを示す注視データを
生成する注視データ生成部と、 前記注視データに基づき、前記3次元CAD装置内に記
憶された前記3次元図面データから、前記躯体における
前記作業員の視野範囲内の領域に取り付けられる前記艤
装品の画像データを表示データとして切り出す表示デー
タ切出部と、 前記表示データを、前記画像投影装置へ送信して、この
画像投影装置により当該表示データを前記作業員に対し
て前記仮想現実映像として表示させる通信部とを備えた
ことを特徴とする艤装支援システム。
1. A three-dimensional CAD device for storing three-dimensional drawing data indicating the position and posture of a skeleton and fittings attached to the skeleton, and a worker indicating the position and posture of a worker attaching the fitting to the skeleton. A position and orientation measurement device that acquires position and orientation data, an image projection device that displays a virtual reality image in a state of being superimposed on a real image visually recognized by the worker, and A gaze data generation unit that generates gaze data indicating from which position the worker is facing in which direction, based on the gaze data, and the three-dimensional drawing data stored in the three-dimensional CAD device. From, a display data cutout unit that cuts out image data of the outfitting equipment attached to an area within the field of view of the worker in the skeleton as display data, A communication unit for transmitting the display data to the image projection device and displaying the display data to the worker as the virtual reality image by the image projection device. .
【請求項2】躯体及びこの躯体に取り付けられる艤装品
の位置及び姿勢が所定の設計図座標系により表現された
3次元図面データを記憶する3次元CAD装置と、 前記躯体に艤装品を取り付ける作業員に対し、該作業員
が視認する現実映像に重ね合わせた状態で仮想現実映像
を表示する画像投影装置と、 前記躯体及び該躯体近傍に位置する作業員を撮影可能な
カメラと、 前記カメラにより取得された前記躯体の映像から、当該
躯体の位置及び姿勢を、前記現場座標系により表現され
た躯体位置姿勢データとして取得するとともに、この躯
体位置姿勢データと前記3次元図面データに含まれた前
記躯体の位置及び姿勢を示すデータとを比較することに
より、前記設計図座標系と前記現場座標系との変換関係
を座標変換データとして取得する躯体位置姿勢計測装置
と、 前記カメラにより取得された前記作業員の映像から当該
作業員の位置及び姿勢を、前記現場座標系により表現さ
れた作業員位置姿勢データとして取得する作業員位置姿
勢計測装置と、 前記作業員位置姿勢計測装置により取得された前記作業
員位置姿勢データに基づいて、前記作業員がどの位置か
らどの方向を向いているかを示す注視データを、前記現
場座標系に従って生成する注視データ生成部と、 前記躯体位置姿勢計測装置により取得された前記座標変
換データ,及び,前記注視データ生成部により生成され
た前記注視データに基づいて、前記作業員がどの位置か
らどの方向を向いているかを前記設計図座標系により表
現した設計図注視データを生成する座標変換部と、 前記座標変換部により生成された前記設計図注視データ
に基づき、前記3次元CAD装置内に記憶された前記3
次元図面データから、前記躯体における前記作業員の視
野範囲内の領域に取り付けられる前記艤装品の画像デー
タを表示データとして切り出す表示データ切出部と、 前記表示データ切出部により取得された前記表示データ
を、前記画像投影装置へ送信して、該画像投影装置によ
り前記表示データを前記作業員に対して前記仮想現実映
像として表示させる通信部とを備えたことを特徴とする
艤装支援システム。
2. A three-dimensional CAD apparatus for storing three-dimensional drawing data in which the position and orientation of a skeleton and fittings attached to the skeleton are represented by a predetermined design drawing coordinate system, and an operation of attaching fittings to the skeleton. An image projection device that displays a virtual reality image in a state of being superimposed on a real image visually recognized by the worker, a camera capable of photographing the skeleton and a worker located near the skeleton, and the camera From the acquired image of the skeleton, the position and orientation of the skeleton are acquired as skeleton position and orientation data represented by the site coordinate system, and the skeleton position and orientation data and the three-dimensional drawing data By comparing the data indicating the position and orientation of the frame with the frame, the conversion relationship between the design drawing coordinate system and the site coordinate system is acquired as coordinate conversion data. A position and orientation measurement device, and a worker position and orientation measurement device that acquires the position and orientation of the worker from the image of the worker acquired by the camera as worker position and orientation data expressed by the site coordinate system. Based on the worker position and posture data acquired by the worker position and posture measurement device, gaze data indicating which direction the worker is facing from which position, and gaze data that is generated in accordance with the on-site coordinate system. A generation unit, based on the coordinate transformation data acquired by the skeleton position and orientation measurement device, and the gaze data generated by the gaze data generation unit, from which position the worker is facing and in which direction A coordinate conversion unit that generates design drawing gaze data expressing the design drawing coordinate system in the design drawing coordinate system; and the design generated by the coordinate conversion unit. Based on the gaze data, stored in the three-dimensional CAD in the apparatus the 3
A display data cutout unit that cuts out, as display data, image data of the outfitting equipment attached to an area of the skeleton in the field of view of the worker from the three-dimensional drawing data, and the display acquired by the display data cutout unit A communication unit that transmits data to the image projection device and causes the image projection device to display the display data to the worker as the virtual reality video.
【請求項3】前記表示データ切出部は、前記艤装品の種
類毎に、その画像データの切り出しを行うことを特徴と
する請求項1又は2記載の艤装支援システム。
3. The outfitting support system according to claim 1, wherein the display data cutout section cuts out image data of each type of the outfitting component.
【請求項4】前記表示データ切出部は、前記艤装品の種
類毎に、その画像データを互いに異なる色で表示する表
示データとして切り出すことを特徴とする請求項1〜3
のいずれかに記載の艤装支援システム。
4. The display data cutout unit cuts out image data of each type of fitting as display data to be displayed in different colors from each other.
The outfitting support system according to any one of the above.
JP2000053003A 2000-02-29 2000-02-29 Outfit assisting system Pending JP2001239983A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000053003A JP2001239983A (en) 2000-02-29 2000-02-29 Outfit assisting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000053003A JP2001239983A (en) 2000-02-29 2000-02-29 Outfit assisting system

Publications (1)

Publication Number Publication Date
JP2001239983A true JP2001239983A (en) 2001-09-04

Family

ID=18574443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000053003A Pending JP2001239983A (en) 2000-02-29 2000-02-29 Outfit assisting system

Country Status (1)

Country Link
JP (1) JP2001239983A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2302399A1 (en) * 2005-04-28 2008-07-01 Rafael Martinez Fernandez Method for implementing enhanced reality to perform tasks for monitoring construction work, involves adapting, calibrating and matching building plans in real-life environment
JP2010228035A (en) * 2009-03-26 2010-10-14 Mitsubishi Heavy Ind Ltd Marking data generating method and marking method
KR101325691B1 (en) * 2011-04-14 2013-11-05 삼성중공업 주식회사 System for installing fitting to the hull of a ship
KR101774920B1 (en) * 2015-07-24 2017-09-05 삼성중공업(주) Apparatus for installation aid of outfittings
EP3223208A1 (en) * 2016-03-22 2017-09-27 Hexagon Technology Center GmbH Self control
JP2018180868A (en) * 2017-04-12 2018-11-15 株式会社Ecadソリューションズ Image processing device and manufacturing system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2302399A1 (en) * 2005-04-28 2008-07-01 Rafael Martinez Fernandez Method for implementing enhanced reality to perform tasks for monitoring construction work, involves adapting, calibrating and matching building plans in real-life environment
JP2010228035A (en) * 2009-03-26 2010-10-14 Mitsubishi Heavy Ind Ltd Marking data generating method and marking method
KR101325691B1 (en) * 2011-04-14 2013-11-05 삼성중공업 주식회사 System for installing fitting to the hull of a ship
KR101774920B1 (en) * 2015-07-24 2017-09-05 삼성중공업(주) Apparatus for installation aid of outfittings
EP3223208A1 (en) * 2016-03-22 2017-09-27 Hexagon Technology Center GmbH Self control
CN107219825A (en) * 2016-03-22 2017-09-29 赫克斯冈技术中心 self-control
CN107219825B (en) * 2016-03-22 2020-02-14 赫克斯冈技术中心 Method for providing inspection instruction, job site management system, and storage medium
US10789556B2 (en) 2016-03-22 2020-09-29 Hexagon Technology Center Gmbh Self control
JP2018180868A (en) * 2017-04-12 2018-11-15 株式会社Ecadソリューションズ Image processing device and manufacturing system

Similar Documents

Publication Publication Date Title
US11237392B2 (en) System for virtual display and method of use
US8731276B2 (en) Motion space presentation device and motion space presentation method
JP6643170B2 (en) Work support system and method
CN106707810B (en) Ship remote fault diagnosis and maintenance auxiliary system and method based on mixed reality glasses
CN100594517C (en) Method and device for determining optical overlaps with AR objects
JP3274290B2 (en) Video display device and video display system
CN104897091A (en) Articulated arm coordinate measuring machine
JP2006301924A (en) Image processing method and image processing apparatus
JP2004062758A (en) Information processor and information processing method
US20070252833A1 (en) Information processing method and information processing apparatus
JP2007064684A (en) Marker arrangement assisting method and device therefor
JP7109395B2 (en) WORK SUPPORT SYSTEM, WORK SUPPORT DEVICE, AND WORK SUPPORT METHOD
JPWO2020196276A1 (en) Maintenance support system, maintenance support method, program and processed image generation method
JP2005283221A (en) Surveying data processing system, storage medium storing digital map and digital map display
CN108132490A (en) Detection system and detection method based on alignment system and AR/MR
JP2001239983A (en) Outfit assisting system
JPH10207356A (en) Navigation system and medium which stores navigation program using the system
CN113467731A (en) Display system, information processing apparatus, and display control method for display system
KR20190048810A (en) Apparatus and method for providing augmented reality contents
CN113677412A (en) Information processing apparatus, information processing method, and program
JP6253834B1 (en) Virtual work display method, virtual work data creation method, and three-dimensional space marking data creation method
JP2778376B2 (en) Camera viewpoint change method
WO2022176450A1 (en) Information processing device, information processing method, and program
JP7013509B2 (en) Drawing projection system, drawing projection method and program in construction machinery
JP2015162886A (en) obstacle monitoring system and program