JPS639850A - Managing device for curved surface state of three-dimensional body - Google Patents

Managing device for curved surface state of three-dimensional body

Info

Publication number
JPS639850A
JPS639850A JP15468086A JP15468086A JPS639850A JP S639850 A JPS639850 A JP S639850A JP 15468086 A JP15468086 A JP 15468086A JP 15468086 A JP15468086 A JP 15468086A JP S639850 A JPS639850 A JP S639850A
Authority
JP
Japan
Prior art keywords
dimensional
camera
image
dimensional model
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15468086A
Other languages
Japanese (ja)
Inventor
Yoshihiko Yamada
良彦 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP15468086A priority Critical patent/JPS639850A/en
Publication of JPS639850A publication Critical patent/JPS639850A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

PURPOSE:To grasp quantitatively flaws, etc., in the internal surface in a sealed container and the surface of a three-dimensional body and to know their coordinate positions by composing and displaying an image of a stored three- dimensional model and an actually observed image by utilizing a computer. CONSTITUTION:The three-dimensional model stored in an external storage device is used to compute how an image camera needs to be controlled to observe the internal wall of the sealed container and the three-dimensional body 2, and a controlled variable is sent to a controller 5. The controller 5 sends a control signal to the camera 3 on the basis of the controlled variable to set the camera at a specific position and also feed the current position of the camera 3 back to a computer main body, thereby controlling the position. The computer main body sends vector data on three-dimensional coordinates based upon the shape of the three-dimensional model to a display controller 8, which puts a video signal obtained from the camera 3 and the output of the three-dimensional model together and displays the composite output on a monitor television 9.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、3次元物体のモデルと撮像実画像を合成し
、密閉された容器内の3次元物体の状態を座標管理する
曲面状態管理装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention provides a curved surface state management device that synthesizes a model of a three-dimensional object and a captured real image, and manages the coordinates of the state of a three-dimensional object in a sealed container. Regarding.

[従来の技術] 従来、3次元物体の表面の傷の有無、形状変化など表面
状態のチェック、特に密閉された8塁内部のチェックは
、容器を解体して検査する方法が主流であり、解体が容
易でないものに対しては、XMkgを用いた透視検査、
a音波を用いたf %検査、あるいはファイバスコープ
を用いて内部を直接観察する方法などがあった。
[Prior art] Conventionally, the mainstream method for checking the surface condition of a three-dimensional object, such as the presence of scratches and changes in shape, especially checking the inside of the sealed 8th base, has been to disassemble and inspect the container. For cases where this is not easy, fluoroscopy using XMkg,
There were methods such as f% inspection using a-sound waves and direct observation of the inside using a fiberscope.

第7図は、従来のこの種の曲面状態管理装置の一例を示
す構J&図である。
FIG. 7 is a diagram showing the structure of an example of a conventional curved surface state management device of this type.

図において、(1)は密閉容器、(2)は密閉容器(1
)内に収納された3次元物体、(3)はイメージカメラ
、(4)は密閉容器(1)の案内口、(5)はイメージ
カメラ(3)の制御コントローラ、(6)はモニタテレ
ビである。
In the figure, (1) is a closed container, (2) is a closed container (1
), (3) is the image camera, (4) is the guide port of the sealed container (1), (5) is the controller for the image camera (3), and (6) is the monitor TV. be.

次に動作について説明する。Next, the operation will be explained.

イメージカメラ(3)は、案内口(4)を通って、制御
コントローラ(5)の制御に従い、密閉容器(1)およ
び密閉容器(1)内の3次元物体(2)の表面を観察し
、モニタテレビ(6)にその画像を映し出す。
The image camera (3) passes through the guide port (4) and observes the surface of the closed container (1) and the three-dimensional object (2) within the closed container (1) under the control of the controller (5), The image is displayed on a monitor television (6).

オペレータは、制御コントローラ(5)を操作しJ′f
FI閉容泰(1)の内部および3次元物体(2)の傷、
ゆがみを観察し、その度合を定性的に把握し、その位置
を定性的に知ることができるようになっている。
The operator operates the controller (5) to
Damage to the inside of the FI closed body (1) and the three-dimensional object (2),
It is now possible to observe distortion, qualitatively grasp its degree, and qualitatively know its position.

[発明が解決しようとする問題点] 従来の曲面状態管理装置は以上のように構成されている
ので、密閉容器(1)内および3次元物体(2)の表面
の傷、ゆがみが筒単に把握できなかったり、ゆがみを3
次元的に定量的に測定することが困難であるという問題
点があった。さらに傷やゆがみの座標管理を容易に行う
ことができないという問題点もあった。
[Problems to be Solved by the Invention] Since the conventional curved surface condition management device is configured as described above, it is possible to easily detect flaws and distortions in the closed container (1) and on the surface of the three-dimensional object (2). If you can't do it or it's distorted 3
There was a problem in that it was difficult to measure dimensionally and quantitatively. Furthermore, there was also the problem that the coordinates of scratches and distortions could not be easily managed.

この発明は、上記のような問題点を解消するためになさ
れたもので、′P、閉容器(1)内の内壁面および密閉
容器(1)内の3次元物体(2)の表面の傷、ゆがみを
定量的に把握できるようにするとともに、その位置の座
標管理が容易にできる曲面状態管理装置を得ることを目
的とする。
This invention was made in order to solve the above-mentioned problems. It is an object of the present invention to provide a curved surface state management device that allows quantitative understanding of distortion and facilitates coordinate management of its position.

〔問題点を解決するためのr段] この発明に係る曲面状態管理装置は、計算機を利用し、
3次元モデルを記憶し、その3次元モデルと実m察画像
を合成表示し、密閉容器内の内壁面および3次元物体の
表面の傷、ゆがみを定量的に2握し、それらの座標位置
を知ることをC1丁1髭にしたものである。
[R stage for solving the problem] The curved surface state management device according to the present invention uses a computer,
A 3D model is memorized, and the 3D model and the actual observation image are combined and displayed to quantitatively determine the scratches and distortions on the inner wall surface of the sealed container and the surface of the 3D object, and to determine their coordinate positions. It is C1-cho-1-beard to know.

[作用] この発明における曲面状pfi管理装置は、3次元モデ
ルと実観察画像を合成表示を、3次元ディスプレイ装置
に表示するワイヤフレームモデル等の3次元モデルとモ
ニタテレビに表示する実画像を合成してマルチディスプ
レイ装置に表示し、リアルタイムに曲面状態の把握を可
能にする。
[Function] The curved PFI management device of the present invention displays a composite display of a 3D model and an actual observed image, and composites a 3D model such as a wire frame model displayed on a 3D display device with an actual image displayed on a monitor TV. and display it on a multi-display device, making it possible to grasp the curved surface condition in real time.

[実施例] 以下、この発明の一実施例を図について説明する。[Example] An embodiment of the present invention will be described below with reference to the drawings.

第1図は、この発明の曲面状態管理装置の構成図である
FIG. 1 is a block diagram of a curved surface state management device according to the present invention.

図において、(1)は密閉容器、(2)は密閉容器(1
)内の3次元物体、(3)はイメージ久方装置としての
イメージカメラ、(4)は密閉容器(1)の案内口、(
5)はイメージカメラ(3)の映像信号を受は取るとと
もに、イメージカメラ(3)の制御を行うための制御コ
ントローラ、(7)は3次元モデルを記憶し、制御コン
トローラ(5)の制御信号に従い、イメージカメラ(3
)で見える理論的3次元モデルを出力する計算機、(8
)は映像情報と3次元モデルの出力とを合成するディス
プレイ装置の表示コントローラ、(9)は合成出力を行
うディスプレイ装置としてのモニタテレビである。
In the figure, (1) is a closed container, (2) is a closed container (1
), (3) is an image camera as an image capture device, (4) is the guide port of the sealed container (1), (
5) is a controller for receiving and receiving video signals from the image camera (3) and controlling the image camera (3); (7) is for storing a three-dimensional model and transmitting control signals from the controller (5); According to the image camera (3
), a computer that outputs a theoretical three-dimensional model that can be seen in (8
) is a display controller of a display device that combines video information and the output of a three-dimensional model, and (9) is a monitor television serving as a display device that performs the combined output.

第2図は、上記の曲面状態管理装置における概略の信号
の流れを示す説明図である。
FIG. 2 is an explanatory diagram showing a schematic signal flow in the above-mentioned curved surface state management device.

図において、(lO)はイメージカメラ(3)のイメー
ジカメラガイド、 (11)は計算機本体、(12)は
外部記憶装置、(13)は制御信号ライン、(14)は
映像信号ラインである。
In the figure, (lO) is the image camera guide of the image camera (3), (11) is the computer main body, (12) is the external storage device, (13) is the control signal line, and (14) is the video signal line.

L記計算機本体(11)の外部記憶装置(12)の中に
は、3次元物体(2)の密閉容器(1)およびその内部
構造の形状(3次元座標で表わした寸法)が全て、3次
元モデルとして記憶されている。
In the external storage device (12) of the computer main body (11), all the shapes (dimensions expressed in three-dimensional coordinates) of the sealed container (1) of the three-dimensional object (2) and its internal structure are stored in the external storage device (12) of the computer main body (11). It is stored as a dimensional model.

上記3次元モデルの記憶形態の基本は、円、線(ベクト
ル)となるが、3次元モデルが最終的に表現される座標
は、X、7.Z軸座標で表わされる一般座標となる。
The basic storage format of the 3D model is circles and lines (vectors), but the coordinates at which the 3D model is finally expressed are X, 7. These are general coordinates expressed in Z-axis coordinates.

しかし、3次元座標の全体を表わすのに、一般座標系が
最も良いとは限らず、各部品によって物体座標、たとえ
ば円柱座標、球面座標などで表わした方が簡単になる場
合がある。
However, the general coordinate system is not necessarily the best way to represent the entire three-dimensional coordinate system, and it may be easier to represent each part using object coordinates, such as cylindrical coordinates or spherical coordinates.

そこで、3次元物体(3)は、まずはじめに物体座標で
表現することとする。
Therefore, the three-dimensional object (3) is first expressed using object coordinates.

そして、3次元座標間の変換は、数学的に座標変換式で
表わされる。
Conversion between three-dimensional coordinates is expressed mathematically by a coordinate conversion formula.

たとえば、直交座標と球座検量の座標変換式は次の通り
である。
For example, the coordinate transformation formula between orthogonal coordinates and spherical calibration is as follows.

u= rsin 0cosφ v= rsin 0sinφ w=rcosO また、一般座標と、3次元物体座標は、原点をどのよう
に移動したか、また、どのように座標系を取ったかの問
題となるから単純に、一般座標に変換することができる
u= rsin 0cosφ v= rsin 0sinφ w=rcosO Also, general coordinates and three-dimensional object coordinates are a matter of how the origin was moved and how the coordinate system was taken, so simply general It can be converted into coordinates.

次に、物体座標系から3次元物体を定義する場合は、そ
の物体がどのように構成されるかを面の端、および曲線
で定義する。
Next, when defining a three-dimensional object from the object coordinate system, the structure of the object is defined by the edges of the surfaces and curves.

これは実際には、設計図面に入れられている寸法等を使
用する。ただし1図面中の原点を最初に決定し、また平
、立、側面図の3面図では対応点を指示する必要がある
。 / 従って、3次元物体は、■コンポーネントに分ける。(
@コンポーネント毎に、寸法、曲率等から物体座標でそ
の形状を表わす、■一般座標に変換する。という(D〜
■の手順により一般座標でランク分けされながら実寸法
で計算a(7)の外部記憶装置(2)に記憶されること
になる。
This actually uses the dimensions etc. included in the design drawings. However, it is necessary to first determine the origin in one drawing, and to indicate the corresponding points in three views (flat, vertical, and side views). / Therefore, a three-dimensional object is divided into ■components. (
@For each component, convert dimensions, curvature, etc. into general coordinates, which expresses its shape in object coordinates. (D~
According to the procedure (2), the actual dimensions are stored in the external storage device (2) of calculation a (7) while being ranked based on the general coordinates.

なお、上記のコンポーネントは、階層構造を持ち、また
、この発明の曲面状態管理装置は、3次元CADではな
いので、結果的には全座標を一般座標にて管理すること
になる。
Note that the above-mentioned components have a hierarchical structure, and since the curved surface state management device of the present invention is not a three-dimensional CAD, all coordinates are eventually managed using general coordinates.

次に上記実施例の動作について説明する。Next, the operation of the above embodiment will be explained.

まず、第2図の計算機本体(11)の外部記憶装置(1
2)に記憶された3次元モデルから、どのようにイメー
ジカメラ(3)を制御したら密閉容器(1)の内壁およ
び3次元物体(2)が観察できるかを計算し、制御コン
トローラ(5)に制御t;−を送る。
First, the external storage device (1) of the computer main body (11) shown in Fig.
From the 3D model stored in 2), calculate how to control the image camera (3) to observe the inner wall of the sealed container (1) and the 3D object (2), and send the information to the controller (5). Send control t;-.

すなわち、イメージカメラ(3)は、図示していない多
間接ロボットのロボットアームに取り付けられ、このロ
ボットアームの各軸のオン、オフの動作指令と、そのオ
ン、オフ時間の指定を内容とする制御信号により制御さ
れる。
That is, the image camera (3) is attached to the robot arm of a multi-articulated robot (not shown), and controls the robot arm by issuing on/off operation commands for each axis of the robot arm and specifying the on/off times. Controlled by a signal.

そこで、制御コントローラ(5)は、その制御量に基づ
いて制御信号をイメージカメラ(3)に送り、イメージ
カメラ(3)を所定の位置に設定するとともに、イメー
ジカメラ(3)の現在位置を計算機本体(11)にフィ
ードバックし、正確な位置を制御する。
Therefore, the controller (5) sends a control signal to the image camera (3) based on the control amount, sets the image camera (3) to a predetermined position, and calculates the current position of the image camera (3) using a computer. Feedback to the main body (11) to control precise position.

また、計算機本体(11)は1表示コントローラ(8)
に対して3次元モデルの形状に基づいた3次元座標での
ベクトルデータを送り、3次元物体(2)を表示する。
In addition, the computer main body (11) has one display controller (8)
The three-dimensional object (2) is displayed by sending vector data in three-dimensional coordinates based on the shape of the three-dimensional model to the object.

このベクトルデータは、■ロボットアームを一般座標で
表わしたベクトル、■3次元物体を一般座標で表わした
ベクトルとなる。
This vector data consists of (1) a vector representing the robot arm in general coordinates, and (2) a vector representing a three-dimensional object in general coordinates.

また、その場合の信号形態は、たとえばエスケープシー
ケンスによるバイナリ−コード、R9422インタフ工
イス信号ライン制′a7であり。
In this case, the signal format is, for example, a binary code using an escape sequence, or an R9422 interface signal line system 'a7.

通常のグラフィックCRTに図形を描くものと同一とな
る。
This is the same as drawing figures on a regular graphic CRT.

上記の3次元物体(2)の表示は、3次元のワイヤフレ
ームモデルに基づいたメツシュによる表示となり、さら
に表示コントローラ(8)は、イメージカメラ(3)か
ら得た映像信号と3次元モデルの出力とを合成して表示
する。
The display of the three-dimensional object (2) is a mesh display based on a three-dimensional wire frame model, and the display controller (8) outputs the video signal obtained from the image camera (3) and the three-dimensional model. Combine and display.

この場合の合成方法は、映像信号としてのNTSC信号
と、3次元モデルのバイナリ−ベクトルデータのフレー
ムメモリとをビューメモリで合成する。また、ソフトウ
ェア的には次のようにして合成することができる。
The synthesis method in this case is to synthesize an NTSC signal as a video signal and a frame memory of binary vector data of a three-dimensional model using a view memory. Furthermore, in terms of software, it can be synthesized as follows.

すなわち、たとえば視野角20°のイメージカメラ(3
)から見て3次゛元物体の視点中心がどこにあるかを求
める。この場合第3図に示すように座標Ao(to  
+ to、 zo) 、  イメージカメラ(3)ノ座
標をAM(1w + !w+ zw)とし、座標Ayか
ら座標Aoヘノベクトルを求め、さらに図の距離dt−
算出する。
That is, for example, an image camera (3
) Find out where the viewpoint center of the three-dimensional object is. In this case, the coordinates Ao (to
+ to, zo), the coordinates of the image camera (3) are set to AM (1w + !w+ zw), the vector from the coordinate Ay to the coordinate Ao is obtained, and the distance dt- in the figure is
calculate.

また、マルチディスプレイ装置に表示する3次元モデル
を一致させるために視点位置がイメージカメラ(3)の
位置に合うようにウィンドを設定する。
Further, in order to match the three-dimensional models displayed on the multi-display device, a window is set so that the viewpoint position matches the position of the image camera (3).

上記の場合の表示すイズは次式よって表わされる。The display size in the above case is expressed by the following equation.

ds   (!II  −to)2+ (t。 −yo
)?+ (zw  −zo)2r = dtanlo。
ds (!II -to)2+ (t. -yo
)? + (zw −zo)2r = dtanlo.

以」−によりマルチデスプレイ装置のモ面におけるCR
T端までの距離がrになるようにウィンドを決定するこ
とにより、イメージカメラ(3)による撮像画像と3次
元モデルとを合成することができる。
CR on the screen of a multi-display device
By determining the window so that the distance to the T end is r, the image captured by the image camera (3) and the three-dimensional model can be combined.

ここで、撮像画像と3次元モデルとをただ同時に表示し
たのでは、その3次元モデルのメツシュと映像信号とが
完全に一致することがないが、計算機本体(11)はイ
メージカメラ(3)が、どこに位置し、その位置からか
らどのよな角度でまた、どの面をa察しているかを把握
しているので表示コントローラ(8)に対して、補正情
報を送り、理論的に両者の画像が完全に一致するように
する。
Here, if the captured image and the 3D model are displayed at the same time, the mesh of the 3D model and the video signal will not match completely, but the computer main body (11) is equipped with an image camera (3). , since it knows where it is located, at what angle from that position, and which plane it is viewing, it sends correction information to the display controller (8), and theoretically the two images are corrected. Make sure there is an exact match.

さらに計算機本体(11)は、8i似的に3次元モデル
と映像を回転させて別の角度から見た画像を合成するこ
とができる。
Furthermore, the computer main body (11) can rotate the three-dimensional model and the video, similar to 8i, and synthesize images seen from different angles.

なお、上記のイメージカメラ(3)は、多間接ロボット
のロボットアームに取り付けられているが、そのロボッ
トアームに対するイメージカメラ(3)の取付は位置、
取付は角度は、固定パターンとなっていて、イメージカ
メラ(3)をロボットアームに取り付ける時にオペレー
タが指定する。
Note that the above image camera (3) is attached to the robot arm of a multi-articulated robot, but the attachment of the image camera (3) to the robot arm depends on the position,
The mounting angle is a fixed pattern and is specified by the operator when mounting the image camera (3) on the robot arm.

従って、ロボットアームの各軸位置が分かると、イメー
ジカメラ(3)の視点位置が一意的に決定されることに
なる。
Therefore, when the position of each axis of the robot arm is known, the viewpoint position of the image camera (3) can be uniquely determined.

そこで、3次元モデルに対して、イメージカメラ(3)
の中心線がぶつかる点が求められれば映像信号と合成さ
れることになる。
Therefore, for the 3D model, the image camera (3)
If the point where the center lines of the two collide is found, it will be combined with the video signal.

一般にはこれを解析的に解くことが困難であるが、幾何
形状が単純なものは解析解が得られる。
Generally, it is difficult to solve this problem analytically, but an analytical solution can be obtained if the geometry is simple.

また、複雑な形状の場合には、数値的に視線を延ばして
数値解を求めることになる。
In addition, in the case of a complex shape, the line of sight is numerically extended to find a numerical solution.

以上のようにしてモニタテレビ(9)に映像を表示する
ものであるがその様子を第4図に示す。
The image is displayed on the monitor television (9) in the manner described above, and the manner in which it is displayed is shown in FIG.

同図において、(15)は映像表示域、(16)はイメ
ージカメラ(3)の輪郭、(17)はr&察された傷を
示す。
In the figure, (15) shows the video display area, (16) shows the outline of the image camera (3), and (17) shows the flaw detected by r&.

また、計算機本体(11)は制御コントローラ(5)に
ml 御Rを出すと同時に理論的にどのように見えるか
を計算し、3次元モデルの座標をモニタテレビ(9)に
表示するが、その様子を第5図に示す。
In addition, the computer main body (11) outputs the ml control to the controller (5), and at the same time calculates how it would look theoretically, and displays the coordinates of the three-dimensional model on the monitor television (9). The situation is shown in Figure 5.

図において、(18)は3次元グラフィック表示域、(
19)は座標である。
In the figure, (18) is the three-dimensional graphic display area, (
19) are coordinates.

さらに第6図に、表示コントローラ(5)で映像信叶と
3次元モデルとを合成して表示した様子を示す。
Further, FIG. 6 shows how the video image and the three-dimensional model are combined and displayed using the display controller (5).

図において、(20)は合成表示域を示す、この図から
、傷が3次元モデルのどの座標に、その大きさがどの位
であるかが分かる。そして、この座標を登録することに
より曲面状態の管理を容易に行うことができる。
In the figure, (20) shows the composite display area. From this figure, it can be seen at which coordinates of the three-dimensional model the flaw is located and what its size is. By registering these coordinates, the curved surface state can be easily managed.

なお、傷の確認はオペレータが目で見て行うものである
が、たとえば原子炉、核融合炉のように3次元物体の表
面膜がいく層にも別れているような場合でもルmの単位
の深さの傷から確認することができる。また、この傷は
、メツシュエリア毎に登録され、傷の大きさく面積)、
損傷度が分かることになる。
Although the operator visually checks for scratches, even in cases where the surface film of a three-dimensional object is divided into many layers, such as in nuclear reactors and nuclear fusion reactors, it is possible to check the damage in units of lm. This can be confirmed from the depth of the scratch. In addition, this scratch is registered for each mesh area, and the size and area of the scratch are
The degree of damage will be known.

さらに上記の傷の管理は、メツシュ単位で、傷登録年月
日、補修年月日を登録することによりその履歴を管理す
ることができる。
Furthermore, the above-mentioned flaw management can be performed by registering the flaw registration date and repair date on a mesh-by-mesh basis to manage its history.

また、同様に観察対象面にゆがみが生じている場合、表
示座標と映像とが一致しないために、どこにゆがみが生
じているかを容易に知ることができるとともに、イメー
ジカメラを制御し、座標面と一致させることにより、そ
のゆがみ両を定猜的に把握することが可能となる。
Similarly, when distortion occurs on the observation target plane, the display coordinates and the image do not match, so it is possible to easily know where the distortion is occurring, and also to control the image camera and adjust the coordinate plane. By matching, it becomes possible to accurately grasp the distortion.

なお、上記の実施例では、イメージカメラ(3)を用い
て映像信号と3次元モデルと合成したが、たとえば赤外
線センサを用いて温度分布と合成するなど、またセンサ
を変えたり、あるいはセンサを複数個使用して合成する
ことによりさらに複雑な表面状態を把握することができ
る。
In the above embodiment, the image camera (3) was used to synthesize the video signal and the three-dimensional model, but it is also possible to synthesize the video signal and the three-dimensional model using an infrared sensor, change the sensor, or use multiple sensors. By using and compositing individual objects, it is possible to grasp even more complex surface conditions.

また、上記の実施例では制御量に応じて、リアルタイム
に変化、あるいは移動する表面状態を観察するようにし
たが、ある位置から時間間熱Δtて観測することにより
、時間変化を知ることができる。
Furthermore, in the above embodiment, the surface condition changing or moving in real time is observed according to the control amount, but it is also possible to know the change over time by observing the heat Δt from a certain position over time. .

さらに、計’rxaからの出力として座標だけでなく温
度変化等のシミュレーション結果を表示することにより
実変化が理論的変化とどのように相違するかを2握する
ことが可能となる。
Furthermore, by displaying not only the coordinates but also simulation results such as temperature changes as output from the rxa, it becomes possible to grasp how the actual changes differ from the theoretical changes.

[発IJ′Nの効果] 以1−のように、この発明によれば計算機を利用し、3
次元モデルを記憶し、その3次元モデルと実観察画像を
合成表示し、密閉容器内の内壁面および3次元物体の表
面の傷、ゆがみを定が的に把握し、それらの座標位置を
知ることができるように構成したので、3次元曲面の複
雑な状態を簡屯に視認性に良い表示として得られるとと
もに、それらの傷やゆがみの座標管理を容易に行うこと
ができるなどの効果がある。
[Effect of IJ'N] As shown in 1- below, according to this invention, a computer is used to
Memorize a dimensional model, synthesize and display the 3D model and actual observation images, accurately grasp scratches and distortions on the inner wall surface of a sealed container and the surface of a 3D object, and know their coordinate positions. Since the structure is configured so that the complex state of a three-dimensional curved surface can be easily displayed with good visibility, it is also possible to easily manage the coordinates of scratches and distortions.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、この発明の一実施例を示す曲面状態管理装置
の構成図、第2図は(上記の曲面状態管理装置における
概略の信号の流れを示す説明図、第3図は、3次元モデ
ルと映像信号との合成方法の説明図、第4図は、イメー
ジカメラにて撮影した際の映像表示図、第5図は、計算
機本体から出力した3次元モデルのグラフィック表示図
、第6図は、映像信号と3次元モデルのグラフィックク
表示との合成図、第7図は、従来の曲面状態管理装置の
構成図である。 (1)・・・密閉容器、 (2)・・・3次元物体、 (3)・・・イメージカメラ、 (4)・・・案内口、 (5)・−・制御コントローラ、 (7)・・・計算機、 (8)−・・表示コントローラ。 (9)・・・モニタテレビ、 (10)・・・イメージカメラガイド、(11)・・・
計算機本体。 (12)−・・外部記憶装置、 (13)・・・制御信号ライン、 (14)・・・映像信号ライン。 なお、各図中、同一符号は同一または相当部分を示す。 代  理  人   大  岩  増  雄第1図 第2図 第3図 第4図 第5図     第6図 第7図 手続補正書(自発) 昭和  年  月  日 2、発明の名称 3次元物体の曲面状態管理装置 3、補正をする者 代表者志岐守哉 4、代理人 5、補正の対象 6、補正の内容 明細書第1O頁第20行ないし第11頁第1行の「その
位置・・・ローラ(8)」という記載を次のように補正
する。 「その位置からどのような角度で、またどの位置をどれ
だけの距離から観察しているかを数値化し、表示コント
ローラ(8)」 以  上
FIG. 1 is a block diagram of a curved surface state management device showing an embodiment of the present invention, FIG. 2 is an explanatory diagram showing a general signal flow in the above curved surface state management device, and FIG. An explanatory diagram of the method of combining a model and a video signal, Figure 4 is a video display diagram when photographed with an image camera, Figure 5 is a graphic display diagram of a three-dimensional model output from the computer main body, and Figure 6 is a composite diagram of a video signal and a graphic display of a three-dimensional model, and FIG. 7 is a configuration diagram of a conventional curved surface state management device. (1)...Airtight container, (2)...3 Dimensional object, (3)...Image camera, (4)...Guidance gate, (5)...Control controller, (7)...Calculator, (8)...Display controller. (9) ...Monitor TV, (10)...Image camera guide, (11)...
The main body of the computer. (12)--external storage device, (13)--control signal line, (14)--video signal line. In each figure, the same reference numerals indicate the same or corresponding parts. Agent: Masuo Oiwa Figure 1 Figure 2 Figure 3 Figure 4 Figure 5 Figure 6 Figure 7 Procedural amendment (voluntary) Title of invention Curved surface state management of three-dimensional objects Device 3, person making the correction Representative Moriya Shiki 4, agent 5, subject of correction 6, description of the contents of the correction, page 10, line 20 to page 11, line 1, ``The position...roller ( 8)” should be amended as follows. ``The display controller (8) digitizes the angle from which the object is observed and the distance from which point it is observed.''

Claims (1)

【特許請求の範囲】[Claims] 3次元物体のモデルを記憶し、視点の変位による見え方
を計算する計算機と、前記3次元物体のモデルの表示状
態を撮像するイメージ入力装置と、前記3次元物体のモ
デルのグラフィック表示と、前記イメージ入力装置によ
る撮像画像とを同時に合成して画面に表示するディスプ
レイ装置とを備えたことを特徴とする3次元物体の曲面
状態管理装置。
a computer that stores a model of a three-dimensional object and calculates how it looks depending on the displacement of a viewpoint; an image input device that captures a display state of the model of the three-dimensional object; a graphic display of the model of the three-dimensional object; 1. A curved surface state management device for a three-dimensional object, comprising a display device that simultaneously synthesizes images captured by an image input device and displays the synthesized images on a screen.
JP15468086A 1986-07-01 1986-07-01 Managing device for curved surface state of three-dimensional body Pending JPS639850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15468086A JPS639850A (en) 1986-07-01 1986-07-01 Managing device for curved surface state of three-dimensional body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15468086A JPS639850A (en) 1986-07-01 1986-07-01 Managing device for curved surface state of three-dimensional body

Publications (1)

Publication Number Publication Date
JPS639850A true JPS639850A (en) 1988-01-16

Family

ID=15589565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15468086A Pending JPS639850A (en) 1986-07-01 1986-07-01 Managing device for curved surface state of three-dimensional body

Country Status (1)

Country Link
JP (1) JPS639850A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008196975A (en) * 2007-02-13 2008-08-28 Olympus Corp Defect inspection device
JP2013537979A (en) * 2010-09-24 2013-10-07 シーメンス コーポレーション Parallel virtual-real image inspection system and method of apparatus
CN108802049A (en) * 2018-06-19 2018-11-13 上海大学 Demarcate the method and its application of joint for resistance spot welding central defect
JP2019211257A (en) * 2018-05-31 2019-12-12 株式会社センシンロボティクス Inspection system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008196975A (en) * 2007-02-13 2008-08-28 Olympus Corp Defect inspection device
JP2013537979A (en) * 2010-09-24 2013-10-07 シーメンス コーポレーション Parallel virtual-real image inspection system and method of apparatus
US9494532B2 (en) 2010-09-24 2016-11-15 Siemens Energy, Inc. System and method for side-by-side inspection of a device
JP2019211257A (en) * 2018-05-31 2019-12-12 株式会社センシンロボティクス Inspection system
CN108802049A (en) * 2018-06-19 2018-11-13 上海大学 Demarcate the method and its application of joint for resistance spot welding central defect

Similar Documents

Publication Publication Date Title
JP5310130B2 (en) Display method of recognition result by three-dimensional visual sensor and three-dimensional visual sensor
JP5117418B2 (en) Information processing apparatus and information processing method
US20110122231A1 (en) Method for dislaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
TWI476729B (en) Dimensional image and three - dimensional model of the combination of the system and its computer program products
US20140375693A1 (en) Transprojection of geometry data
CN104835117A (en) Spherical panorama generating method based on overlapping way
JP2010540933A (en) Local positioning system and method
CN107038722A (en) Equipment positioning method and device
WO2017017790A1 (en) Image generation device, image generation system, and image generation method
CN110796738A (en) Three-dimensional visualization method and device for tracking state of inspection equipment
CN113902809A (en) Method for jointly calibrating infrared camera and laser radar
CN113658266A (en) Moving axis rotation angle visual measurement method based on fixed camera and single target
Borrmann et al. Spatial projection of thermal data for visual inspection
JP2005341060A (en) Camera control apparatus
CN111197980A (en) Intelligent adsorption method for AR measuring room
CN112767249B (en) Image unfolding and splicing method and system for surface defect detection of small pipe fitting
JPS639850A (en) Managing device for curved surface state of three-dimensional body
JPH1089960A (en) Three-dimensional image measuring method
Iwai et al. Optical superimposition of infrared thermography through video projection
US20140292642A1 (en) Method and device for determining and reproducing virtual, location-based information for a region of space
JP2002288637A (en) Environmental information forming method
CN115409693A (en) Two-dimensional positioning method based on pipeline foreign matters in three-dimensional image
CN205562046U (en) Three -dimensional hot imaging device of hand -held type
JPH0386484A (en) Remote operation device for robot
JPH0675617A (en) Camera view point change system