JP6545033B2 - Three-dimensional temperature distribution display - Google Patents
Three-dimensional temperature distribution display Download PDFInfo
- Publication number
- JP6545033B2 JP6545033B2 JP2015160736A JP2015160736A JP6545033B2 JP 6545033 B2 JP6545033 B2 JP 6545033B2 JP 2015160736 A JP2015160736 A JP 2015160736A JP 2015160736 A JP2015160736 A JP 2015160736A JP 6545033 B2 JP6545033 B2 JP 6545033B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- temperature distribution
- pixel
- polygon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Investigating Or Analyzing Materials Using Thermal Means (AREA)
- Radiation Pyrometers (AREA)
- Image Generation (AREA)
Description
本発明は測定対象物の表面温度分布を三次元的に表示することができる三次元温度分布表示装置に関する。 The present invention relates to a three-dimensional temperature distribution display device capable of three-dimensionally displaying the surface temperature distribution of an object to be measured.
測定対象物の表面温度分布を表示する表示装置は従来、例えば特許文献1に示されているように、上記表面温度分布を二次元的に表示するものが普通である。 Conventionally, as a display device for displaying the surface temperature distribution of the measurement object, for example, as shown in Patent Document 1, it is common to display the surface temperature distribution two-dimensionally.
しかし、測定対象物が奥行きのある立体的なものである場合にその表面温度分布を二次元的に表示しても、奥行きのある実際の分布状態を正確に把握することは難しい。一方、測定対象物が機械部品等である場合には当該測定対象物の精密な三次元CADデータが準備されていることが多い。 However, when the object to be measured is three-dimensional with depth, it is difficult to accurately grasp the actual distribution state with depth even if the surface temperature distribution is two-dimensionally displayed. On the other hand, when the object to be measured is a machine part or the like, precise three-dimensional CAD data of the object to be measured is often prepared.
そこで、本発明はこのような課題を解決するもので、三次元CADデータを備える立体的な測定対象物の表面温度分布を三次元的に簡易に表示することができる三次元温度分布表示装置を提供することを目的とする。 Therefore, the present invention solves such a problem, and a three-dimensional temperature distribution display device capable of three-dimensionally and three-dimensionally displaying surface temperature distribution of a three-dimensional measurement object provided with three-dimensional CAD data. Intended to be provided.
上記目的を達成するために、本第1発明では、CADデータから測定対象物(1)の三次元ワイヤフレーム画像(4)を生成する画像生成手段(3、ステップ102)と、測定対象物(1)の二次元温度分布画像(6)を遠隔的に取得する温度測定手段(2A〜2C,3,ステップ106)と、温度測定手段(2A〜2C)の設置点(Fa)から見た三次元ワイヤフレーム画像(4)に二次元温度分布画像(6)を重ねて表示する重ね表示手段(3、ステップ107)と、重ね表示された状態での二次元温度分布画像(6)の各画素(61)と三次元ワイヤフレーム画像(4)を構成する各ポリゴン(41)に対応付けられた二次元テクスチャ画像(5)の各画素(51)との対応関係を確定する対応関係確定手段(3、ステップ108)と、二次元温度分布画像(6)の各画素(61)における温度情報を二次元テクスチャ画像(5)の各画素(51)に付与して当該テクスチャ画像を完成する画像完成手段(3、ステップ109)と、完成した二次元テクスチャ画像(5)を、これに対応するポリゴン(41)に貼り付ける貼付け手段(3,ステップ202)とを具備し、貼付け手段(3,ステップ202)は三次元ワイヤフレーム画像(4)のうち、重ね表示される二次元温度分布画像(6)が得られていない画像部分を構成する各ポリゴン(41)に対して、その周囲の、完成した二次元テクスチャ画像が貼り付けられたポリゴン(41)の温度情報から熱伝導率を考慮して算出された温度情報を各画素に付与した二次元テクスチャ画像(5)を貼りつけるものである。 In order to achieve the above object, in the first invention, an image generation means (3, step 102) for generating a three-dimensional wireframe image (4) of a measurement object (1) from CAD data; Temperature measurement means (2A to 2C, 3, step 106) for remotely acquiring the two-dimensional temperature distribution image (6) of 1) and third order viewed from the installation point (Fa) of the temperature measurement means (2A to 2C) Overlaying display means (3, step 107) for overlaying and displaying the two-dimensional temperature distribution image (6) on the original wireframe image (4), and each pixel of the two-dimensional temperature distribution image (6) in the superimposed display state Correspondence determination means for determining the correspondence between each pixel (51) of the two-dimensional texture image (5) associated with each polygon (41) constituting the three-dimensional wireframe image (4) and (61) 3, step 108) Image completion means (3, step 109) for giving temperature information in each pixel (61) of the two-dimensional temperature distribution image (6) to each pixel (51) of the two-dimensional texture image (5) And attaching means (3, step 202) for attaching the completed two-dimensional texture image (5) to the polygon (41) corresponding thereto, wherein the attaching means (3, step 202) is a three-dimensional wire frame The completed two-dimensional texture image of the periphery is pasted to each polygon (41) which constitutes the image portion by which the two-dimensional temperature distribution image (6) by which overlapping display is carried out among images (4) is not obtained. The two-dimensional texture image (5) in which temperature information calculated in consideration of the thermal conductivity from the temperature information of the attached polygon (41) is applied to each pixel is pasted.
本第1発明においては、三次元ワイヤフレーム画像の各ポリゴンに、二次元温度分布画像の各画素の温度情報を付与されたテクスチャ画像が貼り付けられて、測定対象物の表面温度分布が三次元表示されるから、奥行きのある実際の温度分布状態が正確に示され、温度分布を的確に把握することができる。また、CADデータから生成される三次元ワイヤフレーム画像を利用するから、表面温度分布の三次元表示を簡易に行うことができる。さらに、温度測定手段の死角となって二次元温度分布画像(6)が得られていない画像部分を構成する各ポリゴンに対しても、その周囲のポリゴンの温度情報から算出された温度情報を付与した二次元テクスチャ画像が貼り付けられるから、測定対象物の三次元表面温度分布表示に欠落部を生じることが防止される。 In the first aspect of the invention, the texture image to which the temperature information of each pixel of the two-dimensional temperature distribution image is added is attached to each polygon of the three-dimensional wire frame image, and the surface temperature distribution of the measurement object is three-dimensional. As it is displayed, the actual temperature distribution with depth can be accurately indicated, and the temperature distribution can be accurately grasped. In addition, since a three-dimensional wireframe image generated from CAD data is used, three-dimensional display of the surface temperature distribution can be easily performed. Furthermore, the temperature information calculated from the temperature information of the polygons around the polygon is given to each polygon constituting the image part where the two-dimensional temperature distribution image (6) is not obtained because it becomes a blind spot of the temperature measuring means. Since the two-dimensional texture image is attached, it is possible to prevent the occurrence of a missing part in the three-dimensional surface temperature distribution display of the measurement object.
本第2発明では、前記重ね表示手段(3、ステップ107)は、二次元温度分布画像(6)から抽出された複数の特徴点が、三次元ワイヤフレーム画像(4)から抽出された同数の特徴点に一致するように二次元温度分布画像(6)と三次元ワイヤフレーム画像(4)を重ねて表示するものである。 In the second aspect of the present invention, the overlapping display means (3, step 107) is configured so that a plurality of feature points extracted from the two-dimensional temperature distribution image (6) are the same number extracted from the three-dimensional wireframe image (4). The two-dimensional temperature distribution image (6) and the three-dimensional wire frame image (4) are superimposed and displayed so as to coincide with the feature points.
本第2発明においては、二次元温度分布画像と三次元ワイヤフレーム画像からそれぞれ抽出された特徴点を一致させることによって両画像を重ねて表示しているから、重ね表示の操作が簡易化されその自動化が容易になる。 In the second aspect of the invention, since the two images are superimposed and displayed by matching the feature points extracted respectively from the two-dimensional temperature distribution image and the three-dimensional wire frame image, the operation of overlapping display is simplified. It becomes easy to automate.
本第3発明では、前記温度測定手段(2A〜2C,3,ステップ106)は、取得した二次元温度分布画像(6)が、画面の所定位置に来るように位置ずれ補正を行うものである。 In the third aspect of the invention, the temperature measuring means (2A to 2C, 3, step 106) corrects the positional deviation so that the acquired two-dimensional temperature distribution image (6) comes to a predetermined position on the screen. .
本第3発明においては、測定対象物が移動して取得された二次元温度分布画像の位置ずれが補正されるから、その後の三次元ワイヤフレーム画像との重ね表示が確実に行われる。 In the third aspect of the present invention, since the positional deviation of the two-dimensional temperature distribution image acquired by moving the measurement object is corrected, the overlapping display with the subsequent three-dimensional wire frame image is surely performed.
なお、上記カッコ内の符号は、後述する実施形態に記載の具体的手段との対応関係を参考的に示すものである。 The reference numerals in the parentheses indicate the correspondence with the specific means described in the embodiments to be described later.
以上のように、本発明の三次元温度分布表示装置等によれば、三次元CADデータを備える立体的な測定対象物の表面温度分布を三次元的に簡易に表示することができる。 As described above, according to the three-dimensional temperature distribution display device or the like of the present invention, the surface temperature distribution of a three-dimensional measurement object provided with three-dimensional CAD data can be three-dimensionally and simply displayed.
なお、以下に説明する実施形態はあくまで一例であり、本発明の要旨を逸脱しない範囲で当業者が行う種々の設計的改良も本発明の範囲に含まれる。 The embodiments described below are merely examples, and various design improvements made by those skilled in the art without departing from the scope of the present invention are also included in the scope of the present invention.
図1には測定装置の全体構成を示す。図1において、立体的な測定対象物1を囲むようにして三箇所に、上記測定対象物1から放射される赤外線を感知する温度測定手段を構成する赤外カメラ2A,2B,2Cが設置されている。なお、以下の説明を容易にするために本実施形態では測定対象物1の形状は単純な直方体であるとする。上記各赤外カメラ2A,2B,2Cからの出力画像は信号線21,22,23によって、CPU、メモリ、各種インターフェース等を内蔵しモニタ31やキーボード32を備えたパソコン3に入力されている。 FIG. 1 shows the entire configuration of the measuring apparatus. In FIG. 1, infrared cameras 2A, 2B and 2C constituting temperature measurement means for sensing infrared rays emitted from the measurement object 1 are installed at three locations so as to surround the three-dimensional measurement object 1. . In addition, in order to facilitate the following description, in the present embodiment, the shape of the measurement object 1 is assumed to be a simple rectangular parallelepiped. The output image from each of the infrared cameras 2A, 2B, 2C is input to a personal computer 3 having a CPU 31, a memory, various interfaces and the like and a monitor 31 and a keyboard 32 through signal lines 21, 22, 23.
測定対象物1および各赤外カメラ2A〜2Cの三次元的な位置は予めパソコン3内に設定されている。測定対象物1の位置はそのほぼ中心の位置が設定されており、一方、各赤外カメラ2A〜2Cの位置としては図2に示す論理的焦点位置Faが設定される。図2において、符号24は赤外カメラ2A〜2Cの対物レンズ、符号25は撮像センサを示し、符号Fbは実際の焦点位置である。論理的焦点位置Faは対物レンズ24に入射する光Lの延長線上の交点である。したがって、赤外カメラ2A〜2Cの視線方向は図3(図は赤外カメラ2Aを例に示してある)に示すように、カメラ位置Faと測定対象物1の位置Pを結ぶ三次元直線ベクトルVで示される。なお、赤外カメラの設置台数は3台に限られるのものではない。 The three-dimensional positions of the measurement object 1 and the infrared cameras 2A to 2C are set in the personal computer 3 in advance. The position of the measurement object 1 is set to a position substantially at the center, while the logical focal position Fa shown in FIG. 2 is set as the position of each of the infrared cameras 2A to 2C. In FIG. 2, reference numeral 24 denotes an objective lens of the infrared cameras 2A to 2C, reference numeral 25 denotes an imaging sensor, and reference numeral Fb denotes an actual focal position. The logical focus position Fa is an intersection on the extension of the light L incident on the objective lens 24. Therefore, as shown in FIG. 3 (the figure shows the infrared camera 2A as an example), the line-of-sight direction of the infrared cameras 2A to 2C is a three-dimensional straight line vector connecting the camera position Fa and the position P of the measurement object 1 It is indicated by V. The number of infrared cameras installed is not limited to three.
以下、パソコン3で実行される処理プログラムの処理手順を図4、図6、図9のフローチャートを参照しつつ説明する。パソコン3のメモリ内には外部のデータベース等から上記測定対象物1のCADデータが取り込まれ(ステップ101)、CADデータから測定対象物1の三次元ワイヤフレーム画像が生成されて(ステップ102)モニタ31上に表示される(ステップ103)。ワイヤフレーム画像はモニタ31上で平行移動、縦回転、横回転、ズームイン、ズームアウトが可能である。上記ワイヤフレーム画像を構成するポリゴンは本実施形態では全て三角形としてあり、これらポリゴンは3次元空間内の3点を直線で結んだ三角形平面である。各ポリゴンには同形の三角形のテクスチャ画像がそれぞれソフト的に予め対応付けられている。すなわち、各テクスチャ画像は二次元のビットマップであり、ポリゴン面上の各点とテクスチャ画像上の各ピクセル(画素)が対応付けられている。 Hereinafter, the processing procedure of the processing program executed by the personal computer 3 will be described with reference to the flowcharts of FIG. 4, FIG. 6, and FIG. CAD data of the measurement object 1 is fetched from an external database or the like into the memory of the personal computer 3 (step 101), and a three-dimensional wireframe image of the measurement object 1 is generated from the CAD data (step 102) 31 is displayed (step 103). The wireframe image can be translated, vertically rotated, horizontally rotated, zoomed in, and zoomed out on the monitor 31. The polygons constituting the wire frame image are all triangles in the present embodiment, and these polygons are triangle planes connecting three points in a three-dimensional space by straight lines. Each polygon is associated with a texture image of an isomorphic triangle in advance in software. That is, each texture image is a two-dimensional bit map, and each point on the polygon surface is associated with each pixel (pixel) on the texture image.
各赤外カメラ2A〜2Cで三方向から撮影された測定対象物1の温度分布画像がパソコン3内に取り込まれる(ステップ104)。パソコン3内には温度とこれに対応する色を設定した温度カラーテーブルが予め準備されており、温度カラーテーブルを参照して上記温度分布画像から色分布画像(熱画像)6が作成される(ステップ105)。この色分布画像は、カメラ視線方向から見たカメラ広角に応じた四角形の二次元ビットマップである。 A temperature distribution image of the measurement object 1 taken from three directions by each of the infrared cameras 2A to 2C is taken into the personal computer 3 (step 104). A temperature color table in which a temperature and a color corresponding to the temperature are set is prepared in advance in the personal computer 3, and a color distribution image (thermal image) 6 is created from the temperature distribution image with reference to the temperature color table Step 105). This color distribution image is a rectangular two-dimensional bit map according to the camera wide angle viewed from the camera gaze direction.
上記色分布画像6はパソコン3のモニタ31上に表示される(ステップ106)。なお、この際、測定対象物1がライン上を搬送されている場合等には停止時に位置ずれを生じる場合がある。そこで、モニタ31の画面上に表示された色分布画像6が図5(1)に示すように位置ずれを生じている場合には、測定対象物1の位置ずれに応じて図5(2)に示すように、モニタ31上の予め定められた所定位置(本実施例では中央)へ色分布画像6が来るように位置ずれ補正を行う(ステップ107,108)。これは電子式手ぶれ補正の技術を使用して、図5(2)に示すように、表示画素をずらして不足領域を画像延長で補間しつつ(同図の斜線部)モニタ31の表示枠を移動させて色分布画像6がモニタ31上の所定位置に表示されるようにするものである。なお、色分布画像6が位置ずれを生じる原因は測定対象物1の停止時の位置ずれ以外に、測定対象物1が振動している場合等がある。また、位置ずれを補正する方法は上記以外にも、色分布画像6の移動量と移動方向をベクトルで求めて、その逆ベクトルによって色分布画像6を所定位置へ戻すようにしても良い。 The color distribution image 6 is displayed on the monitor 31 of the personal computer 3 (step 106). At this time, in the case where the measurement object 1 is conveyed on the line or the like, positional deviation may occur at the time of stop. Therefore, when the color distribution image 6 displayed on the screen of the monitor 31 is misaligned as shown in FIG. 5 (1), the misregistration shown in FIG. As shown in FIG. 5, positional deviation correction is performed so that the color distribution image 6 comes to a predetermined position (center in the present embodiment) on the monitor 31 (steps 107 and 108). As shown in FIG. 5 (2), this is a display frame of the monitor 31 while shifting display pixels and interpolating an insufficient area by image extension using the technique of electronic shake correction. The color distribution image 6 is moved to be displayed at a predetermined position on the monitor 31. In addition to the positional deviation at the time of stop of the measuring object 1, the color distribution image 6 may cause positional deviation, in addition to the case where the measuring object 1 vibrates. In addition to the method described above, the displacement amount and the displacement direction of the color distribution image 6 may be determined as vectors, and the color distribution image 6 may be returned to a predetermined position by the inverse vector.
この後、モニタ31上に表示されている三次元ワイヤフレーム画像を平行移動、回転、ズームイン、ズームアウト等させて、色分布画像6上における測定対象物1(以下、単に色分布画像という)の外形にワイヤフレーム画像4の外形を合致させる(ステップ109)。この際の外形合致操作(フィッティング)は、図6のステップ201〜204に示すように、色分布画像6上の複数(例えば4点以上)の特徴点(コーナ部等)と、ワイヤフレーム画像4上の同数の特徴点を手動で指定しておき、赤外カメラの画角やその配置から計算される分解能等のカメラパラメータを読みだして、これより求められた変形パラメータに基づいて上記各特徴点が一致するようにワイヤフレーム画像4を自動で平行移動、回転、ズームイン、ズームアウト等させるものである。 Thereafter, the three-dimensional wireframe image displayed on the monitor 31 is translated, rotated, zoomed in, zoomed out, etc., and the measurement object 1 on the color distribution image 6 (hereinafter simply referred to as a color distribution image) The outer shape of the wire frame image 4 is matched with the outer shape (step 109). At this time, as shown in steps 201 to 204 in FIG. 6, the outer shape matching operation (fitting) is performed by using a plurality of (for example, four or more) feature points (corner portions etc.) on the color distribution image 6 and the wire frame image 4 The same number of feature points above are specified manually, and camera parameters such as resolution calculated from the angle of view of the infrared camera and its arrangement are read out, and the above-mentioned features are calculated based on the deformation parameters obtained from this The wire frame image 4 is automatically translated, rotated, zoomed in, zoomed out, etc. so that the points coincide.
色分布画像6と三次元ワイヤフレーム画像4の外形合致操作を終えた状態を模式的に図7に示す。図7において、ワイヤフレーム画像4の表面は多数の二次元三角ポリゴン41で構成されている。なお、同図は理解を容易にするためにワイヤフレーム画像4の一つの面のポリゴン41のみを、その大きさを誇張して描いてある。符号5はポリゴン41の一つに対応するテクスチャ画像を示す。 A state in which the outline matching operation of the color distribution image 6 and the three-dimensional wire frame image 4 is finished is schematically shown in FIG. In FIG. 7, the surface of the wire frame image 4 is composed of a large number of two-dimensional triangular polygons 41. In the drawing, only the polygon 41 of one surface of the wire frame image 4 is drawn with the size thereof exaggerated for ease of understanding. Reference numeral 5 indicates a texture image corresponding to one of the polygons 41.
この状態で、赤外カメラ位置Faやワイヤフレーム画像4上の各位置を特定する三次元のオブジェクト座標系Coと、色分布画像6上の各位置を特定する二次元のビューポート座標系Cvがソフト(例えばOpenGL)的に関連付けられる(ステップ110)。したがって、カメラ位置Faと色分布画像6のピクセルの一つ61を指定すると、これに対応するワイヤフレーム画像4のポリゴン41上の点411が決まる。これを図7で模式的に説明すると、カメラ位置Faから色分布画像6上のピクセル61に至る視線の延長線がポリゴン41面に入射する点が上記点411となる。このように、色分布画像6上のピクセル61とポリゴン41面上の点411とは一対一に対応しており、既述のように、ポリゴン41面上の各点411とテクスチャ画像5上の各ピクセル51も対応付けられているから、結局、色分布画像6上の各ピクセル61とテクスチャ画像5上の各ピクセル51が対応している。この対応付けを例えば変換テーブルで予めパソコン3内に準備しておくと、演算が不要であるから処理を高速化することができる。 In this state, a three-dimensional object coordinate system Co specifying each position on the infrared camera position Fa or the wire frame image 4 and a two-dimensional viewport coordinate system Cv specifying each position on the color distribution image 6 Software (eg, OpenGL) is associated (step 110). Therefore, when the camera position Fa and one of the pixels 61 of the color distribution image 6 are designated, the point 411 on the polygon 41 of the wire frame image 4 corresponding to this is determined. This will be schematically described with reference to FIG. 7. A point at which the extension of the line of sight from the camera position Fa to the pixel 61 on the color distribution image 6 is incident on the surface of the polygon 41 is the point 411. As described above, the pixels 61 on the color distribution image 6 and the points 411 on the surface of the polygon 41 correspond one to one, and as described above, each point 411 on the surface of the polygon 41 and on the texture image 5 Since each pixel 51 is also associated, each pixel 61 on the color distribution image 6 eventually corresponds to each pixel 51 on the texture image 5. If this correspondence is prepared in advance in the personal computer 3 by using, for example, a conversion table, the processing can be speeded up because the calculation is unnecessary.
点411に対応するテクスチャ画像5のピクセル51は一又は複数ある。これは色分布画像6とテクスチャ画像5の二次元的な大きさの比較によって決定される。本実施形態では例えば図8に示すテクスチャ画像5の四角領域S内の複数ピクセル51が色分布画像6上の一つのピクセル61に対応しており、この四角領域Sに上記ピクセル61の色情報が与えられる。このようにして、色分布画像6の全てのピクセル61について、ワイヤフレーム画像4の各ポリゴン41上の点411に対応するテクスチャ画像5のピクセル51に色情報が与えられて(ステップ111)、ワイヤフレーム画像を構成する全てのポリゴンについてこれらに対応するテクスチャ画像が完成する(ステップ112)。以上の手順は、全ての赤外カメラ2A〜2Cで得られた温度分布画像から変換された各色分布画像6について行われる(ステップ113)。なお、色分布画像に変換することなく、温度分布画像の温度情報を直接各ピクセルに与えてテクスチャ画像を完成させるようにしても良い。 One or more pixels 51 of the texture image 5 corresponding to the point 411 are present. This is determined by comparing the two-dimensional sizes of the color distribution image 6 and the texture image 5. In the present embodiment, for example, a plurality of pixels 51 in the square area S of the texture image 5 shown in FIG. 8 correspond to one pixel 61 on the color distribution image 6, and color information of the pixel 61 in the square area S is Given. In this manner, for all the pixels 61 of the color distribution image 6, color information is given to the pixels 51 of the texture image 5 corresponding to the points 411 on the polygons 41 of the wire frame image 4 (step 111). A texture image corresponding to all of the polygons constituting the frame image is completed (step 112). The above procedure is performed for each color distribution image 6 converted from the temperature distribution images obtained by all the infrared cameras 2A to 2C (step 113). Note that the temperature information of the temperature distribution image may be directly given to each pixel to complete the texture image without converting the color distribution image.
測定対象物1の表面温度分布を表示する場合には、図9に示すように、モニタ31上に測定対象物1の三次元ワイヤフレーム画像4を表示し(ステップ301)、その各ポリゴン41に、これに対応する完成したテクスチャ画像5を貼り付ける(テクスチャマッピング、ステップ302)。これにより、測定対象物1の表面温度分布が三次元的に表示される。 When displaying the surface temperature distribution of the measurement object 1, as shown in FIG. 9, the three-dimensional wire frame image 4 of the measurement object 1 is displayed on the monitor 31 (step 301). Paste the completed texture image 5 corresponding to this (texture mapping, step 302). Thereby, the surface temperature distribution of the measurement object 1 is three-dimensionally displayed.
ここで、図10には測定対象物1たる車両部品についてその温度分布を三次元表示したものを示す。一方、図14には同一車両部品についてその温度分布を従来の二次元表示したものを示す。表面温度分布を三次元表示したものでは、奥行きのある実際の分布状態が正確に示されるから温度分布状況を的確に把握することができる。この際、視点に応じて画面内の測定対象物1の姿勢を変化させると、ポリゴンに貼り付けられたテクスチャ画像も一体に移動するから、視点を変えて温度分布状況を詳細に検討することができる。 Here, FIG. 10 shows a three-dimensional display of the temperature distribution of the vehicle component which is the measurement object 1. On the other hand, FIG. 14 shows a conventional two-dimensional display of the temperature distribution of the same vehicle component. In the three-dimensional display of the surface temperature distribution, since the actual distribution state with depth is accurately indicated, the temperature distribution state can be accurately grasped. At this time, if the posture of the measurement object 1 in the screen is changed according to the viewpoint, the texture image attached to the polygon is also moved integrally, so it is necessary to change the viewpoint and examine the temperature distribution situation in detail. it can.
なお、測定対象物の表面温度分布を表示する際の、パソコン3におけるテクスチャマッピングされるポリゴンの選択は以下のように行う。すなわち、図11に示すように、ワイヤフレーム画像を構成するポリゴンの一つ41Aを選択してこれを対象ポリゴンとし、オブジェクト座標系Coにおける対象ポリゴン41Aの中心412の座標を算出する。この中心412の座標を、ビューポート座標系Cvの色分布画像6上の点62の座標に変換し、カメラ位置Faから上記点62に至る視線の延長線上に他のポリゴン41B,41Cが存在するか否か判定する。そして、対象ポリゴン41Aがカメラ位置Faに一番近い場合のみ当該対象ポリゴン41Aに対するテクスチャマッピングを可能にする。このような判定が全てのポリゴンに対して行なわれる。 The selection of polygons to be texture-mapped in the personal computer 3 when displaying the surface temperature distribution of the measurement object is performed as follows. That is, as shown in FIG. 11, one of the polygons 41A constituting the wireframe image is selected as the target polygon, and the coordinates of the center 412 of the target polygon 41A in the object coordinate system Co are calculated. The coordinates of the center 412 are converted to the coordinates of the point 62 on the color distribution image 6 of the viewport coordinate system Cv, and other polygons 41B and 41C exist on the extension of the line of sight from the camera position Fa to the point 62. It is determined whether or not. Then, texture mapping on the target polygon 41A is enabled only when the target polygon 41A is closest to the camera position Fa. Such determination is performed on all polygons.
ところで、赤外カメラ2A〜2Cの死角となって測定対象物1の一部の温度分布画像が得られない場合がある。この場合には、温度分布画像が得られていない三次元ワイヤフレーム画像4部分(図12の白抜き部分)を構成する各ポリゴン41yに対しては、完成した二次元テクスチャ画像5(図7参照)が貼り付けられたその周囲のポリゴン41xの温度情報から新たな温度情報を算出して上記ワイヤフレーム画像4を完成させる。 By the way, there is a case where a temperature distribution image of a part of the measurement object 1 can not be obtained due to a blind spot of the infrared cameras 2A to 2C. In this case, the completed two-dimensional texture image 5 (see FIG. 7) is obtained for each polygon 41y constituting the three-dimensional wireframe image 4 portion (the white portion in FIG. 12) where the temperature distribution image is not obtained. New wire information is calculated from the temperature information of the polygon 41x around which is attached and the wire frame image 4 is completed.
図12に示すワイヤフレーム画像では温度分布画像が得られていない部分を構成するポリゴンが複数あるが、そのうちの一つのポリゴン41yについて、具体的に温度情報の算出方法を説明すると、図13に示すように、三角形のポリゴン41yに隣接する三角形のポリゴン41xの中心の温度情報t1から、熱伝導率を考慮して下式(1)で算出される温度情報t2を各画素に付与した二次元テクスチャ画像5を作成して、これを上記ポリゴン41yに貼りつける。
t2=t1{1−(d2・c1)/(d1・c2)}…(1)
ここで、c1はポリゴン41xについて予め定めた熱伝導率、c2はポリゴン41yについて予め定めた熱伝導率、d1はポリゴン41xの中心(重心)からポリゴン41yとの境界までの距離、d2はポリゴン41yの中心からポリゴン41xとの境界までの距離である。なお、ポリゴン41yに隣接するポリゴン41xが複数ある場合(図13に示す例では二つ)には、各ポリゴン41xについて上式(1)より得られる温度情報t2を算出し、これら温度情報t2を平均した値をポリゴン41yの温度情報として採用する。
In the wire frame image shown in FIG. 12, there are a plurality of polygons constituting a portion from which the temperature distribution image is not obtained, but the temperature information calculation method will be specifically described for one of the polygons 41y. Thus, from the temperature information t1 of the center of the triangular polygon 41x adjacent to the triangular polygon 41y, a two-dimensional texture in which the temperature information t2 calculated by the following equation (1) is given to each pixel in consideration of the thermal conductivity. An image 5 is created and attached to the polygon 41y.
t2 = t1 {1- (d2 · c1) / (d1 · c2)} (1)
Here, c1 is the thermal conductivity predetermined for the polygon 41x, c2 is the thermal conductivity predetermined for the polygon 41y, d1 is the distance from the center (center of gravity) of the polygon 41x to the boundary with the polygon 41y, d2 is the polygon 41y The distance from the center of the to the boundary with the polygon 41x. When there are a plurality of polygons 41x adjacent to the polygon 41y (two in the example shown in FIG. 13), the temperature information t2 obtained from the above equation (1) is calculated for each polygon 41x, and these temperature information t2 are calculated. The averaged value is adopted as temperature information of the polygon 41y.
1…測定対象物、2A,2B,2C…赤外カメラ(温度測定手段)、3…パソコン、4…ワイヤフレーム画像、41…ポリゴン、5…テクスチャ画像、51…ピクセル(画素)、6…色分布画像(温度分布画像)、61…ピクセル(画素)。 DESCRIPTION OF SYMBOLS 1 ... measurement object, 2A, 2B, 2C ... infrared camera (temperature measurement means), 3 ... personal computer, 4 ... wireframe image, 41 ... polygon, 5 ... texture image, 51 ... pixel (pixel), 6 ... color Distribution image (temperature distribution image), 61 ... pixel (pixel).
Claims (3)
前記測定対象物の二次元温度分布画像を遠隔的に取得する温度測定手段と、
前記温度測定手段の設置点から見た前記三次元ワイヤフレーム画像に前記二次元温度分布画像を重ねて表示する重ね表示手段と、
重ね表示された状態での前記二次元温度分布画像の各画素と前記三次元ワイヤフレーム画像を構成する各ポリゴンに対応付けられた二次元テクスチャ画像の各画素との対応関係を確定する対応関係確定手段と、
前記二次元温度分布画像の各画素における温度情報を前記二次元テクスチャ画像の各画素に付与して当該テクスチャ画像を完成する画像完成手段と、
完成した前記二次元テクスチャ画像を、これに対応する前記ポリゴンに貼り付ける貼付け手段とを具備し、
前記貼付け手段は、前記三次元ワイヤフレーム画像のうち、重ね表示される前記二次元温度分布画像が得られていない画像部分を構成する各ポリゴンに対して、その周囲の、完成した二次元テクスチャ画像が貼り付けられたポリゴンの温度情報から熱伝導率を考慮して算出された温度情報を各画素に付与した二次元テクスチャ画像を貼りつけるものである三次元温度分布表示装置。 An image generation means for generating a three-dimensional wireframe image of a measurement object from CAD data;
Temperature measurement means for remotely acquiring a two-dimensional temperature distribution image of the measurement object;
Overlay display means for overlaying the two-dimensional temperature distribution image on the three-dimensional wireframe image viewed from the installation point of the temperature measurement means;
Determination of correspondence between each pixel of the two-dimensional temperature distribution image in the superimposed display state and each pixel of the two-dimensional texture image associated with each polygon constituting the three-dimensional wireframe image Means,
An image completion means for giving temperature information at each pixel of the two-dimensional temperature distribution image to each pixel of the two-dimensional texture image to complete the texture image;
And attaching means for attaching the completed two-dimensional texture image to the corresponding polygon;
The pasting means is a completed two-dimensional texture image around each of polygons constituting an image portion of the three-dimensional wireframe image for which the two-dimensional temperature distribution image to be displayed is not obtained. A three-dimensional temperature distribution display device for pasting a two-dimensional texture image in which each pixel is given temperature information calculated in consideration of thermal conductivity from temperature information of a polygon to which is attached.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015160736A JP6545033B2 (en) | 2015-08-18 | 2015-08-18 | Three-dimensional temperature distribution display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015160736A JP6545033B2 (en) | 2015-08-18 | 2015-08-18 | Three-dimensional temperature distribution display |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017040488A JP2017040488A (en) | 2017-02-23 |
JP6545033B2 true JP6545033B2 (en) | 2019-07-17 |
Family
ID=58203344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015160736A Active JP6545033B2 (en) | 2015-08-18 | 2015-08-18 | Three-dimensional temperature distribution display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6545033B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109470366A (en) * | 2018-11-08 | 2019-03-15 | 哈尔滨工业大学 | A kind of thermal comfort evaluation system based on three-dimensional radiation environment |
CN112556857B (en) * | 2020-11-26 | 2022-08-16 | 浙江大华技术股份有限公司 | Object temperature determination method and device, storage medium and electronic device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10187769A (en) * | 1996-12-26 | 1998-07-21 | Tokyo Gas Co Ltd | Device and method for evaluating high-temperature durability |
JP4471415B2 (en) * | 1999-05-12 | 2010-06-02 | 株式会社アイ・エイチ・アイ マリンユナイテッド | Evaluation method for bending shape of metal plate by linear heating |
JP2005265473A (en) * | 2004-03-16 | 2005-09-29 | Toshiba Corp | Heat distribution measuring device |
JP2007051922A (en) * | 2005-08-18 | 2007-03-01 | Calsonic Kansei Corp | Face detector |
JP5300645B2 (en) * | 2009-07-31 | 2013-09-25 | トヨタ自動車株式会社 | Three-dimensional temperature distribution display device, texture creation device, and three-dimensional temperature distribution display method |
-
2015
- 2015-08-18 JP JP2015160736A patent/JP6545033B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017040488A (en) | 2017-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
JP7011711B2 (en) | Systems and methods for extrinsic calibration of cameras and diffractive optics | |
JP4492654B2 (en) | 3D measuring method and 3D measuring apparatus | |
JP5257335B2 (en) | Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor | |
JP2017118396A (en) | Program, device and method for calculating internal parameter of depth camera | |
JP2017182695A (en) | Information processing program, information processing method, and information processing apparatus | |
JP2000163590A (en) | Conversion device and method for three-dimensional model | |
JP2000350239A (en) | Camera.calibration device and method, image processing unit and method, program serving medium and camera | |
JP2011182236A (en) | Camera calibration apparatus | |
JP6594170B2 (en) | Image processing apparatus, image processing method, image projection system, and program | |
TWI599987B (en) | System and method for combining point clouds | |
JP5487946B2 (en) | Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus | |
JP6545033B2 (en) | Three-dimensional temperature distribution display | |
JP6634842B2 (en) | Information processing apparatus, information processing method and program | |
JP4581512B2 (en) | Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method | |
JP7298687B2 (en) | Object recognition device and object recognition method | |
JP7225109B2 (en) | Work support system and work support method | |
TWI662694B (en) | 3d image capture method and system | |
JP2005174151A (en) | Three-dimensional image display device and method | |
JP4548228B2 (en) | Image data creation method | |
JP2013231607A (en) | Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program | |
JP5300645B2 (en) | Three-dimensional temperature distribution display device, texture creation device, and three-dimensional temperature distribution display method | |
JP2001184526A (en) | Plane generating method three-dimensional shape data | |
JP2005275789A (en) | Three-dimensional structure extraction method | |
JP4409924B2 (en) | Three-dimensional image display apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190618 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6545033 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |