JP2006010312A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2006010312A
JP2006010312A JP2004183141A JP2004183141A JP2006010312A JP 2006010312 A JP2006010312 A JP 2006010312A JP 2004183141 A JP2004183141 A JP 2004183141A JP 2004183141 A JP2004183141 A JP 2004183141A JP 2006010312 A JP2006010312 A JP 2006010312A
Authority
JP
Japan
Prior art keywords
image data
display
visible
imaging
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004183141A
Other languages
Japanese (ja)
Inventor
Takahiro Nagano
隆洋 長野
Daisuke Sato
大輔 佐藤
Takahito Komiyama
貴仁 込山
Osamu Kudo
修 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Constec Engi Co
Original Assignee
Constec Engi Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Constec Engi Co filed Critical Constec Engi Co
Priority to JP2004183141A priority Critical patent/JP2006010312A/en
Publication of JP2006010312A publication Critical patent/JP2006010312A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device of the stand-alone type with a measurement function for performing measurement in a non-contacting manner on the spot without requiring marker, etc. and dispensing with a high-performance personal computer for analysis. <P>SOLUTION: This imaging device 10 is equipped with at least two digital cameras 11<SB>1</SB>and 11<SB>2</SB>, an image processing part 52 for performing image processing of various kinds on visible image data obtained by the digital cameras 11<SB>1</SB>and 11<SB>2</SB>, and a main control part 54 for causing a display part 12 to display at least image data. The processing part 52 performs image analysis for acquiring two-dimensional information by approximately taking an imaging object as an aggregate of planes based on visible image data of at least two sheets obtained by the digital cameras 11<SB>1</SB>and 11<SB>2</SB>. The control part 54 causes the display part 12 to display size value data between arbitrary two points on the visible image data calculated by the processing part 52. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像データを撮像する撮像装置に関し、特に、ビルや橋梁等の構造物における任意の箇所の寸法や面積を計測したり、コンクリートやモルタルの浮き上がりやひび割れ等の欠陥を診断したりする際に用いて好適な撮像装置に関する。   The present invention relates to an imaging device that captures image data, and in particular, measures the size and area of an arbitrary location in a structure such as a building or a bridge, or diagnoses defects such as concrete or mortar lifting or cracking. The present invention relates to an imaging apparatus suitable for use.

近年、トンネルや高架橋といったコンクリート構造物のコンクリートが劣化してその一部が剥落する事故が発生し、問題となっている。また、原子力発電システムにおける冷却用配管等の腐食やひび割れによる事故も発生している。これにともない、構造物の健全度を的確に検査し得る非破壊検査方法の確立が求められている。かかる非破壊検査方法としては、ディジタルスチルカメラを用いるディジタル画像計測法が知られている。   In recent years, there has been an accident in which concrete of a concrete structure such as a tunnel or a viaduct deteriorates and a part of the concrete is peeled off. In addition, accidents due to corrosion or cracking of cooling pipes in nuclear power generation systems have occurred. In connection with this, establishment of the nondestructive inspection method which can test | inspect the soundness of a structure exactly is calculated | required. As such a nondestructive inspection method, a digital image measurement method using a digital still camera is known.

かかるディジタル画像計測法は、可視領域の光によるコンクリート表面の画像に基づいて欠陥の有無や程度を把握する方法である。このディジタル画像計測法によれば、コンクリート、モルタル、タイル等のひび割れや、表面の欠損を発見することが可能である。このようなディジタル画像計測法は、測定の際の安全性、取り扱いの簡便性、処理の高速性の観点で優れたものであり、近年急速に普及しつつある。かかるディジタル画像計測法を用いた構造物の欠陥を検出する技術としては、例えば特許文献1及び特許文献2並びに非特許文献1等が提案されている。   Such a digital image measurement method is a method of grasping the presence or absence and degree of defects based on an image of a concrete surface by light in a visible region. According to this digital image measurement method, it is possible to find cracks in concrete, mortar, tiles, etc. and surface defects. Such a digital image measurement method is excellent in terms of safety during measurement, ease of handling, and high-speed processing, and has been rapidly spreading in recent years. For example, Patent Document 1, Patent Document 2, and Non-Patent Document 1 have been proposed as techniques for detecting defects in a structure using such a digital image measurement method.

特開2001−133225号公報JP 2001-133225 A 特開2003−57188号公報JP 2003-57188 A 株式会社システムハウス福知山、"実測くん"、[online]、[平成16年6月2日検索]、インターネット<URL:http://www.shfweb.com/products/jisoku/>System House Fukuchiyama Co., Ltd., “Measurement-kun”, [online], [Search June 2, 2004], Internet <URL: http://www.shfweb.com/products/jisoku/>

具体的には、特許文献1には、被計測対象物をディジタルカメラで撮像し、撮像によって得られた撮像画像データと、ディジタルカメラの画素の大きさとに基づいて、被計測対象物の寸法、形状を計測する方法が開示されている。特に、この方法は、撮像データから計測点を抽出し、抽出した計測点の座標値に歪曲収差補正を施し、得られた計測点の補正値に基づいて、計測対象物の形状、寸法を計測するものである。これにより、この方法においては、歪曲収差補正を施した補正座標値を用いて経時的な変位量を求めることができ、高精度の計測が可能となるとしている。   Specifically, in Patent Document 1, an object to be measured is imaged with a digital camera, and the size of the object to be measured is determined based on the captured image data obtained by the imaging and the pixel size of the digital camera. A method for measuring a shape is disclosed. In particular, this method extracts measurement points from imaging data, applies distortion correction to the coordinate values of the extracted measurement points, and measures the shape and dimensions of the measurement object based on the obtained measurement point correction values. To do. Thus, in this method, the displacement amount with time can be obtained by using the corrected coordinate value subjected to distortion aberration correction, and high-precision measurement is possible.

また、特許文献2には、現存する人工建造物の少なくとも1つの画像を撮像し、その人工建造物における1以上の欠陥の存在を検出する方法が開示されている。特に、この欠陥検出方法は、(a)現存する人工建造物の表面又は内部に、検出可能な材料を、その一部が人工建造物の1以上の欠陥に存在するように提供する提供ステップと、(b)画像センサによって人工建造物の少なくとも1つのディジタル画像を撮像する撮像ステップと、(c)撮像された1以上のディジタル画像を処理して、人工建造物の視覚画像を提供し、人工建造物における1以上の欠陥の存在を判断する処理ステップとからなり、画像センサは、人工建造物の少なくとも1つの画像を撮像し、1以上の欠陥における検出可能な材料の存在の有無により、1以上の欠陥を識別するものである。これにより、この欠陥検出方法においては、現存の人工建造物に欠陥があるかどうかを適切に判断することができるとしている。   Patent Document 2 discloses a method of capturing at least one image of an existing artificial building and detecting the presence of one or more defects in the artificial building. In particular, the defect detection method includes (a) providing a detectable material on or in an existing man-made structure such that a portion thereof is present in one or more defects of the man-made structure; (B) an imaging step of capturing at least one digital image of the artificial building with an image sensor; and (c) processing the one or more captured digital images to provide a visual image of the artificial building; A processing step for determining the presence of one or more defects in the building, wherein the image sensor captures at least one image of the artificial building and determines the presence or absence of a detectable material in the one or more defects. The above defects are identified. Thereby, in this defect detection method, it is supposed that it can be judged appropriately whether the existing artificial building has a defect.

さらに、非特許文献1には、ディジタルカメラで撮像した構造物の画像について、撮像対象の既知の一部のサイズと、その部分の画像サイズ・投影形状(基準矩形)との比率から基準矩形画の任意の区間の距離を算出するパッケージソフトウェアが開示されている。   Further, Non-Patent Document 1 discloses a reference rectangular image of a structure image captured by a digital camera based on a ratio between a known partial size of an imaging target and an image size / projection shape (reference rectangular shape) of the portion. The package software which calculates the distance of arbitrary sections is disclosed.

しかしながら、従来のディジタル画像計測法は、以下のような問題があった。   However, the conventional digital image measurement method has the following problems.

まず、従来のディジタル画像計測法においては、解析に1枚のディジタル画像を利用する場合には、当該ディジタル画像内に寸法が既知である物体(マーカ)が撮像されている必要があることから、撮像対象にマーカとなる物体を設置する煩わしさがある上、そのデータを解析するためには、高性能のパーソナルコンピュータとソフトウェアを必要とするという問題があった。   First, in the conventional digital image measurement method, when one digital image is used for analysis, an object (marker) having a known dimension needs to be imaged in the digital image. There is a problem that it is troublesome to install an object as a marker on the imaging target, and a high-performance personal computer and software are required to analyze the data.

また、従来のディジタル画像計測法においては、解析に2枚のディジタル画像を利用する場合には、当該ディジタル画像内に上述したマーカとなる物体が撮像されている必要がある上、そのデータを解析するためには、より高性能のパーソナルコンピュータとソフトウェアを必要とするという問題があった。   Also, in the conventional digital image measurement method, when two digital images are used for analysis, it is necessary to capture the above-described marker object in the digital image and analyze the data. In order to do so, there was a problem that a higher-performance personal computer and software were required.

さらに、従来のディジタル画像計測法においては、現場で欠陥部の有無を検出することができたとしても、その大きさといった計測値を即座に得ることができないという問題があった。   Further, in the conventional digital image measurement method, there is a problem that even if the presence or absence of a defective portion can be detected in the field, a measurement value such as its size cannot be obtained immediately.

さらにまた、従来のディジタル画像計測法においては、上述したように、マーカとなる物体を設置する必要があることから、撮像対象が限定されたり、マーカを設置できない現場では利用することができないという問題があった。   Furthermore, in the conventional digital image measurement method, as described above, since it is necessary to install an object to be a marker, there is a problem that the imaging target is limited or cannot be used in the field where the marker cannot be installed. was there.

本発明は、このような実情に鑑みてなされたものであり、マーカ等を必要とせずに非接触且つ現場計測可能であり、また、解析するために高性能のパーソナルコンピュータを必要としない撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and is capable of non-contact and on-site measurement without requiring a marker or the like, and does not require a high-performance personal computer for analysis. The purpose is to provide.

上述した目的を達成する本発明にかかる撮像装置は、画像データを撮像する撮像装置であって、互いに異なる視点から撮像対象物の可視画像データを撮像する少なくとも2つのディジタルカメラと、上記ディジタルカメラのそれぞれによって撮像された可視画像データに対して各種画像処理を施す画像処理手段と、少なくとも画像データを含む各種情報を表示する表示手段と、少なくとも画像データを上記表示手段に表示させる制御手段とを備え、上記画像処理手段は、上記撮像対象物を平面の集合体であるものと近似し、各平面内の当該撮像対象物の2次元情報を取得する画像解析を、上記少なくとも2つのディジタルカメラのそれぞれによって撮像された少なくとも2枚の可視画像データに基づいて行い、当該可視画像データ上で指定された任意の2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出し、上記制御手段は、上記画像処理手段によって2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出した結果を示す寸法値データ及び/又は面積値データを上記表示手段に表示させることを特徴としている。   An imaging apparatus according to the present invention that achieves the above-described object is an imaging apparatus that captures image data, and includes at least two digital cameras that capture visible image data of an imaging target from different viewpoints, and the digital camera. Image processing means for performing various image processing on visible image data captured by each, display means for displaying various information including at least image data, and control means for displaying at least image data on the display means The image processing means approximates the imaging object to be an aggregate of planes, and performs image analysis for obtaining two-dimensional information of the imaging object in each plane for each of the at least two digital cameras. Is performed based on at least two pieces of visible image data captured by the The size between any two points and / or the area of the region defined by at least three points is calculated, and the control means is defined by the image processing means at the two points and / or at least three points. Dimension value data and / or area value data indicating the result of calculating the area of the region is displayed on the display means.

このような本発明にかかる撮像装置は、撮像対象物を平面の集合体であるものと近似し、各平面内の当該撮像対象物の2次元情報を取得する画像解析を、少なくとも2つのディジタルカメラのそれぞれによって撮像された少なくとも2枚の可視画像データに基づいて行い、当該可視画像データ上で指定された任意の2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出し、算出結果としての寸法値データを表示手段に表示する。これにより、本発明にかかる撮像装置においては、固定された2つのディジタルカメラを用いた場合における奥行方向の計測値の精度低下の問題を解消することができ、マーカや高性能のパーソナルコンピュータ等を一切必要とせずに、現場において寸法を非接触で計測することができるスタンドアローン型の装置として構成することができる。   Such an imaging apparatus according to the present invention approximates an imaging object to be an assembly of planes, and performs image analysis for obtaining two-dimensional information of the imaging object in each plane, using at least two digital cameras. Is performed based on at least two pieces of visible image data captured by each of the above, and calculates the size between any two points specified on the visible image data and / or the area of the region defined by at least three points. Then, the dimension value data as the calculation result is displayed on the display means. As a result, in the imaging apparatus according to the present invention, the problem of deterioration in accuracy of the measurement value in the depth direction when two fixed digital cameras are used can be solved. It can be configured as a stand-alone type device that can measure dimensions in a non-contact manner at the site without any need.

このような画像解析を実現するために、上記少なくとも2つのディジタルカメラは、その内部標定要素がそれぞれ既知量であるとともに、その外部標定要素の相対差が固定とされる。これにより、本発明にかかる撮像装置においては、画像解析における未知数及び方程式の個数を大幅に削減することができ、当該画像解析を行うために要求される計算能力を飛躍的に低減することができる。したがって、本発明にかかる撮像装置においては、組み込み式のプロセッサによって十分解析を行うことが可能となる。この場合、上記平面の状況は、12個の未知数と、これら12個の未知数に関する12個の非線形方程式とによって記述することができる。したがって、上記画像処理手段は、上記12個の非線形連立方程式を解くことによって上記平面の状況を算出することができる。実際には、上記画像処理手段は、上記非線形方程式を近似値の近傍で線形近似し、初期値を仮定して補正値を求め、この補正値を再度方程式に代入して補正値を修正する計算を繰り返し行う。   In order to realize such image analysis, the at least two digital cameras have their internal orientation elements each having a known amount, and the relative difference between the external orientation elements is fixed. As a result, in the imaging apparatus according to the present invention, the number of unknowns and equations in image analysis can be greatly reduced, and the computational capability required to perform the image analysis can be dramatically reduced. . Therefore, in the imaging apparatus according to the present invention, the analysis can be sufficiently performed by the built-in processor. In this case, the situation of the plane can be described by 12 unknowns and 12 nonlinear equations related to these 12 unknowns. Therefore, the image processing means can calculate the state of the plane by solving the twelve nonlinear simultaneous equations. In practice, the image processing means linearly approximates the nonlinear equation in the vicinity of the approximate value, obtains a correction value assuming an initial value, and substitutes the correction value into the equation again to correct the correction value. Repeat.

ここで、本発明にかかる撮像装置においては、可視画像データ上で指定された任意の2点間の寸法及び/又は少なくとも3点で規定された領域の面積を算出するために、具体的には以下のような各種画像データを表示手段に表示させて一連の処理を行う。   Here, in the imaging apparatus according to the present invention, in order to calculate the size between any two points specified on the visible image data and / or the area of the region defined by at least three points, specifically, A series of processing is performed by displaying various image data as follows on the display means.

まず、上記制御手段は、撮像対象を確定するために、上記可視画像データを上記ディジタルカメラの視野の移動に追随するように上記表示手段に表示させ、上記画像処理手段は、撮像対象が確定されると、上記可視画像データを取り込む。   First, the control means displays the visible image data on the display means so as to follow the movement of the visual field of the digital camera in order to determine the imaging target, and the image processing means determines the imaging target. Then, the visible image data is captured.

続いて、上記画像処理手段は、上記少なくとも2つのディジタルカメラによって撮像された可視画像データ上において平面近似を行って計測値を求める領域である計測領域を指定させるための画像データを生成し、上記制御手段は、上記画像処理手段によって生成された計測領域を指定させるための画像データを上記表示手段に表示させる。   Subsequently, the image processing means generates image data for designating a measurement area that is an area for obtaining a measurement value by performing planar approximation on the visible image data captured by the at least two digital cameras, The control means causes the display means to display image data for designating the measurement region generated by the image processing means.

また、本発明にかかる撮像装置は、上記表示手段に表示された上記計測領域を指定させるための画像データ上において平面近似を行う計測領域を指定する領域指定手段を備えており、上記画像処理手段は、上記領域指定手段によって計測領域が指定されると、当該画像データ上の特徴点を自動的に抽出する、又は特徴点が指定される。   The imaging apparatus according to the present invention further includes an area designating unit that designates a measurement area for performing plane approximation on image data for designating the measurement area displayed on the display unit, and the image processing unit. When a measurement region is designated by the region designation means, feature points on the image data are automatically extracted or feature points are designated.

そして、上記画像処理手段は、上記計測領域を指定させるための画像データ上において指定された計測領域内で寸法及び/又は面積を求める計測点を指定させるための画像データを生成し、上記制御手段は、上記画像処理手段によって生成された計測点を指定させるための画像データを上記表示手段に表示させる。   The image processing means generates image data for designating measurement points for obtaining a size and / or area in the designated measurement area on the image data for designating the measurement area, and the control means Causes the display means to display image data for designating the measurement points generated by the image processing means.

さらに、本発明にかかる撮像装置は、上記表示手段に表示された上記計測点を指定させるための画像データ上において計測点を指定する計測点指定手段を備えており、上記画像処理手段は、上記計測点指定手段によって2点の計測点が指定されると、当該2点の座標値を表す4個の未知数に関する4個の非線形方程式を解くことによって求めた2点の計測点座標に基づいて、当該2点間の寸法を算出する。   Furthermore, the imaging apparatus according to the present invention includes a measurement point designating unit that designates a measurement point on image data for designating the measurement point displayed on the display unit, and the image processing unit includes the above-described image processing unit. When two measurement points are designated by the measurement point designating means, based on the two measurement point coordinates obtained by solving the four nonlinear equations relating to the four unknowns representing the coordinate values of the two points, The dimension between the two points is calculated.

そして、上記画像処理手段は、2点間の寸法を算出した結果を示す寸法値データを上記可視画像データに重畳した計測結果としての画像データを生成し、上記制御手段は、上記画像処理手段によって生成された計測結果としての画像データを上記表示手段に表示させる。   Then, the image processing means generates image data as a measurement result obtained by superimposing the dimension value data indicating the result of calculating the dimension between two points on the visible image data, and the control means is controlled by the image processing means. The generated image data as the measurement result is displayed on the display means.

一方、本発明にかかる撮像装置において、少なくとも3点で規定された領域の面積を算出する場合には、上記画像処理手段は、上記計測点指定手段によって少なくとも3点の計測点が指定されると、当該少なくとも3点の座標値を表す複数個の未知数に関する複数個の非線形方程式を解くことによって求めた少なくとも3点の計測点座標に基づいて、当該少なくとも3点で規定された領域の面積を算出する。   On the other hand, in the imaging apparatus according to the present invention, when the area of the region defined by at least three points is calculated, the image processing means may designate at least three measurement points by the measurement point designating means. Based on at least three measurement point coordinates obtained by solving a plurality of nonlinear equations relating to a plurality of unknowns representing the coordinate values of at least three points, the area of the region defined by the at least three points is calculated. To do.

そして、上記画像処理手段は、少なくとも3点で規定された領域の面積を算出した結果を示す面積値データを上記可視画像データに重畳した計測結果としての画像データを生成し、上記制御手段は、上記画像処理手段によって生成された計測結果としての画像データを上記表示手段に表示させる。   The image processing means generates image data as a measurement result obtained by superimposing area value data indicating the result of calculating the area of the region defined by at least three points on the visible image data, and the control means includes: Image data as a measurement result generated by the image processing means is displayed on the display means.

なお、本発明にかかる撮像装置は、当該撮像装置に対して着脱自在とされて少なくとも上記可視画像データを記憶する記憶媒体に対するデータの読み出し及び/又は書き込みを制御する記憶媒体制御手段を備え、上記制御手段は、上記記憶媒体制御手段を制御して上記記憶媒体に対して上記可視画像データを記憶させることができる。   The image pickup apparatus according to the present invention includes a storage medium control unit that is detachable from the image pickup apparatus and controls reading and / or writing of data with respect to at least the storage medium that stores the visible image data. The control means can control the storage medium control means to store the visible image data in the storage medium.

また、上記制御手段は、上記記憶媒体制御手段を制御して上記記憶媒体に対して上記画像処理手段によって2点間の寸法を算出した結果を示す寸法値データ、及び/又は少なくとも3点で規定された領域の面積を算出した結果を示す面積値データを記憶させることもできる。このとき、上記制御手段は、上記可視画像データの生成に関する情報をヘッダとして、当該可視画像データ、並びに当該可視画像データに対する上記ディジタルカメラの位置及び回転に関するデータを対応付けて、上記記憶媒体に対して当該可視画像データ単位で記憶させるようにしてもよい。これにより、本発明にかかる撮像装置においては、膨大数の可視画像データを撮像した場合であっても、極めて容易な管理体系を構築することが可能となる。   Further, the control means controls the storage medium control means, and is defined by dimension value data indicating a result of calculating a dimension between two points by the image processing means for the storage medium and / or at least three points. It is also possible to store area value data indicating the result of calculating the area of the determined region. At this time, the control means uses the information relating to the generation of the visible image data as a header, associates the visible image data, and data relating to the position and rotation of the digital camera with respect to the visible image data, with respect to the storage medium. Then, it may be stored in units of the visible image data. Thereby, in the imaging device according to the present invention, it is possible to construct an extremely easy management system even when a large amount of visible image data is captured.

さらに、本発明にかかる撮像装置において、上記制御手段は、上記記憶媒体に記憶されている画像データを読み出し、これら画像データの一覧をサムネイル表示として上記表示手段に表示させることもでき、上記表示手段にサムネイル表示された一覧の中から選択された所望の画像データを上記記憶媒体から読み出して上記表示手段に表示させることもできる。   Furthermore, in the imaging apparatus according to the present invention, the control means can read out the image data stored in the storage medium, and can display a list of these image data on the display means as a thumbnail display. The desired image data selected from the list displayed as thumbnails can be read from the storage medium and displayed on the display means.

なお、本発明にかかる撮像装置は、上記撮像対象物としての構造物における欠陥の診断に用いて極めて好適である。   Note that the imaging apparatus according to the present invention is extremely suitable for use in diagnosing defects in the structure as the imaging object.

また、上述した目的を達成する本発明にかかる撮像装置は、画像データを撮像する撮像装置であって、互いに異なる視点から撮像対象物の可視画像データを撮像する少なくとも2つのディジタルカメラと、上記撮像対象物の熱画像データを撮像する赤外線カメラと、上記ディジタルカメラのそれぞれによって撮像された可視画像データと上記赤外線カメラによって撮像された熱画像データとに対して各種画像処理を施す画像処理手段と、少なくとも画像データを含む各種情報を表示する表示手段と、少なくとも画像データを上記表示手段に表示させる制御手段とを備え、上記画像処理手段は、上記撮像対象物を平面の集合体であるものと近似し、各平面内の当該撮像対象物の2次元情報を取得する画像解析を、上記少なくとも2つのディジタルカメラのそれぞれによって撮像された少なくとも2枚の可視画像データに基づいて行い、当該可視画像データ上で指定された任意の2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出するとともに、少なくとも、上記熱画像データと上記可視画像データとを重畳して融合させた熱可視融合画像データ、及び/又は上記熱画像データから任意の温度範囲のデータのみを抽出した抽出表示画像データを生成し、上記制御手段は、上記画像処理手段によって2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出した結果を示す寸法値データ及び/又は面積値データを上記表示手段に表示させるとともに、上記画像処理手段によって生成された上記熱可視融合画像データ及び/又は上記抽出表示画像データを上記表示手段に表示させることを特徴としている。   An imaging apparatus according to the present invention that achieves the above-described object is an imaging apparatus that captures image data, and includes at least two digital cameras that capture visible image data of an imaging target from different viewpoints, and the imaging apparatus described above. An infrared camera that captures thermal image data of an object; image processing means that performs various image processing on visible image data captured by each of the digital cameras and thermal image data captured by the infrared camera; A display unit that displays various information including at least image data; and a control unit that displays at least the image data on the display unit, wherein the image processing unit approximates the imaging object as an aggregate of planes. Then, the image analysis for obtaining the two-dimensional information of the imaging object in each plane is performed with the at least two digitizers. Based on at least two pieces of visible image data captured by each of the cameras, the size between any two points designated on the visible image data and / or the area of the region defined by at least three points Calculation and at least heat-visible fusion image data obtained by superimposing and fusing the thermal image data and the visible image data, and / or an extracted display image obtained by extracting only data in an arbitrary temperature range from the thermal image data Generating data, and the control means generates dimension value data and / or area value data indicating a result of calculating a dimension between two points and / or an area defined by at least three points by the image processing means. The thermo-visible fusion image data and / or the extracted display image data generated by the image processing means while being displayed on the display means It is characterized by displaying on the display means.

このような本発明にかかる撮像装置は、撮像対象物を平面の集合体であるものと近似し、各平面内の当該撮像対象物の2次元情報を取得する画像解析を、少なくとも2つのディジタルカメラのそれぞれによって撮像された少なくとも2枚の可視画像データに基づいて行い、当該可視画像データ上で指定された任意の2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出し、算出結果としての寸法値データを表示手段に表示する。これにより、本発明にかかる撮像装置においては、固定された2つのディジタルカメラを用いた場合における奥行方向の計測値の精度低下の問題を解消することができ、マーカや高性能のパーソナルコンピュータ等を一切必要とせずに、現場において寸法を非接触で計測することができるスタンドアローン型の装置として構成することができる。また、本発明にかかる撮像装置においては、可視画像データのみならず熱画像データを取得することができることから、撮像対象物の表面に現れる情報のみならず、表面付近の内部情報を解析することも可能となる。特に、本発明にかかる撮像装置においては、熱可視融合画像データ及び/又は抽出表示画像データを表示手段に表示することから、撮像対象物のひび割れや空洞等の欠陥部の有無を容易に検出することができる。   Such an imaging apparatus according to the present invention approximates an imaging object to be an assembly of planes, and performs image analysis for obtaining two-dimensional information of the imaging object in each plane, using at least two digital cameras. Is performed based on at least two pieces of visible image data captured by each of the above, and calculates the size between any two points specified on the visible image data and / or the area of the region defined by at least three points. Then, the dimension value data as the calculation result is displayed on the display means. As a result, in the imaging apparatus according to the present invention, the problem of a decrease in the accuracy of the measurement value in the depth direction when two fixed digital cameras are used can be solved. It can be configured as a stand-alone type device that can measure dimensions in a non-contact manner at the site without any need. In addition, since the imaging device according to the present invention can acquire not only visible image data but also thermal image data, it can analyze not only information appearing on the surface of the imaging target but also internal information near the surface. It becomes possible. In particular, in the imaging apparatus according to the present invention, the thermo-visible fusion image data and / or the extracted display image data is displayed on the display means, so that the presence or absence of a defect portion such as a crack or a cavity of the imaging object is easily detected. be able to.

ここで、本発明にかかる撮像装置において、上記画像処理手段は、上記熱可視融合画像データについて、重ね合わせる可視画像データ及び熱画像データの表示強度比率を任意に可変とすることができる。また、本発明にかかる撮像装置において、上記画像処理手段は、上記抽出表示画像データについて、上記熱画像データから抽出する温度範囲を任意に可変とすることもできる。   Here, in the imaging apparatus according to the present invention, the image processing means can arbitrarily change the display intensity ratio of the visible image data and the thermal image data to be superimposed on the thermo-visible fusion image data. In the imaging apparatus according to the present invention, the image processing means can arbitrarily change a temperature range extracted from the thermal image data for the extracted display image data.

また、本発明にかかる撮像装置において、上記画像処理手段は、上記撮像対象物の可視画像データ及び熱画像データを同一視野及び同一画角となるように補正し、補正した可視画像データと熱画像データとについての上記熱可視融合画像データ、及び/又は補正した熱画像データについての上記抽出表示画像データを生成する。   In the imaging apparatus according to the present invention, the image processing unit corrects the visible image data and the thermal image data of the imaging target so as to have the same field of view and the same angle of view, and the corrected visible image data and thermal image. The extracted thermal image data for the data and / or the extracted display image data for the corrected thermal image data is generated.

このような本発明にかかる撮像装置は、上記撮像対象物としての構造物における欠陥の診断に用いて極めて好適である。   Such an imaging apparatus according to the present invention is extremely suitable for use in diagnosing defects in the structure as the imaging object.

本発明においては、マーカ等を必要とせずに非接触且つ現場計測可能であり、また、解析するために高性能のパーソナルコンピュータを必要とすることがなく、低コストのもとに高精度の計測を行うことが可能となる。また、本発明においては、当該撮像装置を用いることによって取得される撮像対象物の寸法や面積等のディジタルデータを含むCAD(Computer Aided Design)図面を容易に作成することが可能となる。   In the present invention, non-contact and on-site measurement is possible without the need for a marker or the like, and a high-performance personal computer is not required for analysis, and high-precision measurement is performed at low cost. Can be performed. Further, in the present invention, it is possible to easily create a CAD (Computer Aided Design) drawing including digital data such as the size and area of the imaging object acquired by using the imaging apparatus.

以下、本発明を適用した具体的な実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

この実施の形態は、画像データを撮像する撮像装置である。この撮像装置は、構造物における任意の箇所の寸法や面積を計測したり、欠陥を診断したりする際に用いて好適なものであり、2つのディジタルカメラを用いるとともに、計測すべき撮像対象物を平面の集合体であるものと近似した上で、各平面内の当該撮像対象物の2次元情報を取得する、という新たな解析モデリングを実装することにより、マーカ等を必要とせずに非接触且つ現場計測可能であるとともに、解析するために高性能のパーソナルコンピュータを必要としないものである。   This embodiment is an imaging apparatus that captures image data. This imaging apparatus is suitable for measuring the size and area of an arbitrary position in a structure or diagnosing a defect, and uses two digital cameras and an imaging object to be measured. By implementing new analysis modeling that obtains two-dimensional information of the imaged object in each plane after approximating a set of planes to a non-contact type without the need for markers, etc. In addition, it can be measured in the field and does not require a high-performance personal computer for analysis.

ここで、2つのディジタルカメラとパーソナルコンピュータとを用いて撮像対象物の3次元情報を取得することは公知である。撮像対象物の3次元情報を取得するにあたっては、左右の視点から撮像した複数の画像について、当該撮像対象物を特徴付ける全ての点に対応する点を指定する必要があるが、これら各点毎に画像解析を行うことは、パーソナルコンピュータによる極めて高い計算能力を必要とする。   Here, it is publicly known to acquire three-dimensional information of an imaging object using two digital cameras and a personal computer. In acquiring the three-dimensional information of the imaging target, it is necessary to specify points corresponding to all the points that characterize the imaging target for a plurality of images captured from the left and right viewpoints. Performing image analysis requires extremely high computing power by a personal computer.

一般に、画像解析には、カメラの内部標定要素と外部標定要素とを用いる必要がある。内部標定要素は、カメラの焦点距離、CCD(Charge Coupled Devices)等の撮像素子のサイズ、及び主点の位置であり、カメラに固有の要素である。なお、主点とは、カメラレンズの中心をとおり、画像に垂直な光軸が撮像素子と交わる点のことであり、撮像素子の中心位置に近接するが同一位置ではないものである。これに対して、外部標定要素は、カメラの撮像位置及び傾きであり、当該カメラの使用状況を表現する要素である。画像解析を行うためには、かかる外部標定要素を撮像場所毎に取得する必要があることから、通常、撮像画像内に位置や大きさが既知のマーカを設置する必要がある。   In general, it is necessary to use an internal orientation element and an external orientation element of a camera for image analysis. The internal orientation elements are the focal length of the camera, the size of an image sensor such as a CCD (Charge Coupled Devices), and the position of the principal point, and are elements inherent to the camera. The principal point is a point that passes through the center of the camera lens and intersects the image sensor with an optical axis perpendicular to the image, and is close to the center position of the image sensor but not at the same position. On the other hand, the external orientation element is an imaging position and tilt of a camera, and is an element that expresses the usage status of the camera. In order to perform image analysis, it is necessary to acquire such an external orientation element for each imaging location. Therefore, it is usually necessary to install a marker whose position and size are known in the captured image.

これに対して、位置を固定した2つのディジタルカメラを用いることにより、これらパラメータが撮像状況によらず一定となることから、パーソナルコンピュータを用いた解析が簡便化するという利点がある。その反面、位置を固定した2つのディジタルカメラを用いた場合には、奥行方向の計測値の精度が低下するという欠点も存在する。これは、奥行方向の計測精度を向上させるためには2つのディジタルカメラの光軸間距離が撮像対象物までの距離と略同等でなければならないためである。位置を固定した2つのディジタルカメラは、その光軸間距離がせいぜい10cmオーダであり、計測すべき撮像対象物までの距離が数m〜数10mの範囲であることから、奥行方向の計測精度の低下は否めない。   On the other hand, by using two digital cameras with fixed positions, these parameters become constant regardless of the imaging situation, and thus there is an advantage that the analysis using a personal computer is simplified. On the other hand, when two digital cameras with fixed positions are used, there is a drawback that the accuracy of the measurement value in the depth direction is lowered. This is because the distance between the optical axes of the two digital cameras must be substantially the same as the distance to the imaging object in order to improve the measurement accuracy in the depth direction. The two digital cameras with fixed positions have a distance between the optical axes on the order of 10 cm and the distance to the imaging object to be measured is in the range of several meters to several tens of meters. The decline cannot be denied.

そこで、本願出願人は、撮像対象物の欠陥部を計測する場合には、当該撮像対象物の表面に現れる細かい凹凸に関する情報は不要であることに着目し、詳細は後述するが、計測すべき撮像対象物を平面の集合体であるものと近似し、各平面内の当該撮像対象物の2次元情報を取得する、という新たな解析モデリングを考案した。   Therefore, the applicant of the present application pays attention to the fact that, when measuring the defective portion of the imaging object, information on fine irregularities appearing on the surface of the imaging object is not necessary, and details will be described later. A new analytical modeling has been devised in which an imaging object is approximated to be an aggregate of planes and two-dimensional information of the imaging object in each plane is acquired.

平面近似を行うことにより、位置を固定した2つのディジタルカメラを用いることによる"奥行方向の計測精度不足"という問題を回避することができる。さらに、平面近似を行うことにより、画像解析の目的は、撮像対象物の2次元情報を取得するということに簡便化される。したがって、画像解析を行うにあたっては、計測値を求めるべき平面を指定するのみでよいことから、撮像対象物を特徴付ける全ての点を指定する必要がなくなる。ここで、平面は、少なくとも3点で規定することができる。したがって、画像解析においては、解析を行うためにパーソナルコンピュータに要求される計算能力が飛躍的に低減し、組み込み式のプロセッサによって十分解析を行うことが可能となる。これにより、本発明にかかる撮像対象物の寸法計測及び/又は面積計測を行うことができるスタンドアローン型の撮像装置を構成することができる。   By performing the planar approximation, the problem of “insufficient measurement accuracy in the depth direction” due to the use of two digital cameras with fixed positions can be avoided. Furthermore, by performing planar approximation, the purpose of image analysis is simplified to acquiring two-dimensional information of the imaging object. Therefore, in performing image analysis, it is only necessary to specify the plane on which the measurement value is to be obtained, so that it is not necessary to specify all points that characterize the imaging target. Here, the plane can be defined by at least three points. Therefore, in the image analysis, the calculation capability required for the personal computer to perform the analysis is drastically reduced, and the analysis can be sufficiently performed by the built-in processor. Thereby, the stand-alone type imaging device which can perform dimension measurement and / or area measurement of the imaging subject concerning the present invention can be constituted.

このように、本発明にかかる撮像装置は、2つのディジタルカメラを用いることによる利点のみならず、当該2つのディジタルカメラを用いた場合に生じる欠点を新たな解析モデリングを適用することによって適切に補うことに着目し、マーカ等を必要とせずに、現場において、非接触で寸法計測及び/又は面積計測を行うことを可能としたものである。   As described above, the imaging apparatus according to the present invention appropriately compensates not only the advantages of using two digital cameras, but also the disadvantages caused by using the two digital cameras by applying new analysis modeling. In particular, it is possible to perform dimension measurement and / or area measurement in a non-contact manner in the field without requiring a marker or the like.

以下、このような背景のもとに考案された撮像装置について詳述する。   Hereinafter, an imaging apparatus devised based on such a background will be described in detail.

図1に示すように、撮像装置10は、互いに異なる視点から撮像対象物である構造物の可視画像データを撮像する少なくとも2つのディジタルカメラ11,11を、そのカメラレンズが図示しない筐体の正面側壁面から外部に露呈するように配設して備える。 As shown in FIG. 1, an imaging apparatus 10 includes at least two digital cameras 11 1 and 11 2 that capture visible image data of a structure that is an imaging target from different viewpoints, and a camera lens of which is not illustrated. It arrange | positions and is provided so that it may be exposed outside from the front side wall surface.

ディジタルカメラ11,11は、それぞれ、例えば有効画素数が400万ピクセル程度であるディジタルスチルカメラを用いて構成することができる。ここで、400万ピクセル程度の画素数からなるディジタルカメラ11,11を用いた場合の仕様について検討する。水平方向画素数が2272ピクセルであり、垂直方向画素数が1704ピクセルであり、水平方向画角が36°であり、垂直方向画角が28°のカメラレンズを有するものと仮定する。ディジタルカメラ11,11においては、このような仕様のもとに、10mの距離だけ離隔した構造物を撮像する場合には、1ピクセルあたりの水平方向距離は2.86mmとなるとともに、垂直方向距離は2.93mmとなる。すなわち、ディジタルカメラ11,11においては、1ピクセルあたり約3mmの距離に相当する可視画像データを撮像することになる。また、ディジタルカメラ11,11においては、光学3倍ズームを適用した場合には、1ピクセルあたり約1mmの距離に相当する可視画像データを撮像することができる。一方、40万ピクセル程度の画素数からなるディジタルカメラを用いた場合の仕様について検討すると、水平方向画素数及び垂直方向画素数は、それぞれ、400万ピクセル程度の画素数からなるディジタルカメラ12に比べ、1/3に削減されることから、1ピクセルあたりの距離が3.3倍となり、約10mmとなる。したがって、この仕様のもとに光学3倍ズームを適用したとしても、1ピクセルあたり約3.3mmの距離に相当する可視画像データを撮像するにとどまる。 Each of the digital cameras 11 1 and 11 2 can be configured using a digital still camera having, for example, about 4 million effective pixels. Here, the specification in the case of using the digital cameras 11 1 and 11 2 having the number of pixels of about 4 million pixels will be examined. Assume that the camera has a camera lens with a horizontal pixel number of 2272 pixels, a vertical pixel number of 1704 pixels, a horizontal field angle of 36 °, and a vertical field angle of 28 °. In the digital cameras 11 1 and 11 2 , in the case of imaging a structure separated by a distance of 10 m under such specifications, the horizontal distance per pixel is 2.86 mm and the vertical The directional distance is 2.93 mm. That is, the digital cameras 11 1 and 11 2 capture visible image data corresponding to a distance of about 3 mm per pixel. The digital cameras 11 1 and 11 2 can capture visible image data corresponding to a distance of about 1 mm per pixel when the optical 3 × zoom is applied. On the other hand, when the specification in the case of using the digital camera having the number of pixels of about 400,000 pixels is examined, the number of pixels in the horizontal direction and the number of pixels in the vertical direction are respectively compared with the digital camera 12 having the number of pixels of about 4 million pixels. Therefore, the distance per pixel is 3.3 times, which is about 10 mm. Therefore, even if the optical 3 × zoom is applied under this specification, visible image data corresponding to a distance of about 3.3 mm per pixel is only captured.

一方、欠陥部としてのひび割れは、通常、その幅について、0.2mm以下、0.2mm〜1.0mm、1.0mm以上の3つに分類される。したがって、0.2mmの欠陥部を撮像するために、1ピクセルあたり0.2mmの距離に相当させるためには、400万ピクセル程度の画素数からなるディジタルカメラに対して光学3倍ズームを適用した場合には、さらに構造物までの撮像距離として2mまで接近すれば足りるが、40万ピクセル程度の画素数からなるディジタルカメラに対して光学3倍ズームを適用した場合には、構造物に対して60cmにまで近接する必要がある。また、40万ピクセル程度の画素数からなるディジタルカメラに対して光学3倍ズームを適用し、構造物に対して60cmにまで近接した場合には、1回の撮像によって得られる撮像面積が水平方向距離で39cm、垂直方向距離で30cmと極めて狭くなり、実用に供することができない。したがって、ディジタルカメラ11,11としては、有効画素数が400万ピクセル程度のものを用いるのが望ましい。 On the other hand, the crack as a defect part is normally classified into three about 0.2 mm or less, 0.2 mm-1.0 mm, and 1.0 mm or more about the width. Therefore, in order to image a 0.2 mm defect portion, in order to correspond to a distance of 0.2 mm per pixel, an optical 3 × zoom was applied to a digital camera having about 4 million pixels. In this case, it is sufficient that the imaging distance to the structure is further close to 2 m. However, when the optical 3 × zoom is applied to a digital camera having the number of pixels of about 400,000 pixels, It needs to be close to 60cm. In addition, when an optical 3 × zoom is applied to a digital camera having a number of pixels of about 400,000 pixels and the structure is close to 60 cm, the imaging area obtained by one imaging is horizontal. The distance is 39 cm and the vertical distance is 30 cm, which is extremely narrow and cannot be put to practical use. Therefore, it is desirable to use digital cameras 11 1 and 11 2 having an effective pixel count of about 4 million pixels.

ここで、撮像装置10においては、パーソナルコンピュータによる高い計算能力を不要とするために、画像解析に必要となるパラメータにおける未知数の削減を図る。これを実現するために、撮像装置10においては、ディジタルカメラ11,11の拘束条件を強化する。例えば、撮像装置10においては、2つのディジタルカメラ11,11の結像面を同一平面上に設け、当該ディジタルカメラ11,11の光軸間角度及びカメラレンズ中心間距離等の内部標定要素を既知量とする。また、撮像装置10においては、2つのディジタルカメラ11,11の焦点距離やカメラレンズ径といったカメラ定数を同一とする。このとき、撮像装置10においては、実装上の便宜の観点から、2つのディジタルカメラ11,11で同一光学系を用いるのが望ましい。さらに、撮像装置10においては、2つのディジタルカメラ11,11の光軸を大略平行とするのが望ましい。なお、撮像装置10においては、必ずしも2つのディジタルカメラ11,11の光軸を完全に平行としなくてもよく、光軸間角度が既知であることから、容易に補正することができる。 Here, in the imaging apparatus 10, in order to eliminate the need for a high computing capability by a personal computer, the number of unknowns in parameters necessary for image analysis is reduced. In order to realize this, in the imaging apparatus 10, the constraint conditions of the digital cameras 11 1 and 11 2 are strengthened. For example, in the imaging apparatus 10, the imaging surfaces of the two digital cameras 11 1 and 11 2 are provided on the same plane, and the internal angles such as the angle between the optical axes of the digital cameras 11 1 and 11 2 and the distance between the camera lens centers are included. The orientation factor is a known amount. Further, in the imaging apparatus 10, camera constants such as focal lengths and camera lens diameters of the two digital cameras 11 1 and 11 2 are made the same. At this time, in the imaging apparatus 10, it is desirable to use the same optical system for the two digital cameras 11 1 and 11 2 from the viewpoint of mounting convenience. Furthermore, in the imaging apparatus 10, it is desirable that the optical axes of the two digital cameras 11 1 and 11 2 be approximately parallel. Note that in the imaging apparatus 10, the optical axes of the two digital cameras 11 1 and 11 2 do not necessarily have to be completely parallel, and the angle between the optical axes is known, so that the correction can be easily performed.

また、撮像装置10は、筐体内部に、例えばLCD(Liquid Crystal Display)等の少なくとも画像データを含む各種情報を表示する表示手段である表示部12を備える。具体的には、表示部12は、VGA(Video Graphics Array)形式の5.5インチTFT(Thin Film Transistor)液晶装置として構成され、16ビットのRGB形式データを表示可能なデバイスとして構成することができる。表示部12は、その表示画面が筐体の背面側壁面から外部に露呈するように配設され、少なくとも可視画像データを含む各種画像データを表示する。   In addition, the imaging device 10 includes a display unit 12 that is a display unit that displays various types of information including at least image data, such as an LCD (Liquid Crystal Display). Specifically, the display unit 12 is configured as a 5.5 inch TFT (Thin Film Transistor) liquid crystal device in VGA (Video Graphics Array) format, and may be configured as a device capable of displaying 16-bit RGB format data. it can. The display unit 12 is arranged so that the display screen is exposed to the outside from the back side wall surface of the casing, and displays various image data including at least visible image data.

さらに、撮像装置10は、筐体内部に各種操作ボタン13を備える。操作ボタン13は、その操作面が筐体の上面側壁面から外部に露呈するように配設される。これら操作ボタン13としては、少なくとも、当該撮像装置10に対して着脱自在とされる二次電池である図示しないバッテリによる電源をオン/オフするための電源ボタン、ディジタルカメラ11,11による静止画像データの撮像を行うためのシャッタボタン、ディジタルカメラ11,11によって撮像された可視画像データの画像解析を行い、当該可視画像データ上において計測値を求める計測領域や計測点を指定するための領域指定手段及び計測点指定手段としての解析ボタン、当該撮像装置10に対して着脱自在とされて少なくとも可視画像データを記憶する記憶媒体としてのPCMCIA(Personal Computer Memory Card International Association)カード型メモリ14に画像データを記憶させるための画像データ記憶ボタン、及びPCMCIAカード型メモリ14に記憶されている画像データを読み出して表示部12に表示させるための画像データ読み出しボタンが設けられればよい。 Furthermore, the imaging device 10 includes various operation buttons 13 inside the housing. The operation button 13 is disposed so that its operation surface is exposed to the outside from the upper side wall surface of the housing. These include operating buttons 13, at least, still by a power button, a digital camera 11 1, 11 2 for turning on / off the power by a battery (not shown) is a secondary battery which is detachably attached to the imaging apparatus 10 A shutter button for capturing image data, image analysis of visible image data captured by the digital cameras 11 1 , 11 2 , and designating measurement areas and measurement points for obtaining measurement values on the visible image data An analysis button as a region designation means and a measurement point designation means, and a PCMCIA (Personal Computer Memory Card International Association) card-type memory 14 as a storage medium that is detachable from the imaging apparatus 10 and stores at least visible image data An image data storage button for storing image data in An image data read button for reading the image data stored in the PCMCIA card type memory 14 and displaying it on the display unit 12 may be provided.

さらにまた、撮像装置10は、特に図示しないが、筐体内部に、構造物の撮像精度を高めるために、ディジタルカメラ11,11のそれぞれについての光軸が互いに平行となるように調整する光軸調整機構を備えてもよい。また、撮像装置10は、特に図示しないが、ディジタルカメラ11,11を衝撃から保護するための緩衝機構や、筐体内部への塵埃や水滴の混入を防止するための防塵及び防沫機構を備えてもよい。 Furthermore, although not shown in particular, the imaging device 10 is adjusted so that the optical axes of the digital cameras 11 1 and 11 2 are parallel to each other in the housing in order to increase the imaging accuracy of the structure. An optical axis adjustment mechanism may be provided. Although not particularly shown, the imaging device 10 includes a buffer mechanism for protecting the digital cameras 11 1 and 11 2 from an impact, and a dust and splash proof mechanism for preventing dust and water droplets from entering the housing. May be provided.

さらに、このような撮像装置10は、筐体内部に、ディジタルカメラ11,11をそれぞれ制御する2つのカメラ制御部51,51と、ディジタルカメラ11,11による可視画像データに対して各種画像処理を施す画像処理手段である画像処理部52と、この画像処理部52のワークエリアとして用いられるSDRAM(Synchronous Dynamic Random Access Memory)53とを備える。さらにまた、撮像装置10は、各部を統括的に制御する制御手段である主制御部54と、プログラム等の各種情報を格納するフラッシュROM(Read Only Memory)55と、主制御部54のワークエリアとして用いられるSDRAM56と、PCMCIAカードスロット58に装着されたPCMCIAカード型メモリ14に対するデータの読み出し及び/又は書き込みを制御する記憶媒体制御手段であるPCMCIAコントローラ57とからなる回路を備える。 Furthermore, such an imaging device 10, in the housing, the digital camera 11 1, 11 2 for controlling each of the two camera controller 51 1, 51 2, according to the digital camera 11 1, 11 2 into a visible image data The image processing unit 52 is an image processing unit that performs various types of image processing, and an SDRAM (Synchronous Dynamic Random Access Memory) 53 that is used as a work area of the image processing unit 52. Furthermore, the imaging apparatus 10 includes a main control unit 54 that is a control unit that comprehensively controls each unit, a flash ROM (Read Only Memory) 55 that stores various information such as programs, and a work area of the main control unit 54. And a PCMCIA controller 57 which is a storage medium control means for controlling reading and / or writing of data with respect to the PCMCIA card type memory 14 installed in the PCMCIA card slot 58.

カメラ制御部51,51は、それぞれ、例えばUSB(Universal Serial Bus)によって接続された主制御部54の制御のもとにディジタルカメラ11,11を制御し、当該ディジタルカメラ11,11によって撮像された例えば10ビットのディジタルの可視画像データを取得し、これを例えばVGA形式等の解像度のデータとして画像処理部52に供給する。 The camera control unit 51 1, 51 2, respectively, to control the digital camera 11 1, 11 2, for example USB under the control of (Universal Serial Bus) main control unit 54 connected by the digital camera 11 1, 11 2 obtains a visible image data of the imaged e.g. 10-bit digital by, and supplies it to the image processing unit 52 as the resolution data such as, for example, VGA format.

画像処理部52は、例えばSDRAM53をワークエリアとして用いて処理を実行するDSP(Digital Signal Processor)や組み込み式のプロセッサによって構成される。画像処理部52は、ディジタルカメラ11,11によって撮像された可視画像データをキャプチャし、後述する画像解析処理を行い、当該可視画像データ上で指定された任意の2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出する処理等を行う。このとき、画像処理部52は、ディジタルカメラ11,11によって撮像された可視画像データ上において計測値を求める計測領域を指定させるための画像データや計測点を指定させるための画像データを生成するとともに、指定された2つの計測点間の寸法を示す寸法値データや少なくとも3点で規定された領域の面積を算出した結果を示す面積値データを可視画像データに重畳した計測結果としての画像データを生成する。そして、画像処理部52は、これら画像データを例えばRGB形式といった表示部12によって表示可能な形式に変換するとともに、画像データをPCMCIAカード型メモリ14に記憶させるべく、例えばJPEG(Joint Photographic Experts Group)形式等の所定のフォーマットに圧縮する。 The image processing unit 52 includes, for example, a DSP (Digital Signal Processor) that executes processing using the SDRAM 53 as a work area or an embedded processor. The image processing unit 52 captures the visible image data captured by the digital cameras 11 1 and 11 2 , performs image analysis processing described later, the dimension between any two points designated on the visible image data, and Processing for calculating the area of the region defined by at least three points is performed. At this time, the image processing unit 52 generates image data for designating a measurement region for obtaining a measurement value and image data for designating a measurement point on the visible image data captured by the digital cameras 11 1 and 11 2 . In addition, an image as a measurement result obtained by superimposing dimension value data indicating a dimension between two designated measurement points and area value data indicating a result of calculating an area of a region defined by at least three points on the visible image data. Generate data. The image processing unit 52 converts the image data into a format that can be displayed by the display unit 12 such as RGB format, and stores the image data in the PCMCIA card type memory 14, for example, JPEG (Joint Photographic Experts Group). Compress to a predetermined format.

SDRAM53は、画像処理部52による処理の実行によって生成される一時的なデータを記憶するものであり、例えば128Mビットのものが2つ設けられ、合計256Mビットのデータを、読み出し及び/又は書き込み可能に一時的に記憶する。   The SDRAM 53 stores temporary data generated by execution of processing by the image processing unit 52. For example, two 128M bits are provided, and a total of 256M bits of data can be read and / or written. Memorize temporarily.

主制御部54は、専用のLSI(Large Scale Integration)によって構成することができ、操作ボタン13の操作やRTC(Real Time Clock)59による計時情報に基づいて動作する。主制御部54は、表示部12を制御し、ディジタルカメラ11,11によって撮像された可視画像データや、画像処理部52によって生成された各種画像データを当該表示部12に表示させる。また、主制御部54は、例えばUSB接続されたカメラ制御部51,51に対して所定のコマンドを送信することにより、当該カメラ制御部51,51を制御する。さらに、主制御部54は、PCMCIAコントローラ57を制御し、ディジタルカメラ11,11によって撮像された最大画素数の可視画像データをPCMCIAカード型メモリ14に記憶させる。さらにまた、主制御部54は、特に図示しないが、PCMCIAカードスロット58を介してパーソナルコンピュータとUSB接続等を行った場合には、PCMCIAコントローラ57を制御し、各種画像データを当該パーソナルコンピュータに転送する。また、主制御部54は、PCMCIAコントローラ57を制御し、画像処理部52によってJPEG形式等に圧縮された各種画像データ等をPCMCIAカード型メモリ14に記憶させる。 The main control unit 54 can be configured by a dedicated LSI (Large Scale Integration), and operates based on the operation of the operation buttons 13 or time information by an RTC (Real Time Clock) 59. The main control unit 54 controls the display unit 12 to cause the display unit 12 to display visible image data captured by the digital cameras 11 1 and 11 2 and various image data generated by the image processing unit 52. The main control unit 54, by transmitting a predetermined command to the camera control unit 51 1, 51 2 for example is USB connected, controls the camera control unit 51 1, 51 2. Further, the main control unit 54 controls the PCMCIA controller 57 to store the visible image data of the maximum number of pixels captured by the digital cameras 11 1 and 11 2 in the PCMCIA card type memory 14. Furthermore, the main control unit 54 controls the PCMCIA controller 57 to transfer various image data to the personal computer when the personal computer is connected to the personal computer via the PCMCIA card slot 58 or the like, though not shown. To do. The main control unit 54 also controls the PCMCIA controller 57 to store various image data and the like compressed by the image processing unit 52 into the JPEG format in the PCMCIA card type memory 14.

フラッシュROM55は、主制御部54が実行するプログラム等の各種情報を格納するものであり、例えば16Mビットのものが2つ設けられ、合計32Mビットのデータを、読み出し及び/又は書き込み可能に記憶する。なお、フラッシュROM55には、画像解析に用いられるディジタルカメラ11,11の内部標定要素や外部標定要素の相対差等の既知量を含む各種パラメータを記憶する。 The flash ROM 55 stores various information such as a program executed by the main control unit 54. For example, two 16M bit data are provided, and a total of 32M bit data is stored so as to be readable and / or writable. . The flash ROM 55 stores various parameters including known amounts such as the relative difference between the internal orientation elements and the external orientation elements of the digital cameras 11 1 and 11 2 used for image analysis.

SDRAM56は、主制御部54による処理の実行によって生成される一時的なデータを記憶するものであり、例えば128Mビットのものが2つ設けられ、合計256Mビットのデータを、読み出し及び/又は書き込み可能に一時的に記憶する。   The SDRAM 56 stores temporary data generated by execution of processing by the main control unit 54. For example, two 128M bits are provided, and a total of 256M bits of data can be read and / or written. Memorize temporarily.

PCMCIAコントローラ57は、主制御部54の制御のもとに、PCMCIAカードスロット58に装着されたPCMCIAカード型メモリ14に対するデータの読み出し及び/又は書き込みを制御する。   The PCMCIA controller 57 controls reading and / or writing of data with respect to the PCMCIA card type memory 14 installed in the PCMCIA card slot 58 under the control of the main control unit 54.

このような回路構成を備える撮像装置10は、上述したように、ディジタルカメラ11,11、表示部12、及び操作ボタン13からなるユーザインターフェースと、各種回路や機構とを全て単一の筐体内部に収納して構成することができる。また、撮像装置10は、これらユーザインターフェース、各種回路、及び機構を、携帯可能な大きさの単一の筐体内部に収納することにより、可搬性に優れた一体的なユニットとして構成することもできる。 As described above, the imaging apparatus 10 having such a circuit configuration includes a user interface including the digital cameras 11 1 and 11 2 , the display unit 12, and operation buttons 13, and various circuits and mechanisms, all in a single housing. It can be housed and configured inside the body. In addition, the imaging device 10 may be configured as an integrated unit excellent in portability by storing these user interfaces, various circuits, and mechanisms in a single portable casing. it can.

このような撮像装置10においては、主制御部54の制御のもとに、画像処理部52によって生成された可視画像データをはじめとする各種画像データを表示部12に表示し、測定者に提示する。測定者は、かかる画像データを視認しながら、当該画像データ上において認められる欠陥部を把握することが可能となる。また、撮像装置10においては、操作ボタン13における画像データ記憶ボタンを操作することにより、これら各種画像データを画像処理部52によってJPEG形式等に圧縮した上で、PCMCIAカード型メモリ14に記憶させることができる。さらに、撮像装置10においては、操作ボタン13における画像データ読み出しボタンを操作することにより、主制御部54及びPCMCIAコントローラ57の制御のもとに、PCMCIAカード型メモリ14に記憶されている各種画像データを読み出し、これら画像データの一覧をいわゆるサムネイル表示として表示部12に表示させることもできる。そして、撮像装置10においては、このサムネイル表示された一覧の中から所望の画像データを選択操作することにより、主制御部54の制御のもとに、当該画像データをPCMCIAカード型メモリ14から読み出して表示部12に表示させることができる。そして、撮像装置10においては、PCMCIAカードスロット58を介してパーソナルコンピュータと接続し、画像データを当該パーソナルコンピュータに転送することもでき、当該パーソナルコンピュータを用いた後処理としての画像解析を容易とすることができる。   In such an imaging apparatus 10, under the control of the main control unit 54, various image data including visible image data generated by the image processing unit 52 are displayed on the display unit 12 and presented to the measurer. To do. The measurer can grasp the defective part recognized on the image data while visually recognizing the image data. Further, in the imaging apparatus 10, by operating the image data storage button in the operation button 13, these various image data are compressed into the JPEG format or the like by the image processing unit 52 and then stored in the PCMCIA card type memory 14. Can do. Further, in the imaging apparatus 10, various image data stored in the PCMCIA card type memory 14 under the control of the main controller 54 and the PCMCIA controller 57 by operating the image data read button in the operation button 13. And a list of these image data can be displayed on the display unit 12 as a so-called thumbnail display. In the imaging apparatus 10, the desired image data is selected from the thumbnail-displayed list, and the image data is read from the PCMCIA card type memory 14 under the control of the main control unit 54. Can be displayed on the display unit 12. The imaging apparatus 10 can also be connected to a personal computer via the PCMCIA card slot 58 and transfer image data to the personal computer, facilitating image analysis as post-processing using the personal computer. be able to.

さて、以下では、撮像装置10における画像解析処理について説明する。   Hereinafter, image analysis processing in the imaging apparatus 10 will be described.

撮像装置10においては、ディジタルカメラ11,11のそれぞれによって互いに異なる視点から撮像された少なくとも2枚の可視画像データに基づいて、表示部12に表示された当該可視画像データ上で指定した任意の2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出する画像解析を行う。 In the imaging device 10, an arbitrary specified on the visible image data displayed on the display unit 12 based on at least two pieces of visible image data captured from different viewpoints by the digital cameras 11 1 and 11 2. Image analysis is performed to calculate the dimension between the two points and / or the area of the region defined by at least three points.

ここで、このような複数枚の画像データに基づく画像解析は、一般には3次元的な拡がりを有する撮像対象物を複数の視点から撮像することによって画像データ内に存在する特定の注目点が、どの画像データ内のどの位置にあるか、という情報に基づいて、当該注目点の3次元的な位置情報を逆算するものである。一般に、かかる画像解析を行うにあたっては、通常、撮像対象物の形状を特徴付けるために、解析を行う対象点として当該撮像対象物の表面に数十個のマーカを設置し、当該撮像対象物の全体を隈なく撮像することになる。   Here, in the image analysis based on such a plurality of pieces of image data, a specific attention point existing in the image data is generally obtained by imaging an imaging target having a three-dimensional spread from a plurality of viewpoints. Based on the information on which position in which image data is located, the three-dimensional position information of the target point is calculated backward. In general, in performing such image analysis, in order to characterize the shape of the imaging target object, usually, dozens of markers are set on the surface of the imaging target object as analysis target points, and the entire imaging target object The image will be captured without hesitation.

より具体的には、かかる画像解析は、例えば図2に示すように、解析を行う対象点Pと、画像データ上の像点pと、カメラ位置(カメラの撮像中心)Oとの3点が1つの直線上に存在するという幾何学的原理に基づくものである。ここで、対象点Pの地上座標系における3次元座標は、P(X,Y,Z)といったように3組の変数で記述することができ、カメラ位置Oの地上座標系における3次元座標も、O(X,Y,Z)といったように3組の変数で記述することができる。これに対して、画像データ上の像点pは、地上座標系における3次元座標表現ではp(X,Y,Z)として記述されるが、当該画像データの2次元座標(x,y)として記述することができる。このような座標表現のもと、上述した幾何学的原理は、カメラの焦点距離をfとし、カメラ座標系におけるカメラのx軸、y軸及びz軸の周囲の回転角度を、それぞれ、ω,φ,κとし、カメラ座標系における像点pの3次元座標を(x,y,−f)とすると、次式(1)及び次式(2)に示す共線条件式として表すことができる。 More specifically, for example, as shown in FIG. 2, the image analysis includes three points: a target point P to be analyzed, an image point p on the image data, and a camera position (imaging center of the camera) O. It is based on the geometric principle of existing on one straight line. Here, the three-dimensional coordinates of the target point P in the ground coordinate system can be described by three sets of variables such as P (X, Y, Z), and the three-dimensional coordinates in the ground coordinate system of the camera position O are also represented. , O (X O , Y O , Z O ) and the like, can be described by three sets of variables. On the other hand, the image point p on the image data is described as p (X p , Y p , Z p ) in the three-dimensional coordinate expression in the ground coordinate system, but the two-dimensional coordinates (x, y). Under such a coordinate expression, the above-described geometric principle is that the focal length of the camera is f, and the rotation angles around the x-axis, y-axis, and z-axis of the camera in the camera coordinate system are respectively ω, If φ, κ and the three-dimensional coordinates of the image point p in the camera coordinate system are (x, y, −f), they can be expressed as collinear conditional expressions shown in the following expressions (1) and (2). .

なお、上式(1)及び上式(2)におけるm11,m12,m13,m21,m22,m23,m31,m32,m33は、それぞれ、次式(3)で表される。 Note that m 11 , m 12 , m 13 , m 21 , m 22 , m 23 , m 31 , m 32 , and m 33 in the above formula (1) and the above formula (2) are respectively expressed by the following formula (3). expressed.

また、共線条件式は、カメラの焦点距離、主点位置、及びカメラレンズの歪曲収差と称される光学歪み等を考慮する場合には、上式(1)及び上式(2)を次式(4)及び次式(5)に変形することができる。なお、次式(4)及び次式(5)におけるΔx,Δyは、カメラの焦点距離、主点位置、及びカメラレンズの光学歪み係数等に基づいて定められる補正項である。   Further, the collinear conditional expression is obtained by substituting the above expression (1) and the above expression (2) when taking into consideration the focal length of the camera, the principal point position, and optical distortion called distortion of the camera lens. It can deform | transform into Formula (4) and following Formula (5). Note that Δx and Δy in the following expressions (4) and (5) are correction terms determined based on the focal length of the camera, the principal point position, the optical distortion coefficient of the camera lens, and the like.

上式(1)及び上式(2)に示した共線条件式は、カメラ位置(X,Y,Z)及びカメラ回転角度(ω,φ,κ)からなる6つの未知数を上述した外部標定要素として含む。これら未知数は、一般には、実測等によって求めた既知の3次元座標(X,Y,Z)の複数の対象点Pにマーカを設置して撮像し、画像データ上におけるマーカの像点pの2次元座標(x,y)を求めることによって標定される。2枚の画像データを用いた画像解析においては、1つのマーカに対して2つの像点の座標値が与えられることから、1枚の画像データ内に3点のマーカを設置することにより、原理上、6つの未知数を標定することができる。また、上式(4)及び上式(5)に示した共線条件式においては、カメラ位置(X,Y,Z)及びカメラ回転角度(ω,φ,κ)に加え、焦点距離、主点位置、及びカメラレンズの光学歪み係数等が上述した内部標定要素としての未知数となる。したがって、上式(4)及び上式(5)に示した共線条件式を用いた画像解析においては、未知数を標定するために、上式(1)及び上式(2)に示した共線条件式を用いる場合に比べ、マーカを設置する対象点Pを多数必要とすることになる。画像解析においては、共線条件式における未知数を標定することができれば、画像データ上における任意点の2次元座標値を共線条件式に代入することにより、その任意点に対応する地上座標系の3次元座標を算出することが可能となる。 The collinear conditional expressions shown in the above formula (1) and the above formula (2) describe the six unknowns consisting of the camera position (X O , Y O , Z O ) and the camera rotation angle (ω, φ, κ). As an external orientation element. These unknowns are generally imaged by placing markers at a plurality of target points P of known three-dimensional coordinates (X, Y, Z) obtained by actual measurement or the like, and 2 of the marker image points p on the image data. It is standardized by obtaining the dimensional coordinates (x, y). In image analysis using two pieces of image data, the coordinate values of two image points are given to one marker, and therefore, by placing three markers in one piece of image data, the principle Above, six unknowns can be located. In the collinear conditional expressions shown in the above equations (4) and (5), in addition to the camera position (X O , Y O , Z O ) and the camera rotation angle (ω, φ, κ), the focal point The distance, the principal point position, the optical distortion coefficient of the camera lens, and the like are unknowns as the above-described internal orientation elements. Therefore, in the image analysis using the collinear conditional expressions shown in the above equations (4) and (5), the common equations shown in the above equations (1) and (2) are used to determine the unknowns. Compared to the case of using a line conditional expression, a large number of target points P on which markers are set are required. In the image analysis, if the unknown in the collinear conditional expression can be determined, the two-dimensional coordinate value of the arbitrary point on the image data is substituted into the collinear conditional expression, so that the terrestrial coordinate system corresponding to the arbitrary point It is possible to calculate three-dimensional coordinates.

ここで、マーカの個数をnとすると、当該マーカの3次元座標は、上述したように3組の変数で記述されることから、解析を行う対象点Pの個数は、3nとなる。さらに、画像データの撮像枚数をmとすると、k個の内部標定要素及び6m個の外部標定要素とあわせて、3n+k+6m個の未知数があることになる。一方、画像データ上におけるマーカの像点pの座標は、上述したように2組の変数で記述されることから、方程式の個数は、2nm個となる。ここで、例として、n=20、m=15、k=6とすると、156個の未知数に対して、方程式の個数は、600個となる。したがって、画像解析においては、これら方程式群の誤差を最小にする未知数の値を最小二乗法によって求めることになる。このような膨大数の数値データを処理する画像解析を行うにあたっては、高性能のパーソナルコンピュータを用いる必要がある。   Here, if the number of markers is n, the three-dimensional coordinates of the marker are described by three sets of variables as described above, and therefore the number of target points P to be analyzed is 3n. Further, if the number of image data to be captured is m, there are 3n + k + 6m unknowns including k internal orientation elements and 6m external orientation elements. On the other hand, since the coordinates of the image point p of the marker on the image data are described by two sets of variables as described above, the number of equations is 2 nm. As an example, if n = 20, m = 15, and k = 6, the number of equations is 600 for 156 unknowns. Therefore, in the image analysis, an unknown value that minimizes the error of these groups of equations is obtained by the method of least squares. In performing image analysis for processing such a large number of numerical data, it is necessary to use a high-performance personal computer.

そこで、撮像装置10においては、未知数及び方程式の個数を大幅に削減し、組み込み式のプロセッサによって処理することを可能とするために、撮像対象物全体を平面の集合体であるものと近似し、解析対象を複数の平面のうち1つの平面とする。これにより、撮像装置10においては、3次元座標系を(X,Y,Z)とすると、3つの対象点Pによって平面を記述することが可能となる。すなわち、n=3とすることができる。また、撮像装置10においては、解析対象の平面をZ=0とすると、その座標を(X,Y)の2つの変数で記述することが可能となる。したがって、未知数の個数は、2n個となる。さらに、撮像装置10においては、上述したように、互いに位置を固定した2つのディジタルカメラ11,11を用いることにより、その内部標定要素を既知量として予め取得しておくことから、k=0とすることができる。さらにまた、撮像装置10においては、可視画像データの撮像枚数については、2つのディジタルカメラ11,11のそれぞれによって1枚ずつであることから、m=2となる。したがって、未知数の個数は、見かけ上、2n+6m=6+12=18個となる。ただし、撮像装置10においては、当該装置の組み立て後には、2つのディジタルカメラ11,11の外部標定要素の相対差が固定とされることから、未知数の個数は、6個削減され、12個となる。一方、方程式の個数は、2nm=12個となる。 Therefore, in the imaging device 10, in order to greatly reduce the number of unknowns and equations and to be processed by a built-in processor, the entire imaging object is approximated to be a set of planes, The analysis target is one plane among a plurality of planes. Thereby, in the imaging device 10, if the three-dimensional coordinate system is (X, Y, Z), a plane can be described by the three target points P. That is, n = 3. In the imaging apparatus 10, if the plane to be analyzed is Z = 0, the coordinates can be described by two variables (X, Y). Therefore, the number of unknowns is 2n. Furthermore, in the imaging apparatus 10, as described above, by using the two digital cameras 11 1 and 11 2 whose positions are fixed to each other, the internal orientation elements are acquired in advance as known quantities, so k = It can be set to zero. Furthermore, in the imaging device 10, the number of visible image data captured is one by each of the two digital cameras 11 1 and 11 2 , and therefore m = 2. Therefore, the number of unknowns is apparently 2n + 6m = 6 + 12 = 18. However, in the imaging device 10, since the relative difference between the external orientation elements of the two digital cameras 11 1 and 11 2 is fixed after the assembly of the device, the number of unknowns is reduced by 6 and 12 It becomes a piece. On the other hand, the number of equations is 2 nm = 12.

このように、撮像装置10においては、撮像対象物を平面近似する新たな解析モデリングを用いるとともに、固定した2つのディジタルカメラ11,11を用いて撮像した可視画像データを用いることにより、12個の未知数と、これら12個の未知数に関する12個の方程式とによって状況を記述することができる。これらの方程式は、非線形であることから、撮像装置10においては、12個の非線形連立方程式を解けばよい。実際には、撮像装置10においては、方程式を近似値の近傍で線形近似し、初期値を仮定して補正値を求め、この補正値を再度方程式に代入して補正値を修正する、という繰り返し計算を行うことにより、数値的に真値を求めることになる。 As described above, the imaging apparatus 10 uses the new analysis modeling that approximates the imaging target in a plane, and also uses the visible image data that is captured using the two fixed digital cameras 11 1 and 11 2 , so that 12 The situation can be described by the unknowns and the 12 equations for these 12 unknowns. Since these equations are non-linear, the imaging apparatus 10 only has to solve twelve non-linear simultaneous equations. Actually, in the imaging apparatus 10, the equation is linearly approximated in the vicinity of the approximate value, the correction value is obtained assuming the initial value, and the correction value is corrected by substituting the correction value into the equation again. By calculating, the true value is calculated numerically.

さて、このような撮像装置10においては、具体的には以下のような動作を行う。   Now, in such an imaging device 10, specifically, the following operations are performed.

撮像装置10においては、操作ボタン13における電源ボタンを操作することによって動作可能状態に移行すると、撮像対象を確定するために、可視画像データをディジタルカメラ11,11の視野の移動に追随するように動画像データとして表示部12に表示する。この表示部12に表示される動画像データは、主制御部54の制御のもとに、ディジタルカメラ11,11に対して一定の時間間隔で画像データを要求し、送られてきたデータを用いて生成して表示部12に表示したものであり、ディジタルカメラ11,11のいずれかによって撮像される可視画像データに基づくものである。このとき、撮像装置10においては、ディジタルカメラ11,11の画素数よりも少ない画素数の可視画像データに基づいて動画像データを生成して表示部12に表示することにより、画像処理部52及び主制御部54による処理負担を軽減し、ディジタルカメラ11,11の視野の移動に滑らかに追随したリアルタイム動画像データを表示部12に表示することができる。 When the imaging apparatus 10 shifts to an operable state by operating the power button of the operation button 13, the visible image data follows the movement of the visual field of the digital cameras 11 1 and 11 2 in order to determine the imaging target. In this way, it is displayed on the display unit 12 as moving image data. The moving image data displayed on the display unit 12 requests image data from the digital cameras 11 1 and 11 2 at a predetermined time interval under the control of the main control unit 54, and is sent. Is generated and displayed on the display unit 12 and is based on visible image data captured by one of the digital cameras 11 1 and 11 2 . At this time, the imaging device 10 generates moving image data based on visible image data having a smaller number of pixels than the number of pixels of the digital cameras 11 1 and 11 2 , and displays the moving image data on the display unit 12. 52 and the main control unit 54 can be reduced, and real-time moving image data smoothly following the movement of the visual field of the digital cameras 11 1 and 11 2 can be displayed on the display unit 12.

撮像装置10においては、測定者がこのリアルタイム動画像データを視認することによって撮像対象を確定すると、操作ボタン13におけるシャッタボタンを操作することにより、ディジタルカメラ11,11による可視画像データを静止画像データとして画像処理部52に取り込み、PCMCIAカード型メモリ14に対する各種画像データの記憶といった各種処理を行うことができる。ここで、撮像装置10においては、画像処理部52に可視画像データを取り込んだ後については、ディジタルカメラ11,11の最大画素数の画像データについて処理を行うのが望ましく、これにより、測定者にとって使い勝手がよく、寸法計測や面積計測、さらには欠陥部の検出を容易且つ確実に行うことが可能となる。 In the imaging apparatus 10, when the measurer determines the imaging target by visually recognizing the real-time moving image data, the visible image data by the digital cameras 11 1 and 11 2 is stopped by operating the shutter button in the operation button 13. Various types of processing such as storage of various image data in the PCMCIA card type memory 14 can be performed as image data. Here, in the imaging apparatus 10, it is desirable to perform processing on the image data having the maximum number of pixels of the digital cameras 11 1 and 11 2 after capturing the visible image data in the image processing unit 52, thereby measuring. It is convenient for the user, and it is possible to easily and reliably perform dimension measurement, area measurement, and detection of a defective portion.

さて、撮像装置10においては、操作ボタン13における電源ボタンを操作することによって動作可能状態に移行して、上述した静止画像データとしての可視画像データを取得した際には、以下のような処理を行う。   Now, when the imaging apparatus 10 shifts to an operable state by operating the power button on the operation button 13 and obtains visible image data as the still image data described above, the following processing is performed. Do.

まず、撮像装置10においては、画像処理部52に可視画像データが供給されると、当該画像処理部52によってこれら可視画像データを等縮尺に補正し、この補正後の等縮尺画像データをSDRAM53に格納する。また、撮像装置10においては、画像処理部52により、以下に説明するレンズ収差補正処理を実行する。   First, in the imaging device 10, when visible image data is supplied to the image processing unit 52, the image processing unit 52 corrects the visible image data to an equal scale, and the corrected equal scale image data is stored in the SDRAM 53. Store. In the imaging apparatus 10, the lens aberration correction process described below is executed by the image processing unit 52.

このレンズ収差補正処理は、カメラレンズの歪曲収差と称される光学歪みを補正する処理であり、その一例が特願2002−379548号明細書に記載されている。すなわち、撮像装置10においては、撮像後の画像データが樽状に歪む現象をもたらす歪曲収差を補正するために、画像処理部52によってアフィン変換と称される処理を施す。   This lens aberration correction process is a process for correcting optical distortion called distortion of the camera lens, and an example thereof is described in Japanese Patent Application No. 2002-379548. In other words, in the imaging apparatus 10, in order to correct distortion that causes a phenomenon that image data after imaging is distorted in a barrel shape, the image processing unit 52 performs a process called affine transformation.

このアフィン変換は、ユークリッド幾何学的な線形変換と平行移動の組み合わせによる図形や形状の移動又は変形を行う方法であり、4×4の行列演算で表現できる移動、回転、左右反転、拡大、縮小、シアーの座標変換である。このアフィン変換は、元の図形で直線状に並ぶ点は変換後も直線状に並び、平行線は変換後も平行線であるといったように、幾何学的性質が保たれる変換方式である。したがって、撮像装置10においては、ディジタルカメラ11,11のカメラレンズの光学歪みの性質、すなわち、カメラレンズの収差特質を予めデータとして採取しておき、フラッシュROM55等に記憶させておく。これにより、撮像装置10においては、画像処理部52の演算により、カメラレンズの収差特質を示すデータを用いて、当該カメラレンズの収差による光学歪みを除去した可視画像データを得ることができる。 This affine transformation is a method of moving or transforming figures and shapes by a combination of Euclidean geometric linear transformation and parallel movement, and can be represented by 4 × 4 matrix operations. Shear's coordinate transformation. This affine transformation is a transformation method in which geometrical properties are maintained such that points arranged in a straight line in the original figure are arranged in a straight line after conversion, and parallel lines are parallel lines after conversion. Therefore, in the imaging apparatus 10, the nature of the optical distortion of the camera lens of the digital cameras 11 1 and 11 2 , that is, the aberration characteristic of the camera lens is previously collected as data and stored in the flash ROM 55 or the like. As a result, in the imaging device 10, visible image data from which the optical distortion due to the aberration of the camera lens is removed can be obtained by the calculation of the image processing unit 52 using the data indicating the aberration characteristic of the camera lens.

撮像装置10においては、撮像された複数毎の可視画像データの全てについて、このようなレンズ収差補正処理を行う。撮像装置10においては、レンズ収差補正処理を行って得られた補正後の可視画像データを、画像処理部52及び主制御部54の制御のもとに、PCMCIAカード型メモリ14に対して記憶させたり、表示部12に表示させたりすることができる。   In the imaging device 10, such lens aberration correction processing is performed on all of the plurality of visible image data captured. In the imaging apparatus 10, the corrected visible image data obtained by performing the lens aberration correction processing is stored in the PCMCIA card type memory 14 under the control of the image processing unit 52 and the main control unit 54. Or can be displayed on the display unit 12.

そして、撮像装置10においては、操作ボタン13における解析ボタンを操作することにより、ディジタルカメラ11,11によって撮像された可視画像データについて画像解析処理を行う。このとき、撮像装置10においては、画像処理部52及び主制御部54の制御のもとに、ディジタルカメラ11,11によって撮像された可視画像データ上において計測値を求める計測領域を指定させるための画像データを表示部12に表示する。なお、この計測領域とは、平面近似を行って計測値を求める領域のことである。撮像装置10においては、表示部12に表示された計測領域を指定させるための画像データ上において、測定者が解析ボタンを用いて平面近似を行う領域を例えば矩形状に指定すると、画像処理部52によって当該画像データ上の特徴点を自動的に抽出する、又は測定者によって特徴点が手動で任意に指定され、これら特徴点を対象点として、上述した12個の非線形連立方程式を解く画像解析処理を行い、平面の状況を算出する。なお、撮像装置10においては、明白な段差が存在する領域を解析する場合には、その段差を跨がないように別個の平面として領域を指定すればよい。 And in the imaging device 10, by operating the analysis button in the operation button 13, image analysis processing is performed on the visible image data captured by the digital cameras 11 1 and 11 2 . At this time, in the imaging device 10, under the control of the image processing unit 52 and the main control unit 54, a measurement region for obtaining a measurement value is specified on the visible image data captured by the digital cameras 11 1 and 11 2 . The image data for displaying is displayed on the display unit 12. The measurement area is an area for obtaining a measurement value by performing plane approximation. In the imaging device 10, when the measurer designates a region for plane approximation using an analysis button on the image data for designating the measurement region displayed on the display unit 12, for example, a rectangular shape, the image processing unit 52. The feature points on the image data are automatically extracted by the above, or the feature points are manually designated arbitrarily by the measurer, and the above-described twelve nonlinear simultaneous equations are solved using these feature points as the target points. To calculate the state of the plane. In the imaging apparatus 10, when analyzing a region where an obvious step exists, the region may be specified as a separate plane so as not to cross the step.

続いて、撮像装置10においては、さらに操作ボタン13における解析ボタンを操作することにより、指定された計測領域内で計測点を指定させる。このとき、撮像装置10においては、画像処理部52及び主制御部54の制御のもとに、計測点を指定させるための画像データを表示部12に表示する。撮像装置10においては、表示部12に表示された計測点を指定させるための画像データ上において、例えば図3に示すように、測定者が解析ボタンを用いて、例えばひび割れだと認められる箇所の両端点といったように、2つの計測点MP,MPを任意に指定する。これに応じて、撮像装置10においては、画像処理部52により、指定された2点の座標値を表す4個の未知数に関する4個の非線形方程式を直接解くことによって当該2点の計測点座標を求め、この座標に基づいて当該2点間の寸法を算出する。また、撮像装置10においては、少なくとも3点で規定された領域の面積を算出する場合には、同図に示すように、測定者が解析ボタンを用いて少なくとも3つの計測点MP,MP,MPを任意に指定すると、画像処理部52により、指定された少なくとも3点の座標値を表す複数個の未知数に関する複数個の非線形方程式を直接解くことによって少なくとも3点の計測点座標を求め、この座標に基づいて当該少なくとも3点で規定された領域の面積を算出する。 Subsequently, in the imaging apparatus 10, the measurement point is designated within the designated measurement region by further operating the analysis button in the operation button 13. At this time, in the imaging apparatus 10, image data for designating measurement points is displayed on the display unit 12 under the control of the image processing unit 52 and the main control unit 54. In the imaging device 10, on the image data for designating the measurement point displayed on the display unit 12, for example, as shown in FIG. Two measurement points MP 1 and MP 2 are arbitrarily designated such as both end points. In response to this, in the imaging apparatus 10, the measurement point coordinates of the two points are obtained by directly solving the four nonlinear equations regarding the four unknowns representing the coordinate values of the two designated points by the image processing unit 52. Then, based on these coordinates, the dimension between the two points is calculated. Further, in the imaging apparatus 10, when calculating the area of the region defined by at least three points, as shown in the figure, the measurer uses the analysis button to at least three measurement points MP 3 and MP 4. , MP 5 is arbitrarily specified, the image processing unit 52 obtains at least three measurement point coordinates by directly solving a plurality of nonlinear equations concerning a plurality of unknowns representing the specified coordinate values of at least three points. Based on these coordinates, the area of the region defined by the at least three points is calculated.

そして、撮像装置10においては、例えば図4に示すように、画像処理部52によって算出した寸法値データRSや面積値データRAを可視画像データに重畳した計測結果としての画像データを生成し、主制御部54の制御のもとに、当該画像データを表示部12に表示する。また、撮像装置10においては、画像処理部52及び主制御部54の制御のもとに、算出した寸法値データや面積値データをPCMCIAカード型メモリ14に対して記憶させることもできる。このとき、撮像装置10においては、主制御部54の制御のもとに、可視画像データを構成する画像ファイルの名称及び撮像日時といった当該可視画像データの生成に関する情報をヘッダとして、当該可視画像データ、並びに当該可視画像データに対する上記ディジタルカメラの位置及び回転に関するデータを対応付けて、PCMCIAカード型メモリ14に対して当該可視画像データ単位で記憶させることにより、膨大数の可視画像データを撮像した場合であっても、極めて容易な管理体系を構築することが可能となる。   Then, in the imaging device 10, for example, as shown in FIG. 4, image data as a measurement result is generated by superimposing the dimension value data RS and the area value data RA calculated by the image processing unit 52 on the visible image data. The image data is displayed on the display unit 12 under the control of the control unit 54. In the imaging apparatus 10, the calculated dimension value data and area value data can be stored in the PCMCIA card type memory 14 under the control of the image processing unit 52 and the main control unit 54. At this time, in the imaging device 10, under the control of the main control unit 54, the visible image data is generated using the information related to generation of the visible image data such as the name of the image file and the imaging date and time constituting the visible image data as a header. In addition, when data relating to the position and rotation of the digital camera is associated with the visible image data and stored in the visible image data unit in the PCMCIA card type memory 14, a large amount of visible image data is captured. Even so, an extremely easy management system can be constructed.

以上説明したように、本発明の実施の形態として示す撮像装置10は、2つのディジタルカメラ11,11によって互いに異なる視点から撮像された少なくとも2枚の可視画像データを用いるとともに、計測すべき撮像対象物を平面の集合体であるものと近似した上で、各平面内の当該撮像対象物の2次元情報を取得することにより、極めて簡便な構成でありながら、マーカや高性能のパーソナルコンピュータ等を一切必要とせずに、現場において寸法を非接触で計測することができる。また、撮像装置10においては、当該撮像装置10を用いることによって取得される撮像対象物の寸法や面積等のディジタルデータを含むCAD(Computer Aided Design)図面を容易に作成することが可能となり、例えば欠陥部の大きさが図面上に明示された変状展開図を容易に作成することができる。さらに、撮像装置10においては、画像解析処理を行うことによってディジタルカメラ11,11から可視画像データ上における撮像対象物中心までの距離や角度を計測することができることから、当該撮像対象物までの距離を測定する測距計や当該撮像対象物の撮像角度を測定する角度測定器を別途設ける必要がなく、装置の大幅な小型化を図ることができる。 As described above, the imaging apparatus 10 shown as the embodiment of the present invention uses at least two pieces of visible image data captured from different viewpoints by the two digital cameras 11 1 and 11 2 and should measure the image data. By approximating the object to be imaged to be a collection of planes and acquiring two-dimensional information of the object to be imaged in each plane, the marker and high-performance personal computer have an extremely simple configuration. It is possible to measure the dimensions in a non-contact manner on the site without any need. Further, in the imaging apparatus 10, it is possible to easily create a CAD (Computer Aided Design) drawing including digital data such as the size and area of the imaging object acquired by using the imaging apparatus 10, for example, It is possible to easily create a deformed development view in which the size of the defect portion is clearly shown on the drawing. Furthermore, since the imaging apparatus 10 can measure the distance and angle from the digital cameras 11 1 and 11 2 to the center of the imaging object on the visible image data by performing image analysis processing, the imaging apparatus 10 It is not necessary to separately provide a distance meter for measuring the distance of the lens and an angle measuring device for measuring the imaging angle of the imaging object, and the apparatus can be greatly reduced in size.

なお、本発明は、上述した実施の形態に限定されるものではない。例えば、上述した実施の形態では、2つのディジタルカメラ11,11を用いるものとして説明したが、本発明は、互いに異なる視点から撮像した少なくとも2枚の可視画像データを用いるのであればよい。したがって、本発明は、3つ以上のディジタルカメラを搭載した場合であっても適用することができる。 The present invention is not limited to the embodiment described above. For example, in the above-described embodiment, it has been described that two digital cameras 11 1 and 11 2 are used. However, the present invention only needs to use at least two pieces of visible image data captured from different viewpoints. Therefore, the present invention can be applied even when three or more digital cameras are mounted.

さらに、上述した実施の形態では、可視画像データの撮像のみを行うものとして説明したが、本発明は、より精密な解析を行うために、赤外線カメラを搭載するようにしてもよい。   Further, in the above-described embodiment, it has been described that only visible image data is captured. However, in order to perform more precise analysis, an infrared camera may be mounted.

具体的には、図5に示すような撮像装置100を構成することができる。すなわち、この撮像装置100は、撮像装置10に対して、撮像対象物である構造物の熱画像データを撮像する赤外線カメラ111を、ディジタルカメラ11,11と同様に、そのカメラレンズが図示しない筐体の正面側壁面から外部に露呈するように配設して備えるとともに、この赤外線カメラ111によって撮像された熱画像データを符号化するビデオエンコーダ112を備える。 Specifically, an imaging apparatus 100 as shown in FIG. 5 can be configured. That is, the imaging apparatus 100 includes an infrared camera 111 that captures thermal image data of a structure that is an imaging target, as with the digital cameras 11 1 and 11 2. The video encoder 112 includes a video encoder 112 that encodes thermal image data captured by the infrared camera 111.

赤外線カメラ111は、例えば、測定温度範囲が−20℃〜100℃程度であり、撮像された画像データの画素数が320(H)×240(V)ドット程度である赤外線カメラを用いて構成することができる。   The infrared camera 111 is configured using, for example, an infrared camera whose measurement temperature range is about −20 ° C. to 100 ° C. and the number of pixels of the captured image data is about 320 (H) × 240 (V) dots. be able to.

ビデオエンコーダ112は、赤外線カメラ111によって撮像される熱画像データがアナログデータである場合に設けられるものである。すなわち、ビデオエンコーダ112は、赤外線カメラ111によって撮像されたアナログの熱画像データを取得すると、この熱画像データに対して所定の符号化を施し、例えばQVGA(Quarter Video Graphics Array)形式等のディジタルの熱画像データを生成する。ビデオエンコーダ112は、生成した熱画像データを画像処理部52に供給する。なお、赤外線カメラ111は、フォーカス等の設定を手動で行うようにしてもよく、または、ディジタルカメラ11,11と同様に、主制御部54の制御に基づいて制御が行われるようにしてもよい。 The video encoder 112 is provided when the thermal image data captured by the infrared camera 111 is analog data. That is, when the video encoder 112 acquires the analog thermal image data imaged by the infrared camera 111, the video encoder 112 performs a predetermined encoding on the thermal image data, for example, a digital video such as a QVGA (Quarter Video Graphics Array) format. Generate thermal image data. The video encoder 112 supplies the generated thermal image data to the image processing unit 52. Note that the infrared camera 111 may be manually set for focus or the like, or, like the digital cameras 11 1 and 11 2 , the infrared camera 111 is controlled based on the control of the main control unit 54. Also good.

このような撮像装置100においては、可視画像データのみならず熱画像データを取得することができることから、撮像対象物の表面に現れる欠陥のみならず、浮き、空洞、ジャンカといった表面付近の内部欠陥を発見することも可能となる。そして、撮像装置100においては、本願出願人が既に出願している特願2004−112222号明細書や特願2004−156047号明細書に詳述したように、可視画像データと熱画像データとを重畳して融合させた画像データである熱可視融合画像データや、熱画像データから任意の温度範囲のデータのみを抽出した画像データである抽出表示画像データ等を、画像処理部52によって生成し、表示部12に表示することが可能となる。   In such an imaging apparatus 100, not only visible image data but also thermal image data can be acquired, so that not only defects appearing on the surface of the object to be imaged but also internal defects near the surface such as floats, cavities, and jumpers are detected. It is also possible to discover. In the imaging apparatus 100, as detailed in Japanese Patent Application Nos. 2004-112222 and 2004-1556047 already filed by the applicant of the present application, visible image data and thermal image data are obtained. The image processing unit 52 generates thermo-visible fusion image data that is image data that is superimposed and fused, or extracted display image data that is image data obtained by extracting only data in an arbitrary temperature range from the thermal image data. It can be displayed on the display unit 12.

より具体的には、撮像装置100においては、ディジタルカメラ11,11のいずれかによって撮像された可視画像データと赤外線カメラ111によって撮像された熱画像データとに基づいて、画像処理部52によって以下のような熱可視融合画像データ及び/又は抽出表示画像データを生成して表示部12に表示する。なお、熱可視融合画像データ及び/又は抽出表示画像データを生成する際には、2つのディジタルカメラ11,11のうち一方のディジタルカメラによって撮像された可視画像データのみを用い、他方のディジタルカメラによって撮像された可視画像データについては、後述するパララックス補正処理において必要となる撮像対象物までの距離と角度とを求めるために用いる。したがって、以下では、熱可視融合画像データ及び/又は抽出表示画像データを生成するために用いる可視画像データとしては、ディジタルカメラ11によって撮像されたものを用い、撮像対象物までの距離と角度とを求めるために用いる可視画像データとしては、ディジタルカメラ11によって撮像されたものを用いるものとする。 More specifically, in the imaging apparatus 100, the image processing unit 52 uses the visible image data captured by any one of the digital cameras 11 1 and 11 2 and the thermal image data captured by the infrared camera 111. The following heat-visible fusion image data and / or extracted display image data is generated and displayed on the display unit 12. When generating the thermo-visible fusion image data and / or the extracted display image data, only the visible image data captured by one of the two digital cameras 11 1 and 11 2 is used, and the other digital camera is used. The visible image data imaged by the camera is used to obtain the distance and angle to the imaging object that are necessary in the parallax correction process described later. Therefore, in the following, as a visible image data used to generate the heat visible fused image data and / or the extracted display image data, used as captured by the digital camera 11 1, and the distance and angle to the imaging object the visible image data used to determine the, shall be used those which are captured by the digital camera 11 2.

まず、撮像装置100においては、熱可視融合画像データを生成する際には、以下のような処理を行う。   First, in the imaging apparatus 100, the following processing is performed when generating thermo-visible fusion image data.

まず、撮像装置100においては、画像処理部52に可視画像データ及び熱画像データが供給されると、当該画像処理部52によってこれら可視画像データ及び熱画像データを等縮尺に補正し、この補正後の等縮尺画像データをSDRAM53に格納する。また、撮像装置100においては、画像処理部52により、上述したレンズ収差補正処理を実行する。そして、撮像装置100においては、レンズ収差補正処理を行うと、画像処理部52によってパララックス補正処理を実行する。   First, in the imaging apparatus 100, when visible image data and thermal image data are supplied to the image processing unit 52, the image processing unit 52 corrects the visible image data and thermal image data to an equal scale, and after this correction Are stored in the SDRAM 53. In the imaging apparatus 100, the image aberration correction process is performed by the image processing unit 52. In the imaging apparatus 100, when the lens aberration correction process is performed, the image processing unit 52 executes the parallax correction process.

このパララックス補正処理は、特願2002−379548号明細書に詳述されている。すなわち、撮像装置100においては、筐体内部にディジタルカメラ11と赤外線カメラ111とが並置されて収納された構造とされることから、ディジタルカメラ11の撮像範囲と赤外線カメラ111の撮像範囲との間にずれ、すなわち、視差(パララックス)が生じる。パララックス補正処理は、このようなパララックスを補正する処理である。 This parallax correction process is described in detail in Japanese Patent Application No. 2002-379548. That is, in the imaging apparatus 100, since it is the housing interior and the digital camera 11 1 and the infrared camera 111 is accommodated juxtaposed to the structure, the imaging range of the digital camera 11 1 of the imaging range and the infrared camera 111 In other words, a shift, that is, parallax occurs. The parallax correction process is a process for correcting such a parallax.

撮像装置100においては、水平方向のカメラレンズ画角が等しく、且つ垂直方向のカメラレンズ画角が等しいディジタルカメラ11及び赤外線カメラ111を垂直方向に平行に並べて同一方向の被写体を撮像した場合には、これら2種類のカメラのうちいずれか一方の種類のカメラの撮像画像データを、パララックス量の分だけ垂直方向に移動させることにより、これら2種類のカメラによって得られた画像データを重ね合わせ、合致させた画像データを合成することができる。また、撮像装置100においては、ディジタルカメラ11及び赤外線カメラ111のカメラレンズ画角が異なる場合には、これらディジタルカメラ11と赤外線カメラ111とのそれぞれのカメラ光学系中心間距離と、他方のディジタルカメラ11によって撮像された可視画像データを用いた上述した画像解析処理によって求められた撮像対象物までの距離とを用いて、可視画像データと熱画像データとの視点の違いによる視差を補正することができる。 In the imaging apparatus 100, equal horizontal direction of the camera lens angle, when imaging the same direction of the object and a vertical direction of the camera lens angle equals digital camera 11 1 and the infrared camera 111 are arranged in parallel in the vertical direction Moves the captured image data of one of these two types of cameras in the vertical direction by the amount of parallax, thereby superimposing the image data obtained by these two types of cameras. The matched image data can be synthesized. Further, in the imaging apparatus 100, when the camera lens angle of the digital camera 11 1 and the infrared camera 111 is different, and each camera optics the distance between the centers of these digital camera 11 1 and the infrared camera 111, the other by using the distance to the imaging target object obtained by the above-described image analysis processing using the visible image data captured by the digital camera 11 2, correcting the parallax caused by the difference in perspective between the visible image data and thermal image data can do.

なお、撮像装置100においては、ディジタルカメラ11を赤外線カメラ111の直上となる位置に配設することにより、このようなパララックス補正を簡略化することができる。 In the imaging apparatus 100, by disposing the digital camera 11 1 to a position to be directly above the infrared camera 111, it can be simplified such parallax correction.

また、撮像装置100においては、ディジタルカメラ11及び赤外線カメラ111のカメラレンズ画角が異なる場合には、可視画像データと熱画像データとを同一視野及び同一画角となるように補正する。このとき、撮像装置100においては、カメラレンズ画角が小さい方の値を用いて可視画像データと熱画像データとの視野及び画角を一致させる。 Further, in the imaging apparatus 100, when the camera lens angle of the digital camera 11 1 and the infrared camera 111 is different, corrected to the visible image data and thermal image data become the same field of view and the same angle. At this time, in the imaging apparatus 100, the field of view and the angle of view of the visible image data and the thermal image data are matched using the value with the smaller camera lens angle of view.

撮像装置100においては、このようなパララックス補正処理を行うと、視野及び画角が一致した可視画像データと熱画像データとを重畳して融合させた熱可視融合画像データや、補正した熱画像データから任意の温度範囲のデータのみを抽出した抽出表示画像データを画像処理部52によって生成し、主制御部54の制御のもとに、生成した熱可視融合画像データ及び/又は抽出表示画像データを表示部12に表示する。   In the imaging apparatus 100, when such parallax correction processing is performed, thermo-visible fusion image data obtained by superimposing and fusing visible image data and thermal image data having the same field of view and angle of view, or a corrected thermal image. Extracted display image data obtained by extracting only data in an arbitrary temperature range from the data is generated by the image processing unit 52, and the generated thermo-visible fusion image data and / or extracted display image data under the control of the main control unit 54 Is displayed on the display unit 12.

ここで、撮像装置100においては、操作ボタン13を操作することにより、画像処理部52により、熱可視融合画像データについて、重ね合わせる可視画像データ及び熱画像データの表示強度比率を可変とすることができる。具体的には、撮像装置100においては、熱画像強度:可視画像強度を75:25とした場合には、図6に示すように、可視画像データの成分に比べ熱画像データの成分が強く現れる熱可視融合画像データを表示部12に表示する。また、撮像装置100においては、熱画像強度を小さくし、熱画像強度:可視画像強度を50:50とした場合には、図7に示すように、可視画像データの成分と熱画像データの成分とが同等レベルで現れる熱可視融合画像データを表示部12に表示する。さらに、撮像装置100においては、熱画像強度をさらに小さくし、熱画像強度:可視画像強度を25:75とした場合には、図8に示すように、可視画像データに対して熱画像データが弱レベルで重畳された熱可視融合画像データを表示部12に表示する。したがって、撮像装置100においては、熱画像強度:可視画像強度を100:0とした場合には、熱画像データを表示部12に表示することができ、熱画像強度:可視画像強度を0:100とした場合には、可視画像データを表示部12に表示することができる。   Here, in the imaging device 100, by operating the operation button 13, the image processing unit 52 can change the display intensity ratio of the visible image data and the thermal image data to be superimposed on the thermal-visible fusion image data. it can. Specifically, in the imaging apparatus 100, when the thermal image intensity: visible image intensity is set to 75:25, the thermal image data component appears stronger than the visible image data component as shown in FIG. The thermo-visible fusion image data is displayed on the display unit 12. In the imaging apparatus 100, when the thermal image intensity is reduced and the thermal image intensity: visible image intensity is 50:50, as shown in FIG. 7, the components of the visible image data and the components of the thermal image data are as shown in FIG. Is displayed on the display unit 12. Furthermore, in the imaging apparatus 100, when the thermal image intensity is further reduced and the thermal image intensity: visible image intensity is set to 25:75, as shown in FIG. Thermo-visible fusion image data superimposed at a weak level is displayed on the display unit 12. Therefore, in the imaging apparatus 100, when the thermal image intensity: visible image intensity is set to 100: 0, the thermal image data can be displayed on the display unit 12, and the thermal image intensity: visible image intensity is set to 0: 100. In this case, the visible image data can be displayed on the display unit 12.

なお、撮像装置100においては、熱可視融合画像データとして重ね合わせる可視画像データ及び熱画像データの表示強度比率を測定者に視覚的に提示するのが望ましく、例えば図9に示すように、操作ボタン13の操作による可視画像データ及び熱画像データの表示強度比率の変化に応じて一方向にスクロールすることによって現在の表示強度比率を示すことが可能とされる指標情報であるスクロールバーを、熱可視融合画像データとともに表示部12に表示するようにしてもよい。このとき、撮像装置100においては、表示画面の面積に限りがある表示部12に表示された熱可視融合画像データの表示を妨げないように、必要に応じて、当該表示部12に対するスクロールバーの表示・非表示を切り替える機能を備えてもよい。   In the imaging apparatus 100, it is desirable to visually present to the measurer the display intensity ratio of the visible image data and the thermal image data to be superimposed as the thermo-visible fusion image data. For example, as shown in FIG. The scroll bar, which is index information that can indicate the current display intensity ratio by scrolling in one direction according to the change in the display intensity ratio of the visible image data and the thermal image data by the operation 13, You may make it display on the display part 12 with fusion image data. At this time, in the imaging device 100, the scroll bar for the display unit 12 may be displayed as necessary so as not to hinder the display of the thermo-visible fusion image data displayed on the display unit 12 having a limited display screen area. A function of switching between display and non-display may be provided.

このように、撮像装置100においては、熱可視融合画像データを表示部12に表示する際に、可視画像データ及び熱画像データの表示強度比率を任意に変化させることができる。したがって、撮像装置100においては、可視画像データのみでは認識できない欠陥部の存在を把握したい場合には熱画像強度を大きくしたり、熱画像強度を小さくした熱可視融合画像データから欠陥部であるものと推測した箇所を、熱画像強度を大きくすることによって確認したりする作業を行うことが可能となる。   As described above, in the imaging apparatus 100, when the thermo-visible fusion image data is displayed on the display unit 12, the display intensity ratio between the visible image data and the thermal image data can be arbitrarily changed. Therefore, in the imaging apparatus 100, when it is desired to grasp the existence of a defective portion that cannot be recognized only by the visible image data, the thermal image intensity is increased or the defective portion is obtained from the thermo-visible fusion image data with the reduced thermal image intensity. It is possible to perform an operation of confirming the estimated location by increasing the thermal image intensity.

また、撮像装置100においては、操作ボタン13の操作により、上述したように、画像処理部52によって抽出表示画像データを生成し、表示部12に表示することができる。   Further, in the imaging apparatus 100, the extracted display image data can be generated by the image processing unit 52 and displayed on the display unit 12 by the operation of the operation button 13 as described above.

具体的には、撮像装置100においては、画像処理部52により、熱画像データを温度に変換し、その温度の最大値(Max)から最小値(Min)までの範囲、及びこれら最大値乃至最小値の間の任意の温度範囲を、所定の段階に区分けし、これら各段階を所定の色に変換して抽出表示画像データを生成する。ここで、温度の最大値及び最小値は、撮像対象物全体に対する値が必要とされるが、撮像装置100においては、これら最大値及び最小値が測定前には不明であることから、画像処理部52により、所定の予測式に基づいて、最大値及び最小値の初期値を自動的に設定する。そして、撮像装置100においては、最大値及び最小値の実測値を取得した後には、その実測値を用いて、画像処理部52によって診断に供する最大値及び最小値を設定することができる。   Specifically, in the imaging device 100, the image processing unit 52 converts the thermal image data into a temperature, a range from the maximum value (Max) to the minimum value (Min) of the temperature, and the maximum value to the minimum value. An arbitrary temperature range between the values is divided into predetermined stages, and each of these stages is converted into a predetermined color to generate extracted display image data. Here, the maximum value and the minimum value of the temperature are required for the entire imaging target. However, in the imaging apparatus 100, since the maximum value and the minimum value are unknown before measurement, image processing is performed. The unit 52 automatically sets the initial value of the maximum value and the minimum value based on a predetermined prediction formula. In the imaging apparatus 100, after acquiring the actual values of the maximum value and the minimum value, the image processing unit 52 can set the maximum value and the minimum value for diagnosis using the actual values.

ここで、撮像装置100においては、抽出表示画像データとして表示部12に表示させるために熱画像データから抽出する温度範囲を、温度幅を示す"感度"及び当該温度範囲の"中心値"を可変とすることができる操作ボタン13を操作することにより、画像処理部52によって任意に可変とすることができる。すなわち、撮像装置100においては、操作ボタン13を操作することにより、抽出表示画像データについて、熱画像データから抽出する温度範囲を可変とすることができる。このとき、撮像装置100においては、画像処理部52により、所定の経験式に基づいて、感度及び中心値の初期値を自動的に設定する。   Here, in the imaging apparatus 100, the temperature range extracted from the thermal image data for display on the display unit 12 as the extracted display image data, the “sensitivity” indicating the temperature range, and the “center value” of the temperature range are variable. By operating the operation button 13 that can be set as follows, the image processing unit 52 can arbitrarily change the value. That is, in the imaging apparatus 100, by operating the operation button 13, the temperature range extracted from the thermal image data can be made variable for the extracted display image data. At this time, in the imaging apparatus 100, the image processing unit 52 automatically sets the initial values of the sensitivity and the center value based on a predetermined empirical formula.

具体的には、撮像装置100においては、例えば図10中(a)に示すように、感度S及び中心値Cを初期値として設定した場合において、同図中(b)に示すように、感度についてはS(=S)として変化させずに、中心値をC(>C)に変化させた場合には、温度範囲の幅は変化させずに高い温度のデータのみを熱画像データから抽出する。また、撮像装置100においては、同図中(c)に示すように、感度についてはS(=S)として変化させずに、中心値をC(<C)に変化させた場合には、温度範囲の幅は変化させずに低い温度のデータのみを熱画像データから抽出する。さらに、撮像装置100においては、同図中(d)に示すように、中心値についてはC(=C)として変化させずに、感度をS(<S)に変化させた場合には、熱画像データから抽出する温度範囲の幅を大きくする。さらにまた、撮像装置100においては、同図中(e)に示すように、中心値についてはC(=C)として変化させずに、感度をS(<S)に変化させた場合には、熱画像データから抽出する温度範囲の幅を狭くする。したがって、撮像装置100においては、温度範囲の最大値から最小値の全てを包含するように、感度及び中心値を設定した場合には、熱画像データを表示部12に表示することができる。 Specifically, in the imaging apparatus 100, for example, as shown in FIG. 10A, when the sensitivity S a and the center value C a are set as initial values, as shown in FIG. When the central value is changed to C b (> C a ) without changing the sensitivity as S b (= S a ), only the high temperature data is changed without changing the width of the temperature range. Extract from thermal image data. Further, in the imaging apparatus 100, as shown in (c) of the figure, when the center value is changed to C c (<C a ) without changing the sensitivity as S c (= S a ). First, only the low temperature data is extracted from the thermal image data without changing the width of the temperature range. Furthermore, in the imaging apparatus 100, as shown in (d) in the figure, when the sensitivity is changed to S d (<S a ) without changing the center value as C d (= C a ). First, the width of the temperature range extracted from the thermal image data is increased. Furthermore, in the imaging apparatus 100, as shown in (e) in the figure, the sensitivity is changed to S e (<S a ) without changing the center value as C e (= C a ). In this case, the width of the temperature range extracted from the thermal image data is narrowed. Therefore, in the imaging device 100, when the sensitivity and the center value are set so as to include all of the maximum value and the minimum value of the temperature range, the thermal image data can be displayed on the display unit 12.

このように、撮像装置100においては、感度及び中心値によって決定される熱画像データにおける温度の最大値乃至最小値の間の任意の温度範囲に属するデータのみを当該熱画像データから抽出し、これを抽出表示画像データとして表示部12に表示することができる。これにより、撮像装置100においては、通常の可視画像データや熱画像データのみでは認識できない欠陥部の存在を高精度に把握することが可能となる。   As described above, in the imaging apparatus 100, only data belonging to an arbitrary temperature range between the maximum value and the minimum value of the temperature in the thermal image data determined by the sensitivity and the center value is extracted from the thermal image data. Can be displayed on the display unit 12 as extracted display image data. Thereby, in the imaging device 100, it is possible to accurately grasp the existence of a defective portion that cannot be recognized only by normal visible image data or thermal image data.

なお、撮像装置100においては、抽出表示画像データとして表示部12に表示させるために熱画像データから抽出する温度範囲温度範囲についても、測定者に視覚的に提示するのが望ましく、例えば、温度の最大値乃至最小値のうち、いずれの温度範囲の部分をいずれの色を用いて表示しているのかを示すことが可能とされる指標情報として、図10に示したような温度範囲バーを抽出表示画像データとともに表示部12に表示するようにしてもよい。この場合においても、撮像装置100においては、表示画面の面積に限りがある表示部12に表示された抽出表示画像データの表示を妨げないように、必要に応じて、当該表示部12に対する温度範囲バーの表示・非表示を切り替える機能を備えてもよい。   In the imaging apparatus 100, it is desirable that the temperature range extracted from the thermal image data to be displayed on the display unit 12 as the extracted display image data is also visually presented to the measurer. A temperature range bar as shown in FIG. 10 is extracted as index information that can indicate which temperature range of the maximum value to the minimum value is displayed using which color. You may make it display on the display part 12 with display image data. Even in this case, in the imaging device 100, the temperature range for the display unit 12 may be set as necessary so as not to hinder the display of the extracted display image data displayed on the display unit 12 having a limited display screen area. You may provide the function to switch display / non-display of a bar.

このように、撮像装置100においては、重ね合わせる可視画像データ及び熱画像データの表示強度比率を任意に変化させることができる熱可視融合画像データや、表示させる温度範囲を任意に変化させることができる抽出表示画像データを生成することにより、測定者にとって極めて利便の高いツールを提供することができる。   As described above, in the imaging apparatus 100, the thermal-visible fusion image data that can arbitrarily change the display intensity ratio of the visible image data and the thermal image data to be superimposed, and the temperature range to be displayed can be arbitrarily changed. By generating the extracted display image data, a tool that is extremely convenient for the measurer can be provided.

そして、撮像装置100においては、任意の2点間の寸法及び/又は少なくとも3点で規定された領域の面積を算出した場合には、これらの寸法値データや面積値データを、可視画像データのみならず、これら生成した熱可視融合画像データや抽出表示画像データに重畳し、表示部12に表示させることができる。   In the imaging apparatus 100, when the dimension between two arbitrary points and / or the area of the region defined by at least three points is calculated, these dimension value data and area value data are converted into only visible image data. Instead, they can be superimposed on the generated thermo-visible fusion image data or extracted display image data and displayed on the display unit 12.

このように、本発明は、その趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。   Thus, it goes without saying that the present invention can be modified as appropriate without departing from the spirit of the present invention.

本発明の実施の形態として示す撮像装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the imaging device shown as embodiment of this invention. 画像解析を行う対象点と、画像データ上の像点と、カメラ位置との幾何学関係について説明する図であり、共線条件式を説明するための図である。It is a figure explaining the geometric relationship between the object point which performs image analysis, the image point on image data, and a camera position, and is a figure for explaining a collinear conditional expression. 同撮像装置における表示部に表示された計測点を指定させるための画像データの例を説明する図である。It is a figure explaining the example of the image data for designating the measurement point displayed on the display part in the imaging device. 同撮像装置における表示部に表示された計測結果としての画像データの例を説明する図である。It is a figure explaining the example of the image data as a measurement result displayed on the display part in the imaging device. 赤外線カメラを搭載した本発明の他の実施の形態として示す撮像装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the imaging device shown as other embodiment of this invention carrying an infrared camera. 熱画像強度:可視画像強度を75:25とした場合における熱可視融合画像データの例を説明する図である。Thermal image intensity: It is a figure explaining the example of thermo-visible fusion image data in case visible image intensity is set to 75:25. 熱画像強度:可視画像強度を50:50とした場合における熱可視融合画像データの例を説明する図である。Thermal image intensity: It is a figure explaining the example of thermo-visible fusion image data when visible image intensity is 50:50. 熱画像強度:可視画像強度を25:75とした場合における熱可視融合画像データの例を説明する図である。Thermal image intensity: It is a figure explaining the example of thermo-visible fusion image data when visible image intensity is 25:75. 熱可視融合画像データとして重ね合わせる可視画像データ及び熱画像データの表示強度比率を示すスクロールバーの例を説明する図である。It is a figure explaining the example of the scroll bar which shows the display intensity ratio of the visible image data and thermal image data to superimpose as thermo-visible fusion image data. 抽出表示画像データとして表示部に表示させる温度範囲を決定する感度及び中心値の設定例について説明する図である。It is a figure explaining the example of a setting of the sensitivity and center value which determine the temperature range displayed on a display part as extraction display image data.

符号の説明Explanation of symbols

10 撮像装置
11,11 ディジタルカメラ
12 表示部
13 操作ボタン
14 PCMCIAカード型メモリ
51,51 カメラ制御部
52 画像処理部
53,56 SDRAM
54 主制御部
55 フラッシュROM
57 PCMCIAコントローラ
58 PCMCIAカードスロット
59 RTC
111 赤外線カメラ
112 ビデオエンコーダ
10 imaging device 11 1, 11 2 digital camera 12 display unit 13 operating button 14 PCMCIA card type memory 51 1, 51 2 camera control unit 52 image processing unit 53 and 56 SDRAM
54 Main controller 55 Flash ROM
57 PCMCIA controller 58 PCMCIA card slot 59 RTC
111 Infrared camera 112 Video encoder

Claims (23)

画像データを撮像する撮像装置であって、
互いに異なる視点から撮像対象物の可視画像データを撮像する少なくとも2つのディジタルカメラと、
上記ディジタルカメラのそれぞれによって撮像された可視画像データに対して各種画像処理を施す画像処理手段と、
少なくとも画像データを含む各種情報を表示する表示手段と、
少なくとも画像データを上記表示手段に表示させる制御手段とを備え、
上記画像処理手段は、上記撮像対象物を平面の集合体であるものと近似し、各平面内の当該撮像対象物の2次元情報を取得する画像解析を、上記少なくとも2つのディジタルカメラのそれぞれによって撮像された少なくとも2枚の可視画像データに基づいて行い、当該可視画像データ上で指定された任意の2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出し、
上記制御手段は、上記画像処理手段によって2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出した結果を示す寸法値データ及び/又は面積値データを上記表示手段に表示させること
を特徴とする撮像装置。
An imaging device for imaging image data,
At least two digital cameras that capture visible image data of the imaging object from different viewpoints;
Image processing means for performing various types of image processing on visible image data captured by each of the digital cameras;
Display means for displaying various information including at least image data;
Control means for displaying at least image data on the display means,
The image processing means approximates the imaging object to be an assembly of planes, and performs image analysis for obtaining two-dimensional information of the imaging object in each plane by each of the at least two digital cameras. Based on at least two captured visible image data, calculate the size between any two points specified on the visible image data and / or the area of the region defined by at least three points,
The control means displays, on the display means, dimension value data and / or area value data indicating a result of calculating a dimension between two points and / or an area of a region defined by at least three points by the image processing means. An image pickup device characterized by
上記少なくとも2つのディジタルカメラは、その内部標定要素がそれぞれ既知量であるとともに、その外部標定要素の相対差が固定とされること
を特徴とする請求項1記載の撮像装置。
The imaging apparatus according to claim 1, wherein the at least two digital cameras each have a known amount of an internal orientation element and a relative difference between the external orientation elements is fixed.
上記平面の状況は、12個の未知数と、これら12個の未知数に関する12個の非線形方程式とによって記述され、
上記画像処理手段は、上記12個の非線形連立方程式を解くことによって上記平面の状況を算出すること
を特徴とする請求項2記載の撮像装置。
The plane situation is described by 12 unknowns and 12 nonlinear equations for these 12 unknowns,
The imaging apparatus according to claim 2, wherein the image processing means calculates the state of the plane by solving the twelve nonlinear simultaneous equations.
上記画像処理手段は、上記非線形方程式を近似値の近傍で線形近似し、初期値を仮定して補正値を求め、この補正値を再度方程式に代入して補正値を修正する計算を繰り返し行うこと
を特徴とする請求項3記載の撮像装置。
The image processing means linearly approximates the nonlinear equation in the vicinity of an approximate value, obtains a correction value assuming an initial value, and repeatedly performs a calculation for correcting the correction value by substituting the correction value into the equation again. The imaging apparatus according to claim 3.
上記制御手段は、撮像対象を確定するために、上記可視画像データを上記ディジタルカメラの視野の移動に追随するように上記表示手段に表示させ、
上記画像処理手段は、撮像対象が確定されると、上記可視画像データを取り込むこと
を特徴とする請求項1記載の撮像装置。
The control means displays the visible image data on the display means so as to follow the movement of the field of view of the digital camera in order to determine the imaging target,
The imaging apparatus according to claim 1, wherein the image processing unit captures the visible image data when an imaging target is determined.
上記画像処理手段は、上記少なくとも2つのディジタルカメラによって撮像された可視画像データ上において平面近似を行って計測値を求める領域である計測領域を指定させるための画像データを生成し、
上記制御手段は、上記画像処理手段によって生成された計測領域を指定させるための画像データを上記表示手段に表示させること
を特徴とする請求項5記載の撮像装置。
The image processing means generates image data for designating a measurement region that is a region for obtaining a measurement value by performing planar approximation on the visible image data captured by the at least two digital cameras,
6. The imaging apparatus according to claim 5, wherein the control means causes the display means to display image data for designating a measurement region generated by the image processing means.
上記表示手段に表示された上記計測領域を指定させるための画像データ上において平面近似を行う計測領域を指定する領域指定手段を備え、
上記画像処理手段は、上記領域指定手段によって計測領域が指定されると、当該画像データ上の特徴点を自動的に抽出する、又は特徴点が指定されること
を特徴とする請求項6記載の撮像装置。
An area designating unit for designating a measurement area for plane approximation on the image data for designating the measurement area displayed on the display unit;
7. The image processing unit according to claim 6, wherein when the measurement region is designated by the region designation unit, the feature point on the image data is automatically extracted or the feature point is designated. Imaging device.
上記画像処理手段は、上記計測領域を指定させるための画像データ上において指定された計測領域内で寸法及び/又は面積を求める計測点を指定させるための画像データを生成し、
上記制御手段は、上記画像処理手段によって生成された計測点を指定させるための画像データを上記表示手段に表示させること
を特徴とする請求項7記載の撮像装置。
The image processing means generates image data for designating measurement points for obtaining dimensions and / or areas in the designated measurement area on the image data for designating the measurement area,
The image pickup apparatus according to claim 7, wherein the control means causes the display means to display image data for designating a measurement point generated by the image processing means.
上記表示手段に表示された上記計測点を指定させるための画像データ上において計測点を指定する計測点指定手段を備え、
上記画像処理手段は、上記計測点指定手段によって2点の計測点が指定されると、当該2点の座標値を表す4個の未知数に関する4個の非線形方程式を解くことによって求めた2点の計測点座標に基づいて、当該2点間の寸法を算出すること
を特徴とする請求項8記載の撮像装置。
A measurement point designating unit for designating the measurement point on the image data for designating the measurement point displayed on the display unit;
When the two measurement points are designated by the measurement point designation means, the image processing means calculates two non-linear equations obtained by solving four nonlinear equations concerning four unknowns representing the coordinate values of the two points. The imaging device according to claim 8, wherein a dimension between the two points is calculated based on the measurement point coordinates.
上記画像処理手段は、2点間の寸法を算出した結果を示す寸法値データを上記可視画像データに重畳した計測結果としての画像データを生成し、
上記制御手段は、上記画像処理手段によって生成された計測結果としての画像データを上記表示手段に表示させること
を特徴とする請求項9記載の撮像装置。
The image processing means generates image data as a measurement result obtained by superimposing dimension value data indicating a result of calculating a dimension between two points on the visible image data,
The imaging apparatus according to claim 9, wherein the control unit causes the display unit to display image data as a measurement result generated by the image processing unit.
上記表示手段に表示された上記計測点を指定させるための画像データ上において計測点を指定する計測点指定手段を備え、
上記画像処理手段は、上記計測点指定手段によって少なくとも3点の計測点が指定されると、当該少なくとも3点の座標値を表す複数個の未知数に関する複数個の非線形方程式を解くことによって求めた少なくとも3点の計測点座標に基づいて、当該少なくとも3点で規定された領域の面積を算出すること
を特徴とする請求項8記載の撮像装置。
A measurement point designating unit for designating the measurement point on the image data for designating the measurement point displayed on the display unit;
When at least three measurement points are designated by the measurement point designating means, the image processing means is obtained by solving a plurality of nonlinear equations relating to a plurality of unknowns representing the coordinate values of the at least three points. The imaging device according to claim 8, wherein the area of the region defined by at least three points is calculated based on the three measurement point coordinates.
上記画像処理手段は、少なくとも3点で規定された領域の面積を算出した結果を示す面積値データを上記可視画像データに重畳した計測結果としての画像データを生成し、
上記制御手段は、上記画像処理手段によって生成された計測結果としての画像データを上記表示手段に表示させること
を特徴とする請求項11記載の撮像装置。
The image processing means generates image data as a measurement result in which area value data indicating a result of calculating an area of a region defined by at least three points is superimposed on the visible image data,
12. The imaging apparatus according to claim 11, wherein the control unit causes the display unit to display image data as a measurement result generated by the image processing unit.
当該撮像装置に対して着脱自在とされて少なくとも上記可視画像データを記憶する記憶媒体に対するデータの読み出し及び/又は書き込みを制御する記憶媒体制御手段を備え、
上記制御手段は、上記記憶媒体制御手段を制御して上記記憶媒体に対して上記可視画像データを記憶させること
を特徴とする請求項1記載の撮像装置。
A storage medium control means for controlling reading and / or writing of data to / from a storage medium that stores at least the visible image data and is detachable from the imaging apparatus;
The imaging apparatus according to claim 1, wherein the control unit controls the storage medium control unit to store the visible image data in the storage medium.
上記制御手段は、上記記憶媒体制御手段を制御して上記記憶媒体に対して上記画像処理手段によって2点間の寸法を算出した結果を示す寸法値データ、及び/又は少なくとも3点で規定された領域の面積を算出した結果を示す面積値データを記憶させること
を特徴とする請求項13記載の撮像装置。
The control means controls the storage medium control means and dimension value data indicating a result of calculating a dimension between two points by the image processing means for the storage medium and / or specified by at least three points. The image pickup apparatus according to claim 13, wherein area value data indicating a result of calculating the area of the region is stored.
上記制御手段は、上記可視画像データの生成に関する情報をヘッダとして、当該可視画像データ、並びに当該可視画像データに対する上記ディジタルカメラの位置及び回転に関するデータを対応付けて、上記記憶媒体に対して当該可視画像データ単位で記憶させること
を特徴とする請求項13記載の撮像装置。
The control means uses the information relating to the generation of the visible image data as a header, associates the visible image data and data relating to the position and rotation of the digital camera with respect to the visible image data, and relates the visible image data to the storage medium. The image pickup apparatus according to claim 13, wherein the image pickup apparatus is stored in units of image data.
上記制御手段は、上記記憶媒体に記憶されている画像データを読み出し、これら画像データの一覧をサムネイル表示として上記表示手段に表示させること
を特徴とする請求項13記載の撮像装置。
The image pickup apparatus according to claim 13, wherein the control means reads image data stored in the storage medium and causes the display means to display a list of these image data as thumbnail display.
上記制御手段は、上記表示手段にサムネイル表示された一覧の中から選択された所望の画像データを上記記憶媒体から読み出して上記表示手段に表示させること
を特徴とする請求項16記載の撮像装置。
The image pickup apparatus according to claim 16, wherein the control means reads out desired image data selected from a list displayed as thumbnails on the display means from the storage medium and displays the data on the display means.
上記撮像対象物としての構造物における欠陥の診断に用いられること
を特徴とする請求項1記載の撮像装置。
The imaging apparatus according to claim 1, wherein the imaging apparatus is used for diagnosis of a defect in a structure as the imaging object.
画像データを撮像する撮像装置であって、
互いに異なる視点から撮像対象物の可視画像データを撮像する少なくとも2つのディジタルカメラと、
上記撮像対象物の熱画像データを撮像する赤外線カメラと、
上記ディジタルカメラのそれぞれによって撮像された可視画像データと上記赤外線カメラによって撮像された熱画像データとに対して各種画像処理を施す画像処理手段と、
少なくとも画像データを含む各種情報を表示する表示手段と、
少なくとも画像データを上記表示手段に表示させる制御手段とを備え、
上記画像処理手段は、上記撮像対象物を平面の集合体であるものと近似し、各平面内の当該撮像対象物の2次元情報を取得する画像解析を、上記少なくとも2つのディジタルカメラのそれぞれによって撮像された少なくとも2枚の可視画像データに基づいて行い、当該可視画像データ上で指定された任意の2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出するとともに、少なくとも、上記熱画像データと上記可視画像データとを重畳して融合させた熱可視融合画像データ、及び/又は上記熱画像データから任意の温度範囲のデータのみを抽出した抽出表示画像データを生成し、
上記制御手段は、上記画像処理手段によって2点間の寸法、及び/又は少なくとも3点で規定された領域の面積を算出した結果を示す寸法値データ及び/又は面積値データを上記表示手段に表示させるとともに、上記画像処理手段によって生成された上記熱可視融合画像データ及び/又は上記抽出表示画像データを上記表示手段に表示させること
を特徴とする撮像装置。
An imaging device for imaging image data,
At least two digital cameras that capture visible image data of the imaging object from different viewpoints;
An infrared camera that captures thermal image data of the imaging object;
Image processing means for performing various types of image processing on visible image data captured by each of the digital cameras and thermal image data captured by the infrared camera;
Display means for displaying various information including at least image data;
Control means for displaying at least image data on the display means,
The image processing means approximates the imaging object to be an assembly of planes, and performs image analysis for obtaining two-dimensional information of the imaging object in each plane by each of the at least two digital cameras. Based on at least two captured visible image data, calculate the size between any two points specified on the visible image data and / or the area of the region defined by at least three points, At least heat-visible fusion image data obtained by superimposing and fusing the thermal image data and the visible image data and / or extraction display image data obtained by extracting only data in an arbitrary temperature range from the thermal image data are generated. ,
The control means displays, on the display means, dimension value data and / or area value data indicating a result of calculating a dimension between two points and / or an area of a region defined by at least three points by the image processing means. And displaying the thermo-visible fusion image data and / or the extracted display image data generated by the image processing means on the display means.
上記画像処理手段は、上記熱可視融合画像データについて、重ね合わせる可視画像データ及び熱画像データの表示強度比率を任意に可変とすること
を特徴とする請求項19記載の撮像装置。
The imaging apparatus according to claim 19, wherein the image processing means arbitrarily changes a display intensity ratio between the visible image data and the thermal image data to be superimposed on the thermo-visible fusion image data.
上記画像処理手段は、上記抽出表示画像データについて、上記熱画像データから抽出する温度範囲を任意に可変とすること
を特徴とする請求項19記載の撮像装置。
The imaging apparatus according to claim 19, wherein the image processing means arbitrarily varies a temperature range extracted from the thermal image data for the extracted display image data.
上記画像処理手段は、上記撮像対象物の可視画像データ及び熱画像データを同一視野及び同一画角となるように補正し、補正した可視画像データと熱画像データとについての上記熱可視融合画像データ、及び/又は補正した熱画像データについての上記抽出表示画像データを生成すること
を特徴とする請求項19記載の撮像装置。
The image processing unit corrects the visible image data and the thermal image data of the imaging object so as to have the same field of view and the same angle of view, and the thermo-visible fusion image data of the corrected visible image data and thermal image data. The image display apparatus according to claim 19, wherein the extracted display image data for the corrected thermal image data is generated.
上記撮像対象物としての構造物における欠陥の診断に用いられること
を特徴とする請求項19記載の撮像装置。
The imaging apparatus according to claim 19, wherein the imaging apparatus is used for diagnosis of a defect in a structure as the imaging object.
JP2004183141A 2004-06-21 2004-06-21 Imaging device Pending JP2006010312A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004183141A JP2006010312A (en) 2004-06-21 2004-06-21 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004183141A JP2006010312A (en) 2004-06-21 2004-06-21 Imaging device

Publications (1)

Publication Number Publication Date
JP2006010312A true JP2006010312A (en) 2006-01-12

Family

ID=35777752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004183141A Pending JP2006010312A (en) 2004-06-21 2004-06-21 Imaging device

Country Status (1)

Country Link
JP (1) JP2006010312A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012225697A (en) * 2011-04-18 2012-11-15 Topcon Corp Horizontal position guidance apparatus
WO2014084181A1 (en) * 2012-11-30 2014-06-05 シャープ株式会社 Image measurement device
JP2015125002A (en) * 2013-12-25 2015-07-06 株式会社ズームスケープ Photographing method for images for measuring use, and image measuring program
JPWO2017134886A1 (en) * 2016-02-02 2018-11-22 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
CN109992012A (en) * 2019-04-23 2019-07-09 云南交投集团投资有限公司 A kind of camera cluster attitude control method
JP2019121076A (en) * 2017-12-28 2019-07-22 富士通株式会社 Information processing device, program and information processing method
JP2020003402A (en) * 2018-06-29 2020-01-09 株式会社パスコ Deformation scale measurement system and deformation scale measurement program
WO2023007621A1 (en) * 2021-07-28 2023-02-02 ファナック株式会社 Simulation device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012225697A (en) * 2011-04-18 2012-11-15 Topcon Corp Horizontal position guidance apparatus
WO2014084181A1 (en) * 2012-11-30 2014-06-05 シャープ株式会社 Image measurement device
JP5951043B2 (en) * 2012-11-30 2016-07-13 シャープ株式会社 Image measuring device
JP2015125002A (en) * 2013-12-25 2015-07-06 株式会社ズームスケープ Photographing method for images for measuring use, and image measuring program
JPWO2017134886A1 (en) * 2016-02-02 2018-11-22 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
US11796309B2 (en) 2016-02-02 2023-10-24 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2019121076A (en) * 2017-12-28 2019-07-22 富士通株式会社 Information processing device, program and information processing method
JP2020003402A (en) * 2018-06-29 2020-01-09 株式会社パスコ Deformation scale measurement system and deformation scale measurement program
JP7149117B2 (en) 2018-06-29 2022-10-06 株式会社パスコ Deformation scale measurement system and deformation scale measurement program
CN109992012A (en) * 2019-04-23 2019-07-09 云南交投集团投资有限公司 A kind of camera cluster attitude control method
WO2023007621A1 (en) * 2021-07-28 2023-02-02 ファナック株式会社 Simulation device

Similar Documents

Publication Publication Date Title
JP5097765B2 (en) Measuring method, measuring program and measuring device
KR100785594B1 (en) Image process apparatus
JP2008232998A (en) Method and device for measuring stress fluctuation distribution of structure, defect detecting method of structure, and risk assessing method of structure
US20200351441A1 (en) Input apparatus, input method of input apparatus, and output apparatus
US8718358B2 (en) Filler metal installation position checking method and filler metal installation position checking system
CN112540089B (en) Application method of digital imaging system in concrete bridge crack detection and analysis
JP2005016991A (en) Infrared structure diagnosis system
JP2005037366A (en) Infrared structure-diagnosis system, and method for infrared structure-diagnosis
JP2005300179A (en) Infrared structure diagnosis system
JP2005016995A (en) Infrared structure diagnosis method
JP2006010312A (en) Imaging device
JP2017151026A (en) Three-dimensional information acquiring device, three-dimensional information acquiring method, and program
JP2000028332A (en) Three-dimensional measuring device and method therefor
JP2005338359A (en) Imaging unit
JP2005310044A (en) Apparatus, method and program for data processing
JP4326864B2 (en) High-definition image processing method for concrete inspection system
JP5532454B2 (en) 3D displacement measurement system for structures using digital cameras
JP5445064B2 (en) Image processing apparatus and image processing program
JP2005174151A (en) Three-dimensional image display device and method
JP7044331B2 (en) Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges
CN114266835A (en) Deformation monitoring control method and system for non-measuring camera
JPH11337322A (en) Method for measuring appearance by two-dimensional image comparison, and device therefor
JP2004085553A (en) Surveying system
Wojnarowski et al. Photogrammetric technology for remote high-precision 3D monitoring of cracks and deformation joints of buildings and constructions
JP2004170277A (en) 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program