JPH11337493A - Detecting system for position of abnormal point by image processing - Google Patents

Detecting system for position of abnormal point by image processing

Info

Publication number
JPH11337493A
JPH11337493A JP10147350A JP14735098A JPH11337493A JP H11337493 A JPH11337493 A JP H11337493A JP 10147350 A JP10147350 A JP 10147350A JP 14735098 A JP14735098 A JP 14735098A JP H11337493 A JPH11337493 A JP H11337493A
Authority
JP
Japan
Prior art keywords
image
camera
conversion parameter
correction conversion
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10147350A
Other languages
Japanese (ja)
Other versions
JP3994217B2 (en
Inventor
Tatsuro Hatano
達郎 畑野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP14735098A priority Critical patent/JP3994217B2/en
Publication of JPH11337493A publication Critical patent/JPH11337493A/en
Application granted granted Critical
Publication of JP3994217B2 publication Critical patent/JP3994217B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Road Repair (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Radiation Pyrometers (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a detecting system in which the low resolution of an infrared camera is supplemented with a visible-region ordinary camera and by which an abnormality is analyzed minutely, by a method wherein an image which is photographed by the infrared camera and an image which is photographed by the ordinary camera are converted in a prescribed manner so as to be compared or composed. SOLUTION: A photographing part which acquires the image of a road surface 10, and a processing part which processes the image so as to find the position of an abnormal point, constitute an abnormal-point detecting system which is applied for the diagnosis of a leak of water on the road surface 10 and which relies on an image processing operation. Then, e.g. in the photographing part, the road surface 10 or the like is photographed by an infrared camera 30 in which the center of respective photographing ranges is set so as to agree approximately and by a visible-region digital camera 40, and images are recorded as pieces of digitized information. In the processing part, on the basis of an image which is photographed in a prescribed reference state and on the basis of an image which is used to detect the position of the abnormal point, a correction conversion parameter by which an oblique image with reference to the road surface 10 is converted into an orthogonal projection image is decided. The respective camera images are converted by the parameter, the images are composed, insert-composed or the like, and the abnormal point is specified.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、赤外線による画像
を処理して異常点位置を検出する画像処理による異常点
位置検出システムに関し、特に可視画像を併用すること
によって、赤外線カメラによる画像を用いて検出した異
常点の位置を容易に特定するための画像処理による異常
点位置検出システム及びその方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an abnormal point position detection system by image processing for detecting an abnormal point position by processing an image by infrared rays. The present invention relates to a system and method for detecting an abnormal point position by image processing for easily specifying the position of a detected abnormal point.

【0002】[0002]

【従来の技術】従来、路面の異常、例えば地下に埋設さ
れた水道管からの漏水、舗装の亀裂あるいは剥離等を診
断する手段として、路面上の所定の位置に赤外線カメラ
(IRカメラ)で撮影可能な基準物を配置し、該基準物
を画面内に含むようにIRカメラで路面の画像を撮影
し、該画像によって検出した路面の温度分布から把握さ
れる路面の異常点位置を前記基準物の位置に基づいて特
定する診断する方法が知られている。
2. Description of the Related Art Conventionally, as a means for diagnosing abnormalities on a road surface, for example, water leakage from a water pipe buried underground, cracks or peeling of a pavement, an infrared camera (IR camera) is used to photograph a predetermined position on the road surface. A possible reference object is arranged, an image of the road surface is taken by an IR camera so that the reference object is included in the screen, and the position of the abnormal point on the road surface which is grasped from the temperature distribution of the road surface detected by the image is determined by the reference object. There is known a method of making a diagnosis based on the position of an object.

【0003】また、撮影範囲を重複させて撮影したディ
ジタル画像を用いて、前記重複部分に含まれる点の画像
データに基づいて画像を繋ぎ合わせてパノラマ写真を作
成するソフトウェアが知られている。
[0003] Also, there is known software for creating a panoramic photograph by connecting images based on image data of points included in the overlapping portion, using digital images photographed with overlapping photographing ranges.

【0004】[0004]

【発明が解決しようとする課題】前記従来のIRカメラ
を用いた異常点位置検出システムにおいては、IRカメ
ラの検出素子の画素数が数万画素であるためIRカメラ
による画像の分解能が低く、前記基準点の画像上の位置
や被検査物上における温度分布の状態が不明確であるた
め、異常箇所や異常状態の詳細な特定・分析が困難であ
った。
In the conventional system for detecting an abnormal point using an IR camera, since the number of pixels of the detection element of the IR camera is tens of thousands, the resolution of the image by the IR camera is low. Since the position of the reference point on the image and the state of the temperature distribution on the inspection object are unclear, it has been difficult to specify and analyze the abnormal part and the abnormal state in detail.

【0005】IRカメラによる画像の分解能の低さを補
う目的で、IRカメラでの撮影と同一箇所を通常のカメ
ラでも撮影することもあるが、夫々のカメラは独立した
ものであり撮影倍率や撮影範囲、あおり撮影による画像
の歪みの状態が異なるため、参考とするに留まり、被検
査物の状態を詳細に分析することはできなかった。ま
た、診断する被検査物全体の状況を把握するために画像
をパノラマ化しようとしても、パノラマ化の基準となる
形状の外形線や相対的位置が既知の点の位置が前記と同
様に明確でないため前記処理が困難であった。
[0005] In order to compensate for the low resolution of the image by the IR camera, the same part as that of the IR camera may be photographed by a normal camera. However, each camera is independent, and the photographing magnification and the photographing magnification are different. Since the state of the image distortion due to the range and tilt photographing is different, it is only for reference, and the state of the inspection object cannot be analyzed in detail. In addition, even if an attempt is made to panorama an image in order to grasp the situation of the entire inspected object to be diagnosed, the positions of points having known outlines and relative positions of shapes serving as a reference for panorama formation are not clear as described above. Therefore, the above-mentioned processing was difficult.

【0006】そこで、本発明の目的は、IRカメラによ
る画像の分解能の低さを通常のカメラの画像を用いて補
い、被検査物の異常の状態や、その位置を詳細に分析す
ることができる画像処理による異常点位置検出システム
を提供することにある。
Accordingly, an object of the present invention is to compensate for the low resolution of an image obtained by an IR camera by using an image of a normal camera, and to analyze in detail the abnormal state of the inspection object and its position. An object of the present invention is to provide an abnormal point position detection system by image processing.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
の本発明の第1は、所定の相対的位置に設置され、両者
に共通する範囲を含む撮影範囲をあおり角をもって撮影
する赤外線カメラ及び通常のカメラからなる撮影部と、
前記赤外線カメラの画像と通常のカメラの画像とを処理
する処理部とからなり、前記処理部は、前記共通撮影範
囲内の相対的位置が既知の複数の基準点を撮影した前記
赤外線カメラの第1の画像と前記通常のカメラの第1の
画像のうち、前記通常のカメラで撮影された第1の画像
中の前記基準点の位置に基づいて、前記あおり撮影によ
って発生する画像の歪みを持った前記通常のカメラの第
1の画像を正射投影画像に補正変換するための第1の補
正変換パラメータを求める第1の変換パラメータ決定部
と、前記あおり撮影によって発生する画像の歪みを持っ
た前記赤外線カメラで撮影された第1の画像を、前記通
常のカメラでの撮影に基づく画像に基づいて、正射投影
画像に補正変換するための第2の補正変換パラメータを
求める第2の変換パラメータ決定部とからなるキャリブ
レーション部と、前記赤外線カメラと前記通常のカメラ
との前記共通撮影範囲に相対的位置が既知の複数の点を
含むように撮影された前記赤外線カメラの第2の画像と
前記通常のカメラの第2の画像のうち、前記通常のカメ
ラで撮影された第2の画像中の前記相対位置既知点の位
置に基づいて、前記あおり撮影によって発生する画像の
歪みを持った前記通常のカメラの第2の画像を正射投影
画像に補正変換するための第3の補正変換パラメータを
求める第3の変換パラメータ決定部と、前記第2の補正
変換パラメータと前記第3の補正変換パラメータとの差
に基づいて前記赤外線カメラの第2の画像を正射投影画
像に補正変換するための第4の補正変換パラメータを求
める第4の変換パラメータ決定部とで構成される画像補
正部とからなる画像処理による異常点位置検出システム
である。
According to a first aspect of the present invention, there is provided an infrared camera which is installed at a predetermined relative position, and which captures an imaging range including a range common to both with a tilt angle. A shooting unit consisting of a normal camera,
A processing unit that processes the image of the infrared camera and the image of a normal camera, wherein the processing unit is configured to capture a plurality of reference points whose relative positions within the common shooting range are known. 1 based on the position of the reference point in the first image captured by the normal camera, between the first image and the first image of the normal camera. A first conversion parameter determining unit for obtaining a first correction conversion parameter for correcting and converting a first image of the normal camera into an orthographic projection image; and a distortion of an image caused by the tilt photographing. A second conversion for obtaining a second correction conversion parameter for correcting and converting the first image shot by the infrared camera into an orthographic projection image based on an image based on shooting by the normal camera; A calibration unit comprising a parameter determination unit, and a second image of the infrared camera captured so as to include a plurality of points whose relative positions are known in the common shooting range of the infrared camera and the normal camera. And a second image of the normal camera, based on the position of the relative position known point in the second image photographed by the normal camera, having an image distortion generated by the tilt photographing. A third conversion parameter determining unit for obtaining a third correction conversion parameter for correcting and converting the second image of the normal camera into an orthographic projection image; the second correction conversion parameter; and the third correction A fourth conversion parameter determining unit for obtaining a fourth correction conversion parameter for correcting and converting the second image of the infrared camera into an orthographic projection image based on a difference from the conversion parameter; It is abnormal point position detection system according to the image processing comprising the composed image correcting unit.

【0008】前記第2の補正変換パラメータを求めるに
際して用いる通常のカメラで撮影した画像は、前記あお
り撮影によって発生する画像の歪みを持った画像、ある
いは前記第1の補正変換パラメータによって変換された
正射投影画像とすることができる。また、前記画像補正
部は、前記赤外線カメラの第2の画像を前記第4の補正
変換パラメータによって補正変換し、及び/又は前記通
常のカメラの第2の画像を前記第3の補正変換パラメー
タによって補正変換し、正射影投影画像とする画像変換
部をさらに備えることが好ましい。
[0008] An image taken by a normal camera used for obtaining the second correction conversion parameter may be an image having a distortion of an image generated by the tilt shooting or a positive image converted by the first correction conversion parameter. It can be a projection image. The image correction unit corrects and converts the second image of the infrared camera with the fourth correction conversion parameter, and / or converts the second image of the normal camera with the third correction conversion parameter. It is preferable that the image processing apparatus further includes an image conversion unit that performs the correction conversion and generates an orthographic projection image.

【0009】異常を診断するIRカメラの画像が、正射
影投影画像に変換されるので対象物上における異常点の
位置が容易に特定される。更には、通常のカメラの画像
も正射影投影画像に変換し両画像を対比すれば、対象物
上における異常点の位置がさらに容易に特定される。更
に、既知点間の寸法の正射投影画像上の値と実際の寸法
との比を求めることによって、前記異常点の実座標値、
異常箇所の大きさ(長さ、面積など)を知ることもでき
る。
Since the image of the IR camera for diagnosing the abnormality is converted into an orthographic projection image, the position of the abnormal point on the object is easily specified. Furthermore, if the image of a normal camera is also converted into an orthographic projection image and the two images are compared, the position of the abnormal point on the object can be more easily specified. Further, by determining the ratio between the value on the orthographic projection image of the dimension between the known points and the actual dimension, the actual coordinate value of the abnormal point,
It is also possible to know the size (length, area, etc.) of the abnormal part.

【0010】上記発明のいずれかにおいて、前記第3の
補正変換パラメータを用いて変換された通常のカメラの
第2の画像の正射投影画像に対して、前記第4の補正変
換パラメータを用いて変換された赤外線カメラの第2の
画像の正射投影画像を前記通常のカメラの第2の画像の
正射投影画像の該当する部分と置換した画像を作成する
画像合成部を更に設けることができる。これによって、
より容易に異常点位置が特定される。
In any one of the above inventions, an orthographic projection image of a second image of a normal camera converted by using the third correction conversion parameter is obtained by using the fourth correction conversion parameter. An image synthesizing unit may be further provided for creating an image in which the converted orthographic image of the second image of the infrared camera is replaced with a corresponding part of the orthographic image of the second image of the normal camera. . by this,
The position of the abnormal point is specified more easily.

【0011】上記システムによって路面の異常を診断す
る場合には、センターライン、縁石などの路面上又は路
面の近傍に設けられた構築物を基準点として用いると、
特別な基準点を設置することが不要となるので好まし
い。
In the case of diagnosing a road surface abnormality by the above system, a structure provided on or near the road surface such as a center line or a curb is used as a reference point.
This is preferable because it is not necessary to set a special reference point.

【0012】[0012]

【発明の実施の形態】本発明の実施の形態例として、道
路の路面の異常点の位置を検出する画像処理を用いた異
常点位置検出システムを説明する。しかしながら、かか
る実施の形態例が本発明の技術的範囲を限定するもので
はない。本実施の形態例の画像処理を用いた異常点位置
検出システムは、観察対象道路の路面を撮影してその画
像を取得する撮影部と、前記路面の異常点の位置を求め
るために前記取得した画像を処理する処理部とで構成さ
れる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS As an embodiment of the present invention, an abnormal point position detecting system using image processing for detecting the position of an abnormal point on a road surface will be described. However, such embodiments do not limit the technical scope of the present invention. The abnormal point position detection system using the image processing of the present embodiment is a photographing unit that photographs the road surface of the observation target road and acquires the image, and the acquired image information is obtained in order to obtain the position of the abnormal point on the road surface. And a processing unit for processing the image.

【0013】図1は、前記撮影部による路面の撮影状況
の概要を示す図である。路面10を移動する移動手段2
0にIRカメラ30とディジタルカメラ40とが設けら
れている。IRカメラ30とディジタルカメラ40とは
夫々の撮影範囲の中心がほぼ一致するように各カメラの
位置及び光軸方向が設定されている。ディジタルカメラ
40の光軸は路面が水平であるとき水平に対して未知の
角度α1下方を向いている。IRカメラ30の光軸は路
面が水平であるとき水平に対して未知の角度α2下方を
向いている。通常、α1とα2とは一致しない。
FIG. 1 is a diagram showing an outline of a photographing state of a road surface by the photographing section. Moving means 2 for moving on road surface 10
0 is provided with an IR camera 30 and a digital camera 40. The position of each camera and the direction of the optical axis of the IR camera 30 and the digital camera 40 are set so that the centers of the respective photographing ranges substantially coincide with each other. The optical axis of the digital camera 40 faces downward at an unknown angle α1 with respect to the horizontal when the road surface is horizontal. The optical axis of the IR camera 30 faces downward at an unknown angle α2 with respect to the horizontal when the road surface is horizontal. Usually, α1 and α2 do not match.

【0014】IRカメラ30による画像及びディジタル
カメラ40による画像は夫々ディジタル化された画像情
報として記録される。但し、いずれのカメラによる画像
情報も、フィルムに撮影された画像をフィルムスキャナ
等でディジタル化したものでも良い。本システムでは、
まず所定の基準状態において前記撮影部で位置又は寸法
既知の基準点を撮影し、前記撮影部の各カメラの画像を
夫々正射投影画像に変換する第1及び第2の補正変換パ
ラメータを求めるキャリブレーションを行う。
An image from the IR camera 30 and an image from the digital camera 40 are recorded as digitized image information. However, the image information obtained by any camera may be obtained by digitizing an image photographed on a film by a film scanner or the like. In this system,
First, in a predetermined reference state, the image capturing unit captures a reference point of a known position or size, and performs calibration for obtaining first and second correction conversion parameters for converting images of each camera of the image capturing unit into orthographic projection images. Perform an action.

【0015】そして、次に異常点位置検出を行う。異常
点位置検出では、IRカメラ30の画像では必ずしも特
定できないが、ディジタルカメラ40の画像では特定で
きる位置又は寸法既知の基準点のある路面を任意の状態
で撮影し、該ディジタルカメラ40の画像を正射投影画
像に変換する第3及の補正変換パラメータを求め、前記
第2の補正変換パラメータに前記第1の補正変換パラメ
ータと前記第3の補正変換パラメータとの差に基づく補
正を加えた第4の補正変換パラメータを求める。
Then, an abnormal point position is detected. In the abnormal point position detection, a road surface having a reference point whose position or dimension is known, which cannot be always specified in the image of the IR camera 30 but can be specified in the image of the digital camera 40, is taken in an arbitrary state, and the image of the digital camera 40 is taken. A third correction conversion parameter to be converted to an orthographic projection image is obtained, and a correction based on a difference between the first correction conversion parameter and the third correction conversion parameter is added to the second correction conversion parameter. 4 is obtained.

【0016】そして更に、前記任意の状態で撮影した画
像を前記第3及び/又は第4の補正変換パラメータで補
正変換して所望の画像を得る。前記第1、第2、第3及
び第4の補正変換パラメータを求める第1〜第4の変換
パラメータ決定部、及び前記各カメラで撮影した画像を
前記各補正変換パラメータで補正変換して所望の画像を
得る画像変換部とはパソコンなどで構成された処理部で
行われる。第1〜第4の変換パラメータ決定部及び画像
変換部については後に詳述する。
Further, the image photographed in the arbitrary state is corrected and converted by the third and / or fourth correction conversion parameters to obtain a desired image. First to fourth conversion parameter determination units for obtaining the first, second, third, and fourth correction conversion parameters; and correction correction conversion of an image captured by each camera using the correction conversion parameters. The image conversion unit for obtaining an image is performed by a processing unit including a personal computer or the like. The first to fourth conversion parameter determination units and the image conversion unit will be described later in detail.

【0017】まず最初に、前記キャリブレーションを説
明する。路面10上の所定の相対的位置に配置した、I
Rカメラ30の画像によっても位置を明確に特定できる
複数の基準物をIRカメラ30及びディジタルカメラ4
0で撮影する。前記基準物としては、IRカメラ30の
画素上で複数の画素上にわたる大きさに結像される、例
えば円板や十字形状板を用いることができる。IRカメ
ラ30の画像を画像処理して円形や十字形状の中心位置
を求めることによって、分解能の低いIRカメラ30の
画像であっても高い精度で基準物の位置を決定すること
ができる。
First, the calibration will be described. I at a predetermined relative position on the road surface 10
A plurality of reference objects whose positions can be clearly identified also from the image of the R camera 30 are identified by the IR camera 30 and the digital camera 4.
Shoot at 0. As the reference object, for example, a disk or a cross-shaped plate that forms an image on a pixel of the IR camera 30 in a size covering a plurality of pixels can be used. By processing the image of the IR camera 30 to determine the center position of the circular or cross shape, the position of the reference object can be determined with high accuracy even for the image of the IR camera 30 with low resolution.

【0018】なお、IRカメラ30の温度分解能は高い
ので、通常路面上に配置された前記基準物を検知するこ
とができるが、要すれば事前に熱する、あるいは冷やす
ことによって容易に検知できるようにしておく。また、
前記基準物は路面上又は路面近傍に設置されている寸法
或いは相対的位置が既知の既存の構築物、例えば道路幅
員の中心を示す道路錨などであっても良い。
Since the IR camera 30 has a high temperature resolution, it can detect the above-mentioned reference object which is usually arranged on the road surface. However, if necessary, it can be easily detected by heating or cooling beforehand. Keep it. Also,
The reference object may be an existing structure having a known size or relative position installed on or near the road surface, for example, a road anchor indicating the center of the road width.

【0019】以下の説明は、前記基準物をほぼ水平な路
面上で所定の寸法の矩形の各頂点に配置した場合を説明
する。図2は、ディジタルカメラ40で前記基準物を撮
影した画像の状態を説明する説明図である。ディジタル
カメラ40による路面の撮影はあおり角=α1をもって
なされる。その結果、撮影された画像は前記あおり角に
よって歪んだ画像となる。
In the following description, a case will be described in which the reference object is arranged at each vertex of a rectangle having a predetermined size on a substantially horizontal road surface. FIG. 2 is an explanatory diagram illustrating a state of an image obtained by photographing the reference object with the digital camera 40. The photographing of the road surface by the digital camera 40 is performed with the tilt angle = α1. As a result, the captured image becomes an image distorted by the tilt angle.

【0020】即ち、図2において、41はディジタルカ
メラ40で撮影された画像42の大きさ(範囲)を示し
ている。該画像42に撮影された実際の路面の範囲の平
面形状は一点鎖線43で示された範囲である。そして該
画像42中には前記矩形の各頂点に配置された基準物の
画像44a、44b、44c、44dが含まれている。
実際には矩形の頂点である基準物の画像44a〜44
dはあおり撮影による画像歪みのために破線で示した台
形45の頂点の位置となっている。IRカメラ30で撮
影された画像も、前記あおり角にのためにディジタルカ
メラ40で撮影された前記画像と同様に歪んだ画像とな
る。
That is, in FIG. 2, reference numeral 41 denotes the size (range) of an image 42 photographed by the digital camera 40. The plane shape of the range of the actual road surface photographed in the image 42 is the range indicated by the one-dot chain line 43. The image 42 includes images 44a, 44b, 44c and 44d of the reference object arranged at the vertices of the rectangle.
Actually, reference object images 44a to 44 which are vertices of a rectangle
d is the position of the vertex of the trapezoid 45 shown by the broken line due to the image distortion due to the tilt photographing. The image photographed by the IR camera 30 is also distorted similarly to the image photographed by the digital camera 40 due to the tilt angle.

【0021】図3は、パソコンで構成された処理部10
0の構成を示す図である。処理部100は補正変換パラ
メータ決定部110及び画像変換部120を備えてい
る。補正変換パラメータ決定部110は第1の補正変換
パラメータ決定部110A、第2の補正変換パラメータ
決定部110B、第3の補正変換パラメータ決定部11
0C、第4の補正変換パラメータ決定部110Dからな
る。
FIG. 3 shows a processing section 10 constituted by a personal computer.
FIG. 3 is a diagram showing a configuration of a zero. The processing unit 100 includes a correction conversion parameter determination unit 110 and an image conversion unit 120. The correction conversion parameter determination unit 110 includes a first correction conversion parameter determination unit 110A, a second correction conversion parameter determination unit 110B, and a third correction conversion parameter determination unit 11.
0C, and a fourth correction conversion parameter determination unit 110D.

【0022】第1の補正変換パラメータ決定部110A
と第2の補正変換パラメータ決定部110Bとはキャリ
ブレーション部を構成する。第3の補正変換パラメータ
決定部110Cと第4の補正変換パラメータ決定部11
0Dと画像変換部120とは画像補正部を構成する。処
理部100は、補正変換パラメータ決定部110で求め
た補正変換パラメータなどを記憶するメモリ130を備
えている。
First correction conversion parameter determination section 110A
And the second correction conversion parameter determination unit 110B constitute a calibration unit. Third correction conversion parameter determination unit 110C and fourth correction conversion parameter determination unit 11
OD and the image conversion unit 120 constitute an image correction unit. The processing unit 100 includes a memory 130 that stores the correction conversion parameters obtained by the correction conversion parameter determination unit 110 and the like.

【0023】ここで、ディジタルカメラ40による画像
42の画像情報を第1の補正変換パラメータ決定部11
0Aに読み込み、ソフトウェアによって前記あおり撮影
歪みを補正するための第1の補正変換パラメータを求め
る。前記あおり撮影歪みの補正の原理を図4によって説
明する。図4は前記矩形の頂点に配置された基準物を撮
影した画像であり、前記基準物は前記あおり撮影歪によ
って台形の頂点44a〜44dに位置した画像となって
いる。同図において、図2と同じものには同一の符号を
付して説明を簡略にする。
Here, the image information of the image 42 from the digital camera 40 is converted into a first correction conversion parameter determining unit 11.
0A, and a first correction conversion parameter for correcting the tilting distortion is obtained by software. The principle of the correction of the tilt photographing distortion will be described with reference to FIG. FIG. 4 is an image obtained by photographing a reference object disposed at the vertex of the rectangle. The reference object is an image located at the vertices 44a to 44d of the trapezoid due to the tilting distortion. 2, the same components as those in FIG. 2 are denoted by the same reference numerals, and the description will be simplified.

【0024】前記のように、基準物の点を結んだ実際の
形状は寸法既知(例えばA*Bcm)の矩形である。そこ
で、台形44の各頂点44a〜44dに対応する点44
a1〜44d1が、点44a、44bを通る辺44ab
の垂直線上で、44ab:44bc1=A:Bとなるよ
うに変換する第1の補正変換パラメータを求める。ここ
では、補正変換後の44a1、44b1が夫々44a、
44bに一致するようにした。前記の如く変換された点
を結んだ矩形44a1−44b1−44c1−44d1
は、基準物の点を結んだ矩形と相似な形状であり、基準
点を結んだ形状の縮小された正射投影図形である。
As described above, the actual shape connecting the points of the reference object is a rectangle having a known size (for example, A * Bcm). Therefore, the points 44 corresponding to the vertices 44a to 44d of the trapezoid 44
a1 to 44d1 are sides 44ab passing through the points 44a and 44b
A first correction conversion parameter for converting 44ab: 44bc1 = A: B on the vertical line is calculated. Here, 44a1 and 44b1 after the correction conversion are 44a and 44a1, respectively.
44b. A rectangle 44a1-44b1-44c1-44d1 connecting the points converted as described above.
Is a reduced orthographic figure having a shape similar to a rectangle connecting the points of the reference object and having a shape connecting the reference points.

【0025】なお、前記第1の補正変換パラメータは、
44ab:44bc1=A:B*Mとなるように決定し
ても良い。但し、Mは一方向、ここではセンターライン
の長手方向のみに適用される縮尺を示す任意の定数であ
る。即ち、第1の補正変換パラメータは、ディジタルカ
メラ40の画像のあおり撮影歪みを補正して正射投影画
像に変換する補正変換パラメータである。
Note that the first correction conversion parameter is:
44ab: 44bc1 = A: B * M. Here, M is an arbitrary constant indicating a scale applied only in one direction, here, the longitudinal direction of the center line. That is, the first correction conversion parameter is a correction conversion parameter for correcting a tilting distortion of an image of the digital camera 40 and converting the image into an orthographic projection image.

【0026】次に、IRカメラ30による画像を処理部
100の第2の補正変換パラメータ決定部110Bに読
み込み、IRカメラ30による画像の基準点の位置がデ
ィジタルカメラ40による画像の基準点の位置と一致す
るようにIRカメラによる画像を変換する第2の補正変
換パラメータを決定する。この際、ディジタルカメラ4
0による画像として、前記補正変換前の画像又は前記補
正変換後の画像を用いることができる。前記補正変換後
の画像は画像変換部120によって前記ディジタルカメ
ラの画像を第1の補正変換パラメータで補正変換して求
める。前記補正変換前の画像を用いて求めた第2の補正
変換パラメータは、IRカメラ30の画像をディジタル
カメラ40による画像と同じ画像歪みをもつ画像に変換
する補正変換パラメータである。この画像を更に前記第
1の補正変換パラメータを用いて変換すればディジタル
カメラ40の画像と同一の縮尺の正射投影画像が得られ
る。
Next, the image obtained by the IR camera 30 is read into the second correction conversion parameter determination unit 110B of the processing unit 100, and the position of the reference point of the image obtained by the IR camera 30 is set to the position of the reference point of the image obtained by the digital camera 40. A second correction conversion parameter for converting an image obtained by the IR camera so as to match is determined. At this time, the digital camera 4
The image before the correction conversion or the image after the correction conversion can be used as the image based on 0. The image after the correction conversion is obtained by the image conversion unit 120 correcting and converting the image of the digital camera with a first correction conversion parameter. The second correction conversion parameter obtained using the image before the correction conversion is a correction conversion parameter for converting the image of the IR camera 30 into an image having the same image distortion as the image of the digital camera 40. If this image is further converted using the first correction conversion parameter, an orthographic projection image having the same scale as the image of the digital camera 40 can be obtained.

【0027】前記補正変換後の画像を用いて求めた第2
の補正変換パラメータは、IRカメラ30の画像をディ
ジタルカメラ40の画像と同一の縮尺の正射投影画像に
変換する補正変換パラメータである。もし、IRカメラ
30とディジタルカメラ40とが光軸周りに相対的に回
転した状態に設置されており、その結果、IRカメラ3
0による画像がディジタルカメラ40による画像に対し
て回転したものとなっていても前記のように第2の補正
変換パラメータを決定することによって回転関係は解消
される。
The second image obtained by using the image after the correction conversion
Are the conversion parameters for converting the image of the IR camera 30 into an orthographic projection image of the same scale as the image of the digital camera 40. If the IR camera 30 and the digital camera 40 are relatively rotated around the optical axis, as a result, the IR camera 3
Even if the image of 0 is rotated with respect to the image of the digital camera 40, the rotation relationship is resolved by determining the second correction conversion parameter as described above.

【0028】そして、前記第1の補正変換パラメータ及
び第2の補正変換パラメータはパソコンのメモリに記憶
される。なお、IRカメラ30とディジタルカメラ40
とが近接して設置されており、両者の画像歪みの差が小
さい場合には、ディジタルカメラの画像に基づいて求め
た前記第1の補正変換パラメータをそのまま第2の補正
変換パラメータとしても良い。IRカメラ30の光軸と
ディジタルカメラ40の光軸とが平行になるように設置
されている場合も同様である。
The first correction conversion parameter and the second correction conversion parameter are stored in the memory of the personal computer. The IR camera 30 and the digital camera 40
Are installed close to each other and the difference between the two image distortions is small, the first correction conversion parameter obtained based on the image of the digital camera may be used as the second correction conversion parameter as it is. The same applies to the case where the optical axis of the IR camera 30 and the optical axis of the digital camera 40 are installed so as to be parallel.

【0029】次に、異常点位置検出を説明する。異常点
位置検出では、異常の有無、状態を検出すべき対象を前
記移動手段20に設けられたIRカメラ30及びディジ
タルカメラ40で撮影する。この場合、IRカメラ30
で特定できる位置又は寸法既知の基準物は必ずしも必要
なく、ディジタルカメラ40で特定できる位置又は寸法
既知の基準物があれば良い。ディジタルカメラ40は可
視画像であり、画素数100万画素を超える高精細な画
像の得られるものが市販されており、IRカメラ30で
はとらえることことができないがディジタルカメラ40
ではとらえることができる前記基準物を容易に選択する
ことができる。
Next, detection of an abnormal point position will be described. In the detection of the abnormal point position, the IR camera 30 and the digital camera 40 provided in the moving means 20 capture an image of a target whose presence or absence of abnormality is to be detected. In this case, the IR camera 30
The reference object whose position or size can be specified by the digital camera 40 is not necessarily required. The digital camera 40 is a visible image, and a digital camera 40 capable of obtaining a high-definition image exceeding 1 million pixels is commercially available.
Then, the reference object that can be captured can be easily selected.

【0030】以下、例として路面のセンターラインを前
記基準物として含む路面の異常点位置を検出する場合に
ついて説明する。なお、IRカメラ30とディジタルカ
メラ40とは連動させて同時に撮影することが望まし
く、特に移動手段20を連続的に移動させつつ撮影する
場合にはそのようにすることが望ましい。移動手段20
全体の姿勢が場所による路面状態の違いによってIRカ
メラ30による撮影時とディジタルカメラ40での撮影
時で異なることの影響を除くためである。
Hereinafter, as an example, a case will be described in which an abnormal point position on a road surface including the center line of the road surface as the reference object is detected. Note that it is desirable that the IR camera 30 and the digital camera 40 be photographed at the same time in conjunction with each other, especially when photographing while the moving means 20 is continuously moved. Transportation means 20
This is to eliminate the influence of the fact that the overall posture differs between when photographing with the IR camera 30 and when photographing with the digital camera 40 due to the difference in road surface conditions depending on the location.

【0031】図5(a)はディジタルカメラ40による
センターラインを含む路面の撮影画像である。センター
ラインの画像50は前記あおり撮影による画像歪みのた
めに台形となっている。ところで、センターラインは例
えば線幅*長さ=10cm*2000cmの矩形と既知
である。そこで、前記キャリブレーションで行ったと同
様にして台形に歪んだセンターラインの画像50を実際
のセンターラインの形状と相似な矩形の画像に変換する
第3の補正変換パラメータを補正変換パラメータ決定部
110Cで求める。
FIG. 5A is a photographed image of the road surface including the center line by the digital camera 40. The center line image 50 has a trapezoidal shape due to the image distortion caused by the tilt photographing. By the way, the center line is known to be, for example, a rectangle having a line width * length = 10 cm * 2000 cm. Therefore, the third correction conversion parameter for converting the trapezoidally distorted center line image 50 into a rectangular image similar to the actual center line shape in the same manner as performed in the calibration is calculated by the correction conversion parameter determination unit 110C. Ask.

【0032】この第3の補正変換パラメータは、前記第
1の補正変換パラメータと一般に一致しない。キャリブ
レーションのための撮影を行った状態とは、路面の起伏
などのために例えばあおり角や撮影距離、基準物の対す
るカメラの光軸周りの姿勢などが異なり、基準物への撮
影方向も異なるからである。図5(b)の51は図5
(a)とは異なる撮影方向から撮影したセンターライン
の画像であり、台形が歪んだ形状となっている。前記第
3の補正変換パラメータには、前記撮影方向が異なるた
めの画像歪みの違いも補正するものである。
This third correction conversion parameter generally does not match the first correction conversion parameter. The state in which the photographing for calibration is performed is, for example, a tilt angle, a photographing distance, a posture of the reference object around the optical axis of the camera with respect to the reference object, and a photographing direction to the reference object is different due to unevenness of the road surface. Because. 5B in FIG.
(A) is an image of a center line taken from a different photographing direction, and the trapezoid has a distorted shape. The third correction conversion parameter also corrects a difference in image distortion due to a difference in the photographing direction.

【0033】そして、第3の補正変換パラメータ決定部
110Cは、前記第1の補正変換パラメータと前記第3
の補正変換パラメータとの差異を求め、第4の補正変換
パラメータ決定部110Dと画像変換部120とに出力
する。そして、第4の補正変換パラメータ決定部110
Dは、前記第2の変換パラメータに前記第3の補正変換
パラメータ決定部110Cからの前記差異に基づく修正
を加え第4の補正変換パラメータを求め、画像変換部1
20に出力する。このようにして求めた第4の補正変換
パラメータは、IRカメラ30による異常点位置検出の
ための画像を正射投影画像に変換する変換パラメータで
ある。
Then, the third correction conversion parameter determination section 110C calculates the first correction conversion parameter and the third correction conversion parameter
, And outputs the difference to the fourth correction conversion parameter determination unit 110D and the image conversion unit 120. Then, the fourth correction conversion parameter determination unit 110
D adds a correction based on the difference from the third correction conversion parameter determination unit 110C to the second conversion parameter to obtain a fourth correction conversion parameter,
20. The fourth correction conversion parameter thus obtained is a conversion parameter for converting an image for detecting an abnormal point position by the IR camera 30 into an orthographic projection image.

【0034】そして、画像変換部120は、ディジタル
カメラ40で撮影した路面の画像を前記第3の補正変換
パラメータによって変換して、異常点位置を検出すべき
路面のディジタルカメラ40の画像の正射投影画像を求
める。同様に、IRカメラ30で撮影した路面の画像を
前記第4の補正変換パラメータによって変換して、異常
点位置を検出すべき路面のIRカメラ30の画像の正射
投影画像を求める。このようにして求めた二つの正射投
影画像は、対応する点同士を互い重ね合わせることがで
きる画像である。
The image conversion unit 120 converts the image of the road surface captured by the digital camera 40 using the third correction conversion parameter, and orthographically converts the image of the digital camera 40 on the road surface at which an abnormal point position is to be detected. Find the projected image. Similarly, an image of the road surface captured by the IR camera 30 is converted by the fourth correction conversion parameter to obtain an orthographic projection image of the image of the IR camera 30 on the road surface at which an abnormal point position is to be detected. The two orthographic projection images obtained in this way are images in which corresponding points can be superimposed on each other.

【0035】なお、異常点位置検出用画像の撮影時の状
態がキャリブレーション時の状態とほぼ同じであれば、
第3、第4の補正変換パラメータを求めることなく、I
Rカメラの診断撮影画像に第2の補正変換パラメータを
適用しても良い。IRカメラ30で撮影された画像とデ
ィジタルカメラ40で撮影された画像とを対応させるこ
とは、前記IRカメラ30での画像の解像度の低さに加
えて、前記あおり角の差(α1−α2)に基づく画像歪
みの差、各カメラの撮影レンズの焦点距離の差に基づく
撮影倍率の差、各カメラの撮像素子の大きさの差に基づ
く画像の大きさの差があるので困難である。
If the state at the time of photographing the abnormal point position detecting image is substantially the same as the state at the time of calibration,
Without obtaining the third and fourth correction conversion parameters, I
The second correction conversion parameter may be applied to the diagnostic photographed image of the R camera. The correspondence between the image captured by the IR camera 30 and the image captured by the digital camera 40 is determined by the difference between the tilt angle (α1−α2) in addition to the low resolution of the image captured by the IR camera 30. This is difficult because there are differences in image distortion based on the differences in image distortions based on the differences in the focal lengths of the photographing lenses of the cameras, and differences in the size of the images based on the differences in the sizes of the imaging elements of the cameras.

【0036】しかしながら、正射投影画像に変換された
前記二つの画像は、前記した如く対応する点同士を互い
重ね合わせることができる画像であるから、両者の画像
を対比させることによって、IRカメラ30による画像
によって発見した路面の異常箇所を、容易に路面上に特
定することができる。さらに、IRカメラ30による画
像を補正変換した画像をディジタルカメラ40による画
像を補正変換した画像の該当する位置にはめ込み合成す
ることができる。さらに又、撮影範囲の一部が重複した
複数の画像からパノラマ画像を作成することもできる。
かかる処理は前記パソコンを画像合成部として用いるこ
とによって実現される。このようにすれば異常点を検出
すべき対象の全体像の把握、図面との対比を容易に行う
ことができ上記特定作業がより容易となる。
However, since the two images converted into the orthographic projection images are images in which corresponding points can be superimposed on each other as described above, by comparing the two images, the IR camera 30 can be used. An abnormal spot on the road surface found from the image according to the above can be easily specified on the road surface. Further, the image obtained by correcting and converting the image obtained by the IR camera 30 can be inserted into a corresponding position of the image obtained by correcting and converting the image obtained by the digital camera 40 and synthesized. Furthermore, a panoramic image can be created from a plurality of images in which a part of the shooting range overlaps.
Such processing is realized by using the personal computer as an image synthesizing unit. By doing so, it is possible to easily grasp the whole image of the object for which an abnormal point is to be detected and compare it with the drawing, and the above-mentioned specific work becomes easier.

【0037】なお、これまでに説明した補正変換パラメ
ータを用いた補正変換は、いずれも一種の座標変換であ
り、そのアルゴリズムは知られたものである。次に、処
理部100で行うキャリブレーション、補正変換パラメ
ータ決定、画像変換の処理の手順を、キャリブレーショ
ンの手順を示す図6、及び異常点位置検出の手順を示す
図7のフロチャートによって説明する。図6において、
キャリブレーションの処理が開始されると、前記キャリ
ブレーション用基準点を含むディジタルカメラ40の画
像が第1の補正変換パラメータ決定部110Aに読み込
まれ、表示される(ステップ11)。そこで、表示され
た画面上での基準点の位置の指示と実際の寸法の入力を
行う(ステップ12)。すると、第1の補正変換パラメ
ータ決定部110Aは指示された基準点間の寸法を入力
された寸法に該当させる第1の補正変換パラメータを算
出する(ステップ13)。
Each of the correction conversions using the correction conversion parameters described above is a kind of coordinate conversion, and its algorithm is known. Next, the procedure of calibration, correction conversion parameter determination, and image conversion processing performed by the processing unit 100 will be described with reference to the flowchart of FIG. 6 illustrating the procedure of calibration and FIG. 7 illustrating the procedure of detecting an abnormal point position. . In FIG.
When the calibration process is started, an image of the digital camera 40 including the calibration reference point is read into the first correction conversion parameter determination unit 110A and displayed (Step 11). Then, the user designates the position of the reference point on the displayed screen and inputs the actual dimensions (step 12). Then, the first correction conversion parameter determination unit 110A calculates a first correction conversion parameter that causes the dimension between the designated reference points to correspond to the input dimension (step 13).

【0038】そして次に、前記キャリブレーション用基
準点を含むIRカメラ30の画像が第2の変換パラメー
タ決定部110Bに読み込まれ、表示される(ステップ
14)。そこで、表示された画面上での基準点の位置を
指示する(ステップ15)。更に、基準とするディジタ
ルカメラの画像の種類、即ちあおり撮影による画像歪み
のある画像か、正射投影画像に変換後の画像かを指示す
る(ステップ16)。
Next, the image of the IR camera 30 including the reference point for calibration is read into the second conversion parameter determination section 110B and displayed (step 14). Then, the position of the reference point on the displayed screen is designated (step 15). Further, the user instructs the type of image of the reference digital camera, that is, whether the image has image distortion due to tilt shooting or has been converted to an orthographic projection image (step 16).

【0039】すると、第2の補正変換パラメータ決定部
110Bはステップ15で指示された基準点の位置がス
テップ16で指示された画像中の基準点の位置に該当す
るように第2の補正変換パラメータを算出して(ステッ
プ17)、第1及び第2の補正変換パラメータをメモリ
に記憶して(ステップ18)、キャリブレーション処理
を終了する。
Then, the second correction conversion parameter determination unit 110B sets the second correction conversion parameter so that the position of the reference point specified in step 15 corresponds to the position of the reference point in the image specified in step 16. Is calculated (step 17), the first and second correction conversion parameters are stored in the memory (step 18), and the calibration process is terminated.

【0040】図7において、異常点位置検出処理が開始
されると、異常点位置を検出すべき対象物を撮影したデ
ィジタルカメラ40の画像が第3の補正変換パラメータ
決定部110Cに読み込まれ、表示される(ステップ2
1)。そこで、表示された画面上での基準点の位置の指
示と実際の寸法の入力を行う(ステップ22)。する
と、第3の補正変換パラメータ決定部110Cは指示さ
れた基準点間の寸法が入力された寸法に該当させる第3
の補正変換パラメータを算出する(ステップ23)。そ
して、メモリから読み出した第1の補正変換パラメータ
とステップ23で求めた第3の補正変換パラメータとの
差異を求める(ステップ24)。
In FIG. 7, when the abnormal point position detecting process is started, an image of the digital camera 40 photographing the object whose abnormal point position is to be detected is read into the third correction conversion parameter determination section 110C and displayed. (Step 2
1). Then, the user designates the position of the reference point on the displayed screen and inputs the actual dimensions (step 22). Then, third correction conversion parameter determination section 110C causes third dimension between the designated reference points to correspond to the input dimension.
Is calculated (step 23). Then, a difference between the first correction conversion parameter read from the memory and the third correction conversion parameter obtained in step 23 is obtained (step 24).

【0041】次いで、第4の補正変換パラメータ決定部
110Dはメモリから第2の補正変換パラメータを読み
出し、ステップ24で求めた補正変換パラメータの差異
に基づいて第2の補正変換パラメータを補正し、第4の
補正変換パラメータを求める(ステップ25)。そし
て、画像変換部120は、前記異常点位置検出対象物を
撮影したディジタルカメラの画像及び/又はIRカメラ
の画像を第3及び/又は第4の補正変換パラメータで補
正変換して正射投影画像を求め、表示し(ステップ2
6)、さらに、要すればステップ26で求めたディジタ
ルカメラの画像及び/又はIRカメラの画像に基づく正
射投影画像を用いて、はめ込み合成やパノラマ合成処理
を行い(ステップ27)、異常点位置検出処理を終了す
る。
Next, the fourth correction conversion parameter determination unit 110D reads the second correction conversion parameter from the memory, corrects the second correction conversion parameter based on the difference between the correction conversion parameters obtained in step 24, and 4 are obtained (step 25). Then, the image conversion unit 120 corrects and converts the digital camera image and / or the IR camera image of the abnormal point position detection target object using the third and / or fourth correction conversion parameters, and performs an orthographic projection image. And display it (Step 2
6) If necessary, an inset synthesis or a panorama synthesis process is performed using an orthographic image based on the image of the digital camera and / or the image of the IR camera obtained in step 26 (step 27), and the position of an abnormal point is determined. The detection processing ends.

【0042】本発明の適用分野は、奥行き方向に広がる
対象物、例えば路面状態の観察・分析に限定されるもの
ではなく、カメラに対向する平面状対象物、例えば橋脚
やビルの壁面及び窓枠、プラント等の構築物などの平面
部分に適用することができる。
The field of application of the present invention is not limited to objects spreading in the depth direction, for example, observation / analysis of road surface conditions, but planar objects facing cameras, for example, piers and building walls and window frames. The present invention can be applied to a planar portion such as a structure of a plant or the like.

【0043】[0043]

【発明の効果】本発明のよれば、IRカメラによる画像
の分解能の低さを通常のカメラの画像を用いて十分に補
い、路面等の異常を詳細に分析可能な画像を得ることが
できる。その結果、路面等の異常状態を詳細に把握する
こと、異常箇所を特定すること等路面等の状態の分析を
容易に行うことができる。
According to the present invention, the low resolution of the image obtained by the IR camera can be sufficiently compensated for by using the image of a normal camera, and an image can be obtained in which an abnormality such as a road surface can be analyzed in detail. As a result, it is possible to easily understand the abnormal state of the road surface or the like, specify the abnormal place, and analyze the state of the road surface or the like easily.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態例の画像撮影部による路面
の撮影状況の概要を示す図。
FIG. 1 is a diagram showing an outline of a road surface photographing state by an image photographing unit according to an embodiment of the present invention.

【図2】図1のディジタルカメラで撮影された画像の状
態を説明する説明図。
FIG. 2 is an explanatory diagram illustrating a state of an image captured by the digital camera in FIG. 1;

【図3】本発明の実施の形態例の処理部の構成を示す概
略構成図。
FIG. 3 is a schematic configuration diagram illustrating a configuration of a processing unit according to the embodiment of the present invention.

【図4】あおり撮影歪みの補正方法の原理を説明する説
明図。
FIG. 4 is an explanatory diagram illustrating the principle of a method of correcting tilting distortion.

【図5】異常点位置検出用画像の一例としての、センタ
ーラインを含む路面の画像。
FIG. 5 is an image of a road surface including a center line as an example of an abnormal point position detection image.

【図6】キャリブレーション処理の手順を示したフロー
チャート。
FIG. 6 is a flowchart showing a procedure of a calibration process.

【図7】異常点位置検出処理の手順を示したフローチャ
ート。
FIG. 7 is a flowchart illustrating a procedure of an abnormal point position detection process.

【符号の説明】[Explanation of symbols]

30………………………IRカメラ 40………………………ディジタルカメラ 44a〜44d…………キャリブレーションにおける基
準点の画像 44a1〜44d1……補正変換された正射投影画像に
おける基準点の位置 50、51………………センターラインの画像 100……………………処理部 110……………………補正変換パラメータ決定部 120……………………画像変換部 130……………………メモリ
30 IR camera 40 Digital camera 44a to 44d Reference point image in calibration 44a1 to 44d1 Corrected orthographic projection Reference point position 50, 51 in the image Center line image 100 Processing unit 110 Correction conversion parameter determination unit 120 ……………………………………………………………………………………………………………………………………………… 120 …… Image conversion unit 130 ……………… Memory

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 7/18 H04N 7/18 E K // E01C 23/01 E01C 23/01 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FI H04N 7/18 H04N 7/18 EK // E01C 23/01 E01C 23/01

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 所定の相対的位置に設置され、両者に共
通する範囲を含む撮影範囲をあおり角をもって撮影する
赤外線カメラ及び通常のカメラからなる撮影部と、 前記赤外線カメラの画像と通常のカメラの画像とを処理
する処理部とからなり、 前記処理部は、前記共通撮影
範囲内の相対的位置が既知の複数の基準点を撮影した前
記赤外線カメラの第1の画像と前記通常のカメラの第1
の画像のうち、前記通常のカメラで撮影された第1の画
像中の前記基準点の位置に基づいて、前記あおり撮影に
よって発生する画像の歪みを持った前記通常のカメラの
第1の画像を正射投影画像に補正変換するための第1の
補正変換パラメータを求める第1の変換パラメータ決定
部と、前記あおり撮影によって発生する画像の歪みを持
った前記赤外線カメラで撮影された第1の画像を、前記
通常のカメラでの撮影に基づく画像に基づいて、正射投
影画像に補正変換するための第2の補正変換パラメータ
を求める第2の変換パラメータ決定部とからなるキャリ
ブレーション部と、前記赤外線カメラと前記通常のカメ
ラとの前記共通撮影範囲に相対的位置が既知の複数の点
を含むように撮影された前記赤外線カメラの第2の画像
と前記通常のカメラの第2の画像のうち、前記通常のカ
メラで撮影された第2の画像中の前記相対位置既知点の
位置に基づいて、前記あおり撮影によって発生する画像
の歪みを持った前記通常のカメラの第2の画像を正射投
影画像に補正変換するための第3の補正変換パラメータ
を求める第3の変換パラメータ決定部と、前記第2の補
正変換パラメータと前記第3の補正変換パラメータとの
差に基づいて前記赤外線カメラの第2の画像を正射投影
画像に補正変換するための第4の補正変換パラメータを
求める第4の変換パラメータ決定部とで構成された画像
補正部とからなることを特徴とする画像処理による異常
点位置検出システム。
1. An imaging unit comprising an infrared camera and a normal camera which is installed at a predetermined relative position and shoots a shooting range including a range common to both with a tilt angle, an image of the infrared camera and a normal camera And a processing unit that processes the first image of the infrared camera that has captured a plurality of reference points whose relative positions within the common shooting range are known, and a processing unit of the normal camera. First
Out of the images, the first image of the normal camera having a distortion of the image generated by the tilt shooting based on the position of the reference point in the first image shot by the normal camera. A first conversion parameter determination unit for obtaining a first correction conversion parameter for performing correction conversion to an orthographic projection image; and a first image captured by the infrared camera having an image distortion generated by the tilt shooting A calibration unit comprising: a second conversion parameter determination unit that determines a second correction conversion parameter for correcting and converting to an orthographic projection image based on an image based on shooting by the normal camera. A second image of the infrared camera and the normal camera taken so as to include a plurality of points whose relative positions are known in the common shooting range of the infrared camera and the normal camera. Out of the second image, based on the position of the relative position known point in the second image captured by the normal camera, based on the position of the normal camera having an image distortion caused by the tilt shooting. A third conversion parameter determining unit for obtaining a third correction conversion parameter for correcting and converting the second image into an orthographic projection image; and a difference between the second correction conversion parameter and the third correction conversion parameter. And a fourth conversion parameter determination unit for obtaining a fourth correction conversion parameter for correcting and converting the second image of the infrared camera into an orthographic projection image based on the image correction unit. Abnormal point position detection system by image processing.
【請求項2】 請求項1において、 前記キャリブレーション部が前記第2の補正変換パラメ
ータを求めるに際して用いる通常のカメラでの撮影に基
づく画像は、前記あおり撮影によって発生する画像の歪
みを持った画像であることを特徴とする画像処理による
異常点位置検出システム。
2. The image according to claim 1, wherein the calibration unit obtains the second correction conversion parameter by using an image based on an image captured by a normal camera and having an image distortion generated by the tilting image capturing. An abnormal point position detection system using image processing, characterized in that:
【請求項3】 請求項1において、 前記キャリブレーション部が前記第2の補正変換パラメ
ータを求めるに際して用いる通常のカメラでの撮影に基
づく画像は、前記第1の補正変換パラメータによって変
換された正射投影画像であることを特徴とする画像処理
による異常点位置検出システム。
3. An orthographic image converted by the first correction conversion parameter according to claim 1, wherein an image based on photographing with a normal camera used by the calibration unit to obtain the second correction conversion parameter is used. An abnormal point position detection system by image processing, which is a projection image.
【請求項4】 請求項1〜請求項3において、 前記画像補正部は、前記赤外線カメラの第2の画像を前
記第4の補正変換パラメータによって補正変換し、及び
/又は前記通常のカメラの第2の画像を前記第3の補正
変換パラメータによって補正変換し、正射影投影画像と
する画像変換部をさらに備えることを特徴とする画像処
理による異常点位置検出システム。
4. The image correction unit according to claim 1, wherein the image correction unit corrects and converts the second image of the infrared camera with the fourth correction conversion parameter and / or converts the second image of the infrared camera. An abnormal point position detection system by image processing, further comprising: an image conversion unit that corrects and converts the second image using the third correction conversion parameter to obtain an orthographic projection image.
【請求項5】 請求項1〜請求項4において、 前記第3の補正変換パラメータを用いて変換された通常
のカメラの第2の画像の正射投影画像に対して、前記第
4の補正変換パラメータを用いて変換された赤外線カメ
ラの第2の画像の正射投影画像を前記通常のカメラの第
2の画像の正射投影画像の該当する部分と置換した画像
を作成する画像合成部を更に設けたことを特徴とする画
像処理による異常点位置検出システム。
5. The fourth correction conversion according to claim 1, wherein an orthographic projection image of a second image of a normal camera converted by using the third correction conversion parameter is used. An image combining unit that creates an image in which the orthographic projection image of the second image of the infrared camera converted using the parameter is replaced with a corresponding part of the orthographic projection image of the second image of the normal camera. An abnormal point position detection system based on image processing, which is provided.
【請求項6】 請求項1〜請求項5において、 前記相対的位置が既知の複数の基準点は、路面上に又は
路面に隣接して設けられた構築物であることを特徴とす
る画像処理による異常点位置検出システム。
6. The image processing method according to claim 1, wherein the plurality of reference points whose relative positions are known are structures provided on or adjacent to a road surface. Abnormal point position detection system.
【請求項7】 所定の相対的位置に設置され、両者に共
通する範囲を含む撮影範囲をあおり角をもって撮影する
赤外線カメラ及び通常のカメラからなる撮影部によっ
て、前記共通撮影範囲内の相対的位置が既知の複数の基
準点を前記赤外線カメラの第1の画像と前記通常のカメ
ラの第1の画像として撮影するステップと、 前記通常のカメラで撮影された第1の画像中の前記基準
点の位置に基づいて、前記あおり撮影によって発生する
画像の歪みを持った前記通常のカメラで撮影された第1
の画像を正射投影画像に補正変換するための第1の補正
変換パラメータを求める第1の変換パラメータ決定ステ
ップと、 前記あおり撮影によって発生する画像の歪みを持った前
記赤外線カメラで撮影された第1の画像を、前記通常の
カメラでの撮影に基づく画像に基づいて、正射投影画像
に補正変換するための第2の補正変換パラメータを求め
る第2の変換パラメータ決定ステップと、 前記撮影部の前記赤外線カメラと前記通常のカメラとの
前記共通撮影範囲に相対的位置が既知の複数の点を含む
ように前記赤外線カメラの第2の画像と前記通常のカメ
ラの第2の画像を撮影するステップと、 前記通常のカメラで撮影された第2の画像中の前記相対
位置既知点の位置に基づいて、前記あおり撮影によって
発生する画像の歪みを持った前記通常のカメラの第2の
画像を正射投影画像に補正変換するための第3の補正変
換パラメータを求める第3の変換パラメータ決定ステッ
プと、 前記第2の補正変換パラメータと前記第3の補正変換パ
ラメータとの差に基づいて前記赤外線カメラの第2の画
像を正射投影画像に補正変換するための第4の補正変換
パラメータを求める第4の変換パラメータ決定ステップ
とからなることを特徴とする画像処理による異常点位置
検出方法。
7. A relative position within the common photographing range, which is provided at a predetermined relative position, and which is constituted by an infrared camera and a normal camera that photograph a photographing range including a range common to both with a tilt angle and a normal camera. Capturing a plurality of known reference points as a first image of the infrared camera and a first image of the normal camera; and determining the reference points in the first image captured by the normal camera. Based on the position, a first image captured by the normal camera having an image distortion caused by the tilt image capturing
A first conversion parameter determination step for obtaining a first correction conversion parameter for correcting and converting the image into an orthographic projection image; and A second conversion parameter determining step of obtaining a second correction conversion parameter for correcting and converting the first image into an orthographic projection image based on an image based on shooting by the normal camera; Capturing a second image of the infrared camera and a second image of the normal camera such that the common shooting range of the infrared camera and the normal camera includes a plurality of points whose relative positions are known. Based on the position of the relative position known point in the second image photographed by the normal camera, the communication having the image distortion generated by the tilt photographing. A third conversion parameter determining step for obtaining a third correction conversion parameter for correcting and converting the second image of the camera into an orthographic projection image; and the second correction conversion parameter and the third correction conversion parameter A fourth conversion parameter determining step of obtaining a fourth correction conversion parameter for correcting and converting the second image of the infrared camera into an orthographic projection image based on the difference between the first image and the second image. Abnormal point position detection method.
JP14735098A 1998-05-28 1998-05-28 Abnormal point detection system by image processing Expired - Fee Related JP3994217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14735098A JP3994217B2 (en) 1998-05-28 1998-05-28 Abnormal point detection system by image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14735098A JP3994217B2 (en) 1998-05-28 1998-05-28 Abnormal point detection system by image processing

Publications (2)

Publication Number Publication Date
JPH11337493A true JPH11337493A (en) 1999-12-10
JP3994217B2 JP3994217B2 (en) 2007-10-17

Family

ID=15428207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14735098A Expired - Fee Related JP3994217B2 (en) 1998-05-28 1998-05-28 Abnormal point detection system by image processing

Country Status (1)

Country Link
JP (1) JP3994217B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002267432A (en) * 2001-03-14 2002-09-18 Nishimatsu Constr Co Ltd Method for detecting damage in tunnel lining surface
JP2006038701A (en) * 2004-07-28 2006-02-09 Nikon Corp Connection composition method of data and connection composing program
JP2008187566A (en) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Camera calibration apparatus and method and vehicle
JP2008187564A (en) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Camera calibration apparatus and method, and vehicle
JP2009104323A (en) * 2007-10-22 2009-05-14 Alpine Electronics Inc Mapping table creation device, vehicle surrounding image creation device, and mapping table creation method
JP2010281811A (en) * 2009-05-08 2010-12-16 Univ Of Miyazaki Device for making temperature image three dimensional
JP2011133322A (en) * 2009-12-24 2011-07-07 Pasuko:Kk Internal deformation detection support device and internal deformation detection support program
JP2011246908A (en) * 2010-05-25 2011-12-08 Takeda Design And Manufacturing Co Ltd Bridge inspection device
WO2012127602A1 (en) * 2011-03-22 2012-09-27 株式会社パスコ Internal deformation detection assistance device, internal deformation detection assistance program, and internal deformation detection assistance method
JP2013501211A (en) * 2009-07-31 2013-01-10 サン−ゴバン グラス フランス Method and system for detecting and classifying defects in a substrate
JP2013524250A (en) * 2010-04-13 2013-06-17 シーメンス アクチエンゲゼルシヤフト Apparatus and method for projecting information onto an object in thermographic inspection
JP2014002124A (en) * 2012-06-21 2014-01-09 Azbil Corp Apparatus and method for specifying temperature detection range
CN104897676A (en) * 2015-06-15 2015-09-09 东南大学 Road surface texture characterization method
JP2016035394A (en) * 2014-08-01 2016-03-17 パイオニア株式会社 Terahertz wave imaging device and terahertz wave imaging method
CN106325132A (en) * 2016-09-23 2017-01-11 常州大学怀德学院 Road waterlogging monitoring system
JP2017106170A (en) * 2015-12-07 2017-06-15 西日本高速道路エンジニアリング四国株式会社 Bridge inspection support system and bridge inspection support method
JP2017123003A (en) * 2016-01-06 2017-07-13 武志 小畠 Image processing system, image processing device, image processing method, inspection system, and program
JP2017139559A (en) * 2016-02-02 2017-08-10 株式会社日立国際電気 Monitoring system and display method for monitoring system
WO2018163572A1 (en) * 2017-03-10 2018-09-13 富士フイルム株式会社 Image-processing system, image-processing device, image-processing method, and image-processing program
WO2019138646A1 (en) * 2018-01-10 2019-07-18 ソニー株式会社 Calibration device, calibration method, and calibration chart device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102706883B (en) * 2012-05-06 2015-06-10 山西省交通科学研究院 System and method for recognizing holes in paved waterproof board of tunnel

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002267432A (en) * 2001-03-14 2002-09-18 Nishimatsu Constr Co Ltd Method for detecting damage in tunnel lining surface
JP2006038701A (en) * 2004-07-28 2006-02-09 Nikon Corp Connection composition method of data and connection composing program
JP2008187566A (en) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Camera calibration apparatus and method and vehicle
JP2008187564A (en) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Camera calibration apparatus and method, and vehicle
JP2009104323A (en) * 2007-10-22 2009-05-14 Alpine Electronics Inc Mapping table creation device, vehicle surrounding image creation device, and mapping table creation method
JP2010281811A (en) * 2009-05-08 2010-12-16 Univ Of Miyazaki Device for making temperature image three dimensional
JP2013501211A (en) * 2009-07-31 2013-01-10 サン−ゴバン グラス フランス Method and system for detecting and classifying defects in a substrate
JP2011133322A (en) * 2009-12-24 2011-07-07 Pasuko:Kk Internal deformation detection support device and internal deformation detection support program
JP2013524250A (en) * 2010-04-13 2013-06-17 シーメンス アクチエンゲゼルシヤフト Apparatus and method for projecting information onto an object in thermographic inspection
JP2011246908A (en) * 2010-05-25 2011-12-08 Takeda Design And Manufacturing Co Ltd Bridge inspection device
WO2012127602A1 (en) * 2011-03-22 2012-09-27 株式会社パスコ Internal deformation detection assistance device, internal deformation detection assistance program, and internal deformation detection assistance method
JP2014002124A (en) * 2012-06-21 2014-01-09 Azbil Corp Apparatus and method for specifying temperature detection range
JP2016035394A (en) * 2014-08-01 2016-03-17 パイオニア株式会社 Terahertz wave imaging device and terahertz wave imaging method
CN104897676A (en) * 2015-06-15 2015-09-09 东南大学 Road surface texture characterization method
JP2017106170A (en) * 2015-12-07 2017-06-15 西日本高速道路エンジニアリング四国株式会社 Bridge inspection support system and bridge inspection support method
JP2017123003A (en) * 2016-01-06 2017-07-13 武志 小畠 Image processing system, image processing device, image processing method, inspection system, and program
WO2017119436A1 (en) * 2016-01-06 2017-07-13 武志 小畠 Image processing system, image processing device, image processing method, inspection system, and program
JP2017139559A (en) * 2016-02-02 2017-08-10 株式会社日立国際電気 Monitoring system and display method for monitoring system
CN106325132A (en) * 2016-09-23 2017-01-11 常州大学怀德学院 Road waterlogging monitoring system
WO2018163572A1 (en) * 2017-03-10 2018-09-13 富士フイルム株式会社 Image-processing system, image-processing device, image-processing method, and image-processing program
JPWO2018163572A1 (en) * 2017-03-10 2019-11-21 富士フイルム株式会社 Image processing system, image processing apparatus, image processing method, and image processing program
WO2019138646A1 (en) * 2018-01-10 2019-07-18 ソニー株式会社 Calibration device, calibration method, and calibration chart device
JPWO2019138646A1 (en) * 2018-01-10 2021-03-04 ソニー株式会社 Calibration device and calibration method and calibration chart device
US11107247B2 (en) 2018-01-10 2021-08-31 Sony Corporation Calibration device, calibration method, and calibration chart device

Also Published As

Publication number Publication date
JP3994217B2 (en) 2007-10-17

Similar Documents

Publication Publication Date Title
JP3994217B2 (en) Abnormal point detection system by image processing
US7139424B2 (en) Stereoscopic image characteristics examination system
JP3960390B2 (en) Projector with trapezoidal distortion correction device
US7489335B2 (en) Photographic apparatus with function of image correction and method thereof
CN109100363B (en) Method and system for distinguishing defects of attached foreign matters from dust
JPH1093808A (en) Image synthesis device/method
KR20160088090A (en) Apparatus and method for generating panorama image based on image quality
JP2000331168A (en) Device and method for processing image of internal surface of conduit
KR100481399B1 (en) Imaging system, program used for controlling image data in same system, method for correcting distortion of captured image in same system, and recording medium storing procedures for same method
JP2005016991A (en) Infrared structure diagnosis system
JP2011182176A (en) Wide viewing angle image processing method, and wide viewing angle image photographing device
JP2007322162A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2005037366A (en) Infrared structure-diagnosis system, and method for infrared structure-diagnosis
JPH1038533A (en) Instrument and method for measuring shape of tire
JP2005016995A (en) Infrared structure diagnosis method
JP2005300179A (en) Infrared structure diagnosis system
JP2011228857A (en) Calibration device for on-vehicle camera
JPH1082614A (en) Minute displacement-measuring apparatus using moire fringe
JPH11337322A (en) Method for measuring appearance by two-dimensional image comparison, and device therefor
JP2005038035A (en) Image processor, image processing method and program
JP4287603B2 (en) Optical instrument adjustment and inspection system
JP2006038701A (en) Connection composition method of data and connection composing program
JP2004220371A (en) Image processing method, image processor, image processing program, and recording medium recorded with image processing program
JP4796295B2 (en) Camera angle change detection method, apparatus and program, and image processing method, equipment monitoring method, surveying method, and stereo camera setting method using the same
JP3914938B2 (en) Projector keystone distortion correction device and projector including the keystone distortion correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees