JP2007026255A - Method for extracting progress of defective point inside image - Google Patents

Method for extracting progress of defective point inside image Download PDF

Info

Publication number
JP2007026255A
JP2007026255A JP2005209557A JP2005209557A JP2007026255A JP 2007026255 A JP2007026255 A JP 2007026255A JP 2005209557 A JP2005209557 A JP 2005209557A JP 2005209557 A JP2005209557 A JP 2005209557A JP 2007026255 A JP2007026255 A JP 2007026255A
Authority
JP
Japan
Prior art keywords
image
edge
difference
extracting
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005209557A
Other languages
Japanese (ja)
Inventor
Takashi Tamura
隆志 田村
Yasuyuki Akiyama
保行 秋山
Shinji Numao
信二 沼尾
Noriyuki Harimoto
紀行 張本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Koei Co Ltd
East Japan Railway Co
Original Assignee
Nippon Koei Co Ltd
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Koei Co Ltd, East Japan Railway Co filed Critical Nippon Koei Co Ltd
Priority to JP2005209557A priority Critical patent/JP2007026255A/en
Publication of JP2007026255A publication Critical patent/JP2007026255A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for extracting a progress of a defective point such as a crack from two images different in photographed time by image processing technology. <P>SOLUTION: This method comprises: a process for extracting an edge of the image on the basis of first actual image data of a measured face; a process for extracting the edge of the image on the basis of second actual image data after a prescribed time lapses in the same measured face; a difference processing process for finding differences among a specific pixel in the second edge image, a pixel in the first edge image corresponding to the specific pixel, and a peripheral pixel of the pixel, and outputting a smallest value among the differences as a difference value; and a process for outputting the difference found in the difference processing process as the progressive defective point. A straight line part except the defective point is extracted by Hough transformation and is deleted. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、鉄道用トンネルなどの同一内壁面であって、撮影時期の異なる2枚の画像中からクラックなどの変状点の進展状況を抽出するための方法に関するものである。   The present invention relates to a method for extracting the progress of deformation points such as cracks from two images having the same inner wall surface such as a railway tunnel and having different shooting times.

近年、情報処理技術の進歩と相俟ってパソコンの処理速度の向上、記憶装置の大容量化、ネットワークの高速化が進んだため画像処理技術が各種の業務に活用される機会が多くなっている。
画像処理技術の一つである展開図作成技術は、円筒形内空構造を持つ鉄道用トンネル等の土木構造物の内面状態や経年変化を画像により容易に把握することができるため、土木構造物の維持管理業務に広く利用されつつある(特許文献1)。
In recent years, coupled with advances in information processing technology, the processing speed of personal computers has increased, the capacity of storage devices has increased, and the speed of networks has increased, so there are more opportunities for image processing technology to be used in various businesses. Yes.
Development technology, which is one of the image processing technologies, can easily understand the internal state and secular change of civil engineering structures such as railway tunnels with a cylindrical inner structure from images. Are being widely used for maintenance work (Patent Document 1).

この特許文献1による展開図作成順序を説明すると、円錐形ミラーとテレビカメラを一体にした装置を、トンネルの中心に沿って移動させる。すると、輪切りの信号が多数得られる。この円形帯状の画像を平面状のCCD撮像素子に結像し、表示装置に表示すると、トンネルの内壁が等密度で平面に展開される。この展開図には、目地、クラック、ケーブル、汚れ等の情報を含む。   Describing the development drawing order according to Patent Document 1, an apparatus in which a conical mirror and a television camera are integrated is moved along the center of the tunnel. As a result, a large number of rounding signals are obtained. When this circular belt-like image is formed on a planar CCD image pickup device and displayed on a display device, the inner wall of the tunnel is developed in a plane with equal density. This development includes information such as joints, cracks, cables, and dirt.

展開図情報は、展開図記憶部に記憶され、必要に応じて表示装置にて表示され、かつ、プリンタでプリントアウトされる。
特開平6―241760号公報
The development chart information is stored in the development chart storage unit, displayed on a display device as necessary, and printed out by a printer.
JP-A-6-241760

以上のような展開図を鉄道用トンネル等の維持管理業務に有効に活用するには、展開図上に現われる各種の情報を抽出し判別する作業が必要になる。これらの作業は、精密さと根気を要する繰り返し作業であるため、一部にはコンピュータを利用して自動化を試みた例があるが、認識速度や精度において不十分である場合が多く、そのほとんどが人手による目視判定作業である。
このような背景のもと、展開図画像から各種の情報を抽出する作業に関して、効果的な手法の開発が望まれている。
In order to effectively utilize the development map as described above for maintenance work such as a railway tunnel, it is necessary to extract and discriminate various kinds of information appearing on the development map. Since these operations are repetitive operations that require precision and patience, there are some examples of attempts to automate using computers, but the recognition speed and accuracy are often insufficient, most of which are It is a visual judgment work by hand.
Under such a background, it is desired to develop an effective method for extracting various kinds of information from the developed image.

トンネルの壁面等の撮影車は、平成12年に導入され、管轄内全線のトンネル画像を取得すると共に、デジタイザを用いた変状展開図作成作業が行なわれている。しかし、このデジタイザによる変状の入力は、人手による作業であるため、膨大な時間を費やしていた。
本発明の目的は、撮影時期の異なる2枚の展開画像において、差分処理手法による変状部分の認識手法を開発することである。
本発明の他の目的は、差分処理時における撮影位置のずれ、照明条件の変化などの影響を除去する方法を提供することである。
本発明のさらに他の目的は、撮影時期の異なる2枚の画像の差分処理を行う場合において、目地、従来クラックなど第1回目撮影画像と第2回目撮影画像の両方に存在している個所を除去し、クラックなど変状部分の進行部分のみを強調する処理方法を提供することである。
Photographing vehicles such as the walls of tunnels were introduced in 2000, and tunnel images of all lines within the jurisdiction are acquired, and deformed development drawing work using a digitizer is being performed. However, since the input of the deformation by the digitizer is a manual operation, it takes a lot of time.
An object of the present invention is to develop a method for recognizing a deformed portion using a difference processing method in two developed images having different shooting times.
Another object of the present invention is to provide a method for removing influences such as a shift in photographing position and a change in illumination conditions during differential processing.
Still another object of the present invention is to provide a portion existing in both the first and second shot images, such as joints and conventional cracks, when performing differential processing of two images having different shooting times. The object of the present invention is to provide a processing method that removes and emphasizes only the progressing portion of the deformed portion such as a crack.

本発明は、被測定面の第1回目の実画像データに基づき画像のエッジを抽出する工程と、同一被測定面における所定時間経過後の第2回目の実画像データに基づき画像のエッジを抽出する工程と、第2回目のエッジ画像におけ特定画素と、この特定画素に対応した第1回目のエッジ画像における画素及びこの画素の周辺画素との差分を求め、この差分の最も小さな値を差分値として出力する差分処理工程と、この差分処理工程で求めた差分を進展した変状点として出力する工程とからなることを特徴とする画像中の変状点の進展状況を抽出する方法である。   The present invention extracts an image edge based on the first actual image data on the surface to be measured, and extracts an image edge based on the second actual image data after a predetermined time on the same surface to be measured. And calculating the difference between the specific pixel in the second edge image and the pixel in the first edge image corresponding to the specific pixel and the peripheral pixel of the pixel, and subtracting the smallest value of the difference. It is a method for extracting a progress state of an abnormal point in an image, characterized by comprising a difference processing step that outputs as a value and a step that outputs the difference obtained in the difference processing step as an advanced deformation point. .

第2回目のエッジ画像については、目地やケーブルなどの直線成分を除去するために、ハフ変換による画像の直線成分を抽出する工程と、この抽出した直線成分をマスク処理して削除するマスク処理工程とを付加する。
差分処理工程は、被測定面における地色や汚れによるノイズを除去するために、2値化された第2回目のエッジ画像における2値化閾値以上の特定画素を用いるる。また、2枚の画像間の多少の位置ずれがあっても、変状点の抽出に影響しない範囲内で第2回目のエッジ画像と、この特定画素に対応した第1回目のエッジ画像における画素及びこの対応画素の周辺8画素との差分を求め、この差分の最も小さな値を差分値として出力する。
差分処理工程は、変状点をより正確に抽出するために、第1回目のエッジ画像と第2回目のエッジ画像との撮影画像の位置補正工程を行なった後に行なう。
For the second edge image, in order to remove linear components such as joints and cables, a step of extracting linear components of the image by Hough transform, and a mask processing step of masking and deleting the extracted linear components And are added.
The difference processing step uses specific pixels equal to or higher than the binarization threshold in the binarized second edge image in order to remove noise due to the ground color and dirt on the surface to be measured. In addition, even if there is a slight misalignment between the two images, the second edge image and the pixels in the first edge image corresponding to the specific pixel within a range that does not affect the extraction of the deformation point. And the difference with the surrounding 8 pixels of this corresponding pixel is calculated | required, and the smallest value of this difference is output as a difference value.
The difference processing step is performed after performing the position correction step of the captured image of the first edge image and the second edge image in order to extract the deformation point more accurately.

請求項1記載の発明によれば、被測定面の第1回目の実画像データに基づき画像のエッジを抽出する工程と、同一被測定面における所定時間経過後の第2回目の実画像データに基づき画像のエッジを抽出する工程と、第2回目のエッジ画像における特定画素と、この特定画素に対応した第1回目のエッジ画像における画素との差分を求める差分処理工程と、この差分処理工程で求めた差分を進展した変状点として出力する工程とからなるので、第1回目の画像に現れていなかったが、第2回目の画像に新たに発生したクラックなどの変状点のみが画像処理技術によって出力されて表示される。   According to the first aspect of the present invention, the step of extracting the edge of the image based on the first actual image data on the surface to be measured, and the second actual image data after a predetermined time elapses on the same surface to be measured. A step of extracting an edge of the image based on a difference processing step for obtaining a difference between the specific pixel in the second edge image and the pixel in the first edge image corresponding to the specific pixel, and the difference processing step Since the obtained difference is output as an advanced deformation point, it does not appear in the first image, but only the abnormal point such as a crack newly generated in the second image is processed. Output by technology and displayed.

請求項2記載の発明によれば、被測定面の第1回目の実画像データに基づき画像のエッジを抽出する工程と、同一被測定面における所定時間経過後の第2回目の実画像データに基づき画像のエッジを抽出する工程と、第2回目のエッジ画像における特定画素と、この特定画素に対応した第1回目のエッジ画像における画素及びこの画素の周辺画素との差分を求め、この差分の最も小さな値を差分値として出力する差分処理工程と、この差分処理工程で求めた差分を進展した変状点として出力する工程とからなるので、第1回目と第2回目の撮影画像に多少の位置ずれがあっても変状点のみが正確に出力される。   According to the second aspect of the present invention, the step of extracting the edge of the image based on the first actual image data on the measured surface, and the second actual image data after a predetermined time on the same measured surface. A step of extracting an edge of the image on the basis of the difference between the specific pixel in the second edge image, the pixel in the first edge image corresponding to the specific pixel and the peripheral pixel of the pixel, Since it comprises a difference processing step for outputting the smallest value as a difference value and a step for outputting the difference obtained in the difference processing step as an advanced deformation point, there are some differences in the first and second shot images. Even if there is a misalignment, only the deformation point is output accurately.

請求項3記載の発明によれば、第2回目のエッジ画像に基づきハフ変換による画像の直線成分を抽出する工程と、この抽出した直線成分をマスク処理して削除するマスク処理工程とを付加したので、目地や新たに敷設したケーブルその他の直線的なエッジ画像は、マスク処理によって削除して変状点のみが検出できる。マスク処理は、第2回目の画像についてのみ行えば、第1回目の画像については、差分処理で削除されるので、第1回目の画像についてのマスク処理が不要になり、処理時間を大幅に短縮できる。   According to the third aspect of the present invention, a step of extracting a linear component of the image by the Hough transform based on the second edge image and a mask processing step of masking and deleting the extracted linear component are added. Therefore, joints, newly laid cables and other linear edge images can be deleted by mask processing, and only deformed points can be detected. If the mask process is performed only for the second image, the first image is deleted by the difference process, so the mask process for the first image becomes unnecessary, and the processing time is greatly reduced. it can.

請求項4記載の発明によれば、差分処理工程は、2値化された第2回目のエッジ画像における2値化閾値以上の特定画素と、この特定画素に対応した第1回目のエッジ画像における画素及びこの対応画素の周辺8画素との差分を求め、この差分の最も小さな値を差分値として出力するようにしたので、被測定面における地色や汚れによるノイズを除去できるとともに、2枚の画像間の多少の位置ずれがあっても、変状点を必要以上に削除したりするなどの影響を与えることなく、変状点を抽出することができる。   According to the fourth aspect of the present invention, the difference processing step includes a specific pixel equal to or higher than the binarization threshold in the binarized second edge image, and a first edge image corresponding to the specific pixel. Since the difference between the pixel and the surrounding eight pixels of the corresponding pixel is obtained and the smallest value of the difference is output as the difference value, noise due to the ground color and dirt on the surface to be measured can be removed. Even if there is a slight misalignment between images, the deformation point can be extracted without affecting the deformation point more than necessary.

請求項5記載の発明によれば、被測定面の実画像データに基づき画像のエッジを抽出する工程は、エッジ画像の明るさを表わす2値化閾値を高めに設定して抽出した1回目のエッジ画像と、2値化閾値を低めに設定して抽出した2回目のエッジ画像を合成し、閾値を高めに設定して抽出されたエッジ画像とこの高めのエッジ画像に連続する低めに設定して抽出されたエッジ画像とを残し、単独で存在する低めに設定して抽出されたエッジ画像を削除するようにしたので、明確に現れたクラックだけでなくやや不明確で見落としやすいクラックも確実に抽出することができる。   According to the fifth aspect of the present invention, the step of extracting the edge of the image based on the actual image data of the surface to be measured is the first time extracted by setting the binarization threshold value representing the brightness of the edge image higher. The edge image and the second edge image extracted with the binarization threshold set to a low value are combined, and the threshold value is set to a high value and the extracted edge image and the high edge image are set to a low continuous value. The extracted edge image is deleted and the extracted edge image is deleted by setting it to a low level that exists by itself, so that not only clearly appearing cracks but also slightly unclear and easily overlooked cracks are ensured Can be extracted.

本発明は、調査実施時期の異なる2枚の画像を利用して、1回目の調査結果を最大限に利用し、2回目の調査結果画像から鉄道トンネル等の変状の進行及び新たな変状部分の抽出を効率的に行なう。
このため、本発明は、画像処理を行なうことによって異常と認められるトンネル内部の変状部分を自動的に抽出するのではなく、変状に関する情報抽出・判定作業効率の最大化に資する方法に重点をおく。
The present invention makes use of the first survey result to the maximum extent by using two images with different survey implementation times, and the progress of the deformation of the railway tunnel, etc. and the new deformation from the second survey result image. Extract parts efficiently.
For this reason, the present invention focuses on a method that contributes to maximizing the efficiency of information extraction / determination work relating to deformation, rather than automatically extracting abnormal portions inside the tunnel that are recognized as abnormal by performing image processing. Put.

2時期画像の撮影画像の位置及び照明条件は異なるので、差分処理を行なう前に、画像の位置補正、シェーディング補正処理が必要である。
画像の差分処理の順序は、以下の通りである。
(1)2時期画像の撮影画像の位置補正をする。
(2)画像の差分処理を行なう。差分処理には、目的によって、単純差分法(補正後の位置をもとに2枚画像の差分を行なう方法)と近傍最小差分法(補正後の位置をもとに2枚目の画像の1点と1枚目の画像の対応点及びその近傍点の差分を求め、その差分の最小点を差分値とする方法)のいずれかが採用される。特に、撮影位置のずれにより、2時期画像の位置は、微妙にずれていると想定される場合には、近傍最小差分法が採用される。
Since the position of the captured image and the illumination condition of the two-period image are different, it is necessary to perform image position correction and shading correction processing before performing the difference processing.
The order of the image difference processing is as follows.
(1) Correct the position of the captured image of the two-period image.
(2) Perform image difference processing. In the difference processing, depending on the purpose, a simple difference method (a method of performing a difference between two images based on a corrected position) and a neighborhood minimum difference method (a first image of the second image based on a corrected position). Any one of a method of obtaining a difference between a point and a corresponding point of the first image and its neighboring points and using a minimum point of the difference as a difference value is employed. In particular, when it is assumed that the position of the two-period image is slightly shifted due to the shift of the photographing position, the neighborhood minimum difference method is adopted.

本発明の実施例について、図面に基づき説明する。
本発明の画像中の変状点の進展状況を抽出する方法の対象となる2時期画像として、例えば、第1回目のエッジ画像が図4(a)に示されるものとし、第2回目のエッジ画像が図4(b)に示されるものとする。原画像からこのようなエッジ画像を得るため、まず、このエッジ画像を抽出する工程を図6に基づき説明する。
Embodiments of the present invention will be described with reference to the drawings.
As a two-time image that is a target of the method for extracting the progress of deformation points in the image of the present invention, for example, a first edge image is shown in FIG. Assume that the image is shown in FIG. In order to obtain such an edge image from the original image, first, the process of extracting the edge image will be described with reference to FIG.

(a)トンネルの側方実像画の作成工程(図6のa)
本発明による差分処理の対象となる画像データは、例えば、前記従来例としてあげた特許文献1記載の方法によるものを利用することもできる。また、撮影装置をトンネルの中心に沿って一定速度で移動させながらレーザをトンネルの内周に向けて放射しつつ回転させ、トンネルの内面を螺旋状に走査し、この螺旋状の走査線を平面状に展開して平面画像を得る方法であってもよい。
平面画像を得る方法は、上記例に限られるものではない。また、画像データは、予め画素毎に2値化されたものでもよいし、アナログの画像データをA/D変換したものであってもよい。
(A) Tunnel side real image creation process (Fig. 6a)
As the image data to be subjected to the difference processing according to the present invention, for example, the image data according to the method described in Patent Document 1 mentioned as the conventional example can be used. In addition, while moving the imaging device at a constant speed along the center of the tunnel, the laser is rotated toward the inner periphery of the tunnel and rotated, the inner surface of the tunnel is scanned in a spiral shape, and the spiral scan line is flattened. It is also possible to obtain a planar image by expanding the image into a shape.
The method for obtaining a planar image is not limited to the above example. Further, the image data may be binarized for each pixel in advance, or analog image data may be A / D converted.

(b)展開図画像の作成工程(図6のb)
前記(a)工程で作成された壁面画像において、実画像データ上の座標点(x,y)に対応する展開図上の座標点(m,n)を展開処理によって求め、この座標データから展開図を作成することにより、トンネルの長さ方向に展開した展開図となる。
(B) Development view image creation process (b in FIG. 6)
In the wall image created in the step (a), the coordinate point (m, n) on the development view corresponding to the coordinate point (x, y) on the actual image data is obtained by development processing, and development is performed from this coordinate data. By creating a diagram, it becomes a development view developed in the length direction of the tunnel.

(c)調整して連続する工程(図6のc)
前記(b)工程で得られた展開図は、ビデオカメラ等による撮影方法により歪を生ずることがあるので、トンネル深さ方向の補正、中心点の補正、傾き補正の各処理をして正確な展開図を作成する。画像データの展開処理を1フレーム毎に行うものとすると、展開処理後の画像がトンネルの奥になればなるほど情報が不足し歪んだ画像となる。この展開処理後の歪み部分を除去するために、複数フレーム分の展開画像の合成を行う。合成の際、トンネルの中心点が画像毎に異なることがあるので、データマッチングを行う。合成された展開図情報は、連続した展開図となり、これが図示しない記憶部に記憶され、必要に応じてモニターにて表示される。
(C) Adjusting and continuing process (c in FIG. 6)
Since the developed view obtained in the step (b) may be distorted by a photographing method using a video camera or the like, the tunnel depth direction correction, the center point correction, and the inclination correction are performed accurately. Create an exploded view. Assuming that the image data expansion process is performed for each frame, the more the image after the expansion process is located at the back of the tunnel, the more information is insufficient and the image is distorted. In order to remove the distorted portion after the development processing, the development images for a plurality of frames are synthesized. At the time of synthesis, the center point of the tunnel may be different for each image, so data matching is performed. The combined development view information becomes a continuous development view, which is stored in a storage unit (not shown) and displayed on a monitor as necessary.

(d)展開図画像の読み込み工程(図6のd)
前記工程(c)で得られた展開図から展開図画像を読み込む。後述する本発明による差分処理では、目地やケーブルなどの直線部が画像中に表示された状態で読み込み、この直線部をマスク処理をして削除しており、その工程は後述する。
(D) Process of reading a developed image (d in FIG. 6)
A development view image is read from the development view obtained in the step (c). In the difference processing according to the present invention described later, a straight line portion such as a joint or a cable is read in a state displayed in the image, and the straight line portion is deleted by performing mask processing, and the process will be described later.

(e)エッジの抽出工程(図6のe)
前記(d)工程にて読み込まれた画像からエッジを抽出する。エッジの抽出方法には、Canny法、Deriche法、Sugiyama−Abe法、Sobel法等が知られている。たとえば、Canny法により抽出される。
(E) Edge extraction process (e in FIG. 6)
Edges are extracted from the image read in step (d). As an edge extraction method, the Canny method, the Derich method, the Sugiyama-Abe method, the Sobel method, and the like are known. For example, it is extracted by the Canny method.

(f)ノイズの削除工程(図6のf)
クラックは、ある長さを持つものであるから、一定面積以下の線分はノイズと判断して削除する。ノイズを削除した後のエッジ画像が図4(a)(b)に示される。
(F) Noise removal step (f in FIG. 6)
Since the crack has a certain length, a line segment having a certain area or less is determined as noise and deleted. The edge image after removing the noise is shown in FIGS.

次に、以上のようにして得られたトンネル内面のエッジ画像から本発明の方法により差分処理されて変状点の進展を抽出する工程を図7に基づき説明する。
(g)第1回目の画像を対象とする1回目のエッジ抽出処理工程(図7のg)
この工程では、図4(a)に示される第1回目のエッジ画像を対象として明るさを表わす2値化閾値を高めに設定して1回目のエッジ抽出をする。
Next, a process of extracting the progress of the deformed point by differential processing by the method of the present invention from the edge image of the tunnel inner surface obtained as described above will be described with reference to FIG.
(G) First edge extraction process for the first image (g in FIG. 7)
In this step, for the first edge image shown in FIG. 4 (a), the binarization threshold value representing brightness is set higher and the first edge extraction is performed.

(h)第1回目の画像を対象とする2回目のエッジ抽出処理工程(図7のh)
この工程では、図4(a)に示される第1回目のエッジ画像を対象として明るさを表わす2値化閾値を低めに設定して2回目のエッジ抽出をする。
(H) Second edge extraction process for the first image (h in FIG. 7)
In this step, the second edge extraction is performed by setting a lower binarization threshold representing brightness for the first edge image shown in FIG. 4A.

(i)1、2回目のエッジ画像の合成工程(図7のi)
この工程では、(g)、(h)工程の1、2回目のエッジ画像を合成し、閾値を高めに設定して抽出された1回目のエッジとこの高めのエッジに連続する低めに設定して抽出された2回目のエッジ線分とを残し、単独で存在する低めのエッジ線分は、削除する。図4(a)に示される第1回目のエッジ画像のある水平走査線36上のエッジ画像は、横軸を画素、縦軸を明るさとして表わすと、図1(a)に示される。この図は、目地の直線部57、従来クラック58、ケーブル影の直線部57が表わされている。
同様にして、
(I) First and second edge image composition step (i in FIG. 7)
In this step, the first and second edge images of steps (g) and (h) are combined, and the first edge extracted by setting the threshold value higher and the lower edge continuous to this higher edge are set. The second edge line segment extracted in this manner is left, and the lower edge line segment existing alone is deleted. The edge image on the horizontal scanning line 36 with the first edge image shown in FIG. 4A is shown in FIG. 1A, where the horizontal axis represents pixels and the vertical axis represents brightness. This figure shows a joint straight portion 57, a conventional crack 58, and a cable shadow straight portion 57.
Similarly,

(j)第2回目の画像を対象とする1回目のエッジ抽出処理工程(図7のj)
この工程では、図4(b)に示される第2回目のエッジ画像を対象として明るさを表わす2値化閾値を高めに設定して1回目のエッジ抽出をする。
(J) First edge extraction process step for the second image (j in FIG. 7)
In this step, the first edge extraction is performed by setting a high binarization threshold value representing brightness for the second edge image shown in FIG. 4B.

(k)第2回目の画像を対象とする2回目のエッジ抽出処理工程(図7のk)
この工程では、図4(b)に示される第2回目のエッジ画像を対象として明るさを表わす2値化閾値を低めに設定して2回目のエッジ抽出をする。
(K) Second edge extraction process for the second image (k in FIG. 7)
In this step, the second edge extraction is performed by setting the binarization threshold value representing the brightness lower for the second edge image shown in FIG. 4B.

(l)1、2回目のエッジ画像の合成工程(図7のl)
この工程では、(j)、(k)工程の1、2回目のエッジ画像を合成し、閾値を高めに設定して抽出された1回目のエッジとこの高めのエッジに連続する低めに設定して抽出された2回目のエッジ線分とを残し、単独で存在する低めのエッジ線分は、削除する。図4(b)に示される第2回目のエッジ画像の水平走査線36上のエッジ画像は、図1(b)に示される。この図では、第1回目の画像にない新規なクラック76が表わされている。
(L) First and second edge image synthesis steps (l in FIG. 7)
In this step, the first and second edge images of steps (j) and (k) are combined, and the first edge extracted by setting the threshold value higher and the lower edge continuous to the higher edge are set. The second edge line segment extracted in this manner is left, and the lower edge line segment existing alone is deleted. The edge image on the horizontal scanning line 36 of the second edge image shown in FIG. 4B is shown in FIG. In this figure, a new crack 76 not shown in the first image is shown.

(m)第2回目のエッジ画像のハフ変換処理・マスク処理工程(図7のm)
第2回目のエッジ画像について、抽出した線分の各点を対象に、ハフ(Hough)変換を行ない、直線部57をピックアップして、その近傍の線分をマスクする処理が行われる。
ハフ変換は、2値画像中の直線、円、任意図形などの抽出を行なう有効かつ汎用的な手法として知られている。これを図3に基づきさらに詳しく説明すると、図3(a)において、現画像内の2値化点P1(x1,y1)を極座標で表わすと、次式のようになる。
ρ=x1・cosθ+y1・sinθ
この式は、θとρの間の関係式になり、図3(b)に示すθ−ρ平面上の曲線L1を表わすことになる。同様の処理を2値化点P2(x2,y2),P3(x3,y3)についても行なうと、θ−ρ平面上の曲線L2、L3が得られる。これらP1,P2,P3がx−y平面上の直線L上にある場合、図3(b)に示すように、θ−ρ平面上の曲線L1、L2、L3がある一点に交差する。
このように、θ−ρ平面上の交差数の最も多い点は、x―y平面上の最も多い点を通っている直線に対応することが分かる。
(M) Second edge image Hough transform / mask process (m in FIG. 7)
With respect to the second edge image, Hough transformation is performed for each point of the extracted line segment, and processing for picking up the straight line portion 57 and masking the line segment in the vicinity thereof is performed.
The Hough transform is known as an effective and versatile method for extracting a straight line, a circle, an arbitrary figure, etc. in a binary image. This will be described in more detail with reference to FIG. 3. In FIG. 3A, the binarized point P1 (x1, y1) in the current image is represented by polar coordinates as follows.
ρ = x1 · cos θ + y1 · sin θ
This equation is a relational expression between θ and ρ, and represents a curve L1 on the θ-ρ plane shown in FIG. When the same processing is performed on the binarized points P2 (x2, y2) and P3 (x3, y3), curves L2 and L3 on the θ-ρ plane are obtained. When these P1, P2, and P3 are on the straight line L on the xy plane, as shown in FIG. 3B, the curves L1, L2, and L3 on the θ-ρ plane intersect one point.
Thus, it can be seen that the point having the largest number of intersections on the θ-ρ plane corresponds to the straight line passing through the most point on the xy plane.

前記第2回目のエッジ画像についてのハフ(Hough)変換を図5に基づきさらに説明すると、図5(a)に示す第2回目の画像において、同一直線部分57を構成する点群は、横軸を角度方向、縦軸を半径方向とした図5(b)の交点のピーク値として形成される。このハフ変換の結果をもとに直線のマスク処理を行うことにより、図1(c)のように、従来のクラック58と新規なクラック58のみが得られる。 The Hough transformation for the second edge image will be further described with reference to FIG. 5. In the second image shown in FIG. 5A, the point group constituting the collinear portion 57 is represented by the horizontal axis. Is formed as the peak value of the intersection point in FIG. By performing straight line mask processing based on the result of the Hough transform, only the conventional crack 58 and the new crack 58 are obtained as shown in FIG.

(n)小さい面積のカット処理工程(図7のn)
クラックは、ある長さを持つものであるから、一定面積以下の小さな面積の線分は、ノイズと判断して削除する。
(N) Small area cut process (n in FIG. 7)
Since the crack has a certain length, a line segment having a small area of a certain area or less is determined as noise and deleted.

(o)2時期画像の位置補正処理工程(図7のo)
この工程では、例えば、テンプレート方式により、2時期画像の中から特徴のある個所の複数画素を取り出し、位置をずらしながら差分を取って最小のときの点が正しい位置とする。
(O) Two-time image position correction processing step (o in FIG. 7)
In this step, for example, a plurality of characteristic pixels are extracted from the two-period image by using the template method, and the difference is obtained while shifting the position to set the minimum point as the correct position.

(p)2値化画像の差分処理工程(図7のp)
この工程では、図1(c)に示した第2回目の画像のマスクした画像から、図1(a)に示した第1回目のエッジ画像とを差し引く。すると、図1(d)のように、新規クラック76がプラスの値で現れ、目地やケーブル影などの直線成分57は、マイナスの値で現われる。また、従来クラック58は、第2回目の画像から第1回目の画像を差し引くことで0となる。
さらに図1(d)の結果からマイナス部分を除外することで、図1(e)のように新規クラック58のみが変状点として抽出される。
(P) Binary image difference processing step (p in FIG. 7)
In this step, the first edge image shown in FIG. 1A is subtracted from the masked image of the second image shown in FIG. Then, as shown in FIG. 1D, a new crack 76 appears with a positive value, and a linear component 57 such as a joint or a cable shadow appears with a negative value. Further, the conventional crack 58 becomes 0 by subtracting the first image from the second image.
Further, by excluding the minus part from the result of FIG. 1D, only the new crack 58 is extracted as a deformed point as shown in FIG.

この(p)工程における差分処理をさらに詳しく説明すると、差分処理には、単純差分法と近傍最小法とのいずれかが採用される。両方法は、以下のように、場合に応じて選択的に使用される。   The difference process in the step (p) will be described in more detail. Either the simple difference method or the neighborhood minimum method is adopted for the difference process. Both methods are selectively used depending on the case as follows.

(1)単純差分法
図1(c)に示す2回目マスク画像と(a)に示す1回目エッジ画像との差分を求める。
ここで、1回目の画像と2回目の画像に位置ずれが全くない場合には、両者の単純差分を求めれば、新規クラックなどの変状点のみが得られる。
この方法は、単純であり、操作性に優れているが、両者間に位置ずれ等があると信頼性にやや欠ける。
例えば、図2(a)に示す画像が第1回目のエッジ画像で、図2(b)に示す画像が第2回目の画像のマスクした画像であるものとする。単純差分法により、これらの画像の単純な差分のみをとったのが図2(c)に示す画像である。このように、2つの画像に位置ずれがあると、従来画像部分が完全に重ならず、残される部分が多くなる。
(1) Simple difference method The difference between the second mask image shown in FIG. 1C and the first edge image shown in FIG.
Here, when there is no position shift between the first image and the second image, only a deformed point such as a new crack can be obtained by calculating a simple difference between the two images.
This method is simple and excellent in operability, but is somewhat unreliable if there is misalignment between the two.
For example, it is assumed that the image shown in FIG. 2A is the first edge image and the image shown in FIG. 2B is a masked image of the second image. An image shown in FIG. 2C is obtained by taking only a simple difference between these images by the simple difference method. Thus, if there is a positional shift between the two images, the conventional image portion does not completely overlap, and the remaining portion increases.

(2)近傍最小法
そこで、この影響を避けるために、図2(b)に示す第2回目の画像のある一点の画素Pについて、図2(a)に示す第1回目のエッジ画像の同じ位置の画素Q5とその周辺の3×3の面積内の画素Q1、Q2、Q3、Q4、Q6、Q7、Q8、Q9との差分を求め、差分の最も小さい値を差分値とする。具体的には、PとQ4、Q5、Q7との差分値は、それぞれ0であり、PとQ1、Q2、Q3、Q6、Q8、Q9との差分値は、それぞれ1である。したがって、差分の最も小さい値0が差分値となる。
同様にして各画素について差分の最も小さい値を差分値とすると、図2(d)に示すように、変状部分の進展部分76のみ強調されて出力する。
なお、周辺の3×3の面積内に限られるものではなく、5×5の画素との差分を求めるようにしてもよい。しかし、あまり広くしすぎると、肝心のクラックに影響するおそれがあるので、位置ずれの大きさに応じて決定することが望ましい。
(2) Nearest neighbor method Therefore, in order to avoid this influence, the same edge image as the first edge image shown in FIG. 2 (a) is used for one pixel P in the second image shown in FIG. 2 (b). The difference between the pixel Q5 at the position and the pixels Q1, Q2, Q3, Q4, Q6, Q7, Q8, and Q9 within the 3 × 3 area around the position is obtained, and the smallest difference value is set as the difference value. Specifically, the difference values between P and Q4, Q5, and Q7 are each 0, and the difference values between P and Q1, Q2, Q3, Q6, Q8, and Q9 are each 1. Therefore, the value 0 having the smallest difference is the difference value.
Similarly, assuming that the smallest difference value for each pixel is the difference value, as shown in FIG.
Note that the difference is not limited to the surrounding 3 × 3 area, and may be obtained from a 5 × 5 pixel. However, if it is too wide, there is a risk of affecting the essential cracks, so it is desirable to determine it according to the size of the positional deviation.

なお、図1(d)に示す差分処理において、2回目マスク画像では、目地やケーブル影などの直線部分57を削除するマスク処理がなされているが、1回目エッジ画像では、目地やケーブル影などの直線部分57を削除する処理がなされていない。しかし、第2回目マスク画像と第1回目エッジ画像の差分を求めれば、1回目エッジ画像の目地やケーブル影などの直線部分57は、マイナスとなり、このマイナス部分を除外すればよく、1回目エッジ画像から直線部分57を削除する処理を施す必要はない。
また、壁面の小さなエッジや汚れは、クラックに影響しない程度の2値化閾値を設定することで、削除できる。
以上のようにして、2値化の差分処理を行うことにより、図1(e)及び図2(d)に示すように、新規クラックなどの変状点の進展部分76が強調して検出される。
In the difference processing shown in FIG. 1D, the mask processing for deleting the straight portions 57 such as joints and cable shadows is performed in the second mask image, but the joints and cable shadows and the like are performed in the first edge image. The process of deleting the straight line portion 57 is not performed. However, if the difference between the second mask image and the first edge image is obtained, the straight portion 57 such as the joint of the first edge image and the cable shadow becomes negative, and it is sufficient to exclude this negative portion. There is no need to perform processing for deleting the straight line portion 57 from the image.
Also, small edges and dirt on the wall surface can be deleted by setting a binarization threshold that does not affect the cracks.
As described above, by performing the binarization difference process, as shown in FIGS. 1E and 2D, the progress point 76 of the deformed point such as a new crack is emphasized and detected. The

(q)小さい面積のカット処理工程(図7のq)
クラックは、ある長さを持つものであるから、一定面積以下の小さな面積の線分は、ノイズと判断して削除し、変状部分抽出を終了する。
(Q) Small area cutting process (q in FIG. 7)
Since the crack has a certain length, a line segment having a small area equal to or smaller than a certain area is determined to be noise, and the deformed portion extraction is completed.

前記実施例では、鉄道トンネルなどの曲面の壁面を展開して平面画像とした場合を説明したが、もともと平らな壁面であったり、凹凸のある構造物などであっても本発明はそのまま応用できる。   In the above-described embodiment, the case where a curved wall surface such as a railway tunnel is developed into a planar image has been described. However, the present invention can be applied to a flat wall surface or an uneven structure. .

本発明によ画像中の変状点の進展状況を抽出する方法の一実施例を示す工程流れ図である。3 is a process flow diagram illustrating an embodiment of a method for extracting progress of deformation points in an image according to the present invention. (a)は1回目撮影のエッジ画像の説明図、(b)は2回目撮影のエッジ画像の説明図、(c)は2回目撮影のマスク画像と1回目撮影のエッジ画像の単純差分画像の説明図、(d)2回目撮影のマスク画像と1回目撮影のエッジ画像の近傍最小差分画像の説明図である。(A) is an explanatory diagram of an edge image of the first imaging, (b) is an explanatory diagram of an edge image of the second imaging, and (c) is a simple difference image between the mask image of the second imaging and the edge image of the first imaging. Explanatory drawing, (d) It is explanatory drawing of the neighborhood minimum difference image of the mask image of 2nd imaging | photography, and the edge image of 1st imaging | photography. ハフ(Hough)変換の説明図で、(a)は原画像のx−y座標図、(b)はθ−ρ極座標図である。It is explanatory drawing of Hough (Hough) transformation | transformation, (a) is an xy coordinate figure of an original image, (b) is a θ-ρ polar coordinate figure. (a)は第1回目撮影のエッジ画像図、(b)は第2回目撮影のエッジ画像図である。(A) is the edge image figure of the 1st imaging | photography, (b) is the edge image figure of the 2nd imaging | photography. (a)は第2回目撮影のエッジ画像、(b)はハフ(Hough)変換画像図である。(A) is the edge image of the 2nd imaging | photography, (b) is a Hough conversion image figure. 画像中のクラックを抽出する方法の工程流れ図である。It is a process flowchart of the method of extracting the crack in an image. 本発明による画像中の変状点の進展状況を抽出する方法の一実施例を示す工程流れ図である。3 is a process flow diagram illustrating an embodiment of a method for extracting the progress of deformation points in an image according to the present invention.

符号の説明Explanation of symbols

36…走査線、57…目地、ケーブル等の直線部、58…従来のクラック、76…新規クラックによる進展部。 36: Scanning line, 57: Straight portion of joint, cable, etc., 58 ... Conventional crack, 76 ... Progression portion due to new crack.

Claims (5)

被測定面の第1回目の実画像データに基づき画像のエッジを抽出する工程と、同一被測定面における所定時間経過後の第2回目の実画像データに基づき画像のエッジを抽出する工程と、第2回目のエッジ画像における特定画素と、この特定画素に対応した第1回目のエッジ画像における画素との差分を求める差分処理工程と、この差分処理工程で求めた差分を進展した変状点として出力する工程とからなることを特徴とする画像中の変状点の進展状況を抽出する方法。 Extracting the edge of the image based on the first actual image data of the surface to be measured, extracting the edge of the image based on the second actual image data after a predetermined time on the same surface to be measured, and A difference processing step for obtaining a difference between a specific pixel in the second edge image and a pixel in the first edge image corresponding to the specific pixel, and a deformed point obtained by developing the difference obtained in the difference processing step A method for extracting the progress of deformation points in an image, comprising the step of outputting. 被測定面の第1回目の実画像データに基づき画像のエッジを抽出する工程と、同一被測定面における所定時間経過後の第2回目の実画像データに基づき画像のエッジを抽出する工程と、第2回目のエッジ画像における特定画素と、この特定画素に対応した第1回目のエッジ画像における画素及びこの画素の周辺画素との差分を求め、この差分の最も小さな値を差分値として出力する差分処理工程と、この差分処理工程で求めた差分を進展した変状点として出力する工程とからなることを特徴とする画像中の変状点の進展状況を抽出する方法。 Extracting the edge of the image based on the first actual image data of the surface to be measured, extracting the edge of the image based on the second actual image data after a predetermined time on the same surface to be measured, and A difference in which the difference between the specific pixel in the second edge image, the pixel in the first edge image corresponding to the specific pixel and the peripheral pixel of the pixel is obtained, and the smallest value of the difference is output as the difference value A method for extracting the progress of deformation points in an image, comprising a processing step and a step of outputting the difference obtained in the difference processing step as an advanced deformation point. 第2回目のエッジ画像に基づきハフ変換による画像の直線成分を抽出する工程と、この抽出した直線成分をマスク処理して削除するマスク処理工程とを付加したことを特徴とする請求項1又は2記載の画像中の変状点の進展状況を抽出する方法。 3. A step of extracting a linear component of the image by Hough transform based on the second edge image and a mask processing step of deleting the extracted linear component by mask processing are added. A method for extracting the progress of deformation points in the described image. 差分処理工程は、2値化された第2回目のエッジ画像における2値化閾値以上の特定画素と、この特定画素に対応した第1回目のエッジ画像における画素及びこの対応画素の周辺8画素との差分を求め、この差分の最も小さな値を差分値として出力するようにしたことを特徴とする請求項1又は2記載の画像中の変状点の進展状況を抽出する方法。   The difference processing step includes a specific pixel equal to or higher than a binarization threshold in the binarized second edge image, a pixel in the first edge image corresponding to the specific pixel, and eight pixels around the corresponding pixel. 3. A method for extracting the progress of deformed points in an image according to claim 1 or 2, wherein the difference is obtained and the smallest value of the difference is output as a difference value. 被測定面の実画像データに基づき画像のエッジを抽出する工程は、エッジ画像の明るさを表わす2値化閾値を高めに設定して抽出した1回目のエッジ画像と、2値化閾値を低めに設定して抽出した2回目のエッジ画像を合成し、閾値を高めに設定して抽出されたエッジ画像とこの高めのエッジ画像に連続する低めに設定して抽出されたエッジ画像とを残し、単独で存在する低めに設定して抽出されたエッジ画像を削除するようにしたことを特徴とする請求項1又は2記載の画像中の変状点の進展状況を抽出する方法。   The step of extracting the edge of the image based on the actual image data of the surface to be measured includes the first edge image extracted by setting the binarization threshold representing the brightness of the edge image to a high value, and the binarization threshold being lowered. The second edge image extracted by setting to, and leaving the edge image extracted by setting the threshold value higher and the edge image extracted by setting the lower edge continuous to this higher edge image, 3. The method for extracting the progress of deformation points in an image according to claim 1 or 2, wherein the edge image extracted by setting it to be lower and existing alone is deleted.
JP2005209557A 2005-07-20 2005-07-20 Method for extracting progress of defective point inside image Pending JP2007026255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005209557A JP2007026255A (en) 2005-07-20 2005-07-20 Method for extracting progress of defective point inside image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005209557A JP2007026255A (en) 2005-07-20 2005-07-20 Method for extracting progress of defective point inside image

Publications (1)

Publication Number Publication Date
JP2007026255A true JP2007026255A (en) 2007-02-01

Family

ID=37786897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005209557A Pending JP2007026255A (en) 2005-07-20 2005-07-20 Method for extracting progress of defective point inside image

Country Status (1)

Country Link
JP (1) JP2007026255A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009133085A (en) * 2007-11-29 2009-06-18 Central Japan Railway Co Crack checking device for tunnel lining
JP2011158567A (en) * 2010-01-29 2011-08-18 Casio Computer Co Ltd Image processing device, method and program
WO2015093147A1 (en) * 2013-12-19 2015-06-25 株式会社日立製作所 Multi-camera imaging system and method for combining multi-camera captured images
WO2017051633A1 (en) * 2015-09-25 2017-03-30 富士フイルム株式会社 Damage diagram generation apparatus and damage diagram generation method
KR101793264B1 (en) 2017-09-08 2017-11-02 조현석 Analysis method for occurrence and growth progression of crack
JP2018060343A (en) * 2016-10-05 2018-04-12 株式会社Jvcケンウッド Image processing apparatus, image processing method and image processing program
JP2019067373A (en) * 2017-10-02 2019-04-25 大日本印刷株式会社 Feature image generation device, inspection equipment, feature image generation method and feature image generation program
JP2019211277A (en) * 2018-06-01 2019-12-12 富士フイルム株式会社 Device and method for determining crack change
JP2023083110A (en) * 2021-12-03 2023-06-15 キヤノン株式会社 Information processing apparatus, information processing method, and program
CN116452613A (en) * 2023-06-14 2023-07-18 山东省国土空间生态修复中心(山东省地质灾害防治技术指导中心、山东省土地储备中心) Crack contour extraction method in geological survey
JP2023184316A (en) * 2022-06-17 2023-12-28 三菱電機株式会社 Analysis system, analysis method, and analysis program
EP4195147A3 (en) * 2021-12-03 2024-02-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, system, storage medium and program
JP7510472B2 (en) 2021-12-03 2024-07-03 キヤノン株式会社 Information processing device, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05229756A (en) * 1992-02-21 1993-09-07 Toshiba Corp Image monitoring device and elevator control device using this image monitoring device
JPH08212354A (en) * 1995-02-06 1996-08-20 Toyota Motor Corp Object recognizing method
JPH11288495A (en) * 1998-04-02 1999-10-19 Sumitomo Electric Ind Ltd Traffic abnormality detecting device
JP2004228770A (en) * 2003-01-21 2004-08-12 Minolta Co Ltd Image processing system
WO2004088587A1 (en) * 2003-03-28 2004-10-14 National Institute Of Information And Communications Technology, Independent Administrative Agency Image processing method and image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05229756A (en) * 1992-02-21 1993-09-07 Toshiba Corp Image monitoring device and elevator control device using this image monitoring device
JPH08212354A (en) * 1995-02-06 1996-08-20 Toyota Motor Corp Object recognizing method
JPH11288495A (en) * 1998-04-02 1999-10-19 Sumitomo Electric Ind Ltd Traffic abnormality detecting device
JP2004228770A (en) * 2003-01-21 2004-08-12 Minolta Co Ltd Image processing system
WO2004088587A1 (en) * 2003-03-28 2004-10-14 National Institute Of Information And Communications Technology, Independent Administrative Agency Image processing method and image processing device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009133085A (en) * 2007-11-29 2009-06-18 Central Japan Railway Co Crack checking device for tunnel lining
JP2011158567A (en) * 2010-01-29 2011-08-18 Casio Computer Co Ltd Image processing device, method and program
WO2015093147A1 (en) * 2013-12-19 2015-06-25 株式会社日立製作所 Multi-camera imaging system and method for combining multi-camera captured images
WO2017051633A1 (en) * 2015-09-25 2017-03-30 富士フイルム株式会社 Damage diagram generation apparatus and damage diagram generation method
JP2018060343A (en) * 2016-10-05 2018-04-12 株式会社Jvcケンウッド Image processing apparatus, image processing method and image processing program
KR101793264B1 (en) 2017-09-08 2017-11-02 조현석 Analysis method for occurrence and growth progression of crack
JP2019067373A (en) * 2017-10-02 2019-04-25 大日本印刷株式会社 Feature image generation device, inspection equipment, feature image generation method and feature image generation program
JP2019211277A (en) * 2018-06-01 2019-12-12 富士フイルム株式会社 Device and method for determining crack change
JP2023083110A (en) * 2021-12-03 2023-06-15 キヤノン株式会社 Information processing apparatus, information processing method, and program
EP4195147A3 (en) * 2021-12-03 2024-02-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, system, storage medium and program
JP7510472B2 (en) 2021-12-03 2024-07-03 キヤノン株式会社 Information processing device, information processing method, and program
JP2023184316A (en) * 2022-06-17 2023-12-28 三菱電機株式会社 Analysis system, analysis method, and analysis program
JP7466588B2 (en) 2022-06-17 2024-04-12 三菱電機株式会社 Analysis system, analysis method, and analysis program
CN116452613A (en) * 2023-06-14 2023-07-18 山东省国土空间生态修复中心(山东省地质灾害防治技术指导中心、山东省土地储备中心) Crack contour extraction method in geological survey
CN116452613B (en) * 2023-06-14 2023-08-29 山东省国土空间生态修复中心(山东省地质灾害防治技术指导中心、山东省土地储备中心) Crack contour extraction method in geological survey

Similar Documents

Publication Publication Date Title
JP2007026255A (en) Method for extracting progress of defective point inside image
US8401333B2 (en) Image processing method and apparatus for multi-resolution feature based image registration
JP5175528B2 (en) Tunnel lining crack inspection system
JP2009053126A (en) Image measuring device
CN109166125A (en) A kind of three dimensional depth image partitioning algorithm based on multiple edge syncretizing mechanism
JP2005037378A (en) Depth measurement method and depth measurement device
JP5675194B2 (en) Image processing apparatus, image processing method, and program
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
CN111260675A (en) High-precision extraction method and system for image real boundary
JP4709762B2 (en) Image processing apparatus and method
WO2011001967A1 (en) Pattern shape evaluation method and pattern shape evaluation apparatus
CN112862879A (en) Method for constructing subway tunnel three-dimensional model based on TIN model
JP5157575B2 (en) Defect detection method
WO2022056875A1 (en) Method and apparatus for segmenting nameplate image, and computer-readable storage medium
JP4696239B2 (en) Method and apparatus for correcting inclination of character string
CN110634136B (en) Pipeline wall damage detection method, device and system
JP6118295B2 (en) Marker embedding device, marker detection device, method, and program
JP2021155986A (en) Mounting pipe detection device and mounting pipe detection method
WO2014084056A1 (en) Testing device, testing method, testing program, and recording medium
JP2009150656A (en) Method and device for pattern inspection
JPH11144050A (en) Method and device for correcting image distortion
CN114897966B (en) Visual identification method for large element
US20020159654A1 (en) Method for processing an image of a concrete construction
JP4812782B2 (en) Feature point correspondence method between images, feature point correspondence device between images, feature point correspondence program between images, and a recording medium storing the program.
JP2003346165A (en) Detection method of work boundary

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110705