JP2019003575A - Image analysis device and maintenance management method of railroad facility component - Google Patents

Image analysis device and maintenance management method of railroad facility component Download PDF

Info

Publication number
JP2019003575A
JP2019003575A JP2017120066A JP2017120066A JP2019003575A JP 2019003575 A JP2019003575 A JP 2019003575A JP 2017120066 A JP2017120066 A JP 2017120066A JP 2017120066 A JP2017120066 A JP 2017120066A JP 2019003575 A JP2019003575 A JP 2019003575A
Authority
JP
Japan
Prior art keywords
image
comparison
feature amount
inspection object
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017120066A
Other languages
Japanese (ja)
Other versions
JP6960252B2 (en
Inventor
由康 工藤
Yoshiyasu Kudo
由康 工藤
鈴木 雅彦
Masahiko Suzuki
雅彦 鈴木
山口 修
Osamu Yamaguchi
修 山口
彰吾 立石
Shogo Tateishi
彰吾 立石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East Japan Railway Co
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
East Japan Railway Co
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East Japan Railway Co, Toshiba Infrastructure Systems and Solutions Corp filed Critical East Japan Railway Co
Priority to JP2017120066A priority Critical patent/JP6960252B2/en
Publication of JP2019003575A publication Critical patent/JP2019003575A/en
Application granted granted Critical
Publication of JP6960252B2 publication Critical patent/JP6960252B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an image analysis device capable of eliminating influence of luminance change and calculating a feature amount at which an image feature is appropriately reflected with a small load.SOLUTION: This image analysis device is provided with a feature amount calculation part for calculating a feature amount of a local area (K11) of an image. The feature amount calculation part includes a gradient direction calculation part for calculating a gradient direction obtained by eliminating size information from a luminance gradient between each of a plurality of pixels included in the local area (K11) and peripheral pixels, and a distribution calculation part for aggregating a plurality of gradient directions which are respectively calculated in correspondence with the plurality of pixels to calculate a frequency distribution of the gradient directions, and determines the frequency distribution of the gradient directions to be a feature amount of the local area.SELECTED DRAWING: Figure 8

Description

本発明は、画像の特徴量を分析する画像分析装置及びこの画像分析装置を用いた鉄道設備部品の保守管理方法に関する。   The present invention relates to an image analysis apparatus for analyzing image feature amounts and a maintenance management method for railway equipment parts using the image analysis apparatus.

鉄道の線路には、鉄道車両の存在の有無を検出するため、レールを信号経路の一部とする軌道回路が設けられる。軌道回路には、鉄道車両の検知を行う信号電流をレールとの間で入出力する検知回路が含まれ、また、車両検知用の信号電流と帰線電流などの他の電流とを分離するためにインピーダンスボンドと呼ばれる回路又はフィルタ回路などが接続される。そして、これらの各回路とレールの部分の回路とを電気的に接続するために、レールの側面には「送着ボンド」と呼ばれる接続部が設けられる。接続部は、撚り線などの導線を銅テルミット溶接又はロウ付け等によりレールに固定した部位を指す。   The railroad track is provided with a track circuit that uses the rail as a part of the signal path in order to detect the presence or absence of the railway vehicle. The track circuit includes a detection circuit that inputs and outputs a signal current for detecting a railway vehicle to and from the rail, and also separates a signal current for vehicle detection from other currents such as a return current. A circuit called an impedance bond or a filter circuit is connected to the. And in order to electrically connect each of these circuits and the circuit of the rail part, the connection part called "feeding bond" is provided in the side surface of the rail. A connection part points out the site | part which fixed conducting wires, such as a strand wire, to the rail by copper thermite welding or brazing.

軌道回路の接続部が破損、断線又は脱落すると、鉄道車両が線路上に存在するか正しく判断できなくなる。このため、従来、鉄道会社では、目視確認等によりレールに設けられた多数の接続部に異常がないか定期的な検査を行っている。   If the connection part of the track circuit is damaged, disconnected or dropped, it cannot be correctly determined whether the railway vehicle exists on the track. For this reason, in the past, railway companies have regularly inspected a large number of connection portions provided on the rails by visual confirmation or the like for abnormalities.

本発明に関連する技術として、従来、画像のHOG(Histograms of Oriented Gradients)と呼ばれる特徴量を計算して、様々な画像分析を行う技術がある。また、特許文献1には、2つの画像を複数の局所領域に分割し、各局所領域のHOGを比較することで、2つの画像の類似度を判断する技術が開示されている。
HOGとは、画像の局所領域内の複数の輝度勾配ベクトルを勾配方向についてヒストグラム化した量である。詳細には、輝度勾配ベクトルには輝度勾配の大きさの情報と方向の情報とが含まれ、HOGは、輝度勾配ベクトルの大きさを勾配方向ごとに累積した量に相当する。HOGには、輝度勾配の大きさの情報が含まれるが、照明変動又は影の影響を受けにくい特徴量として知られている。
As a technique related to the present invention, conventionally, there is a technique for performing various image analysis by calculating a feature amount called HOG (Histograms of Oriented Gradients) of an image. Patent Document 1 discloses a technique for determining the similarity between two images by dividing two images into a plurality of local regions and comparing the HOGs of the local regions.
HOG is an amount of a plurality of luminance gradient vectors in a local region of an image that is histogrammed with respect to the gradient direction. Specifically, the luminance gradient vector includes luminance gradient magnitude information and direction information, and HOG corresponds to an amount of accumulated luminance gradient vector magnitudes for each gradient direction. The HOG includes information on the magnitude of the luminance gradient, but is known as a feature quantity that is not easily affected by illumination fluctuations or shadows.

特開2011−96081号公報JP 2011-96081 A

ここで、コンピュータの画像比較処理を利用することで、労力を削減しつつ、より正確に軌道回路の接続部の検査を実現する技術を考える。例えば、軌道回路の多数の接続部について定期的に画像を撮影し、同一の接続部について日数を隔てて撮影された複数の画像をコンピュータに比較させる。そして、多数の接続部の中から何等かの変化が生じている接続部を絞り込む。さらに、変化が生じている接続部について、検査員が詳細に検査を行い、修繕が必要か否かを判断する。このようなコンピュータの支援により、検査員が詳細に検査する接続部の数を大幅に減らすことができ、労力の削減が期待できる。   Here, a technique for realizing the inspection of the connection portion of the track circuit more accurately while using the image comparison processing of the computer while reducing the labor is considered. For example, images are periodically taken for a large number of connection parts of the track circuit, and a plurality of images taken for the same connection part over a number of days are compared with each other. And the connection part in which some change has arisen among many connection parts is narrowed down. Further, the inspector performs a detailed inspection on the connecting portion where the change occurs, and determines whether or not repair is necessary. With the support of such a computer, the number of connections that the inspector can inspect in detail can be greatly reduced, and a reduction in labor can be expected.

軌道回路の接続部は屋外にあることが多いため、同一の接続部を異なる日時に同じように撮影した場合でも、天候等の影響により撮影のたびに画像の輝度にバラツキが生じる。そこで、照明変動の影響を受けにくいHOGを用いて画像比較を行うことで、輝度バラツキの影響を排除して接続部の変化の有無を検出できると期待された。   Since the connection part of the track circuit is often outdoors, even when the same connection part is photographed in the same way at different dates and times, the brightness of the image varies due to the influence of the weather or the like. Therefore, it has been expected that by comparing images using HOG that is not easily affected by illumination fluctuations, it is possible to detect the presence or absence of changes in the connection portion by eliminating the influence of luminance variations.

しかしながら、軌道回路の接続部の検査においては、小さな欠け、小さな亀裂、撚り線である導線の部分的な断裂、これらを誘発する導線の変位など、細かい変化を綿密かつ正確に検出する必要がある。一方、HOGは輝度バラツキの影響を削減することができるものの、その影響を完全に排除できるものでない。そのため、HOGを用いて画像比較を行った場合、接続部の細かい変化が輝度バラツキのノイズで隠されてしまい、接続部の細かい変化の有無を十分に検出できないことがあった。   However, in the inspection of track circuit connections, it is necessary to detect minute changes such as small cracks, small cracks, partial breaks in stranded wires, and displacements of the conductors that induce them. . On the other hand, although HOG can reduce the influence of luminance variations, it cannot completely eliminate the influence. For this reason, when image comparison is performed using HOG, a small change in the connection portion is hidden by noise of luminance variation, and the presence or absence of the fine change in the connection portion may not be sufficiently detected.

このような問題を回避するため、輝度バラツキを補正する処理を行ってから、HOGを用いて画像比較を行うことが検討された。しかし、単に輝度の平均値を等しくするといった単純な処理ではHOGに含まれる輝度バラツキの影響を大幅に削減することはできず、例えば画像の比較部分全体で輝度の度数分布を揃えるといった計算負荷の大きい処理が必要であると考えられた。しかしながら、軌道回路の接続部は多数あり画像比較を行う回数は膨大になるため、少しでも計算負荷を小さくしたいという要求があった。   In order to avoid such a problem, it has been considered to perform image comparison using HOG after performing processing for correcting the luminance variation. However, simple processing such as simply equalizing the average value of luminance cannot significantly reduce the influence of luminance variation included in the HOG. For example, the calculation load of aligning the luminance frequency distribution in the entire comparison portion of the image is reduced. A large amount of processing was considered necessary. However, since there are a large number of track circuit connections and the number of image comparisons is enormous, there has been a demand to reduce the calculation load as much as possible.

本発明は、輝度変化の影響をHOGよりも大幅に排除することができ、HOGのように画像の特徴が適切に反映される特徴量を、小さい負荷で計算できる画像分析装置を提供することを目的とする。また、本発明は、上記の画像分析装置を用いることで部品の保守管理の労力を大幅に低減できる鉄道設備部品の保守管理方法を提供することを目的とする。   The present invention provides an image analysis apparatus that can largely eliminate the influence of luminance change as compared with HOG, and that can calculate a feature amount that appropriately reflects the feature of an image, such as HOG, with a small load. Objective. Another object of the present invention is to provide a maintenance management method for railway equipment parts that can significantly reduce the maintenance work of parts by using the image analysis apparatus.

本発明に係る画像分析装置は、上記目的を達成するため、
画像の局所領域の特徴量を計算する特徴量計算部を備え、
前記特徴量計算部は、
前記局所領域に含まれる複数の画素の各々について周囲の画素との間の輝度勾配から大きさの情報が除かれた勾配方向を計算する勾配方向計算部と、
前記複数の画素に対応してそれぞれ計算された複数の前記勾配方向を集計して勾配方向の度数分布を計算する分布計算部と、
を含み、
前記勾配方向の度数分布を前記局所領域の特徴量とすることを特徴とした。
In order to achieve the above object, an image analyzer according to the present invention provides:
A feature amount calculation unit that calculates the feature amount of the local region of the image,
The feature amount calculation unit includes:
A gradient direction calculation unit that calculates a gradient direction in which the magnitude information is removed from the luminance gradient between the plurality of pixels included in the local region and the surrounding pixels;
A distribution calculator that calculates a frequency distribution in the gradient direction by aggregating the plurality of gradient directions calculated respectively corresponding to the plurality of pixels;
Including
The frequency distribution in the gradient direction is used as a feature amount of the local region.

この構成によれば、局所領域の特徴量として、輝度勾配から大きさの情報が除かれた勾配方向の度数分布が得られるので、画像の輝度変化の影響が大幅に排除された特徴量が得られる。さらに、この特徴量を計算するために、大きさの情報と方向の情報とを含んだ輝度勾配から大きさの情報を除いて度数分布を計算することで特徴量が得られるので、小さい負荷で特徴量を計算することができる。例えば輝度の度数分布を揃える補正演算後にHOGの計算を行う場合と比較して、HOGよりも輝度変化の影響を排除できる特徴量を、HOGを計算するよりも小さい負荷で計算することができる。   According to this configuration, since the frequency distribution in the gradient direction in which the size information is removed from the luminance gradient is obtained as the feature amount of the local region, the feature amount in which the influence of the luminance change of the image is greatly eliminated is obtained. It is done. Furthermore, in order to calculate this feature amount, the feature amount can be obtained by calculating the frequency distribution by removing the size information from the luminance gradient including the size information and the direction information. Feature quantities can be calculated. For example, compared to the case where the calculation of HOG is performed after the correction calculation for aligning the luminance frequency distribution, the feature quantity that can eliminate the influence of the luminance change as compared with the HOG can be calculated with a smaller load than the calculation of the HOG.

ここで、本発明に係る画像分析装置は、
検査対象物が撮影された複数の画像を入力する画像入力部と、
前記複数の画像を比較する画像比較部とを更に備え、
前記画像比較部は、
前記複数の画像の各々について少なくとも前記検査対象物を含む部分を複数の局所領域に分割する画像分割部と、
前記特徴量計算部により計算された前記複数の局所領域の特徴量を前記複数の画像間で比較して前記検査対象物の変化を検出する変化検出部とを備えてもよい。
Here, the image analysis apparatus according to the present invention is:
An image input unit for inputting a plurality of images taken of the inspection object;
An image comparison unit for comparing the plurality of images;
The image comparison unit
An image dividing unit that divides at least a portion including the inspection object into a plurality of local regions for each of the plurality of images;
The image processing apparatus may further include a change detection unit that detects the change in the inspection object by comparing the feature amounts of the plurality of local regions calculated by the feature amount calculation unit between the plurality of images.

この構成によれば、複数の画像間に輝度バラツキがあっても輝度バラツキを除いた検査対象物の特徴量を計算し、特徴量の比較により検査対象物の変化を検出することができる。したがって、複数の画像間の輝度バラツキの影響を排除して、検査対象物の細かい変化を綿密かつ正確に検出することができる。   According to this configuration, even if there is a luminance variation between a plurality of images, it is possible to calculate the feature amount of the inspection target excluding the luminance variation, and to detect a change in the inspection target by comparing the feature amount. Accordingly, it is possible to detect the fine change of the inspection object precisely and accurately by eliminating the influence of the luminance variation between the plurality of images.

さらに、本発明に係る画像分析装置においては、
前記画像入力部には検査対象物が撮影された3つ以上の画像が入力され、
前記画像比較部は、前記3つ以上の画像のうち複数を比較基準、少なくとも1つを比較対象として、前記比較対象と前記複数の比較基準との間で前記特徴量の比較処理を行い、前記複数の比較基準をそれぞれ用いた複数回の前記比較処理の結果に基づいて前記検査対象物の変化の有無を判断するようにしてもよい。
Furthermore, in the image analysis apparatus according to the present invention,
Three or more images obtained by photographing the inspection object are input to the image input unit,
The image comparison unit performs comparison processing of the feature amount between the comparison target and the plurality of comparison references, with a plurality of the three or more images as a comparison reference and at least one as a comparison target, The presence / absence of a change in the inspection object may be determined based on a result of a plurality of comparison processes each using a plurality of comparison criteria.

この構成によれば、複数の比較基準を用いて複数回の比較処理が行われ、これらの比較結果に基づいて検査対象物の変化の有無が判断される。したがって、例えば比較基準の一つに例外的な差異が含まれるような場合でも、この例外的な差異によって検査対象物の変化の有無の判断に誤りが生じることを抑制することができる。よって、より正確に変化の有無を検出できる。   According to this configuration, a plurality of comparison processes are performed using a plurality of comparison criteria, and the presence or absence of a change in the inspection object is determined based on these comparison results. Therefore, for example, even when an exceptional difference is included in one of the comparison criteria, it is possible to prevent an error from occurring in the determination of whether or not the inspection object has changed due to this exceptional difference. Therefore, the presence or absence of a change can be detected more accurately.

さらに、本発明に係る画像分析装置は、
少なくとも前記変化検出部が前記特徴量の比較を行う前に、前記検査対象物の背景領域の少なくとも一部をマスクするマスク処理部を更に備えてもよい。
この構成によれば、マスクによって、検査対象物の領域に生じた変化を集中的に検出でき、さらに特徴量を計算する局所領域が減って計算負荷を低減できる。
Furthermore, the image analysis apparatus according to the present invention is
A mask processing unit that masks at least a part of a background region of the inspection object may be further included at least before the change detection unit compares the feature amounts.
According to this configuration, it is possible to intensively detect changes occurring in the region of the inspection object by using the mask, and further reduce the calculation load by reducing the local region for calculating the feature amount.

また、本発明に係る鉄道設備部品の保守管理方法は、
上述の画像分析装置を用いて、鉄道のレールに接続された複数の部品の各々を保守管理する鉄道設備部品の保守管理方法であって、
前記レール上を走行する鉄道車両に搭載された撮影装置により、日数を隔てて複数回、前記複数の部品を前記検査対象物として撮影し、
前記画像分析装置が前記複数回の撮影により得られた複数の画像を比較して前記複数の部品の各々の変化を検出し、
前記複数の部品のうち、閾値以上の変化が検出された1つ又は複数の部品について修繕の要否を判定することを特徴とする。
In addition, the maintenance management method of railway equipment parts according to the present invention,
A maintenance management method for railroad equipment parts that manages and manages each of a plurality of parts connected to railroad rails using the image analysis apparatus described above,
With the imaging device mounted on the railway vehicle traveling on the rail, the plurality of parts are imaged as the inspection object several times over a period of days,
The image analyzer detects a change in each of the plurality of parts by comparing a plurality of images obtained by the plurality of times of photographing,
Of the plurality of parts, it is determined whether or not repair is necessary for one or a plurality of parts in which a change equal to or greater than a threshold is detected.

この保守管理方法によれば鉄道のレールに接続された複数の部品について、鉄道車両から撮影した画像を用いて、日数を隔てた変化を緻密かつ正確に検出し、この検出結果から修繕の要否を判定すべき対象を絞ることができる。したがって、鉄道のレールに多数存在する部品の検査を、大幅な労力の削減を図りつつ、より厳密に行うことができる。   According to this maintenance management method, for a plurality of parts connected to railroad rails, changes taken every day are accurately and accurately detected using images taken from railcars. The target to be judged can be narrowed down. Accordingly, it is possible to inspect a large number of parts existing on railroad rails more strictly while significantly reducing labor.

本発明の画像分析装置によれば、輝度変化の影響をHOGよりも大幅に排除することができ、HOGのように画像の特徴が適切に反映できる特徴量を、小さい負荷で計算することができる。また、本発明の鉄道設備部品の保守管理方法によれば、画像分析装置を用いた検査対象物の変化の検出によって部品の保守管理の労力を大幅に低減することができる。   According to the image analysis apparatus of the present invention, it is possible to greatly eliminate the influence of luminance change as compared with HOG, and it is possible to calculate a feature amount that can appropriately reflect the feature of an image like HOG with a small load. . Also, according to the maintenance management method for railway equipment parts of the present invention, the maintenance work of parts can be greatly reduced by detecting the change of the inspection object using the image analyzer.

本発明の実施形態に係る画像分析装置及び撮影装置を示す構成図である。1 is a configuration diagram illustrating an image analysis apparatus and an imaging apparatus according to an embodiment of the present invention. 検査対象物である軌道回路の接続部の一例を示す斜視図である。It is a perspective view which shows an example of the connection part of the track circuit which is a test object. 撮影装置により得られる撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image obtained by an imaging device. 保守管理処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a maintenance management process. 検査対象物の位置検出処理を説明する図である。It is a figure explaining the position detection process of a test object. 図4のステップS6の画像比較処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of the image comparison process of step S6 of FIG. 図6のステップS12の特徴量計算処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of the feature-value calculation process of step S12 of FIG. 特徴量計算処理を説明する図である。It is a figure explaining a feature-value calculation process. 特徴量の比較処理を説明する図である。It is a figure explaining the comparison process of the feature-value. マスク処理の効果を説明する図である。It is a figure explaining the effect of a mask process.

以下、本発明の実施の形態について図面を参照して詳細に説明する。
図1は、本発明の実施形態に係る画像分析装置及び撮影装置を示す構成図である。図2は、検査対象物である軌道回路の接続部の一例を示す斜視図である。
実施形態に係る画像分析装置1は、日数を隔てて複数回撮影された検査対象物T(図2を参照)の画像を比較し、検査対象物Tの変化の有無を検出する装置である。画像分析装置1は、コンピュータであり、CPU(Central Processing Unit)10、RAM(Random Access Memory)11、表示部12、マウス又はキーボード等の操作部13、データ入力用のインタフェース14及び記憶装置15を備える。インタフェース14は、本発明に係る画像入力部の一例に相当する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a configuration diagram illustrating an image analysis apparatus and an imaging apparatus according to an embodiment of the present invention. FIG. 2 is a perspective view illustrating an example of a connection portion of a track circuit that is an inspection object.
The image analysis apparatus 1 according to the embodiment is an apparatus that compares the images of the inspection target T (see FIG. 2) taken a plurality of times at intervals of days and detects the presence or absence of the change in the inspection target T. The image analysis apparatus 1 is a computer, and includes a CPU (Central Processing Unit) 10, a RAM (Random Access Memory) 11, a display unit 12, an operation unit 13 such as a mouse or a keyboard, a data input interface 14 and a storage device 15. Prepare. The interface 14 corresponds to an example of an image input unit according to the present invention.

記憶装置15には、検査対象物Tの撮影データが格納される撮影データ格納部151と、過去に計算された画像の特徴量が格納される特徴量格納部152とが設けられる。また、記憶装置15には、検査対象物Tを検出するために多数の検査対象物Tの画像パターンが格納されたテンプレート記憶部153が設けられる。さらに、記憶装置15には、検査対象物Tの変化の有無を検出する処理を実現する複数のプログラムモジュールが格納されている。これらのプログラムには、位置検出プログラム154、概略位置合わせプログラム155、詳細位置合わせプログラム156、特徴量計算プログラム157、画像比較プログラム158が含まれる。このうち、特徴量計算プログラム157を実行するCPU10が、本発明に係る特徴量計算部として機能し、画像比較プログラム158を実行するCPU10が、本発明に係る画像比較部として機能する。   The storage device 15 includes an imaging data storage unit 151 that stores imaging data of the inspection target T, and a feature amount storage unit 152 that stores feature amounts of images calculated in the past. In addition, the storage device 15 is provided with a template storage unit 153 in which image patterns of a large number of inspection objects T are stored in order to detect the inspection object T. Furthermore, the storage device 15 stores a plurality of program modules that realize processing for detecting whether or not the inspection object T has changed. These programs include a position detection program 154, a rough alignment program 155, a detailed alignment program 156, a feature amount calculation program 157, and an image comparison program 158. Among these, the CPU 10 that executes the feature amount calculation program 157 functions as a feature amount calculation unit according to the present invention, and the CPU 10 that executes the image comparison program 158 functions as an image comparison unit according to the present invention.

検査対象物Tは、図2に示すように、レールRに設けられた部品(具体的には軌道回路の接続部)であり、導線50の先端がレールRの側部に固定された固定部52と、導線50の先端部51とを含む。検査対象物Tは、路線上、レールRの長手方向に任意の間隔を開けて多数存在する。一般に、軌道回路の接続部は、例えば低温ろう溶接、銅テルミット溶接等を用いた溶接式、穴開け式などの複数の形式でレールRに接続されるが、本実施形態では検査対象物Tとして銅テルミット溶接で接続された接続部を対象としている。   As shown in FIG. 2, the inspection object T is a component (specifically, a connecting portion of the track circuit) provided on the rail R, and a fixed portion in which the leading end of the conducting wire 50 is fixed to the side portion of the rail R. 52 and the front end portion 51 of the conducting wire 50. A large number of inspection objects T exist on the route at an arbitrary interval in the longitudinal direction of the rail R. In general, the connection part of the track circuit is connected to the rail R in a plurality of forms such as a welding type using low-temperature brazing welding, copper thermite welding, and a hole drilling type. It is intended for connections connected by copper thermite welding.

図3は、撮影装置により得られる撮影画像の一例を示す図である。
画像分析装置1は、インタフェース14を介して外部から検査対象物Tが撮影された画像データを入力する。検査対象物Tの画像データは、鉄道車両30の車体下部に固定された撮影装置31(図1を参照)により撮影される。撮影装置31の周囲には、被撮影箇所を照らす照明装置32が設けられている。
FIG. 3 is a diagram illustrating an example of a photographed image obtained by the photographing apparatus.
The image analysis apparatus 1 inputs image data obtained by photographing the inspection target T from the outside via the interface 14. The image data of the inspection target T is photographed by a photographing device 31 (see FIG. 1) fixed to the lower part of the vehicle body of the railway vehicle 30. A lighting device 32 that illuminates a portion to be photographed is provided around the photographing device 31.

撮影装置31は、特に制限されないが、複数の受光素子が線状に設けられたラインセンサである。撮影装置31は、鉄道車両30の車体下部に配置され、その撮影方向を鉛直に対して斜めの方向からレールRに向けて固定される。撮影装置31は、高速に繰り返し撮影を実行する一方、鉄道車両30の走行により撮影装置31と撮影箇所とが相対的に移動することで、図3に示すように、レールRを中心に所定幅を有する画像であって、レールRの長手方向に連続する二次元の画像を取得できる。図3の撮影画像は、鉄道車両30の下左端部の撮影装置31から1つのレールRを撮影して得られた画像である。撮影装置31は、例えば鉄道車両30の車速(例えば車輪の回転)に同期して撮影を行うことで、鉄道車両30の速度に依存せずにレールRの長手方向の縮尺率が一定の画像が得られる。撮影装置31により得られた画像データは、例えばレールRの長手方向に複数に分割されて、通信又は記憶媒体を介して画像分析装置1へ送られる。   The imaging device 31 is a line sensor in which a plurality of light receiving elements are linearly provided, although not particularly limited. The photographing device 31 is disposed at the lower part of the vehicle body of the railway vehicle 30 and is fixed toward the rail R from a direction oblique to the vertical. While the imaging device 31 repeatedly performs imaging at high speed, the imaging device 31 and the imaging location move relative to each other as the railway vehicle 30 travels, so that a predetermined width around the rail R is obtained as shown in FIG. A two-dimensional image continuous in the longitudinal direction of the rail R can be acquired. The photographed image of FIG. 3 is an image obtained by photographing one rail R from the photographing device 31 at the lower left end of the railway vehicle 30. For example, the imaging device 31 performs imaging in synchronization with the vehicle speed (for example, wheel rotation) of the railway vehicle 30, so that an image with a constant scale ratio in the longitudinal direction of the rail R can be obtained without depending on the speed of the railway vehicle 30. can get. The image data obtained by the imaging device 31 is divided into a plurality of pieces in the longitudinal direction of the rail R, for example, and sent to the image analysis device 1 via communication or a storage medium.

<保守管理方法>
図4は、保守管理処理の手順を示すフローチャートである。
本実施形態の鉄道設備部品の保守管理方法は、図4の保守管理処理を所定の期間ごとに繰り返し行って、軌道回路の接続部(検査対象物T)を保守管理するものである。検査対象日において保守管理処理が開始されると、先ず係員は、走行する鉄道車両30から撮影装置31を用いて撮影を行う(ステップS1)。撮影は保守管理対象の路線区間で行われ、この撮影により、レールRに沿った長い画像が取得される。画像中には、多数の検査対象物Tが含まれる。画像データは、例えば長手方向に所定ピクセルごとに分割され、複数の画像として取り扱われる。以下、これらの複数の画像を「画像セット」と呼ぶ。
<Maintenance management method>
FIG. 4 is a flowchart showing a procedure of maintenance management processing.
The maintenance management method for railway equipment parts according to the present embodiment performs maintenance management of the connection part (inspection object T) of the track circuit by repeatedly performing the maintenance management process of FIG. 4 every predetermined period. When the maintenance management process is started on the inspection target date, the attendant first takes an image using the imaging device 31 from the traveling railway vehicle 30 (step S1). Photographing is performed in the route section subject to maintenance management, and a long image along the rail R is acquired by this photographing. A large number of inspection objects T are included in the image. For example, the image data is divided into predetermined pixels in the longitudinal direction and is handled as a plurality of images. Hereinafter, these plural images are referred to as “image sets”.

次に、係員は、通信或いは記憶媒体を介して、画像分析装置1に画像セットのデータを入力する(ステップS2)。画像セットのデータは、インタフェース14を介して入力され撮影データ格納部151に格納される。なお、撮影データ格納部151には、過去の保守管理処理で同様に取得された複数の検査対象日の画像セットのデータが格納されている。   Next, the clerk inputs image set data to the image analysis apparatus 1 via communication or a storage medium (step S2). Data of the image set is input via the interface 14 and stored in the shooting data storage unit 151. Note that the imaging data storage unit 151 stores data of image sets of a plurality of inspection target days obtained in the same manner in the past maintenance management process.

続いて、係員は、検査対象日の画像セットを比較対象に指定して、画像分析装置1に画像分析処理を実行させる操作を行う。すると、画像分析装置1のCPU10は、ステップS3〜S7の画像分析処理を実行する。
画像分析処理が開始されると、まず、CPU10は、画像セットの中から複数の検査対象物Tの位置を検出する位置検出処理を実行する(ステップS3)。この処理は、図1の位置検出プログラム154をCPU10が実行することで実現される。
Subsequently, the clerk designates the image set on the inspection target date as a comparison target, and performs an operation for causing the image analysis apparatus 1 to execute the image analysis processing. Then, the CPU 10 of the image analysis device 1 executes the image analysis processing in steps S3 to S7.
When the image analysis process is started, first, the CPU 10 executes a position detection process for detecting the positions of a plurality of inspection objects T from the image set (step S3). This process is realized by the CPU 10 executing the position detection program 154 shown in FIG.

図5は、検査対象物の位置検出処理を説明する図である。
位置検出処理では、予めテンプレート記憶部153に記憶されている検査対象物Tのテンプレートが使用される。テンプレートは、多くの検査対象物Tについて画像の特徴量が示されたデータであり、図5に示すように、予めコンピュータw1を用いた学習処理により作成される。学習処理では、コンピュータw1に、ステップS1の撮影処理と同様の撮影により得られた多くの検査対象物Tの画像HPが入力され、かつ、各画像HP中の検査対象物Tの位置を示すフレームf1が指定される。フレームf1の指定は、当初、人が行えばよい。コンピュータw1は、個々に形状等が異なる多くの検査対象物Tのフレーム画像h1から検査対象物Tの画像上の特徴量を抽出し、検査対象物Tの有無を識別するための特徴量のテンプレートを統計的学習により予め作成する。
FIG. 5 is a diagram for explaining the position detection process of the inspection object.
In the position detection process, a template of the inspection target T stored in advance in the template storage unit 153 is used. The template is data indicating image feature amounts for many inspection objects T, and is created in advance by learning processing using the computer w1, as shown in FIG. In the learning process, many images HP of the inspection target T obtained by imaging similar to the imaging process in step S1 are input to the computer w1, and a frame indicating the position of the inspection target T in each image HP is input. f1 is designated. The designation of the frame f1 may be performed by a person at the beginning. The computer w1 extracts feature quantities on the image of the inspection object T from the frame images h1 of many inspection objects T having different shapes and the like, and a feature amount template for identifying the presence or absence of the inspection object T Are created in advance by statistical learning.

ステップS3の位置検出処理においてCPU10は、検査対象日の各画像H0からレールRを画像認識し、レールRの位置に基づいて検査対象物Tが存在する可能性のある範囲を識別する。そして、CPU10は、存在する可能性のある範囲に、検査対象物Tの有無を識別する対象フレームf2を設定する。そして、CPU10は、対象フレームf2内の画像の特徴量を抽出し、予め用意されたテンプレートを用いてSVM(support vector machine)等によりパターン認識を行う。これにより、CPU10は、対象フレームf2に検査対象物Tが含まれるか否かを判別する。CPU10は、図5の画像H0中に矢印で示されるように、対象フレームf2を検査対象物Tが存在する可能性のある範囲内でずらしながら、検査対象物Tが含まれるか判別処理を繰り返す。そして、CPU10は、検査対象日の各画像H0に含まれる各検査対象物Tの位置f3を検出する。   In the position detection process in step S3, the CPU 10 recognizes the rail R from each image H0 on the inspection target date, and identifies a range where the inspection target T may exist based on the position of the rail R. Then, the CPU 10 sets a target frame f2 that identifies the presence or absence of the inspection target T in a range that may exist. Then, the CPU 10 extracts the feature amount of the image in the target frame f2, and performs pattern recognition by a support vector machine (SVM) or the like using a template prepared in advance. Thereby, the CPU 10 determines whether or not the inspection target T is included in the target frame f2. As indicated by an arrow in the image H0 in FIG. 5, the CPU 10 repeats the process of determining whether the inspection target T is included while shifting the target frame f2 within a range where the inspection target T may exist. . Then, the CPU 10 detects the position f3 of each inspection target T included in each image H0 on the inspection target date.

ステップS3の位置検出処理では、CPU10は、ステップS2で入力された画像セットの全てについて、上述した検査対象物Tの位置検出を行う。これにより、画像セットに含まれる全ての検査対象物Tの位置が検出される。   In the position detection process in step S3, the CPU 10 detects the position of the inspection target T described above for all the image sets input in step S2. Thereby, the positions of all the inspection objects T included in the image set are detected.

位置検出処理が完了したら、CPU10は、比較基準の画像セットと、検査対象日の画像セットとの間で、概略位置合わせ処理を実行する(ステップS4)。この処理は、図1の概略位置合わせプログラム155をCPU10が実行することで実現される。概略位置合わせ処理は、比較基準の画像セット中の複数の検査対象物Tと、検査対象日の画像セット中の複数の検査対象物Tとの間で、同一の検査対象物Tを対応づけ、同一の検査対象物Tが大まかに同じ位置になるように画像の位置合わせを行う処理である。   When the position detection process is completed, the CPU 10 executes a rough alignment process between the comparison reference image set and the image set on the inspection target day (step S4). This process is realized by the CPU 10 executing the general alignment program 155 of FIG. The rough alignment process associates the same inspection object T between the plurality of inspection objects T in the comparison reference image set and the plurality of inspection objects T in the image set of the inspection object day, This is a process of aligning images so that the same inspection object T is roughly at the same position.

比較基準の画像セットと検査対象日の画像セットとはレールに沿って長い画像であり、多数の検査対象物Tのうち各検査対象物Tと続く検査対象物Tとの間隔は撮影日ごとに殆ど変わらない。一方、比較基準の画像セットと検査対象日の画像セットとの撮影開始地点は一致させにくい。また、撮影を行う鉄道車両30の駅停車時に、撮影が中断されるような場合には、比較基準の画像セットと検査対象日の画像セットとの間で撮影中断地点及び再開地点を一致させにくい。したがって、検査対象日の画像セットに含まれる検査対象物Tが、比較基準の画像セットに含まれる多数の検査対象物Tの中のどれなのか、そのままでは特定できない。そこで、ステップS4の処理により、比較基準の画像セットと検査対象日の画像セットとの間で同一の検査対象物Tを対応付けることができるよう、大まかな位置合わせを行う。   The image set for comparison and the image set for the inspection object date are images that are long along the rail, and the interval between each inspection object T and the subsequent inspection object T among the many inspection objects T depends on the shooting date. Almost unchanged. On the other hand, it is difficult to match the shooting start points of the comparison reference image set and the image set on the inspection target day. In addition, in the case where shooting is interrupted when the railway vehicle 30 that performs shooting stops at the station, it is difficult to match the shooting interruption point and the restart point between the comparison reference image set and the image set on the inspection target day. . Therefore, the inspection object T included in the image set on the inspection object day cannot be identified as it is among the many inspection objects T included in the comparison reference image set. Accordingly, rough alignment is performed by the processing in step S4 so that the same inspection object T can be associated between the comparison reference image set and the inspection day image set.

概略位置合わせ処理では、CPU10は、画像セットに含まれる各検査対象物Tとこれに続く検査対象物Tとの間隔長を算出し、算出された間隔長を各検査対象物Tが並ぶ順に配列する。CPU10は、このような処理を比較基準の画像セットと検査対象日の画像セットの両方について行う。続いて、CPU10は、比較基準の画像セットの間隔長の配列と、検査対象日の画像セットの間隔長の配列とを比較し、各間隔長が誤差の範囲内で揃うように、画像セットの始端地点、中断地点又は再開地点のズレを補正する。これにより、両方の画像セット中の各検査対象物Tの大まかな位置が合せられ、概略位置合わせ処理が完了される。   In the rough alignment process, the CPU 10 calculates the interval length between each inspection object T included in the image set and the inspection object T subsequent thereto, and arranges the calculated interval length in the order in which the inspection objects T are arranged. To do. The CPU 10 performs such processing for both the comparison reference image set and the inspection day image set. Subsequently, the CPU 10 compares the array of interval lengths of the comparison reference image set with the array of interval lengths of the image set on the inspection target day, and sets the image sets so that the interval lengths are aligned within an error range. Correct the deviation of the start point, the interruption point, or the restart point. Thereby, the rough position of each inspection object T in both image sets is aligned, and the approximate alignment process is completed.

概略の位置合わせ処理が完了したら、CPU10は、比較基準の画像セット中の検査対象物Tと検査対象日の画像セット中の検査対象物Tとの詳細位置合わせ処理を実行する(ステップS5)。この処理は、図1の詳細位置合わせプログラム156をCPU10が実行することで実現される。詳細位置合わせ処理は、同一の検査対象物Tについて、比較基準の画像中の位置と、検査対象日の画像中の位置とを、ピクセル単位で合わせる処理である。図1の撮影装置31が同一の検査対象物Tを、日数を隔てて複数回撮影した場合、鉄道車両30の車体の揺れ、車輪とレールRとの相対位置の差異等により、撮影回ごとに、撮影装置31から撮影対象までの撮影距離及び撮影角度に僅かな差異が生じる。このため検査対象物Tは、撮影回ごとに画像中の位置及び撮影された向きに僅かなズレが生じる。このような僅かなズレを詳細位置合わせ処理により補正する。   When the rough alignment process is completed, the CPU 10 executes a detailed alignment process between the inspection target T in the comparison reference image set and the inspection target T in the image set on the inspection target date (step S5). This process is realized by the CPU 10 executing the detailed alignment program 156 of FIG. The detailed alignment process is a process of aligning the position in the comparison reference image and the position in the image on the inspection target day in units of pixels for the same inspection target T. When the imaging device 31 in FIG. 1 captures the same inspection object T several times over a number of days, due to shaking of the vehicle body of the railway vehicle 30 and the difference in relative position between the wheel and the rail R, etc. There is a slight difference in the shooting distance and shooting angle from the shooting device 31 to the shooting target. For this reason, the inspection target T has a slight shift in the position in the image and the direction in which the image is taken every time the image is taken. Such slight deviation is corrected by the detailed alignment process.

詳細位置合わせ処理では、CPU10は、比較基準の画像セットと、検査対象日の画像セットとの中から、互いに同一の検査対象物Tが写っている画像を切出し、両方の画像の中から複数の特徴点を抽出する。特徴点とは、検査対象物T又は背景にある物のエッジ部分などである。そして、CPU10は、両方の画像間で複数の特徴点をRANSAC(Random sample consensus)等の手法を用いて対応付け、両方の画像間で共通の特徴点の位置のズレが小さくなるように、検査対象日の画像を射影変換する。これにより、両方の画像間で検査対象物Tの位置がピクセル単位で合わせられる。画像セットに含まれる全ての検査対象物Tについて、上記の処理が遂行されると、詳細位置合わせ処理が終了する。   In the detailed alignment process, the CPU 10 cuts out an image in which the same inspection target T is captured from the comparison reference image set and the inspection target day image set, and a plurality of images are displayed from both images. Extract feature points. The feature point is an inspection object T or an edge portion of an object in the background. Then, the CPU 10 associates a plurality of feature points between both images using a technique such as RANSAC (Random sample consensus), and inspects the feature points so that the deviation of the positions of the common feature points between both images is reduced. Projectively transform the image of the target day. As a result, the position of the inspection object T is aligned between both images in pixel units. When the above process is performed for all inspection objects T included in the image set, the detailed alignment process is completed.

詳細位置合わせ処理が完了したら、CPU10は、同一の検査対象物Tが含まれる2つの画像を比較する画像比較処理を行う(ステップS6)。この処理は、図1の画像比較プログラム158をCPU10が実行することで実現される。画像比較処理の詳細については後述する。この画像比較処理により、検査対象日の画像セットに含まれる各検査対象物Tについて変化の有無が判断される。   When the detailed alignment process is completed, the CPU 10 performs an image comparison process for comparing two images including the same inspection target T (step S6). This process is realized by the CPU 10 executing the image comparison program 158 of FIG. Details of the image comparison process will be described later. By this image comparison process, it is determined whether or not there is a change in each inspection target T included in the image set on the inspection target date.

画像比較処理が完了したら、CPU10は、画像セットに含まれる全ての検査対象物Tの中から、予め設定された閾値以上の変化のある検査対象物Tを判定し、該当する検査対象物Tの画像を抽出する(ステップS7)。画像は、表示部12に出力したり、印刷出力されたり、データとして出力される。また、画像データには、検査対象物Tが路線上のどの位置にあるものかを示す位置情報が付加されてもよい。位置情報は、検査対象物Tの撮影の際にGPS(Global Positioning System)を用いて測位を行って取得しておけばよい。   When the image comparison process is completed, the CPU 10 determines an inspection target T having a change equal to or greater than a preset threshold value from all the inspection targets T included in the image set, and determines the corresponding inspection target T. An image is extracted (step S7). The image is output to the display unit 12, printed out, or output as data. Further, position information indicating where the inspection target T is located on the route may be added to the image data. The position information may be acquired by performing positioning using GPS (Global Positioning System) when photographing the inspection target T.

変化有りと判断された検査対象物Tの画像が抽出されたら、係員は、この画像を詳細に確認し、必要があれば現地に赴いて実物を確認するなどして、修繕の要否を判断する(ステップS8)。このような処理により、1回の保守管理処理が完了する。   Once an image of the inspection object T that has been determined to have changed is extracted, the clerk checks this image in detail, and if necessary, visits the site to check the actual object to determine whether repair is necessary. (Step S8). Such a process completes one maintenance management process.

このような保守管理方法によれば、線路に多数存在する検査対象物Tの全てを係員が検査する方式と比べて、検査の労力を大幅に削減できる。さらに、画像分析装置1が緻密かつ正確に各検査対象物Tの変化を検出することで、係員が全ての検査対象物Tを目視等により検査する場合と同様に、検査対象物Tの厳密な検査を実現できる。   According to such a maintenance management method, it is possible to greatly reduce the labor of inspection as compared with a method in which a staff member inspects all inspection objects T existing on a track. Furthermore, since the image analysis apparatus 1 detects changes in each inspection target T precisely and accurately, the strict inspection of the inspection target T is performed in the same manner as when an attendant inspects all inspection targets T visually. Inspection can be realized.

<画像比較処理>
続いて、図4のステップS6の画像比較処理について詳細に説明する。図6は、画像比較処理の詳細な手順を示すフローチャートである。
画像比較処理へ進むと、CPU10は、まず、検査対象日の画像セットの中から1つの検査対象物Tを含む比較対象領域K1(図8を参照)を切り出す(ステップS11)。比較対象領域K1は、例えば矩形状の領域であり、検査対象物Tが余裕を持って含まれかつ検査対象物T以外が余り含まれないように所定の大きさに設定されている。比較対象領域K1を切り出したら、CPU10は、この比較対象領域K1について画像の特徴量を計算する特徴量計算処理を実行する(ステップS12)。以下、1つの画像セットに含まれる複数の検査対象物の各々を、インデックス番号i(i=1〜m)を付加して、「検査対象物“i”」のように記す。1つの画像セットに含まれる検査対象物の総数をm個とする。
<Image comparison processing>
Next, the image comparison process in step S6 in FIG. 4 will be described in detail. FIG. 6 is a flowchart showing a detailed procedure of the image comparison process.
When proceeding to the image comparison process, the CPU 10 first cuts out a comparison target region K1 (see FIG. 8) including one inspection target T from the image set on the inspection target date (step S11). The comparison target area K1 is, for example, a rectangular area, and is set to a predetermined size so that the inspection target T is included with a margin and not other than the inspection target T is included. When the comparison target region K1 is cut out, the CPU 10 executes a feature amount calculation process for calculating the feature amount of the image for the comparison target region K1 (step S12). Hereinafter, each of a plurality of inspection objects included in one image set is described as “inspection object“ i ”” by adding an index number i (i = 1 to m). Assume that the total number of inspection objects included in one image set is m.

図7は、図6のステップS12の特徴量計算処理の詳細な手順を示すフローチャートである。なお、後述するように各処理の順番は図7の例に限られない。図8は、特徴量計算処理の手順を示す説明図である。
特徴量計算処理に進むと、まず、CPU10は、比較対象領域K1を、例えば10×10px(ピクセル)ごとに複数の局所領域K11に分割する(ステップS31)。ステップS31の処理を実行するCPU10が、本発明に係る画像分割部の一例に相当する。図8では、煩雑を避けるため、幾つかの局所領域K11にのみ符号を付している。なお、局所領域K11の大きさは10×10pxに限られず、適宜変更可能である。ピクセルとは画素を意味する。
FIG. 7 is a flowchart showing a detailed procedure of the feature amount calculation process in step S12 of FIG. As will be described later, the order of each process is not limited to the example of FIG. FIG. 8 is an explanatory diagram showing the procedure of the feature amount calculation process.
When proceeding to the feature amount calculation process, first, the CPU 10 divides the comparison target region K1 into a plurality of local regions K11, for example, every 10 × 10 px (pixels) (step S31). The CPU 10 that executes the process of step S31 corresponds to an example of an image dividing unit according to the present invention. In FIG. 8, in order to avoid complexity, only some local regions K11 are denoted by reference numerals. The size of the local region K11 is not limited to 10 × 10 px and can be changed as appropriate. A pixel means a pixel.

複数の局所領域K11に分割したら、CPU10は、1つの局所領域K11ごとにステップS32〜S33の処理を繰り返し実行する。繰り返しの処理において、CPU10は、先ず、局所領域の各ピクセルについて輝度の勾配方向を計算する(ステップS32)。ステップS32の処理を実行するCPU10が、本発明に係る勾配方向計算部の一例に相当する。輝度の勾配方向は、大きさと方向との情報を含んだ輝度勾配ベクトルから大きさの情報を省いた方向の情報を示す。任意のピクセルの輝度の勾配方向は、例えば次式(1)により示される。
ここで、x、yはピクセルの座標を示し、任意のxの値に対して”x+1”は1つ右の列を表わし、任意のyの値に対して”y+1”は1つ下の行を表わす。以下、座標(x,y)のピクセルのことを、「ピクセル(x,y)」と記す。なお、輝度の勾配方向θは、正の値になるように”−180°〜0°”の値が”180°〜360°”の値へ補正されてもよい。
When the CPU 10 is divided into a plurality of local regions K11, the CPU 10 repeatedly executes the processes of steps S32 to S33 for each local region K11. In the repetitive processing, the CPU 10 first calculates the luminance gradient direction for each pixel in the local region (step S32). CPU10 which performs the process of step S32 is equivalent to an example of the gradient direction calculation part which concerns on this invention. The luminance gradient direction indicates direction information obtained by omitting the size information from the luminance gradient vector including the size and direction information. The gradient direction of the luminance of an arbitrary pixel is expressed by the following equation (1), for example.
Here, x and y indicate the coordinates of the pixel, “x + 1” represents the right column for any x value, and “y + 1” represents the next row for any y value. Represents. Hereinafter, the pixel having the coordinates (x, y) is referred to as “pixel (x, y)”. Note that the value of “−180 ° to 0 °” may be corrected to a value of “180 ° to 360 °” so that the luminance gradient direction θ becomes a positive value.

式(1)の右辺内の関数は、次式(2)〜(4)により定義される。
ここで、L(x,y)はピクセル(x,y)の輝度を表わし、V(x,y)はピクセル(x,y)の輝度勾配ベクトルを表わす。二重線文字のeとeは縦横の基本ベクトルを示す。
The function in the right side of Expression (1) is defined by the following Expressions (2) to (4).
Here, L (x, y) represents the luminance of the pixel (x, y), and V L (x, y) represents the luminance gradient vector of the pixel (x, y). Double-line characters ex and ey indicate vertical and horizontal basic vectors.

なお、式(2)〜(4)の例では、或る1つのピクセル(x,y)の輝度勾配ベクトルとして、ピクセル(x,y)の上のピクセルと下のピクセルとの輝度差と、左のピクセルと右のピクセルとの輝度差とが成分となる定義を示した。しかし、輝度勾配ベクトルの定義はこれに限られない。例えば、或る1つのピクセル(x,y)の輝度方向ベクトルとして、ピクセル(x,y)とその上のピクセルとの輝度差と、ピクセル(x,y)とその右のピクセルとの輝度差とが成分となる定義としてもよい。また、対象のピクセル(x,y)の斜めのピクセルとの輝度差が成分に含まれる定義としてもよい。また、1つのピクセルごとに1つの輝度勾配ベクトルが決定される定義の他、例えば局所領域K11のピクセル数がもっと多ければ、縦横2×2又は縦横3×3のピクセルごとに1つの輝度勾配ベクトルが決定されるように定義されてもよい。さらに、式(1)の例では、輝度の勾配方向を輝度勾配ベクトルの方向成分とする定義を示した。しかし、例えば1つのピクセル(x,y)と周囲のピクセルとの比較により、輝度差が最も大きい上下左右斜めの方向及び向きを輝度の勾配方向として定義するなど、他の定義を採用することができる。   In the examples of the expressions (2) to (4), as the luminance gradient vector of a certain pixel (x, y), the luminance difference between the upper pixel and the lower pixel of the pixel (x, y), The definition that the luminance difference between the left pixel and the right pixel is a component is shown. However, the definition of the brightness gradient vector is not limited to this. For example, as the luminance direction vector of a certain pixel (x, y), the luminance difference between the pixel (x, y) and the pixel above it, and the luminance difference between the pixel (x, y) and the pixel on the right thereof And may be defined as components. Moreover, it is good also as a definition in which the brightness | luminance difference with the diagonal pixel of the object pixel (x, y) is contained in a component. In addition to the definition that one luminance gradient vector is determined for each pixel, for example, if the number of pixels in the local region K11 is larger, one luminance gradient vector for each vertical and horizontal 2 × 2 or vertical and horizontal 3 × 3 pixel May be defined to be determined. Furthermore, in the example of Formula (1), the definition which makes the gradient direction of a brightness | luminance the direction component of a brightness | luminance gradient vector was shown. However, it is possible to adopt other definitions, for example, by defining the direction and direction of the top / bottom / left / right slant that has the largest brightness difference as the brightness gradient direction by comparing one pixel (x, y) with surrounding pixels. it can.

式(2)の輝度勾配ベクトルV(x,y)は、輝度勾配の大きさ及び方向の情報が含まれる量であるのに対して、式(1)の輝度の勾配方向θ(x,y)は、輝度勾配の大きさの情報が省かれ、輝度勾配の方向に特化した量である。 The luminance gradient vector V L (x, y) in Equation (2) is an amount that includes information on the magnitude and direction of the luminance gradient, whereas the luminance gradient direction θ (x, y) in Equation (1). y) is an amount specialized in the direction of the luminance gradient without the information on the size of the luminance gradient.

上記のステップS32により、局所領域K11の全てのピクセルについて輝度の勾配方向が計算されたら、次に、CPU10は、局所領域K11の全ピクセルの輝度の勾配方向を集計して度数分布を計算する(ステップS33)。ステップS33の処理を実行するCPU10が、本発明に係る分布計算部の一例に相当する。図8の最下段には、この度数分布をヒストグラム化した図を示す。度数分布の計算では、例えば、360°を複数に等分した角度範囲ごとに各角度範囲に含まれる輝度の勾配方向を有するピクセルの数を計数し、この計数値を各角度範囲の度数とすればよい。この度数分布が、1つの局所領域K11の特徴量となる。   After the luminance gradient direction is calculated for all the pixels in the local region K11 by the above step S32, the CPU 10 then calculates the frequency distribution by totaling the luminance gradient directions of all the pixels in the local region K11 ( Step S33). The CPU 10 that executes the process of step S33 corresponds to an example of a distribution calculation unit according to the present invention. 8 shows a histogram of this frequency distribution. In the calculation of the frequency distribution, for example, the number of pixels having a luminance gradient direction included in each angle range is counted for each angle range obtained by equally dividing 360 ° into a plurality of angles, and this count value is used as the frequency of each angle range. That's fine. This frequency distribution is a feature amount of one local region K11.

1つの局所領域K11について輝度の勾配方向の度数分布が計算されたら、CPU10は、全ての局所領域K11について計算が終了したか判別し、未だであればステップS32に処理を戻して、次の局所領域K11についての計算を実行する。一方、終了していれば、特徴量計算処理を終了する。特徴量計算処理により、1つの比較対象領域K1の複数の局所領域K11に対応した複数の特徴量が計算される。   When the frequency distribution in the gradient direction of the luminance is calculated for one local region K11, the CPU 10 determines whether the calculation has been completed for all the local regions K11. If not yet, the process returns to step S32 to return to the next local region K11. Calculation for the region K11 is executed. On the other hand, if completed, the feature amount calculation process is terminated. By the feature amount calculation processing, a plurality of feature amounts corresponding to a plurality of local regions K11 of one comparison target region K1 are calculated.

なお、図7では、比較対象領域K1を複数の局所領域に分割した後、1つの局所領域ごとに各ピクセルの輝度の勾配方向を計算する例を示した。しかし、始めに比較対象領域K1の全ピクセルについて輝度の勾配方向を計算し、その後、複数の局所領域に分割して、各局所領域の輝度の勾配方向の度数分布を計算するようにしてもよい。この場合でも、各局所領域に含まれる複数のピクセルの勾配方向の度数分布を同様に計算できる。   FIG. 7 shows an example in which the gradient direction of the luminance of each pixel is calculated for each local region after the comparison target region K1 is divided into a plurality of local regions. However, first, the luminance gradient direction may be calculated for all the pixels in the comparison target region K1, and then divided into a plurality of local regions to calculate the frequency distribution in the luminance gradient direction of each local region. . Even in this case, the frequency distribution in the gradient direction of a plurality of pixels included in each local region can be similarly calculated.

続いて、CPU10は、1つの比較対象領域について計算された複数の特徴量を、記憶装置15の特徴量格納部152に格納する(ステップS13)。ここで、CPU10は、複数の特徴量がどの画像セットのどの比較対象領域のものか分かるように、また、各特徴量が比較対象領域内のどの局所領域のものか分かるように、例えば番号付けあるいは対応情報を関連付けて複数の特徴量を格納する。   Subsequently, the CPU 10 stores a plurality of feature amounts calculated for one comparison target region in the feature amount storage unit 152 of the storage device 15 (step S13). Here, for example, numbering is performed so that the CPU 10 can identify which comparison target region of which image set each of the plurality of feature amounts belongs to, and which local region within each comparison target region. Alternatively, a plurality of feature amounts are stored in association with correspondence information.

次に、CPU10は、別日時に撮影された3つ以上の画像セットの特徴量の中からn個を比較基準として指定する(ステップS14)。例えば、CPU10は、特徴量格納部152に記憶されている別日時の画像セットの特徴量のうち、古い方から3つの画像セットの特徴量を比較基準として指定する。以下、n個の比較基準の各々を、インデックス番号j(j=1〜n)を付加して「比較基準“j”」のように記す。   Next, the CPU 10 designates n pieces of feature amounts of three or more image sets photographed at different dates as comparison criteria (step S14). For example, the CPU 10 specifies the feature amounts of the three image sets from the oldest among the feature amounts of the image sets of different dates and times stored in the feature amount storage unit 152 as the comparison reference. Hereinafter, each of the n comparison criteria is described as “comparison criteria“ j ”” with an index number j (j = 1 to n) added.

続いて、CPU10は、比較基準“j”の画像セットの特徴量の中から、検査対象物“i”についての特徴量を読み出す(ステップS15)。そして、CPU10は、ステップS12で計算した特徴量と、ステップS15で読出した特徴量とを比較する(ステップS17)。   Subsequently, the CPU 10 reads out the feature value for the inspection object “i” from the feature values of the image set of the comparison reference “j” (step S15). Then, the CPU 10 compares the feature amount calculated in step S12 with the feature amount read in step S15 (step S17).

図9は、特徴量の比較処理の説明図である。
ここで、CPU10は、図9に示すように、比較対象領域K1の個々の局所領域K11の特徴量Q1と、比較基準“j”の画像領域K2において比較対象と同一位置の局所領域K21の特徴量Q2とを比較する。比較により、CPU10は、例えば、両者の度数分布の同じ角度範囲の度数の差を演算し、全ての角度範囲についての度数の差の絶対値の総和あるいは2乗平均値などの差異量を計算する。差異量は最大値が1.0になるように規格化される。なお、度数分布の差異量は、この例に限られず、適切に度数分布の差異が表わされる値であればよい。そして、このような計算を、比較対象領域K1の全ての局所領域K11において行う。図9の相違度マップM1は、計算された各局所領域K11の差異量を局所領域K11の配置に対応させて画像化したものである。通常、相違度マップM1のように、場所によって差異量にバラツキのある結果が得られる。
FIG. 9 is an explanatory diagram of the feature amount comparison processing.
Here, as shown in FIG. 9, the CPU 10 features the feature quantity Q1 of each local region K11 of the comparison target region K1 and the feature of the local region K21 at the same position as the comparison target in the image region K2 of the comparison reference “j”. Compare the quantity Q2. By comparison, for example, the CPU 10 calculates the frequency difference of the same angle range of both frequency distributions, and calculates the difference amount such as the sum of absolute values or the square mean value of the frequency differences for all angle ranges. . The difference amount is standardized so that the maximum value is 1.0. The amount of difference in the frequency distribution is not limited to this example, and may be a value that appropriately represents the difference in the frequency distribution. Such a calculation is performed in all the local regions K11 of the comparison target region K1. The dissimilarity map M1 of FIG. 9 is obtained by imaging the calculated difference amount of each local region K11 in correspondence with the arrangement of the local regions K11. Usually, as in the dissimilarity map M1, a result in which the amount of difference varies depending on the location is obtained.

図10は、マスク処理の効果を説明する図である。なお、ステップS17の比較処理の前、CPU10は、比較対象領域の中からレール部分の範囲を背景領域の画像として認識し、この範囲の少なくとも一部にマスクを付加してもよい(ステップS16)。ステップS16の処理を実行するCPU10が、本発明に係るマスク処理部の一例に相当する。マスクを付加するとは、その部分の特徴量の比較を行わないことを意味する。例えば、晴天時又は雨天時など、天候によって背景領域の画像に大きな違いが生じる場合がある。図10の上段2行左から2列目は晴天時の撮影画像と特徴量の相違度マップとを示しており、レールの根元部分に高い輝度の変化が表れている。また、図10の上段2行左から3列目は雨天時の撮影画像と特徴量の相違度マップとを示しており、検査対象物の裏側に輝度の低い変化が表れている。このように背景領域に変化があっても、マスクの設定N1を行うことで、検査対象物における特徴量の比較のみを行えることができる。図10の例では、左から4列目の画像において検査対象物に異常が生じているが、図10の最下段のマスクが付加された特徴量の相違度マップの比較から分かるように、背景領域の変化が除外されて、検査対象物の変化が反映された比較結果を得ることができる。   FIG. 10 is a diagram for explaining the effect of the mask process. Prior to the comparison process in step S17, the CPU 10 may recognize the range of the rail portion from the comparison target region as an image of the background region, and add a mask to at least a part of this range (step S16). . The CPU 10 that executes the process of step S16 corresponds to an example of a mask processing unit according to the present invention. Adding a mask means not comparing feature values of the portion. For example, there may be a large difference in the background image depending on the weather, such as when the weather is sunny or rainy. The second column from the left in the upper two rows of FIG. 10 shows a photographed image in fine weather and a feature difference map, and a high luminance change appears at the base of the rail. Further, the third column from the left in the upper row of FIG. 10 shows a photographed image in the rain and a feature amount difference map, and a low luminance change appears on the back side of the inspection object. In this way, even if the background region is changed, by performing the mask setting N1, it is possible to compare only the feature values of the inspection object. In the example of FIG. 10, an abnormality has occurred in the inspection object in the image in the fourth column from the left, but as can be seen from the comparison of the feature amount difference maps with the lowermost mask in FIG. A change in the region is excluded, and a comparison result reflecting the change in the inspection object can be obtained.

比較処理を完了したら、CPU10はこの比較結果をRAM11の作業領域に格納する(ステップS18)。そして、CPU10は、複数個の比較基準“1〜n”との比較を完了したか判別し(ステップS19)、未だであれば、ステップS15に処理を戻し、次の比較基準“j”を用いてステップS15〜S18の処理を繰り返す。一方、完了していれば、CPU10は、処理を続くステップへ移行する。   When the comparison process is completed, the CPU 10 stores the comparison result in the work area of the RAM 11 (step S18). Then, the CPU 10 determines whether or not the comparison with the plurality of comparison criteria “1 to n” has been completed (step S19). If not, the process returns to step S15 to use the next comparison criteria “j”. Steps S15 to S18 are repeated. On the other hand, if it is completed, the CPU 10 proceeds to a step that continues the process.

全比較基準“1〜n”との比較結果が得られたら、CPU10は、これらの比較結果に基づいて、検査対象物“i”の変化の有無を判断する(ステップS20)。一例として、CPU10は、比較結果である相違度マップM1(図9を参照)のうち、閾値以上の相違のある箇所を抽出し、これらの箇所の相違値の総和を計算し、この総和を比較対象領域K1の変化量とする。CPU10は、複数の比較基準との比較結果について、同様の計算を行って、複数の変化量を取得する。さらに、CPU10は、複数の変化量のうち、所定の偏差から外れている変化量が無いか計算し、外れている変化量があれば、それを除外し、残りに平均化などの統計処理を施して最終的な変化量を取得する。そして、CPU10は、最終的な変化量が所定の閾値より大きければ、検査対象物“i”に変化があると判断し、小さければ変化がないと判断する。ステップS17〜S20の処理を実行するCPU10が、本発明に係る変化検出部の一例に相当する。   When the comparison results with all the comparison references “1 to n” are obtained, the CPU 10 determines whether or not the inspection object “i” has changed based on these comparison results (step S20). As an example, the CPU 10 extracts a portion having a difference greater than or equal to a threshold value from the difference map M1 (see FIG. 9) as a comparison result, calculates the sum of the difference values of these portions, and compares this sum. The amount of change in the target area K1 is used. CPU10 performs the same calculation about the comparison result with a some comparison reference | standard, and acquires a some variation | change_quantity. Further, the CPU 10 calculates whether there is a change amount deviating from a predetermined deviation among a plurality of change amounts, and if there is a change amount deviating, excludes the change amount, and performs statistical processing such as averaging for the rest. To obtain the final amount of change. Then, the CPU 10 determines that there is a change in the inspection object “i” if the final change amount is larger than a predetermined threshold, and determines that there is no change if it is smaller. The CPU 10 that executes the processes of steps S17 to S20 corresponds to an example of a change detection unit according to the present invention.

このように、複数の比較基準の比較結果に基づいて検査対象物“i”の変化の有無を判断することで、例えば、比較基準の一つに例外的な差異が含まれるような場合でも、検査対象物“i”の変化の有無の判断に誤りが生じることを抑制することができる。よって、より正確に変化の有無を検出できる。なお、複数の比較結果に基づく、検査対象物“i”の変化の有無の判断方法は、上記の例に限られるものではない。   In this way, by determining the presence or absence of a change in the inspection object “i” based on the comparison results of a plurality of comparison criteria, for example, even when an exceptional difference is included in one of the comparison criteria, It is possible to suppress the occurrence of an error in determining whether or not the inspection object “i” has changed. Therefore, the presence or absence of a change can be detected more accurately. The method for determining whether or not the inspection object “i” has changed based on a plurality of comparison results is not limited to the above example.

1つの検査対象物“i”の変化の有無の判断を行ったら、CPU10は、全ての検査対象物“1〜m”についての判断が完了したか判別する(ステップS21)。そして、未だであれば、CPU10は、処理をステップS11に戻して、次の検査対象物“i”についてステップS11〜S20の処理を繰り返す。一方、完了であれば、画像比較処理を終了する。   After determining whether or not there is a change in one inspection object “i”, the CPU 10 determines whether or not all the inspection objects “1 to m” have been determined (step S21). If not, the CPU 10 returns the process to step S11 and repeats the processes of steps S11 to S20 for the next inspection object “i”. On the other hand, if completed, the image comparison process is terminated.

このような画像比較処理により、画像セットに含まれる複数の検査対象物“i”の各々ついて変化の有無の判断結果が得られる。   By such an image comparison process, a determination result of whether or not there is a change is obtained for each of the plurality of inspection objects “i” included in the image set.

以上のように、本実施形態の画像分析装置1によれば、画像比較により検査対象物Tの変化の有無を判断するため、画像の特徴量として輝度の勾配方向の度数分布を用いている。これにより、画像の輝度変化の影響を大幅に排除して、検査対象物Tの変化の有無を判断でき、綿密で正確な検査対象物Tの変化の検出を実現できる。また、輝度変化の影響を除去する輝度補正とHOGの計算とを行う場合と比較して、大幅に計算負荷を低減することができる。   As described above, according to the image analysis apparatus 1 of the present embodiment, the frequency distribution in the luminance gradient direction is used as the image feature amount in order to determine whether or not the inspection target T has changed by image comparison. Thereby, it is possible to largely eliminate the influence of the luminance change of the image, determine the presence or absence of the change in the inspection target T, and realize a precise and accurate detection of the change in the inspection target T. In addition, the calculation load can be greatly reduced as compared with the case where the luminance correction for removing the influence of the luminance change and the calculation of the HOG are performed.

また、本実施形態の保守管理方法によれば、画像分析装置1を用いて多数の検査対象物Tの中から変化のある検査対象物Tを抽出することができる。したがって、全ての検査対象物Tを係員が検査する方式と比べて、検査の労力を大幅に削減できる。また、画像分析装置1の綿密かつ正確な変化の検出により、係員が目視等により検査する場合と同様に厳密な検査を実現できる。   Further, according to the maintenance management method of the present embodiment, the inspection target T having a change can be extracted from the large number of inspection target T using the image analysis apparatus 1. Therefore, the labor of the inspection can be greatly reduced as compared with the method in which all the inspection objects T are inspected by the staff. In addition, by detecting a precise and accurate change of the image analysis apparatus 1, it is possible to realize a strict inspection as in the case where an attendant inspects by visual inspection or the like.

以上、本発明の実施形態について説明した。しかし、本発明は上記の実施形態に限られない。例えば、実施形態では、検査対象物として軌道回路の接続部を適用した例を示したが、その他の対象物が適用されてもよい。また、上記の実施形態では、画像比較を行う際に輝度の勾配方向の度数分布である特徴量を用いた例を示したが、例えば検査対象物の位置を検出する際、詳細位置合わせ処理の際に使用する画像の特徴量として輝度の勾配方向の度数分布を用いてもよい。また、上記実施形態の保守管理方法では、画像分析装置1が検出した変化の有る検査対象物Tを、係員が目視等により修繕の要否を判断する方法とした。しかし、最終的な修繕の要否の判断も、画像解析等を用いてコンピュータが行うようにしてもよい。その他、実施の形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。   The embodiment of the present invention has been described above. However, the present invention is not limited to the above embodiment. For example, in the embodiment, an example in which the connection part of the track circuit is applied as the inspection object is shown, but other objects may be applied. In the above-described embodiment, an example is shown in which a feature amount that is a frequency distribution in the gradient direction of luminance is used when performing image comparison. For example, when detecting the position of an inspection object, detailed alignment processing is performed. A frequency distribution in the gradient direction of luminance may be used as the feature amount of the image used at the time. Moreover, in the maintenance management method of the said embodiment, it was set as the method by which a staff member judges the necessity of repairing the inspection target T with the change which the image analysis apparatus 1 detected by visual observation. However, the computer may also determine whether or not final repair is necessary using image analysis or the like. In addition, the details shown in the embodiments can be changed as appropriate without departing from the spirit of the invention.

1 画像分析装置
10 CPU
14 インタフェース
15 記憶装置
151 撮影データ格納部
152 特徴量格納部
153 テンプレート記憶部
154 位置検出プログラム
155 概略位置合わせプログラム
156 詳細位置合わせプログラム
157 特徴量計算プログラム
158 画像比較プログラム
30 鉄道車両
31 撮影装置
32 照明装置
R レール
T 検査対象物
1 Image analyzer 10 CPU
DESCRIPTION OF SYMBOLS 14 Interface 15 Memory | storage device 151 Image | photographing data storage part 152 Feature-value storage part 153 Template memory | storage part 154 Position detection program 155 Outline alignment program 156 Detailed alignment program 157 Feature-value calculation program 158 Image comparison program 30 Railway vehicle 31 Imaging device 32 Illumination Equipment R Rail T Inspection object

Claims (5)

画像の局所領域の特徴量を計算する特徴量計算部を備え、
前記特徴量計算部は、
前記局所領域に含まれる複数の画素の各々について周囲の画素との間の輝度勾配から大きさの情報が除かれた勾配方向を計算する勾配方向計算部と、
前記複数の画素に対応してそれぞれ計算された複数の前記勾配方向を集計して勾配方向の度数分布を計算する分布計算部と、
を含み、
前記勾配方向の度数分布を前記局所領域の特徴量とすることを特徴とする画像分析装置。
A feature amount calculation unit that calculates the feature amount of the local region of the image,
The feature amount calculation unit includes:
A gradient direction calculation unit that calculates a gradient direction in which the magnitude information is removed from the luminance gradient between the plurality of pixels included in the local region and the surrounding pixels;
A distribution calculator that calculates a frequency distribution in the gradient direction by aggregating the plurality of gradient directions calculated respectively corresponding to the plurality of pixels;
Including
An image analysis apparatus characterized in that the frequency distribution in the gradient direction is used as a feature amount of the local region.
検査対象物が撮影された複数の画像を入力する画像入力部と、
前記複数の画像を比較する画像比較部とを更に備え、
前記画像比較部は、
前記複数の画像の各々について少なくとも前記検査対象物を含む部分を複数の局所領域に分割する画像分割部と、
前記特徴量計算部により計算された前記複数の局所領域の特徴量を前記複数の画像間で比較して前記検査対象物の変化を検出する変化検出部とを備えることを特徴とする請求項1記載の画像分析装置。
An image input unit for inputting a plurality of images taken of the inspection object;
An image comparison unit for comparing the plurality of images;
The image comparison unit
An image dividing unit that divides at least a portion including the inspection object into a plurality of local regions for each of the plurality of images;
2. A change detection unit that detects a change in the inspection object by comparing the feature amounts of the plurality of local regions calculated by the feature amount calculation unit between the plurality of images. The image analysis apparatus described.
前記画像入力部には検査対象物が撮影された3つ以上の画像が入力され、
前記画像比較部は、前記3つ以上の画像のうち複数を比較基準、少なくとも1つを比較対象として、前記比較対象と前記複数の比較基準との間で前記特徴量の比較処理を行い、前記複数の比較基準をそれぞれ用いた複数回の前記比較処理の結果に基づいて前記検査対象物の変化の有無を判断することを特徴とする請求項2記載の画像分析装置。
Three or more images obtained by photographing the inspection object are input to the image input unit,
The image comparison unit performs comparison processing of the feature amount between the comparison target and the plurality of comparison references, with a plurality of the three or more images as a comparison reference and at least one as a comparison target, The image analysis apparatus according to claim 2, wherein presence or absence of a change in the inspection object is determined based on a result of the plurality of comparison processes each using a plurality of comparison criteria.
少なくとも前記変化検出部が前記特徴量の比較を行う前に、前記検査対象物の背景領域の少なくとも一部をマスクするマスク処理部を更に備えることを特徴とする請求項2又は請求項3に記載の画像分析装置。   4. The mask processing unit according to claim 2, further comprising a mask processing unit configured to mask at least a part of a background region of the inspection object before at least the change detection unit compares the feature amounts. Image analysis equipment. 請求項2から請求項4のいずれか一項に記載の画像分析装置を用いて、鉄道のレールに接続された複数の部品の各々を保守管理する鉄道設備部品の保守管理方法であって、
前記レール上を走行する鉄道車両に搭載された撮影装置により、日数を隔てて複数回、前記複数の部品を前記検査対象物として撮影し、
前記画像分析装置が前記複数回の撮影により得られた複数の画像を比較して前記複数の部品の各々の変化を検出し、
前記複数の部品のうち、閾値以上の変化が検出された1つ又は複数の部品について修繕の要否を判定することを特徴とする鉄道設備部品の保守管理方法。
A maintenance management method for railroad equipment parts for managing each of a plurality of parts connected to railroad rails using the image analysis device according to any one of claims 2 to 4,
With the imaging device mounted on the railway vehicle traveling on the rail, the plurality of parts are imaged as the inspection object several times over a period of days,
The image analyzer detects a change in each of the plurality of parts by comparing a plurality of images obtained by the plurality of times of photographing,
A maintenance management method for railway equipment parts, comprising: determining whether or not repair is necessary for one or more parts for which a change equal to or greater than a threshold is detected among the plurality of parts.
JP2017120066A 2017-06-20 2017-06-20 Maintenance management method for image analyzers and railway equipment parts Active JP6960252B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017120066A JP6960252B2 (en) 2017-06-20 2017-06-20 Maintenance management method for image analyzers and railway equipment parts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017120066A JP6960252B2 (en) 2017-06-20 2017-06-20 Maintenance management method for image analyzers and railway equipment parts

Publications (2)

Publication Number Publication Date
JP2019003575A true JP2019003575A (en) 2019-01-10
JP6960252B2 JP6960252B2 (en) 2021-11-05

Family

ID=65005884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017120066A Active JP6960252B2 (en) 2017-06-20 2017-06-20 Maintenance management method for image analyzers and railway equipment parts

Country Status (1)

Country Link
JP (1) JP6960252B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991222A (en) * 2019-10-16 2020-04-10 北京海益同展信息科技有限公司 Object state monitoring and sow oestrus monitoring method, device and system
CN113466247A (en) * 2021-06-30 2021-10-01 中国铁道科学研究院集团有限公司 Steel rail weld joint detection method and system based on inertia technology and machine vision fusion
WO2022064639A1 (en) * 2020-09-25 2022-03-31 株式会社日立国際電気 Abnormality detection device, abnormality detection method, and abnormality detection system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095886A (en) * 2013-11-14 2015-05-18 クラリオン株式会社 Surrounding environment recognition device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095886A (en) * 2013-11-14 2015-05-18 クラリオン株式会社 Surrounding environment recognition device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991222A (en) * 2019-10-16 2020-04-10 北京海益同展信息科技有限公司 Object state monitoring and sow oestrus monitoring method, device and system
CN110991222B (en) * 2019-10-16 2023-12-08 京东科技信息技术有限公司 Object state monitoring and sow oestrus monitoring method, device and system
WO2022064639A1 (en) * 2020-09-25 2022-03-31 株式会社日立国際電気 Abnormality detection device, abnormality detection method, and abnormality detection system
CN113466247A (en) * 2021-06-30 2021-10-01 中国铁道科学研究院集团有限公司 Steel rail weld joint detection method and system based on inertia technology and machine vision fusion
CN113466247B (en) * 2021-06-30 2023-09-12 中国铁道科学研究院集团有限公司 Rail weld detection method and system based on inertial technology and machine vision fusion

Also Published As

Publication number Publication date
JP6960252B2 (en) 2021-11-05

Similar Documents

Publication Publication Date Title
WO2018068415A1 (en) Detection method and system for wrong part
US5774574A (en) Pattern defect detection apparatus
CN104718428A (en) Pattern inspecting and measuring device and program
JP6960252B2 (en) Maintenance management method for image analyzers and railway equipment parts
US11657644B2 (en) Automatic ruler detection
CN113454445A (en) Compensating for reference misalignment during part inspection
Lu et al. Automatic fault detection of multiple targets in railway maintenance based on time-scale normalization
US11928805B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JP2017215220A (en) Railway vehicle appearance inspection device
WO2017071406A1 (en) Method and system for detecting pin of gold needle element
CN115471486A (en) Switch interface integrity detection method
JP6908445B2 (en) Maintenance management method for change detectors and railway equipment parts
JP7130356B2 (en) Image processing device and maintenance management method for railway equipment parts
CN107403429B (en) Method for quickly and automatically acquiring parameters of periodic sequence image model
CN107578001B (en) Method and device for testing resolution of fingerprint acquisition equipment
US10317203B2 (en) Dimension measuring apparatus and computer readable medium
CN108303640B (en) Line detection method and device
CN116258666A (en) Wafer detection Mark point positioning method and application
JP4796535B2 (en) Multi-conductor electric wire tracking method, apparatus and program by image processing, and multi-conductor electric wire abnormality detection method, apparatus and program using the same
CN113639685A (en) Displacement detection method, device, equipment and storage medium
CN115803610A (en) Image acquisition method and device and storage medium
CN112967224A (en) Electronic circuit board detection system, method and medium based on artificial intelligence
JP6734190B2 (en) Appearance inspection device for harness holding member and appearance inspection method for harness holding member
KR20200126921A (en) A method for inspecting a skeleton wafer
JP2000321038A (en) Method for detecting fault of pattern

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R150 Certificate of patent or registration of utility model

Ref document number: 6960252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150