JP7237671B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP7237671B2 JP7237671B2 JP2019048996A JP2019048996A JP7237671B2 JP 7237671 B2 JP7237671 B2 JP 7237671B2 JP 2019048996 A JP2019048996 A JP 2019048996A JP 2019048996 A JP2019048996 A JP 2019048996A JP 7237671 B2 JP7237671 B2 JP 7237671B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- damage
- captured
- wheel
- damaged area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像処理装置、および、画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.
車両の車輪踏面の損傷を検査するための検査装置として、走行中の車両に対して、車輪踏面をカメラで撮影した画像を解析し、損傷の有無を検出する検査装置が一般的に知られている。 As an inspection device for inspecting damage to the wheel tread of a vehicle, an inspection device that detects the presence or absence of damage by analyzing images of the wheel tread of a running vehicle taken by a camera is generally known. there is
特許文献1では、レールを走行する車輪の位置を検知し、車輪が通過するタイミングで、車輪に照明をあて、車両の車輪踏面を撮影した画像に基づき、車輪踏面の損傷を検査する検査装置が開示されている。この検査装置では、撮像手段で走行中車両の車輪を連続で撮影することにより、車輪踏面の全周画像を取り込み、画像処理によって損傷の有無を算出する。 In Patent Document 1, an inspection device that detects the position of a wheel traveling on a rail, illuminates the wheel at the timing when the wheel passes, and inspects damage to the wheel tread based on an image of the wheel tread of the vehicle. disclosed. In this inspection device, by continuously photographing the wheels of the running vehicle by the image pickup means, the whole circumference image of the wheel tread is captured and the presence or absence of damage is calculated by image processing.
画像処理において、まず、前記検査装置は、外部入力により車輪踏面の領域を指定し、指定された領域上に存在する損傷のある領域と、損傷のない領域の画素間の濃度差からエッジを求める。次に、上記検査装置は、それらをラベリングした領域のうち、一定値以上の大きさとなる領域を損傷として検出し、損傷部分を強調した処理画像データを表示する。 In the image processing, first, the inspection device designates the area of the wheel tread by external input, and obtains the edge from the density difference between the pixels of the damaged area and the undamaged area on the designated area. . Next, the above-described inspection apparatus detects an area having a size equal to or larger than a certain value among the labeled areas as damage, and displays processed image data emphasizing the damaged portion.
しかしながら、特許文献1で開示された方法には、以下の課題がある。 However, the method disclosed in Patent Document 1 has the following problems.
すなわち、車輪の全周画像を撮影する際、分割して撮影する必要があり、撮影画像の枚数が多くなる。例えば、鉄道の場合、1車両あたりN台の車輪があり、1つの編成にM台の車両があり、1台の車輪の車輪踏面をL分割で撮影すると、撮影画像の枚数はN×M×L枚となる(N、M、Lは自然数)。そのため、撮影された全ての画像を目視確認するには多くの時間が必要となる。 That is, when capturing an image of the entire circumference of the wheel, it is necessary to divide the image and capture the image, which increases the number of captured images. For example, in the case of a railway, each vehicle has N wheels, one trainset has M vehicles, and if the wheel tread of one wheel is photographed in L divisions, the number of photographed images is N×M×. There are L sheets (N, M, and L are natural numbers). Therefore, it takes a long time to visually check all the captured images.
本発明の一態様は、車輪の損傷が視認し易い画像データを出力することを目的とする。 An object of one aspect of the present invention is to output image data that facilitates visual recognition of wheel damage.
上記の課題を解決するために、本発明の一態様に係る画像処理装置は、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、前記一つの撮像画像に基づいて、代表画像を出力する出力部と、を備えている。 In order to solve the above problems, an image processing device according to an aspect of the present invention measures damage to wheels from a plurality of captured images continuously captured by an imaging device of treads of wheels traveling on a railroad track. a detection unit that detects a damaged area, a selection unit that selects one captured image based on the position of the damaged area in each captured image, and an output unit that outputs a representative image based on the one captured image and have.
また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、画像処理装置が、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出し、画像処理装置が、各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択し、前記一つの撮像画像に基づいて、代表画像を出力することを包含する。 Further, in order to solve the above problems, an image processing method according to an aspect of the present invention provides an image processing device, which is a plurality of captured images continuously captured by an imaging device of the tread surface of a wheel running on a railroad track. , detecting a damaged area corresponding to the damage of the wheel, an image processing device selecting one captured image based on the position of the damaged area in each captured image, and based on the one captured image, a representative Including outputting images.
本発明の一態様によれば、車輪の損傷が視認し易い画像データを出力することができる。 According to one aspect of the present invention, it is possible to output image data in which wheel damage is easily visible.
本発明の各実施形態について、図面を参照して詳細に説明する。各図面は、本発明の原理に則った具体的な実施形態を示すに過ぎない。これらは本発明の理解のために用意されたに過ぎず、本発明を限定的に解釈させるためのものではない。また、各図面に図示される各要素は、本発明の理解を深めるために誇張して記載されているので、実際の各要素の間隔および大きさとは異なる。 Each embodiment of the present invention will be described in detail with reference to the drawings. The drawings merely illustrate specific embodiments consistent with the principles of the invention. These are merely prepared for the understanding of the present invention, and are not intended to limit the interpretation of the present invention. In addition, each element illustrated in each drawing is exaggerated for better understanding of the present invention, so the actual spacing and size of each element are different.
以下の説明において、ある図面においてある要素に付された符号と同じ符号が他の図面内の同一の要素にも付されている場合、当該同一の要素の構成および機能等は当該ある要素と同一であるため、当該同一の要素についての詳細な説明を省略する。 In the following description, if the same reference numerals as those attached to an element in one drawing are also attached to the same element in other drawings, the same element has the same configuration, function, etc. Therefore, detailed description of the same elements is omitted.
〔実施形態1〕
本発明の実施形態1について、図面に基づき以下に説明する。
[Embodiment 1]
Embodiment 1 of the present invention will be described below based on the drawings.
本実施形態では、多数の撮像画像の中から代表画像を選択することにより、車輪の損傷が視認し易い画像データを出力する。このとき、車輪踏面を分割して撮影する画像に重複領域が存在する場合、同一の損傷が複数の画像に存在する可能性がある。車輪踏面は円柱の側面に相当し、車輪踏面の位置により歪みが発生するため、検出した損傷の視認性に異なりがある。したがって、同一の損傷が複数の画像に存在する場合、適切な代表画像を選択する必要がある。以下に、その選択方法について説明する。 In this embodiment, by selecting a representative image from a large number of captured images, image data in which wheel damage can be easily visually recognized is output. At this time, if there is an overlapping area in the images obtained by dividing the wheel tread, there is a possibility that the same damage is present in a plurality of images. The wheel tread corresponds to the side surface of a cylinder, and since distortion occurs depending on the position of the wheel tread, the visibility of the detected damage differs. Therefore, when the same damage exists in multiple images, it is necessary to select an appropriate representative image. The selection method will be described below.
以下では、鉄道車両の場合について説明する。 Below, the case of a railway vehicle will be described.
(装置構成)
図1は、本実施形態に係る画像データ生成装置(画像処理装置)1の構成を示す機能ブロック図である。図1に示すように、画像データ生成装置1は、損傷領域検出部(検出部)2、代表画像選択部(選択部)3、および、出力画像生成部(出力部)4を備えている。
(Device configuration)
FIG. 1 is a functional block diagram showing the configuration of an image data generation device (image processing device) 1 according to this embodiment. As shown in FIG. 1 , the image data generation device 1 includes a damaged area detection section (detection section) 2 , a representative image selection section (selection section) 3 , and an output image generation section (output section) 4 .
図1に示すように、画像データ生成装置1は、複数の撮影画像データと、カメラ配置情報を取得する。損傷領域検出部2は、各撮影画像上の車輪踏面(以下、踏面ともいう)の損傷領域を算出する。代表画像選択部3は、カメラ配置情報と、各損傷領域の位置とに基づいて、代表画像データを作成するために用いる撮影画像データを選択する。出力画像生成部4は、代表画像データを生成する。
As shown in FIG. 1, the image data generation device 1 acquires a plurality of captured image data and camera arrangement information. The damaged
詳細には、損傷領域検出部2は、線路上を走行する車輪11の踏面15をカメラ(撮像装置)12によって連続的に撮像した複数の撮像画像から、車輪11の損傷に対応する損傷領域を検出する。代表画像選択部3は、各撮像画像内における損傷領域の位置に基づいて一つの撮像画像を選択する。出力画像生成部4は、一つの撮像画像に基づいて、代表画像を出力する。上記の構成によれば、車輪11の踏面15の損傷が確認し易い画像を、代表画像としてユーザに提示することができる。
Specifically, the damaged
ここで、カメラ配置情報は、撮影対象に対する撮像手段の位置と向きの情報であり、その一例について、図面を用いて説明する。 Here, the camera arrangement information is information on the position and orientation of the imaging means with respect to the object to be photographed, and an example thereof will be described with reference to the drawings.
図2は、撮影時のカメラ12および車輪11を鉛直方向上側から見た状態を示す図である。ここで、図2は、カメラ12のある位置を原点とし、z方向が車輪11の進行方向(レール方向)であり、x方向がレール10の枕木方向(レール方向に直交する水平な方向)であるように設定した座標系である。レール10の上を移動する車輪11を、カメラ12が撮影する場合、安全性およびメンテナンスの利便性の観点から、カメラ12はレール10から一定距離だけ離して設置される。カメラ12の設置後、車輪11がカメラ12の水平画角13に含まれるように、水平方向における、カメラ12の光軸14の向きが設定される。水平方向における光軸14の向きと、z方向とのなす角度を、カメラ12の水平方向角度αとする。なお、レール10上を走行する車輪11を分割撮影する場合には、全撮影時において、車輪11が水平画角13に含まれるように、カメラ12の位置および向きを調整する。次にカメラ12の垂直方向の位置および向きを調整する。
FIG. 2 is a diagram showing a state in which the
図3は、撮影時のカメラ12および車輪11を水平方向から見た状態を示す図である。原点およびz方向は図2と同様である。y方向はレール方向および枕木方向に対し垂直方向である。ここで、例えば、カメラ12をレール10の上面に設置し、カメラ12の垂直方向の向きを上側に傾ける。垂直方向における光軸14の向きと、z方向とのなす角度を、カメラ12の垂直方向角度βとする。
FIG. 3 is a diagram showing a state in which the
最後に、カメラ12の傾き(光軸14を中心軸とする回転位置、ロール方向)を、例えば、撮影画像においてレール10が水平になるように調整する。
Finally, the inclination of the camera 12 (rotational position about the
図4は、カメラ12により撮影される画像(撮影画像)の一例を示す図である。図4に示すように、レール10上にある車輪11と、その側面である車輪踏面15とが撮影される。
FIG. 4 is a diagram showing an example of an image (captured image) captured by the
なお、撮影時に光量が足りない場合は、別途照明装置が配置されてもよい。 In addition, if the amount of light is insufficient at the time of photographing, a separate lighting device may be arranged.
車輪11を撮影する場合には、物体を検知するセンサを用いてもよい。これにより、車輪11の通過を検知して、撮影範囲内に撮影対象の車輪11が存在するタインミングで撮影することができる。例えば、レール10の側方に光電センサを配置して、カメラの画角内を車輪が横切った際、撮影を行うようにしてもよい。
When photographing the
また、車両の移動速度が高速であったり、カメラ12のフレームレートが低かったり、画角が狭かったりする場合、複数のカメラ12を設置して、車輪踏面15の全周を撮影してもよい。この場合、損傷領域の取り逃しを防止するため、または、画素分解能を確保するために、撮影される車輪踏面15が隣接する2つの撮影画像間で、車輪踏面15の同じ領域の一部が重畳するようなタイミングで撮影する。
In addition, when the moving speed of the vehicle is high, the frame rate of the
(損傷領域検出部2)
損傷領域検出部2は、車輪踏面の損傷領域を検出する。損傷領域の検出方法は、画像のエッジを利用した汎用的な方法を用いればよく、例えば。Sobelやcanny法などのエッジ検出手法を用いて車輪踏面領域内のエッジを検出し、8近傍ラベリングなどの手法を用いて、ラベリング処理を行い、ラベリングされた領域のうち、所定の大きさ以上の領域の、撮影画像上の位置と、サイズとを損傷領域として出力する。
(Damaged area detector 2)
A damaged
ここで、撮影画像から損傷領域を検出するときに、撮影画像中の車輪踏面領域を検出し、検出された車輪踏面領域において損傷領域を検出すると、誤検出を低減することができる。 Here, when detecting the damaged area from the photographed image, if the wheel tread area in the photographed image is detected and the damaged area is detected in the detected wheel tread area, erroneous detection can be reduced.
車輪踏面領域を検出するには、例えば、図5において、hough変換を用いて、レール10の上部の線16を検出する。Sobelやcanny法などのエッジ検出手法を用いて画像内のエッジを検出し、線16に接点17で接する円弧18を構成するエッジを抽出する。車輪11の進行方向側の円弧18の側面にある車輪踏面15を、周辺との輝度差を用いて抽出する。これにより、車輪踏面領域を検出することができる。なお、車輪踏面領域は、ユーザが外部から入力してもよい。
To detect the wheel tread area, for example, in FIG. 5, hough transform is used to detect the
(代表画像選択部3)
代表画像選択部3は、カメラ配置情報と、検出された損傷領域の位置とから、代表画像を選択する。代表画像選択部3は、代表画像として、カメラ12の撮像面に対して正対に近い位置に損傷が存在する画像を優先して選択する。
(Representative image selection unit 3)
A representative
詳細には、代表画像選択部3は、各撮像画像における損傷領域の位置と、踏面15における法線方向がカメラ12の光軸方向に略平行な正対位置と、の間の距離に基づいて一つの撮像画像を選択する。代表画像選択部3は、当該正対位置を特定するために、カメラ12の光軸方向を用いてもよい。換言すれば、代表画像選択部3は、カメラ12の光軸方向に少なくとも基づいて一つの撮像画像を選択してもよい。
Specifically, the representative
図6は、撮影時のカメラ12および車輪11を水平方向から見た状態を示す図である。図6は、図3と同様のカメラ配置とする。複数の位置で損傷領域が検出された場合、各損傷領域は車輪11の円周方向の位置が異なるため、代表画像選択部3は、図6に示すカメラ12の方向から見たときの損傷位置を考慮して、代表画像を選択する。したがって、代表画像選択部3は、車輪踏面15上の法線が、カメラ12の光軸14と平行となる位置を正対位置として扱う。
FIG. 6 is a diagram showing a state in which the
図6に示すように、車輪踏面15は曲線形状であり、図6における車輪踏面15の各位置の法線の方向は位置によって異なる。さらに、車輪11のレール10上の位置が変化すると、同じ垂直位置(y座標)であっても法線の方向が変化する。ここで、車輪踏面15上の法線の向きが、カメラ12の光軸14の向きと異なる度合いが大きいほど、車輪踏面15を斜めから撮影していることになるため、画像上における車輪踏面15の歪みが大きくなる。
As shown in FIG. 6, the
したがって、観察する車輪11、および、車輪踏面15の位置によって、歪みが少なく、かつ、ユーザが観察し易い、カメラ12に最も正対する画像は異なることになる。例えば、1つのカメラ12で1つの動く車輪11を複数回撮影する場合、同一のカメラ12、同一の車輪11でありながら、撮影タイミングが異なると車輪11が撮影される位置が異なるため、正対する位置は変化する。
Therefore, the image facing the
以下では、正対位置を、垂直方向のみに関する正対位置として説明する。 Hereinafter, the directly facing position will be described as the directly facing position only in the vertical direction.
図6において、垂直方向に関して、車輪11上で、カメラ12の撮像面に最も正対する位置は、接線19が、光軸14と直交する点20の位置になる。したがって、代表画像選択部3は、点20の位置に最も近い位置に損傷が映る画像を代表画像として選択する。
In FIG. 6 , the position on the
次に、点20の座標の算出方法について説明する。
Next, a method of calculating the coordinates of the
yz平面において、車輪11の輪郭を円形状であるとみなし、車輪11の外側の輪郭(車輪踏面15)は、式1で表すことができる。
In the yz plane, the contour of the
ここで、a、b、cは、それぞれ、原点から車輪11の中心までのx軸方向、y軸方向、z軸方向の距離であり、rは車輪11の半径を示す。カメラ12の高さがレール10の上面である場合、bはrと等しくなる。また、cは車輪11とレール10との接点位置と等しく、カメラ12の位置が固定である場合、撮影画像における車輪11とレール10との接点位置の座標から、カメラ12と車輪11との間の距離は一意に決まる。そのため、画像上の接点位置の座標からcの値を算出することができる。
Here, a, b, and c are the distances from the origin to the center of the
次に車輪踏面15の法線ベクトルについてyz平面で説明する。車輪11の輪郭上の点20のyz平面における位置を(p、q)とすると、その法線ベクトルは(p-b、q-c)となる。
Next, the normal vector of the
従って、カメラ12に正対する点20としては、カメラ12の光軸14のyz平面の向きと、この法線ベクトルとが平行であり、かつ、車輪11の左側の輪郭上にある点を求めればよい。
Therefore, as the
例えば、法線ベクトルと水平線とのなす角が、カメラの垂直方向の傾き角βと等しくなるような位置(p、q)を求め、カメラ座標系に変換することにより、画像上の垂直方向の正対位置を求めることができる。 For example, by obtaining a position (p, q) such that the angle between the normal vector and the horizontal line is equal to the tilt angle β in the vertical direction of the camera, and converting it into the camera coordinate system, the vertical direction on the image is The facing position can be obtained.
図7および図8は、本実施形態に係る撮影画像の一例を示す図である。図7では、カメラ12の撮像面に対して正対位置となる点20の下に損傷21が存在する。図8では、カメラ12と正対位置の点20と同じ高さに損傷21が存在する。図7の画像は、図8の画像と比べ、正対位置の点20から離れた位置に損傷21が存在し、カメラ12の撮影方向と法線方向とが異なる分だけ斜めから撮影されており、損傷21が歪んで撮影される。損傷21は何れの画像でも検出および確認することが可能だが、ユーザが目視で確認する場合には、図8の画像の方が図7の画像よりも、損傷の歪みが少なく確認し易い。そのため、代表画像選択部3は、図7の画像ではなく、図8の画像を代表画像として選択する。
7 and 8 are diagrams showing examples of captured images according to the present embodiment. In FIG. 7, there is a
図9は、カメラ12の垂直方向の角度を0にした場合の、カメラ12および車輪11を水平方向から見た状態を示す図である。このときの正対位置を示す点は点22である。
FIG. 9 is a diagram showing a state in which the
図10および図11は、このとき撮影される画像の一例を示す図である。図10および図11の損傷23の位置は、何れも正対位置である点22には存在しない。しかしながら、図10の損傷位置と図11の損傷位置とを比較すると、図10の損傷位置の方が点22に近く、より正対に近い。そのため、代表画像選択部3は、図11の画像ではなく、図10の画像を代表画像として選択する。
10 and 11 are diagrams showing examples of images captured at this time. None of the locations of
また、図12は、カメラ12の垂直方向の角度を大きくした場合の、カメラ12および車輪11を水平方向から見た状態を示す図である。このときの正対位置を示す点は、光軸14より下側にある点24である。
FIG. 12 is a diagram showing a state in which the
図13および図14は、このとき撮影される画像の一例を示す図である。図13および図14の損傷25の損傷位置は、何れも正対位置である点24には存在しない。しかしながら、図13の損傷位置と図14の損傷位置とを比較すると、図13の損傷位置の方が点24に近く、より正対に近い。そのため、代表画像選択部3は、図14の画像ではなく、図13の画像を代表画像として選択する。
13 and 14 are diagrams showing an example of an image taken at this time. None of the damage locations of the
このような方法により、代表画像を選択することができる。ここで、本実施形態では、車輪踏面15でのyz面における正対位置を、入力される、カメラ12の角度に基づいて算出したが、車輪踏面15の状態に基づいて代表画像を選択してもよい。例えば、カメラ12の位置および角度が固定であって、撮影する車輪11の位置が固定である場合、yz面における正対位置も固定になるため、最適な位置を予め算出してテーブル化しておくことで、検出された損傷の位置に基づいて代表画像を決定することができる。また、上記では、同一の損傷が2つの画像で検出された場合を説明したが、3以上の画像にも適用することができる。さらに、上記では、同一の損傷を説明したが、異なる損傷に本方法を適用することも可能である。
A representative image can be selected by such a method. Here, in the present embodiment, the facing position in the yz plane of the
選択された代表画像は、車輪踏面15の検査結果を表示するときに優先してユーザに通知することができる。すなわち、複数の撮影画像のうち1枚のみを表示したり、複数の撮影画像のうち1枚のみを拡大表示したりする場合に、視認性のよい代表画像を使用することができる。
The selected representative image can be preferentially notified to the user when the inspection result of the
(出力画像生成部4)
出力画像生成部4は、代表画像選択部3が選択した代表画像を用いて、出力画像データを生成し、出力する。このとき、代表画像上に、損傷の位置が分かる表示をした画像を生成してもよい。例えば、損傷位置周辺にマークを付けたり、損傷位置の色を変えたりした画像を生成してもよい。また、代表画像をそのまま出力してもよい。
(Output image generator 4)
The output
(全体的な処理の流れ)
図15は、本実施形態に係る画像データ生成装置1が実行する処理の一例を示すフローチャートである。ここで、画像データ生成装置1は、車輪11毎に撮影された画像の中から、代表画像を生成する。以下では、同一の車輪11を分割で撮影した複数の撮影画像に対する処理について説明する。
(Overall processing flow)
FIG. 15 is a flowchart showing an example of processing executed by the image data generation device 1 according to this embodiment. Here, the image data generation device 1 generates a representative image from images captured for each
画像データ生成装置1は、撮影画像とカメラ配置情報とを取得すると、処理を開始する。 The image data generation device 1 starts processing when the captured image and the camera arrangement information are acquired.
画像データ生成装置1において、まず、損傷領域検出部2は、撮影画像のエッジ情報を解析するなどの画像処理を行うことにより、損傷を検出する(ステップS1)。
In the image data generation device 1, first, the damaged
次に、代表画像選択部3は、検出された損傷領域の位置と、カメラ配置情報とに基づいて、垂直方向の正対位置を算出する(ステップS2)。
Next, the representative
次に、画像データ生成装置1は、取得した全ての撮影画像に対して損傷を検出する処理を終えたか否かを判定する(ステップS3)。全ての撮影画像を処理していない場合(ステップS3のNO)、画像データ生成装置1は、ステップS1の処理を再度実行する。全ての撮影画像を処理した場合(ステップS3のYES)、画像データ生成装置1は、ステップ4の判定を実行する。 Next, the image data generation device 1 determines whether or not processing for detecting damage has been completed for all the captured images (step S3). If all the captured images have not been processed (NO in step S3), the image data generation device 1 executes the process of step S1 again. When all the captured images have been processed (YES in step S3), the image data generating device 1 executes the determination in step S4.
ステップS4において、損傷領域検出部2は、対象とする車輪11の全ての撮影画像に対して、損傷画像の有無を判定する。ここで、損傷画像とは、損傷が検出された撮影画像を示す。損傷がある場合(ステップS4のYES)、ステップS5の処理を実行する。損傷がない場合(ステップS4のNO)、ステップS6の処理を実行する。
In step S<b>4 , the damaged
ステップS5において、代表画像選択部3は、損傷位置および正対位置の情報に基づいて、最も正対位置に近い位置に損傷が存在する損傷画像を代表画像として選択する。
In step S5, the representative
ステップS6において、代表画像選択部3は、所定の画像を代表画像として選択する。所定の画像は、例えば、対象車輪の撮影時刻が最も前の撮影画像としてもよいし、ユーザが指定した撮影画像としてもよい。
In step S6, the representative
出力画像生成部4は、ステップS5またはS6で選択された代表画像を用いて出力画像データを生成し、出力し、処理を終了する(ステップS7)。
The output
ここで、ステップS5について図面を用いて詳細に説明する。 Here, step S5 will be described in detail with reference to the drawings.
図16は、図15のステップS5の処理の詳細を示すフローチャートである。 FIG. 16 is a flow chart showing details of the processing in step S5 of FIG.
まず、代表画像選択部3は、第2の所定の画像を代表画像として設定する(ステップS100)。ここで、第2の所定の画像は、例えば、撮影時刻が最も前の損傷画像としてもよい。
First, the representative
次に、代表画像選択部3は、現在の損傷画像の損傷位置が、代表画像の損傷位置よりも正対位置に近いか否かを判定する(ステップS101)。
Next, the representative
このとき、1枚の損傷画像に複数種類の損傷が検出された場合には、最も大きいサイズの損傷の位置を損傷位置として判定に用いてもよい。このときのサイズは損傷の実寸とする。損傷のサイズは、撮影画像上のレール10上の車輪11の位置と、車輪踏面15上の位置とに応じた、シミュレーションまたは実測に基づいて、予め設定した車輪踏面15上の画素分解能を適用することにより求めることができる。
At this time, if multiple types of damage are detected in one damage image, the position of the damage with the largest size may be used for determination as the damage position. The size at this time shall be the actual size of the damage. The size of the damage is based on simulation or actual measurement according to the position of the
このようにして、出力画像生成部4は、最も大きいサイズの損傷の映る画像を代表画像として生成することによって、損傷の程度がより大きく、かつ歪のより少ない損傷が存在する画像を代表画像として出力する。これにより、ユーザは、適切に車輪踏面15の状態を把握することができる。
In this way, the output
現在の損傷画像の損傷位置が、代表画像の損傷位置よりも正対位置に近い場合(ステップS101のYES)、代表画像選択部3は、現在の損傷画像を代表画像として選択する(ステップS102)。現在の損傷画像の損傷位置が、代表画像の損傷位置よりも正対位置に近くない場合(ステップS101のNO)、代表画像選択部3は、ステップS102の処理をスキップする。
If the damage position of the current damage image is closer to the facing position than the damage position of the representative image (YES in step S101), the representative
次に、代表画像選択部3は、検出した全ての損傷画像に対して処理を行ったか否かを判定する(ステップS103)。全ての損傷画像に対して処理を行った場合(ステップS103のYES)、処理を終了する。全ての損傷画像に対して処理を行っていない場合(ステップS103のNO)、ステップS101に戻る。
Next, the representative
上述した本実施形態に係る画像データ生成装置1によれば、カメラ12の撮像面に対して垂直方向で最も正対となる位置に近い画像を代表画像として生成する。これにより、歪みが少ない損傷画像を代表画像として選択して生成するため、ユーザは損傷の状態を確認し易くなる。
According to the image data generation device 1 according to the present embodiment described above, an image closest to the position that is most directly facing the imaging surface of the
また、ステップS101では、代表画像選択部3が、損傷の位置および正対位置に基づき、代表画像を選択したが、損傷のサイズや、明るさも参照し、代表画像を選択してもよい。すなわち、代表画像選択部3は、損傷領域の大きさに基づいて一つの撮像画像を選択してもよいし、損傷領域の画素値に基づいて一つの撮像画像を選択してもよい。
Further, in step S101, the representative
例えば、各損傷画像の損傷が同じ大きさであり、かつ損傷の位置と正対位置との間に距離が等しい場合、損傷の明るさが大きい損傷の損傷位置を判定に用いてもよい。一般的に、車輪踏面15の損傷は、光の反射率が大きく、明るく撮影される。特にカメラ12および照明を同方向に配置した場合等では、損傷部分は、他の領域と比べ、明るく撮影される。このようにして、大きく、かつ明るい損傷画像を代表画像として生成することによって、ユーザは車輪踏面15の損傷の状態をより正確に把握することができる。
For example, if the damage in each damage image has the same size and the distance between the position of the damage and the directly facing position is the same, the damage position of the damage with the greater brightness of the damage may be used for determination. In general, damage to the
別の一例として、損傷位置と正対位置との間の距離と、損傷の大きさと、明るさとをパラメータとし、損傷位置と正対位置との間の距離が小さい程、損傷の大きさが大きい程、損傷の明るさが明るい程、値が大きくなる評価値を算出し、評価値が最も大きい損傷の位置を判定に用いても構わない。このようにして、歪と、大きさと、明るさとの3つの要素を総合的に判断して、代表画像として生成することによって、ユーザは車輪踏面15の損傷の状態をより正確に把握することができる。また、評価値を算出する際、各パメータに異なる重みづけをしても構わず、この場合、ユーザが重要視するパラメータに合わせた、代表画像の選択が可能となる。
As another example, the distance between the damaged position and the directly facing position, the size of the damage, and the brightness are parameters, and the smaller the distance between the damaged position and the directly facing position, the larger the damage. It is also possible to calculate an evaluation value in which the value increases as the brightness of the damage increases, and the position of the damage with the highest evaluation value may be used for determination. In this way, by comprehensively judging the three elements of distortion, size, and brightness and generating a representative image, the user can more accurately grasp the state of damage to the
また、ステップS4で述べた損傷画像を抽出する処理において、抽出する損傷に制約条件を設けても構わない。 Further, in the process of extracting the damage image described in step S4, a constraint condition may be set for the damage to be extracted.
例えば、損傷が所定領域にある損傷画像のみを用いても構わない。このときの所定領域について図面を用いて説明する。所定領域は、検査装置が検査の対象とする車輪踏面範囲であり、画素分解能や周辺部品による遮蔽により決定される。例えば、カメラの撮影方向と、車輪踏面の法線方向の差が大きくなると、車輪踏面を斜めから撮影することになるため、正対して撮影する場合より画素分解能が低下する。そのため、所望の画素分解能以上の検査をする場合、ある一枚の撮影画像において、所望の画素分解能以上となる領域を所定領域に設定し、それ以外の領域の車輪踏面は、車輪が回転して他の位置で撮影された別の画像を検査対象とする。 For example, it is possible to use only damage images in which the damage is in a predetermined area. The predetermined area at this time will be described with reference to the drawings. The predetermined area is a wheel tread range to be inspected by the inspection device, and is determined by pixel resolution and shielding by peripheral parts. For example, when the difference between the imaging direction of the camera and the normal direction of the wheel tread becomes large, the wheel tread is photographed obliquely, resulting in lower pixel resolution than in the case of direct imaging. Therefore, when performing an inspection with a desired pixel resolution or higher, an area having a desired pixel resolution or higher in a certain photographed image is set as a predetermined area, and the wheel tread of the other area is changed as the wheel rotates. Another image taken at another position is to be inspected.
このとき、代表画像選択部3は、同一の損傷に対応する損傷領域の位置に基づいて一つの撮像画像を選択してもよい。すなわち、隣接する車輪11の踏面15の撮影画像で所定領域が重複する場合、複数の画像で同一の損傷領域が検出される可能性がある。従って、代表画像選択部3は、重複する領域にある損傷の位置やサイズから同一の損傷であるかを判定し、同一の場合は、その位置がより正対に近い位置にあるものを代表画像の候補にしておいてもよい。
At this time, the representative
これにより、各撮影画像で同一の損傷がある場合には、より歪の少ない正対に近い位置の画像が選択されるため、ユーザは損傷形状を正しく把握することができる。車輪11の撮影位置が決まっている場合、重複する領域があるとき、何れの領域がより正対であるかが一意に決まるため、判定に関する処理量の削減も可能である。
As a result, when the same damage is present in each photographed image, an image at a position closer to the front with less distortion is selected, so that the user can correctly grasp the shape of the damage. When the photographing position of the
また、車輪11の周辺に部品が存在すると、車輪踏面15が遮蔽されて画像で確認できない場合がある。そこで、遮蔽領域を除く車輪踏面15を所定領域とすることで、適切な損傷検出処理が可能となる。つまり、部品領域での損傷の誤検出を低減し、部品領域の損傷検出処理分だけ処理量を低減することができる。
Also, if there are parts around the
図17および図18は、所定領域を説明するための図である。例えば、図17において、所望の画素分解能となる領域26が所定領域として設定される。また、周辺部品28により、車輪踏面15の領域の上部が遮蔽により見えなくなる場合では、図18に示すように、周辺部品28で遮蔽された領域を除外した領域29が、所定領域として設定される。この場合、周辺部品28の位置および大きさは予め取得されているものとする。そして、所定領域内で、正対位置に最も近い位置に損傷のある損傷画像が代表画像として選択される。ここで、損傷位置は、例えば検出した損傷の領域の外接矩形の中心座標としてもよいし、外接矩形の境界の上下左右のいずれかの座標や、検出した損傷の領域から算出した損傷領域の重心の座標としてもよい。
17 and 18 are diagrams for explaining the predetermined area. For example, in FIG. 17, an
図19は、損傷が所定領域にある損傷画像から代表画像を選択する際に、画像データ生成装置1が実行する処理の一例を示すフローチャートである。このフローチャートは、図15のフローチャートに対し、ステップS4の代わりに、ステップS110を挿入したものであり、ステップS110以外は同様の処理内容となるため、ステップS110のみを説明する。 FIG. 19 is a flowchart showing an example of processing executed by the image data generation device 1 when selecting a representative image from damage images in which damage is in a predetermined area. This flowchart is obtained by inserting step S110 instead of step S4 in the flowchart of FIG.
ステップS110において、代表画像選択部3は、損傷のある撮影画像のうち、損傷が所定領域にある画像を、損傷画像として選択する。ステップS5以降において、代表画像選択部3は、ステップS110で選択された損傷画像を用いて、同様に代表画像を選択する。
In step S110, the representative
以上のように、所望の分解能を満たさない領域に損傷がある画像や、周辺部品による遮蔽領域に損傷がある画像を除外して代表画像を生成する。これにより、所望の分解能を有し車輪踏面15が視認し易い画像を代表画像として選択することができる。特に周辺部品による遮蔽領域を考慮した領域を用いることで、周辺部品の有無にかかわらず、同じ位置に損傷が表示されるため、異なる車輪の損傷の度合いを比較する場合になお有用である。
As described above, a representative image is generated by excluding an image in which an area that does not satisfy the desired resolution and an image in which an area blocked by peripheral components is damaged. As a result, an image that has a desired resolution and allows easy visual recognition of the
なお、本実施形態に係る画像データ生成装置1は、外部の、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイなどの表示装置や、フラッシュメモリ、ハードディスクなどの記憶装置に接続することができる。これにより、画像データ生成装置1で生成した画像データを、表示装置に表示したり、画像データファイルとして記憶媒体に記憶したり、記憶媒体に記憶された画像を読み込んで、表示装置に表示したりすることができる。 The image data generation device 1 according to the present embodiment can be connected to an external display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display, or to a storage device such as a flash memory or a hard disk. can. As a result, the image data generated by the image data generation device 1 can be displayed on a display device, stored in a storage medium as an image data file, or read from an image stored in the storage medium and displayed on a display device. can do.
本実施形態の各処理は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)によるソフトウェア処理、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)によるハードウェア処理によって実現することができる。 Each process of the present embodiment can be realized by software processing by CPU (Central Processing Unit) or GPU (Graphics Processing Unit), and hardware processing by ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). .
また、本実施の形態で説明した機能を実現する方法は、プログラムとして提供することもできる。プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませたり、インターネットからダウンロードしたりして実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 A method for realizing the functions described in this embodiment can also be provided as a program. A program may be recorded in a computer-readable recording medium, and the program recorded in the recording medium may be loaded into a computer system or downloaded from the Internet and executed to perform the processing of each unit. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices.
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。 The "computer system" also includes the home page providing environment (or display environment) if the WWW system is used.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.
〔実施形態2〕
本発明の実施形態2について説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
A second embodiment of the present invention will be described. For convenience of description, members having the same functions as the members described in the first embodiment are denoted by the same reference numerals, and description thereof will not be repeated.
移動する車輪踏面を分割で連続撮影する際、最も近い時刻に撮影された2枚の撮影画像において、損傷が大きい場合、各撮影画像の踏面の上端または下端に損傷の一部がかかり、かつ、いずれの撮影画像にも損傷の一部しか映らない可能性がある。この場合について図面を用いて説明する。 When continuously photographing a moving wheel tread, if the damage is large in the two shot images taken at the nearest time, part of the damage is applied to the upper end or the lower end of the tread in each photographed image, and Any captured image may show only a portion of the damage. This case will be described with reference to the drawings.
図20及び図21は、走行中の鉄道車両の車輪踏面102を連続で撮影した画像の一例を示す図である。このとき、車両は右から左に移動しているものとする。図20に示すように、周辺部品103は、車輪上部のカバーである。周辺部品104は、ブレーキである。レール100上にある車輪101の車輪踏面102は、周辺部品104に遮蔽される。なお、車輪踏面102上の、点線105より下側、かつ、点線106より上側の領域は別の撮影画像と重複しない領域とする。図20では、損傷107は、上側に存在し、その一部が周辺部品104により遮蔽されている。一方、図21では、車輪101は左側に移動しており、損傷107の一部が、レール100で遮蔽されている。
20 and 21 are diagrams showing an example of images of the
このような遮蔽される位置の違いに加え、損傷の踏面上の垂直方向の位置が異なることでカメラ12の撮像面に対する正対の度合いも異なり、その度合いに応じた歪が発生するため、同じ損傷であっても状態が異なって撮影される。このような場合、提示可能な複数の撮影画像が存在するが、ユーザが損傷の状態を確認し易い適切な画像を提示する必要がある。
In addition to such a difference in shielded position, the vertical position on the tread surface of the damage is different, so the degree of facing the
そこで、本実施形態に係る画像データ生成装置(画像処理装置)108では、各撮影画像にまたがる損傷画像の有無を検出し、そのような画像が存在した場合に、車輪踏面上の損傷位置に基づき、より歪の少ない画像を選定し、ユーザに提示する。例えば、重複しない領域の長さだけ車輪踏面102が移動する毎に撮影する。さらに、同時に、一つの車輪に対する全撮影画像を用いて、一枚の踏面の全周画像を合成して、ユーザに提示する。これにより、ユーザは車輪踏面全体の状態を把握することができる。
Therefore, the image data generation device (image processing device) 108 according to the present embodiment detects whether or not there is a damage image that extends over each photographed image, and if such an image exists, based on the damage position on the wheel tread, , an image with less distortion is selected and presented to the user. For example, an image is taken each time the
(装置構成)
図22は、本実施形態に係る画像データ生成装置108の構成を示す機能ブロック図である。本実施形態に係る画像データ生成装置108は、損傷領域検出部2、全周画像生成部(生成部)109、代表画像選択部(入力部、選択部)110、および、出力画像生成部4を備えている。損傷領域検出部2および出力画像生成部4は、画像データ生成装置1と同様の構成であるため、その説明は省略し、全周画像生成部109および代表画像選択部110について、以下に説明する。
(Device configuration)
FIG. 22 is a functional block diagram showing the configuration of the image
(全周画像生成部109)
本実施形態に係る全周画像生成部109は、各撮影画像の車輪踏面の領域の歪を補正して、車輪踏面の全周画像を生成する処理を行う。すなわち、全周画像生成部109は、複数の撮像画像を合成して踏面の全周画像を生成する。そして、全周画像生成部109は、各撮像画像内における損傷領域の位置に基づいて選択した1以上の撮像画像を優先的に合成する。
(Circumference image generator 109)
The omnidirectional
図23は、車輪踏面領域の歪を補正した画像の例を示す図である。図23の(a)は、図21の撮影画像の車輪踏面の歪を補正した画像を示す。図23の(b)は、図21の撮影画像の車輪踏面の歪を補正した平面画像を示す。 FIG. 23 is a diagram showing an example of an image in which the distortion of the wheel tread area is corrected. FIG. 23(a) shows an image obtained by correcting the distortion of the wheel tread of the photographed image of FIG. FIG. 23(b) shows a planar image obtained by correcting the distortion of the wheel tread in the photographed image of FIG.
このときの平面画像について説明する。カメラ12が固定であり、車輪の大きさが決まっている場合、撮影画像におけるレール上の車輪位置から幾何学的に踏面の3次元位置が求まり、その情報に基づき、車輪踏面の領域の歪を補正して平面に展開する。展開した平面画像において、水平方向は車輪の幅に相当し、垂直方向は未重複領域の縦方向の長さに相当する。このときの歪補正の方法は、汎用的な手法であってもよい。例えば、誤差が小さい場合には、簡易的に、画像上で検出された踏面領域を単純に平面画像に展開する方法であってもよい。
A planar image at this time will be described. When the
ここで、図23の(a)の領域111と、図23の(b)の領域112が、他の撮影画像と重複しない未重複領域であり、図23の(a)の領域113と、図23の(b)の領域114が重複領域となる。
Here, an
通常の場合、全周画像生成部109は、それぞれの未重複領域を合成して、図24の(a)に示すような合成画像を生成する。しかし、重複領域が発生する場合に、全周画像生成部109は、図24の(b)に示すように、損傷の位置が正対位置により近い画像の重複領域113を用いて合成する。このように、損傷が隣接する撮影画像に映り込み、重複する領域がある場合に、全周画像生成部109は、より正対位置に近い画像を優先的に合成する。これによって、分解能が高く、かつ歪の少ない損傷の合成画像を生成することができる。また、上記では、正対位置に近いか否かの判定を損傷単位で行ったが、重複領域の画素毎に判定してもよい。これにより、より分解能が高く、かつ歪の少ない損傷の合成画像を生成することができる。
In a normal case, the
次に、全周画像生成部109は、全撮影画像に対して、同様の合成処理を行い、図25に示すような車輪踏面の全周画像を生成する。ここで、全周画像115上に、損傷107および損傷116の2つの損傷が存在している。なお、全周画像を合成する際、各撮影画像で重複する領域に対しては、両方の画像を所定の比率でブレンディングして作成してもよい。このとき正対位置に近い方の画像の比率を、他方より大きくしてもよく、また、双方の画像の同一の損傷の形状が大きく異なる場合には、正対位置に近い方の画像の合成比率をさらに上げてもよい。
Next, the omnidirectional
(代表画像選択部110)
本実施形態に係る代表画像選択部110は、全周画像上の指定領域の入力を受け付ける。そして、代表画像選択部110は、指定領域を含む撮像画像から、一つの撮像画像を選択する。
(Representative image selection unit 110)
The representative
すなわち、代表画像選択部110は、ユーザに車輪踏面の全周画像を提示し、ユーザが指定する指定領域の入力を受け付け、指定領域が、カメラに対して正対位置となる撮影画像を用いて代表画像を選択する。
That is, the representative
以下に、このときの処理について説明する。 The processing at this time will be described below.
(全体的な処理の流れ)
図26は、本実施形態に係る画像データ生成装置108が実行する処理の一例を示すフローチャートである。図26のフローチャートは、図15のフローチャートに対して、ステップS3の後に、ステップS300からステップS303が追加された内容であるため、追加されたステップについて説明する。
(Overall processing flow)
FIG. 26 is a flowchart showing an example of processing executed by the image
全周画像生成部109は、隣接する損傷画像の組み合わせに関して、同一の損傷が存在するか否かを判定する(ステップS300)。
The omnidirectional
同一の損傷が存在する場合(ステップS300のYES)、図24の(b)に示すように、全周画像生成部109は、損傷が正対位置に近い方にある画像は重複領域を含めた領域を、損傷が正対位置に近い方にない画像は、前記重複領域を除いた領域が合成されるように、合成位置を設定する(ステップS301)。 If the same damage exists (YES in step S300), as shown in FIG. For an image in which the damage is not located closer to the directly facing position, the composition position is set so that the region excluding the overlapping region is composited (step S301).
同一の損傷が存在しない場合(ステップS300のNO)、図24の(a)で示したように、全周画像生成部109は、それぞれの未重複領域が合成されるように、合成位置を設定する(ステップS302)。 If the same damage does not exist (NO in step S300), as shown in (a) of FIG. (step S302).
そして、全周画像生成部109は、全ての合成位置を求めたか否かを判定する(ステップS303)。
Then, the omnidirectional
全ての合成位置を求めた場合(ステップS303のYES)、全周画像生成部109は、合成位置を用いて各撮影画像を切り出し、それらを平面画像に展開し、それらを撮影順に並べて全周画像を生成する(ステップS304)。同一の損傷が存在しない場合(ステップS300のNO)、全周画像生成部109は、ステップS300の判定に戻る。
When all the combining positions have been obtained (YES in step S303), the omnidirectional
次に、代表画像選択部110は、ユーザの指定する領域の入力を受け付け、ユーザ指定領域がカメラの正対位置に最も近い撮影画像データを用いて代表画像を生成する(ステップS305)。そして、処理を終了する。
Next, the representative
このときの代表画像選択部110の処理の詳細について図面を用いて説明する。図27は、図26のステップS305の処理の詳細を示すフローチャートである。
Details of the processing of the representative
代表画像選択部110は、全周画像生成部109で生成した車輪踏面の全周画像をユーザに提示し、ユーザの表示したい指定領域の外部入力を受け付ける(ステップS306)。例えば、ユーザはマウス、フリック等の外部入力を通じて、提示された画像のうち、表示したい領域を指定する。なお、全周画像の提示には、画像データ生成装置108に内蔵された、または、外付けされた液晶ディスプレイ等の、画像を表示できるデバイスを用いることができる。
The representative
次に、代表画像選択部110は、損傷領域検出部2が算出した、損傷検出の結果を参照して、ユーザの指定領域における損傷が存在するか否かを判定する(ステップS307)。指定領域に損傷が存在する場合(ステップS307のYES)、代表画像選択部110は、その損傷が最も正対位置に近い画像を用いて代表画像を生成する(ステップS308)。指定領域に損傷が存在しない場合(ステップS307のNO)、代表画像選択部110は、損傷の代わりに指定領域が最も正対な位置にある画像を用いて代表画像を生成する(ステップS309)。そして、処理を終了する。
Next, the representative
このように、最も歪が少なくなるようにして作成した車輪踏面の全周画像に基づき、ユーザが注目する損傷の位置を指定し、指定された損傷の位置が最も正対に近い位置の撮影画像を用いて代表画像を生成することによって、ユーザは車輪踏面の注目する領域の状態を正確に把握することができる。 In this way, based on the omnidirectional image of the wheel tread created so as to minimize distortion, the user designates the position of the damage to be focused on, and the photographed image of the position closest to the designated damage position is displayed. By generating a representative image using , the user can accurately grasp the state of the focused area of the wheel tread.
また、車輪踏面の全周画像を提示するため、ユーザは車輪踏面の全領域における損傷の状態を把握することができる。特に、車輪踏面の全領域に複数の損傷がある場合では、車輪全体における損傷の割合や、各損傷の位置関係を把握することができる。 In addition, since a full-circumference image of the wheel tread is presented, the user can grasp the state of damage in the entire area of the wheel tread. In particular, when there are multiple damages in the entire area of the wheel tread, it is possible to grasp the ratio of damages in the entire wheel and the positional relationship of each damage.
また、撮影タイミングが遅れたり、車両の走行速度が想定より速かったりしたなどの理由により、本来と異なるタイミングで撮影してしまう場合がある。このような場合、全周画像生成部109で車輪踏面の全周画像を生成時に、撮影画像の車輪位置と、予め想定した撮影タイミングにおける車輪の位置比較し、そのずれ幅を車輪踏面の値に換算し、予め設定していた撮影画像の未重複領域をずらすことにより調整して生成すればよい。なお、撮影タイミングが遅すぎたり、撮影できなかったりした場合では、いずれの撮影画像にも映らない領域が発生した場合は、全周画像上で、撮影ミスで有ることを示す別の画像として、例えば黒塗りの画像等を用いて、全周画像を生成してもよい。これにより、撮影ミスなどで全周画像が撮影できなかった場合、ユーザは、車輪踏面上で撮影された領域とそうでない領域を把握することができ、例えば、撮影できなかった領域のサイズが、所定のサイズよりも小さい場合では、損傷の判定に特に影響が無いと判断してもよい。
In addition, there are cases where the image is captured at a timing different from the original due to reasons such as the timing of the image being captured being delayed or the traveling speed of the vehicle being faster than expected. In such a case, when the omnidirectional
また、ユーザは撮影画像を直接指定し、その指定に基づき、代表画像選択部110は、代表画像を生成しても構わない。このとき、代表画像に対応する領域を強調表示した全周画像を同時に生成しても構わない。これにより、現在表示されている撮影画像が、車輪踏面上のどの傷であるのか、ユーザは正確に把握することができる。
Alternatively, the user may directly specify the captured image, and the representative
また、全周画像生成部109で生成する全周画像を提示する際は、全周のうちの所定の範囲の画像でも構わない。例えば、全周画像の短辺方向に分割し、分割した画像を上下に並べて提示しても構わない。これにより、ディスプレイの表示エリアの形状に合わせた表示ができ、全周画像のサイズを大きくして見ることが可能となる。
Further, when presenting the omnidirectional image generated by the omnidirectional
図28は、本実施形態に係る出力画面の一例を示す図である。出力画面の右側には、代表画像が表示される。出力画面の左側には複数の撮影画像が表示される。代表画像は、複数の撮影画像から選択された画像である。 FIG. 28 is a diagram showing an example of an output screen according to this embodiment. A representative image is displayed on the right side of the output screen. A plurality of captured images are displayed on the left side of the output screen. A representative image is an image selected from a plurality of captured images.
〔ソフトウェアによる実現例〕
画像データ生成装置1、108の制御ブロック(損傷領域検出部2、代表画像選択部3、出力画像生成部4、全周画像生成部109、代表画像選択部110)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control blocks of the image data generation devices 1 and 108 (damaged
後者の場合、画像データ生成装置1、108は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the image
〔まとめ〕
本発明の態様1に係る画像処理装置は、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、前記一つの撮像画像に基づいて、代表画像を出力する出力部と、を備えている。
〔summary〕
An image processing device according to aspect 1 of the present invention includes a detection unit that detects a damaged area corresponding to damage to the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track; , a selection unit that selects one captured image based on the position of the damaged area in each captured image, and an output unit that outputs a representative image based on the one captured image.
上記の構成によれば、各撮像画像内における損傷領域の位置に基づいて、損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the position of the damaged area in each picked-up image, it is possible to output image data that makes it easy to visually recognize the damage of the wheel.
本発明の態様2に係る画像処理装置は、前記態様1において、前記選択部が、前記損傷領域の位置と、前記踏面における法線方向が前記撮像装置の光軸方向に略平行な正対位置と、の間の距離に基づいて前記一つの撮像画像を選択することとしてもよい。
The image processing apparatus according to
上記の構成によれば、踏面における撮像装置の正対位置との距離に基づいて、損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the distance from the position directly facing the imaging device on the tread, it is possible to output image data that makes it easy to visually recognize the damage to the wheel.
本発明の態様3に係る画像処理装置は、前記態様1または2において、前記選択部が、前記撮像装置の光軸方向に基づいて前記一つの撮像画像を選択することとしてもよい。
In the image processing apparatus according to
上記の構成によれば、撮像装置の光軸方向に基づいて損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the optical axis direction of the imaging device, it is possible to output image data that makes it easy to visually recognize the damage of the wheel.
本発明の態様4に係る画像処理装置は、前記態様1~3において、前記選択部が、前記損傷領域の大きさにさらに基づいて前記一つの撮像画像を選択することとしてもよい。
In the image processing apparatus according to
上記の構成によれば、損傷領域の大きさにさらに基づいて損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected further based on the size of the damaged area, it is possible to output image data that makes it easy to visually recognize the damage of the wheel.
本発明の態様5に係る画像処理装置は、前記態様1~4において、前記選択部が、前記損傷領域の画素値にさらに基づいて前記一つの撮像画像を選択することとしてもよい。 In the image processing apparatus according to aspect 5 of the present invention, in any one of aspects 1 to 4, the selection unit may select the one captured image further based on pixel values of the damaged area.
上記の構成によれば、損傷領域の画素値にさらに基づいて損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected further based on the pixel values of the damaged area, it is possible to output image data in which the damage of the wheel is easy to visually recognize.
本発明の態様6に係る画像処理装置は、前記態様1~5において、前記選択部が、同一の損傷に対応する損傷領域の位置に基づいて前記一つの撮像画像を選択することとしてもよい。 In the image processing apparatus according to aspect 6 of the present invention, in the aspects 1 to 5, the selection unit may select the one captured image based on the position of the damaged area corresponding to the same damage.
上記の構成によれば、同一の損傷に対応する損傷領域の位置に基づいて損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the position of the damaged area corresponding to the same damage, it is possible to output image data in which the wheel damage is easily visible.
本発明の態様7に係る画像処理装置は、前記態様1~6において、前記複数の撮像画像を合成して前記踏面の全周画像を生成する生成部をさらに備え、前記生成部が、各撮像画像内における前記損傷領域の位置に基づいて選択した1以上の撮像画像を優先的に合成することとしてもよい。 An image processing apparatus according to aspect 7 of the present invention is, in the aspects 1 to 6, further comprising a generation unit that synthesizes the plurality of captured images to generate an all-around image of the tread, wherein the generation unit includes each of the captured images. One or more captured images selected based on the position of the damaged area within the image may be preferentially combined.
上記の構成によれば、車輪の踏面の全周を含む、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, it is possible to output image data including the entire circumference of the tread surface of the wheel so that the damage to the wheel can be easily visually recognized.
本発明の態様8に係る画像処理装置は、前記態様7において、前記全周画像上の指定領域の入力を受け付ける入力部をさらに備え、前記選択部が、前記指定領域を含む撮像画像から、前記一つの撮像画像を選択することとしてもよい。 An image processing apparatus according to aspect 8 of the present invention, in aspect 7, further includes an input unit that receives an input of a specified region on the omnidirectional image, wherein the selection unit selects the It is also possible to select one captured image.
上記の構成によれば、ユーザの指定領域に応じて、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, it is possible to output image data in which the wheel damage is easily visible according to the user-specified region.
本発明の態様9に係る画像処理方法は、画像処理装置が、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出し、画像処理装置が、各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択し、前記一つの撮像画像に基づいて、代表画像を出力することを包含する。 In the image processing method according to aspect 9 of the present invention, the image processing device detects a damaged region corresponding to the damage to the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of a wheel running on a railroad track. detecting, an image processing device selecting one captured image based on the position of the damaged area in each captured image, and outputting a representative image based on the one captured image.
上記の構成によれば、各撮像画像内における損傷領域の位置に基づいて、損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the position of the damaged area in each picked-up image, it is possible to output image data that makes it easy to visually recognize the damage of the wheel.
本発明の各態様に係る画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記画像処理装置が備える各部(ソフトウェア要素)として動作させることにより上記画像処理装置をコンピュータにて実現させる画像処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The image processing apparatus according to each aspect of the present invention may be implemented by a computer. In this case, the image processing apparatus is implemented by the computer by operating the computer as each part (software element) included in the image processing apparatus. A control program for an image processing apparatus realized by a computer and a computer-readable recording medium recording the program are also included in the scope of the present invention.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.
1、108 画像データ生成装置(画像処理装置)
2 損傷領域検出部(検出部)
3 代表画像選択部(選択部)
4 出力画像生成部(出力部)
109 全周画像生成部(生成部)
110 代表画像選択部(入力部、選択部)
1, 108 image data generation device (image processing device)
2 Damaged area detection unit (detection unit)
3 Representative image selection section (selection section)
4 Output image generator (output unit)
109 Circumference image generation unit (generation unit)
110 representative image selection unit (input unit, selection unit)
Claims (9)
各撮像画像内における前記損傷領域の位置ならびに前記車輪に対する前記撮像装置の位置および向きの情報に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備えていることを特徴とする画像処理装置。 A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image and information on the position and orientation of the imaging device with respect to the wheel ;
an output unit that outputs a representative image based on the one captured image;
An image processing device comprising:
各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備え、
前記選択部は、前記損傷領域の位置と、前記踏面における法線方向が前記撮像装置の光軸方向に略平行な正対位置と、の間の距離に基づいて前記一つの撮像画像を選択することを特徴とする画像処理装置。 A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image;
an output unit that outputs a representative image based on the one captured image;
with
The selection unit selects the one captured image based on the distance between the position of the damaged area and a directly facing position where the normal direction of the tread surface is substantially parallel to the optical axis direction of the imaging device. An image processing apparatus characterized by:
各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備え、
前記選択部は、前記撮像装置の光軸方向に基づいて前記一つの撮像画像を選択することを特徴とする画像処理装置。 A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image;
an output unit that outputs a representative image based on the one captured image;
with
The image processing device, wherein the selection unit selects the one captured image based on an optical axis direction of the imaging device.
各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備え、
前記選択部は、同一の損傷に対応する損傷領域の位置に基づいて前記一つの撮像画像を選択することを特徴とする画像処理装置。 A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image;
an output unit that outputs a representative image based on the one captured image;
with
The image processing device, wherein the selection unit selects the one captured image based on a position of a damaged area corresponding to the same damage.
各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備え、
前記複数の撮像画像を合成して前記踏面の全周画像を生成する生成部をさらに備え、
前記生成部は、各撮像画像内における前記損傷領域の位置に基づいて選択した1以上の撮像画像を優先的に合成することを特徴とする画像処理装置。 A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image;
an output unit that outputs a representative image based on the one captured image;
with
further comprising a generation unit that synthesizes the plurality of captured images to generate an all-around image of the tread,
The image processing apparatus, wherein the generation unit preferentially synthesizes one or more captured images selected based on the position of the damaged area in each captured image.
前記選択部は、前記指定領域を含む撮像画像から、前記一つの撮像画像を選択することを特徴とする請求項7に記載の画像処理装置。 further comprising an input unit that receives input of a specified area on the omnidirectional image,
8. The image processing apparatus according to claim 7, wherein the selection unit selects the one captured image from captured images including the designated area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019048996A JP7237671B2 (en) | 2019-03-15 | 2019-03-15 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019048996A JP7237671B2 (en) | 2019-03-15 | 2019-03-15 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020148744A JP2020148744A (en) | 2020-09-17 |
JP7237671B2 true JP7237671B2 (en) | 2023-03-13 |
Family
ID=72429586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019048996A Active JP7237671B2 (en) | 2019-03-15 | 2019-03-15 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7237671B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011053059A (en) | 2009-09-01 | 2011-03-17 | Hitachi Ltd | Vehicle inspection apparatus |
JP2011053058A (en) | 2009-09-01 | 2011-03-17 | Hitachi Ltd | Vehicle inspection device |
JP2015179041A (en) | 2014-03-19 | 2015-10-08 | 東芝トランスポートエンジニアリング株式会社 | Wheel shape measuring device and wheel shape measuring method |
CN106124521A (en) | 2016-08-31 | 2016-11-16 | 成都铁安科技有限责任公司 | A kind of Railway wheelset detection device and method |
CN107180416A (en) | 2017-05-17 | 2017-09-19 | 石家庄铁道大学 | Train wheel tread image deformity correction method and system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05126686A (en) * | 1991-11-08 | 1993-05-21 | Railway Technical Res Inst | Vehicle inspecting device |
JP3219358B2 (en) * | 1993-11-01 | 2001-10-15 | 東日本旅客鉄道株式会社 | Wheel tread defect inspection system |
-
2019
- 2019-03-15 JP JP2019048996A patent/JP7237671B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011053059A (en) | 2009-09-01 | 2011-03-17 | Hitachi Ltd | Vehicle inspection apparatus |
JP2011053058A (en) | 2009-09-01 | 2011-03-17 | Hitachi Ltd | Vehicle inspection device |
JP2015179041A (en) | 2014-03-19 | 2015-10-08 | 東芝トランスポートエンジニアリング株式会社 | Wheel shape measuring device and wheel shape measuring method |
CN106124521A (en) | 2016-08-31 | 2016-11-16 | 成都铁安科技有限责任公司 | A kind of Railway wheelset detection device and method |
CN107180416A (en) | 2017-05-17 | 2017-09-19 | 石家庄铁道大学 | Train wheel tread image deformity correction method and system |
Also Published As
Publication number | Publication date |
---|---|
JP2020148744A (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20160342848A1 (en) | Image Processing Apparatus, Image Processing Method, and Computer Program Product | |
KR101396346B1 (en) | Method and apparatus for creating a 3D image using 2D photograph images | |
WO2009130820A1 (en) | Image processing device, display, image processing method, program, and recording medium | |
EP2533193A1 (en) | Apparatus and method for image processing | |
JP2005331929A (en) | Image analysis method, image analysis program, and pixel evaluation system therewith | |
CN107532917B (en) | Display control unit and display control method | |
US11838674B2 (en) | Image processing system, image processing method and storage medium | |
Přibyl et al. | Feature point detection under extreme lighting conditions | |
JP2010183265A (en) | Image display device and method for calculating camera-mounting angle of the same | |
US20200175663A1 (en) | Image processing system, server apparatus, image processing method, and image processing program | |
JP7102890B2 (en) | Path simulation device | |
CN111144305A (en) | Training data generation method and device, electronic equipment and medium | |
US11210773B2 (en) | Information processing apparatus, information processing method, and storage medium for defect inspection and detection | |
US11361455B2 (en) | Systems and methods for facilitating the identifying of correspondences between images experiencing motion blur | |
US11416978B2 (en) | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor | |
JP7237671B2 (en) | Image processing device and image processing method | |
US11830177B2 (en) | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor | |
JP2010136207A (en) | System for detecting and displaying pedestrian | |
CN110832851B (en) | Image processing apparatus, image conversion method, and program | |
JP2013115738A (en) | Vehicle periphery imaging apparatus and method of processing vehicle peripheral image | |
JP2008269181A (en) | Object detector | |
JP6762779B2 (en) | Image processing equipment, imaging equipment, image processing methods, and programs | |
WO2018030386A1 (en) | Position designation device and position designation method | |
JP2013115739A (en) | Inter-image difference device and inter-image difference method | |
JP5313080B2 (en) | Linear component reduction device and pedestrian detection display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7237671 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |