JP7237671B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7237671B2
JP7237671B2 JP2019048996A JP2019048996A JP7237671B2 JP 7237671 B2 JP7237671 B2 JP 7237671B2 JP 2019048996 A JP2019048996 A JP 2019048996A JP 2019048996 A JP2019048996 A JP 2019048996A JP 7237671 B2 JP7237671 B2 JP 7237671B2
Authority
JP
Japan
Prior art keywords
image
damage
captured
wheel
damaged area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019048996A
Other languages
Japanese (ja)
Other versions
JP2020148744A (en
Inventor
竜二 北浦
圭 徳井
威人 藤井
啓行 中島
雄人 酒井
賢太 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
East Japan Railway Co
Original Assignee
Sharp Corp
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp, East Japan Railway Co filed Critical Sharp Corp
Priority to JP2019048996A priority Critical patent/JP7237671B2/en
Publication of JP2020148744A publication Critical patent/JP2020148744A/en
Application granted granted Critical
Publication of JP7237671B2 publication Critical patent/JP7237671B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、および、画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.

車両の車輪踏面の損傷を検査するための検査装置として、走行中の車両に対して、車輪踏面をカメラで撮影した画像を解析し、損傷の有無を検出する検査装置が一般的に知られている。 As an inspection device for inspecting damage to the wheel tread of a vehicle, an inspection device that detects the presence or absence of damage by analyzing images of the wheel tread of a running vehicle taken by a camera is generally known. there is

特許文献1では、レールを走行する車輪の位置を検知し、車輪が通過するタイミングで、車輪に照明をあて、車両の車輪踏面を撮影した画像に基づき、車輪踏面の損傷を検査する検査装置が開示されている。この検査装置では、撮像手段で走行中車両の車輪を連続で撮影することにより、車輪踏面の全周画像を取り込み、画像処理によって損傷の有無を算出する。 In Patent Document 1, an inspection device that detects the position of a wheel traveling on a rail, illuminates the wheel at the timing when the wheel passes, and inspects damage to the wheel tread based on an image of the wheel tread of the vehicle. disclosed. In this inspection device, by continuously photographing the wheels of the running vehicle by the image pickup means, the whole circumference image of the wheel tread is captured and the presence or absence of damage is calculated by image processing.

画像処理において、まず、前記検査装置は、外部入力により車輪踏面の領域を指定し、指定された領域上に存在する損傷のある領域と、損傷のない領域の画素間の濃度差からエッジを求める。次に、上記検査装置は、それらをラベリングした領域のうち、一定値以上の大きさとなる領域を損傷として検出し、損傷部分を強調した処理画像データを表示する。 In the image processing, first, the inspection device designates the area of the wheel tread by external input, and obtains the edge from the density difference between the pixels of the damaged area and the undamaged area on the designated area. . Next, the above-described inspection apparatus detects an area having a size equal to or larger than a certain value among the labeled areas as damage, and displays processed image data emphasizing the damaged portion.

特開平7-174672号公報JP-A-7-174672

しかしながら、特許文献1で開示された方法には、以下の課題がある。 However, the method disclosed in Patent Document 1 has the following problems.

すなわち、車輪の全周画像を撮影する際、分割して撮影する必要があり、撮影画像の枚数が多くなる。例えば、鉄道の場合、1車両あたりN台の車輪があり、1つの編成にM台の車両があり、1台の車輪の車輪踏面をL分割で撮影すると、撮影画像の枚数はN×M×L枚となる(N、M、Lは自然数)。そのため、撮影された全ての画像を目視確認するには多くの時間が必要となる。 That is, when capturing an image of the entire circumference of the wheel, it is necessary to divide the image and capture the image, which increases the number of captured images. For example, in the case of a railway, each vehicle has N wheels, one trainset has M vehicles, and if the wheel tread of one wheel is photographed in L divisions, the number of photographed images is N×M×. There are L sheets (N, M, and L are natural numbers). Therefore, it takes a long time to visually check all the captured images.

本発明の一態様は、車輪の損傷が視認し易い画像データを出力することを目的とする。 An object of one aspect of the present invention is to output image data that facilitates visual recognition of wheel damage.

上記の課題を解決するために、本発明の一態様に係る画像処理装置は、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、前記一つの撮像画像に基づいて、代表画像を出力する出力部と、を備えている。 In order to solve the above problems, an image processing device according to an aspect of the present invention measures damage to wheels from a plurality of captured images continuously captured by an imaging device of treads of wheels traveling on a railroad track. a detection unit that detects a damaged area, a selection unit that selects one captured image based on the position of the damaged area in each captured image, and an output unit that outputs a representative image based on the one captured image and have.

また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、画像処理装置が、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出し、画像処理装置が、各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択し、前記一つの撮像画像に基づいて、代表画像を出力することを包含する。 Further, in order to solve the above problems, an image processing method according to an aspect of the present invention provides an image processing device, which is a plurality of captured images continuously captured by an imaging device of the tread surface of a wheel running on a railroad track. , detecting a damaged area corresponding to the damage of the wheel, an image processing device selecting one captured image based on the position of the damaged area in each captured image, and based on the one captured image, a representative Including outputting images.

本発明の一態様によれば、車輪の損傷が視認し易い画像データを出力することができる。 According to one aspect of the present invention, it is possible to output image data in which wheel damage is easily visible.

本発明の実施形態1に係る画像データ生成装置の構成を示す機能ブロック図である。1 is a functional block diagram showing the configuration of an image data generation device according to Embodiment 1 of the present invention; FIG. 本発明の実施形態1に係る撮影時のカメラおよび車輪を鉛直方向上側から見た状態を示す図である。FIG. 4 is a diagram showing a state in which the camera and wheels are seen from above in the vertical direction when photographing according to Embodiment 1 of the present invention; 本発明の実施形態1に係る撮影時のカメラおよび車輪を水平方向から見た状態を示す図である。FIG. 4 is a diagram showing a state in which the camera and wheels are seen from the horizontal direction when photographing according to the first embodiment of the present invention; 本発明の実施形態1に係るカメラにより撮影される画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image captured by the camera according to Embodiment 1 of the present invention; FIG. 本発明の実施形態1に係る撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a photographed image according to Embodiment 1 of the present invention; 本発明の実施形態1に係る撮影時のカメラおよび車輪を水平方向から見た状態を示す図である。FIG. 4 is a diagram showing a state in which the camera and wheels are seen from the horizontal direction when photographing according to the first embodiment of the present invention; 本発明の実施形態1に係る撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a photographed image according to Embodiment 1 of the present invention; 本発明の実施形態1に係る撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a photographed image according to Embodiment 1 of the present invention; 本発明の実施形態1に係るカメラの垂直方向の角度を0にした場合の、カメラおよび車輪を水平方向から見た状態を示す図である。FIG. 4 is a diagram showing a state in which the camera and wheels are viewed from the horizontal direction when the vertical angle of the camera according to Embodiment 1 of the present invention is 0; 本発明の実施形態1に係る撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a photographed image according to Embodiment 1 of the present invention; 本発明の実施形態1に係る撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a photographed image according to Embodiment 1 of the present invention; 本発明の実施形態1に係るカメラの垂直方向の角度を大きくした場合の、カメラおよび車輪を水平方向から見た状態を示す図である。FIG. 4 is a diagram showing a state in which the camera and wheels are seen from the horizontal direction when the angle of the camera in the vertical direction is increased according to the first embodiment of the present invention; 本発明の実施形態1に係る撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a photographed image according to Embodiment 1 of the present invention; 本発明の実施形態1に係る撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a photographed image according to Embodiment 1 of the present invention; 本発明の実施形態1に係る画像データ生成装置が実行する処理の一例を示すフローチャートである。4 is a flowchart showing an example of processing executed by the image data generation device according to Embodiment 1 of the present invention; 本発明の実施形態1に係る画像データ生成装置の処理の詳細を示すフローチャートである。4 is a flowchart showing details of processing of the image data generation device according to the first embodiment of the present invention; 本発明の実施形態に係る所定領域を説明するための図である。It is a figure for demonstrating the predetermined area|region which concerns on embodiment of this invention. 本発明の実施形態に係る所定領域を説明するための図である。It is a figure for demonstrating the predetermined area|region which concerns on embodiment of this invention. 本発明の実施形態1に係る画像データ生成装置が実行する処理の一例を示すフローチャートである。4 is a flowchart showing an example of processing executed by the image data generation device according to Embodiment 1 of the present invention; 本発明の実施形態2に係る撮影画像の一例を示す図である。FIG. 10 is a diagram showing an example of a photographed image according to Embodiment 2 of the present invention; 本発明の実施形態2に係る撮影画像の一例を示す図である。FIG. 10 is a diagram showing an example of a photographed image according to Embodiment 2 of the present invention; 本発明の実施形態2に係る画像データ生成装置の構成を示す機能ブロック図である。FIG. 5 is a functional block diagram showing the configuration of an image data generation device according to Embodiment 2 of the present invention; 本発明の実施形態2に係る車輪踏面領域の歪を補正した画像の例を示す図である。FIG. 9 is a diagram showing an example of an image in which distortion of a wheel tread area is corrected according to Embodiment 2 of the present invention; 本発明の実施形態2に係る合成画像の一例を示す図である。FIG. 10 is a diagram showing an example of a synthesized image according to Embodiment 2 of the present invention; 本発明の実施形態2に係る全周画像の一例を示す図である。It is a figure which shows an example of the omnidirectional image which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る画像データ生成装置が実行する処理の一例を示すフローチャートである。9 is a flow chart showing an example of processing executed by an image data generation device according to Embodiment 2 of the present invention; 本発明の実施形態2に係る画像データ生成装置の処理の詳細を示すフローチャートである。9 is a flowchart showing details of processing of the image data generation device according to the second embodiment of the present invention; 本発明の実施形態2に係る出力画面の一例を示す図である。FIG. 10 is a diagram showing an example of an output screen according to Embodiment 2 of the present invention;

本発明の各実施形態について、図面を参照して詳細に説明する。各図面は、本発明の原理に則った具体的な実施形態を示すに過ぎない。これらは本発明の理解のために用意されたに過ぎず、本発明を限定的に解釈させるためのものではない。また、各図面に図示される各要素は、本発明の理解を深めるために誇張して記載されているので、実際の各要素の間隔および大きさとは異なる。 Each embodiment of the present invention will be described in detail with reference to the drawings. The drawings merely illustrate specific embodiments consistent with the principles of the invention. These are merely prepared for the understanding of the present invention, and are not intended to limit the interpretation of the present invention. In addition, each element illustrated in each drawing is exaggerated for better understanding of the present invention, so the actual spacing and size of each element are different.

以下の説明において、ある図面においてある要素に付された符号と同じ符号が他の図面内の同一の要素にも付されている場合、当該同一の要素の構成および機能等は当該ある要素と同一であるため、当該同一の要素についての詳細な説明を省略する。 In the following description, if the same reference numerals as those attached to an element in one drawing are also attached to the same element in other drawings, the same element has the same configuration, function, etc. Therefore, detailed description of the same elements is omitted.

〔実施形態1〕
本発明の実施形態1について、図面に基づき以下に説明する。
[Embodiment 1]
Embodiment 1 of the present invention will be described below based on the drawings.

本実施形態では、多数の撮像画像の中から代表画像を選択することにより、車輪の損傷が視認し易い画像データを出力する。このとき、車輪踏面を分割して撮影する画像に重複領域が存在する場合、同一の損傷が複数の画像に存在する可能性がある。車輪踏面は円柱の側面に相当し、車輪踏面の位置により歪みが発生するため、検出した損傷の視認性に異なりがある。したがって、同一の損傷が複数の画像に存在する場合、適切な代表画像を選択する必要がある。以下に、その選択方法について説明する。 In this embodiment, by selecting a representative image from a large number of captured images, image data in which wheel damage can be easily visually recognized is output. At this time, if there is an overlapping area in the images obtained by dividing the wheel tread, there is a possibility that the same damage is present in a plurality of images. The wheel tread corresponds to the side surface of a cylinder, and since distortion occurs depending on the position of the wheel tread, the visibility of the detected damage differs. Therefore, when the same damage exists in multiple images, it is necessary to select an appropriate representative image. The selection method will be described below.

以下では、鉄道車両の場合について説明する。 Below, the case of a railway vehicle will be described.

(装置構成)
図1は、本実施形態に係る画像データ生成装置(画像処理装置)1の構成を示す機能ブロック図である。図1に示すように、画像データ生成装置1は、損傷領域検出部(検出部)2、代表画像選択部(選択部)3、および、出力画像生成部(出力部)4を備えている。
(Device configuration)
FIG. 1 is a functional block diagram showing the configuration of an image data generation device (image processing device) 1 according to this embodiment. As shown in FIG. 1 , the image data generation device 1 includes a damaged area detection section (detection section) 2 , a representative image selection section (selection section) 3 , and an output image generation section (output section) 4 .

図1に示すように、画像データ生成装置1は、複数の撮影画像データと、カメラ配置情報を取得する。損傷領域検出部2は、各撮影画像上の車輪踏面(以下、踏面ともいう)の損傷領域を算出する。代表画像選択部3は、カメラ配置情報と、各損傷領域の位置とに基づいて、代表画像データを作成するために用いる撮影画像データを選択する。出力画像生成部4は、代表画像データを生成する。 As shown in FIG. 1, the image data generation device 1 acquires a plurality of captured image data and camera arrangement information. The damaged area detection unit 2 calculates the damaged area of the wheel tread (hereinafter also referred to as the tread) on each photographed image. The representative image selection unit 3 selects photographed image data used to create representative image data based on the camera arrangement information and the position of each damaged area. The output image generator 4 generates representative image data.

詳細には、損傷領域検出部2は、線路上を走行する車輪11の踏面15をカメラ(撮像装置)12によって連続的に撮像した複数の撮像画像から、車輪11の損傷に対応する損傷領域を検出する。代表画像選択部3は、各撮像画像内における損傷領域の位置に基づいて一つの撮像画像を選択する。出力画像生成部4は、一つの撮像画像に基づいて、代表画像を出力する。上記の構成によれば、車輪11の踏面15の損傷が確認し易い画像を、代表画像としてユーザに提示することができる。 Specifically, the damaged area detection unit 2 detects a damaged area corresponding to the damage to the wheel 11 from a plurality of captured images continuously captured by a camera (imaging device) 12 of the tread 15 of the wheel 11 traveling on the railroad track. To detect. The representative image selection unit 3 selects one captured image based on the position of the damaged area in each captured image. The output image generator 4 outputs a representative image based on one captured image. According to the above configuration, it is possible to present to the user, as a representative image, an image in which damage to the tread surface 15 of the wheel 11 can be easily confirmed.

ここで、カメラ配置情報は、撮影対象に対する撮像手段の位置と向きの情報であり、その一例について、図面を用いて説明する。 Here, the camera arrangement information is information on the position and orientation of the imaging means with respect to the object to be photographed, and an example thereof will be described with reference to the drawings.

図2は、撮影時のカメラ12および車輪11を鉛直方向上側から見た状態を示す図である。ここで、図2は、カメラ12のある位置を原点とし、z方向が車輪11の進行方向(レール方向)であり、x方向がレール10の枕木方向(レール方向に直交する水平な方向)であるように設定した座標系である。レール10の上を移動する車輪11を、カメラ12が撮影する場合、安全性およびメンテナンスの利便性の観点から、カメラ12はレール10から一定距離だけ離して設置される。カメラ12の設置後、車輪11がカメラ12の水平画角13に含まれるように、水平方向における、カメラ12の光軸14の向きが設定される。水平方向における光軸14の向きと、z方向とのなす角度を、カメラ12の水平方向角度αとする。なお、レール10上を走行する車輪11を分割撮影する場合には、全撮影時において、車輪11が水平画角13に含まれるように、カメラ12の位置および向きを調整する。次にカメラ12の垂直方向の位置および向きを調整する。 FIG. 2 is a diagram showing a state in which the camera 12 and the wheel 11 are seen from above in the vertical direction when photographing. Here, in FIG. 2, the position where the camera 12 is located is the origin, the z direction is the traveling direction of the wheels 11 (rail direction), and the x direction is the sleeper direction of the rail 10 (horizontal direction perpendicular to the rail direction). It is a coordinate system that is set up as it is. When the camera 12 photographs the wheels 11 moving on the rail 10, the camera 12 is installed at a certain distance from the rail 10 from the viewpoint of safety and maintenance convenience. After the camera 12 is installed, the orientation of the optical axis 14 of the camera 12 in the horizontal direction is set so that the wheel 11 is included in the horizontal angle of view 13 of the camera 12 . The angle between the direction of the optical axis 14 in the horizontal direction and the z-direction is defined as a horizontal angle α of the camera 12 . When the wheels 11 running on the rail 10 are to be photographed separately, the position and orientation of the camera 12 are adjusted so that the wheels 11 are included in the horizontal angle of view 13 during all photographing. Next, the vertical position and orientation of camera 12 are adjusted.

図3は、撮影時のカメラ12および車輪11を水平方向から見た状態を示す図である。原点およびz方向は図2と同様である。y方向はレール方向および枕木方向に対し垂直方向である。ここで、例えば、カメラ12をレール10の上面に設置し、カメラ12の垂直方向の向きを上側に傾ける。垂直方向における光軸14の向きと、z方向とのなす角度を、カメラ12の垂直方向角度βとする。 FIG. 3 is a diagram showing a state in which the camera 12 and the wheel 11 are seen from the horizontal direction when photographing. The origin and z-direction are the same as in FIG. The y-direction is perpendicular to the rail and sleeper directions. Here, for example, the camera 12 is installed on the upper surface of the rail 10, and the vertical direction of the camera 12 is tilted upward. The angle formed by the orientation of the optical axis 14 in the vertical direction and the z-direction is defined as the vertical angle β of the camera 12 .

最後に、カメラ12の傾き(光軸14を中心軸とする回転位置、ロール方向)を、例えば、撮影画像においてレール10が水平になるように調整する。 Finally, the inclination of the camera 12 (rotational position about the optical axis 14, roll direction) is adjusted so that the rail 10 is horizontal in the photographed image, for example.

図4は、カメラ12により撮影される画像(撮影画像)の一例を示す図である。図4に示すように、レール10上にある車輪11と、その側面である車輪踏面15とが撮影される。 FIG. 4 is a diagram showing an example of an image (captured image) captured by the camera 12. As shown in FIG. As shown in FIG. 4, the wheel 11 on the rail 10 and the wheel tread 15, which is the side surface of the wheel 11, are photographed.

なお、撮影時に光量が足りない場合は、別途照明装置が配置されてもよい。 In addition, if the amount of light is insufficient at the time of photographing, a separate lighting device may be arranged.

車輪11を撮影する場合には、物体を検知するセンサを用いてもよい。これにより、車輪11の通過を検知して、撮影範囲内に撮影対象の車輪11が存在するタインミングで撮影することができる。例えば、レール10の側方に光電センサを配置して、カメラの画角内を車輪が横切った際、撮影を行うようにしてもよい。 When photographing the wheel 11, a sensor that detects an object may be used. As a result, it is possible to detect the passing of the wheel 11 and shoot at the timing when the wheel 11 to be shot exists within the shooting range. For example, a photoelectric sensor may be arranged on the side of the rail 10 so that when the wheel crosses the angle of view of the camera, the image is taken.

また、車両の移動速度が高速であったり、カメラ12のフレームレートが低かったり、画角が狭かったりする場合、複数のカメラ12を設置して、車輪踏面15の全周を撮影してもよい。この場合、損傷領域の取り逃しを防止するため、または、画素分解能を確保するために、撮影される車輪踏面15が隣接する2つの撮影画像間で、車輪踏面15の同じ領域の一部が重畳するようなタイミングで撮影する。 In addition, when the moving speed of the vehicle is high, the frame rate of the camera 12 is low, or the angle of view is narrow, a plurality of cameras 12 may be installed to photograph the entire circumference of the wheel tread 15. . In this case, in order to prevent the damaged area from being overlooked or to ensure the pixel resolution, a part of the same area of the wheel tread 15 is overlapped between two photographed images in which the wheel tread 15 is adjacent. Shoot at the right time.

(損傷領域検出部2)
損傷領域検出部2は、車輪踏面の損傷領域を検出する。損傷領域の検出方法は、画像のエッジを利用した汎用的な方法を用いればよく、例えば。Sobelやcanny法などのエッジ検出手法を用いて車輪踏面領域内のエッジを検出し、8近傍ラベリングなどの手法を用いて、ラベリング処理を行い、ラベリングされた領域のうち、所定の大きさ以上の領域の、撮影画像上の位置と、サイズとを損傷領域として出力する。
(Damaged area detector 2)
A damaged area detection unit 2 detects a damaged area of a wheel tread. As for the method of detecting the damaged area, a general-purpose method using the edge of the image may be used. Edges in the wheel tread area are detected using an edge detection method such as the Sobel or canny method, and labeling is performed using a method such as 8-neighbor labeling. The position and size of the area on the captured image are output as the damaged area.

ここで、撮影画像から損傷領域を検出するときに、撮影画像中の車輪踏面領域を検出し、検出された車輪踏面領域において損傷領域を検出すると、誤検出を低減することができる。 Here, when detecting the damaged area from the photographed image, if the wheel tread area in the photographed image is detected and the damaged area is detected in the detected wheel tread area, erroneous detection can be reduced.

車輪踏面領域を検出するには、例えば、図5において、hough変換を用いて、レール10の上部の線16を検出する。Sobelやcanny法などのエッジ検出手法を用いて画像内のエッジを検出し、線16に接点17で接する円弧18を構成するエッジを抽出する。車輪11の進行方向側の円弧18の側面にある車輪踏面15を、周辺との輝度差を用いて抽出する。これにより、車輪踏面領域を検出することができる。なお、車輪踏面領域は、ユーザが外部から入力してもよい。 To detect the wheel tread area, for example, in FIG. 5, hough transform is used to detect the upper line 16 of the rail 10 . An edge detection method such as the Sobel or canny method is used to detect the edges in the image, and the edges forming the arc 18 that touches the line 16 at the point of contact 17 are extracted. The wheel tread 15 on the side surface of the arc 18 on the traveling direction side of the wheel 11 is extracted using the luminance difference with the surroundings. Thereby, the wheel tread area can be detected. Note that the wheel tread area may be input by the user from the outside.

(代表画像選択部3)
代表画像選択部3は、カメラ配置情報と、検出された損傷領域の位置とから、代表画像を選択する。代表画像選択部3は、代表画像として、カメラ12の撮像面に対して正対に近い位置に損傷が存在する画像を優先して選択する。
(Representative image selection unit 3)
A representative image selection unit 3 selects a representative image from the camera arrangement information and the position of the detected damaged area. The representative image selection unit 3 preferentially selects an image in which damage is present at a position close to the imaging surface of the camera 12 as a representative image.

詳細には、代表画像選択部3は、各撮像画像における損傷領域の位置と、踏面15における法線方向がカメラ12の光軸方向に略平行な正対位置と、の間の距離に基づいて一つの撮像画像を選択する。代表画像選択部3は、当該正対位置を特定するために、カメラ12の光軸方向を用いてもよい。換言すれば、代表画像選択部3は、カメラ12の光軸方向に少なくとも基づいて一つの撮像画像を選択してもよい。 Specifically, the representative image selection unit 3 selects the position of the damaged area in each captured image and the directly facing position where the normal direction of the tread surface 15 is substantially parallel to the optical axis direction of the camera 12, based on the distance. Select one captured image. The representative image selection unit 3 may use the optical axis direction of the camera 12 to specify the facing position. In other words, the representative image selection unit 3 may select one captured image based at least on the optical axis direction of the camera 12 .

図6は、撮影時のカメラ12および車輪11を水平方向から見た状態を示す図である。図6は、図3と同様のカメラ配置とする。複数の位置で損傷領域が検出された場合、各損傷領域は車輪11の円周方向の位置が異なるため、代表画像選択部3は、図6に示すカメラ12の方向から見たときの損傷位置を考慮して、代表画像を選択する。したがって、代表画像選択部3は、車輪踏面15上の法線が、カメラ12の光軸14と平行となる位置を正対位置として扱う。 FIG. 6 is a diagram showing a state in which the camera 12 and the wheel 11 are seen from the horizontal direction when photographing. FIG. 6 assumes the same camera arrangement as in FIG. When damaged areas are detected at a plurality of positions, the positions of the damaged areas in the circumferential direction of the wheel 11 are different. to select a representative image. Therefore, the representative image selection unit 3 treats the position where the normal line on the wheel tread 15 is parallel to the optical axis 14 of the camera 12 as the facing position.

図6に示すように、車輪踏面15は曲線形状であり、図6における車輪踏面15の各位置の法線の方向は位置によって異なる。さらに、車輪11のレール10上の位置が変化すると、同じ垂直位置(y座標)であっても法線の方向が変化する。ここで、車輪踏面15上の法線の向きが、カメラ12の光軸14の向きと異なる度合いが大きいほど、車輪踏面15を斜めから撮影していることになるため、画像上における車輪踏面15の歪みが大きくなる。 As shown in FIG. 6, the wheel tread 15 has a curved shape, and the direction of the normal to each position of the wheel tread 15 in FIG. 6 differs depending on the position. Furthermore, when the position of the wheel 11 on the rail 10 changes, the direction of the normal changes even at the same vertical position (y-coordinate). Here, the greater the degree that the direction of the normal line on the wheel tread 15 differs from the direction of the optical axis 14 of the camera 12, the more obliquely the wheel tread 15 is photographed. distortion increases.

したがって、観察する車輪11、および、車輪踏面15の位置によって、歪みが少なく、かつ、ユーザが観察し易い、カメラ12に最も正対する画像は異なることになる。例えば、1つのカメラ12で1つの動く車輪11を複数回撮影する場合、同一のカメラ12、同一の車輪11でありながら、撮影タイミングが異なると車輪11が撮影される位置が異なるため、正対する位置は変化する。 Therefore, the image facing the camera 12 that is least distorted and easy for the user to observe differs depending on the positions of the observed wheel 11 and wheel tread 15 . For example, when one moving wheel 11 is photographed multiple times with one camera 12, the same camera 12 and the same wheel 11 are photographed at different positions at different photographing timings. position changes.

以下では、正対位置を、垂直方向のみに関する正対位置として説明する。 Hereinafter, the directly facing position will be described as the directly facing position only in the vertical direction.

図6において、垂直方向に関して、車輪11上で、カメラ12の撮像面に最も正対する位置は、接線19が、光軸14と直交する点20の位置になる。したがって、代表画像選択部3は、点20の位置に最も近い位置に損傷が映る画像を代表画像として選択する。 In FIG. 6 , the position on the wheel 11 that most faces the imaging surface of the camera 12 in the vertical direction is the position of the point 20 where the tangent line 19 is perpendicular to the optical axis 14 . Therefore, the representative image selection unit 3 selects the image showing the damage at the position closest to the position of the point 20 as the representative image.

次に、点20の座標の算出方法について説明する。 Next, a method of calculating the coordinates of the point 20 will be described.

yz平面において、車輪11の輪郭を円形状であるとみなし、車輪11の外側の輪郭(車輪踏面15)は、式1で表すことができる。 In the yz plane, the contour of the wheel 11 is considered circular, and the outer contour (wheel tread 15) of the wheel 11 can be expressed by Equation 1.

Figure 0007237671000001
Figure 0007237671000001

ここで、a、b、cは、それぞれ、原点から車輪11の中心までのx軸方向、y軸方向、z軸方向の距離であり、rは車輪11の半径を示す。カメラ12の高さがレール10の上面である場合、bはrと等しくなる。また、cは車輪11とレール10との接点位置と等しく、カメラ12の位置が固定である場合、撮影画像における車輪11とレール10との接点位置の座標から、カメラ12と車輪11との間の距離は一意に決まる。そのため、画像上の接点位置の座標からcの値を算出することができる。 Here, a, b, and c are the distances from the origin to the center of the wheel 11 in the x-axis direction, y-axis direction, and z-axis direction, respectively, and r indicates the radius of the wheel 11 . If the camera 12 height is the top surface of the rail 10, then b will equal r. Further, c is equal to the point of contact between the wheel 11 and the rail 10, and when the position of the camera 12 is fixed, from the coordinates of the point of contact between the wheel 11 and the rail 10 in the photographed image, the distance between the camera 12 and the wheel 11 is uniquely determined. Therefore, the value of c can be calculated from the coordinates of the contact position on the image.

次に車輪踏面15の法線ベクトルについてyz平面で説明する。車輪11の輪郭上の点20のyz平面における位置を(p、q)とすると、その法線ベクトルは(p-b、q-c)となる。 Next, the normal vector of the wheel tread 15 will be described on the yz plane. If the position of the point 20 on the contour of the wheel 11 on the yz plane is (p, q), its normal vector is (pb, qc).

従って、カメラ12に正対する点20としては、カメラ12の光軸14のyz平面の向きと、この法線ベクトルとが平行であり、かつ、車輪11の左側の輪郭上にある点を求めればよい。 Therefore, as the point 20 directly facing the camera 12, the direction of the yz plane of the optical axis 14 of the camera 12 and the normal vector are parallel to this, and a point on the contour of the left side of the wheel 11 is obtained. good.

例えば、法線ベクトルと水平線とのなす角が、カメラの垂直方向の傾き角βと等しくなるような位置(p、q)を求め、カメラ座標系に変換することにより、画像上の垂直方向の正対位置を求めることができる。 For example, by obtaining a position (p, q) such that the angle between the normal vector and the horizontal line is equal to the tilt angle β in the vertical direction of the camera, and converting it into the camera coordinate system, the vertical direction on the image is The facing position can be obtained.

図7および図8は、本実施形態に係る撮影画像の一例を示す図である。図7では、カメラ12の撮像面に対して正対位置となる点20の下に損傷21が存在する。図8では、カメラ12と正対位置の点20と同じ高さに損傷21が存在する。図7の画像は、図8の画像と比べ、正対位置の点20から離れた位置に損傷21が存在し、カメラ12の撮影方向と法線方向とが異なる分だけ斜めから撮影されており、損傷21が歪んで撮影される。損傷21は何れの画像でも検出および確認することが可能だが、ユーザが目視で確認する場合には、図8の画像の方が図7の画像よりも、損傷の歪みが少なく確認し易い。そのため、代表画像選択部3は、図7の画像ではなく、図8の画像を代表画像として選択する。 7 and 8 are diagrams showing examples of captured images according to the present embodiment. In FIG. 7, there is a damage 21 under a point 20 directly facing the imaging plane of the camera 12 . In FIG. 8, the damage 21 exists at the same height as the point 20 directly facing the camera 12 . In the image of FIG. 7, the damage 21 exists at a position away from the point 20 of the directly facing position compared to the image of FIG. , the damage 21 is photographed distorted. The damage 21 can be detected and confirmed in any image, but when the user visually confirms the damage, the image in FIG. 8 has less distortion of the damage than the image in FIG. 7 and is easier to confirm. Therefore, the representative image selection unit 3 selects the image shown in FIG. 8 instead of the image shown in FIG. 7 as the representative image.

図9は、カメラ12の垂直方向の角度を0にした場合の、カメラ12および車輪11を水平方向から見た状態を示す図である。このときの正対位置を示す点は点22である。 FIG. 9 is a diagram showing a state in which the camera 12 and the wheels 11 are seen from the horizontal direction when the angle of the camera 12 in the vertical direction is 0. As shown in FIG. A point 22 indicates the facing position at this time.

図10および図11は、このとき撮影される画像の一例を示す図である。図10および図11の損傷23の位置は、何れも正対位置である点22には存在しない。しかしながら、図10の損傷位置と図11の損傷位置とを比較すると、図10の損傷位置の方が点22に近く、より正対に近い。そのため、代表画像選択部3は、図11の画像ではなく、図10の画像を代表画像として選択する。 10 and 11 are diagrams showing examples of images captured at this time. None of the locations of damage 23 in FIGS. 10 and 11 exist at point 22, which is the diametrically opposed location. However, comparing the damage location of FIG. 10 with the damage location of FIG. 11, the damage location of FIG. Therefore, the representative image selection unit 3 selects the image shown in FIG. 10 as the representative image instead of the image shown in FIG.

また、図12は、カメラ12の垂直方向の角度を大きくした場合の、カメラ12および車輪11を水平方向から見た状態を示す図である。このときの正対位置を示す点は、光軸14より下側にある点24である。 FIG. 12 is a diagram showing a state in which the camera 12 and the wheels 11 are seen from the horizontal direction when the angle of the camera 12 in the vertical direction is increased. The point indicating the facing position at this time is the point 24 below the optical axis 14 .

図13および図14は、このとき撮影される画像の一例を示す図である。図13および図14の損傷25の損傷位置は、何れも正対位置である点24には存在しない。しかしながら、図13の損傷位置と図14の損傷位置とを比較すると、図13の損傷位置の方が点24に近く、より正対に近い。そのため、代表画像選択部3は、図14の画像ではなく、図13の画像を代表画像として選択する。 13 and 14 are diagrams showing an example of an image taken at this time. None of the damage locations of the damage 25 in FIGS. 13 and 14 exists at the point 24 which is the diametrically opposed position. However, comparing the damaged location of FIG. 13 with the damaged location of FIG. 14, the damaged location of FIG. 13 is closer to point 24 and more directly opposite. Therefore, the representative image selection unit 3 selects the image shown in FIG. 13 as the representative image instead of the image shown in FIG.

このような方法により、代表画像を選択することができる。ここで、本実施形態では、車輪踏面15でのyz面における正対位置を、入力される、カメラ12の角度に基づいて算出したが、車輪踏面15の状態に基づいて代表画像を選択してもよい。例えば、カメラ12の位置および角度が固定であって、撮影する車輪11の位置が固定である場合、yz面における正対位置も固定になるため、最適な位置を予め算出してテーブル化しておくことで、検出された損傷の位置に基づいて代表画像を決定することができる。また、上記では、同一の損傷が2つの画像で検出された場合を説明したが、3以上の画像にも適用することができる。さらに、上記では、同一の損傷を説明したが、異なる損傷に本方法を適用することも可能である。 A representative image can be selected by such a method. Here, in the present embodiment, the facing position in the yz plane of the wheel tread 15 is calculated based on the input angle of the camera 12, but a representative image is selected based on the state of the wheel tread 15. good too. For example, when the position and angle of the camera 12 are fixed and the position of the wheel 11 to be photographed is fixed, the facing position on the yz plane is also fixed, so the optimum position is calculated in advance and tabulated. A representative image can then be determined based on the location of the detected damage. Moreover, although the case where the same damage is detected in two images has been described above, it can also be applied to three or more images. Furthermore, although the same damage has been described above, it is also possible to apply the method to different damages.

選択された代表画像は、車輪踏面15の検査結果を表示するときに優先してユーザに通知することができる。すなわち、複数の撮影画像のうち1枚のみを表示したり、複数の撮影画像のうち1枚のみを拡大表示したりする場合に、視認性のよい代表画像を使用することができる。 The selected representative image can be preferentially notified to the user when the inspection result of the wheel tread 15 is displayed. That is, when displaying only one of a plurality of captured images or when displaying only one of a plurality of captured images in an enlarged manner, a representative image with good visibility can be used.

(出力画像生成部4)
出力画像生成部4は、代表画像選択部3が選択した代表画像を用いて、出力画像データを生成し、出力する。このとき、代表画像上に、損傷の位置が分かる表示をした画像を生成してもよい。例えば、損傷位置周辺にマークを付けたり、損傷位置の色を変えたりした画像を生成してもよい。また、代表画像をそのまま出力してもよい。
(Output image generator 4)
The output image generation unit 4 uses the representative image selected by the representative image selection unit 3 to generate and output output image data. At this time, an image showing the position of the damage may be generated on the representative image. For example, an image may be generated in which marks are added around the damaged location, or the damaged location is colored differently. Alternatively, the representative image may be output as it is.

(全体的な処理の流れ)
図15は、本実施形態に係る画像データ生成装置1が実行する処理の一例を示すフローチャートである。ここで、画像データ生成装置1は、車輪11毎に撮影された画像の中から、代表画像を生成する。以下では、同一の車輪11を分割で撮影した複数の撮影画像に対する処理について説明する。
(Overall processing flow)
FIG. 15 is a flowchart showing an example of processing executed by the image data generation device 1 according to this embodiment. Here, the image data generation device 1 generates a representative image from images captured for each wheel 11 . Processing for a plurality of shot images of the same wheel 11 taken in division will be described below.

画像データ生成装置1は、撮影画像とカメラ配置情報とを取得すると、処理を開始する。 The image data generation device 1 starts processing when the captured image and the camera arrangement information are acquired.

画像データ生成装置1において、まず、損傷領域検出部2は、撮影画像のエッジ情報を解析するなどの画像処理を行うことにより、損傷を検出する(ステップS1)。 In the image data generation device 1, first, the damaged area detection unit 2 detects damage by performing image processing such as analyzing edge information of the captured image (step S1).

次に、代表画像選択部3は、検出された損傷領域の位置と、カメラ配置情報とに基づいて、垂直方向の正対位置を算出する(ステップS2)。 Next, the representative image selection unit 3 calculates the directly facing position in the vertical direction based on the position of the detected damaged area and the camera arrangement information (step S2).

次に、画像データ生成装置1は、取得した全ての撮影画像に対して損傷を検出する処理を終えたか否かを判定する(ステップS3)。全ての撮影画像を処理していない場合(ステップS3のNO)、画像データ生成装置1は、ステップS1の処理を再度実行する。全ての撮影画像を処理した場合(ステップS3のYES)、画像データ生成装置1は、ステップ4の判定を実行する。 Next, the image data generation device 1 determines whether or not processing for detecting damage has been completed for all the captured images (step S3). If all the captured images have not been processed (NO in step S3), the image data generation device 1 executes the process of step S1 again. When all the captured images have been processed (YES in step S3), the image data generating device 1 executes the determination in step S4.

ステップS4において、損傷領域検出部2は、対象とする車輪11の全ての撮影画像に対して、損傷画像の有無を判定する。ここで、損傷画像とは、損傷が検出された撮影画像を示す。損傷がある場合(ステップS4のYES)、ステップS5の処理を実行する。損傷がない場合(ステップS4のNO)、ステップS6の処理を実行する。 In step S<b>4 , the damaged area detection unit 2 determines whether or not there is a damaged image in all the photographed images of the target wheel 11 . Here, the damage image indicates a photographed image in which damage is detected. If there is damage (YES in step S4), the process of step S5 is executed. If there is no damage (NO in step S4), the process of step S6 is executed.

ステップS5において、代表画像選択部3は、損傷位置および正対位置の情報に基づいて、最も正対位置に近い位置に損傷が存在する損傷画像を代表画像として選択する。 In step S5, the representative image selection unit 3 selects, as a representative image, the damaged image in which the damage exists at the position closest to the directly facing position based on the information on the damaged position and the directly facing position.

ステップS6において、代表画像選択部3は、所定の画像を代表画像として選択する。所定の画像は、例えば、対象車輪の撮影時刻が最も前の撮影画像としてもよいし、ユーザが指定した撮影画像としてもよい。 In step S6, the representative image selection section 3 selects a predetermined image as a representative image. The predetermined image may be, for example, the most recently photographed image of the target wheel, or may be the photographed image designated by the user.

出力画像生成部4は、ステップS5またはS6で選択された代表画像を用いて出力画像データを生成し、出力し、処理を終了する(ステップS7)。 The output image generation unit 4 generates output image data using the representative image selected in step S5 or S6, outputs the output image data, and ends the process (step S7).

ここで、ステップS5について図面を用いて詳細に説明する。 Here, step S5 will be described in detail with reference to the drawings.

図16は、図15のステップS5の処理の詳細を示すフローチャートである。 FIG. 16 is a flow chart showing details of the processing in step S5 of FIG.

まず、代表画像選択部3は、第2の所定の画像を代表画像として設定する(ステップS100)。ここで、第2の所定の画像は、例えば、撮影時刻が最も前の損傷画像としてもよい。 First, the representative image selection unit 3 sets a second predetermined image as a representative image (step S100). Here, the second predetermined image may be, for example, the damage image captured the earliest.

次に、代表画像選択部3は、現在の損傷画像の損傷位置が、代表画像の損傷位置よりも正対位置に近いか否かを判定する(ステップS101)。 Next, the representative image selection unit 3 determines whether the damage position of the current damage image is closer to the facing position than the damage position of the representative image (step S101).

このとき、1枚の損傷画像に複数種類の損傷が検出された場合には、最も大きいサイズの損傷の位置を損傷位置として判定に用いてもよい。このときのサイズは損傷の実寸とする。損傷のサイズは、撮影画像上のレール10上の車輪11の位置と、車輪踏面15上の位置とに応じた、シミュレーションまたは実測に基づいて、予め設定した車輪踏面15上の画素分解能を適用することにより求めることができる。 At this time, if multiple types of damage are detected in one damage image, the position of the damage with the largest size may be used for determination as the damage position. The size at this time shall be the actual size of the damage. The size of the damage is based on simulation or actual measurement according to the position of the wheel 11 on the rail 10 on the captured image and the position on the wheel tread 15. Apply a preset pixel resolution on the wheel tread 15. can be obtained by

このようにして、出力画像生成部4は、最も大きいサイズの損傷の映る画像を代表画像として生成することによって、損傷の程度がより大きく、かつ歪のより少ない損傷が存在する画像を代表画像として出力する。これにより、ユーザは、適切に車輪踏面15の状態を把握することができる。 In this way, the output image generation unit 4 generates an image showing the largest size of damage as a representative image, so that an image with a larger degree of damage and less distortion is used as a representative image. Output. Thereby, the user can appropriately grasp the state of the wheel tread 15 .

現在の損傷画像の損傷位置が、代表画像の損傷位置よりも正対位置に近い場合(ステップS101のYES)、代表画像選択部3は、現在の損傷画像を代表画像として選択する(ステップS102)。現在の損傷画像の損傷位置が、代表画像の損傷位置よりも正対位置に近くない場合(ステップS101のNO)、代表画像選択部3は、ステップS102の処理をスキップする。 If the damage position of the current damage image is closer to the facing position than the damage position of the representative image (YES in step S101), the representative image selection unit 3 selects the current damage image as the representative image (step S102). . If the damage position of the current damage image is not closer to the directly facing position than the damage position of the representative image (NO in step S101), the representative image selection unit 3 skips the processing of step S102.

次に、代表画像選択部3は、検出した全ての損傷画像に対して処理を行ったか否かを判定する(ステップS103)。全ての損傷画像に対して処理を行った場合(ステップS103のYES)、処理を終了する。全ての損傷画像に対して処理を行っていない場合(ステップS103のNO)、ステップS101に戻る。 Next, the representative image selection unit 3 determines whether or not all the detected damaged images have been processed (step S103). If all damage images have been processed (YES in step S103), the process ends. If the processing has not been performed on all damaged images (NO in step S103), the process returns to step S101.

上述した本実施形態に係る画像データ生成装置1によれば、カメラ12の撮像面に対して垂直方向で最も正対となる位置に近い画像を代表画像として生成する。これにより、歪みが少ない損傷画像を代表画像として選択して生成するため、ユーザは損傷の状態を確認し易くなる。 According to the image data generation device 1 according to the present embodiment described above, an image closest to the position that is most directly facing the imaging surface of the camera 12 in the vertical direction is generated as a representative image. As a result, a damage image with less distortion is selected and generated as a representative image, so that the user can easily check the state of damage.

また、ステップS101では、代表画像選択部3が、損傷の位置および正対位置に基づき、代表画像を選択したが、損傷のサイズや、明るさも参照し、代表画像を選択してもよい。すなわち、代表画像選択部3は、損傷領域の大きさに基づいて一つの撮像画像を選択してもよいし、損傷領域の画素値に基づいて一つの撮像画像を選択してもよい。 Further, in step S101, the representative image selection unit 3 selects a representative image based on the position of the damage and the facing position, but it may also refer to the size and brightness of the damage to select the representative image. That is, the representative image selection unit 3 may select one captured image based on the size of the damaged area, or may select one captured image based on the pixel values of the damaged area.

例えば、各損傷画像の損傷が同じ大きさであり、かつ損傷の位置と正対位置との間に距離が等しい場合、損傷の明るさが大きい損傷の損傷位置を判定に用いてもよい。一般的に、車輪踏面15の損傷は、光の反射率が大きく、明るく撮影される。特にカメラ12および照明を同方向に配置した場合等では、損傷部分は、他の領域と比べ、明るく撮影される。このようにして、大きく、かつ明るい損傷画像を代表画像として生成することによって、ユーザは車輪踏面15の損傷の状態をより正確に把握することができる。 For example, if the damage in each damage image has the same size and the distance between the position of the damage and the directly facing position is the same, the damage position of the damage with the greater brightness of the damage may be used for determination. In general, damage to the wheel tread 15 has a high light reflectance and is photographed brightly. In particular, when the camera 12 and lighting are arranged in the same direction, the damaged portion is photographed brighter than other regions. By generating a large and bright damage image as a representative image in this way, the user can more accurately grasp the damage state of the wheel tread 15 .

別の一例として、損傷位置と正対位置との間の距離と、損傷の大きさと、明るさとをパラメータとし、損傷位置と正対位置との間の距離が小さい程、損傷の大きさが大きい程、損傷の明るさが明るい程、値が大きくなる評価値を算出し、評価値が最も大きい損傷の位置を判定に用いても構わない。このようにして、歪と、大きさと、明るさとの3つの要素を総合的に判断して、代表画像として生成することによって、ユーザは車輪踏面15の損傷の状態をより正確に把握することができる。また、評価値を算出する際、各パメータに異なる重みづけをしても構わず、この場合、ユーザが重要視するパラメータに合わせた、代表画像の選択が可能となる。 As another example, the distance between the damaged position and the directly facing position, the size of the damage, and the brightness are parameters, and the smaller the distance between the damaged position and the directly facing position, the larger the damage. It is also possible to calculate an evaluation value in which the value increases as the brightness of the damage increases, and the position of the damage with the highest evaluation value may be used for determination. In this way, by comprehensively judging the three elements of distortion, size, and brightness and generating a representative image, the user can more accurately grasp the state of damage to the wheel tread 15. can. Also, when calculating the evaluation value, each parameter may be weighted differently. In this case, it is possible to select a representative image according to the parameter that the user places importance on.

また、ステップS4で述べた損傷画像を抽出する処理において、抽出する損傷に制約条件を設けても構わない。 Further, in the process of extracting the damage image described in step S4, a constraint condition may be set for the damage to be extracted.

例えば、損傷が所定領域にある損傷画像のみを用いても構わない。このときの所定領域について図面を用いて説明する。所定領域は、検査装置が検査の対象とする車輪踏面範囲であり、画素分解能や周辺部品による遮蔽により決定される。例えば、カメラの撮影方向と、車輪踏面の法線方向の差が大きくなると、車輪踏面を斜めから撮影することになるため、正対して撮影する場合より画素分解能が低下する。そのため、所望の画素分解能以上の検査をする場合、ある一枚の撮影画像において、所望の画素分解能以上となる領域を所定領域に設定し、それ以外の領域の車輪踏面は、車輪が回転して他の位置で撮影された別の画像を検査対象とする。 For example, it is possible to use only damage images in which the damage is in a predetermined area. The predetermined area at this time will be described with reference to the drawings. The predetermined area is a wheel tread range to be inspected by the inspection device, and is determined by pixel resolution and shielding by peripheral parts. For example, when the difference between the imaging direction of the camera and the normal direction of the wheel tread becomes large, the wheel tread is photographed obliquely, resulting in lower pixel resolution than in the case of direct imaging. Therefore, when performing an inspection with a desired pixel resolution or higher, an area having a desired pixel resolution or higher in a certain photographed image is set as a predetermined area, and the wheel tread of the other area is changed as the wheel rotates. Another image taken at another position is to be inspected.

このとき、代表画像選択部3は、同一の損傷に対応する損傷領域の位置に基づいて一つの撮像画像を選択してもよい。すなわち、隣接する車輪11の踏面15の撮影画像で所定領域が重複する場合、複数の画像で同一の損傷領域が検出される可能性がある。従って、代表画像選択部3は、重複する領域にある損傷の位置やサイズから同一の損傷であるかを判定し、同一の場合は、その位置がより正対に近い位置にあるものを代表画像の候補にしておいてもよい。 At this time, the representative image selection unit 3 may select one captured image based on the position of the damaged area corresponding to the same damage. That is, when the predetermined regions overlap in the photographed images of the tread 15 of the adjacent wheel 11, there is a possibility that the same damaged region is detected in a plurality of images. Therefore, the representative image selection unit 3 determines whether the damages are the same based on the positions and sizes of the damages in the overlapping area. You can leave it as a candidate for

これにより、各撮影画像で同一の損傷がある場合には、より歪の少ない正対に近い位置の画像が選択されるため、ユーザは損傷形状を正しく把握することができる。車輪11の撮影位置が決まっている場合、重複する領域があるとき、何れの領域がより正対であるかが一意に決まるため、判定に関する処理量の削減も可能である。 As a result, when the same damage is present in each photographed image, an image at a position closer to the front with less distortion is selected, so that the user can correctly grasp the shape of the damage. When the photographing position of the wheel 11 is determined, when there are overlapping areas, it is uniquely determined which area is more directly facing, so it is possible to reduce the amount of processing involved in determination.

また、車輪11の周辺に部品が存在すると、車輪踏面15が遮蔽されて画像で確認できない場合がある。そこで、遮蔽領域を除く車輪踏面15を所定領域とすることで、適切な損傷検出処理が可能となる。つまり、部品領域での損傷の誤検出を低減し、部品領域の損傷検出処理分だけ処理量を低減することができる。 Also, if there are parts around the wheel 11, the wheel tread 15 may be blocked and cannot be confirmed in the image. Therefore, by setting the wheel tread 15 excluding the shielded area as a predetermined area, appropriate damage detection processing can be performed. In other words, erroneous detection of damage in the component area can be reduced, and the amount of processing can be reduced by the amount of damage detection processing in the component area.

図17および図18は、所定領域を説明するための図である。例えば、図17において、所望の画素分解能となる領域26が所定領域として設定される。また、周辺部品28により、車輪踏面15の領域の上部が遮蔽により見えなくなる場合では、図18に示すように、周辺部品28で遮蔽された領域を除外した領域29が、所定領域として設定される。この場合、周辺部品28の位置および大きさは予め取得されているものとする。そして、所定領域内で、正対位置に最も近い位置に損傷のある損傷画像が代表画像として選択される。ここで、損傷位置は、例えば検出した損傷の領域の外接矩形の中心座標としてもよいし、外接矩形の境界の上下左右のいずれかの座標や、検出した損傷の領域から算出した損傷領域の重心の座標としてもよい。 17 and 18 are diagrams for explaining the predetermined area. For example, in FIG. 17, an area 26 having a desired pixel resolution is set as the predetermined area. Further, when the upper part of the area of the wheel tread 15 is hidden by the peripheral component 28, as shown in FIG. . In this case, it is assumed that the position and size of the peripheral component 28 are obtained in advance. Then, a damaged image having damage at a position closest to the directly facing position within the predetermined area is selected as a representative image. Here, the damage position may be, for example, the center coordinates of the circumscribing rectangle of the detected damage area, the top, bottom, left, or right coordinates of the boundary of the circumscribing rectangle, or the center of gravity of the damage area calculated from the detected damage area. may be used as the coordinates of

図19は、損傷が所定領域にある損傷画像から代表画像を選択する際に、画像データ生成装置1が実行する処理の一例を示すフローチャートである。このフローチャートは、図15のフローチャートに対し、ステップS4の代わりに、ステップS110を挿入したものであり、ステップS110以外は同様の処理内容となるため、ステップS110のみを説明する。 FIG. 19 is a flowchart showing an example of processing executed by the image data generation device 1 when selecting a representative image from damage images in which damage is in a predetermined area. This flowchart is obtained by inserting step S110 instead of step S4 in the flowchart of FIG.

ステップS110において、代表画像選択部3は、損傷のある撮影画像のうち、損傷が所定領域にある画像を、損傷画像として選択する。ステップS5以降において、代表画像選択部3は、ステップS110で選択された損傷画像を用いて、同様に代表画像を選択する。 In step S110, the representative image selection unit 3 selects an image in which the damage is in a predetermined area from the photographed images with damage as the damage image. After step S5, the representative image selection unit 3 similarly selects a representative image using the damage image selected in step S110.

以上のように、所望の分解能を満たさない領域に損傷がある画像や、周辺部品による遮蔽領域に損傷がある画像を除外して代表画像を生成する。これにより、所望の分解能を有し車輪踏面15が視認し易い画像を代表画像として選択することができる。特に周辺部品による遮蔽領域を考慮した領域を用いることで、周辺部品の有無にかかわらず、同じ位置に損傷が表示されるため、異なる車輪の損傷の度合いを比較する場合になお有用である。 As described above, a representative image is generated by excluding an image in which an area that does not satisfy the desired resolution and an image in which an area blocked by peripheral components is damaged. As a result, an image that has a desired resolution and allows easy visual recognition of the wheel tread 15 can be selected as the representative image. In particular, by using an area that considers the shielded area by the peripheral parts, the damage is displayed at the same position regardless of the presence or absence of the peripheral parts, so it is still useful when comparing the degree of damage to different wheels.

なお、本実施形態に係る画像データ生成装置1は、外部の、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイなどの表示装置や、フラッシュメモリ、ハードディスクなどの記憶装置に接続することができる。これにより、画像データ生成装置1で生成した画像データを、表示装置に表示したり、画像データファイルとして記憶媒体に記憶したり、記憶媒体に記憶された画像を読み込んで、表示装置に表示したりすることができる。 The image data generation device 1 according to the present embodiment can be connected to an external display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display, or to a storage device such as a flash memory or a hard disk. can. As a result, the image data generated by the image data generation device 1 can be displayed on a display device, stored in a storage medium as an image data file, or read from an image stored in the storage medium and displayed on a display device. can do.

本実施形態の各処理は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)によるソフトウェア処理、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)によるハードウェア処理によって実現することができる。 Each process of the present embodiment can be realized by software processing by CPU (Central Processing Unit) or GPU (Graphics Processing Unit), and hardware processing by ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). .

また、本実施の形態で説明した機能を実現する方法は、プログラムとして提供することもできる。プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませたり、インターネットからダウンロードしたりして実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 A method for realizing the functions described in this embodiment can also be provided as a program. A program may be recorded in a computer-readable recording medium, and the program recorded in the recording medium may be loaded into a computer system or downloaded from the Internet and executed to perform the processing of each unit. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。 The "computer system" also includes the home page providing environment (or display environment) if the WWW system is used.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

〔実施形態2〕
本発明の実施形態2について説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
A second embodiment of the present invention will be described. For convenience of description, members having the same functions as the members described in the first embodiment are denoted by the same reference numerals, and description thereof will not be repeated.

移動する車輪踏面を分割で連続撮影する際、最も近い時刻に撮影された2枚の撮影画像において、損傷が大きい場合、各撮影画像の踏面の上端または下端に損傷の一部がかかり、かつ、いずれの撮影画像にも損傷の一部しか映らない可能性がある。この場合について図面を用いて説明する。 When continuously photographing a moving wheel tread, if the damage is large in the two shot images taken at the nearest time, part of the damage is applied to the upper end or the lower end of the tread in each photographed image, and Any captured image may show only a portion of the damage. This case will be described with reference to the drawings.

図20及び図21は、走行中の鉄道車両の車輪踏面102を連続で撮影した画像の一例を示す図である。このとき、車両は右から左に移動しているものとする。図20に示すように、周辺部品103は、車輪上部のカバーである。周辺部品104は、ブレーキである。レール100上にある車輪101の車輪踏面102は、周辺部品104に遮蔽される。なお、車輪踏面102上の、点線105より下側、かつ、点線106より上側の領域は別の撮影画像と重複しない領域とする。図20では、損傷107は、上側に存在し、その一部が周辺部品104により遮蔽されている。一方、図21では、車輪101は左側に移動しており、損傷107の一部が、レール100で遮蔽されている。 20 and 21 are diagrams showing an example of images of the wheel tread 102 of a running railroad vehicle taken continuously. At this time, it is assumed that the vehicle is moving from right to left. As shown in FIG. 20, the peripheral part 103 is a wheel top cover. Peripheral component 104 is a brake. A wheel tread 102 of the wheel 101 on the rail 100 is shielded by a peripheral component 104 . An area below the dotted line 105 and above the dotted line 106 on the wheel tread 102 is an area that does not overlap with another captured image. In FIG. 20, the damage 107 is on the upper side and partly shielded by the peripheral component 104 . On the other hand, in FIG. 21 the wheel 101 has moved to the left and part of the damage 107 is blocked by the rail 100 .

このような遮蔽される位置の違いに加え、損傷の踏面上の垂直方向の位置が異なることでカメラ12の撮像面に対する正対の度合いも異なり、その度合いに応じた歪が発生するため、同じ損傷であっても状態が異なって撮影される。このような場合、提示可能な複数の撮影画像が存在するが、ユーザが損傷の状態を確認し易い適切な画像を提示する必要がある。 In addition to such a difference in shielded position, the vertical position on the tread surface of the damage is different, so the degree of facing the camera 12 to the imaging plane is also different, and distortion occurs according to the degree. Even if it is damaged, the state will be photographed differently. In such a case, although there are a plurality of photographed images that can be presented, it is necessary to present an appropriate image that allows the user to easily confirm the state of damage.

そこで、本実施形態に係る画像データ生成装置(画像処理装置)108では、各撮影画像にまたがる損傷画像の有無を検出し、そのような画像が存在した場合に、車輪踏面上の損傷位置に基づき、より歪の少ない画像を選定し、ユーザに提示する。例えば、重複しない領域の長さだけ車輪踏面102が移動する毎に撮影する。さらに、同時に、一つの車輪に対する全撮影画像を用いて、一枚の踏面の全周画像を合成して、ユーザに提示する。これにより、ユーザは車輪踏面全体の状態を把握することができる。 Therefore, the image data generation device (image processing device) 108 according to the present embodiment detects whether or not there is a damage image that extends over each photographed image, and if such an image exists, based on the damage position on the wheel tread, , an image with less distortion is selected and presented to the user. For example, an image is taken each time the wheel tread 102 moves by the length of the non-overlapping region. Furthermore, at the same time, using all the photographed images for one wheel, a single all-around image of the tread is synthesized and presented to the user. This allows the user to grasp the state of the entire wheel tread.

(装置構成)
図22は、本実施形態に係る画像データ生成装置108の構成を示す機能ブロック図である。本実施形態に係る画像データ生成装置108は、損傷領域検出部2、全周画像生成部(生成部)109、代表画像選択部(入力部、選択部)110、および、出力画像生成部4を備えている。損傷領域検出部2および出力画像生成部4は、画像データ生成装置1と同様の構成であるため、その説明は省略し、全周画像生成部109および代表画像選択部110について、以下に説明する。
(Device configuration)
FIG. 22 is a functional block diagram showing the configuration of the image data generation device 108 according to this embodiment. The image data generation device 108 according to the present embodiment includes a damaged area detection unit 2, an all-around image generation unit (generation unit) 109, a representative image selection unit (input unit, selection unit) 110, and an output image generation unit 4. I have. Since the damaged area detection unit 2 and the output image generation unit 4 have the same configuration as that of the image data generation device 1, the description thereof will be omitted, and the omnidirectional image generation unit 109 and the representative image selection unit 110 will be described below. .

(全周画像生成部109)
本実施形態に係る全周画像生成部109は、各撮影画像の車輪踏面の領域の歪を補正して、車輪踏面の全周画像を生成する処理を行う。すなわち、全周画像生成部109は、複数の撮像画像を合成して踏面の全周画像を生成する。そして、全周画像生成部109は、各撮像画像内における損傷領域の位置に基づいて選択した1以上の撮像画像を優先的に合成する。
(Circumference image generator 109)
The omnidirectional image generation unit 109 according to the present embodiment corrects the distortion of the wheel tread area of each photographed image to generate an omnidirectional image of the wheel tread. That is, the omnidirectional image generation unit 109 synthesizes a plurality of captured images to generate an omnidirectional image of the tread. Then, the omnidirectional image generator 109 preferentially synthesizes one or more picked-up images selected based on the position of the damaged area in each picked-up image.

図23は、車輪踏面領域の歪を補正した画像の例を示す図である。図23の(a)は、図21の撮影画像の車輪踏面の歪を補正した画像を示す。図23の(b)は、図21の撮影画像の車輪踏面の歪を補正した平面画像を示す。 FIG. 23 is a diagram showing an example of an image in which the distortion of the wheel tread area is corrected. FIG. 23(a) shows an image obtained by correcting the distortion of the wheel tread of the photographed image of FIG. FIG. 23(b) shows a planar image obtained by correcting the distortion of the wheel tread in the photographed image of FIG.

このときの平面画像について説明する。カメラ12が固定であり、車輪の大きさが決まっている場合、撮影画像におけるレール上の車輪位置から幾何学的に踏面の3次元位置が求まり、その情報に基づき、車輪踏面の領域の歪を補正して平面に展開する。展開した平面画像において、水平方向は車輪の幅に相当し、垂直方向は未重複領域の縦方向の長さに相当する。このときの歪補正の方法は、汎用的な手法であってもよい。例えば、誤差が小さい場合には、簡易的に、画像上で検出された踏面領域を単純に平面画像に展開する方法であってもよい。 A planar image at this time will be described. When the camera 12 is fixed and the size of the wheel is determined, the three-dimensional position of the wheel tread can be geometrically obtained from the wheel position on the rail in the photographed image, and based on that information, the distortion of the wheel tread area can be calculated. Correct and unfold on a plane. In the unfolded planar image, the horizontal direction corresponds to the width of the wheel, and the vertical direction corresponds to the vertical length of the non-overlapping area. The distortion correction method at this time may be a general-purpose method. For example, when the error is small, a method of simply developing the tread area detected on the image into a plane image may be used.

ここで、図23の(a)の領域111と、図23の(b)の領域112が、他の撮影画像と重複しない未重複領域であり、図23の(a)の領域113と、図23の(b)の領域114が重複領域となる。 Here, an area 111 in (a) of FIG. 23 and an area 112 in (b) of FIG. A region 114 in (b) of 23 is an overlapping region.

通常の場合、全周画像生成部109は、それぞれの未重複領域を合成して、図24の(a)に示すような合成画像を生成する。しかし、重複領域が発生する場合に、全周画像生成部109は、図24の(b)に示すように、損傷の位置が正対位置により近い画像の重複領域113を用いて合成する。このように、損傷が隣接する撮影画像に映り込み、重複する領域がある場合に、全周画像生成部109は、より正対位置に近い画像を優先的に合成する。これによって、分解能が高く、かつ歪の少ない損傷の合成画像を生成することができる。また、上記では、正対位置に近いか否かの判定を損傷単位で行ったが、重複領域の画素毎に判定してもよい。これにより、より分解能が高く、かつ歪の少ない損傷の合成画像を生成することができる。 In a normal case, the omnidirectional image generator 109 synthesizes the non-overlapping regions to generate a synthesized image as shown in FIG. 24(a). However, when an overlapping area occurs, the omnidirectional image generation unit 109 synthesizes using the overlapping area 113 of the image in which the position of the damage is closer to the directly facing position, as shown in FIG. 24(b). In this way, when damage is reflected in adjacent photographed images and there is an overlapping area, the omnidirectional image generation unit 109 preferentially synthesizes an image closer to the directly facing position. This allows a composite image of the damage with high resolution and low distortion to be generated. Further, in the above description, whether or not the position is close to the directly facing position is determined for each damage, but may be determined for each pixel in the overlap region. This allows a composite image of the damage with higher resolution and less distortion to be generated.

次に、全周画像生成部109は、全撮影画像に対して、同様の合成処理を行い、図25に示すような車輪踏面の全周画像を生成する。ここで、全周画像115上に、損傷107および損傷116の2つの損傷が存在している。なお、全周画像を合成する際、各撮影画像で重複する領域に対しては、両方の画像を所定の比率でブレンディングして作成してもよい。このとき正対位置に近い方の画像の比率を、他方より大きくしてもよく、また、双方の画像の同一の損傷の形状が大きく異なる場合には、正対位置に近い方の画像の合成比率をさらに上げてもよい。 Next, the omnidirectional image generation unit 109 performs similar synthesis processing on the omni-photographed images to generate an omnidirectional image of the wheel tread as shown in FIG. 25 . Here, two damages, damage 107 and damage 116, are present on the omnidirectional image 115. FIG. It should be noted that, when synthesizing the omnidirectional images, for an overlapping area in each of the photographed images, both images may be blended at a predetermined ratio. At this time, the ratio of the image closer to the directly facing position may be larger than the other, and if the shape of the same damage in both images is significantly different, the image closer to the directly facing position is combined. You can even increase the ratio.

(代表画像選択部110)
本実施形態に係る代表画像選択部110は、全周画像上の指定領域の入力を受け付ける。そして、代表画像選択部110は、指定領域を含む撮像画像から、一つの撮像画像を選択する。
(Representative image selection unit 110)
The representative image selection unit 110 according to the present embodiment receives input of a designated area on the omnidirectional image. Then, the representative image selection unit 110 selects one captured image from the captured images including the designated area.

すなわち、代表画像選択部110は、ユーザに車輪踏面の全周画像を提示し、ユーザが指定する指定領域の入力を受け付け、指定領域が、カメラに対して正対位置となる撮影画像を用いて代表画像を選択する。 That is, the representative image selection unit 110 presents the user with an image of the entire circumference of the wheel tread, receives an input of the specified area specified by the user, and uses the photographed image in which the specified area is directly facing the camera. Select a representative image.

以下に、このときの処理について説明する。 The processing at this time will be described below.

(全体的な処理の流れ)
図26は、本実施形態に係る画像データ生成装置108が実行する処理の一例を示すフローチャートである。図26のフローチャートは、図15のフローチャートに対して、ステップS3の後に、ステップS300からステップS303が追加された内容であるため、追加されたステップについて説明する。
(Overall processing flow)
FIG. 26 is a flowchart showing an example of processing executed by the image data generation device 108 according to this embodiment. Since the flowchart of FIG. 26 has steps S300 to S303 added after step S3 to the flowchart of FIG. 15, the added steps will be described.

全周画像生成部109は、隣接する損傷画像の組み合わせに関して、同一の損傷が存在するか否かを判定する(ステップS300)。 The omnidirectional image generation unit 109 determines whether or not the same damage exists in a combination of adjacent damage images (step S300).

同一の損傷が存在する場合(ステップS300のYES)、図24の(b)に示すように、全周画像生成部109は、損傷が正対位置に近い方にある画像は重複領域を含めた領域を、損傷が正対位置に近い方にない画像は、前記重複領域を除いた領域が合成されるように、合成位置を設定する(ステップS301)。 If the same damage exists (YES in step S300), as shown in FIG. For an image in which the damage is not located closer to the directly facing position, the composition position is set so that the region excluding the overlapping region is composited (step S301).

同一の損傷が存在しない場合(ステップS300のNO)、図24の(a)で示したように、全周画像生成部109は、それぞれの未重複領域が合成されるように、合成位置を設定する(ステップS302)。 If the same damage does not exist (NO in step S300), as shown in (a) of FIG. (step S302).

そして、全周画像生成部109は、全ての合成位置を求めたか否かを判定する(ステップS303)。 Then, the omnidirectional image generation unit 109 determines whether or not all combining positions have been obtained (step S303).

全ての合成位置を求めた場合(ステップS303のYES)、全周画像生成部109は、合成位置を用いて各撮影画像を切り出し、それらを平面画像に展開し、それらを撮影順に並べて全周画像を生成する(ステップS304)。同一の損傷が存在しない場合(ステップS300のNO)、全周画像生成部109は、ステップS300の判定に戻る。 When all the combining positions have been obtained (YES in step S303), the omnidirectional image generation unit 109 cuts out each photographed image using the compositing positions, develops them into planar images, arranges them in order of photography, and generates an omnidirectional image. is generated (step S304). If the same damage does not exist (NO in step S300), the omnidirectional image generator 109 returns to the determination in step S300.

次に、代表画像選択部110は、ユーザの指定する領域の入力を受け付け、ユーザ指定領域がカメラの正対位置に最も近い撮影画像データを用いて代表画像を生成する(ステップS305)。そして、処理を終了する。 Next, the representative image selection unit 110 receives an input of a user-specified region, and generates a representative image using the photographed image data in which the user-designated region is closest to the position directly facing the camera (step S305). Then, the process ends.

このときの代表画像選択部110の処理の詳細について図面を用いて説明する。図27は、図26のステップS305の処理の詳細を示すフローチャートである。 Details of the processing of the representative image selection unit 110 at this time will be described with reference to the drawings. FIG. 27 is a flow chart showing the details of the processing in step S305 of FIG.

代表画像選択部110は、全周画像生成部109で生成した車輪踏面の全周画像をユーザに提示し、ユーザの表示したい指定領域の外部入力を受け付ける(ステップS306)。例えば、ユーザはマウス、フリック等の外部入力を通じて、提示された画像のうち、表示したい領域を指定する。なお、全周画像の提示には、画像データ生成装置108に内蔵された、または、外付けされた液晶ディスプレイ等の、画像を表示できるデバイスを用いることができる。 The representative image selection unit 110 presents the user with the omnidirectional image of the wheel tread generated by the omnidirectional image generation unit 109, and receives an external input of the user's designated area to be displayed (step S306). For example, the user designates an area to be displayed in the presented image through an external input such as a mouse or flick. A device capable of displaying an image, such as a liquid crystal display built into the image data generation device 108 or externally attached, can be used to present the omnidirectional image.

次に、代表画像選択部110は、損傷領域検出部2が算出した、損傷検出の結果を参照して、ユーザの指定領域における損傷が存在するか否かを判定する(ステップS307)。指定領域に損傷が存在する場合(ステップS307のYES)、代表画像選択部110は、その損傷が最も正対位置に近い画像を用いて代表画像を生成する(ステップS308)。指定領域に損傷が存在しない場合(ステップS307のNO)、代表画像選択部110は、損傷の代わりに指定領域が最も正対な位置にある画像を用いて代表画像を生成する(ステップS309)。そして、処理を終了する。 Next, the representative image selection unit 110 refers to the damage detection result calculated by the damage area detection unit 2, and determines whether or not there is damage in the user-designated area (step S307). If damage exists in the designated area (YES in step S307), the representative image selection unit 110 generates a representative image using the image in which the damage is closest to the directly facing position (step S308). If there is no damage in the designated area (NO in step S307), the representative image selection unit 110 generates a representative image using an image in which the designated area is positioned most directly in place of the damage (step S309). Then, the process ends.

このように、最も歪が少なくなるようにして作成した車輪踏面の全周画像に基づき、ユーザが注目する損傷の位置を指定し、指定された損傷の位置が最も正対に近い位置の撮影画像を用いて代表画像を生成することによって、ユーザは車輪踏面の注目する領域の状態を正確に把握することができる。 In this way, based on the omnidirectional image of the wheel tread created so as to minimize distortion, the user designates the position of the damage to be focused on, and the photographed image of the position closest to the designated damage position is displayed. By generating a representative image using , the user can accurately grasp the state of the focused area of the wheel tread.

また、車輪踏面の全周画像を提示するため、ユーザは車輪踏面の全領域における損傷の状態を把握することができる。特に、車輪踏面の全領域に複数の損傷がある場合では、車輪全体における損傷の割合や、各損傷の位置関係を把握することができる。 In addition, since a full-circumference image of the wheel tread is presented, the user can grasp the state of damage in the entire area of the wheel tread. In particular, when there are multiple damages in the entire area of the wheel tread, it is possible to grasp the ratio of damages in the entire wheel and the positional relationship of each damage.

また、撮影タイミングが遅れたり、車両の走行速度が想定より速かったりしたなどの理由により、本来と異なるタイミングで撮影してしまう場合がある。このような場合、全周画像生成部109で車輪踏面の全周画像を生成時に、撮影画像の車輪位置と、予め想定した撮影タイミングにおける車輪の位置比較し、そのずれ幅を車輪踏面の値に換算し、予め設定していた撮影画像の未重複領域をずらすことにより調整して生成すればよい。なお、撮影タイミングが遅すぎたり、撮影できなかったりした場合では、いずれの撮影画像にも映らない領域が発生した場合は、全周画像上で、撮影ミスで有ることを示す別の画像として、例えば黒塗りの画像等を用いて、全周画像を生成してもよい。これにより、撮影ミスなどで全周画像が撮影できなかった場合、ユーザは、車輪踏面上で撮影された領域とそうでない領域を把握することができ、例えば、撮影できなかった領域のサイズが、所定のサイズよりも小さい場合では、損傷の判定に特に影響が無いと判断してもよい。 In addition, there are cases where the image is captured at a timing different from the original due to reasons such as the timing of the image being captured being delayed or the traveling speed of the vehicle being faster than expected. In such a case, when the omnidirectional image generation unit 109 generates the omnidirectional image of the wheel tread, the wheel position in the photographed image is compared with the position of the wheel at the assumed photographing timing. It is sufficient to adjust and generate by shifting the non-overlapping area of the photographed image set in advance. In addition, if the shooting timing is too late or the shooting is not possible, if there is an area that cannot be captured in any of the captured images, another image will be displayed on the all-around image to indicate that there is a shooting error. For example, a black-painted image or the like may be used to generate the omnidirectional image. As a result, when the omnidirectional image cannot be captured due to a shooting error or the like, the user can grasp the imaged area on the wheel tread and the other area. If the size is smaller than a predetermined size, it may be determined that there is no particular effect on determination of damage.

また、ユーザは撮影画像を直接指定し、その指定に基づき、代表画像選択部110は、代表画像を生成しても構わない。このとき、代表画像に対応する領域を強調表示した全周画像を同時に生成しても構わない。これにより、現在表示されている撮影画像が、車輪踏面上のどの傷であるのか、ユーザは正確に把握することができる。 Alternatively, the user may directly specify the captured image, and the representative image selection unit 110 may generate the representative image based on the specification. At this time, an omnidirectional image in which a region corresponding to the representative image is highlighted may be generated at the same time. As a result, the user can accurately ascertain which scratch on the wheel tread is the photographed image that is currently being displayed.

また、全周画像生成部109で生成する全周画像を提示する際は、全周のうちの所定の範囲の画像でも構わない。例えば、全周画像の短辺方向に分割し、分割した画像を上下に並べて提示しても構わない。これにより、ディスプレイの表示エリアの形状に合わせた表示ができ、全周画像のサイズを大きくして見ることが可能となる。 Further, when presenting the omnidirectional image generated by the omnidirectional image generation unit 109, an image of a predetermined range of the omnidirectional image may be used. For example, the omnidirectional image may be divided in the direction of the short side, and the divided images may be arranged vertically and presented. As a result, it is possible to display the image in accordance with the shape of the display area of the display, and to enlarge the size of the omnidirectional image.

図28は、本実施形態に係る出力画面の一例を示す図である。出力画面の右側には、代表画像が表示される。出力画面の左側には複数の撮影画像が表示される。代表画像は、複数の撮影画像から選択された画像である。 FIG. 28 is a diagram showing an example of an output screen according to this embodiment. A representative image is displayed on the right side of the output screen. A plurality of captured images are displayed on the left side of the output screen. A representative image is an image selected from a plurality of captured images.

〔ソフトウェアによる実現例〕
画像データ生成装置1、108の制御ブロック(損傷領域検出部2、代表画像選択部3、出力画像生成部4、全周画像生成部109、代表画像選択部110)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control blocks of the image data generation devices 1 and 108 (damaged area detection unit 2, representative image selection unit 3, output image generation unit 4, all-around image generation unit 109, representative image selection unit 110) are integrated circuits (IC chips). It may be implemented by a logic circuit (hardware) formed in the same manner as above, or may be implemented by software.

後者の場合、画像データ生成装置1、108は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the image data generation device 1, 108 is provided with a computer that executes instructions of a program, which is software that implements each function. This computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. In addition, a RAM (Random Access Memory) for developing the above program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る画像処理装置は、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、前記一つの撮像画像に基づいて、代表画像を出力する出力部と、を備えている。
〔summary〕
An image processing device according to aspect 1 of the present invention includes a detection unit that detects a damaged area corresponding to damage to the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track; , a selection unit that selects one captured image based on the position of the damaged area in each captured image, and an output unit that outputs a representative image based on the one captured image.

上記の構成によれば、各撮像画像内における損傷領域の位置に基づいて、損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the position of the damaged area in each picked-up image, it is possible to output image data that makes it easy to visually recognize the damage of the wheel.

本発明の態様2に係る画像処理装置は、前記態様1において、前記選択部が、前記損傷領域の位置と、前記踏面における法線方向が前記撮像装置の光軸方向に略平行な正対位置と、の間の距離に基づいて前記一つの撮像画像を選択することとしてもよい。 The image processing apparatus according to aspect 2 of the present invention is the image processing apparatus according to aspect 1, wherein the selection unit is positioned such that the position of the damaged area and the normal direction of the tread are substantially parallel to the optical axis direction of the imaging device. , and the one captured image may be selected based on the distance between .

上記の構成によれば、踏面における撮像装置の正対位置との距離に基づいて、損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the distance from the position directly facing the imaging device on the tread, it is possible to output image data that makes it easy to visually recognize the damage to the wheel.

本発明の態様3に係る画像処理装置は、前記態様1または2において、前記選択部が、前記撮像装置の光軸方向に基づいて前記一つの撮像画像を選択することとしてもよい。 In the image processing apparatus according to aspect 3 of the present invention, in the aspect 1 or 2, the selection unit may select the one captured image based on the optical axis direction of the imaging device.

上記の構成によれば、撮像装置の光軸方向に基づいて損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the optical axis direction of the imaging device, it is possible to output image data that makes it easy to visually recognize the damage of the wheel.

本発明の態様4に係る画像処理装置は、前記態様1~3において、前記選択部が、前記損傷領域の大きさにさらに基づいて前記一つの撮像画像を選択することとしてもよい。 In the image processing apparatus according to aspect 4 of the present invention, in the aspects 1 to 3, the selection unit may select the one captured image further based on the size of the damaged area.

上記の構成によれば、損傷領域の大きさにさらに基づいて損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected further based on the size of the damaged area, it is possible to output image data that makes it easy to visually recognize the damage of the wheel.

本発明の態様5に係る画像処理装置は、前記態様1~4において、前記選択部が、前記損傷領域の画素値にさらに基づいて前記一つの撮像画像を選択することとしてもよい。 In the image processing apparatus according to aspect 5 of the present invention, in any one of aspects 1 to 4, the selection unit may select the one captured image further based on pixel values of the damaged area.

上記の構成によれば、損傷領域の画素値にさらに基づいて損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected further based on the pixel values of the damaged area, it is possible to output image data in which the damage of the wheel is easy to visually recognize.

本発明の態様6に係る画像処理装置は、前記態様1~5において、前記選択部が、同一の損傷に対応する損傷領域の位置に基づいて前記一つの撮像画像を選択することとしてもよい。 In the image processing apparatus according to aspect 6 of the present invention, in the aspects 1 to 5, the selection unit may select the one captured image based on the position of the damaged area corresponding to the same damage.

上記の構成によれば、同一の損傷に対応する損傷領域の位置に基づいて損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the position of the damaged area corresponding to the same damage, it is possible to output image data in which the wheel damage is easily visible.

本発明の態様7に係る画像処理装置は、前記態様1~6において、前記複数の撮像画像を合成して前記踏面の全周画像を生成する生成部をさらに備え、前記生成部が、各撮像画像内における前記損傷領域の位置に基づいて選択した1以上の撮像画像を優先的に合成することとしてもよい。 An image processing apparatus according to aspect 7 of the present invention is, in the aspects 1 to 6, further comprising a generation unit that synthesizes the plurality of captured images to generate an all-around image of the tread, wherein the generation unit includes each of the captured images. One or more captured images selected based on the position of the damaged area within the image may be preferentially combined.

上記の構成によれば、車輪の踏面の全周を含む、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, it is possible to output image data including the entire circumference of the tread surface of the wheel so that the damage to the wheel can be easily visually recognized.

本発明の態様8に係る画像処理装置は、前記態様7において、前記全周画像上の指定領域の入力を受け付ける入力部をさらに備え、前記選択部が、前記指定領域を含む撮像画像から、前記一つの撮像画像を選択することとしてもよい。 An image processing apparatus according to aspect 8 of the present invention, in aspect 7, further includes an input unit that receives an input of a specified region on the omnidirectional image, wherein the selection unit selects the It is also possible to select one captured image.

上記の構成によれば、ユーザの指定領域に応じて、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, it is possible to output image data in which the wheel damage is easily visible according to the user-specified region.

本発明の態様9に係る画像処理方法は、画像処理装置が、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出し、画像処理装置が、各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択し、前記一つの撮像画像に基づいて、代表画像を出力することを包含する。 In the image processing method according to aspect 9 of the present invention, the image processing device detects a damaged region corresponding to the damage to the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of a wheel running on a railroad track. detecting, an image processing device selecting one captured image based on the position of the damaged area in each captured image, and outputting a representative image based on the one captured image.

上記の構成によれば、各撮像画像内における損傷領域の位置に基づいて、損傷領域の撮像画像を選択するので、車輪の損傷が視認し易い画像データを出力することができる。 According to the above configuration, since the picked-up image of the damaged area is selected based on the position of the damaged area in each picked-up image, it is possible to output image data that makes it easy to visually recognize the damage of the wheel.

本発明の各態様に係る画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記画像処理装置が備える各部(ソフトウェア要素)として動作させることにより上記画像処理装置をコンピュータにて実現させる画像処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The image processing apparatus according to each aspect of the present invention may be implemented by a computer. In this case, the image processing apparatus is implemented by the computer by operating the computer as each part (software element) included in the image processing apparatus. A control program for an image processing apparatus realized by a computer and a computer-readable recording medium recording the program are also included in the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

1、108 画像データ生成装置(画像処理装置)
2 損傷領域検出部(検出部)
3 代表画像選択部(選択部)
4 出力画像生成部(出力部)
109 全周画像生成部(生成部)
110 代表画像選択部(入力部、選択部)
1, 108 image data generation device (image processing device)
2 Damaged area detection unit (detection unit)
3 Representative image selection section (selection section)
4 Output image generator (output unit)
109 Circumference image generation unit (generation unit)
110 representative image selection unit (input unit, selection unit)

Claims (9)

線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、
各撮像画像内における前記損傷領域の位置ならびに前記車輪に対する前記撮像装置の位置および向きの情報に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備えていることを特徴とする画像処理装置。
A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image and information on the position and orientation of the imaging device with respect to the wheel ;
an output unit that outputs a representative image based on the one captured image;
An image processing device comprising:
線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、
各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備え
前記選択部は、前記損傷領域の位置と、前記踏面における法線方向が前記撮像装置の光軸方向に略平行な正対位置と、の間の距離に基づいて前記一つの撮像画像を選択することを特徴とする画像処理装置。
A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image;
an output unit that outputs a representative image based on the one captured image;
with
The selection unit selects the one captured image based on the distance between the position of the damaged area and a directly facing position where the normal direction of the tread surface is substantially parallel to the optical axis direction of the imaging device. An image processing apparatus characterized by:
線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、
各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備え
前記選択部は、前記撮像装置の光軸方向に基づいて前記一つの撮像画像を選択することを特徴とする画像処理装置。
A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image;
an output unit that outputs a representative image based on the one captured image;
with
The image processing device, wherein the selection unit selects the one captured image based on an optical axis direction of the imaging device.
前記選択部は、前記損傷領域の大きさにさらに基づいて前記一つの撮像画像を選択することを特徴とする請求項1~3のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the selection unit selects the one captured image further based on the size of the damaged area. 前記選択部は、前記損傷領域の画素値にさらに基づいて前記一つの撮像画像を選択することを特徴とする請求項1~4のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the selection unit selects the one captured image further based on pixel values of the damaged area. 線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、
各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備え
前記選択部は、同一の損傷に対応する損傷領域の位置に基づいて前記一つの撮像画像を選択することを特徴とする画像処理装置。
A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image;
an output unit that outputs a representative image based on the one captured image;
with
The image processing device, wherein the selection unit selects the one captured image based on a position of a damaged area corresponding to the same damage.
線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出する検出部と、
各撮像画像内における前記損傷領域の位置に基づいて一つの撮像画像を選択する選択部と、
前記一つの撮像画像に基づいて、代表画像を出力する出力部と、
を備え
前記複数の撮像画像を合成して前記踏面の全周画像を生成する生成部をさらに備え、
前記生成部は、各撮像画像内における前記損傷領域の位置に基づいて選択した1以上の撮像画像を優先的に合成することを特徴とする画像処理装置。
A detection unit that detects a damaged area corresponding to the damage of the wheel from a plurality of captured images continuously captured by an imaging device of the tread surface of the wheel running on the railroad track;
a selection unit that selects one captured image based on the position of the damaged area in each captured image;
an output unit that outputs a representative image based on the one captured image;
with
further comprising a generation unit that synthesizes the plurality of captured images to generate an all-around image of the tread,
The image processing apparatus, wherein the generation unit preferentially synthesizes one or more captured images selected based on the position of the damaged area in each captured image.
前記全周画像上の指定領域の入力を受け付ける入力部をさらに備え、
前記選択部は、前記指定領域を含む撮像画像から、前記一つの撮像画像を選択することを特徴とする請求項7に記載の画像処理装置。
further comprising an input unit that receives input of a specified area on the omnidirectional image,
8. The image processing apparatus according to claim 7, wherein the selection unit selects the one captured image from captured images including the designated area.
画像処理装置が、線路上を走行する車輪の踏面を撮像装置によって連続的に撮像した複数の撮像画像から、前記車輪の損傷に対応する損傷領域を検出し、画像処理装置が、各撮像画像内における前記損傷領域の位置ならびに前記車輪に対する前記撮像装置の位置および向きの情報に基づいて一つの撮像画像を選択し、前記一つの撮像画像に基づいて、代表画像を出力することを包含することを特徴とする画像処理方法。 An image processing device detects a damaged area corresponding to the damage of the wheel from a plurality of captured images in which the tread surface of the wheel running on the railroad track is continuously captured by the imaging device, and the image processing device detects the damage area in each captured image. selecting one captured image based on information on the position of the damaged area and the position and orientation of the imaging device with respect to the wheel , and outputting a representative image based on the one captured image. An image processing method characterized by:
JP2019048996A 2019-03-15 2019-03-15 Image processing device and image processing method Active JP7237671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019048996A JP7237671B2 (en) 2019-03-15 2019-03-15 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019048996A JP7237671B2 (en) 2019-03-15 2019-03-15 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020148744A JP2020148744A (en) 2020-09-17
JP7237671B2 true JP7237671B2 (en) 2023-03-13

Family

ID=72429586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019048996A Active JP7237671B2 (en) 2019-03-15 2019-03-15 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7237671B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053059A (en) 2009-09-01 2011-03-17 Hitachi Ltd Vehicle inspection apparatus
JP2011053058A (en) 2009-09-01 2011-03-17 Hitachi Ltd Vehicle inspection device
JP2015179041A (en) 2014-03-19 2015-10-08 東芝トランスポートエンジニアリング株式会社 Wheel shape measuring device and wheel shape measuring method
CN106124521A (en) 2016-08-31 2016-11-16 成都铁安科技有限责任公司 A kind of Railway wheelset detection device and method
CN107180416A (en) 2017-05-17 2017-09-19 石家庄铁道大学 Train wheel tread image deformity correction method and system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05126686A (en) * 1991-11-08 1993-05-21 Railway Technical Res Inst Vehicle inspecting device
JP3219358B2 (en) * 1993-11-01 2001-10-15 東日本旅客鉄道株式会社 Wheel tread defect inspection system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053059A (en) 2009-09-01 2011-03-17 Hitachi Ltd Vehicle inspection apparatus
JP2011053058A (en) 2009-09-01 2011-03-17 Hitachi Ltd Vehicle inspection device
JP2015179041A (en) 2014-03-19 2015-10-08 東芝トランスポートエンジニアリング株式会社 Wheel shape measuring device and wheel shape measuring method
CN106124521A (en) 2016-08-31 2016-11-16 成都铁安科技有限责任公司 A kind of Railway wheelset detection device and method
CN107180416A (en) 2017-05-17 2017-09-19 石家庄铁道大学 Train wheel tread image deformity correction method and system

Also Published As

Publication number Publication date
JP2020148744A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
US20160342848A1 (en) Image Processing Apparatus, Image Processing Method, and Computer Program Product
KR101396346B1 (en) Method and apparatus for creating a 3D image using 2D photograph images
WO2009130820A1 (en) Image processing device, display, image processing method, program, and recording medium
EP2533193A1 (en) Apparatus and method for image processing
JP2005331929A (en) Image analysis method, image analysis program, and pixel evaluation system therewith
CN107532917B (en) Display control unit and display control method
US11838674B2 (en) Image processing system, image processing method and storage medium
Přibyl et al. Feature point detection under extreme lighting conditions
JP2010183265A (en) Image display device and method for calculating camera-mounting angle of the same
US20200175663A1 (en) Image processing system, server apparatus, image processing method, and image processing program
JP7102890B2 (en) Path simulation device
CN111144305A (en) Training data generation method and device, electronic equipment and medium
US11210773B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
US11361455B2 (en) Systems and methods for facilitating the identifying of correspondences between images experiencing motion blur
US11416978B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
JP7237671B2 (en) Image processing device and image processing method
US11830177B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
JP2010136207A (en) System for detecting and displaying pedestrian
CN110832851B (en) Image processing apparatus, image conversion method, and program
JP2013115738A (en) Vehicle periphery imaging apparatus and method of processing vehicle peripheral image
JP2008269181A (en) Object detector
JP6762779B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
WO2018030386A1 (en) Position designation device and position designation method
JP2013115739A (en) Inter-image difference device and inter-image difference method
JP5313080B2 (en) Linear component reduction device and pedestrian detection display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R150 Certificate of patent or registration of utility model

Ref document number: 7237671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150