JP5303405B2 - Vehicle inspection device - Google Patents

Vehicle inspection device Download PDF

Info

Publication number
JP5303405B2
JP5303405B2 JP2009201649A JP2009201649A JP5303405B2 JP 5303405 B2 JP5303405 B2 JP 5303405B2 JP 2009201649 A JP2009201649 A JP 2009201649A JP 2009201649 A JP2009201649 A JP 2009201649A JP 5303405 B2 JP5303405 B2 JP 5303405B2
Authority
JP
Japan
Prior art keywords
image
wheel
polar coordinate
vehicle inspection
inspection apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009201649A
Other languages
Japanese (ja)
Other versions
JP2011053059A (en
Inventor
一哉 高橋
忠明 北村
竜 弓場
豪 齋藤
豊 佐野
直樹 勝田
正幸 乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Central Japan Railway Co
Original Assignee
Hitachi Ltd
Central Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Central Japan Railway Co filed Critical Hitachi Ltd
Priority to JP2009201649A priority Critical patent/JP5303405B2/en
Publication of JP2011053059A publication Critical patent/JP2011053059A/en
Application granted granted Critical
Publication of JP5303405B2 publication Critical patent/JP5303405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle inspection apparatus performing inspection by taking a photograph of the side face of a vehicle, in particular, a vehicle inspection device forming an inspection image of the entire circumference of each wheel suitable for inspection, from among a plurality of partial images by correction, based on the rotation angles of the wheels among a plurality of cameras through measurement of the amount of abrasion that differs for each wheel, and the radius of the wheels. <P>SOLUTION: The vehicle inspection apparatus includes an image acquisition device disposed along a railway track to photograph a wheel image of the side face of a wheel of a vehicle traveling along the railway track; an image-storing device for storing the image photographed by the image-photographing device; and an image-processing device for performing image processing. The image storing device preliminarily stores a facing image of a reference wheel without abrasion. The image-processing device generates a facing image that faces the wheel, by applying planar projective transformation to the wheel image obtained by the image acquisition device; estimates the position of an axle of the wheel in the facing image; and stores, in the image storage device, an image in which the estimated axle position is corrected to coincide with the axle position of the facing image of the reference wheel, without abrasion stored in the image storage means. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は車両の車輪側面を撮影して、当該車輪側面の状態を検査記録する車両検査装置に関する。   The present invention relates to a vehicle inspection device that photographs a wheel side surface of a vehicle and inspects and records the state of the wheel side surface.

車両の走行距離に応じて車輪の磨耗や劣化が進むことから、劣化の進行を記録することは部品の交換時期を知るうえで重要である。ピット内に車両を止めて部品の点検を行うが、車輪については周辺部の各種部品に遮蔽されており、車輪全周を1回の撮影で取得して検査することはできない。   Since the wear and deterioration of the wheels proceed according to the travel distance of the vehicle, recording the progress of the deterioration is important for knowing the replacement time of the parts. The vehicle is stopped in the pit and the parts are inspected. However, the wheels are shielded by various parts in the periphery, and the entire circumference of the wheels cannot be acquired and inspected by one photographing.

このような事情から、車輪の検査を行う方法として車両の走行中にカメラ等で車輪を撮影する技術が開示されている。例えば特許文献1(特開平7−174672)に記載の車輪踏面欠陥検査装置は、線路脇に設置した複数のカメラで車輪踏面を連写し、当該連写画像から車輪踏面の欠陥を計測している。この際に車輪の汚れと欠陥は異物として検出されたうえでその縦横比に基づいて分類される。   Under such circumstances, as a method for inspecting a wheel, a technique for photographing a wheel with a camera or the like while the vehicle is traveling is disclosed. For example, a wheel tread surface defect inspection device described in Patent Document 1 (Japanese Patent Laid-Open No. 7-174672) continuously measures a wheel tread surface with a plurality of cameras installed beside the track, and measures a wheel tread surface defect from the continuous image. . At this time, dirt and defects on the wheel are detected as foreign matters and then classified based on the aspect ratio.

特許文献2(特開平5−126686)に記載の車輪検査装置も線路脇のカメラで接近してくる車輪の踏面を水平方向に長いスリット状に連写したうえで、これを垂直方向に積み重ねて、当該車輪1周分の車輪踏面を形成して保存するようになっている。   The wheel inspection apparatus described in Patent Document 2 (Japanese Patent Laid-Open No. 5-126686) is also obtained by continuously shooting the tread surface of a wheel approaching by a camera beside the track in the shape of a long slit in the horizontal direction, and stacking it vertically. The wheel tread for one round of the wheel is formed and stored.

ここでは全ての車輪は半径が同一であることを前提としていて、当該車輪の、周囲長の10分の1の等間隔で配置した10台のカメラで撮影した画像を1回転360度の10分の1すなわち36度ピッチで積み重ねることでパノラマ合成がなされる旨記載されている。しかし実際には磨耗により車輪毎に半径が異なるため、一定速度で走行する車両の各車輪の回転速度は異なる。したがって、前記10台のカメラによる車輪の分割画像は36度ピッチになっているとは限らず、したがって、36度ピッチで積み重ねても検査に好適なパノラマ画像を得ることはできない。   Here, it is assumed that all wheels have the same radius, and images taken by 10 cameras arranged at equal intervals of 1/10 of the perimeter of the wheel are 10 minutes of 360 degrees per rotation. In other words, it is described that panorama composition is performed by stacking at a pitch of 36 degrees. However, in reality, the radius of each wheel differs due to wear, and therefore the rotational speed of each wheel of a vehicle traveling at a constant speed is different. Therefore, the divided images of the wheels by the ten cameras are not always at a 36-degree pitch, and therefore a panoramic image suitable for inspection cannot be obtained even if they are stacked at a 36-degree pitch.

・・・特開平7−174672... JP-A-7-174672 ・・・特開平5−126686... Japanese Patent Laid-Open No. 5-126686

ところで、車輪踏面だけでなく、車輪側面にも傷や割れが生じることから、車輪側面の検査も必要であるが、従来は、車輪を撮影して検査する技術について、車輪踏面しか行われておらず、車輪側面については考慮されていなかった。   By the way, since not only the wheel tread but also the wheel side surface is scratched and cracked, it is necessary to inspect the wheel side surface. Conventionally, only the wheel tread has been used for the technique of photographing and inspecting the wheel. The wheel side was not considered.

この車輪側面検査での問題点について後で詳細に説明するが、ごく簡単には車輪の磨耗によって車輪踏面検査では問題とならなかった多くの解決課題が発生した。これは例えば、車輪磨耗により車輪半径が変化するということであり、撮影画像における車軸位置の垂直方向と水平方向の一致化と、回転角の補正が求められる結果となった。   Problems in the wheel side surface inspection will be described in detail later. However, a number of problems that did not become a problem in the wheel tread surface inspection were caused by the wear of the wheel. This means, for example, that the wheel radius changes due to wheel wear, and the result is that the vertical and horizontal alignment of the axle position in the photographed image and the correction of the rotation angle are required.

さらに、車輪側面についても全周の状態を一覧にて表示検査することが有効であるが、この場合にも踏面検査にはない工夫が必要である。
本発明が解決しようとする課題は、車輪側面を撮影して検査することができる車両検査装置を提供することにある。
Further, it is effective to display and inspect the state of the entire circumference of the wheel side surface as a list, but in this case as well, a device that is not included in the tread surface inspection is necessary.
The problem to be solved by the present invention is to provide a vehicle inspection device capable of photographing and inspecting a wheel side surface.

さらに、車輪毎に異なる磨耗の量、車輪の半径の計測を通じて複数カメラ間の各車輪の回転角に基づいて補正することで、複数の部分画像から、検査に好適な車輪全周の検査画像を形成することを課題とする。   Furthermore, by correcting the amount of wear that differs for each wheel and the rotation angle of each wheel through measurement of the wheel radius, an inspection image of the entire circumference of the wheel suitable for inspection can be obtained from a plurality of partial images. The problem is to form.

本発明においては、線路に沿って設置され、線路を通過する車両の車輪側面の車輪画像を取得する画像取得装置と、画像取得装置が取得した画像を保存する画像保存装置と、画像処理を行う画像処理装置とを備え、画像保存装置は、磨耗のない基準車輪の正対化画像を予め保持しており、画像処理装置は、画像取得装置で取得した車輪画像に射影変換を施して車輪に正対する正対化画像を生成し、正対化画像について車輪の車軸位置を推定し、推定した車軸位置を、画像保存手段に保持している磨耗のない基準車輪の正対化画像の車軸位置に合致させた画像に修正して画像保存装置に保存する。   In the present invention, an image acquisition device that acquires a wheel image of a wheel side surface of a vehicle that is installed along the track and passes through the track, an image storage device that stores an image acquired by the image acquisition device, and image processing are performed. An image processing device, the image storage device holds in advance a facing image of the reference wheel without wear, and the image processing device performs a projective transformation on the wheel image acquired by the image acquisition device to the wheel. A front facing image is generated, the wheel axle position is estimated for the facing image, and the estimated axle position is held in the image storage means. The image is corrected to match the image and stored in the image storage device.

また、画像処理装置は、車軸位置を合致させたあとの車輪画像について、車軸位置を原点とする極座標変換を行って極座標画像を生成して、極座標画像を画像保存装置に保存する。   In addition, the image processing apparatus performs polar coordinate conversion using the axle position as an origin for the wheel image after matching the axle position, generates a polar coordinate image, and stores the polar coordinate image in the image storage device.

また、画像保存装置は、車輪ボルトの極座標画像上でのテンプレート画像を予め保持しており、画像処理装置は、車軸位置を原点とする極座標変換を行った極座標画像に対してテンプレートマッチングによりボルト位置を確定する。   Further, the image storage device holds a template image on the polar coordinate image of the wheel bolt in advance, and the image processing device detects the bolt position by template matching on the polar coordinate image obtained by performing polar coordinate conversion with the axle position as the origin. Confirm.

また、画像処理装置は、極座標画像に対して欠陥の有無を検出する処理を行い、画像保存装置に保存する。   Further, the image processing device performs processing for detecting the presence or absence of a defect with respect to the polar coordinate image, and stores it in the image storage device.

さらに、画像処理装置は、極座標画像に対して欠陥の有無を検出する処理を行い、その欠陥位置をテンプレートマッチングにより確定したボルト位置との関係で画像保存装置に保存する。   Further, the image processing device performs processing for detecting the presence or absence of a defect in the polar coordinate image, and stores the defect position in the image storage device in relation to the bolt position determined by template matching.

また、本発明においては、線路に沿って複数台設置され、線路を通過する車両の車輪側面の全周に亘る複数枚の車輪画像を取得する画像取得装置と、画像取得装置が取得した画像を保存する画像保存装置と、画像処理を行う画像処理装置とを備え、画像保存手段は、磨耗のない基準車輪の正対化画像を予め保持しており、画像処理装置は、車輪側面の全周に亘る複数枚の車輪画像のそれぞれに射影変換を施して車輪に正対する複数の正対化画像を生成し、複数の正対化画像について車輪の車軸位置をそれぞれ推定し、推定した車軸位置を、画像保存手段に保持している磨耗のない基準車輪の正対化画像の車軸位置に合致させた画像に修正して画像保存装置に保存する。   Also, in the present invention, an image acquisition device that acquires a plurality of wheel images over the entire circumference of a wheel side surface of a vehicle that is installed along the track and passes through the track, and an image acquired by the image acquisition device. The image storage device includes an image storage device that stores images and an image processing device that performs image processing, and the image storage unit holds a front-facing image of a reference wheel that is free from wear. Projective transformation is performed on each of the plurality of wheel images over a range of distances to generate a plurality of facing images that face the wheels, and the axle positions of the wheels are estimated for each of the plurality of facing images, and the estimated axle position is Then, the image is stored in the image storage device after being corrected to the image matched with the axle position of the facing image of the reference wheel without wear held in the image storage means.

また、画像処理装置は、車軸位置を合致させたあとの複数の車輪画像について、車軸位置を原点とする極座標変換を行って複数の極座標画像を生成し、複数の極座標画像を連結して車輪画像の全周に亘る極座標画像を作成して前記画像保存装置に保存する。   Further, the image processing device generates a plurality of polar coordinate images by performing a polar coordinate conversion with the axle position as an origin for a plurality of wheel images after matching the axle position, and connects the plurality of polar coordinate images to the wheel image. Is created and stored in the image storage device.

また、表示手段を備え、連結した車輪画像の全周に亘る極座標画像の一部矩形領域を表示手段に表示する。   Moreover, a display means is provided, and a partial rectangular area of the polar coordinate image over the entire circumference of the connected wheel image is displayed on the display means.

また、表示手段を備え、記連結した車輪画像の全周に亘る極座標画像の一部の台形領域を抽出し、車輪形状にて表示手段に表示する。   Moreover, a display means is provided, and a part of the trapezoidal region of the polar coordinate image over the entire circumference of the connected wheel images is extracted and displayed on the display means in the wheel shape.

また、画像保存手段は、車輪ボルトの極座標画像上でのテンプレート画像を予め保持しており、画像処理装置は、車軸位置を原点とする極座標変換を行った極座標画像に対してテンプレートマッチングによりボルト位置を確定し、ボルト位置の間隔から、複数の極座標画像を連結して車輪画像の全周に亘る極座標画像を得る。   Further, the image storage means holds a template image on the polar coordinate image of the wheel bolt in advance, and the image processing device performs the bolt position by template matching on the polar coordinate image obtained by performing polar coordinate conversion with the axle position as the origin. And a plurality of polar coordinate images are connected from the bolt position interval to obtain a polar coordinate image over the entire circumference of the wheel image.

また、画像処理装置は、車輪の半径又は直径を求め、この値により前記画像取得装置の、2台以上のカメラの間に回転する回転角をもとめ、回転角度に基づいて、2以上の画像取得装置が生成した極座標変換画像を接合して車輪全周分の極座標変換画像を生成する。   The image processing apparatus obtains the radius or diameter of the wheel, obtains the rotation angle between the two or more cameras of the image acquisition apparatus based on this value, and acquires two or more images based on the rotation angle. The polar coordinate conversion images generated by the apparatus are joined to generate a polar coordinate conversion image for the entire circumference of the wheel.

また、画像処理装置は、車輪構造物の移動量をパタンマッチング処理で計測することにより、画像取得装置の、2台以上のカメラの間に回転する回転角をもとめ、回転角度に基づいて、2以上の画像取得装置が生成した極座標変換画像を接合して車輪全周分の極座標変換画像を生成する。   In addition, the image processing apparatus obtains a rotation angle that rotates between two or more cameras of the image acquisition apparatus by measuring the movement amount of the wheel structure by pattern matching processing. The polar coordinate conversion images generated by the above image acquisition device are joined to generate a polar coordinate conversion image for the entire circumference of the wheel.

さらに、車輪の半径の長さと、基準車輪の半径の長さとの差をもって、車輪の磨耗量と判定する。   Further, the wear amount of the wheel is determined based on the difference between the radius of the wheel and the radius of the reference wheel.

本発明によれば、車輪側面を撮影して検査することができる車両検査装置を提供することができ、車輪ごとの側面の画像が管理され、車輪ID番号でデータベース管理することで所望の車輪の側面画像を参照することができる。   ADVANTAGE OF THE INVENTION According to this invention, the vehicle inspection apparatus which can image | photograph and test | inspect a wheel side surface can be provided, the image of the side surface for every wheel is managed, and database of a desired wheel is managed by managing a database by wheel ID number. A side image can be referenced.

また、画像処理により特徴点を検出することが可能であり、以前の同一車輪の特徴点と比較することで車輪の劣化の状況を把握することが可能となる。また、車輪の回転角に応じて補正してパノラマ形成することで、検査に好適な車輪全周画像を得ることができる。   Further, it is possible to detect feature points by image processing, and it is possible to grasp the state of deterioration of the wheels by comparing with the feature points of the same wheel in the past. Further, a panoramic image can be formed by correcting according to the rotation angle of the wheel, whereby a wheel all-round image suitable for inspection can be obtained.

本発明の実施例に係る画像処理装置の処理フローを示す図。The figure which shows the processing flow of the image processing apparatus which concerns on the Example of this invention. 線路と線路脇に設置された検査ユニットの位置関係を示す図。The figure which shows the positional relationship of a test | inspection unit installed in the track and the track side. 車両検査装置1の全体構成図。1 is an overall configuration diagram of a vehicle inspection device 1. FIG. 画像取得装置の構成を示す図。The figure which shows the structure of an image acquisition apparatus. カメラの撮影視野を説明するための図。The figure for demonstrating the imaging | photography visual field of a camera. 車輪ごとに磨耗度合いが相違することを示す図。The figure which shows that a wear degree differs for every wheel. 車輪に対してカメラが正対していないことを示す図。The figure which shows that the camera is not facing directly with respect to a wheel. 車輪毎に、撮影時に水平方向の差異を生じることを示す図。The figure which shows producing the difference of a horizontal direction at the time of imaging | photography for every wheel. 基準車輪のときの撮影を示す図。The figure which shows imaging | photography at the time of a reference | standard wheel. 磨耗車輪のときの撮影を示す図。The figure which shows imaging | photography at the time of a wear wheel. 座標系の説明を示す図。The figure which shows description of a coordinate system. 基準車輪70と画面上画像マトリクス25の関係を示す図。The figure which shows the relationship between the reference | standard wheel 70 and the image matrix 25 on a screen. 基準車輪ワールド座標を示す図。The figure which shows a reference | standard wheel world coordinate. 正対画像マトリクスを定義するための図。The figure for defining a facing image matrix. 車軸座標検出処理を説明する図。The figure explaining an axle-axis coordinate detection process. 正対画像マトリクスの矩形を示す図。The figure which shows the rectangle of a facing image matrix. 変換後の基準車輪極座標を示す図。The figure which shows the reference | standard wheel polar coordinate after conversion. 変換対象とする車輪画像を示す図。The figure which shows the wheel image made into conversion object. 変換後の極座標画像マトリクスを示す図。The figure which shows the polar coordinate image matrix after conversion. ボルトのテンプレートを示す図。The figure which shows the template of a volt | bolt. 極座標画像マトリクスを示す図。The figure which shows a polar coordinate image matrix. 特徴点を示す図。The figure which shows a feature point. 特徴点の位置特定とあいまいさを示す図。The figure which shows the positional specification and ambiguity of a feature point. 複数カメラからの複数画像を示す図。The figure which shows the several image from a several camera. 複数画像の接合画像を示す図。The figure which shows the joining image of a several image. 車輪20に係る極座標画像マトリクスのパノラマ形成を示す図。The figure which shows the panorama formation of the polar coordinate image matrix which concerns on the wheel 20. FIG. 車輪全周の極座標画像マトリクスを仮想メモリ展開した図。The figure which expanded virtual memory the polar coordinate image matrix of the wheel perimeter. 極座標画像マトリクスの一部を表示した例を示す図。The figure which shows the example which displayed a part of polar coordinate image matrix. 車輪イメージで表示した例を示す図。The figure which shows the example displayed with the wheel image. 車輪全周の極座標画像マトリクスを仮想メモリ展開した図。The figure which expanded virtual memory the polar coordinate image matrix of the wheel perimeter. 極座標画像マトリクスの一部を表示した例を示す図。The figure which shows the example which displayed a part of polar coordinate image matrix. 車輪イメージで表示した例を示す図。The figure which shows the example displayed with the wheel image. 基準化正対画像マトリクスへの変換の重要性を説明する図。The figure explaining the importance of conversion to a standardized facing image matrix.

以下、本発明の車両検査装置の実施例を説明する。   Hereinafter, embodiments of the vehicle inspection apparatus of the present invention will be described.

図2は、線路と線路脇に設置された検査ユニットの位置関係を示す図である。この図に示すように、検査ユニット2は、線路3、4の両脇に複数(本実施例では4つ)設置される。これらはそれぞれ、車両6の矢印で示した進行方向に対して右側車輪の外部を検査するユニットを2(RO)、右側車輪の内部を検査するユニットを2(RI)、車両6の進行方向に対して左側車輪の外部を検査するユニットを2(LO)、同じく左側車輪の内部を検査するユニットを2(LO)と命名し、それぞれ独立に車両6の左右の車輪外側と内側を検査するようになっている。   FIG. 2 is a diagram showing a positional relationship between the track and the inspection unit installed beside the track. As shown in this figure, a plurality of inspection units 2 (four in this embodiment) are installed on both sides of the lines 3 and 4. These units are 2 (RO) for inspecting the outside of the right wheel with respect to the traveling direction indicated by the arrow of the vehicle 6, 2 (RI) for inspecting the inside of the right wheel, and in the traveling direction of the vehicle 6. On the other hand, the unit that inspects the outside of the left wheel is named 2 (LO), and the unit that inspects the inside of the left wheel is also named 2 (LO), so that the outside and inside of the left and right wheels of the vehicle 6 are inspected independently. It has become.

一般に、車両検査は車両6が車庫に入る前に行われるので、検査ユニット2は、車庫前に設置されることが多い。車両は1以上連なって列車を構成するが、列車には編成番号が付されている。係る車両が、車庫前に近づくと、列車運行表と列車の到達通過時刻から編成番号が特定され、検査ユニット2が作動開始する。検査ユニット2は、編成番号の特定とともに、この列車の車輪構成も情報として得ることができる。このため、先頭から幾つ目の車輪の画像であるかを認識しながら、画像情報にコード化して画像ファイル名に反映させて保存すれば、後日、前記画像ファイルがどの編成の先頭から何番目の、左側または右側の車輪の内側または外側の画像であるかを特定できる。   In general, since the vehicle inspection is performed before the vehicle 6 enters the garage, the inspection unit 2 is often installed in front of the garage. One or more vehicles form a train, and the train is assigned a train number. When such a vehicle approaches in front of the garage, the train number is specified from the train operation table and the train passing time, and the inspection unit 2 starts to operate. The inspection unit 2 can obtain the train wheel configuration as information as well as specifying the composition number. For this reason, if the image file is encoded and stored in the image file name while recognizing the number of the wheel image from the beginning, the image file will be stored in what number from the beginning of which organization. It is possible to specify whether the image is inside or outside of the left or right wheel.

図3は、車両検査装置1の全体構成図である。この図で、車両検査装置1は、検査ユニット2と、データベース8と、パノラマ形成装置10と、ユーザインタフェース装置12で構成され、それぞれ通信線14を介して通信可能となっている。前述の図2の4つの検査ユニット2(RO)、2(RI)、2(LO)、2(LI)のそれぞれは、画像取得装置16、17、18、19を有しており、車輪の回転位置に応じて例えば4枚の画像を取得する。   FIG. 3 is an overall configuration diagram of the vehicle inspection apparatus 1. In this figure, the vehicle inspection device 1 is composed of an inspection unit 2, a database 8, a panorama forming device 10, and a user interface device 12, and can communicate with each other via a communication line 14. Each of the four inspection units 2 (RO), 2 (RI), 2 (LO), and 2 (LI) in FIG. 2 has image acquisition devices 16, 17, 18, and 19, and For example, four images are acquired according to the rotation position.

各画像取得装置は、同一機能にして独立に動作する。図3中の矢印は車両6を含めて構成される列車が有する複数の車輪の一つ(以後、単に車輪と表記する。)である車輪20が転がる方向である。各検査ユニット2は、それぞれの画像取得装置16、17、18、19で取得した車輪20の4分割撮影された4枚の車輪画像をデータベース8に送信し、データベース8はそれらを格納する。   Each image acquisition device operates independently with the same function. An arrow in FIG. 3 indicates a direction in which the wheel 20 that is one of a plurality of wheels (hereinafter simply referred to as a wheel) included in the train including the vehicle 6 rolls. Each inspection unit 2 transmits four wheel images obtained by four-division shooting of the wheels 20 acquired by the respective image acquisition devices 16, 17, 18, 19 to the database 8, and the database 8 stores them.

パノラマ形成装置10は、データベース8に格納された複数の分割車輪画像から1車輪分を統合した車輪全周画像を生成し、ユーザインタフェース装置12に送信する。ユーザインタフェース装置12は、キーボードやマウス等のコマンド入力装置と、表示装置を備えており、データベース8にアクセスして車輪に関する画像及び計測データを参照して後述する車輪の特徴点のパタンマッチング処理を行う。また、パノラマ形成装置10から送信される全周分の車輪画像を表示装置に表示する。なお、データベース8、パノラマ形成装置10、ユーザインタフェース装置12の動作については後に詳述する。   The panorama forming apparatus 10 generates a wheel all-round image that integrates one wheel from a plurality of divided wheel images stored in the database 8 and transmits the generated image to the user interface device 12. The user interface device 12 includes a command input device such as a keyboard and a mouse, and a display device. The user interface device 12 accesses the database 8 and refers to images and measurement data related to wheels, and performs pattern matching processing of wheel feature points to be described later. Do. Further, wheel images for the entire circumference transmitted from the panorama forming apparatus 10 are displayed on the display device. The operations of the database 8, the panorama forming apparatus 10, and the user interface apparatus 12 will be described in detail later.

図4は、画像取得装置の構成を示す図であり、複数ある画像取得装置のうちの16の構成を代表として示している。なお、他の画像取得装置も同一構成とされているので、ここではそれらの説明を省略する。画像取得装置16は、車両検知センサ21と、照明装置22と、カメラ23と、車輪計数装置24と、画像保存装置27と、画像処理装置26とで構成される。   FIG. 4 is a diagram illustrating the configuration of the image acquisition device, and illustrates 16 configurations of the plurality of image acquisition devices as representatives. Since other image acquisition devices have the same configuration, description thereof is omitted here. The image acquisition device 16 includes a vehicle detection sensor 21, an illumination device 22, a camera 23, a wheel counting device 24, an image storage device 27, and an image processing device 26.

カメラ23は、線路4に沿って、隣接するカメラ(例えば画像取得装置17に付属するカメラ)と所定の間隔をもって設置され、車輪20の一周分を360度として、車輪20の所定の回転角毎に、線路4に接する付近を含めた部分を撮影する。本実施例の場合には画像取得装置16乃至19に1つずつのカメラを備えることで、合計4つのカメラで車輪1周分を撮影するため、およそ90度ピッチで4度撮影することとなる。   The camera 23 is installed along the track 4 with a predetermined interval from an adjacent camera (for example, a camera attached to the image acquisition device 17), and the rotation of the wheel 20 is set at 360 degrees with one rotation of the wheel 20 being 360 degrees. Then, a part including the vicinity in contact with the track 4 is photographed. In the case of the present embodiment, by providing one camera for each of the image acquisition devices 16 to 19, a total of four cameras shoot one wheel, so that four shots are taken at a pitch of approximately 90 degrees. .

図5は、カメラ23の撮影視野を説明する図であり、矩形25が画像取得手段16が備えるカメラ23の撮影視野である。本実施例の車輪20は中心に車軸210と8個のボルト31乃至37を有する。ただし、本発明の検査対象たる車輪はこれに限られず、中心に車軸があればよい。カメラの視覚視野である矩形25には車輪20の一部が含まれるが、車軸210及び線路4との接点211が視野に含まれる事は必須ではないが、後に説明するカメラキャリブレーション作業にとっては接点211が含まれている方が好ましい。   FIG. 5 is a diagram for explaining the photographing field of view of the camera 23, and the rectangle 25 is the photographing field of view of the camera 23 provided in the image acquisition means 16. The wheel 20 of this embodiment has an axle 210 and eight bolts 31 to 37 at the center. However, the wheel to be inspected according to the present invention is not limited to this, and it is only necessary to have an axle at the center. Although the rectangle 25 which is the visual field of view of the camera includes a part of the wheel 20, it is not essential that the contact point 211 with the axle 210 and the track 4 is included in the field of view, but for the camera calibration work described later. It is preferable that the contact 211 is included.

4つのカメラで車輪の全周を撮影する場合には、カメラ23の視野は、接点211の両側に46度以上もたせなければならない。一方、視野を広げすぎると解像度が落ちるため、60度前後が適当である。したがって、矩形25の内部において、横線で示した領域28が接点211の両側46度(合計92度)及び、格子領域29も含めて両側60度(合計120度)の範囲が撮影される。   When photographing the entire circumference of the wheel with four cameras, the field of view of the camera 23 must be at least 46 degrees on both sides of the contact point 211. On the other hand, if the field of view is excessively widened, the resolution is lowered. Therefore, within the rectangle 25, a region 28 indicated by a horizontal line is photographed in a range of 46 degrees on both sides of the contact point 211 (total of 92 degrees) and 60 degrees on both sides including the lattice area 29 (total of 120 degrees).

また、カメラ23は車輪20を下方から見上げる画角となっているため、本来真円である車輪20は上下方向に縮んで歪みをもって撮影されている。なお、カメラ23は、20ナノ秒以下の短時間露光で撮影が可能なデジタルカメラである。照明装置22はカメラ23が20ナノ秒以下の露光でも十分に撮影できるような強い光量が必要であり、ストロボ制御されたLEDを利用することができる。   Further, since the camera 23 has an angle of view looking up the wheel 20 from below, the wheel 20 that is essentially a perfect circle is photographed with distortion by contracting in the vertical direction. Note that the camera 23 is a digital camera capable of shooting with a short exposure of 20 nanoseconds or less. The illuminating device 22 needs a strong light quantity that allows the camera 23 to sufficiently shoot even with exposure of 20 nanoseconds or less, and can use a strobe-controlled LED.

図4に戻り、そのほかの構成について詳細に説明する。車輪検知センサ21は、例えば線路4に装着した磁気センサ又は線路4の近傍に設置した光電センサで構成することができ、車輪20が所定の位置に来たことを数十ナノ秒の遅延で検知し、同期信号を出力する。移動する車輪20をカメラ23で撮影するために画像に“流れ”が発生するが、その“流れ”の大きさが検出対象となる特徴点の幅の半分以下になるように、シャッター速度は十分高速に調整しておく。   Returning to FIG. 4, other configurations will be described in detail. The wheel detection sensor 21 can be composed of, for example, a magnetic sensor attached to the track 4 or a photoelectric sensor installed in the vicinity of the track 4, and detects that the wheel 20 has reached a predetermined position with a delay of several tens of nanoseconds. And outputs a synchronization signal. Since the moving wheel 20 is photographed by the camera 23, a “flow” occurs in the image. The shutter speed is sufficient so that the size of the “flow” is less than half the width of the feature point to be detected. Adjust at high speed.

ここで、画像取得装置16のその他の装置の構成を、画像取得装置16の動作とともに説明する。まず、車輪検知センサ21が、車輪20が所定の位置に来たことを検知し、カメラ23と照明装置22と車輪計数装置24に同期信号を出力する。カメラ23は同期信号に同期して車輪20を撮影し、撮影した車輪画像は画像保存装置27に撮影時刻とともに保存される。照明装置22は同期信号に同期して発光し、車輪20の一部を照明する。   Here, the configuration of other devices of the image acquisition device 16 will be described together with the operation of the image acquisition device 16. First, the wheel detection sensor 21 detects that the wheel 20 has come to a predetermined position, and outputs a synchronization signal to the camera 23, the illumination device 22, and the wheel counting device 24. The camera 23 photographs the wheel 20 in synchronization with the synchronization signal, and the photographed wheel image is stored in the image storage device 27 together with the photographing time. The illumination device 22 emits light in synchronization with the synchronization signal and illuminates a part of the wheel 20.

車輪計数装置24は車輪検知センサ21の同期信号の立ち上がり回数を計数することで車両6の何番目の車輪を撮影したかを知ることができ、この順番を車輪番号として画像保存装置27に出力する。   The wheel counting device 24 can know the number of wheels of the vehicle 6 by counting the number of rising times of the synchronization signal of the wheel detection sensor 21 and outputs this order to the image storage device 27 as a wheel number. .

画像保存装置27は、車輪番号に前述した検査ユニット2のユニット番号を付したものを車輪IDとして、この車輪IDと車輪画像と通過時刻とを紐付けして保存する。検査ユニット2のユニット番号により、車両6のどの車輪をどこから撮影したかを特定することができる。   The image storage device 27 associates and stores the wheel ID, the wheel image, and the passage time, with the wheel number assigned with the unit number of the inspection unit 2 described above as a wheel ID. The unit number of the inspection unit 2 can specify which wheel of the vehicle 6 was shot from where.

また、車輪計数装置24は、同期信号の立ち上がり回数をあらかじめ定められた計数値まで計数することで、車両6の一編成の通過が完了したタイミングを知り、これを画像処理装置26に通知するとともに、計数値をリセットして新たな車両の到来に備える。なお、あらかじめ定められた計数値とは車両6を含む一編成分の、片側の車輪の数である。画像処理装置26は、車輪計数装置24による車両6を含む編成の通過完了通知の受信後に、画像保存装置27に保存された車輪画像を処理する。   Further, the wheel counting device 24 counts the number of rises of the synchronization signal to a predetermined count value, thereby knowing the timing when the passing of one train of the vehicle 6 is completed, and notifying the image processing device 26 of this. The count value is reset to prepare for the arrival of a new vehicle. The predetermined count value is the number of wheels on one side for one train including the vehicle 6. The image processing device 26 processes the wheel image stored in the image storage device 27 after the wheel counting device 24 receives the notification of the completion of passing the train including the vehicle 6.

次に、図4の画像処理装置26の処理フローの詳細を説明する前に、実際に撮影される車輪側面画像を用いて各種の解析処理を行う場合に、特に側面検査であるがゆえに考慮すべき事項を図6乃至図9を用いて説明する。後述する画像処理装置26の処理フロー(図1)のステップS2乃至ステップS5はこの事項に対処するために設けられた処理である。   Next, before explaining the details of the processing flow of the image processing apparatus 26 in FIG. 4, when performing various analysis processes using the wheel side images that are actually captured, it is particularly considered because of the side inspection. Items to be described will be described with reference to FIGS. Steps S2 to S5 in the processing flow (FIG. 1) of the image processing apparatus 26 described later are processes provided to deal with this matter.

考慮すべき事項の第1点は、図6に示すように車輪ごとに磨耗度合いが相違することである。一編成分の車輪の一方(左車輪又は右車輪)の片側(内側又は外側)は、すべて同一平面上を回転しながら通過する。しかし、車輪毎に磨耗の度合いが異なるためにその半径は異なり、それぞれの車軸は線路4から異なる直線上を通過する。図6では前記同一平面は図面の紙面と一致している。磨耗の少ない車輪20aの側面と車軸210a及び、磨耗の大きい車輪20bの側面と車軸210bは前記同一平面上にあるが、車軸210aと210bは線路4から異なる高さで移動する。   The first point to be considered is that the degree of wear differs for each wheel as shown in FIG. One side (inner side or outer side) of one wheel (left wheel or right wheel) for one train passes all while rotating on the same plane. However, since the degree of wear differs for each wheel, the radius differs, and each axle passes on a different straight line from the track 4. In FIG. 6, the same plane coincides with the drawing sheet. Although the side surface of the wheel 20a with less wear and the axle 210a and the side surface of the wheel 20b with high wear and the axle 210b are on the same plane, the axles 210a and 210b move from the track 4 at different heights.

考慮すべき事項の第2点は、図7に示すように車輪に対してカメラが正対していないということである。図7では前記同一平面は紙面に垂直で、線分40で表される。画像取得装置16乃至19はカメラ23を有するが、各カメラは平面40に正対しておらず、距離(distX)と、線路4を基準とした高さ(heightY)と、カメラ角度θはまちまちである。このため、後述の図1のステップS2で求めるカメラパラメータによって、仮想的に車輪20に正対するカメラv23で撮影したのと同等な正対化画像を得る必要がある。   The second point to consider is that the camera is not facing the wheel as shown in FIG. In FIG. 7, the same plane is perpendicular to the paper surface and is represented by a line segment 40. The image acquisition devices 16 to 19 have the cameras 23, but each camera does not face the plane 40, and the distance (distX), the height with respect to the line 4 (heightY), and the camera angle θ vary. is there. For this reason, it is necessary to obtain a facing image equivalent to that captured by the camera v23 virtually facing the wheel 20 by the camera parameter obtained in step S2 of FIG.

考慮すべき事項の第3点は、図8に示すように車輪毎に撮影時に水平方向の差異も生じるということである。車輪検知センサ21として光電センサを用いる場合、車輪20が光電センサのビームを遮る瞬間が車輪検知のタイミングである。図8の50は前記光電センサのビームを表し、図8上は、磨耗の少ない車輪20aがビーム50を遮る瞬間で、図8下が、磨耗が進んで半径が短くなった車輪20bがビーム50を遮る瞬間である。各車輪の車軸位置210aと210bを比較すると磨耗の進んだ車輪20bの車軸210bが左方にシフトしていることが分かる。   A third point to be considered is that a difference in the horizontal direction also occurs at the time of photographing for each wheel as shown in FIG. When a photoelectric sensor is used as the wheel detection sensor 21, the moment when the wheel 20 blocks the photoelectric sensor beam is the wheel detection timing. 8 represents the beam of the photoelectric sensor. FIG. 8 shows the moment when the wheel 20a with less wear blocks the beam 50, and the lower part of FIG. 8 shows the beam 20b with a shorter radius due to wear. It is the moment of blocking. Comparing the axle positions 210a and 210b of each wheel, it can be seen that the axle 210b of the wheel 20b with advanced wear is shifted to the left.

考慮すべき事項の第4点は、図9に示すように車輪半径の大きさに応じて異なる回転角をもって撮影されるこということである。図9において、ビーム50は画像取得装置16に内蔵の車輪検知センサ21に係る光電センサビームで、ビーム51は画像取得装置17に内蔵の車輪検知センサ21に係る光電センサビームである。図9(a)では磨耗の進んでいない車輪20aはビーム50を遮ってから、更に90度回転してビーム51を遮る。   The fourth point to be considered is that images are taken with different rotation angles depending on the size of the wheel radius as shown in FIG. In FIG. 9, a beam 50 is a photoelectric sensor beam related to the wheel detection sensor 21 built in the image acquisition device 16, and a beam 51 is a photoelectric sensor beam related to the wheel detection sensor 21 built in the image acquisition device 17. In FIG. 9A, the wheel 20 a that has not been worn out blocks the beam 50 and then rotates 90 degrees to block the beam 51.

図9(b)では磨耗の進んだ車輪20bがビーム50を遮った後、90度よりも更に回転してビーム51を遮る。これは磨耗により車輪半径が短くなり、これに伴って周囲長も短くなったため、ビーム50とビーム51の間でより多く回転するからである。ビーム50とビーム51の遮蔽の瞬間に画像取得装置16と17でそれぞれ車輪を撮影するため、車輪半径の大きさに応じて異なる回転角をもって撮影されることが分かる。   In FIG. 9B, after the worn wheel 20 b blocks the beam 50, it further rotates by more than 90 degrees to block the beam 51. This is because the wheel radius is shortened due to wear, and the perimeter is also shortened accordingly, so that the wheel 50 and the beam 51 rotate more. Since the wheels are imaged by the image acquisition devices 16 and 17 at the moment when the beams 50 and 51 are shielded, it can be seen that the images are captured with different rotation angles depending on the size of the wheel radius.

以上に示したように、撮影された車輪側面画像を用いて検査を行うときには、画像の正対化と、撮影画像における車軸位置の垂直方向と水平方向の一致化と、回転角の補正が重要である。   As shown above, when inspecting using the captured wheel side image, it is important to make the image face-to-face, match the vertical and horizontal axle positions in the captured image, and correct the rotation angle. It is.

これらの問題の多くは、車輪の磨耗度合いによって生じていることが明らかであり、従来の車輪踏面検査の場合には問題にならなかった事項の解決が車輪側面検査では強く求められる。   It is clear that many of these problems are caused by the degree of wear of the wheels, and solutions for matters that did not become a problem in the conventional wheel tread inspection are strongly required in the wheel side inspection.

このことから、本発明においてはこれら諸問題の補正のために5つの座標系を導入して、同一画面上での評価を可能とする。以下、説明の便宜のため、5つの座標系を導入したときの座標間の相関関係を図10にまとめる。5つの座標系とは、画面上画像マトリクスと、基準車輪ワールド座標と、正対画像マトリクスと、基準車輪極座標と、極座標画像マトリクスであって、変換式により相互に変換可能である。   For this reason, in the present invention, five coordinate systems are introduced to correct these problems, thereby enabling evaluation on the same screen. Hereinafter, for convenience of explanation, the correlation between coordinates when five coordinate systems are introduced is summarized in FIG. The five coordinate systems are an on-screen image matrix, a reference wheel world coordinate, a face-to-face image matrix, a reference wheel polar coordinate, and a polar coordinate image matrix, which can be mutually converted by a conversion formula.

第1の座標系である図10の画面上画像マトリクス[x,y]は、図4のカメラ23で撮影された図5の矩形25を範囲とするディジタル画像である。この画像は行列表現が可能であり、行数と列数で画素を特定する。以後、この行数と列数を画面上画像マトリクスの座標と呼ぶ。図5の矩形25の左上端を基点[0,0]とし、一画素当たりの大きさはミリメートル/画素である。   The on-screen image matrix [x, y] in FIG. 10, which is the first coordinate system, is a digital image that covers the rectangle 25 in FIG. 5 taken by the camera 23 in FIG. This image can be expressed in matrix, and pixels are specified by the number of rows and the number of columns. Hereinafter, the number of rows and the number of columns are referred to as the coordinates of the on-screen image matrix. The upper left corner of the rectangle 25 in FIG. 5 is the base point [0, 0], and the size per pixel is millimeter / pixel.

第2の座標系である図10の基準車輪ワールド座標(X,Y)は、後述するところの図12において、基準車輪70が位置検出用のビーム50を遮るときに線路4と接している点71を原点とし、線路4に沿ってX軸をとり、これに垂直すなわち接点71と基準車輪70の車軸710を結ぶ直線をY軸に取る実数の座標系である。単位はミリメートルなどMKSA単位系で定めることができる。   The reference wheel world coordinates (X, Y) of FIG. 10 which is the second coordinate system is the point of contact with the track 4 when the reference wheel 70 blocks the position detection beam 50 in FIG. This is a real coordinate system in which the origin is 71, the X axis is taken along the track 4, and the straight line connecting the contact 71 and the axle 710 of the reference wheel 70 is the Y axis. The unit can be determined in an MKSA unit system such as millimeters.

ここで、基準車輪70とは、車軸やボルトの配置は磨耗した実際の車輪20(図5の画面上画像マトリクスで表現される車輪)と同一であるが、車輪の磨耗が無いことが保証されている理想のあるいは仮想上の車輪である。基準車輪70の半径長は車輪半径長の最大値であって、既知の固定値rSTDである。したがって、車軸710の基準車軸ワールド座標は常に(0,rSTD)となる。 Here, the reference wheel 70 is the same as the worn actual wheel 20 (the wheel represented by the image matrix on the screen in FIG. 5) in the arrangement of the axle and bolt, but it is guaranteed that there is no wear of the wheel. Is an ideal or virtual wheel. The radius length of the reference wheel 70 is the maximum value of the wheel radius length, and is a known fixed value r STD . Therefore, the reference axle world coordinate of the axle 710 is always (0, r STD ).

第3の座標系である図10の正対画像マトリクス[j,i]は、後述のカメラパラメータをもって射影変換した後の正対化されたディジタル画像であって、行列表現が可能で行数と列数で画素を特定する。以後、この行数と列数を正対画像マトリクスの座標と呼ぶ。図13の矩形90の範囲が正対画像マトリクスであり、左上端を基点[0,0]とする。一画素当たりの大きさはミリメートル/画素で表現される。   The facing image matrix [j, i] in FIG. 10 which is the third coordinate system is a facing digital image after projective transformation with camera parameters described later, which can be expressed in matrix and has the number of rows. The pixel is specified by the number of columns. Hereinafter, the number of rows and the number of columns are referred to as the coordinates of the facing image matrix. A range of a rectangle 90 in FIG. 13 is a face-to-face image matrix, and an upper left corner is a base point [0, 0]. The size per pixel is expressed in millimeters / pixel.

第4の座標系である図10の基準車輪極座標(t,r)は、実数値をとる座標系であって、前記の図12の基準車輪ワールド座標(X,Y)において、その車軸710からの距離rを縦軸とし、Y軸となす角度tを横軸とする座標系で表現したものである。r軸の単位はミリメートルなどMKSA単位系とし、t軸はラディアン又は(度)とすることができる。   The reference wheel polar coordinates (t, r) in FIG. 10 which is the fourth coordinate system is a coordinate system taking real values, and the reference wheel world coordinates (X, Y) in FIG. Is expressed in a coordinate system in which the distance r is the vertical axis and the angle t with the Y axis is the horizontal axis. The unit of the r-axis can be an MKSA unit system such as millimeters, and the t-axis can be radians or (degrees).

第5の座標系である図10の極座標画像マトリクス[q,p]は基準車輪極座標(t,r)をディジタル画像化したものであって、行列表現が可能であり、行数と列数で画素を特定する。以後、この行数と列数を極座標画像マトリクスの座標と呼ぶ。図16(b)の矩形2000が極座標画像マトリクスの例で、左上端を基点(0,0)とする。一画素当たりの大きさは水平方向がラディアン/画素、または度/画素で、垂直方向はミリメートル/画素とすることができる。   The polar coordinate image matrix [q, p] of FIG. 10 which is the fifth coordinate system is a digital image of the reference wheel polar coordinate (t, r), and can be expressed in matrix, with the number of rows and the number of columns. Identify the pixel. Hereinafter, the number of rows and the number of columns are referred to as polar coordinate image matrix coordinates. A rectangle 2000 in FIG. 16B is an example of a polar coordinate image matrix, and the upper left corner is the base point (0, 0). The size per pixel can be radians / pixel or degrees / pixel in the horizontal direction and millimeters / pixel in the vertical direction.

以上の5つの座標系の間の変換の関係を示したものが図10であり、後でその関係を詳述するように、数(8)により画面上画像マトリクスから基準車輪ワールド座標への変換が可能で、その逆変換は数(5)でなされる。数(10)により基準車輪ワールド座標から正対画像マトリクスへの変換が可能で、その逆変換は数(9)でなされる。数(19)で基準車輪ワールド座標から基準車輪極座標への変換がなされ、その逆変換は数(20)でなされる。数(22)で基準車輪極座標から極座標画像マトリクスへの変換がなされ、その逆変換は数(21)でなされる。   FIG. 10 shows the conversion relationship between the above five coordinate systems. As will be described in detail later, the conversion from the on-screen image matrix to the reference wheel world coordinates is performed using the equation (8). The inverse transformation is done with the number (5). Conversion from the reference wheel world coordinates to the directly-facing image matrix is possible by the number (10), and the inverse conversion is performed by the number (9). The conversion from the reference wheel world coordinates to the reference wheel polar coordinates is performed by the number (19), and the inverse conversion is performed by the number (20). Conversion from the reference wheel polar coordinates to the polar coordinate image matrix is performed by the number (22), and the inverse conversion is performed by the number (21).

次に、画像処理装置26の処理フローを図1を参照して説明する。   Next, the processing flow of the image processing apparatus 26 will be described with reference to FIG.

〔ステップ1:車輪画像入力〕
まず、ステップS1において、図4の画像保存装置27から車輪画像を入力する。
[Step 1: Wheel image input]
First, in step S1, a wheel image is input from the image storage device 27 of FIG.

車輪画像のファイル名は車輪IDを用いる。画像保存装置27は画像の撮影時刻も記録しているものとする。このときに得られる画像は、図5の画像であり、例えば先頭車輪の場合には、右側車輪内側について16,17,18,19からの4枚の画像が1組となって入力される。従って1組の車輪に対しては、左右と内外について評価するので、都合16枚の写真が入力される。   Wheel ID is used as the file name of the wheel image. It is assumed that the image storage device 27 also records the image shooting time. The image obtained at this time is the image shown in FIG. 5. For example, in the case of the leading wheel, four images from 16, 17, 18, and 19 are input as a set for the inner side of the right wheel. Therefore, for a set of wheels, the left and right and inside and outside are evaluated, so 16 photographs are input for convenience.

〔ステップ2:正対化画像生成〕
次にステップS2では、図7で説明した車輪とカメラが正対していない点、つまりカメラキャリブレーションの問題について対策する。
[Step 2: Generation of facing image]
Next, in step S2, the point where the wheel and the camera described with reference to FIG. 7 do not face each other, that is, the problem of camera calibration is taken.

ここでステップS2での処理の前提となるカメラキャリブレーションについて説明しておく。カメラキャリブレーションはカメラ23の設置固定時に少なくとも1度行えば、以後はここで求めたカメラパラメータを用いて射影変換を行うことができる。図11は基準車輪70と画面上画像マトリクス25の関係を示す。ここで、基準車輪70の側面にキャリブレーションマーク91乃至94を付し、線路4との接点71からの、線路4の方向の距離と線路に垂直な方向の距離を実測する。単位はミリメートルが適当である。   Here, camera calibration, which is a premise of the processing in step S2, will be described. If the camera calibration is performed at least once when the camera 23 is fixed, then the projective transformation can be performed using the camera parameters obtained here. FIG. 11 shows the relationship between the reference wheel 70 and the on-screen image matrix 25. Here, calibration marks 91 to 94 are attached to the side surface of the reference wheel 70, and the distance in the direction of the track 4 and the distance in the direction perpendicular to the track from the contact point 71 with the track 4 are measured. A suitable unit is millimeter.

これらの値はすなわち図12の基準車輪ワールド座標である。キャリブレーションマーク91乃至94は基準車輪70における車軸710やボルトなど既知の構造を利用してもよい。ただし、画面上画像マトリクスの範囲である矩形25に含まれていなければならない。これらのキャリブレーションマーク91乃至94は、基準車輪ワールド座標上では、実測により既知の座標(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)とおくことができる。   These values are the reference wheel world coordinates in FIG. For the calibration marks 91 to 94, a known structure such as an axle 710 or a bolt in the reference wheel 70 may be used. However, it must be included in the rectangle 25 that is the range of the on-screen image matrix. These calibration marks 91 to 94 can be set to known coordinates (X1, Y1), (X2, Y2), (X3, Y3), (X4, Y4) by actual measurement on the reference wheel world coordinates. .

一方、キャリブレーションマーク91乃至94の画面上画像マトリクスにおける位置は、図5の矩形25の左上を(0,0)とする座標で表現することにしており、それぞれディジタル画像上で求めることができ、これらも既知とすることができる。そこでこれらを、[cx1,cy1]、[cx2,cy2]、[cx3,cy3]、[cx4,cy4]とする。   On the other hand, the positions of the calibration marks 91 to 94 in the on-screen image matrix are expressed by coordinates where the upper left corner of the rectangle 25 in FIG. 5 is (0, 0), and can be obtained on the digital image. These can also be known. Therefore, these are referred to as [cx1, cy1], [cx2, cy2], [cx3, cy3], and [cx4, cy4].

ここで、求めるべき未知のカメラパラメータをc11、c12、c13、c21、c22、c23、c31、c32とする。ただし、基準車輪ワールド座標が実数であるのに対して画面上画像マトリクスは整数値であるから厳密には一致しないが、整数値の中でもっとも対応する実数値に近いものを選ぶものとする。このようにすると、画面上画像マトリクスの[x,y]と、基準車輪ワールド座標の(X,Y)には数(1)の関係が成立する。   Here, it is assumed that unknown camera parameters to be obtained are c11, c12, c13, c21, c22, c23, c31, and c32. However, although the reference wheel world coordinate is a real number, the on-screen image matrix is an integer value, so it does not exactly match, but the integer value closest to the corresponding real value is selected. In this way, the relationship of number (1) is established between [x, y] of the on-screen image matrix and (X, Y) of the reference wheel world coordinates.

Figure 0005303405
Figure 0005303405

ここで、Hを消去して整理すると数(2)が得られる。   Here, when H is deleted and arranged, the number (2) is obtained.

Figure 0005303405
Figure 0005303405

これを行列で表現すると数(3)となる。   When this is expressed in a matrix, the number is (3).

Figure 0005303405
Figure 0005303405

数(3)の(X,Y)と[x,y]はキャリブレーションマーク91乃至94の基準車輪ワールド座標と画面上画像マトリックスの座標を代入して成立すべきであるからこれらを代入して数(4)を得る。   The numbers (3) (X, Y) and [x, y] should be established by substituting the reference wheel world coordinates of the calibration marks 91 to 94 and the coordinates of the image matrix on the screen. Get the number (4).

Figure 0005303405
Figure 0005303405

数(4)の左辺の8×8行列の逆行列を両辺に乗じることにより、カメラパラメータc11、c12、c13、c21、c22、c23、c31、c32を求めることができる。   Camera parameters c11, c12, c13, c21, c22, c23, c31, c32 can be obtained by multiplying both sides by the inverse matrix of the 8 × 8 matrix on the left side of the number (4).

また、キャリブレーションマークを5以上定めた場合は数(4)の左辺の行列は行数が列数よりも多くなる。この場合でも前記左辺の行列の転置行列を両辺に乗じることで、左辺の行列を8×8行列とし、カメラパラメータc11、c12、c13、c21、c22、c23、c31、c32について解くことができる。   When the calibration mark is set to 5 or more, the matrix on the left side of the number (4) has more rows than columns. Even in this case, by multiplying both sides by the transposed matrix of the matrix on the left side, the matrix on the left side can be made into an 8 × 8 matrix, and the camera parameters c11, c12, c13, c21, c22, c23, c31, and c32 can be solved.

以上示した方法によりカメラパラメータが既知となれば、数(2)をx,yについてまとめた数(5)により、基準車輪ワールド座標(X,Y)から画面上画像マトリクス[x,y]への変換が可能となる。   If the camera parameters are known by the above-described method, the reference wheel world coordinates (X, Y) are converted from the reference wheel world coordinates (X, Y) to the on-screen image matrix [x, y] by the number (5) obtained by summarizing the number (2) for x and y Can be converted.

Figure 0005303405
Figure 0005303405

また、数(5)を基準車輪ワールド座標についてまとめると、数(6)を得る。   Further, when the number (5) is summarized for the reference wheel world coordinates, the number (6) is obtained.

Figure 0005303405
Figure 0005303405

これを行列表現で表すと数(7)となる。   When this is expressed in a matrix expression, the number is (7).

Figure 0005303405
Figure 0005303405

数(7)を変形して数(8)を得る。   The number (7) is transformed to obtain the number (8).

Figure 0005303405
Figure 0005303405

数(8)の右辺行列右肩の−1は逆行列を表す。逆行列はガウスの掃きだし法を始めとして様々な解法があり、容易に求めることができる。数(8)により、画面上画像マトリクス[x,y]から基準車輪ワールド座標(X,Y)への変換ができる。   -1 on the right side of the right side matrix of the number (8) represents an inverse matrix. The inverse matrix has various solutions, including Gaussian sweeping, and can be easily obtained. Conversion from the on-screen image matrix [x, y] to the reference wheel world coordinates (X, Y) can be performed by the equation (8).

なお、ここではカメラキャリブレーションの被写体として基準車輪70を用いたが、基準車輪70及び車輪20の側面の存在する平面40上に格子状の目盛りを付した板を被写体としてもよい。   Here, the reference wheel 70 is used as the subject for camera calibration, but a plate with a grid-like scale on the plane 40 where the side surfaces of the reference wheel 70 and the wheel 20 exist may be used as the subject.

続いて、図13を参照して、正対化画像のディジタル配列として正対画像マトリクスを詳細に定義する。正対画像マトリクスは[j,i]と表す。図11の矩形25は正対化前の画面上画像マトリクスで、図13の矩形90は、正対化した正対画像マトリクスであって、左上端を基点[0,0]とする。ここで、四隅の基準車輪ワールド座標をそれぞれ、左上のA点を(−W/2,H0)、右上のB点を(W/2,H0)、左下のC点を(W/2,H0+H)、右下のD点を(−W/2,H0+H)とする。W、H0、Hは既値の実数である。   Subsequently, with reference to FIG. 13, a facing image matrix is defined in detail as a digital array of facing images. The facing image matrix is represented as [j, i]. A rectangle 25 in FIG. 11 is an on-screen image matrix before facing, and a rectangle 90 in FIG. 13 is a directly-facing facing image matrix, and the upper left corner is a base point [0, 0]. Here, the reference wheel world coordinates of the four corners are respectively (−W / 2, H0) for the upper left A point, (W / 2, H0) for the upper right B point, and (W / 2, H0 + H) for the lower left C point. ), The lower right D point is (−W / 2, H0 + H). W, H0, and H are real values of existing values.

さらに、正対画像マトリクス[j,i]の1画素の水平方向の大きさを表すdx=W/M、及び垂直方向の大きさを表すdy=H/Nなるdxとdyを定義する。MとNは横と縦方向の画素数を表す自然数である。単位はともにミリメートル/画素となる。この場合、正対画像マトリクスはN行M列の行列となり、四隅の正対画像マトリクスはそれぞれ、A点が[0,0]、B点が[M−1,0]、C点が[0,N−1]、D点が[M−1,N−1]となる。   Furthermore, dx and dy are defined such that dx = W / M representing the horizontal size of one pixel of the directly-facing image matrix [j, i], and dy = H / N representing the vertical size. M and N are natural numbers representing the number of pixels in the horizontal and vertical directions. Both units are millimeters / pixel. In this case, the facing image matrix is a matrix of N rows and M columns, and the facing image matrix at the four corners is [0, 0] for point A, [M-1, 0] for point B, and [0 for point C, respectively. , N−1] and point D are [M−1, N−1].

以上のことから、基準車輪ワールド座標(X,Y)を数(9)で表すことができ、正対画像マトリクス[j,i]から基準車輪ワールド座標(X,Y)への変換が可能となる。   From the above, the reference wheel world coordinates (X, Y) can be expressed by the number (9), and conversion from the directly-facing image matrix [j, i] to the reference wheel world coordinates (X, Y) is possible. Become.

Figure 0005303405
Figure 0005303405

また、数(9)をjとiについて解いた数(10)により、基準車輪ワールド座標(X,Y)から正対画像マトリクス[j,i]への変換が可能となる。   Further, the number (9) obtained by solving the number (9) for j and i enables the conversion from the reference wheel world coordinates (X, Y) to the directly-facing image matrix [j, i].

Figure 0005303405
Figure 0005303405

数(10)において、jとiは一般に整数ではないが、それぞれ、左辺の値に最も近い整数を選択するものとする。数(9)により正対画像マトリクス[j,i]の点を基準車輪ワールド座標(X,Y)の点に変換する。続いて基準車輪ワールド座標(X,Y)の点を数(5)により画面上画像マトリクス[x,y]の点に変換する。数(5)で得られる値は一般に整数ではないが最も近い整数を選択し[x,y]とする。   In the number (10), j and i are generally not integers, but an integer closest to the value on the left side is selected. The points of the directly-facing image matrix [j, i] are converted into the points of the reference wheel world coordinates (X, Y) by the equation (9). Subsequently, the points of the reference wheel world coordinates (X, Y) are converted into the points of the on-screen image matrix [x, y] by the number (5). The value obtained by the number (5) is generally not an integer, but the nearest integer is selected as [x, y].

画面上画像マトリクス[x,y]は撮影された正対化前のディジタル画像であるから、対応する点の輝度を、正対画像マトリクス[j,i]の輝度として割り当てる。以上の処理を正対画像マトリクス[j,i]の全域に亘り行う。   Since the on-screen image matrix [x, y] is a photographed digital image before facing, the brightness of the corresponding point is assigned as the brightness of the facing image matrix [j, i]. The above processing is performed over the entire area of the directly-facing image matrix [j, i].

すなわち、j=0乃至M−1の範囲で、またi=0乃至N−1の範囲に亘って行う。なお、対応する点が画面上画像マトリクス[x,y]の領域である矩形25外の場合はゼロ又は255などの固定値を割り当てる。これにより正対画像マトリクス[j,i]は正対した車輪の部分画像となる。   That is, it is performed in the range of j = 0 to M−1 and over the range of i = 0 to N−1. If the corresponding point is outside the rectangle 25 that is the area of the on-screen image matrix [x, y], a fixed value such as zero or 255 is assigned. As a result, the directly-facing image matrix [j, i] is a partial image of the facing wheel.

以上が図1の処理フローのステップS2で行われる。すなわち、ステップS2では、基準車輪70でカメラキャリブレーションを行ってカメラパラメータを算出し、カメラパラメータを用いて基準車輪70又は車輪20の画面上画像マトリクスを基準車輪ワールド座標に変換し、画面上画像マトリクスと、基準車輪ワールド座標と正対画像マトリクスの関係を用いて、カメラ23で撮影した画面上画像マトリクスから正対画像マトリクスを生成する。   The above is performed in step S2 of the processing flow of FIG. That is, in step S2, camera parameters are calculated by performing camera calibration on the reference wheel 70, the on-screen image matrix of the reference wheel 70 or the wheel 20 is converted into reference wheel world coordinates using the camera parameter, and the on-screen image is calculated. A facing image matrix is generated from the on-screen image matrix captured by the camera 23 using the matrix, the relationship between the reference wheel world coordinates and the facing image matrix.

〔ステップ3:車軸位置の検出〕
次に、図14を参照して、ステップS3の車軸座標検出処理を説明する。
[Step 3: Axle position detection]
Next, the axle coordinate detection process in step S3 will be described with reference to FIG.

図14は車輪20の車軸210の基準車輪ワールド座標(X,Y)及び正対画像マトリクス[x,y]を算出する方法を示す図である。基準車輪ワールド座標及び正対画像マトリクスで表現された車輪20は真円であるから、車輪の輪郭を円弧の一部と見なしてその中心すなわち車軸の位置を求めることができる。 FIG. 14 is a diagram illustrating a method of calculating the reference wheel world coordinates (X c , Y c ) and the directly-facing image matrix [x c , y c ] of the axle 210 of the wheel 20. Since the wheel 20 expressed by the reference wheel world coordinates and the facing image matrix is a perfect circle, the center of the wheel, that is, the position of the axle can be obtained by regarding the contour of the wheel as a part of the arc.

前述の通り、正対画像マトリクス[j.i]は図13矩形90の領域のディジタル画像である。このディジタル画像にソーベルフィルタ等の輪郭強調処理を加えて所定のしきい値で二値化した画像を矩形1000として示している。ここでは、輪郭エッジとして値の大きいほうを黒で表記している。水平線分1001は線路4の輪郭の一部として現れるものである。これはカメラ23を固定することで常に同じ場所に現れるので、あらかじめ処理対象から除外できる。   As described above, the facing image matrix [j. i] is a digital image of the area of rectangle 90 in FIG. An image obtained by applying a contour enhancement process such as a Sobel filter to the digital image and binarizing it with a predetermined threshold is shown as a rectangle 1000. Here, the larger edge is shown in black as the contour edge. A horizontal line segment 1001 appears as a part of the outline of the line 4. Since this always appears at the same place by fixing the camera 23, it can be excluded from the processing target in advance.

一方、矩形1000の範囲1002に現れる輪郭は、車輪20の輪郭であって円弧の一部である。ここで、円の一部である輪郭上の任意の2点をそれぞれEとFとする。座標値は二値化された画像である矩形1000から知ることができる。   On the other hand, the contour appearing in the range 1002 of the rectangle 1000 is the contour of the wheel 20 and a part of the arc. Here, let arbitrary two points on the outline which are a part of a circle be E and F, respectively. The coordinate value can be known from a rectangle 1000 which is a binarized image.

ただし、これらは正対画像マトリクス[j.i]であるから、数(9)によって基準車輪ワールド座標に変換することができる。変換した基準車輪ワールド座標としてEとFの座標をそれぞれE(e,e)、F(f,f)とする。EとFの垂直二等分線Hは車軸210を通る。垂直二等分線Hは、この上の任意の点を(x,y)とすると数(11)で表される。 However, these are the facing image matrix [j. i], it can be converted into reference wheel world coordinates by the number (9). Let E (e x , e y ) and F (f x , f y ) be the coordinates of E and F as the converted reference wheel world coordinates. A vertical bisector H of E and F passes through the axle 210. The vertical bisector H is represented by the number (11) when an arbitrary point on the bisector H is (x, y).

Figure 0005303405
Figure 0005303405

ここで数(11)のパラメータをα、β、γで置き換えて、数(12)とする。但し、α、β、γはEとFの座標系により確定するパラメータである。   Here, the parameter of the number (11) is replaced with α, β, γ to obtain the number (12). However, α, β, and γ are parameters determined by the coordinate system of E and F.

Figure 0005303405
Figure 0005303405

ここで、範囲1002の、車輪20の輪郭上の、任意の二点をk組(kは自然数)とって、これらの垂直二等分線をk本引く。このために添え字kを付して数(12)を数(13)に書き換える。ただし、k=1,2,...,kである。 Here, an arbitrary two points on the contour of the wheel 20 in the range 1002 are k 0 sets (k 0 is a natural number), and these vertical bisectors are drawn k 0 . For this purpose, the subscript k is added and the number (12) is rewritten to the number (13). However, k = 1, 2,. . . , K 0 .

Figure 0005303405
Figure 0005303405

本の垂直二等分線は全て車軸210で交わるので数(13)の連立方程式の解が、車軸210の基準車輪ワールド座標になる。この連立方程式を解くために数(13)を行列表現の数(14)とする。 Since all the k 0 bisectors intersect at the axle 210, the solution of the simultaneous equation of the number (13) becomes the reference wheel world coordinates of the axle 210. In order to solve the simultaneous equations, the number (13) is set as the number (14) of the matrix expression.

Figure 0005303405
Figure 0005303405

さらに、簡単化のために行列Uで表して数(15)とする。   Further, for simplification, the number is represented by the matrix U (15).

Figure 0005303405
Figure 0005303405

数(15)の両辺にUの転置行列を乗じて数(16)とする。   The both sides of the number (15) are multiplied by the transpose matrix of U to obtain the number (16).

Figure 0005303405
Figure 0005303405

Uは2×2の行列となり、通常は逆行列が存在して(x,y)について解くことができる。これが車軸210の基準車輪ワールド座標(X,Y)である。数(16)の解き方は逆行列を両辺に乗じてもよいし、ガウスの掃きだし法でといてもよい。 U T U is a 2 × 2 matrix, and usually an inverse matrix exists and can be solved for (x, y). This is the reference wheel world coordinates (X c , Y c ) of the axle 210. To solve the number (16), both sides may be multiplied by an inverse matrix, or Gaussian sweeping may be used.

前記垂直二等分線が3本以上になると、車輪20の輪郭の検出位置に誤差を生ずるため車軸210の一点で交わらない。しかし、上述の方法により二乗誤差が最小の最適解として車軸210の車基準輪ワールド座標が求まる。   If the number of the perpendicular bisectors is three or more, an error occurs in the detected position of the contour of the wheel 20, so that they do not intersect at one point on the axle 210. However, the vehicle reference wheel world coordinates of the axle 210 are obtained as the optimum solution with the least square error by the above method.

なお、基準車輪ワールド座標(X,Y)を数(10)で正対画像マトリクスに変換すると、負の値になり得るが、これは車軸210が矩形90及び矩形1000の範囲内にないことを示しているが問題ない。 Note that, when the reference wheel world coordinates (X c , Y c ) are converted into a face-to-face image matrix by the number (10), a negative value can be obtained, but this is because the axle 210 is not within the range of the rectangle 90 and the rectangle 1000. This shows no problem.

以上が処理フローのステップS3である。ここでは基準車輪ワールド座標を数(11)乃至数(16)に代入したが、代わりに正対画像マトリクスの座標を代入してもよい。この場合、座標は実数として計算を行い、数(16)の解は車軸210の正対画像マトリクスにおける座標[j,i]となる。これを数(9)で変換すると、基準車輪ワールド座標すなわち(X,Y)となる。 The above is step S3 of the processing flow. Here, the reference wheel world coordinates are substituted into the numbers (11) to (16), but the coordinates of the facing image matrix may be substituted instead. In this case, the coordinates are calculated as real numbers, and the solution of the number (16) is the coordinates [j c , i c ] in the facing image matrix of the axle 210. When this is converted by the number (9), the reference wheel world coordinates, that is, (X c , Y c ) are obtained.

〔ステップ4:シフト補正〕
次にステップS4において、基準車輪への補正と車輪の半径長についてシフト補正を実行する。
[Step 4: Shift correction]
Next, in step S4, shift correction is performed for the correction to the reference wheel and the radial length of the wheel.

ステップS3の処理で車軸を求めると、基準車輪70にあっては、車軸710の基準車輪ワールド座標が(XSTD,YSTD)で、正対画像マトリクスの座標が[jSTD,iSTD]と表記できる。 When the axle is obtained in the process of step S3, for the reference wheel 70, the reference wheel world coordinates of the axle 710 are (X STD , Y STD ), and the coordinates of the facing image matrix are [j STD , i STD ]. Can be written.

一方、車輪20にあっては、車軸210の基準車輪ワールド座標が(X,Y)で、正対画像マトリクスの座標が[j,i]である。前述の磨耗のため、一般に、(XSTD,YSTD)と(X,Y)及び、[jSTD,iSTD]と[j,i]は一致しない。 On the other hand, for the wheel 20, the reference wheel world coordinates of the axle 210 are (X c , Y c ), and the coordinates of the facing image matrix are [j c , i c ]. Due to the wear described above, (X STD , Y STD ) and (X c , Y c ) and [j STD , i STD ] and [j c , i c ] generally do not match.

しかし、後述の基準車輪極座標変換テーブルは基準車輪70に適合して作成するため、車輪20について使用する場合には、車軸の位置を併進移動により一致させる必要がある。   However, since a reference wheel polar coordinate conversion table, which will be described later, is created in conformity with the reference wheel 70, when the wheel 20 is used, it is necessary to match the position of the axle by translation.

補正前と補正後の正対画像マトリクスの座標をそれぞれ[j,i]、[j,i’]としたときの関係は数(17)で表される。数(17)により[j,i]を[j,i’]に変換する処理がステップS4である。   The relationship when the coordinates of the front image matrix before and after the correction are [j, i] and [j, i '], respectively, is expressed by the number (17). The process of converting [j, i] to [j, i '] by the equation (17) is step S4.

この処理の後、すべての車輪の、正対画像マトリクスの車軸の座標は[jSTD,iSTD]となる。また、これを数(9)で基準車輪ワールド座標に変換すると、(XSTD,YSTD)となる。 After this processing, the coordinates of the axles of the facing image matrix of all the wheels are [j STD , i STD ]. Further, when this is converted into the reference wheel world coordinates by the number (9), (X STD , Y STD ) is obtained.

Figure 0005303405
Figure 0005303405

また、ここで、車輪20の半径はYミリメートルであり、基準車輪70からの磨耗量はYSTD−Yミリメートルであることも計算される。また、先の説明で出てきたrSTDとの関係は、rSTD=YSTDである。 Here, it is also calculated that the radius of the wheel 20 is Y c millimeter and the amount of wear from the reference wheel 70 is Y STD −Y c millimeter. Further, the relationship with r STD that has been described above is r STD = Y STD .

数(17)の逆変換は数(18)である。ここで、基準化正対画像マトリクス全般に亘り、各画素に対応する正対画像マトリクス内の画素輝度を参照して割り当てれば、車輪20の基準化正対画像マトリクスが得られる。   The inverse transformation of number (17) is number (18). Here, if the pixel brightness in the facing image matrix corresponding to each pixel is assigned with reference to the entire standardized facing image matrix, the standardized facing image matrix of the wheel 20 is obtained.

Figure 0005303405
Figure 0005303405

〔ステップ5:極座標画像作成〕
次にステップS5において、基準車輪極座標変換テーブルの作成を行う。図15を参照して、ステップ5の基準車輪極座標画像作成について説明する。図15(a)は正対画像マトリクスの矩形90を示している。図15(b)は正対画像マトリクスを変換した基準車輪極座標画像である。
[Step 5: Create polar coordinate image]
Next, in step S5, a reference wheel polar coordinate conversion table is created. With reference to FIG. 15, the reference wheel polar coordinate image creation in step 5 will be described. FIG. 15A shows a rectangle 90 of a facing image matrix. FIG. 15B is a reference wheel polar coordinate image obtained by converting the facing image matrix.

画像処理装置26はあらかじめ基準車輪極座標変換テーブルを持っており、まず基準車輪極座標変換テーブルを生成することについて説明する。図15(b)に示す基準車輪極座標(t,r)は実数値をとる座標系であって、図15(a)の基準車輪70の車軸710からの距離rを縦軸、基準車輪70と線路4の接点71(すなわち、基準車輪ワールド座標の原点)と車軸710を結ぶ線分(すなわち、基準車輪ワールド座標のY軸)からの偏角tを横軸とする。r軸の単位はミリメートルなどのMKSA単位系としt軸はラディアン又は度とする。   The image processing apparatus 26 has a reference wheel polar coordinate conversion table in advance, and first, generation of the reference wheel polar coordinate conversion table will be described. The reference wheel polar coordinate (t, r) shown in FIG. 15B is a coordinate system taking real values, and the distance r from the axle 710 of the reference wheel 70 in FIG. An abscissa is a declination t from a line segment (that is, the Y axis of the reference wheel world coordinates) connecting the contact point 71 of the track 4 (that is, the origin of the reference wheel world coordinates) and the axle 710. The unit of r-axis is MKSA unit system such as millimeters, and t-axis is radians or degrees.

本実施例のように4つのカメラをもって約90度ピッチで120度程度の視野をもつ場合には、横軸の範囲は−π/3ラディアンからπ/3ラディアン、すなわち、−60度から60度までとするのが適当である。また、縦軸の範囲は接点70を含むRoからRwまでとする(RoとRwは実数)。ここで、数(19)により基準車輪ワールド座標(X,Y)から基準車輪極座標(t,r)へ変換される。   In the case where four cameras have a field of view of about 120 degrees at a pitch of about 90 degrees as in this embodiment, the range of the horizontal axis is -π / 3 radians to π / 3 radians, that is, -60 degrees to 60 degrees. It is appropriate that The range of the vertical axis is from Ro to Rw including the contact point 70 (Ro and Rw are real numbers). Here, the reference wheel world coordinates (X, Y) are converted from the reference wheel world coordinates (t, r) by the number (19).

Figure 0005303405
Figure 0005303405

また、数(20)により基準車輪極座標(t,r)から基準車輪ワールド座標(X,Y)へ変換される。   Also, the reference wheel polar coordinate (t, r) is converted from the reference wheel world coordinate (X, Y) by the number (20).

Figure 0005303405
Figure 0005303405

次に、基準車輪極座標画像のディジタル配列として、図16(b)に示すような極座標画像マトリクス[q,p]を定義する。極座標画像マトリクス[q,p]は基準車輪極座標系によるディジタル画像であって、行列表現が可能であり、行数と列数で画素を特定する。以後行数と列数を座標と呼ぶ。極座標画像マトリクス[q,p]は、同図(a)の取り込まれた画像の矩形90の左上の点を基点として横軸にq、縦軸にpをとって示す座標である。   Next, a polar coordinate image matrix [q, p] as shown in FIG. 16B is defined as a digital array of reference wheel polar coordinate images. The polar coordinate image matrix [q, p] is a digital image based on the reference wheel polar coordinate system and can be expressed in a matrix, and the pixels are specified by the number of rows and the number of columns. Hereinafter, the number of rows and the number of columns are called coordinates. The polar coordinate image matrix [q, p] is a coordinate indicated by taking the upper left point of the rectangle 90 of the captured image of FIG.

ここで、極座標画像マトリクス[q,p]の1画素の水平方向の大きさを表すdq=2π/(3T)、垂直方向の大きさを表すdp=(Rw−Ro)/Rなるdqとdpを定義する(T、Rは自然数)。単位は水平方向が“ラディアン/画素”で、垂直方向が“ミリメートル/画素”となる。   Here, dq = 2d / (3T) representing the size in the horizontal direction of one pixel of the polar coordinate image matrix [q, p], dq = dp = (Rw−Ro) / R representing the size in the vertical direction. (T and R are natural numbers). The unit is “radian / pixel” in the horizontal direction and “millimeter / pixel” in the vertical direction.

図16(b)の極座標画像マトリクス[q,p]は矩形2000の左上端を基点[0,0]とし、横方向q−1番目で縦方向p−1番目の輝度値を有する。また、極座標画像マトリクス[q,p]はR行T列の行列となり、矩形2000の、四隅の極座標画像マトリクスの座標はそれぞれ、O[0,0]、P[T−1,0]、Q[0,R−1]、R[T−1,R−1]となる。数(21)により極座標画像マトリクス[q,p]から車輪基準車輪極座標(t,r)への変換が可能である。   The polar coordinate image matrix [q, p] in FIG. 16B has the upper left corner of the rectangle 2000 as the base point [0, 0], and has the luminance value of the (q−1) th in the horizontal direction and the (p−1) th in the vertical direction. The polar coordinate image matrix [q, p] is a matrix of R rows and T columns, and the coordinates of the polar coordinate image matrix at the four corners of the rectangle 2000 are O [0, 0], P [T-1, 0], Q, respectively. [0, R-1], R [T-1, R-1]. Conversion from the polar coordinate image matrix [q, p] to the wheel reference wheel polar coordinate (t, r) is possible by the number (21).

Figure 0005303405
Figure 0005303405

また、数(22)により車輪基準車輪極座標(t,r)から極座標画像マトリクス[q,p]への変換が可能である。   Also, the wheel reference wheel polar coordinates (t, r) can be converted into the polar coordinate image matrix [q, p] by the number (22).

Figure 0005303405
Figure 0005303405

また、図10の格座標間の関係を示す図式を参照して明らかなように、数(21)と数(20)の順序で変換を進めることで、極座標画像マトリクス[q,p]の矩形2000の画素が基準車輪ワールド座標(X,Y)に変換される。   Further, as is apparent with reference to the diagram showing the relationship between the case coordinates in FIG. 10, by converting in the order of the number (21) and the number (20), the rectangular shape of the polar coordinate image matrix [q, p] is obtained. 2000 pixels are converted to reference wheel world coordinates (X, Y).

さらに数(10)により基準車輪ワールド座標(X,Y)から正対画像マトリクス[j,i]へ変換できることから、極座標画像マトリクス[q,p]の画素を正対画像マトリクス[j,i]へと対応付けることができる。正対画像マトリクス[j,i]はステップS2で生成された正対化されたディジタル画像であるから、対応する画素の輝度が極座画像マトリクスの各画素へ割り当てられる。   Furthermore, since the reference wheel world coordinates (X, Y) can be converted from the reference wheel world coordinates (X, Y) to the facing image matrix [j, i] by the number (10), the pixels of the polar coordinate image matrix [q, p] are converted to the facing image matrix [j, i]. Can be associated. Since the directly-facing image matrix [j, i] is the facing digital image generated in step S2, the luminance of the corresponding pixel is assigned to each pixel of the polar image matrix.

以上の処理を図16(b)の矩形2000全域に亘って行うことで極座標画像マトリクスと正対画像マトリクスの各画素の対応関係が決まる。この対応関係をテーブル化することで、以後、数(21)と数(20)と数(10)による計算を省くことができる。尚、極座標画像マトリクスの座標[q,p]と画面上画像マトリクスの座標[x,y]は整数でなければならないので、数(19)の計算結果に最も近い整数を選択する。   By performing the above processing over the entire area of the rectangle 2000 in FIG. 16B, the correspondence between each pixel in the polar coordinate image matrix and the directly-facing image matrix is determined. By making this correspondence into a table, calculation by the number (21), the number (20), and the number (10) can be omitted thereafter. Since the coordinates [q, p] of the polar coordinate image matrix and the coordinates [x, y] of the on-screen image matrix must be integers, the integer closest to the calculation result of the number (19) is selected.

この結果、極座標画像マトリクス[q,p]に対応する正対画像マトリクス[j,i]更にはその元画像である、画面上画像マトリクス[x,y]が撮影範囲である矩形90及び矩形25の範囲外のときはゼロまたは255などの固定輝度値を割り当てる。   As a result, the face-to-face image matrix [j, i] corresponding to the polar coordinate image matrix [q, p] and the original image, that is, the on-screen image matrix [x, y] are the rectangle 90 and the rectangle 25 in the shooting range. If it is out of the range, a fixed luminance value such as zero or 255 is assigned.

ところで、上記で得られた基準車輪極座標変換テーブルは、基準車輪70の車軸710を基準として変換される基準車輪極座標変換テーブルである。車輪20にあっては補正が必要であり、このためにステップS4で作成した基準化正対画像マトリクスの輝度値を、正対画像マトリクスの代わりに参照する。   By the way, the reference wheel polar coordinate conversion table obtained above is a reference wheel polar coordinate conversion table that is converted on the basis of the axle 710 of the reference wheel 70. The wheel 20 needs to be corrected. For this purpose, the brightness value of the standardized facing image matrix created in step S4 is referred to instead of the facing image matrix.

以上の処理により分割撮影された車輪画像は基準車輪極座標画像をディジタル画像化した極座標画像マトリクスに変換される。例えば、図16(a)の車軸210を中心とする同心円上に存在する特徴点121や122は、それぞれ図16(b)のように水平方向の特徴点121と122に変換される。ボルト33、34、35もそれぞれ変換される。なお、特徴点121、122は例えば車輪20についた傷である。また、車輪20の輪郭は水平線分123に変換される。以上が処理フローにおけるステップS5の処理である。   The wheel image divided and photographed by the above processing is converted into a polar coordinate image matrix obtained by converting the reference wheel polar coordinate image into a digital image. For example, feature points 121 and 122 existing on concentric circles centering on the axle 210 in FIG. 16A are converted into horizontal feature points 121 and 122, respectively, as shown in FIG. 16B. Bolts 33, 34, and 35 are also converted. The feature points 121 and 122 are scratches on the wheel 20, for example. Further, the contour of the wheel 20 is converted into a horizontal line segment 123. The above is the process of step S5 in the process flow.

〔ステップ6:ボルト検出〕
次にステップS6、S7においてボルト検出及び特徴点検出を行うことについて説明する。まず、図17を参照して、ステップ6のボルト検出処理を説明する。
[Step 6: Bolt detection]
Next, the bolt detection and feature point detection in steps S6 and S7 will be described. First, the bolt detection process in step 6 will be described with reference to FIG.

極座標画像マトリクスはディジタル画像であるから正規化相関によるパタンマッチングによる検出が可能である。ボルト形状は既知であり、ボルトの基準車輪極座標変換後の形状も既知であって、これを図17(a)に示すようにテンプレート登録しておくことができる。   Since the polar coordinate image matrix is a digital image, it can be detected by pattern matching using normalized correlation. The bolt shape is known, and the shape of the bolt after the reference wheel polar coordinate conversion is also known, and this can be registered as a template as shown in FIG.

図17(b)は極座標画像マトリクスの例であって、基準車輪極座標変換されたボルト33、34、35が示されている。撮影のタイミングにより車輪の位相すなわち回転角はまちまちであるが、ボルト33、34、35は車軸から等距離の位置を移動するので基準車輪極座標変換後は水平線上を移動する。   FIG. 17B is an example of a polar coordinate image matrix, which shows bolts 33, 34, and 35 that have undergone reference wheel polar coordinate conversion. Although the phase of the wheel, that is, the rotation angle varies depending on the timing of photographing, the bolts 33, 34, and 35 move at the same distance from the axle, and therefore move on the horizontal line after the reference wheel polar coordinate conversion.

したがって、図17(a)のテンプレートを水平線上近傍で探査すれば、ボルト33、34、35を検出することができる。ただし、ボルト間に形状の差異が無いので車輪上のボルトを特定することはできない。車輪上に例えばボルトがk(kは自然数)個あるときには、k通りの曖昧さを残して特定される。ここで、ある特定のボルトのみが他と異なる形状をしており、これをテンプレートとして検出した場合には、ボルトを特定することができるので、車輪の回転角も一意に特定される。以上がステップS6のボルト検出処理である。   Therefore, if the template shown in FIG. 17A is searched in the vicinity of the horizontal line, the bolts 33, 34, and 35 can be detected. However, since there is no difference in shape between the bolts, the bolt on the wheel cannot be specified. For example, when there are k bolts (k is a natural number) on the wheel, k is specified with ambiguity. Here, only a specific bolt has a different shape from the others, and when this is detected as a template, the bolt can be specified, so the rotation angle of the wheel is also uniquely specified. The above is the bolt detection process of step S6.

〔ステップ7:特徴点検出〕
次に図17を参照して、ステップS7の特徴点検出処理について説明する。
[Step 7: Feature Point Detection]
Next, the feature point detection processing in step S7 will be described with reference to FIG.

図17(b)は特徴点131を有する車輪20の基準車輪極座標マトリクスの例である。ステップS6で検出したボルト領域以外の領域について、当該極座標画像マトリクスに対してソーベルフィルタ処理後に所定のしきい値で二値化して特徴点の有無と、特徴点がある場合はその端点の位置を検出することができる。   FIG. 17B is an example of a reference wheel polar coordinate matrix of the wheel 20 having the feature points 131. For regions other than the bolt region detected in step S6, the polar coordinate image matrix is binarized with a predetermined threshold value after the Sobel filter processing, and the presence / absence of a feature point and the position of the end point if there is a feature point Can be detected.

同時に特徴点131に最近傍のボルト、図17(b)の例ではボルト35の位置(q,p)からの水平方向の変位を計算し、前記ボルト位置と当該ボルトからの変位を特徴点131の位置情報とする。このように最近傍のボルトとの位置関係で車輪上の特徴点131の位置を特定する。さらに、特徴点131は、図17(c)のように特徴点の始点と終点位置を把握することができる。 At the same time, the displacement in the horizontal direction from the position (q b , p b ) of the bolt closest to the feature point 131, in the example of FIG. 17B, is calculated, and the bolt position and the displacement from the bolt are characterized. The position information of the point 131 is used. Thus, the position of the feature point 131 on the wheel is specified by the positional relationship with the nearest bolt. Further, the feature point 131 can grasp the start point and end point position of the feature point as shown in FIG.

図18は、ボルトの数が8の場合の、特徴点の位置特定とあいまいさを示す図である。8つのボルトの形状が同じでボルト35が図18のボルトのいずれであるかを特定できない場合は、特徴点131は位置132乃至139の8通りの曖昧さをもって記録される。   FIG. 18 is a diagram illustrating the position specification and ambiguity of the feature point when the number of bolts is eight. If the shape of the eight bolts is the same and the bolt 35 cannot be identified as one of the bolts in FIG. 18, the feature point 131 is recorded with eight ambiguities at positions 132 to 139.

しかし、前述したように8つのボルトのいずれか一つが特殊な形状であって、特殊なボルトの位置が特定できれば、その他のボルト位置の順番から特徴点の位置を一意に決定できる。また、車輪の所定に領域に所定のマークを刻印し、マークを検出してこれを基準とすることで位置特定の差異の曖昧さをなくすこともできる。以上がステップS7の特徴点検出処理である。   However, as described above, if any one of the eight bolts has a special shape and the position of the special bolt can be specified, the position of the feature point can be uniquely determined from the order of the other bolt positions. Further, it is possible to eliminate the ambiguity of the position-specific difference by imprinting a predetermined mark on a predetermined area of the wheel, detecting the mark, and using this as a reference. The above is the feature point detection processing in step S7.

〔ステップ8:出力〕
ステップS8において、図2の画像処理装置26はステップS7までに得られた種種の画像及びデータをデータベース8に出力する。
[Step 8: Output]
In step S8, the image processing apparatus 26 in FIG. 2 outputs the various images and data obtained up to step S7 to the database 8.

データベース8に出力する画像及びデータは、車輪画像、車輪ID、通過時刻、ステップS2で生成した正対化画像、ステップS3で求めた車軸位置及び、この車軸位置と基準車輪ワールド座標の原点との差異から計算できる車輪半径の長さ、ステップS5で生成した極座標画像マトリクス、ステップS6で求めたボルト位置、ステップS7で求めた特徴点の位置と長さである。以上が図1に示した画像処理装置26における一連の処理フローである。   The image and data output to the database 8 are the wheel image, the wheel ID, the passing time, the facing image generated in step S2, the axle position obtained in step S3, and the axle position and the origin of the reference wheel world coordinates. The length of the wheel radius that can be calculated from the difference, the polar coordinate image matrix generated in step S5, the bolt position determined in step S6, and the position and length of the feature point determined in step S7. The above is a series of processing flows in the image processing apparatus 26 shown in FIG.

またデータベース8は、画像取得装置16乃至19からに画像及び計測したデータを車輪ID毎にまとめ、通過時刻をインデクスとして保持する。通過時刻が列車運行表を介して編成番号と紐付けされていれば、編成番号と、車輪IDと前記検査ユニット番号からなるインデクスで一意に特定が可能となる。   The database 8 collects images and measured data from the image acquisition devices 16 to 19 for each wheel ID, and stores the passage time as an index. If the passing time is linked to the composition number via the train operation table, it is possible to uniquely identify the composition number, the wheel ID, and the index composed of the inspection unit number.

次に図17(b)(c)を参照して、極座標画像マトリクスで行う特徴点のパタンマッチング処理を説明する。図17(c)はデータベース8に保存されている極座標画像マトリクスから切り出した特徴点の輝度パタンであって、テンプレートパタン130である。これは過去に、ステップS7で検出された特徴点の画像がステップS8で出力されて、データベース8に前記インデクス管理されて保存されていたものである。後日、同一の車輪が検査に係ったときに、データベース8から読み出してテンプレートパタン130とする。もっともこのテンプレートとしての特徴点画像の切り出しと管理は、ユーザインタフェース12の表示装置とポインティングデバイスを用いてオペレータが手作業で行うことも可能である。 Next, with reference to FIGS. 17B and 17C, the feature point pattern matching processing performed in the polar coordinate image matrix will be described. FIG. 17C shows the luminance pattern of the feature points cut out from the polar coordinate image matrix stored in the database 8, which is the template pattern 130. In the past, the image of the feature point detected in step S7 is output in step S8, and the index is managed and stored in the database 8. Later, when the same wheel is inspected, it is read from the database 8 and used as the template pattern 130. However, the feature point image as a template can be cut out and managed by an operator manually using the display device and the pointing device of the user interface 12.

テンプレートパタン130は特徴点の外接矩形であって、水平方向をt軸、垂直方向をr軸とし、外接矩形の左上隅を基点(0,0)としてTmp[q,p]で表される。このとき、テンプレートの高さ、すなわち垂直方向の画素数をh、テンプレートの幅すなわち水平方向の画素数をwとする。一方、図13(b)の極座標画像マトリクスの輝度パタンをTrg[q,p]で表すとする。このとき、両者の正規化相関によるパタンマチングによる類似度Sim[q,p]は数(23)で表される。   The template pattern 130 is a circumscribed rectangle of the feature point, and is represented by Tmp [q, p], where the horizontal direction is the t axis, the vertical direction is the r axis, and the upper left corner of the circumscribed rectangle is the base point (0, 0). At this time, the height of the template, that is, the number of pixels in the vertical direction is h, and the width of the template, that is, the number of pixels in the horizontal direction is w. On the other hand, it is assumed that the luminance pattern of the polar coordinate image matrix of FIG. 13B is represented by Trg [q, p]. At this time, the similarity Sim [q, p] by pattern matching based on the normalized correlation between them is expressed by the number (23).

Figure 0005303405
Figure 0005303405

過去に取得した極座標画像マトリクスから生成したテンプレートパタン130と、後日新たに取得した極座標画像マトリクス上の特徴点131の形状が極端に変化していなければ両者はq軸とp軸に併進移動による探査をするのみで該当する位置を検出できる。また、撮影開始時の、当該車輪の回転角の差異によりqは変化するものの、車軸からの距離は前述ステップ4の補正処理により不変であるからパタンマッチング処理の際にもテンプレートパタン130を取得した際の極座標画像マトリクスの座標[q130,p130]も一緒に保存しておき、p130を固定して、類似度Sim[q,p130]をq軸方向のみに探査すればよい。 If the shape of the template pattern 130 generated from the polar coordinate image matrix acquired in the past and the feature point 131 on the polar coordinate image matrix newly acquired at a later date are not extremely changed, both are searched by translation to the q axis and the p axis. The corresponding position can be detected only by performing the operation. In addition, although q changes due to the difference in the rotation angle of the wheel at the start of photographing, the distance from the axle is not changed by the correction process in Step 4 described above, so the template pattern 130 is also acquired during the pattern matching process. The coordinates [q 130 , p 130 ] of the polar coordinate image matrix may be stored together, p 130 may be fixed, and the similarity Sim [q, p 130 ] may be searched only in the q-axis direction.

これによって、過去に取得した極座標画像マトリクス上の特徴点と、新たに取得した極座標画像マトリクス上の特徴点とが、車輪20上の同一箇所の特徴点であるかを特定し、特徴点の長さ、形状の経年変化を観察する。特徴点の形状の同否は前記特徴点をいくつかの線分に分割した各部分の、線分方向の同否で表現される。これらのパタンマッチング処理は画像処理装置26にて行ってもよいが、オフライン処理としてユーザインタフェース12に内蔵の情報処理装置に行わせてもよい。   Thereby, it is specified whether the feature points on the polar coordinate image matrix acquired in the past and the feature points on the newly acquired polar coordinate image matrix are the same feature points on the wheel 20, and the length of the feature point is determined. Now, observe the aging of the shape. The similarity of the shape of the feature point is expressed by the similarity in the line segment direction of each portion obtained by dividing the feature point into several line segments. These pattern matching processes may be performed by the image processing apparatus 26, but may be performed by an information processing apparatus built in the user interface 12 as an offline process.

図3のパノラマ形成装置10は画像取得装置16乃至19から出力される極座標画像マトリクス151乃至154から車輪全周分のパノラマ極座標画像マトリクスを形成する。図19は基準車輪70のパノラマ極座標画像マトリクスの形成を示す図である。同図(a)の画像取得装置16乃至19に1つずつ内蔵するカメラ25は基準車輪70が90度回転するたびに撮影するように設置されているため、極座標画像マトリクス151乃至154の各々±45度の範囲を水平方向に接合すると、図19(b)に示すパノラマ形成した極座標画像マトリクスが得られる。   The panorama forming apparatus 10 of FIG. 3 forms a panoramic polar coordinate image matrix for the entire circumference of the wheel from the polar coordinate image matrices 151 to 154 output from the image acquisition devices 16 to 19. FIG. 19 is a diagram illustrating the formation of a panoramic polar coordinate image matrix of the reference wheel 70. Since the cameras 25 incorporated one by one in the image acquisition devices 16 to 19 in FIG. 5A are installed so as to be photographed every time the reference wheel 70 is rotated 90 degrees, each of the polar coordinate image matrices 151 to 154 is ± When the 45-degree range is joined in the horizontal direction, a panoramic polar image matrix shown in FIG. 19B is obtained.

図20は車輪20に係る極座標画像マトリクスのパノラマ形成を示す図である。車輪20は前記4つのカメラ25の撮影タイミングをL度ピッチで回転するので、画像取得装置16乃至19で得られた極座標画像マトリクス161乃至164の中央から±L/2度分をL度ピッチで接合する。ここでLは数(24)で得られる。   FIG. 20 is a diagram showing panorama formation of a polar coordinate image matrix related to the wheel 20. Since the wheels 20 rotate the photographing timing of the four cameras 25 at an L-degree pitch, ± L / 2 degrees from the center of the polar coordinate image matrices 161 to 164 obtained by the image acquisition devices 16 to 19 at an L-degree pitch. Join. Here, L is obtained by the number (24).

Figure 0005303405
Figure 0005303405

数(24)において、YSTDは基準車輪の半径で既知の値である。Yは車輪20の半径であって、ステップS4の処理で算出される。尚、画像取得装置16乃至19の各々でステップS4の処理を行うことにより車輪20の半径は独立に4回計測されることになるが、これらの値の平均値又は中央値を数(24)のYに用いることができる。また、カメラ間の回転角度は車輪20の半径を用いることなく、ボルトなどの周期的な構造物の移動を前述のパタンマッチングにより計測することもできる。 In number (24), Y STD is a known value for the radius of the reference wheel. Yc is the radius of the wheel 20 and is calculated in the process of step S4. Note that the radius of the wheel 20 is independently measured four times by performing the processing of step S4 in each of the image acquisition devices 16 to 19, and the average value or median value of these values is expressed by a number (24). Y c can be used. Further, the rotation angle between the cameras can measure the movement of a periodic structure such as a bolt by the above-described pattern matching without using the radius of the wheel 20.

本実施例のように4つのカメラで撮影する場合、ボルトの配置が4の倍数すなわち、4、8、12、16、個が等間隔である場合には、90度ピッチで回転する場合には各撮影画像で同位置にボルトが存在するため、パタンマッチングによりボルトの位置がずれて検出されることで90度からのずれ角度を算出することができる。   When shooting with four cameras as in the present embodiment, when the bolts are arranged in multiples of 4, that is, 4, 8, 12, 16, and the pieces are equally spaced, when rotating at a pitch of 90 degrees Since there is a bolt at the same position in each captured image, the displacement angle from 90 degrees can be calculated by detecting the displacement of the bolt position by pattern matching.

ここで、より一般化したパノラマ形成方法について説明する。検査対称たる車輪でもっとも周囲長の長い車輪(先の実施例では基準車輪)の周囲長をLmax、最も周囲長の短い車輪の周囲長をLminとし、撮影に用いるカメラの数をNcam(左記に実施例では4)とする。この場合、Ncam個のカメラはLmax/Ncamの等間隔で線路脇に配置し、各カメラは車輪と線路の接点を中央にして±(180/Ncam)×(Lmax/Lmin)度の範囲すなわち、(360/Ncam)×(Lmax/Lmin)度の範囲を撮影できるように設置する必要がある。 Here, a more general panorama forming method will be described. The perimeter of the wheel with the longest perimeter (reference wheel in the previous embodiment) is L max , the perimeter of the shortest perimeter is L min, and the number of cameras used for imaging is N cam. (The left example is 4 in the embodiment). In this case, N cam cameras are arranged beside the track at equal intervals of L max / N cam , and each camera is ± (180 / N cam ) × (L max / L min with the contact point of the wheel and the track as the center. ) Degree range, that is, a range of (360 / N cam ) × (L max / L min ) degree needs to be installed.

このように設定すると、最大半径の車輪も最小半径の車輪もNcamのカメラで漏れなく撮影が可能で、重複も最も少ない。また、これら統合してパノラマ化するには(360/Ncam)×(Lmax/L)ピッチで、各極座標画像マトリクスとも±(180/Ncam)×(Lmax/L)の範囲を接合する。ここでLは車輪20の周囲長である。 With this setting, it is possible to shoot with the N cam camera without omission, with the smallest radius wheel and the smallest radius wheel, and the least overlap. Further, in order to integrate these into a panorama, a range of ± (180 / N cam ) × (L max / L) is joined to each polar coordinate image matrix at a pitch of (360 / N cam ) × (L max / L). To do. Here, L is the perimeter of the wheel 20.

パノラマ形成装置10は極座標画像マトリクスをパノラマ形成した画像をデータベース8に前記インデクス管理の下保存する。   The panorama forming apparatus 10 stores an image in which a polar coordinate image matrix is panorama formed in the database 8 under the index management.

図21を参照してユーザインタフェース装置12の表示機能に車輪に係るパノラマ画像を表示する処理について説明する。図21(a)はパノラマ形成装置10で生成し、データベース8に保存されているパノラマ形成した車輪全周の極座標画像マトリクスを、ユーザインタフェース装置12の表示機能に係る仮想メモリ上に展開したものである。   With reference to FIG. 21, a process of displaying a panoramic image related to the wheels in the display function of the user interface device 12 will be described. FIG. 21A shows a polar coordinate image matrix generated by the panorama forming apparatus 10 and stored in the database 8 and formed on the virtual memory related to the display function of the user interface apparatus 12. is there.

この仮想メモリに展開した画像の全部又は一部をユーザインタフェース12の表示機能に係る表示メモリに書き込むことで前記表示機能に前記パノラマ形成した車輪全周の極座標画像マトリクスの全部又は一部が表示される。前記表示機能に表示できる画素数は限られているため、前記極座標画像マトリクス全体を表示する場合には表示画素を間引くなどして表示解像度を落とす必要がある。   By writing all or part of the image developed in the virtual memory into the display memory related to the display function of the user interface 12, all or part of the polar coordinate image matrix around the panoramic wheel is displayed on the display function. The Since the number of pixels that can be displayed by the display function is limited, when displaying the entire polar coordinate image matrix, it is necessary to reduce the display resolution by thinning out the display pixels.

一部表示する場合には、ユーザインタフェース装置12のマウスやキーボードなどのポインティングデバイスを用いて、図21(a)に示す表示パラメータtDISP1を制御して所望の一部を表示することができる。ここで、表示パラメータtDISP1とは前記パノラマ形成された極座標画像マトリクスの左端基点からのオフセット画素数を示し、このオフセット画素数で指定される矩形1700の範囲に属する画素を前記表示機能に係る表示メモリに書き込むこのようにして極座標画像マトリクスの一部を表示した例が図21(b)である。その他のパラメータを操作して矩形1700の縦横画素数を変化させれば図21(b)においては異なる解像度で異なる範囲の極座標画像マトリクスを表示することができる。 In the case of partial display, a desired part can be displayed by controlling the display parameter t DISP 1 shown in FIG. 21A by using a pointing device such as a mouse or a keyboard of the user interface device 12. . Here, the display parameter t DISP 1 indicates the number of offset pixels from the left end base point of the panoramic polar image matrix, and pixels belonging to the range of the rectangle 1700 specified by the number of offset pixels are related to the display function. FIG. 21B shows an example in which a part of the polar coordinate image matrix is displayed in this manner written in the display memory. If other parameters are manipulated to change the number of vertical and horizontal pixels of the rectangle 1700, in FIG. 21B, polar coordinate image matrices in different ranges can be displayed at different resolutions.

先に図10に示したように数(9)、(19)、(22)の順に変換をたどると、任意の基準化正対画像マトリクスの画素[j,i’]に対応する極座標画像マトリクス[q,p]を求めることができる。前記パノラマ形成された極座標画像マトリクスについては画像取得装置16、17、18、19についてそれぞれ、[q+3×qoffset,p]、[q+2×qoffset,p]、[q+qoffset,p]、[q,p]と、所定のオフセットqoffsetを加えて求めることができる。 As shown in FIG. 10, when the conversion is performed in the order of the numbers (9), (19), and (22), the polar coordinate image matrix corresponding to the pixel [j, i ′] of any standardized facing image matrix [Q, p] can be obtained. For the panoramic polar image matrix, [q + 3 × q offset , p], [q + 2 × q offset , p], [q + q offset , p], [q] for the image acquisition devices 16, 17, 18, and 19, respectively. , P] and a predetermined offset q offset can be obtained.

ここで、qoffsetは、(基準車輪70に係る極座標画像マトリクス90度分の画素数)×(基準車輪70の半径の長さ)/(撮影に係る車輪の半径の長さ)で算出される。 Here, q offset is calculated by (number of pixels for 90 degree polar coordinate image matrix related to reference wheel 70) × (radius length of reference wheel 70) / (length of radius of wheel related to photographing). .

基準化正対画像マトリクスの画素[j,i’]と前記パノラマ形成された極座標画像マトリクスの画素[q,p]の関係をテーブル化しておき、たとえば、図21(a)の表示パラメータtDISP2として基準を定めてパノラマ形成した極座標画像マトリクスの所定の画素をアクセスして、前記変換テーブルに基づいて前記表示メモリに書き込むことで、図21(c)に示すように車輪の任意の部分又は全体をユーザインタフェース12の表示機能に表示することができる。 The relationship between the pixel [j, i ′] of the normalized face-to-face image matrix and the pixel [q, p] of the panoramic polar coordinate image matrix is tabulated, for example, the display parameter t DISP in FIG. As shown in FIG. 21 (c), by accessing a predetermined pixel of the polar coordinate image matrix which is panorama formed with a reference as 2 and writing it in the display memory based on the conversion table, The whole can be displayed on the display function of the user interface 12.

車軸付近は広い角度に亘り表示されるため、おおよそ1701の破線矩形で示す領域が基準正対画像マトリクスとして変換されて図21(c)として表示される。このように、図21(c)のように、任意の車輪位置の状態を、車輪イメージで表示することができる。   Since the vicinity of the axle is displayed over a wide angle, a region indicated by approximately 1701 broken rectangle is converted as a reference image matrix and displayed as FIG. Thus, as shown in FIG. 21C, the state of an arbitrary wheel position can be displayed as a wheel image.

図21(a)のパノラマ形成した車輪全周の極座標画像マトリクスの水平方向は360度分の角度を表し、その右端の更に右は左端につながるべきものである。したがって、表示パラメータtDISP1および表示パラメータtDISP2が増加して、図22(a)に示すように矩形1700及び破線矩形1701が右端からはみ出る場合には左端の該当部分をアクセスして表示又は逆変換後に表示することで図22(b)及び(c)に示すように車輪の任意の部分を表示することができる。 In FIG. 21A, the horizontal direction of the polar coordinate image matrix of the entire wheel formed in the panorama represents an angle of 360 degrees, and the right end of the right end should be connected to the left end. Therefore, when the display parameter t DISP 1 and the display parameter t DISP 2 are increased and the rectangle 1700 and the dashed rectangle 1701 protrude from the right end as shown in FIG. 22A, the corresponding portion at the left end is accessed for display or display. By displaying after reverse conversion, any part of the wheel can be displayed as shown in FIGS. 22 (b) and 22 (c).

ステップ3において検出した車軸位置に基づいて、ステップ4にて基準化正対画像マトリクスへの変換を行っている。図23を参照して、この基準化正対画像マトリクスへの変換の重要性を説明する。   Based on the axle position detected in step 3, conversion into a standardized facing image matrix is performed in step 4. With reference to FIG. 23, the importance of the conversion into the normalized face-to-face image matrix will be described.

図23左は基準車輪70を、ステップ5で作成した基準車輪極座標変換テーブル2020を用いて極座標画像マトリクスに変換した例を示す。矩形90は正対画像マトリクスの範囲を表す。   FIG. 23 left shows an example in which the reference wheel 70 is converted into a polar coordinate image matrix using the reference wheel polar coordinate conversion table 2020 created in step 5. A rectangle 90 represents the range of the facing image matrix.

図23中央は、磨耗した車輪20について、ステップ4の処理を経ずに、基準車輪極座標変換テーブル2020を用いて極座標画像マトリクスに変換した例を示す。基準車輪極座標変換テーブル2020で想定する車軸の位置710bと車軸210に差異があるために、歪んだ極座標画像マトリクスとなる。   The center of FIG. 23 shows an example in which the worn wheel 20 is converted into a polar coordinate image matrix using the reference wheel polar coordinate conversion table 2020 without going through the process of step 4. Since there is a difference between the axle position 710b assumed in the reference wheel polar coordinate conversion table 2020 and the axle 210, the polar coordinate image matrix is distorted.

図23右は、磨耗した車輪20について、ステップ4の処理で基準化正対画像マトリクスに変換後に、基準車輪極座標変換テーブル2020を用いて極座標画像マトリクスに変換した例を示す。車軸210と想定された車軸の位置710bが一致しているため、歪みのない極座標画像マトリクスが得られる。   The right side of FIG. 23 shows an example in which the worn wheel 20 is converted into a standardized facing image matrix in the process of step 4 and then converted into a polar coordinate image matrix using the reference wheel polar coordinate conversion table 2020. Since the assumed axle position 710b matches the axle 210, a polar coordinate image matrix without distortion is obtained.

ただし、ドットパタンで示した領域2021と2022は、カメラ23の視野からはずれていて、原画像たる画面上画像マトリクスに含まれていなかった領域である。車軸の磨耗により生じる垂直方向のずれで生じる領域2021は、レール4に関する領域であって、本発明の車両検査装置では問題はない。   However, areas 2021 and 2022 indicated by dot patterns are areas that are out of the field of view of the camera 23 and are not included in the on-screen image matrix that is the original image. A region 2021 generated by a vertical shift caused by wear of the axle is a region related to the rail 4, and there is no problem in the vehicle inspection device of the present invention.

しかし、車輪検知タイミングの遅延による水平方向のずれで生じる領域2022は車輪側面の領域が含まれる可能性があるので問題となる。このことから、車輪検知タイミングの遅延は少なく抑えるべきである。   However, the region 2022 caused by the horizontal shift due to the delay of the wheel detection timing is problematic because it may include a wheel side region. For this reason, the delay of the wheel detection timing should be kept small.

本発明は列車の車輪側面画像を撮影し、その傷の経年変化を追跡すると共に、データベースに格納の過去データの閲覧が可能であり、車両検査装置として有用である。 The present invention is useful as a vehicle inspection device because it captures train wheel side images and tracks the secular change of the flaws and allows browsing of past data stored in a database.

1 ・・・ 車両検査装置
2 ・・・ 検査ユニット
3、4 ・・・ 線路
6 ・・・ 車両
20 ・・・ 車輪
210 ・・・ 車輪20の車軸
16、17、18、19 ・・・ 撮影処理手段
8 ・・・データベース
10 ・・・パノラマ形成手段
12 ・・・ユーザインタフェース装置
20 ・・・ 車輪
21 ・・・ 車輪検知センサ
22 ・・・ 照明装置
23 ・・・ カメラ
24 ・・・ 車輪計数装置
25 ・・・ 画面上画像マトリクスの範囲である矩形
26 ・・・ 画像処理装置
27 ・・・ 画像保存装置
28 ・・・ 90度の視野範囲
29 ・・・ 120度の視野範囲
30〜37 ・・・ 車輪20のボルト
40 ・・・ 車輪側面の通る平面
50、51 ・・・ 車輪検知センサ21に係る光電ビーム
70 ・・・ 基準車輪
710 ・・・ 基準車輪70の車軸
91a、92a、93a、94a ・・・ キャリブレーションマークの画面上画像マトリクス上での点
91b、92b、93b、94b ・・・ キャリブレーションマークの基準車輪ワールド座標上での点
71 ・・・ 基準車輪70と線路4の接点
90 ・・・ 正対画像マトリクスの範囲を示す矩形
710b ・・・ 基準車輪極座標変換テーブル2020で想定する車軸の位置
2020 ・・・ ステップ5で作成した基準車輪極座標変換テーブル2020
2021 ・・・ 車輪の磨耗により生じる画像情報の欠落
2022 ・・・ 車輪検知タイミングの遅延により生じる画像情報の欠落
1000 ・・・ 二値化した画像
1001 ・・・ 線路4の輪郭の一部
1002 ・・・ 車輪輪郭の存在する範囲
121、122 ・・・ 同心円上に存在する特徴点
130 ・・・ 特徴点のテンプレートパタン
2000 ・・・ 極座標画像マトリクスの範囲を示す矩形
132〜139 ・・・ 車輪20上の特徴点
151〜154 ・・・ 基準車輪70の極座標画像マトリクス
161〜164 ・・・ 車輪20の極座標画像マトリクス
1700 ・・・ ユーザインタフェース装置12の表示機能で表示する範囲
1701 ・・・ ユーザインタフェース装置12の表示機能で表示する範囲
DESCRIPTION OF SYMBOLS 1 ... Vehicle inspection apparatus 2 ... Inspection unit 3, 4 ... Track 6 ... Vehicle 20 ... Wheel 210 ... Axle 16, 17, 18, 19 ... of wheel 20 ... Imaging process Means 8 ... Database 10 ... Panorama forming means 12 ... User interface device 20 ... Wheel 21 ... Wheel detection sensor 22 ... Illumination device 23 ... Camera 24 ... Wheel counting device 25 ... Rectangle 26 that is the range of the image matrix on the screen ... Image processing device 27 ... Image storage device 28 ... 90 degree field of view 29 ... 120 degree field of view 30-37 The bolts 40 of the wheels 20... Planes 50, 51 through which the wheel side faces pass. The photoelectric beam 70 related to the wheel detection sensor 21... The reference wheel 710. a, 93a, 94a ... points 91b, 92b, 93b, 94b on the on-screen image matrix of the calibration mark ... points 71 on the reference wheel world coordinates of the calibration mark ... with the reference wheel 70 Contact point 90 of the line 4 ... rectangle 710b indicating the range of the front image matrix ... axle position 2020 assumed in the reference wheel polar coordinate conversion table 2020 ... reference wheel polar coordinate conversion table 2020 created in step 5
2021 ... Missing image information caused by wheel wear 2022 ... Missing image information caused by delay of wheel detection timing 1000 ... Binarized image 1001 ... Part of contour 4 of line 4 1002 .. Ranges 121 and 122 where wheel contours exist. Feature points 130 existing on concentric circles. Template pattern 2000 of feature points. Rectangles 132 to 139 indicating ranges of polar coordinate image matrix. Upper characteristic points 151 to 154 ... Polar coordinate image matrix 161 to 164 of reference wheel 70 ... Polar coordinate image matrix 1700 of wheel 20 ... Range 1701 to be displayed by display function of user interface device 12 ... User interface Range displayed by the display function of the device 12

Claims (13)

線路に沿って設置され、該線路を通過する車両の車輪側面の車輪画像を取得する画像取得装置と、該画像取得装置が取得した画像を保存する画像保存装置と、画像処理を行う画像処理装置とを備え、
前記画像保存装置は、磨耗のない基準車輪の正対化画像を予め保持しており、
前記画像処理装置は、前記画像取得装置で取得した車輪画像に射影変換を施して前記車輪に正対する正対化画像を生成し、
該正対化画像について前記車輪の車軸位置を推定し、
該推定した車軸位置を、前記画像保存手段に保持している磨耗のない基準車輪の正対化画像の車軸位置に合致させた画像に修正して前記画像保存装置に保存することを特徴とする車両検査装置。
An image acquisition device that acquires a wheel image of a wheel side surface of a vehicle that is installed along a track and passes through the track, an image storage device that stores an image acquired by the image acquisition device, and an image processing device that performs image processing And
The image storage device holds in advance a facing image of the reference wheel without wear,
The image processing device generates a facing image that faces the wheel by performing projective transformation on the wheel image acquired by the image acquisition device,
Estimating the wheel axle position for the facing image;
The estimated axle position is corrected to an image matched with the axle position of the facing image of the reference wheel without wear held in the image storage means and stored in the image storage device. Vehicle inspection device.
請求項1記載の車両検査装置において、
前記画像処理装置は、車軸位置を合致させたあとの前記車輪画像について、車軸位置を原点とする極座標変換を行って極座標画像を生成して、該極座標画像を前記画像保存装置に保存することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 1,
The image processing device generates a polar coordinate image with respect to the wheel image after matching the axle position, generates a polar coordinate image with the axle position as an origin, and stores the polar coordinate image in the image storage device. A vehicle inspection device.
請求項2記載の車両検査装置において、
前記画像保存装置は、車輪ボルトの極座標画像上でのテンプレート画像を予め保持しており、
前記画像処理装置は、車軸位置を原点とする極座標変換を行った前記の極座標画像に対してテンプレートマッチングによりボルト位置を確定することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 2,
The image storage device holds in advance a template image on a polar coordinate image of a wheel bolt,
The vehicle image inspection apparatus, wherein the image processing apparatus determines a bolt position by template matching for the polar coordinate image obtained by performing polar coordinate conversion with an axle position as an origin.
請求項2記載の車両検査装置において、
前記画像処理装置は、前記極座標画像に対して欠陥の有無を検出する処理を行い、前記画像保存装置に保存することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 2,
The vehicle inspection apparatus, wherein the image processing apparatus performs a process of detecting the presence or absence of a defect on the polar coordinate image and stores the defect in the image storage apparatus.
請求項3記載の車両検査装置において、
前記画像処理装置は、前記極座標画像に対して欠陥の有無を検出する処理を行い、その欠陥位置をテンプレートマッチングにより確定したボルト位置との関係で前記画像保存装置に保存することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 3,
The image processing device performs processing for detecting the presence or absence of a defect in the polar coordinate image, and stores the defect position in the image storage device in relation to a bolt position determined by template matching. Inspection device.
線路に沿って複数台設置され、該線路を通過する車両の車輪側面の全周に亘る複数枚の車輪画像を取得する画像取得装置と、該画像取得装置が取得した画像を保存する画像保存装置と、画像処理を行う画像処理装置とを備え、
前記画像保存手段は、磨耗のない基準車輪の正対化画像を予め保持しており、
前記画像処理装置は、前記の車輪側面の全周に亘る複数枚の車輪画像のそれぞれに射影変換を施して前記車輪に正対する複数の正対化画像を生成し、
該複数の正対化画像について前記車輪の車軸位置をそれぞれ推定し、
該推定した車軸位置を、前記画像保存手段に保持している磨耗のない基準車輪の正対化画像の車軸位置に合致させた画像に修正して前記画像保存装置に保存することを特徴とする車両検査装置。
An image acquisition device that acquires a plurality of wheel images over the entire circumference of a wheel side surface of a vehicle that is installed along the track and passes through the track, and an image storage device that stores an image acquired by the image acquisition device And an image processing device that performs image processing,
The image storage means holds in advance a facing image of the reference wheel without wear,
The image processing device generates a plurality of facing images that face the wheels by performing projective transformation on each of the plurality of wheel images over the entire circumference of the wheel side surface,
Estimating the wheel axle position for each of the plurality of facing images,
The estimated axle position is corrected to an image matched with the axle position of the facing image of the reference wheel without wear held in the image storage means and stored in the image storage device. Vehicle inspection device.
請求項6記載の車両検査装置において、
前記画像処理装置は、車軸位置を合致させたあとの前記複数の車輪画像について、車軸位置を原点とする極座標変換を行って複数の極座標画像を生成し、
該複数の極座標画像を連結して車輪画像の全周に亘る極座標画像を作成して前記画像保存装置に保存することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 6, wherein
The image processing device generates a plurality of polar coordinate images by performing polar coordinate conversion with the axle position as an origin for the plurality of wheel images after matching the axle position.
A vehicle inspection apparatus that connects the plurality of polar coordinate images to create a polar coordinate image over the entire circumference of the wheel image and stores the polar image in the image storage device.
表示手段を備える請求項7記載の車両検査装置において、
前記連結した車輪画像の全周に亘る極座標画像の一部矩形領域を表示手段に表示することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 7, further comprising display means.
A vehicle inspection apparatus that displays a partial rectangular region of a polar coordinate image over the entire circumference of the connected wheel image on a display means.
表示手段を備える請求項7記載の車両検査装置において、
前記連結した車輪画像の全周に亘る極座標画像の一部の台形領域を抽出し、車輪形状にて表示手段に表示することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 7, further comprising display means.
A vehicle inspection apparatus, wherein a part of a trapezoidal region of a polar coordinate image over the entire circumference of the connected wheel image is extracted and displayed on a display means in a wheel shape.
請求項7記載の車両検査装置において、
前記画像保存手段は、車輪ボルトの極座標画像上でのテンプレート画像を予め保持しており、
前記画像処理装置は、車軸位置を原点とする極座標変換を行った前記の極座標画像に対してテンプレートマッチングによりボルト位置を確定し、
ボルト位置の間隔から、複数の極座標画像を連結して車輪画像の全周に亘る極座標画像を得ることを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 7,
The image storage means holds in advance a template image on a polar coordinate image of a wheel bolt,
The image processing apparatus determines a bolt position by template matching for the polar coordinate image obtained by performing polar coordinate conversion with an axle position as an origin,
A vehicle inspection apparatus characterized in that a plurality of polar coordinate images are connected from a bolt position interval to obtain a polar coordinate image over the entire circumference of a wheel image.
請求項7に記載の車両検査装置において、
前記画像処理装置は、車輪の半径又は直径を求め、この値により前記画像取得装置の、2台以上のカメラの間に回転する回転角をもとめ、前記回転角度に基づいて、2以上の画像取得装置が生成した極座標変換画像を接合して車輪全周分の極座標変換画像を生成することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 7,
The image processing apparatus obtains a radius or a diameter of a wheel, obtains a rotation angle of the image acquisition apparatus that rotates between two or more cameras based on this value, and acquires two or more images based on the rotation angle. A vehicle inspection apparatus characterized in that polar coordinate conversion images generated by the apparatus are joined to generate a polar coordinate conversion image for the entire circumference of the wheel.
請求項7に記載の車両検査装置において、
前記画像処理装置は、車輪構造物の移動量をパタンマッチング処理で計測することにより、前記画像取得装置の、2台以上のカメラの間に回転する回転角をもとめ、前記回転角度に基づいて、2以上の画像取得装置が生成した極座標変換画像を接合して車輪全周分の極座標変換画像を生成することを特徴とする車両検査装置。
The vehicle inspection apparatus according to claim 7,
The image processing device obtains a rotation angle that rotates between two or more cameras of the image acquisition device by measuring a movement amount of a wheel structure by pattern matching processing, and based on the rotation angle, A vehicle inspection apparatus characterized in that polar coordinate conversion images generated by two or more image acquisition devices are joined to generate a polar coordinate conversion image for the entire circumference of a wheel.
請求項6に記載の画像検査装置において、
該車輪の半径の長さと、基準車輪の半径の長さとの差をもって、車輪の磨耗量と判定することを特徴とする車両検査装置。
The image inspection apparatus according to claim 6,
A vehicle inspection apparatus that determines the amount of wear of a wheel based on a difference between a radius of the wheel and a radius of a reference wheel.
JP2009201649A 2009-09-01 2009-09-01 Vehicle inspection device Active JP5303405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009201649A JP5303405B2 (en) 2009-09-01 2009-09-01 Vehicle inspection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009201649A JP5303405B2 (en) 2009-09-01 2009-09-01 Vehicle inspection device

Publications (2)

Publication Number Publication Date
JP2011053059A JP2011053059A (en) 2011-03-17
JP5303405B2 true JP5303405B2 (en) 2013-10-02

Family

ID=43942223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009201649A Active JP5303405B2 (en) 2009-09-01 2009-09-01 Vehicle inspection device

Country Status (1)

Country Link
JP (1) JP5303405B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106575473A (en) * 2014-08-22 2017-04-19 业纳遥控设备有限公司 Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic
US11073446B2 (en) 2016-04-07 2021-07-27 Mitsubishi Heavy Industries Engineering, Ltd. Wear inspection apparatus and wear inspection method

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101401566B1 (en) 2012-07-03 2014-05-29 (주)에이알텍 Apparatus for mornitoring wheel abrasion device using three dimension laser with axle counter
JP6159667B2 (en) * 2014-02-14 2017-07-05 公益財団法人鉄道総合技術研究所 Method and apparatus for measuring roundness of wheels for railway vehicles
JP2019078612A (en) * 2017-10-24 2019-05-23 コニカミノルタ株式会社 Tire deformation amount calculating device, overload detection system, and tire deformation amount calculation method
JP7030614B2 (en) * 2018-05-25 2022-03-07 株式会社ブリヂストン Tire condition management system and tire condition management program
JP6858742B2 (en) * 2018-12-17 2021-04-14 株式会社フジタ Displacement measuring device
JP7237671B2 (en) * 2019-03-15 2023-03-13 シャープ株式会社 Image processing device and image processing method
JP2021143892A (en) * 2020-03-11 2021-09-24 いすゞ自動車株式会社 Notification device, notification method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278116A (en) * 1995-04-07 1996-10-22 Central Japan Railway Co Inspection method for bolt looseness and inspection device therefor
JPH09101122A (en) * 1995-10-02 1997-04-15 East Japan Railway Co Wheel shape measuring device and its method
JP2005351730A (en) * 2004-06-10 2005-12-22 Horiba Ltd System for determining set state of car
JP2006290312A (en) * 2005-04-15 2006-10-26 Hitachi Industries Co Ltd Vehicular wheel inspection device
JP5274173B2 (en) * 2008-09-17 2013-08-28 株式会社日立製作所 Vehicle inspection device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106575473A (en) * 2014-08-22 2017-04-19 业纳遥控设备有限公司 Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic
US11073446B2 (en) 2016-04-07 2021-07-27 Mitsubishi Heavy Industries Engineering, Ltd. Wear inspection apparatus and wear inspection method

Also Published As

Publication number Publication date
JP2011053059A (en) 2011-03-17

Similar Documents

Publication Publication Date Title
JP5303405B2 (en) Vehicle inspection device
JP4232064B2 (en) Crack evaluation system using image processing
JP5051493B2 (en) 3D measurement marker and 3D measurement method using the same
US8428335B2 (en) Combining feature boundaries
Zong et al. An intelligent and automated 3D surface defect detection system for quantitative 3D estimation and feature classification of material surface defects
CN106657789A (en) Thread panoramic image synthesis method
CN102376089A (en) Target correction method and system
JP2009133085A (en) Crack checking device for tunnel lining
JP5274173B2 (en) Vehicle inspection device
TW201415010A (en) Inspection device, inspection method, and inspection program
CN114187363A (en) Method and device for obtaining radial distortion parameter value and mobile terminal
CN110809779B (en) Image synthesizing method, image synthesizing device and recording medium
JP2005140547A (en) 3-dimensional measuring method, 3-dimensional measuring device and computer program
CN114612412A (en) Processing method of three-dimensional point cloud data, application of processing method, electronic device and storage medium
JP2000321039A (en) Apparatus and method for inspecting coating fault
CN112053331B (en) Bridge crack detection method based on image superposition and crack information fusion
CN116205993A (en) Double-telecentric lens high-precision calibration method for 3D AOI
CN114549653A (en) Camera calibration method, system, computer equipment and storage medium
JP2005038035A (en) Image processor, image processing method and program
CN107292932B (en) Head-on video speed measurement method based on image expansion rate
KR20200126921A (en) A method for inspecting a skeleton wafer
CN116399874B (en) Method and program product for shear speckle interferometry to non-destructive detect defect size
JP4280572B2 (en) Automatic orientation method using special marks
CN113269207B (en) Image feature point extraction method for grid structure light vision measurement
JP2001258054A (en) Image quality inspection device and detector for center of gravity of luminance used therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130624

R150 Certificate of patent or registration of utility model

Ref document number: 5303405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250