JP6750967B2 - Vehicle type identification device and vehicle type identification method - Google Patents

Vehicle type identification device and vehicle type identification method Download PDF

Info

Publication number
JP6750967B2
JP6750967B2 JP2016115058A JP2016115058A JP6750967B2 JP 6750967 B2 JP6750967 B2 JP 6750967B2 JP 2016115058 A JP2016115058 A JP 2016115058A JP 2016115058 A JP2016115058 A JP 2016115058A JP 6750967 B2 JP6750967 B2 JP 6750967B2
Authority
JP
Japan
Prior art keywords
vehicle
axle
vehicle type
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016115058A
Other languages
Japanese (ja)
Other versions
JP2017220076A (en
Inventor
青木 泰浩
泰浩 青木
佐藤 俊雄
俊雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2016115058A priority Critical patent/JP6750967B2/en
Publication of JP2017220076A publication Critical patent/JP2017220076A/en
Application granted granted Critical
Publication of JP6750967B2 publication Critical patent/JP6750967B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施形態は、車種判別装置および車種判別方法に関する。 Embodiments of the present invention relate to a vehicle type identification device and a vehicle type identification method.

道路の通行料金の課金や、通行量の把握の目的で、走行する車種の判定が行われている。従来、道路を走行する車両の車種を判別する方法として、カメラまたはレーザスキャナによって車両を撮像または測定し、車両の車軸の数や車高、車幅を計測する技術、および計測した結果に基づいて車種を判別する技術が開示されている。 The type of vehicle to travel is determined for the purpose of charging road tolls and grasping the amount of traffic. Conventionally, as a method of determining the vehicle type of a vehicle traveling on a road, based on a technique of imaging or measuring the vehicle with a camera or a laser scanner, measuring the number of vehicle axles, vehicle height, and vehicle width, and the measurement result. A technique for discriminating a vehicle type is disclosed.

特開2014−215719号公報JP, 2014-215719, A 特開平9−89640号公報Japanese Unexamined Patent Publication No. 9-89640 特許第5478419号公報Japanese Patent No. 5478419 特開平11−232586号公報JP-A-11-232586

しかしながら、従来の車種判別技術において利用されている車高や車幅を含む車両形状は時間の経過によって変化が生じるため、より安定して車種判別を行う方法が求められている。 However, since the vehicle shape including the vehicle height and the vehicle width used in the conventional vehicle type identification technology changes with the passage of time, there is a demand for a more stable vehicle type identification method.

また、従来の車種判別技術においては、大型車と特大車とを判別する精度を向上させることが求められている。 Further, in the conventional vehicle type discrimination technology, it is required to improve the accuracy of discriminating between a large vehicle and an oversized vehicle.

実施形態の車種判別装置は、取得部と、画像生成部と、全景画像推定部と、補間部と、車軸検出部と、判別部とを備える。取得部は、スキャナ部で検出した、所定位置を通過する車両に対してレーザを照射して検出した検出点距離、および検出点で反射したレーザの反射強度を取得し、かつ撮像部から、所定位置を連続して撮像して得られた複数の静止画像を取得する。画像生成部は、検出点を含む所定位置の画像であって、検出点の濃度を、当該検出点において反射したレーザの反射強度に応じて異ならせた画像であるリフレクタンス画像を生成し、リフレクタンス画像に対して、リフレクタンス画像の縦横比を車両の実際の縦横比に合わせる正規化処理を施す。全景画像推定部は、撮像部によって連続して撮像された複数の静止画像に基づいて、車両全体の形状を示す画像である全景画像を推定する。補間部は、全景画像の特徴点と正規化処理が施されたリフレクタンス画像の検出点とを照合するマッチング処理を実行し、マッチング処理の結果および検出点距離に基づいて、全景画像の特徴点を補間する。車軸検出部は、特徴点を補間した全景画像から車軸を検出し、車軸の数と車軸間の距離を計測する。判別部は、車軸の数と車軸間の距離に基づいて、車両の車種を判別する。

The vehicle type identification device according to the embodiment includes an acquisition unit, an image generation unit, a panoramic image estimation unit, an interpolation unit, an axle detection unit, and a determination unit. The acquisition unit acquires a detection point distance detected by irradiating a vehicle passing a predetermined position with a laser, which is detected by the scanner unit, and a reflection intensity of the laser reflected at the detection point. A plurality of still images obtained by continuously capturing positions are acquired. The image generation unit generates a reflectance image which is an image at a predetermined position including the detection point, in which the density of the detection point is changed according to the reflection intensity of the laser reflected at the detection point, and the reflection image is generated . Normalization processing is performed on the chest image to match the aspect ratio of the reflectance image with the actual aspect ratio of the vehicle . The panoramic image estimation unit estimates a panoramic image, which is an image showing the shape of the entire vehicle, based on a plurality of still images continuously captured by the image capturing unit . The interpolator performs matching processing for matching the feature points of the panoramic image with the detection points of the normalized reflectance image, and based on the result of the matching processing and the detection point distance, the feature points of the panoramic image are compared. Is interpolated. The axle detection unit detects an axle from a panoramic image in which feature points are interpolated, and measures the number of axles and the distance between the axles. The determination unit determines the vehicle type of the vehicle based on the number of axles and the distance between the axles.

実施形態1の車種判別システムの構成の一例を示す図。1 is a diagram showing an example of a configuration of a vehicle type identification system according to a first embodiment. 実施形態1の車種判別装置の機能構成の一例を示すブロック図。3 is a block diagram showing an example of a functional configuration of the vehicle type identification device of the first embodiment. FIG. 実施形態1の車種判別装置における車両の3次元形状の推定方法の一例を説明するための図。FIG. 3 is a diagram for explaining an example of a method for estimating a three-dimensional shape of a vehicle in the vehicle type identification device according to the first embodiment. 実施形態1における車両の全景画像の一例を示す図。FIG. 3 is a diagram showing an example of a panoramic image of a vehicle in the first embodiment. 実施形態1における回転処理後の車両の全景画像の一例を示す図。FIG. 3 is a diagram showing an example of a panoramic image of a vehicle after rotation processing according to the first embodiment. 実施形態1における検出点距離から生成した点群データの一例を示す図。FIG. 5 is a diagram showing an example of point cloud data generated from detection point distances according to the first embodiment. 実施形態1におけるリフレクタンス画像の一例を示す図。FIG. 3 is a diagram showing an example of a reflectance image according to the first embodiment. 実施形態1の車種判別装置におけるリフレクタンス画像が含む車両の画像の正規化処理の一例を説明するための第1の図。FIG. 4 is a first diagram for explaining an example of a normalization process of a vehicle image included in a reflectance image in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置におけるリフレクタンス画像が含む車両の画像の正規化処理の一例を説明するための第2の図。FIG. 6 is a second diagram for explaining an example of a normalization process of a vehicle image included in a reflectance image in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置におけるリフレクタンス画像が含む車両の画像の正規化処理の一例を具体的に説明するための図。FIG. 6 is a diagram for specifically explaining an example of a normalization process of a vehicle image included in a reflectance image in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置における画像補間処理の手順の一例を説明するための図。FIG. 6 is a diagram for explaining an example of a procedure of image interpolation processing in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置におけるマッチング処理の一例を説明するための図。FIG. 3 is a diagram for explaining an example of matching processing in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置における画像補間処理の一例を説明するための図。FIG. 3 is a diagram for explaining an example of image interpolation processing in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置における車軸検出処理の一例を説明するための図。FIG. 3 is a diagram for explaining an example of axle detection processing in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置における車軸の大きさおよび車軸の中心位置の計測方法の一例を説明するための図。FIG. 3 is a diagram for explaining an example of a method of measuring the size of the axle and the center position of the axle in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置における1軸をリフトするリフトアクスル機能の一例を説明するための図。FIG. 3 is a view for explaining an example of a lift axle function for lifting one axis in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置における2軸をリフトするリフトアクスル機能の一例を説明するための図。FIG. 3 is a view for explaining an example of a lift axle function for lifting two axes in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置における車種判別情報の一例を示す図。FIG. 3 is a diagram showing an example of vehicle type identification information in the vehicle type identification device of the first embodiment. 実施形態1の車種判別装置における車種判別処理の手順の一例を示すフローチャート。6 is a flowchart showing an example of a procedure of vehicle type identification processing in the vehicle type identification device of the first embodiment. 実施形態2の車種判別システムの構成の一例を示す図。The figure which shows an example of a structure of the vehicle type discrimination system of Embodiment 2. 実施形態2の車種判別装置の機能構成の一例を示すブロック図。3 is a block diagram showing an example of a functional configuration of a vehicle type identification device according to a second embodiment. FIG. 実施形態2の車種判別装置における正規化処理の一例を説明するための図。FIG. 6 is a diagram for explaining an example of normalization processing in the vehicle type identification device according to the second embodiment. 実施形態3の車種判別装置の機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure of the vehicle type discrimination device of Embodiment 3. 実施形態3の車種判別装置における車種区分別のカウント処理の一例について説明するための図。FIG. 8 is a diagram for explaining an example of a counting process for each vehicle type classification in the vehicle type determination device of the third embodiment. 実施形態3の車種判別装置における車種区分別の時間当たりの通行車両数のカウント結果の一例を示すグラフ。7 is a graph showing an example of a counting result of the number of passing vehicles per hour by vehicle type classification in the vehicle type identification device of the third embodiment. 実施形態3の車種判別装置における車種判別処理の手順の一例を示すフローチャート。9 is a flowchart showing an example of a procedure of vehicle type identification processing in the vehicle type identification device of the third embodiment. 実施形態4の車種判別システムの構成の一例を示す図。The figure which shows an example of a structure of the vehicle type discrimination system of Embodiment 4. 実施形態4のカメラが連続して撮像した複数の静止画像の一例を示す図。FIG. 16 is a diagram showing an example of a plurality of still images captured by the camera of Embodiment 4 continuously. 実施形態4のレーザスキャナの検出結果の一例を示す図。FIG. 13 is a diagram showing an example of a detection result of the laser scanner of the fourth embodiment. 実施形態4の車種判別装置の機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure of the vehicle classification device of Embodiment 4. 実施形態4の車種判別装置における車軸ごとの重量分析の一例を示す図。The figure which shows an example of the weight analysis for every axle in the vehicle type identification device of Embodiment 4. 実施形態4の車種判別装置における車種判別処理の手順の一例を示すフローチャート。The flowchart which shows an example of the procedure of the vehicle type discrimination process in the vehicle type discrimination apparatus of Embodiment 4.

(実施形態1)
本実施形態の車種判別システムは、カメラで撮像した車両の画像と、レーザスキャナで車両を走査して得た検出点距離および反射強度とを用いて、車両の高解像度の全景画像を生成し、この全景画像から車軸の数および車軸間の距離を計測して、この車軸の数および車軸間の距離に基づいて車両の車種区分および車種を判別することで、より安定した車種判別を実現するものである。以下、本実施形態の詳細について説明する。
(Embodiment 1)
The vehicle type determination system of the present embodiment uses the image of the vehicle captured by the camera and the detection point distance and the reflection intensity obtained by scanning the vehicle with the laser scanner to generate a high-resolution panoramic image of the vehicle, A more stable vehicle type determination is realized by measuring the number of axles and the distance between the axles from this panoramic image and determining the vehicle type classification and vehicle type of the vehicle based on the number of axles and the distance between the axles. Is. The details of this embodiment will be described below.

図1は、本実施形態の車種判別システム1aの構成の一例を示す図である。図1に示すように、本実施形態の車種判別システム1aは、カメラ101と、レーザスキャナ102と、車種判別装置103とを備えている。車種判別システム1aは、大型の車両が通行する道路、駐車場の出入口、高速道路の料金所等に設けられている。 FIG. 1 is a diagram showing an example of the configuration of a vehicle type identification system 1a of this embodiment. As shown in FIG. 1, the vehicle type identification system 1a of the present embodiment includes a camera 101, a laser scanner 102, and a vehicle type identification device 103. The vehicle type identification system 1a is provided on a road through which large vehicles pass, an entrance/exit of a parking lot, a tollgate of an expressway, and the like.

本実施形態のカメラ101は、単眼カメラ等であり、車両10が通過する所定位置Tを撮像する。カメラ101は本実施形態における撮像部の一例である。 The camera 101 of this embodiment is a monocular camera or the like, and captures an image of a predetermined position T through which the vehicle 10 passes. The camera 101 is an example of the image capturing unit in this embodiment.

本実施形態のカメラ101は、所定位置Tに進入した車両10の斜め上方の位置に設けられる。車両10の法定車高は3.8mであるため、具体的には、カメラ101は、所定位置Tの道路の路面から5〜7m上方に設けられる。 The camera 101 of this embodiment is provided at a position diagonally above the vehicle 10 that has entered the predetermined position T. Since the legal vehicle height of the vehicle 10 is 3.8 m, specifically, the camera 101 is provided 5 to 7 m above the road surface of the road at the predetermined position T.

また、本実施形態のカメラ101は、所定位置Tの道路の路面を基準として、俯角25〜45度で設けられている。また、本実施形態のカメラ101は、所定位置Tを通過する車両10の全景を撮像可能に設けられている。ここで、車両10の全景とは、車両10の全体の形状のことをいう。 Further, the camera 101 of the present embodiment is provided at a depression angle of 25 to 45 degrees with reference to the road surface of the road at the predetermined position T. Further, the camera 101 of the present embodiment is provided so as to be able to capture the entire view of the vehicle 10 passing through the predetermined position T. Here, the panoramic view of the vehicle 10 refers to the overall shape of the vehicle 10.

具体的には、カメラ101は、車両10の前方領域(例えば、大型車のトラクタ部の前端)と車両10の後方領域(例えば、大型車のトレーラ部の後端)とが、当該カメラ101の画角に収まるように設けられている。さらに、カメラ101は、撮像対象の車両10の車長が長い場合、当該カメラ101の画角を広げるために、当該カメラ101を動的に傾けて撮像可能な構成を採用しても良い。 Specifically, the camera 101 has a front region of the vehicle 10 (for example, a front end of a tractor portion of a large vehicle) and a rear region of the vehicle 10 (for example, a rear end of a trailer portion of a large vehicle) of the camera 101. It is provided to fit within the angle of view. Further, when the length of the vehicle 10 to be imaged is long, the camera 101 may adopt a configuration in which the camera 101 can be dynamically tilted and imaged in order to widen the angle of view of the camera 101.

本実施形態の車種判別システム1aは少なくとも1台のカメラ101を備えるが、車両10の前後あるいは側面を撮像する複数のカメラ101を備える構成を採用しても良い。また、カメラ101の設置位置は、カメラ101が車両10を撮像できるのであれば良く、前述した設置位置に限らない。カメラ101の設置角度も、前述の角度に限らない。 Although the vehicle type identification system 1a of the present embodiment includes at least one camera 101, a configuration including a plurality of cameras 101 that image the front and rear or side surfaces of the vehicle 10 may be adopted. The installation position of the camera 101 is not limited to the above-described installation position as long as the camera 101 can image the vehicle 10. The installation angle of the camera 101 is not limited to the angle described above.

本実施形態では、カメラ101は、レーザスキャナ102から撮像トリガ信号が入力された場合に、所定位置Tを通過する車両10の撮像を行う。あるいは、カメラ101は、一定時間ごとに撮像を行い続ける構成を採用しても良いし、車種判別システム1aが不図示の車両検知装置を別途備え、車両検知装置がカメラ101に対して撮像トリガ信号を送出する構成を採用しても良い。 In this embodiment, the camera 101 captures an image of the vehicle 10 passing through the predetermined position T when an image capture trigger signal is input from the laser scanner 102. Alternatively, the camera 101 may be configured to continue capturing images at regular intervals, or the vehicle type identification system 1a may include a vehicle detection device (not shown) separately, and the vehicle detection device may transmit an image capture trigger signal to the camera 101. It is also possible to adopt a configuration for sending the.

カメラ101は、所定位置Tを通過する車両10を連続的に複数回撮像する。カメラ101は、車両10の撮像により得られた撮像画像を、車種判別装置103に送信する。 The camera 101 continuously captures the vehicle 10 passing through the predetermined position T a plurality of times. The camera 101 transmits a captured image obtained by capturing the image of the vehicle 10 to the vehicle type identification device 103.

レーザスキャナ102は、赤外線等のレーザを対象物に照射し、対象物を走査(スキャン)する。レーザスキャナ102は、車両10が通過する所定位置Tにおいてレーザを照射して検出点距離および当該検出点で反射したレーザの反射強度(リフレクタンス)を検出する。ここで、検出点距離とは、レーザの照射位置から検出点までの距離を示す。レーザスキャナ102は、スキャナ部の一例である。 The laser scanner 102 irradiates an object with a laser such as infrared rays to scan the object. The laser scanner 102 irradiates a laser at a predetermined position T through which the vehicle 10 passes, and detects the detection point distance and the reflection intensity (reflectance) of the laser reflected at the detection point. Here, the detection point distance refers to the distance from the laser irradiation position to the detection point. The laser scanner 102 is an example of a scanner unit.

本実施形態では、レーザスキャナ102は、所定位置Tに車両10が進入した際に側面から車両10を走査可能な位置に設置される。本実施形態の車種判別システム1aは少なくとも1台のレーザスキャナ102を備えるが、複数のレーザスキャナ102を備える構成を採用しても良い。 In the present embodiment, the laser scanner 102 is installed at a position where the vehicle 10 can be scanned from the side surface when the vehicle 10 enters the predetermined position T. Although the vehicle type identification system 1a of this embodiment includes at least one laser scanner 102, a configuration including a plurality of laser scanners 102 may be adopted.

レーザスキャナ102は、車両10が所定位置Tに進入したことを検知した場合に、車両10の撮像を指示する撮像トリガ信号をカメラ101に送信する。また、レーザスキャナ102は、車両10を検知してから車両10を検知しなくなるまで、すなわち、車両10が所定位置Tに進入してから退出するまで、車両10に対してレーザを照射する。具体的には、レーザスキャナ102は、車両10の進行方向と交わる方向(以下、走査方向という)にレーザを走査しながら、複数の検出点における検出点距離および反射強度を検出する。レーザスキャナ102は、各検出点について検出した検出点距離および反射強度を車種判別装置103に送信する。 When the laser scanner 102 detects that the vehicle 10 has entered the predetermined position T, the laser scanner 102 transmits to the camera 101 an imaging trigger signal instructing imaging of the vehicle 10. Further, the laser scanner 102 irradiates the vehicle 10 with laser until the vehicle 10 is no longer detected after the vehicle 10 is detected, that is, until the vehicle 10 enters the predetermined position T and then exits. Specifically, the laser scanner 102 detects the detection point distances and reflection intensities at a plurality of detection points while scanning the laser in a direction intersecting with the traveling direction of the vehicle 10 (hereinafter referred to as a scanning direction). The laser scanner 102 transmits the detection point distance and the reflection intensity detected for each detection point to the vehicle type identification device 103.

車種判別装置103は、車種判別処理を実行する電子計算機の一例である。車種判別装置103は、カメラ101およびレーザスキャナ102と、電気的に接続されている。 The vehicle type identification device 103 is an example of an electronic computer that executes vehicle type identification processing. The vehicle type identification device 103 is electrically connected to the camera 101 and the laser scanner 102.

本実施形態の車種判別装置103は、図1に示すように所定位置Tに隣接した道路脇に設置されているが、これに限定されず、管理センター等に設置されても良い。 The vehicle type identification device 103 of the present embodiment is installed on the side of the road adjacent to the predetermined position T as shown in FIG. 1, but the invention is not limited to this and may be installed in a management center or the like.

車種判別装置103は、カメラ101から、撮像画像を取得する。また、車種判別装置103は、レーザスキャナ102から、各検出点の検出点距離および反射強度を取得する。そして、車種判別装置103は、撮像画像、検出点距離および反射強度を用いて、所定位置Tを通過する車両10の車種を判別する。 The vehicle type identification device 103 acquires a captured image from the camera 101. Further, the vehicle type identification device 103 acquires the detection point distance and the reflection intensity of each detection point from the laser scanner 102. Then, the vehicle type identification device 103 identifies the vehicle type of the vehicle 10 passing through the predetermined position T using the captured image, the detection point distance, and the reflection intensity.

図2は、本実施形態の車種判別装置103の機能的構成の一例を示すブロック図である。図2に示すように、本実施形態の車種判別装置103は、記憶部90と、取得部91と、画像生成部92と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96と、を備える。 FIG. 2 is a block diagram showing an example of the functional configuration of the vehicle type identification device 103 of this embodiment. As shown in FIG. 2, the vehicle type identification device 103 of this embodiment includes a storage unit 90, an acquisition unit 91, an image generation unit 92, a panoramic image estimation unit 93, an interpolation unit 94, and an axle detection unit 95. , And a determination unit 96.

記憶部90は、車両10の車種を判別するための基準である車種判別情報20を記憶する。車種判別情報20の内容については、後述する。また、記憶部90は、本実施形態における車種判別装置103の各機能部の処理に使用する情報を記憶することができる。記憶部90は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、メモリなどの記憶媒体である。 The storage unit 90 stores the vehicle type identification information 20 which is a reference for identifying the vehicle type of the vehicle 10. The content of the vehicle type identification information 20 will be described later. In addition, the storage unit 90 can store information used for processing of each functional unit of the vehicle type identification device 103 according to the present embodiment. The storage unit 90 is a storage medium such as a hard disk drive (HDD), a solid state drive (SSD), or a memory.

取得部91は、レーザスキャナ102で検出した、所定位置Tを通過する車両10に対してレーザを照射して検出した検出点距離、および前記検出点で反射したレーザの反射強度を取得する。具体的には、取得部91は、レーザスキャナ102により所定位置Tへの車両10の進入が検知された場合、レーザスキャナ102から、複数の検出点それぞれの検出点距離および反射強度を取得する。また、取得部91はカメラ101から、所定位置Tを撮像して得られた撮像画像を取得する。 The acquisition unit 91 acquires the detection point distance detected by the laser scanner 102 by irradiating the vehicle 10 passing through the predetermined position T with the laser, and the reflection intensity of the laser reflected at the detection point. Specifically, when the laser scanner 102 detects that the vehicle 10 has entered the predetermined position T, the acquisition unit 91 acquires the detection point distances and the reflection intensities of the plurality of detection points from the laser scanner 102. Further, the acquisition unit 91 acquires, from the camera 101, a captured image obtained by capturing an image of the predetermined position T.

取得部91は、取得した検出点距離および反射強度を画像生成部92に送出する。また、取得部91は、取得した撮像画像を全景画像推定部93に送出する。 The acquisition unit 91 sends the acquired detection point distance and reflection intensity to the image generation unit 92. The acquisition unit 91 also sends the acquired captured image to the panoramic image estimation unit 93.

全景画像推定部93は、カメラ101の撮像により得られた撮像画像に基づいて、車両10の全体の形状を示す三次元形状の画像(以下、全景画像D1という)を推定(生成)する。 The panoramic image estimation unit 93 estimates (generates) a three-dimensional image (hereinafter referred to as panoramic image D1) that shows the overall shape of the vehicle 10, based on the captured image obtained by the camera 101.

図3は、本実施形態の車種判別装置103における車両の3次元形状の推定方法の一例を説明するための図である。本実施形態では、全景画像推定部93は、カメラ101によって所定位置Tを複数回撮像して得られた複数の撮像画像を、取得部91から取得する。そして、全景画像推定部93は、SfM(Structured from Motion)等の技術を用いて、複数の撮像画像に従って、車両10の全景画像D1を推定する。 FIG. 3 is a diagram for explaining an example of a method of estimating the three-dimensional shape of the vehicle in the vehicle type identification device 103 of this embodiment. In the present embodiment, the panoramic image estimation unit 93 acquires from the acquisition unit 91 a plurality of captured images obtained by capturing a predetermined position T with the camera 101 multiple times. Then, the panoramic image estimation unit 93 estimates the panoramic image D1 of the vehicle 10 according to the plurality of captured images using a technique such as SfM (Structured from Motion).

図3に示す複数の画像200〜203は、カメラ101が所定位置Tを通過する車両10を連続的に撮像した画像の例である。例えば、左端の画像200は、車両10が所定位置Tへ進入した時刻t0において、カメラ101が所定位置Tを撮像した画像である。また、右端の画像203は、車両10が所定位置Tから退出した時刻t3において、カメラ101が所定位置Tを撮像した画像である。中央の2つの画像201〜202はそれぞれ、車両10が所定位置Tに進入した後、退出するまでの所定の時刻t1およびt2において、カメラ101が所定位置Tを撮像した画像である。 The plurality of images 200 to 203 shown in FIG. 3 are examples of images in which the camera 101 continuously captures the vehicle 10 passing through the predetermined position T. For example, the leftmost image 200 is an image obtained by the camera 101 capturing the predetermined position T at time t0 when the vehicle 10 enters the predetermined position T. The image 203 at the right end is an image obtained by the camera 101 capturing the predetermined position T at time t3 when the vehicle 10 exits from the predetermined position T. The two central images 201 to 202 are images in which the camera 101 images the predetermined position T at predetermined times t1 and t2 after the vehicle 10 enters the predetermined position T and exits.

図3の下部では、時刻t0〜t1間の車両10の特徴点Pの移動量を、画像200〜201から推定する方法を示す。特徴点PaおよびPbは、画像200〜201に含まれる車両10の特徴点Pの例示である。特徴点PaおよびPbとして用いられる箇所としては、画像200〜201が含む車両10のエッジ(角部)等がある。 The lower part of FIG. 3 shows a method of estimating the amount of movement of the feature point P of the vehicle 10 between times t0 and t1 from the images 200 to 201. The characteristic points Pa and Pb are examples of the characteristic points P of the vehicle 10 included in the images 200 to 201. The locations used as the characteristic points Pa and Pb include the edges (corners) of the vehicle 10 included in the images 200 to 201.

点aは、画像200に含まれる特徴点Paを、カメラ101の位置204を基準として投影平面205の上に投影した位置を示す。また、点bは、画像200に含まれる特徴点Pbを、カメラ101の位置204を基準として投影平面205の上に投影した位置を示す。点a”および点b”は、画像201に含まれる特徴点PaおよびPbを、カメラ101の位置204を基準として投影平面205の上に投影した位置をそれぞれ示す。投影平面205とは、カメラ101の位置を基準(原点)として、特徴点PaおよびPbの位置を推定するために定義される、仮想的な平面のことをいう。 A point a indicates a position where the characteristic point Pa included in the image 200 is projected on the projection plane 205 with the position 204 of the camera 101 as a reference. The point b indicates the position where the characteristic point Pb included in the image 200 is projected on the projection plane 205 with the position 204 of the camera 101 as a reference. Point a″ and point b″ indicate the positions where the characteristic points Pa and Pb included in the image 201 are projected on the projection plane 205 with the position 204 of the camera 101 as a reference. The projection plane 205 is a virtual plane defined for estimating the positions of the characteristic points Pa and Pb with the position of the camera 101 as a reference (origin).

投影平面205の位置は固定されており、画像200から画像201の間で特徴点PaおよびPbが移動するに伴って、点aは点a”の位置へ、点bは点b”の位置へ、投影平面205上を移動する。全景画像推定部93は、このように特徴点PaおよびPbの移動を検出して対応付けることによって、連続して撮像された画像200と画像201の間の特徴点Paおよび特徴点Pbの移動量を推定することができる。 The position of the projection plane 205 is fixed, and as the feature points Pa and Pb move between the image 200 and the image 201, the point a becomes the position of the point a″ and the point b becomes the position of the point b″. , On the projection plane 205. The panoramic image estimation unit 93 detects the movements of the characteristic points Pa and Pb in this manner and associates them with each other, thereby determining the movement amounts of the characteristic points Pa and the characteristic points Pb between the images 200 and 201 that are continuously captured. Can be estimated.

全景画像推定部93は、投影平面205上に投影された点aおよびbの移動量から、被写体となった車両10とカメラ101の位置204との位置関係に基づいて、特徴点PaおよびPbの3次元位置を推定する。 The panoramic image estimation unit 93 determines the feature points Pa and Pb from the movement amounts of the points a and b projected on the projection plane 205 based on the positional relationship between the vehicle 10 that is the subject and the position 204 of the camera 101. Estimate the 3D position.

全景画像推定部93は、画像201と画像202の間、および画像202と画像203の間においても、特徴点PaおよびPbの位置の対応付けを行い、特徴点PaおよびPbの3次元位置を推定する。全景画像推定部93は、このように連続する画像間で逐次的に特徴点の移動量の推定を行うことにより、車両10の全景の3次元形状を推定する。 The panoramic image estimation unit 93 associates the positions of the characteristic points Pa and Pb between the image 201 and the image 202 and between the image 202 and the image 203, and estimates the three-dimensional positions of the characteristic points Pa and Pb. To do. The panoramic image estimation unit 93 estimates the three-dimensional shape of the panoramic view of the vehicle 10 by sequentially estimating the amount of movement of the feature points between consecutive images in this manner.

また、カメラ101が固定されず、移動しながら車両10を撮像する場合は、全景画像推定部93は、カメラ101の移動量に基づいて、特徴点PaおよびPbの3次元位置を推定する構成を採用しても良い。 When the camera 101 is not fixed and the vehicle 10 is imaged while moving, the panoramic image estimation unit 93 estimates the three-dimensional positions of the feature points Pa and Pb based on the moving amount of the camera 101. You may adopt it.

このようにして、全景画像推定部93は、カメラ101によって連続して撮像された複数の静止画像から全景画像D1を推定する。全景画像推定部93は、車両10の全景の3次元形状を示す画像である全景画像D1を推定する。また、全景画像推定部93は、各特徴点の近傍の撮像画像を張り合わせることで、全景画像D1の画像を重畳し、全景画像D1の解像度をさらに向上させる構成を採用しても良い。 In this way, the panoramic image estimation unit 93 estimates the panoramic image D1 from a plurality of still images continuously captured by the camera 101. The panoramic image estimation unit 93 estimates a panoramic image D1 which is an image showing a three-dimensional shape of the panoramic view of the vehicle 10. In addition, the panoramic image estimation unit 93 may adopt a configuration in which the images of the panoramic image D1 are overlapped by pasting the captured images in the vicinity of the respective feature points to further improve the resolution of the panoramic image D1.

図3では4枚の画像200〜203を例としたが、カメラ101は、車両10が所定位置Tを通過するまでの間により多くの画像を撮像することができる構成を採用しても良い。撮像した画像数が多い方が、全景画像推定部93はより精度の高い全景画像D1を推定することができる。また、特徴点PaおよびPbは画像200〜203における特徴点Pの例であり、位置合わせに用いる特徴点の数を限定するものではない。 Although the four images 200 to 203 are illustrated in FIG. 3 as an example, the camera 101 may employ a configuration capable of capturing more images until the vehicle 10 passes the predetermined position T. The larger the number of captured images, the more the panoramic image estimation unit 93 can estimate the panoramic image D1 with higher accuracy. The feature points Pa and Pb are examples of the feature points P in the images 200 to 203, and the number of feature points used for alignment is not limited.

図4は、本実施形態における車両の全景画像D1の一例を示す図である。点Pは、全景画像D1を構成する特徴点を示している。ここで、図1で説明したように、カメラ101は車両10を斜め上方の位置から撮像しているため、推定された全景画像D1は、図4に示すように車両10を斜めから見た形状を表す。 FIG. 4 is a diagram showing an example of the panoramic image D1 of the vehicle in the present embodiment. Point P indicates a feature point forming the panoramic image D1. Here, as described in FIG. 1, since the camera 101 images the vehicle 10 from an obliquely upper position, the estimated panoramic image D1 has a shape in which the vehicle 10 is viewed obliquely as shown in FIG. Represents.

ここで、全景画像推定部93は、全景画像D1を回転させ、車両10の側面から見た画像を推定する。
図5は、本実施形態における回転処理後の車両の全景画像D2の一例を示す図である。全景画像D1を回転させる処理を行うことによって、全景画像推定部93は、レーザスキャナ102の放射位置と同様の方向から見た車両10の全景画像D2を推定する。
Here, the panoramic image estimation unit 93 rotates the panoramic image D1 and estimates an image viewed from the side surface of the vehicle 10.
FIG. 5 is a diagram showing an example of the panoramic image D2 of the vehicle after the rotation processing in the present embodiment. By performing the process of rotating the panoramic image D1, the panoramic image estimating unit 93 estimates the panoramic image D2 of the vehicle 10 viewed from the same direction as the radiation position of the laser scanner 102.

全景画像推定部93は、全景画像D2から車両10の車長を測定し、画像生成部92に送出する。また、全景画像推定部93は、推定した全景画像D2を補間部94へ送出する。全景画像推定部93は、全景画像D1および全景画像D2から車両10の車幅および車高をさらに計測する構成を採用しても良い。 The panoramic image estimation unit 93 measures the vehicle length of the vehicle 10 from the panoramic image D2 and sends it to the image generation unit 92. Further, the panoramic image estimation unit 93 sends the estimated panoramic image D2 to the interpolation unit 94. The panoramic image estimation unit 93 may employ a configuration that further measures the vehicle width and vehicle height of the vehicle 10 from the panoramic image D1 and the panoramic image D2.

図2に戻り、画像生成部92は、取得部91から取得した検出点距離から点群データgを生成する。点群データgとは、所定位置Tの画像であって、検出点の濃度を、当該検出点の検出点距離に応じて異ならせた画像である。
図6は、検出点距離から生成した点群データgの一例を示す図である。図6において、縦軸は、車両10の各検出点pにレーザを走査した際の走査角度であり、横軸は、車両10の各検出点pにレーザを走査した時刻である。図6に示すように、点群データgでは、検出点距離が近い検出点pほど薄い色で、検出点距離が遠い検出点pほど濃い色で表示される。
Returning to FIG. 2, the image generation unit 92 generates the point cloud data g from the detection point distance acquired from the acquisition unit 91. The point cloud data g is an image at a predetermined position T, in which the densities of the detection points are changed according to the detection point distance of the detection points.
FIG. 6 is a diagram showing an example of the point cloud data g generated from the detection point distance. In FIG. 6, the vertical axis represents the scanning angle when the laser scans each detection point p of the vehicle 10, and the horizontal axis represents the time when the laser scans each detection point p of the vehicle 10. As shown in FIG. 6, in the point cloud data g, a detection point p having a shorter detection point distance is displayed in a lighter color, and a detection point p having a longer detection point distance is displayed in a darker color.

また、画像生成部92は、取得部91から取得した反射強度からリフレクタンス画像Gを生成する。リフレクタンス画像Gとは、所定位置Tの画像であって、検出点pの濃度を、当該検出点pにおいて反射したレーザの反射強度に応じて異ならせた画像である。
図7は、本実施形態におけるリフレクタンス画像Gの一例を示す図である。図7において、縦軸は、車両10の各検出点pにレーザを走査した際の走査角度であり、横軸は、車両10の各検出点pにレーザを走査した時刻である。図7に示すように、リフレクタンス画像Gでは、レーザの反射強度が強い検出点pほど薄い色で、反射強度が弱い検出点pほど濃い色で表示される。
The image generation unit 92 also generates a reflectance image G from the reflection intensity acquired from the acquisition unit 91. The reflectance image G is an image at a predetermined position T, and is an image in which the density of the detection point p is changed according to the reflection intensity of the laser reflected at the detection point p.
FIG. 7 is a diagram showing an example of the reflectance image G in this embodiment. In FIG. 7, the vertical axis represents the scanning angle when the laser scans each detection point p of the vehicle 10, and the horizontal axis represents the time when the laser scans each detection point p of the vehicle 10. As shown in FIG. 7, in the reflectance image G, the detection point p having a higher laser reflection intensity is displayed in a lighter color, and the detection point p having a lower reflection intensity is displayed in a darker color.

各検出点pに対して、距離と反射強度は1対1に対応して取得されるため、点群データgとリフレクタンス画像Gに表示される各検出点pは、それぞれ1対1の対応関係となる。すなわち、点群データgとリフレクタンス画像Gは同一の車両10を含む画像である。 Since the distance and the reflection intensity are obtained in a one-to-one correspondence with each detection point p, the point cloud data g and each detection point p displayed in the reflectance image G have a one-to-one correspondence. Become involved. That is, the point cloud data g and the reflectance image G are images including the same vehicle 10.

レーザスキャナ102によって得られた画像の特徴として、レーザスキャナ102の走査方向には密に検出点pを検出しているが、時間軸方向には検出点pの検出が疎になるという性質がある。すなわち、点群データgとリフレクタンス画像Gでは、車両10の車高方向には密に検出点pが表示されているが、車両10の車長方向には検出点pが周期的に欠落している。 A characteristic of the image obtained by the laser scanner 102 is that the detection points p are densely detected in the scanning direction of the laser scanner 102, but the detection points p are sparsely detected in the time axis direction. .. That is, in the point cloud data g and the reflectance image G, the detection points p are densely displayed in the vehicle height direction of the vehicle 10, but the detection points p are periodically missing in the vehicle length direction of the vehicle 10. ing.

ここで、本実施形態の車種判別装置103における車種判別処理では、画像から計測した車両10の車軸の数および車軸間の距離を用いて車種を判別する。このため、本実施形態の車種判別装置103では、点群データgおよびリフレクタンス画像Gを用いて、カメラ101が撮像した画像の画像補間処理を行い、解像度の高い画像を生成することで、車軸の数および車軸間の距離の計測の精度を高める。 Here, in the vehicle type determination process in the vehicle type determination device 103 of the present embodiment, the vehicle type is determined using the number of axles of the vehicle 10 measured from the image and the distance between the axles. Therefore, in the vehicle type identification device 103 of the present embodiment, the point group data g and the reflectance image G are used to perform image interpolation processing of the image captured by the camera 101 to generate a high-resolution image. Improve the accuracy of measuring the number of cars and the distance between axles.

画像補間処理を行うためには、カメラ101が撮像した画像とレーザスキャナ102によって得られた画像とを照合し、対応点を検出して位置合わせをするマッチング処理をする必要がある。ここで、カメラ101が撮像した画像は、点群データgよりもリフレクタンス画像Gとの親和性が高い。したがって、リフレクタンス画像Gを、カメラ101が撮像した画像とのマッチング処理に用いる方が、点群データgを用いるよりも対応点の検出が容易である。以上の理由により、本実施形態においてはリフレクタンス画像Gをカメラ101が撮像した画像とのマッチング処理に用いる。 In order to perform the image interpolation process, it is necessary to perform a matching process in which an image captured by the camera 101 is collated with an image obtained by the laser scanner 102, corresponding points are detected, and alignment is performed. Here, the image captured by the camera 101 has a higher affinity for the reflectance image G than for the point cloud data g. Therefore, using the reflectance image G for matching processing with the image captured by the camera 101 makes it easier to detect corresponding points than using the point cloud data g. For the above reason, in the present embodiment, the reflectance image G is used for the matching process with the image captured by the camera 101.

ここで、レーザスキャナ102によって得られた画像は、対象物の速度によって時間軸方向に伸縮する性質をもつ。すなわち、レーザスキャナ102の前を走行する車両10の通過速度が速くなるにしたがって、レーザスキャナ102が検出できる時間軸方向の検出点pが少なくなり、生成されるリフレクタンス画像Gの横方向の長さが短くなる。 Here, the image obtained by the laser scanner 102 has the property of expanding and contracting in the time axis direction depending on the speed of the object. That is, as the passing speed of the vehicle 10 traveling in front of the laser scanner 102 increases, the number of detection points p in the time axis direction that can be detected by the laser scanner 102 decreases, and the horizontal length of the generated reflectance image G is increased. Becomes shorter.

車両10の速度によってリフレクタンス画像Gの縦横比が変化したままでは、カメラ101が撮像した画像とのマッチング処理を行うのは困難である。そこで、画像生成部92は、リフレクタンス画像Gに対して、リフレクタンス画像Gの縦横比を車両10の実際の縦横比に合わせる正規化処理を施す。 If the aspect ratio of the reflectance image G remains changed depending on the speed of the vehicle 10, it is difficult to perform matching processing with the image captured by the camera 101. Therefore, the image generation unit 92 performs a normalization process on the reflectance image G so that the aspect ratio of the reflectance image G matches the actual aspect ratio of the vehicle 10.

図8および図9は、本実施形態の車種判別装置103におけるリフレクタンス画像Gが含む車両画像の正規化処理の一例を説明するための図である。車長lは正規化処理前のリフレクタンス画像Gにおける車両10の車長であり、車長Lは正規化処理後のリフレクタンス画像Gにおける車両10の車長である。図8における車両10は速度V1で所定位置Tを通過し、図9における車両10は速度V1よりも速い速度V2で所定位置Tを通過した例を示している。 8 and 9 are diagrams for explaining an example of the normalization process of the vehicle image included in the reflectance image G in the vehicle type identification device 103 of the present embodiment. The vehicle length 1 is the vehicle length of the vehicle 10 in the reflectance image G before the normalization processing, and the vehicle length L is the vehicle length of the vehicle 10 in the reflectance image G after the normalization processing. The vehicle 10 in FIG. 8 has passed the predetermined position T at a speed V1, and the vehicle 10 in FIG. 9 has passed the predetermined position T at a speed V2 faster than the speed V1.

図8および図9は同一の車長の車両10の画像を含むリフレクタンス画像Gである。しかしながら、車両10が速度V2で通過した場合のリフレクタンス画像G(図6参照)が含む車両10の画像の車長lは、車両10が速度V1で通過した場合のリフレクタンス画像G(図5参照)が含む車両10の画像の車長lよりも短くなる。すなわち、リフレクタンス画像Gが含む車両10の画像の車長lは、所定位置Tを通過する車両10の速度が速くなるに従って、短くなる。そこで、図8および図9に示すように、画像生成部92は、リフレクタンス画像Gが含む車両画像の車長lを車長Lに正規化する処理を行う。 8 and 9 are reflectance images G including images of the vehicle 10 having the same vehicle length. However, the vehicle length l of the image of the vehicle 10 included in the reflectance image G when the vehicle 10 passes at the speed V2 (see FIG. 6) is the reflectance image G when the vehicle 10 passes at the speed V1 (see FIG. 5). The vehicle length is shorter than the vehicle length 1 of the image of the vehicle 10 included in (see). That is, the vehicle length 1 of the image of the vehicle 10 included in the reflectance image G becomes shorter as the speed of the vehicle 10 passing through the predetermined position T becomes faster. Therefore, as shown in FIGS. 8 and 9, the image generation unit 92 performs a process of normalizing the vehicle length l of the vehicle image included in the reflectance image G to the vehicle length L.

次に、図10を用いて、リフレクタンス画像Gを正規化する処理の具体例について説明する。図10は、本実施形態の車種判別装置103におけるリフレクタンス画像Gが含む車両10の画像の正規化処理の一例を具体的に説明するための図である。 Next, a specific example of the process of normalizing the reflectance image G will be described with reference to FIG. FIG. 10 is a diagram for specifically explaining an example of the normalization process of the image of the vehicle 10 included in the reflectance image G in the vehicle type identification device 103 of the present embodiment.

図10(a)〜(b)に示すように、まず、画像生成部92は、リフレクタンス画像Gが含む車両画像の車長lを特定する。さらに、図10(c)に示すように、画像生成部92は、リフレクタンス画像Gが含む前車軸FSおよび後車軸BSを検出する。次いで、画像生成部92は、前車軸FSの幅および後車軸BSの幅を計測する。前車軸FSの幅は、検出した前車軸FSの左端から右端までの距離を計測することで取得できる。後車軸BSの幅の計測方法も同様である。画像生成部92は、前車軸FSおよび後車軸BSを、車軸検出部95における車軸検出と同様の方法で検出することができる。車軸検出部95における車軸検出の方法については後述する。 As shown in FIGS. 10A and 10B, the image generation unit 92 first identifies the vehicle length 1 of the vehicle image included in the reflectance image G. Further, as shown in FIG. 10C, the image generation unit 92 detects the front axle FS and the rear axle BS included in the reflectance image G. Next, the image generator 92 measures the width of the front axle FS and the width of the rear axle BS. The width of the front axle FS can be acquired by measuring the distance from the left end to the right end of the detected front axle FS. The same applies to the method of measuring the width of the rear axle BS. The image generation unit 92 can detect the front axle FS and the rear axle BS by the same method as the axle detection by the axle detection unit 95. A method of axle detection by the axle detector 95 will be described later.

さらに、図10(d)に示すように、画像生成部92は、前車軸FSの幅と後車軸BSの幅の比率を、車両10が所定位置Tを通過する際の速度変化率として算出する。そして、画像生成部92は、速度変化率が「1」であり、車両10が所定位置Tを通過する際に等速で通過した可能性が高い場合、図10(e)に示すように、車両画像の車長方向に向かってリフレクタンス画像Gを均一に伸縮させて、リフレクタンス画像Gが含む車両画像の車長を所定の長さLに正規化する。 Further, as shown in FIG. 10D, the image generation unit 92 calculates the ratio of the width of the front axle FS and the width of the rear axle BS as the speed change rate when the vehicle 10 passes the predetermined position T. .. Then, when the rate of change in speed is “1” and there is a high possibility that the vehicle 10 passes through the predetermined position T at a constant speed, as shown in FIG. The reflectance image G is uniformly expanded and contracted in the vehicle length direction of the vehicle image, and the vehicle length of the vehicle image included in the reflectance image G is normalized to a predetermined length L.

ここで、本実施形態においては、画像生成部92は所定の長さLとして、カメラ101が撮像した画像から全景画像推定部93が推定(生成)した全景画像D2の車長Lを用いる。 Here, in the present embodiment, the image generation unit 92 uses the vehicle length L of the panoramic image D2 estimated (generated) by the panoramic image estimation unit 93 from the image captured by the camera 101 as the predetermined length L.

一方、画像生成部92は、速度変化率が「1」でない場合、車両10が所定位置Tを通過する際に加減速した可能性が高いため、リフレクタンス画像Gの部分よって、車両画像の車長方向に対する伸縮率を変える。例えば、画像生成部92は、速度変化率が「1」より小さく、車両10が所定位置Tを通過する際に減速した可能性が高い場合、車両画像の車長方向に向かって、車両画像の後端に向かうに従い、当該リフレクタンス画像Gの検出点pの間隔を小さくする。一方、画像生成部92は、速度変化率が「1」より大きく、車両10が所定位置Tを通過する際に加速した可能性が高い場合、車両画像の車長方向に向かって、車両画像の後端に向かうに従い、当該リフレクタンス画像Gの検出点pの間隔を大きくする。 On the other hand, when the speed change rate is not “1”, the image generation unit 92 is likely to have accelerated or decelerated when the vehicle 10 passed the predetermined position T. Therefore, the portion of the reflectance image G indicates that the vehicle of the vehicle image Change the stretch ratio in the long direction. For example, when the rate of change in speed is smaller than “1” and there is a high possibility that the vehicle 10 has decelerated when passing the predetermined position T, the image generation unit 92 moves toward the vehicle length direction of the vehicle image, The distance between the detection points p of the reflectance image G is made smaller toward the rear end. On the other hand, when the rate of change in speed is greater than “1” and there is a high possibility that the vehicle 10 has accelerated when passing through the predetermined position T, the image generation unit 92 moves toward the vehicle length direction of the vehicle image, The distance between the detection points p of the reflectance image G is increased toward the rear end.

画像生成部92は、点群データgと正規化したリフレクタンス画像Gを補間部94へ送出する。 The image generation unit 92 sends the point cloud data g and the normalized reflectance image G to the interpolation unit 94.

図2に戻り、補間部94は、全景画像D2の特徴点Pと、正規化したリフレクタンス画像Gの検出点pとを照合するマッチング処理を実行する。そして、補間部94は、マッチング処理の結果、および検出点距離から生成された点群データgに含まれる検出点pに基づいて、全景画像D2の特徴点Pを補間する。 Returning to FIG. 2, the interpolation unit 94 performs a matching process of matching the feature point P of the panoramic image D2 with the detection point p of the normalized reflectance image G. Then, the interpolation unit 94 interpolates the feature point P of the panoramic image D2 based on the result of the matching process and the detection point p included in the point group data g generated from the detection point distance.

図11は、本実施形態の車種判別装置103における画像補間処理の一例を説明するための図である。図11(a)に示すように、補間部94は、全景画像D2が含む特徴点Pとリフレクタンス画像Gの検出点pとを照合するマッチング処理を実行する。次いで、図11(b)に示すように、補間部94は、全景画像D2において、検出点pと照合した特徴点P間を、当該特徴点P間に存在する点群データgによって補間する画像補間処理を実行し、密な特徴点Pを有する全景画像Aを得る。 FIG. 11 is a diagram for explaining an example of image interpolation processing in the vehicle type identification device 103 of the present embodiment. As shown in FIG. 11A, the interpolation unit 94 executes a matching process of matching the feature point P included in the panoramic image D2 with the detection point p of the reflectance image G. Next, as shown in FIG. 11B, the interpolation unit 94 interpolates between the feature points P collated with the detection points p in the panoramic image D2 by the point group data g existing between the feature points P. Interpolation processing is executed to obtain a panoramic image A having dense feature points P.

補間部94が行うマッチング処理について、具体的に説明する。
図12は、本実施形態の車種判別装置103におけるマッチング処理の一例を説明するための図である。図12に示すように、補間部94は、全景画像D2の特徴点Pと一致する、正規化したリフレクタンス画像Gの検出点pを特定する。
The matching process performed by the interpolation unit 94 will be specifically described.
FIG. 12 is a diagram for explaining an example of matching processing in the vehicle type identification device 103 of the present embodiment. As illustrated in FIG. 12, the interpolation unit 94 identifies the detection point p of the normalized reflectance image G that matches the feature point P of the panoramic image D2.

次に、補間部94が行う画像補間処理について、具体的に説明する。
図13は、本実施形態の車種判別装置103における画像補間処理の一例を説明するための図である。図6および図7で述べたように、点群データgは、車両10の走査方向には密に検出点pを有している。しかしながら、点群データgは、車両10の時間軸方向には検出点pが疎になる。
Next, the image interpolation processing performed by the interpolation unit 94 will be specifically described.
FIG. 13 is a diagram for explaining an example of image interpolation processing in the vehicle type identification device 103 of the present embodiment. As described in FIGS. 6 and 7, the point cloud data g has the detection points p densely in the scanning direction of the vehicle 10. However, in the point cloud data g, the detection points p are sparse in the time axis direction of the vehicle 10.

一方、図3から図5で述べたように、車両10の全景画像D2は、カメラ101の撮像により得られた撮像画像に基づいて推定される。そのため、全景画像D2は、被写体(車両10)や当該被写体を撮像する際の撮像条件等の影響を受け易い。一般的に、全景画像D2に含まれる特徴点Pは、点群データgに含まれる検出点pよりも疎になる性質を有する。 On the other hand, as described with reference to FIGS. 3 to 5, the panoramic image D2 of the vehicle 10 is estimated based on the captured image obtained by capturing the image with the camera 101. Therefore, the panoramic image D2 is likely to be affected by the subject (vehicle 10), the imaging conditions when capturing the subject, and the like. In general, the characteristic points P included in the panoramic image D2 have a property of being sparser than the detection points p included in the point cloud data g.

図7で述べたように、リフレクタンス画像Gの検出点pと点群データgの検出点pは1対1の対応関係であるため、全景画像D2の特徴点Pと一致する点群データgの検出点pは、図12で述べたマッチング処理の結果によって特定される。 As described with reference to FIG. 7, since the detection point p of the reflectance image G and the detection point p of the point cloud data g have a one-to-one correspondence, the point cloud data g that matches the feature point P of the panoramic image D2. The detection point p of is specified by the result of the matching processing described in FIG.

補間部94は、図13に示すように、全景画像D2において、検出点pと一致(照合)した特徴点P間を、当該特徴点P間に存在する検出点pによって補間(拡充)する。これにより、図13に示すように、補間部94は、密な特徴点Pを有する全景画像A(言い換えると、特徴点Pが拡充された全景画像A)を得ることができる。 As shown in FIG. 13, the interpolation unit 94 interpolates (expands) the feature points P that match (match) the detection points p with the detection points p existing between the feature points P in the panoramic image D2. As a result, as shown in FIG. 13, the interpolation unit 94 can obtain the panoramic image A having dense feature points P (in other words, the panoramic image A in which the feature points P are expanded).

補間部94は、全景画像Aを車軸検出部95に送出する。 The interpolation unit 94 sends the panoramic image A to the axle detection unit 95.

図2に戻り、車軸検出部95は、特徴点Pを点群データgによって補間した全景画像Aから車軸を検出し、車軸の数と車軸間の距離を計測する。 Returning to FIG. 2, the axle detection unit 95 detects axles from the panoramic image A in which the characteristic points P are interpolated by the point group data g, and measures the number of axles and the distance between the axles.

図14は、本実施形態の車種判別装置103における車軸検出処理の一例を説明するための図である。図14に示す所定位置Tを通過したセミトレーラの全景画像A1は、補間された全景画像Aの一例である。 FIG. 14 is a diagram for explaining an example of axle detection processing in the vehicle type identification device 103 of the present embodiment. The semi-trailer panoramic image A1 that has passed the predetermined position T shown in FIG. 14 is an example of the interpolated panoramic image A.

図14においては、車軸検出部95が車軸検出を行う範囲の高さ方向の下限は、路面300とする。また、車軸検出部95が車軸検出を行う範囲の高さ方向の上限位置301は、全景画像A1に含まれる車両10の車体の底面の高さである。 In FIG. 14, the lower limit in the height direction of the range in which the axle detection unit 95 detects the axle is the road surface 300. The upper limit position 301 in the height direction of the range in which the axle detection unit 95 detects the axle is the height of the bottom surface of the vehicle body of the vehicle 10 included in the panoramic image A1.

車軸検出部95が車軸検出を行う範囲には、車軸11a〜11d以外の構造物が含まれることが極力少なくなるように範囲を設定することが望ましい。例えば、車軸検出を行う範囲の高さ方向の上限位置301は、所定位置Tを走行することが想定される車種の最低地上高度の値としても良い。あるいは、路面から車軸検出を行う範囲の高さ方向の上限位置301までの高さは、想定される車軸11a〜11dの直径の2分の1の値としても良い。想定される車種の最低地上高度、および想定される車軸11a〜11dの直径は、記憶部90が記憶する構成を採用しても良い。 It is desirable that the range in which the axle detection unit 95 performs the axle detection be set so that the structures other than the axles 11a to 11d are included as little as possible. For example, the upper limit position 301 in the height direction of the range in which the axle detection is performed may be the value of the minimum ground altitude of the vehicle type that is assumed to travel at the predetermined position T. Alternatively, the height from the road surface to the upper limit position 301 in the height direction of the range where the axle detection is performed may be a value that is ½ of the assumed diameter of the axles 11a to 11d. The storage unit 90 may store the assumed minimum ground altitude of the vehicle type and the assumed diameters of the axles 11a to 11d.

車軸検出部95は、全景画像A1における車軸検出を行う範囲において、特徴点Pの発生頻度が所定の閾値よりも高い領域を検出する。車軸11a〜11dが存在する領域では、車軸11a〜11dが存在しない空間部分と比較して特徴点Pの発生頻度が高い。このため、車軸検出部95は、特徴点Pの発生頻度が所定の閾値よりも高い領域を検出することで、車軸11a〜11dの位置を検出することができる。このように、車軸検出部95は、図14に示す全景画像A1に含まれる車軸11a〜11dの位置を検出する。特徴点Pの発生頻度の所定の閾値は、記憶部90が記憶する。 The axle detection unit 95 detects an area in which the frequency of occurrence of the characteristic points P is higher than a predetermined threshold value in the range in which the axle detection is performed in the panoramic image A1. In the region where the axles 11a to 11d exist, the frequency of occurrence of the feature point P is higher than that in the space portion where the axles 11a to 11d do not exist. Therefore, the axle detection unit 95 can detect the positions of the axles 11a to 11d by detecting an area in which the occurrence frequency of the characteristic points P is higher than a predetermined threshold value. In this way, the axle detection unit 95 detects the positions of the axles 11a to 11d included in the panoramic image A1 shown in FIG. The storage unit 90 stores a predetermined threshold value of the frequency of occurrence of the feature points P.

車軸検出部95における車軸11a〜11dの検出方法は、これに限らない。例えば、車軸11a〜11dは一般に円形で黒色であることが想定されるため、車軸検出部95は、全景画像A1から、パタンマッチング(テンプレートマッチング)によって円形で黒色の画像パタン(テンプレート)と一致する領域を車軸11a〜11dとして検出する構成を採用しても良い。この場合、円形で黒色の画像パタン(テンプレート)は、記憶部90が記憶する構成を採用しても良い。 The method of detecting the axles 11a to 11d by the axle detector 95 is not limited to this. For example, since it is assumed that the axles 11a to 11d are generally circular and black, the axle detection unit 95 matches the circular and black image pattern (template) from the panoramic image A1 by pattern matching (template matching). You may employ the structure which detects an area|region as axle 11a-11d. In this case, the storage unit 90 may store the circular black image pattern (template).

また、図8および図9で述べたように、正規化処理後のリフレクタンス画像Gは、所定位置Tを通過する車両10の速度が速くなるに従って、車両10の車長方向(時間軸方向)への検出点pの数が少なくなる。すなわち、通行速度が速い車両10については、リフレクタンス画像Gの横方向の解像度が不足し、正規化処理によって画像を横方向に伸長することで検出点pの位置の誤差が大きくなる場合がある。このため、車軸検出部95は、例えば、正規化処理前のリフレクタンス画像Gの横方向の解像度に下限を設定し、下限を下回った場合には補間されていない全景画像D2から車軸を検出し、車軸の数と車軸間の距離を計測する構成を採用しても良い。リフレクタンス画像Gの横方向の解像度の下限は、例えば正規化処理前のリフレクタンス画像Gに含まれる車両10の画像における車軸の幅が一定以下となった場合等を基準としても良い。 Further, as described with reference to FIGS. 8 and 9, the reflectance image G after the normalization process shows that the vehicle 10 in the vehicle length direction (time axis direction) increases as the speed of the vehicle 10 passing through the predetermined position T increases. The number of the detection points p to the points is reduced. That is, with respect to the vehicle 10 having a high traveling speed, the horizontal resolution of the reflectance image G may be insufficient, and the image may be expanded in the horizontal direction by the normalization process, resulting in a large error in the position of the detection point p. .. Therefore, the axle detection unit 95 sets, for example, a lower limit to the horizontal resolution of the reflectance image G before the normalization process, and when the lower limit is not reached, the axle detection unit 95 detects the axle from the uninterpolated panoramic image D2. Alternatively, a configuration for measuring the number of axles and the distance between the axles may be adopted. The lower limit of the horizontal resolution of the reflectance image G may be based on, for example, the case where the width of the axle in the image of the vehicle 10 included in the reflectance image G before the normalization process is equal to or less than a certain value.

図14に示す車軸の検出方法は、リフレクタンス画像Gの正規化処理における車軸の検出にも適用可能である。すなわち、画像生成部92は、車軸検出部95が全景画像Aから車軸処理を行う方法を用いて、リフレクタンス画像Gから車軸検出する構成を採用しても良い。 The axle detection method shown in FIG. 14 can also be applied to the axle detection in the normalization process of the reflectance image G. That is, the image generation unit 92 may employ a configuration in which the axle detection unit 95 performs axle processing from the panoramic image A and detects the axle from the reflectance image G.

また図15は、本実施形態の車種判別装置103における車軸の大きさおよび車軸の中心位置の計測方法の一例を説明するための図である。図15(a)に示すように、車軸検出部95は、全景画像Aから車軸310を検出する。図15(b)は車軸310を含む領域の拡大図である。車軸検出部95は、路面312から、車軸310の路面から最も高い位置311までの距離を計測することで、車軸310の直径(大きさ)を取得することができる。また、車軸検出部95は、路面312と車軸310の路面から最も高い位置311までの間の中間位置313を計測し、路面312から当該中間位置313までの距離を計測することで、車軸310の半径を取得することができる。 Further, FIG. 15 is a diagram for explaining an example of a method of measuring the size of the axle and the center position of the axle in the vehicle type identification device 103 of the present embodiment. As shown in FIG. 15A, the axle detection unit 95 detects the axle 310 from the panoramic image A. FIG. 15B is an enlarged view of a region including the axle 310. The axle detection unit 95 can acquire the diameter (size) of the axle 310 by measuring the distance from the road surface 312 to the highest position 311 of the axle 310. In addition, the axle detection unit 95 measures an intermediate position 313 between the road surface 312 and the highest position 311 of the axle 310 from the road surface, and measures the distance from the road surface 312 to the intermediate position 313, thereby measuring the axle 310. You can get the radius.

また、車軸310の左端314から右端315までの距離は車軸310の幅の長さを示す。また車軸310の左端314から右端315までの間の中間位置316が、車軸310の中心である。 Further, the distance from the left end 314 to the right end 315 of the axle 310 indicates the width of the axle 310. An intermediate position 316 between the left end 314 and the right end 315 of the axle 310 is the center of the axle 310.

図14に示すように、車軸検出部95は、車軸11a〜11dの位置を検出した後に、各車軸11a〜11d間の距離を計測する。図14の符号L1は第1の車軸11aの中心から第2の車軸11bの中心までの距離、符号L2は第2の車軸11bの中心から第3の車軸11cの中心までの距離、符号L3は第3の車軸11cの中心から第4の車軸11dの中心までの距離をそれぞれ示す。車軸検出部95は、全景画像A1上の車軸11a〜11d間の距離L1〜L3を、車両10の実寸に換算して、実際の車両10における車軸間の距離を計測する。 As shown in FIG. 14, the axle detection unit 95 measures the distance between the axles 11a to 11d after detecting the positions of the axles 11a to 11d. In FIG. 14, reference symbol L1 is the distance from the center of the first axle 11a to the center of the second axle 11b, reference symbol L2 is the distance from the center of the second axle 11b to the center of the third axle 11c, and reference symbol L3 is The distances from the center of the third axle 11c to the center of the fourth axle 11d are shown respectively. The axle detection unit 95 converts the distances L1 to L3 between the axles 11a to 11d on the panoramic image A1 into the actual size of the vehicle 10 and measures the actual distance between the axles of the vehicle 10.

ここで、車軸の検出の際に考慮が必要な事項として、図16および図17を用いてリフトアクスル機能を備えた車両10が通行した場合について説明する。リフトアクスル機能とは、例えばトレーラ等において積荷が軽い場合に、一部の車軸を路面から浮かせて(リフトして)、接地しないようにする機能のことをいう。路面から浮いた車軸は、車種区分および車種の判定基準上は車軸とはならない。そのため、リフトアクスル機能は、車種区分を特大車から大型車へ下げて高速道路の料金を節約する目的で、車軸の数を減らすために利用されることが多い。 Here, as a matter that needs to be taken into consideration when detecting the axle, a case where the vehicle 10 having the lift axle function passes by will be described with reference to FIGS. 16 and 17. The lift axle function refers to a function of lifting (lifting) a part of the axles from the road surface so as not to touch the ground when the load is light, for example, on a trailer. An axle that floats from the road surface is not an axle according to the vehicle type classification and vehicle type determination criteria. Therefore, the lift axle function is often used to reduce the number of axles for the purpose of lowering the vehicle classification from oversized vehicles to large vehicles to save highway tolls.

具体的には、図16に示すように1軸分の車軸を路面から浮かせる場合や、図17に示すように2軸分の車軸を路面から浮かせる場合等がある。図16および図17に示す路面400から、リフトした車軸の高さの下限401までの間は空間がある。車軸部分と空間部分とでは全景画像A1における特徴点Pの分布に差があるため、車軸検出部95は全景画像A1における特徴点Pの分布から車軸の下に空間を認識した場合、当該車軸は車軸ではないと判断する。車軸のリフトを判定する方法はこれに限らず、車軸検出部95は、レーザスキャナ102で測定した検出点pの検出点距離から車軸の下の空間を識別しても良い。また、車軸検出部95は、パタンマッチングの結果、車軸と推定される円形画像の位置が路面400から離れていることを認識して車軸のリフトを判定しても良い。 Specifically, as shown in FIG. 16, there are cases where one axle is floated from the road surface, and where two axles are floated from the road surface as shown in FIG. There is a space from the road surface 400 shown in FIGS. 16 and 17 to a lower limit 401 of the height of the lifted axle. Since there is a difference in the distribution of the feature points P in the panoramic image A1 between the axle portion and the space portion, when the axle detection unit 95 recognizes a space below the axle from the distribution of the feature points P in the panoramic image A1, the axle is Judge that it is not an axle. The method of determining the lift of the axle is not limited to this, and the axle detection unit 95 may identify the space under the axle based on the detection point distance of the detection point p measured by the laser scanner 102. As a result of the pattern matching, the axle detection unit 95 may recognize that the position of the circular image estimated to be the axle is distant from the road surface 400 and may determine the lift of the axle.

車軸検出部95は、車軸が路面から浮いていることを判定した場合、当該路面から浮いている車軸を除いた車軸の数および車軸間の距離を計測する。 When the axle detection unit 95 determines that the axle is floating above the road surface, the axle detection unit 95 measures the number of axles and the distance between the axles excluding the axles floating above the road surface.

車軸検出部95は、計測した車両10の車軸の数と車軸間の距離を、判別部96に送出する。 The axle detection unit 95 sends the measured number of axles of the vehicle 10 and the distance between the axles to the determination unit 96.

図2に戻り、判別部96は、車軸検出部95から取得した車軸の数と車軸間の距離に基づいて、車両10の車種区分および車種を判別する。ここで、判別部96が車種区分および車種を判別する処理のことを、車種判別処理という。 Returning to FIG. 2, the determination unit 96 determines the vehicle type classification and vehicle type of the vehicle 10 based on the number of axles and the distance between the axles acquired from the axle detection unit 95. Here, the process in which the determination unit 96 determines the vehicle type classification and the vehicle type is referred to as a vehicle type determination process.

ここで、車種区分とは、車種を分類する区分のことをいう。本実施形態において、車種区分は高速道路の料金基準で用いられる車種区分に準じて軽自動車、普通車、中型車、大型車、特大車に車種を分類する構成を採用する。 Here, the vehicle type classification refers to a classification for classifying vehicle types. In the present embodiment, the vehicle type classification adopts a configuration in which the vehicle type is classified into a light vehicle, a standard vehicle, a medium-sized vehicle, a large vehicle, and an oversized vehicle in accordance with the vehicle type classification used in the highway toll standard.

判別部96は、車種判別情報20に定義された基準にしたがって、車種判別処理を実行する。車種判別情報20とは、車軸の数と車軸間の距離によって、車種区分および車種を特定する基準を定義した情報である。 The determination unit 96 executes the vehicle type determination process according to the standard defined in the vehicle type determination information 20. The vehicle type identification information 20 is information that defines a vehicle type classification and a standard for identifying a vehicle type based on the number of axles and the distance between the axles.

例えば、判別部96は、車種判別情報20に定義された基準にしたがって、車両10が車軸を3軸以上備え、かつ、車両10において車軸間の距離が所定の距離以上離れている箇所が2か所以上あると判断した場合に、車両10が特大車であると判別する。また、判別部96は、車両10の車軸の数が5軸以上であると判断した場合は、車両10を特大車であると判別する。 For example, the determination unit 96 determines whether the vehicle 10 has three or more axles according to the criteria defined in the vehicle type identification information 20 and the distance between the axles of the vehicle 10 is two or more. When it is determined that there are more than one location, the vehicle 10 is determined to be an oversized vehicle. In addition, when the determination unit 96 determines that the number of axles of the vehicle 10 is five or more, the determination unit 96 determines that the vehicle 10 is an oversized vehicle.

車種判別情報20に定義された基準の詳細について、図18を用いて説明する。図18は、本実施形態の車種判別装置103における車種判別情報20の一例を示す図である。本実施形態において、車種判別情報20は、記憶部90に記憶される。あるいは、車種判別情報20は、車種判別装置103とネットワークを介して接続された不図示の外部記憶装置に記憶される構成を採用しても良い。 Details of the criteria defined in the vehicle type identification information 20 will be described with reference to FIG. FIG. 18 is a diagram showing an example of the vehicle type identification information 20 in the vehicle type identification device 103 of this embodiment. In the present embodiment, the vehicle type identification information 20 is stored in the storage unit 90. Alternatively, the vehicle type identification information 20 may be stored in an external storage device (not shown) connected to the vehicle type identification device 103 via a network.

図18に示すように、車種判別情報20は、「軸数」、「車軸間距離条件(m)」、「車種区分」、「車種」の情報を少なくとも含む。なお、項目「イメージ図」は、車軸間距離条件に基づく車軸の位置をモデル化して表示しているものであるので、車種判別情報20の構成としては必須ではない。 As shown in FIG. 18, the vehicle type identification information 20 includes at least information of “number of axles”, “inter-axle distance condition (m)”, “vehicle type classification”, and “vehicle type”. Note that the item “image diagram” is a model of the position of the axle based on the inter-axle distance condition and is displayed, and is not essential as a configuration of the vehicle type identification information 20.

車種判別情報20の項目「軸数」は車軸の数を示す。図18の車種判別情報20によると、車軸の数は2軸、3軸、4軸、5軸以上の4つに分類されている。本実施形態においては、車両10の車軸の数が2軸であれば、判別部96は、車軸間の距離によって、車両10の車種区分は「軽自動車、普通車、中型車」または「中型車、大型車」のいずれかであると判別する。車両10の車軸の数が3軸であれば、判別部96は、車軸間の距離の組合せによって、車両10の車種区分は「特大車」または「中型車、大型車」のいずれかであると判別する。車両10の車軸の数が4軸であれば、判別部96は、車軸間の距離の組合せによって、車両10の車種区分は「特大車」または「大型車」のいずれかであると判別する。車両10の車軸の数が5軸以上である場合は、判別部96は、車軸間の距離に関わらず、車両10の車種区分は「特大車」であると判別する。 The item “number of axles” of the vehicle type identification information 20 indicates the number of axles. According to the vehicle type identification information 20 in FIG. 18, the number of axles is classified into four, that is, two axes, three axes, four axes, and five or more axes. In the present embodiment, if the number of axles of the vehicle 10 is two, the determination unit 96 determines that the vehicle type of the vehicle 10 is “light vehicle, ordinary vehicle, medium-sized vehicle” or “medium-sized vehicle” depending on the distance between the axles. , Large-sized vehicle”. If the number of axles of the vehicle 10 is three, the determining unit 96 determines that the vehicle type classification of the vehicle 10 is either “extra large vehicle” or “medium-sized vehicle or large vehicle” depending on the combination of the distances between the axles. Determine. If the number of axles of the vehicle 10 is four, the determination unit 96 determines that the vehicle type classification of the vehicle 10 is either “large vehicle” or “large vehicle” depending on the combination of the distances between the axles. When the number of axles of the vehicle 10 is five or more, the determination unit 96 determines that the vehicle type classification of the vehicle 10 is “oversized vehicle” regardless of the distance between the axles.

図18に示す車種判別情報20の「軸数」は一例であり、これに限らない。 The “number of axes” of the vehicle type identification information 20 shown in FIG. 18 is an example, and the present invention is not limited to this.

車種判別情報20の項目「車軸間距離条件(m)」は各車軸間の距離の閾値をメートル単位で示す。車軸の数が3軸以上の場合は、各車軸間の距離の組合せが、車種区分および車種を判別する条件となる。図18に示す車種判別情報20の「車軸間距離条件(m)」の項目L1〜L3は、車両10の隣り合う2つの車軸間の距離を、それぞれの車軸の中心から計測して実寸換算した長さを示す。具体的には、図14と同様に、図18の項目L1は車両10の最も前方側の車軸(第1の車軸)と、前方側から2番目の車軸(第2の車軸)の間の距離を示す。項目L2は車両10の第2の車軸と、前方側から3番目の車軸(第3の車軸)の間の距離を示す。項目L3は車両10の第3の車軸と、前方側から4番目の車軸(第4の車軸)の間の距離を示す。 The item “inter-axle distance condition (m)” of the vehicle type identification information 20 indicates a threshold value of the distance between the axles in units of meters. When the number of axles is three or more, the combination of the distances between the axles is a condition for determining the vehicle type classification and the vehicle type. The items L1 to L3 of the “inter-axle distance condition (m)” of the vehicle type identification information 20 shown in FIG. 18 measure the distance between two adjacent axles of the vehicle 10 from the center of each axle and convert the actual dimensions. Indicates the length. Specifically, as in FIG. 14, the item L1 in FIG. 18 is the distance between the frontmost axle (first axle) of the vehicle 10 and the second axle (second axle) from the front side. Indicates. Item L2 indicates the distance between the second axle of the vehicle 10 and the third axle (third axle) from the front side. Item L3 indicates the distance between the third axle of the vehicle 10 and the fourth axle (fourth axle) from the front side.

車種判別情報20の「車軸間距離条件(m)」の項目L1〜L3はAND条件であり、各距離の組合せを全て満たした場合にのみ、当該条件に合致するとされる。項目L1〜L3に設定される値n1〜n3は、車軸間の距離における所定の閾値の一例である。また、値n1〜n3の大小関係は、n1<n2<n3とする。 The items L1 to L3 of the “inter-axle distance condition (m)” of the vehicle type discrimination information 20 are AND conditions, and it is considered that the conditions are met only when all combinations of distances are satisfied. The values n1 to n3 set in the items L1 to L3 are examples of predetermined threshold values for the distance between the axles. Further, the magnitude relationship between the values n1 to n3 is n1<n2<n3.

例えば、図18の車種判別情報20のNo.6では、「軸数」が4軸であり、「車軸間距離条件(m)」のL1は「n2≦L1<n3」、L2は「n2≦L2<n3」、L3は「0<L3<n2」と定義されている。すなわち、車両10の第1の車軸と第2の車軸の間の距離がn2メートル以上n3メートル未満であり、かつ、第2の車軸と第3の車軸の間の距離がn2メートル以上n3メートル未満であり、かつ、第3の車軸と第4の車軸の間の距離が0mより長くn2メートル未満である場合に、判別部96は、車両10がNo.6の「車軸間距離条件(m)」を満たすと判断する。 For example, No. of the vehicle type identification information 20 of FIG. 6, the number of axles is four, and L1 of the “inter-axle distance condition (m)” is “n2≦L1<n3”, L2 is “n2≦L2<n3”, and L3 is “0<L3<. n2”. That is, the distance between the first axle and the second axle of the vehicle 10 is n2 meters or more and less than n3 meters, and the distance between the second axle and the third axle is n2 meters or more and less than n3 meters. If the distance between the third axle and the fourth axle is longer than 0 m and less than n2 meters, the determination unit 96 determines that the vehicle 10 is No. It is determined that the “inter-axle distance condition (m) of 6” is satisfied.

また、車両10の車軸の数が4軸であり、かつ、図18の車種判別情報20のNo.6〜9の「車軸間距離条件(m)」のいずれも満たさない場合は、No.10に示すように、当該車両10の「車種区分」は大型車であり、「車種」は普通トラック、単車、セミトレーラ以外の「その他4軸車」であると判別される。 Further, the number of axles of the vehicle 10 is four, and the number of the vehicle type identification information 20 of FIG. When none of the "inter-axle distance conditions (m)" of 6 to 9 is satisfied, No. As shown in FIG. 10, the “vehicle type classification” of the vehicle 10 is a large vehicle, and the “vehicle type” is determined to be an “other four-axle vehicle” other than an ordinary truck, a motorcycle, and a semi-trailer.

車種判別情報20の項目「車種区分」は、「軸数」と「車軸間距離条件(m)」から特定される車両10の車種の区分を示す。 The item “vehicle type classification” of the vehicle type identification information 20 indicates a vehicle type classification of the vehicle 10 specified from the “number of axles” and the “inter-axle distance condition (m)”.

車種判別情報20の項目「車種」は、「軸数」と「車軸間距離条件(m)」から特定される車両10の車種を示す。例えば、図18に示す車種判別情報20のNo.1に定義されるように、車軸の数が2軸の場合で、かつ、車軸間の距離L1がn1メートル以下であれば車種区分は軽自動車、普通車、中型車のいずれかであり、想定される車種は乗用車類、またはラフタークレーンがある。また、車種判別情報20のNo.2に定義されるように、車軸の数が2軸の場合で、かつ、車軸間の距離L1がn1メートルよりも長ければ、車種区分は中型車または大型車であり、想定される車種は単車、普通トラック、バス、トラクタである。ここで、単車とは、牽引部と被牽引部に分離することができない構造の貨物自動車の総称である。 The item “vehicle type” of the vehicle type identification information 20 indicates the vehicle type of the vehicle 10 specified from the “number of axles” and the “inter-axle distance condition (m)”. For example, No. of the vehicle type discrimination information 20 shown in FIG. As defined in 1, when the number of axles is two and the distance L1 between the axles is n1 meters or less, the vehicle type classification is one of a light vehicle, a standard vehicle, and a medium-sized vehicle. There are passenger cars and rough terrain cranes. In addition, No. of the vehicle type identification information 20. As defined in 2, if the number of axles is two and the distance L1 between the axles is longer than n1 meters, the vehicle type classification is a medium-sized vehicle or a large vehicle, and the assumed vehicle type is a single vehicle. , Ordinary trucks, buses, tractors. Here, the single vehicle is a general term for a freight vehicle having a structure that cannot be separated into a towed portion and a towed portion.

図18に示す車種は一例であり、車種判別情報20はさらに多くの車種を記憶する構成を採用しても良い。 The vehicle type shown in FIG. 18 is an example, and the vehicle type identification information 20 may be configured to store a larger number of vehicle types.

ここで、図14および図18を用いて車種判別処理の内容を具体的に説明する。図14で述べたように、車軸検出部95は、全景画像A1から、車軸11a〜11dを検出し、各車軸間の距離L1〜L3を計測する。判別部96は、車軸検出部95から車軸11a〜11dの検出結果を取得し、図18に示す車種判別情報20を検索して、車両10が当てはまる「軸数」と「車軸間距離条件(m)」の組合せを取得する。図14に示す車両10の車軸11a〜11dの数は4軸で、各車軸間の距離はn2≦L1<n3、n2≦L2<n3、0<L3<n2であるとする。この場合、図14に示す全景画像A1は、車種判別情報20のNo.6に示す「軸数」と「車軸間距離条件(m)」の組合せの条件を満たす。したがって、判別部96は、全景画像A1の「車種区分」は特大車であり、「車種」は単車あるいはセミトレーラであると判別する。 Here, the content of the vehicle type discrimination processing will be specifically described with reference to FIGS. 14 and 18. As described in FIG. 14, the axle detection unit 95 detects the axles 11a to 11d from the panoramic image A1 and measures the distances L1 to L3 between the axles. The determination unit 96 acquires the detection results of the axles 11a to 11d from the axle detection unit 95, searches the vehicle type determination information 20 illustrated in FIG. 18, and determines the “number of axles” and the “inter-axle distance condition (m) to which the vehicle 10 applies. )” is acquired. It is assumed that the number of axles 11a to 11d of the vehicle 10 shown in FIG. 14 is four and the distances between the axles are n2≦L1<n3, n2≦L2<n3, and 0<L3<n2. In this case, the panoramic image A1 shown in FIG. The condition of the combination of “number of axles” and “inter-axle distance condition (m)” shown in 6 is satisfied. Therefore, the determination unit 96 determines that the “vehicle type classification” of the panoramic image A1 is an oversized vehicle and the “vehicle type” is a single vehicle or a semi-trailer.

一方、全景画像A1に示された車両10が、後方の荷積載部分である被牽引車両を分離し、前方の牽引車両のみで独立して走行した場合、車両10の車軸の数は、牽引車両の車軸11a〜11bの2軸となる。この場合、判別部96は、車種判別情報20を検索して、「軸数」が2軸で、車軸間の距離L1が「n2≦L1<n3」となる車両10があてはまる「軸数」と「車軸間距離条件(m)」の組合せを取得する。この場合、車両10は車種判別情報20のNo.2に示す「軸数」と「車軸間距離条件(m)」の組合せの条件を満たす。したがって、判別部96は、「車種区分」は中型車あるいは大型車であり、「車種」は単車、普通トラック、バスまたはトラクタであると判別する。 On the other hand, when the vehicle 10 shown in the panoramic image A1 separates the towed vehicle that is the rear load-carrying portion and independently travels only by the front towed vehicle, the number of axles of the vehicle 10 is 2 axles 11a and 11b. In this case, the determination unit 96 searches the vehicle type determination information 20 and determines that “the number of axles” is applicable to the vehicle 10 in which the “number of axles” is two axes and the distance L1 between the axles is “n2≦L1<n3”. A combination of "inter-axle distance condition (m)" is acquired. In this case, the vehicle 10 has the No. of the vehicle type identification information 20. The condition of the combination of “number of axles” and “inter-axle distance condition (m)” shown in 2 is satisfied. Therefore, the determination unit 96 determines that the “vehicle type” is a medium-sized vehicle or a large vehicle, and the “vehicle type” is a single vehicle, an ordinary truck, a bus, or a tractor.

また、図18に示す車種判別情報20によれば、車種区分が特大車となるのは、車両10がNo.3、No.6、No.7、No.11のいずれかの定義を満たす場合である。すなわち、前述したように、判別部96は、車種判別情報20の車両10が車軸を3軸以上備え、かつ、車両10において車軸間の距離がn2メートル以上離れている箇所が2か所以上あると判断した場合、あるいは車両10の車軸の数が5軸以上であると判断した場合は、車両10を特大車であると判別する。 Further, according to the vehicle type identification information 20 shown in FIG. 18, the vehicle type classification is the oversized vehicle when the vehicle 10 is No. 3, No. 6, No. 7, No. This is the case where any one of the definitions of 11 is satisfied. That is, as described above, in the determination unit 96, the vehicle 10 of the vehicle type determination information 20 has three or more axles, and there are two or more locations where the distance between the axles of the vehicle 10 is n2 meters or more. If it is determined that the number of axles of the vehicle 10 is five or more, the vehicle 10 is determined to be an oversized vehicle.

判別部96は、車種処理の結果を不図示の外部装置に出力する。あるいは、判別部96は、車種判別装置103の不図示の表示部に車種判別処理の結果を表示する構成を採用しても良い。また、判別部96が特定の車種区分や車種の車両10を判別した場合に、車種判別装置103の不図示の報知部によって報知する構成を採用しても良い。 The determination unit 96 outputs the result of the vehicle type process to an external device (not shown). Alternatively, the determination unit 96 may employ a configuration in which the result of the vehicle type determination process is displayed on a display unit (not shown) of the vehicle type determination device 103. Further, when the discriminating unit 96 discriminates the vehicle 10 of a specific vehicle type classification or vehicle type, a notifying unit (not shown) of the vehicle type discriminating apparatus 103 may be used to notify.

上記のように、本実施形態における車種判別装置103では、判別部96が車軸の数および車軸間の距離に基づいて車種を判別するので、車両10のその他の部位の形状等は車種判別に影響しない。このため、補間部94は、全景画像D2の全体を均等に補間するのではなく、車軸の周囲の解像度を向上させるように全景画像D2の特定の範囲を補間する構成を採用しても良い。例えば、補間部94は、全景画像D2の画像上の路面から、想定される車軸の高さの最高値までの間の範囲を補間する構成を採用しても良い。この場合、想定される車軸の高さの最高値は記憶部90が記憶する構成を採用しても良い。あるいは、補間部94は、補間前に全景画像D2からパタンマッチングによって車軸を検出し、車軸に近傍する範囲を補間する構成を採用しても良い。補間する範囲を限定することで、全景画像D2の全体を補間する場合と比較して、補間部94が行うマッチング処理および画像補間処理の負荷を軽減することができる。 As described above, in the vehicle type identification device 103 according to the present embodiment, the determination unit 96 determines the vehicle type based on the number of axles and the distance between the axles, and therefore the shapes of other parts of the vehicle 10 influence the vehicle type identification. do not do. For this reason, the interpolation unit 94 may adopt a configuration in which, instead of uniformly interpolating the entire panoramic image D2, a specific range of the panoramic image D2 is interpolated so as to improve the resolution around the axle. For example, the interpolation unit 94 may employ a configuration that interpolates a range from the road surface on the panoramic image D2 to the maximum value of the assumed axle height. In this case, the configuration may be such that the storage unit 90 stores the maximum value of the assumed axle height. Alternatively, the interpolation unit 94 may adopt a configuration in which the axle is detected from the panoramic image D2 by pattern matching before the interpolation, and the range near the axle is interpolated. By limiting the interpolation range, the load of the matching process and the image interpolation process performed by the interpolation unit 94 can be reduced as compared with the case of interpolating the entire panoramic image D2.

次に以上のように構成された本実施形態の車種判別処理の流れについて説明する。図19は、本実施形態の車種判別装置103における車種判別処理の手順の一例を示すフローチャートである。このフローチャートの処理は、例えば、車両10が所定位置Tに進入したことをレーザスキャナ102が検知した場合に開始する。 Next, the flow of the vehicle type discrimination processing of the present embodiment configured as described above will be described. FIG. 19 is a flowchart showing an example of the procedure of the vehicle type identification process in the vehicle type identification device 103 of this embodiment. The process of this flowchart starts, for example, when the laser scanner 102 detects that the vehicle 10 has entered the predetermined position T.

S10で、取得部91は、カメラ101から撮像画像を取得する。取得部91は、取得した撮像画像を全景画像推定部93に送出する。 In S10, the acquisition unit 91 acquires a captured image from the camera 101. The acquisition unit 91 sends the acquired captured image to the panoramic image estimation unit 93.

S11で、全景画像推定部93は、取得部91により取得された撮像画像が含む車両画像の特徴点Pを抽出する。さらに、全景画像推定部93は、車両10とカメラ101との位置関係に基づいて、抽出した各特徴点Pの位置を特定することによって、車両10の全景画像D1を推定する。 In S11, the panoramic image estimation unit 93 extracts the feature point P of the vehicle image included in the captured image acquired by the acquisition unit 91. Furthermore, the panoramic image estimation unit 93 estimates the panoramic image D1 of the vehicle 10 by specifying the positions of the extracted feature points P based on the positional relationship between the vehicle 10 and the camera 101.

S12で、全景画像推定部93は、全景画像D1を回転させることによって、車両10の側面方向の画像である全景画像D2を推定する。全景画像推定部93は、全景画像D2を補間部94に送出する。また、全景画像推定部93は、全景画像D2から計測した車両10の車長Lを画像生成部92に送出する。 In S12, the panoramic image estimation unit 93 estimates the panoramic image D2, which is an image in the lateral direction of the vehicle 10, by rotating the panoramic image D1. The panoramic image estimation unit 93 sends the panoramic image D2 to the interpolation unit 94. Further, the panoramic image estimation unit 93 sends the vehicle length L of the vehicle 10 measured from the panoramic image D2 to the image generation unit 92.

S13で、取得部91は、レーザスキャナ102から各検出点pの検出点距離および反射強度を取得する。取得部91は、取得した各検出点pの検出点距離および反射強度を画像生成部92に送出する。 In S13, the acquisition unit 91 acquires the detection point distance and the reflection intensity of each detection point p from the laser scanner 102. The acquisition unit 91 sends the acquired detection point distance and reflection intensity of each detection point p to the image generation unit 92.

S14で、画像生成部92は、取得部91により取得された各検出点pの検出点距離に基づいて、車両10の検出点pの濃度を、当該検出点pの検出点距離に応じて異ならせた画像である点群データgを生成する。また、画像生成部92は、取得部91により取得された各検出点pの反射強度に基づいて、車両10の検出点pの濃度を、当該検出点pの反射強度に応じて異ならせた画像であるリフレクタンス画像Gを生成する。 In S14, the image generation unit 92 determines whether the density of the detection point p of the vehicle 10 is different according to the detection point distance of each detection point p based on the detection point distance of each detection point p acquired by the acquisition unit 91. The point cloud data g, which is the generated image, is generated. In addition, the image generation unit 92 changes the density of the detection point p of the vehicle 10 based on the reflection intensity of each detection point p acquired by the acquisition unit 91 according to the reflection intensity of the detection point p. Of the reflectance image G is generated.

S15で、画像生成部92は、全景画像推定部93から取得した車長Lを用いてリフレクタンス画像Gを正規化する処理を行う。画像生成部92は、点群データgおよび正規化したリフレクタンス画像Gを補間部94に送出する。 In S15, the image generation unit 92 performs a process of normalizing the reflectance image G using the vehicle length L acquired from the panoramic image estimation unit 93. The image generation unit 92 sends the point cloud data g and the normalized reflectance image G to the interpolation unit 94.

S16で、補間部94は、全景画像D2の特徴点Pと、正規化処理後のリフレクタンス画像Gの検出点pとを照合するマッチング処理を実行する。補間部94は、マッチング処理の結果に基づいて、全景画像D2の特徴点Pを、点群データgに含まれる検出点pを用いて補間する画像補間処理を行う。補間部94は、画像補間処理によって解像度が向上した全景画像Aを生成する。補間部94は、全景画像Aを車軸検出部95に送出する。 In S16, the interpolation unit 94 executes a matching process of matching the feature point P of the panoramic image D2 with the detection point p of the normalized reflectance image G. The interpolation unit 94 performs an image interpolation process of interpolating the feature points P of the panoramic image D2 using the detection points p included in the point group data g based on the result of the matching process. The interpolation unit 94 generates the panoramic image A whose resolution is improved by the image interpolation processing. The interpolation unit 94 sends the panoramic image A to the axle detection unit 95.

S17で、車軸検出部95は、全景画像Aから車軸の数および位置を検出する。また、車軸検出部95は、車両10の実寸に換算した車軸間の距離を計測する。車軸検出部95は、車軸の数および車軸間の距離の計測結果を判別部96に送出する。 In S17, the axle detection unit 95 detects the number and position of axles from the panoramic image A. Further, the axle detection unit 95 measures the distance between the axles converted into the actual size of the vehicle 10. The axle detection unit 95 sends the measurement result of the number of axles and the distance between the axles to the determination unit 96.

S18で、判別部96は、記憶部90に記憶された車種判別情報20を参照し、車軸検出部95から取得した車軸の数および車軸間の距離に条件が合致する車種区分および車種を特定する車種判別処理を行う。 In S18, the determination unit 96 refers to the vehicle type determination information 20 stored in the storage unit 90, and identifies the vehicle type classification and vehicle type whose conditions match the number of axles and the distance between the axles acquired from the axle detection unit 95. Car type discrimination processing is performed.

S19で、判別部96は、車種判別処理の結果を不図示の外部装置に出力する。 In S19, the determination unit 96 outputs the result of the vehicle type determination process to an external device (not shown).

このように、本実施形態にかかる車種判別装置103によれば、判別部96は、車軸の数および車軸間の距離に基づいて車種判別処理を行うため、車体の形状等に基づいて車種判別を行う場合と比較して経年変化による車体形状の変化の影響をうけにくく、より安定した車種判別処理の結果を得ることができる。また、積荷の違い等による車両10の形状の違いにも影響を受けないため、本実施形態にかかる車種判別装置103によれば、車種判別処理の精度を向上させることができる。 As described above, according to the vehicle type identification device 103 of the present embodiment, the identification unit 96 performs the vehicle type identification process based on the number of axles and the distance between the axles. Therefore, the vehicle type identification is performed based on the shape of the vehicle body or the like. Compared with the case where it is performed, it is less likely to be affected by the change in the vehicle body shape due to aging, and a more stable result of the vehicle type determination processing can be obtained. Further, since the difference in the shape of the vehicle 10 due to the difference in the load is not affected, the vehicle type identification device 103 according to the present embodiment can improve the accuracy of the vehicle type identification process.

また、車両10の車体の色によってはレーザスキャナ102による走査が難しい場合があり、特に黒色の車体に対してはレーザスキャナ102から出力されるレーザ光が鏡面反射するために受光側に光が戻らず距離計測値が正しく取得できない場合がある。一方、タイヤ(車軸)部分については乱反射により、レーザスキャナ102は比較的安定して距離を測定できる。本実施形態にかかる車種判別装置103によれば、車軸の数および車軸間の距離に基づいて車種判別処理を行うため、このような車両10の車体の鏡面反射の影響が少なく、より安定して車種判別処理を行うことができる。 Further, depending on the color of the vehicle body of the vehicle 10, it may be difficult to scan with the laser scanner 102. Particularly for a black vehicle body, the laser light output from the laser scanner 102 is mirror-reflected, so that the light returns to the light receiving side. The distance measurement value may not be acquired correctly. On the other hand, the diffused reflection of the tire (axle) portion allows the laser scanner 102 to measure the distance relatively stably. According to the vehicle type identification device 103 according to the present embodiment, the vehicle type identification process is performed based on the number of axles and the distance between the axles, and thus the influence of the specular reflection of the vehicle body of the vehicle 10 is small and more stable. Vehicle type discrimination processing can be performed.

また、本実施形態にかかる車種判別装置103によれば、取得部91が、レーザスキャナ102からは検出点pまでの検出点距離および検出点pにおけるレーザの反射強度を取得し、カメラ101からは所定位置Tの撮像画像を取得する。また、画像生成部92が、リフレクタンス画像Gを生成し、全景画像推定部93が撮像画像から全景画像D1および全景画像D2を推定する。さらに、補間部94がリフレクタンス画像Gと全景画像D2とのマッチング処理を実行し、マッチング処理の結果および検出点距離に基づいて、全景画像D2の特徴点Pを補間する。車軸検出部95は、特徴点Pを補間した全景画像Aから車軸を検出し、車軸の数と車軸間の距離を計測し、判別部96は、車軸の数と車軸間の距離に基づいて、車両10の車種を判別する。 Further, according to the vehicle type identification device 103 according to the present embodiment, the acquisition unit 91 acquires the detection point distance from the laser scanner 102 to the detection point p and the reflection intensity of the laser at the detection point p, and the acquisition unit 91 outputs from the camera 101. A captured image of the predetermined position T is acquired. Further, the image generation unit 92 generates the reflectance image G, and the panoramic image estimation unit 93 estimates the panoramic image D1 and the panoramic image D2 from the captured image. Further, the interpolation unit 94 executes a matching process between the reflectance image G and the panoramic image D2, and interpolates the feature point P of the panoramic image D2 based on the result of the matching process and the detection point distance. The axle detection unit 95 detects an axle from the panoramic image A in which the feature points P are interpolated, measures the number of axles and the distance between the axles, and the determination unit 96 determines, based on the number of axles and the distance between the axles. The vehicle type of the vehicle 10 is determined.

このため、本実施形態にかかる車種判別装置103によれば、カメラ101によって撮像された画像のみに基づいて推定された、もしくはレーザスキャナ102によって取得された検出点距離と反射強度のみに基づいて生成された画像と比較して、解像度の高い画像を用いて車軸を検出することができる。すなわち、車軸検出部95による車軸の検出および車軸間の距離の計測の精度を向上させることができ、ひいては、判別部96が高精度に車種判別処理を行うことができる。 Therefore, according to the vehicle type identification device 103 according to the present embodiment, it is generated based on only the detection point distance and the reflection intensity estimated based on only the image captured by the camera 101 or acquired by the laser scanner 102. The axle can be detected using a higher resolution image compared to the captured image. That is, the accuracy of the axle detection by the axle detection unit 95 and the measurement of the distance between the axles can be improved, and the determination unit 96 can perform the vehicle type determination processing with high accuracy.

さらに、本実施形態にかかる車種判別装置103によれば、画像生成部92は、リフレクタンス画像Gに対して、リフレクタンス画像Gの縦横比を車両10の実際の縦横比に合わせる正規化処理を施す。また、全景画像推定部93は、カメラ101によって連続して撮像された複数の静止画像から全景画像D1および全景画像D2を推定する。そして、補間部94は、全景画像D2の特徴点Pと正規化処理が施されたリフレクタンス画像Gの検出点pとを照合するマッチング処理を行う。このため、本実施形態にかかる車種判別装置103によれば、全景画像D2の特徴点Pと点群データgの検出点pの位置を高い精度で紐づけることができ、より高い精度で画像補間処理を行うことができる。 Further, according to the vehicle type identification device 103 according to the present embodiment, the image generation unit 92 performs a normalization process on the reflectance image G so that the aspect ratio of the reflectance image G matches the actual aspect ratio of the vehicle 10. Give. Further, the panoramic image estimation unit 93 estimates the panoramic image D1 and the panoramic image D2 from a plurality of still images continuously captured by the camera 101. Then, the interpolation unit 94 performs a matching process of matching the feature points P of the panoramic image D2 with the detection points p of the normalized reflectance image G. Therefore, according to the vehicle type identification apparatus 103 according to the present embodiment, the positions of the characteristic points P of the panoramic image D2 and the detection points p of the point cloud data g can be linked with high accuracy, and the image interpolation can be performed with higher accuracy. Processing can be performed.

また、本実施形態にかかる車種判別装置103によれば、判別部96は車両10が車軸を3軸以上備え、かつ、車軸間の距離が所定の距離以上離れている箇所が2か所以上あると判断した場合に、車両10が特大車であると判別するため、特大車の判別を、効率的に行うことができる。 Further, according to the vehicle type identification device 103 according to the present embodiment, in the identification unit 96, the vehicle 10 has three or more axles, and the distance between the axles is two or more locations apart from each other by a predetermined distance or more. If it is determined that the vehicle 10 is an oversized vehicle, it is possible to efficiently identify the oversized vehicle.

さらに、本実施形態にかかる車種判別装置103によれば、判別部96は、車種判別情報20に定義された車軸の数および車軸間の距離の閾値の条件によって車種判別処理を行うため、車体の形状に基づいて車種判別を行う場合と比較して、車種判別処理において車種が判定不能の結果となる場合が少ない。また、車種判別情報20は車軸の数および車軸間の距離の数値データ、車種区分および車種によって構成されるため、各車種の車体形状等を記憶する場合と比較して、記憶部90が記憶するデータ量を少なく抑えることができる。 Further, according to the vehicle type identification device 103 according to the present embodiment, the identification unit 96 performs the vehicle type identification process according to the condition of the number of axles defined in the vehicle type identification information 20 and the threshold value of the distance between the axles. Compared with the case where the vehicle type determination is performed based on the shape, the vehicle type determination process rarely results in the vehicle type determination being impossible. Further, the vehicle type identification information 20 is configured by the numerical data of the number of axles and the distance between the axles, the vehicle type classification, and the vehicle type, and therefore is stored in the storage unit 90 as compared with the case where the vehicle body shape of each vehicle type is stored. The amount of data can be kept small.

なお、本実施形態にかかる車種判別装置103の車軸検出部95は、さらに、車軸の数および車軸間の距離から車両10の回転半径をする構成を採用しても良い。この場合、本実施形態の車種判別システム1aは、急なカーブが存在する山道等の入り口付近に設置され、所定の回転半径を超える車両10が進入した場合に不図示の報知部から警告を発する構成を採用しても良い。あるいは本実施形態の車種判別システム1aは、不図示のゲートを閉鎖して車両10の通行を停止させる機能を付加した構成を採用しても良い。所定の回転半径の閾値は、記憶部90が記憶するとしても良い。このように構成することで、本実施形態の車種判別システム1aによれば、回転半径が大きく急なカーブを曲がることができない車両10が当該山道等に進入することを未然に防ぎ、危険を防止することができる。 The axle detection unit 95 of the vehicle type identification device 103 according to the present embodiment may further adopt a configuration in which the turning radius of the vehicle 10 is determined based on the number of axles and the distance between the axles. In this case, the vehicle type identification system 1a of the present embodiment is installed near the entrance of a mountain road or the like where there is a sharp curve, and issues a warning from a notification unit (not shown) when a vehicle 10 that exceeds a predetermined turning radius enters. A configuration may be adopted. Alternatively, the vehicle type identification system 1a of the present embodiment may be configured to add a function of closing a gate (not shown) to stop the passage of the vehicle 10. The storage unit 90 may store the threshold value of the predetermined turning radius. With this configuration, according to the vehicle type identification system 1a of the present embodiment, it is possible to prevent the vehicle 10 that has a large turning radius and cannot turn a sharp curve from entering the mountain road or the like, thereby preventing a danger. can do.

(実施形態2)
実施形態1の車種判別装置103では、カメラ101が撮像した画像から推定した車両10の車長にもとづいてリフレクタンス画像Gを正規化していたが、本実施形態の車種判別装置1103では、速度計104によって計測された車両10の速度に基づいて、リフレクタンス画像Gを正規化する。
(Embodiment 2)
In the vehicle type identification device 103 of the first embodiment, the reflectance image G is normalized based on the vehicle length of the vehicle 10 estimated from the image captured by the camera 101. However, in the vehicle type identification device 1103 of the present embodiment, the speedometer is used. The reflectance image G is normalized based on the speed of the vehicle 10 measured by 104.

図20は、本実施形態の車種判別システム1bの構成の一例を示す図である。図20に示すように、本実施形態の車種判別システム1bは、カメラ101と、レーザスキャナ102と、車種判別装置1103と、少なくとも1つの速度計104とを備えている。 FIG. 20 is a diagram showing an example of the configuration of the vehicle type identification system 1b of this embodiment. As shown in FIG. 20, the vehicle type identification system 1b of the present embodiment includes a camera 101, a laser scanner 102, a vehicle type identification device 1103, and at least one speedometer 104.

本実施形態のカメラ101とレーザスキャナ102は、図1で説明した実施形態1の構成と同様である。 The camera 101 and the laser scanner 102 of this embodiment have the same configuration as that of the first embodiment described with reference to FIG.

速度計104は、車両10の速度を測定する。例えば、図20に示すように、速度計104は、車両10が所定位置Tの直前の位置(符号10a)から、所定位置Tに進入する際(符号10b)の速度を測定する。速度計104は、測定した車両10の速度を車種判別装置1103に送信する。速度計104は、速度計測部の一例である。 The speedometer 104 measures the speed of the vehicle 10. For example, as shown in FIG. 20, the speedometer 104 measures the speed when the vehicle 10 enters the predetermined position T (reference numeral 10b) from the position immediately before the predetermined position T (reference numeral 10a). The speedometer 104 transmits the measured speed of the vehicle 10 to the vehicle type identification device 1103. The speedometer 104 is an example of a speed measuring unit.

車種判別装置1103は、車種判別処理を実行する電子計算機の一例である。車種判別装置1103は、カメラ101、レーザスキャナ102、および速度計104と電気的に接続されている。車種判別装置1103の設置場所は、図1で説明した車種判別装置103の設置場所と同様である。 The vehicle type identification device 1103 is an example of an electronic computer that executes vehicle type identification processing. The vehicle type identification device 1103 is electrically connected to the camera 101, the laser scanner 102, and the speedometer 104. The installation location of the vehicle type identification device 1103 is the same as the installation location of the vehicle type identification device 103 described in FIG.

図21は、本実施形態の車種判別装置1103の機能的構成の一例を示すブロック図である。図21に示すように、本実施形態の車種判別装置1103は、記憶部90と、取得部1091と、画像生成部1092と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96と、を備える。 FIG. 21 is a block diagram showing an example of the functional configuration of the vehicle type identification device 1103 of this embodiment. As shown in FIG. 21, the vehicle type identification device 1103 of this embodiment includes a storage unit 90, an acquisition unit 1091, an image generation unit 1092, a panoramic image estimation unit 93, an interpolation unit 94, and an axle detection unit 95. , And a determination unit 96.

本実施形態の記憶部90と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96は、図2で説明した実施形態1の構成と同様である。 The storage unit 90, the panoramic image estimation unit 93, the interpolation unit 94, the axle detection unit 95, and the determination unit 96 of this embodiment have the same configurations as those of the first embodiment described with reference to FIG.

本実施形態の取得部1091は、実施形態1の取得部91の機能に加えてさらに、速度計104から車両10の速度を取得する。取得部1091は、取得した速度を画像生成部1092に送出する。 The acquisition unit 1091 of the present embodiment acquires the speed of the vehicle 10 from the speedometer 104 in addition to the function of the acquisition unit 91 of the first embodiment. The acquisition unit 1091 sends the acquired speed to the image generation unit 1092.

画像生成部1092は、取得部1091から車両10の速度を取得する。画像生成部1092は車両10の速度に基づいて、リフレクタンス画像Gの正規化処理を行う。 The image generation unit 1092 acquires the speed of the vehicle 10 from the acquisition unit 1091. The image generation unit 1092 normalizes the reflectance image G based on the speed of the vehicle 10.

図8および図9で説明したように、車両10の速度が速いほど、リフレクタンス画像Gに含まれる車両10の画像の車長lは短くなる。すなわち、車両10の速度を計測することで、リフレクタンス画像Gに含まれる車両10の車長lの、車両10の実際の車長と比較した伸縮率を算出することができる。 As described with reference to FIGS. 8 and 9, as the speed of the vehicle 10 increases, the vehicle length l of the image of the vehicle 10 included in the reflectance image G decreases. That is, by measuring the speed of the vehicle 10, the expansion/contraction ratio of the vehicle length l of the vehicle 10 included in the reflectance image G compared with the actual vehicle length of the vehicle 10 can be calculated.

画像生成部1092は、車両10の速度からリフレクタンス画像Gの時間軸方向の伸縮率を算出し、算出結果に基づいてリフレクタンス画像Gの時間軸方向の長さを修正する。これによりリフレクタンス画像Gの縦横比は実際の車両10の縦横比となる。 The image generation unit 1092 calculates the expansion/contraction rate of the reflectance image G in the time axis direction from the speed of the vehicle 10, and corrects the length of the reflectance image G in the time axis direction based on the calculation result. As a result, the aspect ratio of the reflectance image G becomes the aspect ratio of the actual vehicle 10.

図22は、本実施形態の車種判別装置1103における正規化処理の一例を説明するための図である。図22は、正規化前のリフレクタンス画像Gにおける車両10の車長lおよび車軸位置のモデル500と、正規化後の車両10の車長Lおよび車軸位置のモデル501とを示す。画像生成部1092は、車両10の速度から算出した伸縮率から、車長lを車両10の実際の縦横比に即した車長Lにするための倍率を算出する。そして画像生成部1092は、モデル500〜501に示すように、算出結果の倍率に応じて正規化前のリフレクタンス画像Gの横幅を伸長することでリフレクタンス画像Gの正規化後を行う。 FIG. 22 is a diagram for explaining an example of normalization processing in the vehicle type identification device 1103 of this embodiment. FIG. 22 shows a model 500 of the vehicle length 1 and the axle position of the vehicle 10 in the reflectance image G before normalization, and a model 501 of the vehicle length L and the axle position of the vehicle 10 after normalization. The image generation unit 1092 calculates a scaling factor for making the vehicle length 1 the vehicle length L that matches the actual aspect ratio of the vehicle 10, from the expansion/contraction rate calculated from the speed of the vehicle 10. Then, as shown in models 500 to 501, the image generation unit 1092 expands the horizontal width of the reflectance image G before normalization in accordance with the magnification of the calculation result to perform the normalization of the reflectance image G.

また、車種判別システム1bは、一定距離間隔に配置した複数の速度計104を備える構成を採用しても良い。この場合、車両10が所定位置Tの通過中に速度を加減速したことを計測することができるため、図22のようにリフレクタンス画像G全体を同一の比で伸長するのではなく、速度変化に応じて一定領域ごとに伸長させる度合を変更することができる。また、実施形態1の正規化処理では、前輪と後輪の車軸の幅の変化から車両10の速度変化率を算出していたが、本実施形態の車種判別システム1bが一定距離間隔に配置した複数の速度計104を備える場合は、速度計104の計測結果に基づいて速度変化率を算出することができる。 Further, the vehicle type identification system 1b may employ a configuration including a plurality of speedometers 104 arranged at regular intervals. In this case, it is possible to measure that the vehicle 10 has accelerated or decelerated while passing through the predetermined position T. Therefore, the entire reflectance image G is not expanded at the same ratio as in FIG. 22, but is changed in speed. It is possible to change the degree of expansion for each certain area in accordance with. Further, in the normalization processing of the first embodiment, the speed change rate of the vehicle 10 is calculated from the change in the width of the axles of the front wheels and the rear wheels, but the vehicle type determination system 1b of the present embodiment is arranged at constant distance intervals. When a plurality of speedometers 104 are provided, the speed change rate can be calculated based on the measurement result of the speedometers 104.

以上のように構成された本実施形態の車種判別装置1103における車種判別処理の流れは図19で説明した実施形態1の車種判別処理の流れと同様であるが、S13の処理において取得部1091はさらに速度計104から車両10の速度を取得する。また、S15の処理において画像生成部1092は、取得部1091が取得した車両10の速度に基づいてリフレクタンス画像Gの正規化処理を行う。 The flow of the vehicle type determination process in the vehicle type determination device 1103 of the present embodiment configured as described above is the same as the flow of the vehicle type determination process of the first embodiment described in FIG. 19, but in the process of S13, the acquisition unit 1091 Further, the speed of the vehicle 10 is acquired from the speedometer 104. Further, in the process of S15, the image generation unit 1092 performs the normalization process of the reflectance image G based on the speed of the vehicle 10 acquired by the acquisition unit 1091.

このように、本実施形態の車種判別装置1103によれば、取得部1091は速度計104から車両10の速度を取得し、画像生成部1092は取得部1091が取得した車両10の速度に基づいて、リフレクタンス画像Gの正規化処理を行うため、実際の車両10の速度に即してリフレクタンス画像Gの伸縮を行うことができる。このため、本実施形態の車種判別装置1103によれば、より正確な正規化処理を行うことができ、その後の全景画像D2とのマッチング処理の精度を向上させることができる。すなわち、本実施形態の車種判別装置1103によれば、より高解像度な全景画像Aを生成することで、車軸の数および車軸間の距離の計測の精度を向上させ、より高精度な車種判別を行うことができる。 Thus, according to the vehicle type identification device 1103 of the present embodiment, the acquisition unit 1091 acquires the speed of the vehicle 10 from the speedometer 104, and the image generation unit 1092 is based on the speed of the vehicle 10 acquired by the acquisition unit 1091. Since the reflectance image G is normalized, the reflectance image G can be expanded or contracted according to the actual speed of the vehicle 10. Therefore, according to the vehicle type identification device 1103 of the present embodiment, more accurate normalization processing can be performed, and the accuracy of the subsequent matching processing with the panoramic image D2 can be improved. That is, according to the vehicle type identification device 1103 of the present embodiment, by generating a higher-resolution panoramic image A, the accuracy of measurement of the number of axles and the distance between the axles is improved, and more accurate vehicle type identification is performed. It can be carried out.

(実施形態3)
実施形態1の車種判別装置103では車両10の車種判別をしていたが、本実施形態の車種判別装置2103はさらに、車両10の車種区分または車種ごとの通行車両数をカウントする。
(Embodiment 3)
Although the vehicle type identification device 103 of the first embodiment determines the vehicle type of the vehicle 10, the vehicle type identification device 2103 of the present embodiment further counts the vehicle type classification of the vehicle 10 or the number of passing vehicles for each vehicle type.

本実施形態の車種判別システム1cは、カメラ101と、レーザスキャナ102と、車種判別装置2103とを備えている。 The vehicle type identification system 1c of this embodiment includes a camera 101, a laser scanner 102, and a vehicle type identification device 2103.

本実施形態のカメラ101とレーザスキャナ102は、図1で説明した実施形態1の構成と同様である。 The camera 101 and the laser scanner 102 of this embodiment have the same configuration as that of the first embodiment described with reference to FIG.

車種判別装置2103は、車種判別処理を実行する電子計算機の一例である。車種判別装置2103は、カメラ101、レーザスキャナ102と電気的に接続されている。車種判別装置2103の設置場所は、図1で説明した車種判別装置103の設置場所と同様である。 The vehicle type identification device 2103 is an example of an electronic computer that executes vehicle type identification processing. The vehicle type identification device 2103 is electrically connected to the camera 101 and the laser scanner 102. The installation location of the vehicle type identification device 2103 is the same as the installation location of the vehicle type identification device 103 described in FIG.

図23は、本実施形態の車種判別装置2103の機能的構成の一例を示すブロック図である。図23に示すように、本実施形態の車種判別装置2103は、記憶部90と、取得部91と、画像生成部92と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96と、カウンタ97と、を備える。 FIG. 23 is a block diagram showing an example of the functional configuration of the vehicle type identification device 2103 of this embodiment. As shown in FIG. 23, the vehicle type identification device 2103 according to the present embodiment includes a storage unit 90, an acquisition unit 91, an image generation unit 92, a panoramic image estimation unit 93, an interpolation unit 94, and an axle detection unit 95. The discriminating unit 96 and the counter 97 are provided.

本実施形態の記憶部90と、取得部91と、画像生成部92と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96は、図2で説明した実施形態1の構成と同様である。 The storage unit 90, the acquisition unit 91, the image generation unit 92, the panoramic image estimation unit 93, the interpolation unit 94, the axle detection unit 95, and the determination unit 96 according to the present embodiment are the same as those described in FIG. The configuration is the same as that of 1.

カウンタ97は、判別部96の車種判別結果を取得し、車種区分ごとまたは車種ごとの通行車両数を計数(カウント)する。カウンタ97は、車種区分または車種のいずれか一方の分類に基づいて通行車両数を計数しても良いし、両方の分類に基づいて計数しても良い。または、カウンタ97は、特定の車種区分または車種の車両10のみを計数する構成を採用しても良い。 The counter 97 acquires the vehicle type determination result of the determination unit 96 and counts the number of passing vehicles for each vehicle type classification or each vehicle type. The counter 97 may count the number of passing vehicles based on either the vehicle type classification or the vehicle type classification, or may count based on both the classifications. Alternatively, the counter 97 may be configured to count only the vehicles 10 of a specific vehicle type classification or vehicle type.

また、カウンタ97は、車両10の車種区分ごとまたは車種のカウント結果と、各車両10を計数した時刻を紐づける。カウンタ97は、所定の時間ごとに、車種区分ごとまたは車種ごとの通行車両数の合計値を算出する構成を採用しても良い。あるいは、カウンタ97は、1台の車両10を計数する度に、車種区分または車種と時刻との紐づけを行う構成を採用しても良い。 Further, the counter 97 associates the count result of each vehicle type or the vehicle type of the vehicle 10 with the time when each vehicle 10 is counted. The counter 97 may be configured to calculate a total value of the number of passing vehicles for each vehicle type classification or each vehicle type at predetermined time intervals. Alternatively, the counter 97 may employ a configuration in which the vehicle type classification or the vehicle type is associated with the time each time one vehicle 10 is counted.

カウンタ97は、カウント結果を不図示の外部装置へ出力する。あるいは、カウンタ97は、車種判別装置2103の不図示の表示部にカウント結果を表示する構成を採用しても良い。 The counter 97 outputs the count result to an external device (not shown). Alternatively, the counter 97 may be configured to display a count result on a display unit (not shown) of the vehicle type identification device 2103.

図24は、本実施形態の車種判別装置2103における車種区分別のカウント処理の一例について説明するための図である。車軸検出部95は全景画像Aから車軸の数および車軸の距離を計測し、判別部96は車種判別処理によって当該全景画像Aに該当する車両10が該当する車種区分を特定する。カウンタ97は、判別部96の判定結果を取得し、車種区分ごとの通行車両数をカウントする。 FIG. 24 is a diagram for explaining an example of a counting process for each vehicle type classification in the vehicle type determination device 2103 of the present embodiment. The axle detecting unit 95 measures the number of axles and the distance of the axles from the panoramic image A, and the discriminating unit 96 identifies the vehicle type category to which the vehicle 10 corresponding to the panoramic image A corresponds by the vehicle type discriminating process. The counter 97 acquires the determination result of the determination unit 96 and counts the number of passing vehicles for each vehicle type classification.

図25は、本実施形態の車種判別装置2103における車種区分別の時間当たりの通行車両数のカウント結果の一例を示すグラフである。図25の横軸は時間、縦軸は通行車両数を示す。図25の実線600は全車種を合計した通行車両数の値の推移を示し、破線601は車種区分が特大車の車両10の通行車両の値の推移を示す。一般に、貨物自動車等の特大車は深夜帯に走行することが多く、図25に示すように、全車種を合計した通行車両数と特大車の通行車両数のピークは異なる時間帯になる場合がある。全車種合計の通行車両数が同じであっても、特大車がより多く通行する場合は、道路がより混雑する可能性がある。本実施形態の車種判別装置2103では、カウンタ97が車種区分ごとに通行車両数をカウントすることで、全車種合計の通行車両数のみから道路混雑状況を把握する場合と比較して、より正確に道路混雑状況を把握することができる。 FIG. 25 is a graph showing an example of the counting result of the number of passing vehicles per hour by vehicle type classification in the vehicle type identification device 2103 of the present embodiment. In FIG. 25, the horizontal axis represents time and the vertical axis represents the number of passing vehicles. A solid line 600 in FIG. 25 indicates a change in the value of the number of passing vehicles that is the total of all vehicle types, and a broken line 601 indicates a change in the value of the passing vehicles of the vehicle 10 whose vehicle type classification is an oversized vehicle. In general, oversized vehicles such as lorries often travel in the middle of the night, and as shown in FIG. 25, the peaks of the total number of vehicles and the number of oversized vehicles may be in different time zones. is there. Even if the total number of passing vehicles is the same, the road may be more congested if more oversized vehicles pass. In the vehicle type discriminating apparatus 2103 of the present embodiment, the counter 97 counts the number of passing vehicles for each vehicle type classification, so that it is more accurate than when the road congestion situation is grasped only from the total number of passing vehicles of all vehicle types. It is possible to grasp the road congestion situation.

次に以上のように構成された本実施形態の車種判別処理の流れについて説明する。
図26は、本実施形態の車種判別装置2103における車種判別処理の手順の一例を示すフローチャートである。S20のカメラの撮像画像の取得から、S28の車種判別処理までは、図19で説明した実施形態1の車種判別処理のS10からS18までと同様に行われる。
Next, the flow of the vehicle type discrimination processing of the present embodiment configured as described above will be described.
FIG. 26 is a flow chart showing an example of the procedure of the vehicle type identification process in the vehicle type identification device 2103 of this embodiment. The process from the acquisition of the image captured by the camera in S20 to the vehicle type determination process in S28 is performed in the same manner as in S10 to S18 of the vehicle type determination process of the first embodiment described in FIG.

S28で判別部96が車種判別処理をしたら、S29で、カウンタ97は、判別部96が判別した車種区分または車種を取得し、車種区分ごとまたは車種ごとの通行車両数をカウントする。また、カウンタ97は、カウント結果とカウント時の時刻を紐づける。 When the determination unit 96 performs the vehicle type determination process in S28, the counter 97 acquires the vehicle type category or vehicle type determined by the determination unit 96 and counts the number of passing vehicles for each vehicle type category or vehicle type in S29. Further, the counter 97 associates the count result with the time at the time of counting.

S30で、判別部96は、車種判別処理の結果を不図示の外部装置に出力する。また、カウンタ97は、カウント結果およびカウント時の時刻を不図示の外部装置に出力する。 In S30, the determination unit 96 outputs the result of the vehicle type determination process to an external device (not shown). The counter 97 also outputs the count result and the time at the time of counting to an external device (not shown).

このように、本実施形態にかかる車種判別装置2103によれば、カウンタ97が車種区分ごとまたは車種ごとの通行車両数をカウントするため、車種区分ごとの通行車両数を計測することができる。このため、本実施形態にかかる車種判別装置2103によれば、全車種合計の通行車両数のみから道路混雑状況を把握する場合と比較して、より正確に道路混雑状況を把握することができる。 As described above, according to the vehicle type identification device 2103 according to the present embodiment, the counter 97 counts the number of passing vehicles for each vehicle type classification or each vehicle type, so that the number of passing vehicles for each vehicle type classification can be measured. Therefore, according to the vehicle type identification device 2103 according to the present embodiment, the road congestion state can be more accurately grasped as compared with the case where the road congestion state is grasped only from the total number of passing vehicles of all vehicle types.

さらに、本実施形態にかかる車種判別装置2103によれば、カウンタ97が各車両10の車種区分または車種ごとのカウント結果と、各車両10をカウントした時刻とを紐づけるため、時間あたりの車種区分ごとまたは車種ごとの通行車両数を計測することができる。 Further, according to the vehicle type identification device 2103 according to the present embodiment, the counter 97 associates the vehicle type classification of each vehicle 10 or the counting result for each vehicle type with the time when each vehicle 10 is counted, so that the vehicle type classification per hour is performed. It is possible to measure the number of passing vehicles for each vehicle type or vehicle type.

本実施形態の車種判別装置2103は、カウンタ97によるカウント結果およびカウント時の時刻を、例えば道路交通情報として提供することができる。図25で述べたように、時間当たりの車種区分ごとまたは車種ごとの通行車両数を用いることで、全車種合計の通行車両数から道路混雑状況を把握する場合と比較して、より正確な道路混雑状況を道路交通情報として提供することができる。本実施形態の車種判別システム1cを複数の道路に設置し、各設置場所における時間当たりの車種区分ごとまたは車種ごとの通行車両数をカウントすることで、さらに道路交通情報の精度を向上させ、より正確な渋滞予測を行うことができる。 The vehicle type identification device 2103 of the present embodiment can provide the count result by the counter 97 and the time at the time of count as, for example, road traffic information. As described with reference to FIG. 25, by using the number of passing vehicles for each vehicle type classification or each vehicle type per hour, more accurate roads can be obtained as compared with the case where the road congestion situation is grasped from the total number of passing vehicles of all vehicle types. The congestion status can be provided as road traffic information. By installing the vehicle type identification system 1c of the present embodiment on a plurality of roads and counting the number of passing vehicles for each vehicle type classification or vehicle type per hour at each installation location, the accuracy of road traffic information is further improved, and Accurate traffic congestion can be predicted.

また、車種判別システム1cの設置場所における時間当たりの車種区分ごとまたは車種ごとの通行車両数を、地図情報と統合しても良い。この場合、地図上で車種判別システム1cの設置場所に対応する各地点において、時間当たりの車種区分ごとまたは車種ごとの通行車両数を把握することができる。例えば、当該情報を特大車の運転手に提供することで、運転手はより正確な道路混雑状況を知ることができ、混雑した道路を避けて走行することが可能となる。 Further, the number of passing vehicles for each vehicle type classification per hour or for each vehicle type at the installation location of the vehicle type identification system 1c may be integrated with the map information. In this case, at each point corresponding to the installation location of the vehicle type identification system 1c on the map, it is possible to grasp the number of passing vehicles for each vehicle type category or each vehicle type per hour. For example, by providing the driver of the oversized vehicle with the information, the driver can know a more accurate road congestion situation and can drive while avoiding a congested road.

また、特定の道路において、車種区分が特大車の車両10が全く走行してない場合は、当該道路は道幅が狭いなどの理由によって特大車が走行できない可能性がある。この場合は、特大車の運転手は、車種区分ごとの通行車両数を知ることによって当該道路を避けて走行することが可能となる。すなわち、本実施形態の車種判別システム1cによれば、運転手が適切な道のりを選択するための支援を行うことができる。カウント結果と地図情報との統合は、不図示の外部装置で行う構成を採用しても良いし、車種判別装置2103がさらに地図情報を取得し、統合処理を行う構成を採用しても良い。 In addition, when the vehicle 10 of the oversized vehicle type is not traveling on the specific road at all, there is a possibility that the oversized vehicle cannot travel due to a narrow road width or the like. In this case, the driver of the oversized vehicle can avoid the road and travel by knowing the number of passing vehicles for each vehicle type category. That is, according to the vehicle type identification system 1c of the present embodiment, the driver can be assisted to select an appropriate route. The integration of the count result and the map information may be performed by an external device (not shown), or the vehicle type identification device 2103 may further acquire the map information and perform an integration process.

また、一般に、特大車の通行は道路へ与える負荷が他の車種区分の車両10の通行と比較して高い。本実施形態にかかる車種判別装置2103によれば、特定の車種区分の通行車両数を把握することができるため、道路への負荷状況の分析にも利用することができる。例えば、車種判別装置2103の出力結果は、特大車が多く通行する道路のメンテナンスを特大車がより少なく通行する道路と比較して高い頻度で実施するよう、メンテナンス時期の算出に利用することができる。 In addition, oversized vehicles generally have a higher load on the road than vehicles 10 of other vehicle categories. According to the vehicle type identification device 2103 of the present embodiment, it is possible to grasp the number of passing vehicles in a specific vehicle type section, and therefore it can be used for analysis of the load condition on the road. For example, the output result of the vehicle type identification device 2103 can be used for calculation of the maintenance time so that the maintenance of the road on which many oversized vehicles pass is performed more frequently than the road on which less oversized vehicles pass. ..

(実施形態4)
実施形態1の車種判別装置103では、車両10の車種判別をしていたが、本実施形態の車種判別装置3103はさらに、重量測定器105a〜105cによって車両10の重量を計測する。
(Embodiment 4)
Although the vehicle type identification device 103 of the first embodiment determines the vehicle type of the vehicle 10, the vehicle type identification device 3103 of the present embodiment further measures the weight of the vehicle 10 by the weight measuring devices 105a to 105c.

図27は、本実施形態の車種判別システム1dの構成の一例を示す図である。図27に示すように、本実施形態の車種判別システム1dは、カメラ101と、レーザスキャナ102と、車種判別装置3103と、重量測定器105a〜105cとを備えている。 FIG. 27: is a figure which shows an example of a structure of the vehicle type discrimination system 1d of this embodiment. As shown in FIG. 27, the vehicle type identification system 1d of the present embodiment includes a camera 101, a laser scanner 102, a vehicle type identification device 3103, and weight measuring devices 105a to 105c.

本実施形態のカメラ101とレーザスキャナ102は、図1で説明した実施形態1の構成と同様である。 The camera 101 and the laser scanner 102 of this embodiment have the same configuration as that of the first embodiment described with reference to FIG.

図27では車種判別システム1dは、重量測定器105a〜105cの3台の重量測定器を備えているが、これは一例であり、車種判別システム1dは、少なくとも1つの重量測定器105を備えれば良い。ここで、重量測定器105は重量測定器105a〜105cの総称とする。重量測定器105は、所定位置Tの道路(車両通行路)に設置され、車両10の車軸が重量測定器105上を通過する際に、車両10の重量を計測する。重量測定器105は、道路上に設置された板状の装置であっても良く、または道路に埋め込まれる等の構成を採用しても良い。重量測定器105は、測定した車両10の重量を、車種判別装置3103に送信する。重量測定器105は重量測定部の一例である。 In FIG. 27, the vehicle type identification system 1d includes three weight measuring devices 105a to 105c, but this is an example, and the vehicle type identification system 1d includes at least one weight measuring device 105. Good. Here, the weight measuring device 105 is a general term for the weight measuring devices 105a to 105c. The weight measuring device 105 is installed on a road (vehicle passage) at a predetermined position T, and measures the weight of the vehicle 10 when the axle of the vehicle 10 passes over the weight measuring device 105. The weight measuring device 105 may be a plate-like device installed on the road, or may be embedded in the road. The weight measuring device 105 transmits the measured weight of the vehicle 10 to the vehicle type identification device 3103. The weight measuring device 105 is an example of a weight measuring unit.

図27の重量測定器105bのように、重量測定器105は少なくとも1台がレーザスキャナ102の正面の位置に設置されることが望ましい。また、車両10の揺れによる計測される重量の値の変動があるため、図27の重量測定器105a〜105cのように複数台で計測するとより正確な重量を測定することができる。重量測定器105a〜105cのいずれかが故障した場合には、重量測定器105a〜105cのうち正常に稼働しているものの計測値を採用し、車種判別システム1dの稼働を継続できる構成を採用しても良い。 At least one weight measuring device 105 is preferably installed in front of the laser scanner 102 like the weight measuring device 105b in FIG. Further, since there is a change in the value of the measured weight due to the shaking of the vehicle 10, more accurate weight can be measured by measuring with a plurality of weight measuring devices 105a to 105c in FIG. When any of the weight measuring devices 105a to 105c fails, the measurement value of the weight measuring device 105a to 105c that is operating normally is adopted, and the configuration for continuing the operation of the vehicle type identification system 1d is adopted. May be.

重量測定器105がレーザスキャナ102の正面の位置に設置されることが望ましい理由を、図28および図29を用いて説明する。 The reason why it is desirable to install the weight measuring device 105 in the front position of the laser scanner 102 will be described with reference to FIGS. 28 and 29.

図28は、本実施形態のカメラ101が連続して撮像した複数の静止画像の一例を示す図である。カメラ101は連続する画像1200〜1203を、それぞれ時刻t0〜t3の時点で撮像したものとする。このとき、車両10がカメラ101の視野内に進入した時刻および退出した時刻は取得できるが、時刻t0〜t3の間の任意の時刻における車両10の正確な位置を検出することは困難である。 FIG. 28 is a diagram showing an example of a plurality of still images continuously captured by the camera 101 of the present embodiment. It is assumed that the camera 101 images the continuous images 1200 to 1203 at times t0 to t3, respectively. At this time, the time when the vehicle 10 enters and leaves the field of view of the camera 101 can be acquired, but it is difficult to detect the accurate position of the vehicle 10 at any time between times t0 and t3.

それに対して、レーザスキャナ102は、カメラ101よりも短い周期で車両10の位置情報を取得しているため、各車軸がレーザスキャナ102の目前を通過した時刻を取得することができる。
図29は、本実施形態のレーザスキャナ102の検出結果の一例を示す図である。図29に示すように、レーザスキャナ102が車両10を走査して取得した距離情報から生成された点群データgは、車軸701を含む。また、符号702に示すように、重量測定器105bは、時刻t1の時点で車両10の重量を測定している。
On the other hand, since the laser scanner 102 acquires the position information of the vehicle 10 in a shorter cycle than the camera 101, it is possible to acquire the time when each axle passes in front of the laser scanner 102.
FIG. 29 is a diagram showing an example of the detection result of the laser scanner 102 of this embodiment. As shown in FIG. 29, the point cloud data g generated from the distance information acquired by the laser scanner 102 scanning the vehicle 10 includes an axle 701. Further, as indicated by reference numeral 702, the weight measuring device 105b measures the weight of the vehicle 10 at time t1.

図27に示すようにレーザスキャナ102の正面の位置に重量測定器105bを設置した場合、レーザスキャナ102の目前を車両10の車軸が通過する時刻t1と、重量測定器105bが車軸の重量を測定した時刻t1とがほぼ同時になる。このため、図29に示す車軸701をレーザスキャナ102が走査した時刻t1と、重量測定器105bが車軸701の重量を測定した時刻t1とを同期させることにより、重量測定器105bが重量を計測した車軸701が、レーザスキャナ102が走査した車軸701であることが特定できる。以上の理由により、重量測定器105は少なくとも1台がレーザスキャナ102の正面の位置に設置されることが望ましい。 When the weight measuring device 105b is installed in the front position of the laser scanner 102 as shown in FIG. 27, the time t1 when the axle of the vehicle 10 passes in front of the laser scanner 102 and the weight measuring device 105b measures the weight of the axle. The time t1 is almost the same time. Therefore, the weight measuring instrument 105b measures the weight by synchronizing the time t1 when the laser scanner 102 scans the axle 701 shown in FIG. 29 with the time t1 when the weight measuring instrument 105b measures the weight of the axle 701. It can be specified that the axle 701 is the axle 701 scanned by the laser scanner 102. For the above reasons, it is desirable that at least one weight measuring device 105 is installed in a position in front of the laser scanner 102.

図27に戻り、車種判別装置3103は、車種判別処理を実行する電子計算機の一例である。車種判別装置3103は、カメラ101、レーザスキャナ102、および重量測定器105a〜105cと電気的に接続されている。車種判別装置3103の設置場所は、図1で説明した車種判別装置103の設置場所と同様である。 Returning to FIG. 27, the vehicle type identification device 3103 is an example of an electronic computer that executes vehicle type identification processing. The vehicle type identification device 3103 is electrically connected to the camera 101, the laser scanner 102, and the weight measuring devices 105a to 105c. The installation location of the vehicle type identification device 3103 is the same as the installation location of the vehicle type identification device 103 described in FIG.

図30は、本実施形態の車種判別装置3103の機能的構成の一例を示すブロック図である。図30に示すように、本実施形態の車種判別装置3103は、記憶部1090と、取得部2091と、画像生成部92と、全景画像推定部93と、補間部94と、車軸検出部1095と、判別部1096と、車軸別重量計測部98と、過積載判定部99と、を備える。 FIG. 30 is a block diagram showing an example of the functional configuration of the vehicle type identification device 3103 of this embodiment. As shown in FIG. 30, the vehicle type identification device 3103 according to the present embodiment includes a storage unit 1090, an acquisition unit 2091, an image generation unit 92, a panoramic image estimation unit 93, an interpolation unit 94, and an axle detection unit 1095. A determination unit 1096, an axle weight measurement unit 98, and an overload determination unit 99 are provided.

本実施形態の画像生成部92と、全景画像推定部93と、補間部94は、図2で説明した実施形態1の構成と同様である。 The image generation unit 92, the panoramic image estimation unit 93, and the interpolation unit 94 of the present embodiment have the same configurations as those of the first embodiment described with reference to FIG.

本実施形態の記憶部1090は、実施形態1の記憶部90の記憶内容に加えてさらに、車種区分ごとまたは車種ごとの荷積載量の重量の上限値に、当該車種区分または車種の車体の想定される重量の上限値を加算した重量である過積載基準値を記憶する。また、記憶部1090はさらに、車種区分ごとまたは車種ごとに、1車軸あたりが安全に支えられる重量の上限値である限界重量を記憶する。限界重量は車軸の大きさに応じて異なる値が定義されるものとしても良い。上記の過積載基準値および限界重量の算出方法は一例であり、これに限定されない。 In addition to the stored contents of the storage unit 90 of the first embodiment, the storage unit 1090 of the present embodiment further assumes an upper limit value of the weight of the loaded load for each vehicle type category or vehicle type, and the assumption of the vehicle body of the vehicle type category or vehicle type. The overload reference value, which is the weight obtained by adding the upper limit of the weight, is stored. In addition, the storage unit 1090 further stores a limit weight, which is an upper limit value of the weight per axle that can be safely supported, for each vehicle type classification or vehicle type. Different values may be defined for the limit weight depending on the size of the axle. The method for calculating the overload reference value and the limit weight described above is an example, and the present invention is not limited to this.

本実施形態の取得部2091は、実施形態1の取得部91の機能に加えてさらに、重量測定器105a〜105cから車両10の重量と、車両10の重量を測定した時刻とを取得する。取得部2091は、取得した重量を車軸別重量計測部98に送出する。 In addition to the function of the acquisition unit 91 of the first embodiment, the acquisition unit 2091 of the present embodiment further acquires the weight of the vehicle 10 and the time when the weight of the vehicle 10 was measured from the weight measuring devices 105a to 105c. The acquisition unit 2091 sends the acquired weight to the axle-by-axle weight measurement unit 98.

車軸検出部1095は、点群データgによって補間された全景画像Aから車軸を検出する際、各車軸に対応する検出点pがレーザスキャナ102よって検出された時刻と、各車軸とを紐づける。車軸検出部1095は、車軸の数および車軸間の距離に加え、各車軸がレーザスキャナ102よって走査された時刻を車軸別重量計測部98に送出する。各車軸が走査された時刻と各車軸の検出結果の紐づけ方法はこれに限定されず、点群データgまたはリフレクタンス画像Gを用いる構成を採用しても良い。 When detecting an axle from the panoramic image A interpolated by the point cloud data g, the axle detection unit 1095 associates each axle with the time when the detection point p corresponding to each axle was detected by the laser scanner 102. In addition to the number of axles and the distance between the axles, the axle detection unit 1095 sends the time when each axle was scanned by the laser scanner 102 to the axle-by-axle weight measurement unit 98. The method of associating the time when each axle is scanned with the detection result of each axle is not limited to this, and a configuration using the point cloud data g or the reflectance image G may be adopted.

車軸別重量計測部98は、車軸検出部1095から車軸の数と車軸間の距離、および各車軸がレーザスキャナ102よって走査された時刻を取得する。また、車軸別重量計測部98は、取得部2091が重量測定器105a〜105cから取得した車両10の重量、および車両10の重量を測定した時刻を、取得部2091から取得する。車軸別重量計測部98は、車軸検出部1095から取得した車軸の数と車軸間の距離および各車軸がレーザスキャナ102よって走査された時刻と、取得部2091が取得した車両10の重量および車両10の重量を測定した時刻と、を照合することによって、車軸ごとの重量を計測する。 The axle-by-axle weight measuring unit 98 acquires the number of axles, the distance between the axles, and the time when each axle is scanned by the laser scanner 102 from the axle detecting unit 1095. The axle-by-axle weight measuring unit 98 also acquires, from the acquiring unit 2091, the weight of the vehicle 10 acquired by the acquiring unit 2091 from the weight measuring devices 105a to 105c and the time at which the weight of the vehicle 10 was measured. The axle-by-axle weight measurement unit 98 includes the number of axles acquired from the axle detection unit 1095, the distance between the axles, the time when each axle is scanned by the laser scanner 102, the weight of the vehicle 10 acquired by the acquisition unit 2091, and the vehicle 10. The weight of each axle is measured by comparing with the time when the weight of the vehicle is measured.

ここで、図16および図17で述べたように、車両10は、リフトアクスル機能によって一部の車軸を路面から浮かせることがある。図16および図17に示す路面400から、リフトした車軸の高さの下限401までの間は空間がある。しかしながら、路面400から、リフトした車軸の高さの下限401までの距離の具体的な基準は決められていない。このため、路面400から、リフトした車軸の高さの下限401までの距離が非常に短くなり、全景画像A等の車両10の形状情報からは車軸が路面400から浮いていることを判断することが困難な場合がある。この場合、実際には車両10の一部の車軸が路面400から浮いているにも関わらず、車軸検出部1095は浮いている車軸も路面400に接地した車軸として判断する可能性がある。 Here, as described with reference to FIGS. 16 and 17, the vehicle 10 may cause some axles to float from the road surface by the lift axle function. There is a space from the road surface 400 shown in FIGS. 16 and 17 to a lower limit 401 of the height of the lifted axle. However, there is no specific standard for the distance from the road surface 400 to the lower limit 401 of the height of the lifted axle. Therefore, the distance from the road surface 400 to the lower limit 401 of the height of the lifted axle becomes extremely short, and it is judged from the shape information of the vehicle 10 such as the panoramic image A that the axle is floating above the road surface 400. Can be difficult. In this case, although the axle of part of the vehicle 10 is actually floating from the road surface 400, the axle detection unit 1095 may determine that the floating axle is also an axle that is in contact with the road surface 400.

そこで、本実施形態の車軸別重量計測部98は、車両10の車軸ごとの重量の計測結果から、各車軸が路面から浮いているか否かを判断する。すなわち、車軸別重量計測部98は、車軸検出部1095が路面に接地した車軸であると判断した場合であっても、当該車軸の重量を重量測定器105a〜105cが測定していない場合、実際には路面から浮いた車軸であると判定する。 Therefore, the axle-by-axle weight measuring unit 98 of the present embodiment determines whether or not each axle is floating from the road surface based on the measurement result of the weight of each axle of the vehicle 10. That is, even if the axle-by-axle weight measuring unit 98 determines that the axle detecting unit 1095 is an axle that is grounded on the road surface, if the weight measuring devices 105a to 105c do not measure the weight of the axle, it is actually Is determined to be an axle that floats from the road surface.

車軸別重量計測部98は、車軸が路面から浮いていると判断した場合、当該路面から浮いている車軸を除いた車軸の数および車軸間の距離を再度計測する。 When it is determined that the axle is floating above the road surface, the axle-by-axle weight measuring unit 98 again measures the number of axles and the distance between the axles excluding the axles floating above the road surface.

車軸別重量計測部98は、計測した車両10の車軸の数と車軸間の距離を、判別部1096に送出する。車軸が路面から浮いている車軸がない場合は、車軸別重量計測部98は、車軸検出部1095が計測した車軸の数と車軸間の距離を判別部1096に送出する。また、車軸別重量計測部98は、車両10の車軸ごとの重量を過積載判定部99に送出する。 The axle weight measuring unit 98 sends the measured number of axles of the vehicle 10 and the distance between the axles to the determining unit 1096. If there is no axle that is floating above the road surface, the axle weight measuring unit 98 sends the number of axles measured by the axle detecting unit 1095 and the distance between the axles to the determining unit 1096. The axle-by-axle weight measuring unit 98 also sends the weight of each axle of the vehicle 10 to the overload determining unit 99.

図30に戻り、判別部1096は、車軸別重量計測部98が計測した車軸の数および車軸間の距離に基づいて、車両10の車種区分および車種を判別する。判別部1096は図18で説明した実施形態1の判別部96と同様に、車種判別情報20に定義された基準に基づいて車種判別処理を行う。判別部1096は、車種判別処理の結果を、過積載判定部99に送出する。 Returning to FIG. 30, the determination unit 1096 determines the vehicle type classification and vehicle type of the vehicle 10 based on the number of axles and the distance between the axles measured by the axle weight measurement unit 98. The determination unit 1096 performs the vehicle type determination process based on the criteria defined in the vehicle type determination information 20, similarly to the determination unit 96 of the first embodiment described in FIG. The determination unit 1096 sends the result of the vehicle type determination process to the overload determination unit 99.

図30に戻り、過積載判定部99は、判別部1096から車種判別処理の結果を取得する。また、過積載判定部99は、車軸別重量計測部98から車両10の車軸ごとの重量を取得する。過積載判定部99は、判別部1096の車種判別結果と、車両10の重量とに基づいて、車両10が過積載か否か判定する。 Returning to FIG. 30, the overload determination unit 99 acquires the result of the vehicle type determination processing from the determination unit 1096. Further, the overload determination unit 99 acquires the weight of each axle of the vehicle 10 from the axle weight measurement unit 98. The overload determination unit 99 determines whether the vehicle 10 is overloaded based on the vehicle type determination result of the determination unit 1096 and the weight of the vehicle 10.

具体的には、過積載判定部99は、記憶部1090から、判別部1096の車種判別結果の車種区分または車種に合致する過積載基準値を取得し、車両10の重量と比較する。すなわち、過積載判定部99は、取得部2091が取得した車両10の重量が、判別部1096が判別した車両10の車種区分または車種に定められた過積載基準値を超えていると判断した場合に、車両10を過積載と判定する。あるいは、過積載判定部99は、過積載基準値に達していなくとも、一定以上過積載基準値に近接した重量の車両10も判定対象とする構成を採用しても良い。 Specifically, the overload determination unit 99 acquires, from the storage unit 1090, an overload reference value that matches the vehicle type classification or the vehicle type of the vehicle type determination result of the determination unit 1096, and compares it with the weight of the vehicle 10. That is, when the overload determination unit 99 determines that the weight of the vehicle 10 acquired by the acquisition unit 2091 exceeds the overload reference value set for the vehicle type classification or vehicle type of the vehicle 10 determined by the determination unit 1096. First, it is determined that the vehicle 10 is overloaded. Alternatively, the overload determination unit 99 may adopt a configuration in which the vehicle 10 having a weight that is close to the overload reference value for a certain amount or more even if the overload reference value has not reached the overload reference value.

また、過積載判定部99は、判別部1096から取得した車種判別結果と、車軸別重量計測部98から取得した車両10の車軸ごとの重量に基づいて、車軸別重量計測部98が計測した車両10の車軸ごとの重量が、車軸ごとの重量の上限値である限界重量に達しているか否かを判定する。 Further, the overload determination unit 99 measures the vehicle type measured by the axle weight measurement unit 98 based on the vehicle type determination result acquired from the determination unit 1096 and the weight for each axle of the vehicle 10 acquired from the axle weight measurement unit 98. It is determined whether the weight of each axle 10 has reached the limit weight, which is the upper limit of the weight of each axle.

具体的には、過積載判定部99は、記憶部1090から、判別部1096の車種判別結果の車種区分または車種に合致する限界重量を取得し、車両10の各車軸の重量と比較することで、車両10の各車軸の重量が限界重量に達しているか否かを判定する。また、過積載判定部99は、車両10の各車軸の重量が限界重量に達していない場合でも、各車軸の重量の差が著しい場合には判定対象とする構成を採用しても良い。各車軸の重量の差の閾値は、所定の重量差として記憶部1090が記憶する構成を採用しても良い。 Specifically, the overload determination unit 99 obtains from the storage unit 1090 the limit weight that matches the vehicle type classification or vehicle type of the vehicle type determination result of the determination unit 1096, and compares it with the weight of each axle of the vehicle 10. , It is determined whether or not the weight of each axle of the vehicle 10 has reached the limit weight. Further, the overload determination unit 99 may adopt a configuration to be a determination target even when the weight of each axle of the vehicle 10 does not reach the limit weight, when the difference in weight of each axle is significant. The threshold value of the weight difference between the axles may be stored in the storage unit 1090 as a predetermined weight difference.

また、過積載判定部99は、図15で述べたように車軸検出部95が測定した車軸の大きさ(直径)を取得しても良い。その場合、記憶部1090から車種区分または車種ごとに、さらに車軸の大きさに応じて定義された限界重量を取得して、車軸ごとの重量が限界重量に達しているかを判定する。 Further, the overload determination unit 99 may acquire the size (diameter) of the axle measured by the axle detection unit 95 as described in FIG. In that case, the limit weight defined according to the size of the axle is acquired for each vehicle type classification or vehicle type from the storage unit 1090, and it is determined whether the weight for each axle reaches the limit weight.

過積載判定部99は、過積載判定結果、各車軸が限界重量に達しているか否かの判定結果、および車軸ごとの重量計測結果を不図示の外部装置に出力する。あるいは、過積載判定部99は、車両10が過積載である場合や、いずれかの車軸が限界重量に達している場合に、不図示の報知部に信号を送出して警報を発する構成を採用しても良い。また、車軸ごとの重量計測結果は車軸別重量計測部98が直接、不図示の外部装置に出力する構成を採用しても良い。 The overload determination unit 99 outputs an overload determination result, a determination result of whether or not each axle has reached a limit weight, and a weight measurement result for each axle to an external device (not shown). Alternatively, the overload determination unit 99 employs a configuration that sends a signal to a not-shown notifying unit to issue an alarm when the vehicle 10 is overloaded or when one of the axles reaches the limit weight. You may do it. Further, the weight measurement result for each axle may be directly output by the axle weight measurement unit 98 to an external device (not shown).

図31は、本実施形態の車種判別装置3103における車軸ごとの重量分析の一例を示す図である。図31に示すように、車両10の全景画像Aには、車両10の前輪にあたる車軸801と、後輪にあたる車軸802が含まれる。図31の下部の図は、車軸別重量計測部98による車軸ごとの重量計測結果を示す。車軸801の下に位置する矩形803は車軸801の重量、車軸802の下に位置する矩形804は車軸802の重量をそれぞれ示している。重量測定器105a〜105cによる計測結果の差異がある場合は、矩形803〜804の底辺が最も軽く計測された重量の値、矩形803〜804の上側の辺が最も重く計測された重量の値を示す。 FIG. 31 is a diagram showing an example of weight analysis for each axle in the vehicle type identification device 3103 of the present embodiment. As shown in FIG. 31, the panoramic image A of the vehicle 10 includes an axle 801 which is a front wheel of the vehicle 10 and an axle 802 which is a rear wheel of the vehicle 10. The lower part of FIG. 31 shows the weight measurement result for each axle by the axle-by-axle weight measurement unit 98. A rectangle 803 below the axle 801 shows the weight of the axle 801 and a rectangle 804 below the axle 802 shows the weight of the axle 802, respectively. When there is a difference in the measurement results by the weight measuring devices 105a to 105c, the weight value measured at the bottom of the rectangles 803 to 804 is the lightest, and the weight value measured at the upper side of the rectangles 803 to 804 is the heaviest. Show.

図31に示すように、車両10の前輪にあたる車軸801の重量は限界重量に達していない。しかしながら、車両10の後輪にあたる車軸802の重量は限界重量に達していることがわかる。 As shown in FIG. 31, the weight of the axle 801 corresponding to the front wheels of the vehicle 10 has not reached the limit weight. However, it is understood that the weight of the axle 802, which is the rear wheel of the vehicle 10, has reached the limit weight.

次に以上のように構成された本実施形態の車種判別処理の流れについて説明する。図32は、本実施形態の車種判別装置3103における車種判別処理の手順の一例を示すフローチャートである。S40のカメラの撮像画像の取得から、S47の車軸の検出までは、図19で説明した実施形態1の車種判別処理のS10からS17までと同様に行われる。 Next, the flow of the vehicle type discrimination processing of the present embodiment configured as described above will be described. FIG. 32 is a flow chart showing an example of the procedure of the vehicle type identification process in the vehicle type identification device 3103 of this embodiment. The process from acquisition of the image captured by the camera in S40 to detection of the axle in S47 is performed in the same manner as in S10 to S17 of the vehicle type determination process of the first embodiment described in FIG.

S47で車軸検出部1095が車軸の数および車軸間の距離を計測したら、S48で、取得部2091は、重量測定器105a〜105cから車両10の重量と、車両10の重量を測定した時刻とを取得し、車軸別重量計測部98に送出する。 After the axle detection unit 1095 measures the number of axles and the distance between the axles in S47, the acquisition unit 2091 determines the weight of the vehicle 10 from the weight measuring devices 105a to 105c and the time at which the weight of the vehicle 10 is measured in S48. It is acquired and sent to the axle-by-axle weight measuring unit 98.

S49で、車軸別重量計測部98は、取得部2091から取得した車両10の重量と、車両10の重量を測定した時刻と、車軸検出部1095から取得した車軸検出結果とを照合する。 In S49, the axle weight measurement unit 98 collates the weight of the vehicle 10 acquired from the acquisition unit 2091, the time when the weight of the vehicle 10 was measured, and the axle detection result acquired from the axle detection unit 1095.

S50で、車軸別重量計測部98は、車軸ごとの重量を計測する。また、車軸別重量計測部98は、路面から浮いている車軸を検出した場合には、当該車軸を除いた車軸の数および車軸間の距離を計測する。 In S50, the axle weight measuring unit 98 measures the weight of each axle. Further, when the axle-by-axle weight measuring unit 98 detects an axle that is floating from the road surface, it measures the number of axles and the distance between the axles excluding the axle.

S51で、判別部1096は、車軸別重量計測部98から取得した車軸の数と車軸間の距離の計測結果に基づいて、車両10の車種区分および車種を判別する。 In S51, the determination unit 1096 determines the vehicle type classification and vehicle type of the vehicle 10 based on the number of axles acquired from the axle weight measurement unit 98 and the measurement result of the distance between the axles.

S52で、過積載判定部99は、車両10が過積載であるか否かの判定をする。また、過積載判定部99は、各車軸の重量が限界重量に達しているか否かを判定する。 In S52, the overload determination unit 99 determines whether the vehicle 10 is overloaded. Further, the overload determination unit 99 determines whether or not the weight of each axle has reached the limit weight.

S53で、判別部1096は、車種判別結果を不図示の外部装置に出力する。また、過積載判定部99は、過積載判定結果、各車軸が限界重量に達しているか否かの判定結果、および車軸ごとの重量計測結果を不図示の外部装置に出力する。 In S53, the determination unit 1096 outputs the vehicle type determination result to an external device (not shown). Further, the overload determination unit 99 outputs the overload determination result, the determination result of whether or not each axle has reached the limit weight, and the weight measurement result for each axle to an external device (not shown).

このように、本実施形態の車種判別装置3103によれば、取得部2091が重量測定器105a〜105cから車両10の重量を取得し、過積載判定部99が、判別部1096の車種判別結果と、車両10の重量とに基づいて、車両10が過積載か否か判定するため、過積載の車両10を効率よく判定することができる。車種区分および車種によって、重量の上限値は当然に異なるが、本実施形態の車種判別装置3103によれば、判別部1096が車種区分および車種を判定した後に、過積載判定部99が過積載の判定を行うことで、過積載か否かの判定を適切に行うことができる。 As described above, according to the vehicle type identification device 3103 of the present embodiment, the acquisition unit 2091 acquires the weight of the vehicle 10 from the weight measuring devices 105a to 105c, and the overload determination unit 99 determines the vehicle type determination result of the determination unit 1096. Since it is determined whether the vehicle 10 is overloaded based on the weight of the vehicle 10, the overloaded vehicle 10 can be efficiently determined. Although the upper limit value of the weight naturally varies depending on the vehicle type classification and the vehicle type, according to the vehicle type determination device 3103 of the present embodiment, the overload determination unit 99 determines that the overloading is overloaded after the determination unit 1096 determines the vehicle type classification and the vehicle type. By performing the determination, it is possible to appropriately determine whether or not the overloading is performed.

また、本実施形態の車種判別装置3103によれば、取得部2091が、重量測定器105a〜105cから、車両10の重量と、車両10の重量を測定した時刻とを取得し、車軸別重量計測部98が、車両10の重量と車両10の重量を測定した時刻とを、車軸検出部1095の車軸検出結果と照合することによって、車軸ごとの重量を計測するため、車軸ごとにかかる負荷を把握することができる。このため、本実施形態の車種判別装置3103によれば、積荷の全体の積載量は基準内であっても走行上危険な状態にある車両10や、積荷の積載バランスが悪い車両10を判定することができる。 Further, according to the vehicle type identification device 3103 of the present embodiment, the acquisition unit 2091 acquires the weight of the vehicle 10 and the time when the weight of the vehicle 10 is measured from the weight measuring devices 105a to 105c, and measures the weight by axle. The unit 98 collates the weight of the vehicle 10 and the time when the weight of the vehicle 10 is measured with the axle detection result of the axle detection unit 1095 to measure the weight of each axle, and thus the load applied to each axle is grasped. can do. Therefore, according to the vehicle type identification device 3103 of the present embodiment, the vehicle 10 that is in a dangerous traveling state even if the total load capacity of the load is within the standard, or the vehicle 10 that has a bad load balance of the load is determined. be able to.

さらに、本実施形態の車種判別装置3103によれば、車軸別重量計測部98が、車軸の重量の計測結果から、車軸が路面から浮いているか否かを判定して、路面から浮いている車軸を除いた車軸の数および車軸間の距離を計測し、判別部1096が、車軸別重量計測部98の計測結果に基づいて車両10の車種区分および車種を判別するため、車両10のリフトアクスル機能によってリフトした車軸と路面からの距離がわずかであっても、車種区分および車種の判定を高精度に行うことができる。 Further, according to the vehicle type identification device 3103 of the present embodiment, the axle-by-axle weight measuring unit 98 determines whether or not the axle is floating from the road surface based on the weight measurement result of the axle, and the axle that is floating from the road surface. The lift axle function of the vehicle 10 in order to measure the number of axles and the distance between the axles, and the determination unit 1096 determines the vehicle type classification and vehicle type of the vehicle 10 based on the measurement result of the axle weight measurement unit 98. Thus, even if the distance between the lifted axle and the road surface is small, the vehicle type classification and the vehicle type determination can be performed with high accuracy.

以上説明したとおり、実施形態1から実施形態4の車種判別システム1a〜1dおよび車種判別装置103〜3103によれば、車両10の車種区分および車種の判定の精度を向上させることができる。 As described above, according to the vehicle type identification systems 1a to 1d and the vehicle type identification devices 103 to 3103 of the first to fourth embodiments, it is possible to improve the accuracy of the vehicle type classification of the vehicle 10 and the determination of the vehicle type.

上記実施形態1〜4の車種判別装置103〜3103は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)等を備えた通常のコンピュータのハードウェア構成となっている。 The vehicle type identification devices 103 to 3103 of the above-described first to fourth embodiments are ordinary computers including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), and the like. It has a hardware configuration.

また、上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別処理は、ROM等に予め組み込まれた車種判別プログラムとしてコンピュータプログラムプロダクトとして提供される。上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供するように構成しても良い。 In addition, the vehicle type identification processing executed by the vehicle type identification devices 103 to 3103 of the above-described first to fourth embodiments is provided as a computer program product as a vehicle type identification program preinstalled in a ROM or the like. The vehicle type discriminating program executed by the vehicle type discriminating apparatuses 103 to 3103 according to the first to fourth exemplary embodiments is a CD-ROM, a flexible disk (FD), a CD-R, a DVD (a file in an installable format or an executable format). It may be configured to be recorded in a computer-readable recording medium such as a Digital Versatile Disk) and provided as a computer program product.

さらに、上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることによりコンピュータプログラムプロダクトとして提供するように構成しても良い。また、上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別プログラムをコンピュータプログラムプロダクトとしてインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Further, the vehicle type identification programs executed by the vehicle type identification devices 103 to 3103 of the above-described first to fourth embodiments are stored on a computer connected to a network such as the Internet and provided as a computer program product by downloading via the network. It may be configured to do so. Further, the vehicle type identification program executed by the vehicle type identification devices 103 to 3103 of the above-described first to fourth embodiments may be provided or distributed as a computer program product via a network such as the Internet.

上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別プログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから車種判別プログラムを読み出して実行することにより上記各部がRAM上にロードされ、各部がRAM上に生成されるようになっている。 The vehicle type identification program executed by the vehicle type identification devices 103 to 3103 according to the first to fourth embodiments has a module configuration including the above-described units, and as actual hardware, a CPU (processor) determines the vehicle type from the ROM. By reading and executing the program, the above-mentioned respective parts are loaded on the RAM, and the respective parts are generated on the RAM.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and the gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto.

1a,1b,1c,1d 車種判別システム
10 車両
20 車種判別情報
90,1090 記憶部
91,1091,2091 取得部
92,1092,2092 画像生成部
93 全景画像推定部
94 補間部
95,1095 車軸検出部
96,1096 判別部
97 カウンタ
98 車軸別重量計測部
99 過積載判定部
101 カメラ
102 レーザスキャナ
103,1103,2103,3103 車種判別装置
104 速度計
105,105a,105b,105c 重量測定器
T 所定位置
1a, 1b, 1c, 1d Vehicle type identification system 10 Vehicle 20 Vehicle type identification information 90, 1090 Storage section 91, 1091, 2091 Acquisition section 92, 1092, 2092 Image generation section 93 Panoramic image estimation section 94 Interpolation section 95, 1095 Axle axis detection section 96,1096 Discriminating unit 97 Counter 98 Axle weight measuring unit 99 Overload determining unit 101 Camera 102 Laser scanner 103, 1103, 2103, 3103 Vehicle type discriminating device 104 Speedometer 105, 105a, 105b, 105c Weight measuring device T Predetermined position

Claims (7)

スキャナ部で検出した、所定位置を通過する車両に対してレーザを照射して検出した検出点距離、および検出点で反射したレーザの反射強度を取得し、かつ撮像部から、前記所定位置を連続して撮像して得られた複数の静止画像を取得する取得部と、
前記検出点を含む前記所定位置の画像であって、前記検出点の濃度を、当該検出点において反射したレーザの前記反射強度に応じて異ならせた画像であるリフレクタンス画像を生成し、前記リフレクタンス画像に対して、前記リフレクタンス画像の縦横比を前記車両の実際の縦横比に合わせる正規化処理を施す画像生成部と、
前記撮像部によって連続して撮像された前記複数の静止画像に基づいて、前記車両の全体の形状を示す画像である全景画像を推定する全景画像推定部と、
前記全景画像の特徴点と前記正規化処理が施された前記リフレクタンス画像の前記検出点とを照合するマッチング処理を実行し、前記マッチング処理の結果および前記検出点距離に基づいて、前記全景画像の前記特徴点を補間する補間部と、
前記特徴点を補間した前記全景画像から車軸を検出し、前記車軸の数と前記車軸間の距離を計測する車軸検出部と、
前記車軸の数と前記車軸間の距離に基づいて、前記車両の車種を判別する判別部と、
を備えた車種判別装置。
The detection point distance detected by irradiating the vehicle passing the predetermined position with the laser detected by the scanner unit and the reflection intensity of the laser reflected at the detection point are acquired, and the predetermined position is continuously obtained from the imaging unit. an acquisition unit that acquires a plurality of still images obtained by imaging and,
The image of the predetermined position including the detection point, the density of the detection point to generate a reflectance image is an image made different depending on the reflection intensity of laser reflected in the detection point, the reflexology An image generation unit that performs a normalization process for adjusting the aspect ratio of the reflectance image to the actual aspect ratio of the vehicle with respect to the closet image ,
A panoramic image estimation unit that estimates a panoramic image, which is an image showing the overall shape of the vehicle, based on the plurality of still images continuously captured by the imaging unit;
A matching process is performed to match the feature points of the panoramic image with the detection points of the normalized reflectance image, and the panoramic image is based on the result of the matching process and the detection point distance. An interpolation unit for interpolating the feature points of
An axle detecting unit that detects an axle from the panoramic image in which the feature points are interpolated, and measures the number of the axles and the distance between the axles,
A determination unit that determines the vehicle type of the vehicle based on the number of axles and the distance between the axles;
Vehicle type identification device equipped with.
前記判別部は、前記車両が前記車軸を3軸以上備え、かつ、前記車軸間の距離が所定の距離以上離れている箇所が2か所以上あると判断した場合に、前記車両が特大車であると判別する、
請求項1に記載の車種判別装置。
If the determination unit determines that the vehicle has three or more axles and that the distance between the axles is two or more, the vehicle is an oversized vehicle. Determine that there is,
The vehicle type identification device according to claim 1.
前記取得部はさらに、速度計測部から前記車両の速度を取得し、
前記画像生成部は、前記取得部が取得した前記車両の速度に基づいて、前記リフレクタンス画像の前記正規化処理を行う、
請求項1に記載の車種判別装置。
The acquisition unit further acquires the speed of the vehicle from a speed measurement unit,
The image generation unit performs the normalization processing of the reflectance image based on the speed of the vehicle acquired by the acquisition unit,
The vehicle type identification device according to claim 1.
前記取得部はさらに、前記車両の重量を測定する重量測定部から前記車両の重量を取得し、
前記取得部が取得した前記車両の重量が、前記判別部が判別した前記車種に定められた過積載基準値を超えていると判断した場合に、前記車両を過積載と判定する過積載判定部をさらに備える、
請求項1に記載の車種判別装置。
The acquisition unit further acquires the weight of the vehicle from a weight measurement unit that measures the weight of the vehicle,
An overload determination unit that determines that the vehicle is overloaded when it is determined that the weight of the vehicle acquired by the acquisition unit exceeds an overload reference value set for the vehicle type determined by the determination unit Further comprising,
The vehicle type identification device according to claim 1.
前記取得部はさらに、前記重量測定部から、前記車両の重量を測定した時刻を取得し、
前記車軸検出部が検出した前記車軸の数と前記車軸間の距離および前記車軸が前記スキャナ部によって走査された時刻と、前記取得部が取得した前記車両の重量および前記車両の重量を測定した時刻と、を照合することによって、前記車軸ごとの重量を計測する車軸別重量計測部をさらに備え、
前記過積載判定部は、前記車軸別重量計測部が計測した前記車両の前記車軸ごとの重量が、前記車軸ごとの重量の上限値である限界重量に達しているか否かを判定する、
請求項に記載の車種判別装置。
The acquisition unit further acquires the time when the weight of the vehicle is measured from the weight measurement unit,
The number of the axles detected by the axle detection unit, the distance between the axles, the time when the axle is scanned by the scanner unit, the weight of the vehicle acquired by the acquisition unit, and the time when the weight of the vehicle is measured. By further comparing, by further comprising an axle weight measuring unit for measuring the weight of each axle,
The overload determination unit determines whether the weight of each axle of the vehicle measured by the axle weight measurement unit has reached a limit weight that is an upper limit value of the weight of each axle,
The vehicle type identification device according to claim 4 .
前記車軸別重量計測部は、前記車軸ごとの重量の計測結果から、前記車軸が路面から浮いていると判断した場合に、前記路面から浮いている前記車軸を除いた前記車軸の数および前記車軸間の距離を計測し、
前記判別部は、前記車軸別重量計測部が計測した前記車軸の数および前記車軸間の距離に基づいて、前記車両の車種を判別する、
請求項に記載の車種判別装置。
The axle-by-axle weight measurement unit determines the number of the axles and the number of the axles excluding the axles that are floating from the road surface when determining from the measurement result of the weight of each axle that the axle is floating from the road surface. Measure the distance between
The determining unit determines the vehicle type of the vehicle based on the number of the axles and the distance between the axles measured by the axle weight measuring unit,
The vehicle type identification device according to claim 5 .
スキャナ部から、所定位置を通過する車両に対してレーザを照射して検出した検出点距離、および検出点で反射したレーザの反射強度を取得し、かつ撮像部から、前記所定位置を連続して撮像して得られた複数の静止画像を取得する取得ステップと、
前記検出点を含む前記所定位置の画像であって、前記検出点の濃度を、当該検出点において反射したレーザの前記反射強度に応じて異ならせた画像であるリフレクタンス画像を生成し、前記リフレクタンス画像に対して、前記リフレクタンス画像の縦横比を前記車両の実際の縦横比に合わせる正規化処理を施す画像生成ステップと、
前記撮像部によって連続して撮像された前記複数の静止画像に基づいて、前記車両全体の形状を現す画像である全景画像を推定する全景画像推定ステップと、
前記全景画像の特徴点と前記正規化処理が施された前記リフレクタンス画像の前記検出点とを照合するマッチング処理を実行し、前記マッチング処理の結果および前記検出点距離に基づいて、前記全景画像の前記特徴点を補間する補間ステップと、
前記特徴点を補間した前記全景画像から車軸を検出し、車軸の数と車軸間の距離を計測する車軸検出ステップと、
前記車軸の数と前記車軸間の距離に基づいて、前記車両の車種を判別する判別ステップと、
を含む車種判別方法。
From the scanner unit, the detection point distance detected by irradiating the vehicle passing a predetermined position with a laser and the reflection intensity of the laser reflected at the detection point are acquired, and from the image pickup unit, the predetermined position is continuously obtained. An acquisition step of acquiring a plurality of still images obtained by imaging,
The image of the predetermined position including the detection point, the density of the detection point to generate a reflectance image is an image made different depending on the reflection intensity of laser reflected in the detection point, the reflexology An image generation step of performing a normalization process on the closet image so that the aspect ratio of the reflectance image matches the actual aspect ratio of the vehicle ,
A panoramic image estimation step of estimating a panoramic image, which is an image showing the shape of the entire vehicle, based on the plurality of still images continuously captured by the imaging unit ;
A matching process is performed to match the feature points of the panoramic image with the detection points of the normalized reflectance image, and the panoramic image is based on the result of the matching process and the detection point distance. An interpolation step of interpolating the feature points of
An axle detection step of detecting an axle from the panoramic image in which the feature points are interpolated, and measuring the number of axles and the distance between the axles,
A determining step of determining the vehicle type of the vehicle based on the number of the axles and the distance between the axles;
Vehicle type identification method including.
JP2016115058A 2016-06-09 2016-06-09 Vehicle type identification device and vehicle type identification method Active JP6750967B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016115058A JP6750967B2 (en) 2016-06-09 2016-06-09 Vehicle type identification device and vehicle type identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016115058A JP6750967B2 (en) 2016-06-09 2016-06-09 Vehicle type identification device and vehicle type identification method

Publications (2)

Publication Number Publication Date
JP2017220076A JP2017220076A (en) 2017-12-14
JP6750967B2 true JP6750967B2 (en) 2020-09-02

Family

ID=60658041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016115058A Active JP6750967B2 (en) 2016-06-09 2016-06-09 Vehicle type identification device and vehicle type identification method

Country Status (1)

Country Link
JP (1) JP6750967B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019064682A1 (en) * 2017-09-26 2019-04-04 パナソニックIpマネジメント株式会社 Lift-up determining device and lift-up determining method
CN110164134B (en) * 2018-02-12 2021-08-13 华为技术有限公司 Information processing method and device
FR3078429B1 (en) * 2018-02-26 2021-02-12 Coppey Pierre PROCESS FOR MANAGING THE PASSAGE OF A VEHICLE TO A ROAD TOLL STATION
JP7234538B2 (en) * 2018-08-31 2023-03-08 コニカミノルタ株式会社 Image processing device, axle number detection system, fee setting device, fee setting system and program
CN110308455A (en) * 2019-07-15 2019-10-08 广州路优信息科技有限公司 Vehicle detecting system and method
JPWO2021038991A1 (en) * 2019-08-29 2021-03-04
JP7365254B2 (en) * 2020-02-03 2023-10-19 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP7362499B2 (en) * 2020-02-03 2023-10-17 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP7296898B2 (en) * 2020-02-05 2023-06-23 三菱重工機械システム株式会社 AXLE NUMBER DETECTION DEVICE, TOLL COLLECTION SYSTEM, AXLE NUMBER DETECTION METHOD, AND PROGRAM
JP7317207B2 (en) * 2020-03-13 2023-07-28 三菱重工機械システム株式会社 AXLE NUMBER DETECTION DEVICE, TOLL COLLECTION SYSTEM, AXLE NUMBER DETECTION METHOD, AND PROGRAM
CN111554097B (en) * 2020-03-31 2021-10-26 深圳市奥拓电子股份有限公司 Method, device and system for detecting vehicle through intelligent lamp pole and electronic equipment thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063987A (en) * 1996-08-23 1998-03-06 Mitsubishi Heavy Ind Ltd Car family discriminating device
KR100459475B1 (en) * 2002-04-04 2004-12-03 엘지산전 주식회사 System and method for judge the kind of vehicle
JP5024131B2 (en) * 2008-03-13 2012-09-12 オムロン株式会社 Axle load measuring system and vehicle separation method
JP5470762B2 (en) * 2008-07-08 2014-04-16 富士通株式会社 Object detection apparatus, object detection program, and object detection method
JP5963353B2 (en) * 2012-08-09 2016-08-03 株式会社トプコン Optical data processing apparatus, optical data processing system, optical data processing method, and optical data processing program

Also Published As

Publication number Publication date
JP2017220076A (en) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6750967B2 (en) Vehicle type identification device and vehicle type identification method
EP3410415B1 (en) Image processing device, imaging device, moving body device control system and image processing program
US6687577B2 (en) Simple classification scheme for vehicle/pole/pedestrian detection
US9058524B2 (en) Measuring the range to an object, in an image, using size categorization
US10860867B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, and recording medium
JP6657789B2 (en) Image processing device, imaging device, device control system, frequency distribution image generation method, and program
US20140176714A1 (en) Collision prevention warning method and device capable of tracking moving object
EP3382639A1 (en) Image processing device, image pickup device, apparatus control system, distribution data generation method, and program
US20150348270A1 (en) Method and device for monitoring a surrounding region of a vehicle, and method for implementing emergency braking
JP6678552B2 (en) Vehicle type identification device and vehicle type identification method
CN103886757A (en) Method For Automatically Classifying Moving Vehicles
JP2009037622A (en) Method and device for evaluating image
EP3422285A1 (en) Image processing device, image pickup device, moving body apparatus control system, image processing method, and program
JP2013057992A (en) Inter-vehicle distance calculation device and vehicle control system using the same
WO2017145634A1 (en) Image processing device, imaging device, system for controlling mobile body, image processing method, and program
JP6818626B2 (en) Vehicle type discrimination device, vehicle type discrimination method, and vehicle type discrimination system
JP2010132056A (en) Sensing device, sensing method, and vehicle control device
US20160207473A1 (en) Method of calibrating an image detecting device for an automated vehicle
JP5103722B2 (en) Stop vehicle discrimination device
KR102458136B1 (en) Bad load truck enforcement system
CN110660229A (en) Vehicle speed measuring method and device and vehicle
JP2022042580A (en) Failure detector, charge collection system, method for detecting failure, and program
CN110658353B (en) Method and device for measuring speed of moving object and vehicle
CN109830123B (en) Crossing collision early warning method and system
CN110659551A (en) Motion state identification method and device and vehicle

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200813

R150 Certificate of patent or registration of utility model

Ref document number: 6750967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150