JP2017220076A - Vehicle type discrimination device and vehicle type discrimination method - Google Patents

Vehicle type discrimination device and vehicle type discrimination method Download PDF

Info

Publication number
JP2017220076A
JP2017220076A JP2016115058A JP2016115058A JP2017220076A JP 2017220076 A JP2017220076 A JP 2017220076A JP 2016115058 A JP2016115058 A JP 2016115058A JP 2016115058 A JP2016115058 A JP 2016115058A JP 2017220076 A JP2017220076 A JP 2017220076A
Authority
JP
Japan
Prior art keywords
vehicle
image
axle
unit
vehicle type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016115058A
Other languages
Japanese (ja)
Other versions
JP6750967B2 (en
Inventor
青木 泰浩
Yasuhiro Aoki
泰浩 青木
佐藤 俊雄
Toshio Sato
俊雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2016115058A priority Critical patent/JP6750967B2/en
Publication of JP2017220076A publication Critical patent/JP2017220076A/en
Application granted granted Critical
Publication of JP6750967B2 publication Critical patent/JP6750967B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method for discriminating among vehicle types more stably.SOLUTION: A vehicle type discrimination device includes: an acquisition part, an image generation part, a panoramic image estimation part, an interpolation part, an axle detection part and a discrimination part. The acquisition part acquires a detection point distance and a reflection intensity from a scanner part and acquires picked-up images from an imaging part. The image generation part generates a reflectance image which is an image obtained by varying the density of the detection point according to the reflection intensity of laser beams. The panoramic image estimation part estimates a panoramic image which is an image indicating the shape of a whole vehicle on the basis of the picked-up images. The interpolation part executes matching processing for comparing feature points of the panoramic image with the detection point of the reflectance image and interpolates the feature points of the panoramic image on the basis of the result of the matching process and the detection point distance. The axle detection part detects axles from the panoramic image whose feature points are interpolated and measures the number of axles and the distance between the axles. The discrimination part discriminates the type of the vehicle on the basis of the number of axles and the distance between the axles.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、車種判別装置および車種判別方法に関する。   Embodiments described herein relate generally to a vehicle type identification device and a vehicle type identification method.

道路の通行料金の課金や、通行量の把握の目的で、走行する車種の判定が行われている。従来、道路を走行する車両の車種を判別する方法として、カメラまたはレーザスキャナによって車両を撮像または測定し、車両の車軸の数や車高、車幅を計測する技術、および計測した結果に基づいて車種を判別する技術が開示されている。   For the purpose of charging a toll on the road and grasping the amount of traffic, the type of vehicle to travel is determined. Conventionally, as a method of discriminating the type of a vehicle traveling on a road, based on the technique of measuring or measuring the number of axles, vehicle height, and width of a vehicle by imaging or measuring the vehicle with a camera or a laser scanner. A technique for discriminating a vehicle type is disclosed.

特開2014−215719号公報JP 2014-215719 A 特開平9−89640号公報JP-A-9-89640 特許第5478419号公報Japanese Patent No. 5478419 特開平11−232586号公報Japanese Patent Application Laid-Open No. 11-232586

しかしながら、従来の車種判別技術において利用されている車高や車幅を含む車両形状は時間の経過によって変化が生じるため、より安定して車種判別を行う方法が求められている。   However, since the vehicle shape including the vehicle height and the vehicle width used in the conventional vehicle type identification technology changes with the passage of time, a method for more stably identifying the vehicle type is required.

また、従来の車種判別技術においては、大型車と特大車とを判別する精度を向上させることが求められている。   Further, in the conventional vehicle type discrimination technology, it is required to improve the accuracy of discriminating between large vehicles and oversized vehicles.

実施形態の車種判別装置は、取得部と、画像生成部と、全景画像推定部と、補間部と、車軸検出部と、判別部とを備える。取得部は、スキャナ部で検出した、所定位置を通過する車両に対してレーザを照射して検出した検出点距離、および検出点で反射したレーザの反射強度を取得し、かつ撮像部から、所定位置を撮像して得られた撮像画像を取得する。画像生成部は、検出点を含む所定位置の画像であって、検出点の濃度を、当該検出点において反射したレーザの反射強度に応じて異ならせた画像であるリフレクタンス画像を生成する。全景画像推定部は、撮像画像に基づいて、車両全体の形状を示す画像である全景画像を推定する。補間部は、全景画像の特徴点とリフレクタンス画像の検出点とを照合するマッチング処理を実行し、マッチング処理の結果および検出点距離に基づいて、全景画像の特徴点を補間する。車軸検出部は、特徴点を補間した全景画像から車軸を検出し、車軸の数と車軸間の距離を計測する。判別部は、車軸の数と車軸間の距離に基づいて、車両の車種を判別する。   The vehicle type discrimination device according to the embodiment includes an acquisition unit, an image generation unit, a panoramic image estimation unit, an interpolation unit, an axle detection unit, and a discrimination unit. The acquisition unit acquires the detection point distance detected by irradiating a laser passing through a predetermined position detected by the scanner unit, and the reflection intensity of the laser reflected at the detection point, and from the imaging unit A captured image obtained by imaging the position is acquired. The image generation unit generates a reflectance image that is an image at a predetermined position including a detection point, and is an image in which the density of the detection point is varied according to the reflection intensity of the laser reflected at the detection point. The panoramic image estimation unit estimates a panoramic image that is an image showing the shape of the entire vehicle based on the captured image. The interpolating unit executes a matching process for matching the feature points of the panoramic image with the detection points of the reflectance image, and interpolates the feature points of the panoramic image based on the result of the matching process and the detection point distance. The axle detection unit detects the axles from the panoramic image obtained by interpolating the feature points, and measures the number of axles and the distance between the axles. The determination unit determines the vehicle type of the vehicle based on the number of axles and the distance between the axles.

実施形態1の車種判別システムの構成の一例を示す図。The figure which shows an example of a structure of the vehicle type discrimination | determination system of Embodiment 1. FIG. 実施形態1の車種判別装置の機能構成の一例を示すブロック図。FIG. 2 is a block diagram illustrating an example of a functional configuration of the vehicle type identification device according to the first embodiment. 実施形態1の車種判別装置における車両の3次元形状の推定方法の一例を説明するための図。The figure for demonstrating an example of the estimation method of the three-dimensional shape of the vehicle in the vehicle type discrimination | determination apparatus of Embodiment 1. FIG. 実施形態1における車両の全景画像の一例を示す図。FIG. 4 is a diagram illustrating an example of a full view image of a vehicle in the first embodiment. 実施形態1における回転処理後の車両の全景画像の一例を示す図。FIG. 3 is a diagram illustrating an example of a full view image of a vehicle after a rotation process according to the first embodiment. 実施形態1における検出点距離から生成した点群データの一例を示す図。FIG. 4 is a diagram illustrating an example of point cloud data generated from detected point distances according to the first embodiment. 実施形態1におけるリフレクタンス画像の一例を示す図。FIG. 3 is a diagram illustrating an example of a reflectance image according to the first embodiment. 実施形態1の車種判別装置におけるリフレクタンス画像が含む車両の画像の正規化処理の一例を説明するための第1の図。FIG. 6 is a first diagram for explaining an example of normalization processing of a vehicle image included in a reflectance image in the vehicle type identification device according to the first embodiment. 実施形態1の車種判別装置におけるリフレクタンス画像が含む車両の画像の正規化処理の一例を説明するための第2の図。FIG. 5 is a second diagram for explaining an example of normalization processing of a vehicle image included in a reflectance image in the vehicle type identification device according to the first embodiment. 実施形態1の車種判別装置におけるリフレクタンス画像が含む車両の画像の正規化処理の一例を具体的に説明するための図。The figure for demonstrating concretely an example of the normalization process of the image of the vehicle which the reflectance image in the vehicle type discrimination | determination apparatus of Embodiment 1 contains. 実施形態1の車種判別装置における画像補間処理の手順の一例を説明するための図。The figure for demonstrating an example of the procedure of the image interpolation process in the vehicle type discrimination | determination apparatus of Embodiment 1. FIG. 実施形態1の車種判別装置におけるマッチング処理の一例を説明するための図。The figure for demonstrating an example of the matching process in the vehicle type discrimination | determination apparatus of Embodiment 1. FIG. 実施形態1の車種判別装置における画像補間処理の一例を説明するための図。The figure for demonstrating an example of the image interpolation process in the vehicle type discrimination | determination apparatus of Embodiment 1. FIG. 実施形態1の車種判別装置における車軸検出処理の一例を説明するための図。The figure for demonstrating an example of the axle shaft detection process in the vehicle type discrimination | determination apparatus of Embodiment 1. FIG. 実施形態1の車種判別装置における車軸の大きさおよび車軸の中心位置の計測方法の一例を説明するための図。The figure for demonstrating an example of the measuring method of the magnitude | size of the axle shaft and the center position of an axle shaft in the vehicle type discrimination | determination apparatus of Embodiment 1. FIG. 実施形態1の車種判別装置における1軸をリフトするリフトアクスル機能の一例を説明するための図。The figure for demonstrating an example of the lift axle function which lifts 1 axis | shaft in the vehicle type discrimination | determination apparatus of Embodiment 1. FIG. 実施形態1の車種判別装置における2軸をリフトするリフトアクスル機能の一例を説明するための図。The figure for demonstrating an example of the lift axle function which lifts 2 axis | shafts in the vehicle type identification apparatus of Embodiment 1. FIG. 実施形態1の車種判別装置における車種判別情報の一例を示す図。The figure which shows an example of the vehicle type discrimination | determination information in the vehicle type discrimination | determination apparatus of Embodiment 1. FIG. 実施形態1の車種判別装置における車種判別処理の手順の一例を示すフローチャート。5 is a flowchart illustrating an example of a procedure of a vehicle type identification process in the vehicle type identification device according to the first embodiment. 実施形態2の車種判別システムの構成の一例を示す図。The figure which shows an example of a structure of the vehicle type discrimination | determination system of Embodiment 2. FIG. 実施形態2の車種判別装置の機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure of the vehicle type discrimination | determination apparatus of Embodiment 2. FIG. 実施形態2の車種判別装置における正規化処理の一例を説明するための図。The figure for demonstrating an example of the normalization process in the vehicle type discrimination | determination apparatus of Embodiment 2. FIG. 実施形態3の車種判別装置の機能構成の一例を示すブロック図。FIG. 9 is a block diagram illustrating an example of a functional configuration of a vehicle type identification device according to a third embodiment. 実施形態3の車種判別装置における車種区分別のカウント処理の一例について説明するための図。The figure for demonstrating an example of the count process according to vehicle classification in the vehicle type discrimination | determination apparatus of Embodiment 3. FIG. 実施形態3の車種判別装置における車種区分別の時間当たりの通行車両数のカウント結果の一例を示すグラフ。The graph which shows an example of the count result of the number of passing vehicles per time for every vehicle type division in the vehicle type identification device of Embodiment 3. 実施形態3の車種判別装置における車種判別処理の手順の一例を示すフローチャート。10 is a flowchart illustrating an example of a procedure of vehicle type identification processing in the vehicle type identification device according to the third embodiment. 実施形態4の車種判別システムの構成の一例を示す図。The figure which shows an example of a structure of the vehicle type discrimination | determination system of Embodiment 4. 実施形態4のカメラが連続して撮像した複数の静止画像の一例を示す図。The figure which shows an example of the some still image which the camera of Embodiment 4 imaged continuously. 実施形態4のレーザスキャナの検出結果の一例を示す図。FIG. 10 is a diagram illustrating an example of a detection result of a laser scanner according to a fourth embodiment. 実施形態4の車種判別装置の機能構成の一例を示すブロック図。FIG. 9 is a block diagram illustrating an example of a functional configuration of a vehicle type identification device according to a fourth embodiment. 実施形態4の車種判別装置における車軸ごとの重量分析の一例を示す図。The figure which shows an example of the weight analysis for every axle shaft in the vehicle type discrimination | determination apparatus of Embodiment 4. FIG. 実施形態4の車種判別装置における車種判別処理の手順の一例を示すフローチャート。10 is a flowchart illustrating an example of a procedure of vehicle type identification processing in the vehicle type identification device according to the fourth embodiment.

(実施形態1)
本実施形態の車種判別システムは、カメラで撮像した車両の画像と、レーザスキャナで車両を走査して得た検出点距離および反射強度とを用いて、車両の高解像度の全景画像を生成し、この全景画像から車軸の数および車軸間の距離を計測して、この車軸の数および車軸間の距離に基づいて車両の車種区分および車種を判別することで、より安定した車種判別を実現するものである。以下、本実施形態の詳細について説明する。
(Embodiment 1)
The vehicle type identification system of the present embodiment generates a high-resolution panoramic image of the vehicle using the vehicle image captured by the camera and the detection point distance and reflection intensity obtained by scanning the vehicle with the laser scanner, By measuring the number of axles and the distance between axles from this panoramic image, the vehicle type classification and the vehicle type of the vehicle are discriminated based on the number of axles and the distance between the axles, thereby realizing more stable vehicle type discrimination. It is. Details of this embodiment will be described below.

図1は、本実施形態の車種判別システム1aの構成の一例を示す図である。図1に示すように、本実施形態の車種判別システム1aは、カメラ101と、レーザスキャナ102と、車種判別装置103とを備えている。車種判別システム1aは、大型の車両が通行する道路、駐車場の出入口、高速道路の料金所等に設けられている。   FIG. 1 is a diagram illustrating an example of a configuration of a vehicle type identification system 1a according to the present embodiment. As shown in FIG. 1, the vehicle type identification system 1 a according to this embodiment includes a camera 101, a laser scanner 102, and a vehicle type identification device 103. The vehicle type identification system 1a is provided on a road through which a large vehicle passes, a parking lot entrance / exit, a toll gate on an expressway, and the like.

本実施形態のカメラ101は、単眼カメラ等であり、車両10が通過する所定位置Tを撮像する。カメラ101は本実施形態における撮像部の一例である。   The camera 101 of this embodiment is a monocular camera or the like, and images a predetermined position T through which the vehicle 10 passes. The camera 101 is an example of an imaging unit in the present embodiment.

本実施形態のカメラ101は、所定位置Tに進入した車両10の斜め上方の位置に設けられる。車両10の法定車高は3.8mであるため、具体的には、カメラ101は、所定位置Tの道路の路面から5〜7m上方に設けられる。   The camera 101 of the present embodiment is provided at a position obliquely above the vehicle 10 that has entered the predetermined position T. Since the legal vehicle height of the vehicle 10 is 3.8 m, specifically, the camera 101 is provided 5 to 7 m above the road surface of the road at the predetermined position T.

また、本実施形態のカメラ101は、所定位置Tの道路の路面を基準として、俯角25〜45度で設けられている。また、本実施形態のカメラ101は、所定位置Tを通過する車両10の全景を撮像可能に設けられている。ここで、車両10の全景とは、車両10の全体の形状のことをいう。   The camera 101 of the present embodiment is provided at a depression angle of 25 to 45 degrees with reference to the road surface of the road at the predetermined position T. In addition, the camera 101 of the present embodiment is provided so as to be able to capture the entire view of the vehicle 10 that passes the predetermined position T. Here, the whole view of the vehicle 10 refers to the overall shape of the vehicle 10.

具体的には、カメラ101は、車両10の前方領域(例えば、大型車のトラクタ部の前端)と車両10の後方領域(例えば、大型車のトレーラ部の後端)とが、当該カメラ101の画角に収まるように設けられている。さらに、カメラ101は、撮像対象の車両10の車長が長い場合、当該カメラ101の画角を広げるために、当該カメラ101を動的に傾けて撮像可能な構成を採用しても良い。   Specifically, the camera 101 has a front region of the vehicle 10 (for example, a front end of a tractor portion of a large vehicle) and a rear region of the vehicle 10 (for example, a rear end of a trailer portion of a large vehicle). It is provided to fit within the angle of view. Furthermore, when the vehicle 10 of the imaging target vehicle 10 is long, the camera 101 may adopt a configuration that allows the camera 101 to be tilted dynamically to capture an image in order to widen the angle of view of the camera 101.

本実施形態の車種判別システム1aは少なくとも1台のカメラ101を備えるが、車両10の前後あるいは側面を撮像する複数のカメラ101を備える構成を採用しても良い。また、カメラ101の設置位置は、カメラ101が車両10を撮像できるのであれば良く、前述した設置位置に限らない。カメラ101の設置角度も、前述の角度に限らない。   Although the vehicle type identification system 1a of the present embodiment includes at least one camera 101, a configuration including a plurality of cameras 101 that capture the front and rear or side surfaces of the vehicle 10 may be employed. Moreover, the installation position of the camera 101 should just be the camera 101 which can image the vehicle 10, and is not restricted to the installation position mentioned above. The installation angle of the camera 101 is not limited to the aforementioned angle.

本実施形態では、カメラ101は、レーザスキャナ102から撮像トリガ信号が入力された場合に、所定位置Tを通過する車両10の撮像を行う。あるいは、カメラ101は、一定時間ごとに撮像を行い続ける構成を採用しても良いし、車種判別システム1aが不図示の車両検知装置を別途備え、車両検知装置がカメラ101に対して撮像トリガ信号を送出する構成を採用しても良い。   In the present embodiment, the camera 101 captures an image of the vehicle 10 passing through a predetermined position T when an imaging trigger signal is input from the laser scanner 102. Alternatively, the camera 101 may adopt a configuration in which imaging is continuously performed at regular time intervals, or the vehicle type identification system 1a is separately provided with a vehicle detection device (not shown), and the vehicle detection device sends an imaging trigger signal to the camera 101. May be adopted.

カメラ101は、所定位置Tを通過する車両10を連続的に複数回撮像する。カメラ101は、車両10の撮像により得られた撮像画像を、車種判別装置103に送信する。   The camera 101 continuously images the vehicle 10 passing through the predetermined position T a plurality of times. The camera 101 transmits a captured image obtained by capturing the vehicle 10 to the vehicle type identification device 103.

レーザスキャナ102は、赤外線等のレーザを対象物に照射し、対象物を走査(スキャン)する。レーザスキャナ102は、車両10が通過する所定位置Tにおいてレーザを照射して検出点距離および当該検出点で反射したレーザの反射強度(リフレクタンス)を検出する。ここで、検出点距離とは、レーザの照射位置から検出点までの距離を示す。レーザスキャナ102は、スキャナ部の一例である。   The laser scanner 102 irradiates a target with a laser such as infrared rays and scans the target. The laser scanner 102 irradiates a laser at a predetermined position T through which the vehicle 10 passes to detect the detection point distance and the reflection intensity (reflectance) of the laser reflected at the detection point. Here, the detection point distance indicates the distance from the laser irradiation position to the detection point. The laser scanner 102 is an example of a scanner unit.

本実施形態では、レーザスキャナ102は、所定位置Tに車両10が進入した際に側面から車両10を走査可能な位置に設置される。本実施形態の車種判別システム1aは少なくとも1台のレーザスキャナ102を備えるが、複数のレーザスキャナ102を備える構成を採用しても良い。   In the present embodiment, the laser scanner 102 is installed at a position where the vehicle 10 can be scanned from the side when the vehicle 10 enters the predetermined position T. Although the vehicle type identification system 1a of the present embodiment includes at least one laser scanner 102, a configuration including a plurality of laser scanners 102 may be employed.

レーザスキャナ102は、車両10が所定位置Tに進入したことを検知した場合に、車両10の撮像を指示する撮像トリガ信号をカメラ101に送信する。また、レーザスキャナ102は、車両10を検知してから車両10を検知しなくなるまで、すなわち、車両10が所定位置Tに進入してから退出するまで、車両10に対してレーザを照射する。具体的には、レーザスキャナ102は、車両10の進行方向と交わる方向(以下、走査方向という)にレーザを走査しながら、複数の検出点における検出点距離および反射強度を検出する。レーザスキャナ102は、各検出点について検出した検出点距離および反射強度を車種判別装置103に送信する。   When the laser scanner 102 detects that the vehicle 10 has entered the predetermined position T, the laser scanner 102 transmits an imaging trigger signal for instructing imaging of the vehicle 10 to the camera 101. Further, the laser scanner 102 irradiates the vehicle 10 with a laser until the vehicle 10 is detected after the vehicle 10 is detected, that is, until the vehicle 10 enters the predetermined position T and then exits. Specifically, the laser scanner 102 detects detection point distances and reflection intensities at a plurality of detection points while scanning a laser in a direction intersecting with the traveling direction of the vehicle 10 (hereinafter referred to as a scanning direction). The laser scanner 102 transmits the detection point distance and reflection intensity detected for each detection point to the vehicle type identification device 103.

車種判別装置103は、車種判別処理を実行する電子計算機の一例である。車種判別装置103は、カメラ101およびレーザスキャナ102と、電気的に接続されている。   The vehicle type identification device 103 is an example of an electronic computer that executes a vehicle type identification process. The vehicle type identification device 103 is electrically connected to the camera 101 and the laser scanner 102.

本実施形態の車種判別装置103は、図1に示すように所定位置Tに隣接した道路脇に設置されているが、これに限定されず、管理センター等に設置されても良い。   The vehicle type identification device 103 of this embodiment is installed on the side of the road adjacent to the predetermined position T as shown in FIG. 1, but is not limited to this, and may be installed in a management center or the like.

車種判別装置103は、カメラ101から、撮像画像を取得する。また、車種判別装置103は、レーザスキャナ102から、各検出点の検出点距離および反射強度を取得する。そして、車種判別装置103は、撮像画像、検出点距離および反射強度を用いて、所定位置Tを通過する車両10の車種を判別する。   The vehicle type identification device 103 acquires a captured image from the camera 101. Further, the vehicle type identification device 103 acquires the detection point distance and reflection intensity of each detection point from the laser scanner 102. Then, the vehicle type determination device 103 determines the vehicle type of the vehicle 10 passing through the predetermined position T using the captured image, the detection point distance, and the reflection intensity.

図2は、本実施形態の車種判別装置103の機能的構成の一例を示すブロック図である。図2に示すように、本実施形態の車種判別装置103は、記憶部90と、取得部91と、画像生成部92と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96と、を備える。   FIG. 2 is a block diagram illustrating an example of a functional configuration of the vehicle type identification device 103 according to the present embodiment. As shown in FIG. 2, the vehicle type identification device 103 of the present embodiment includes a storage unit 90, an acquisition unit 91, an image generation unit 92, a panoramic image estimation unit 93, an interpolation unit 94, and an axle detection unit 95. And a determination unit 96.

記憶部90は、車両10の車種を判別するための基準である車種判別情報20を記憶する。車種判別情報20の内容については、後述する。また、記憶部90は、本実施形態における車種判別装置103の各機能部の処理に使用する情報を記憶することができる。記憶部90は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、メモリなどの記憶媒体である。   The storage unit 90 stores vehicle type determination information 20 that is a reference for determining the vehicle type of the vehicle 10. The contents of the vehicle type identification information 20 will be described later. In addition, the storage unit 90 can store information used for processing of each functional unit of the vehicle type identification device 103 in the present embodiment. The storage unit 90 is a storage medium such as a hard disk drive (HDD), a solid state drive (SSD), or a memory.

取得部91は、レーザスキャナ102で検出した、所定位置Tを通過する車両10に対してレーザを照射して検出した検出点距離、および前記検出点で反射したレーザの反射強度を取得する。具体的には、取得部91は、レーザスキャナ102により所定位置Tへの車両10の進入が検知された場合、レーザスキャナ102から、複数の検出点それぞれの検出点距離および反射強度を取得する。また、取得部91はカメラ101から、所定位置Tを撮像して得られた撮像画像を取得する。   The acquisition unit 91 acquires a detection point distance detected by irradiating a laser beam to the vehicle 10 passing through the predetermined position T detected by the laser scanner 102 and a reflection intensity of the laser reflected at the detection point. Specifically, when the laser scanner 102 detects that the vehicle 10 has entered the predetermined position T, the acquisition unit 91 acquires the detection point distances and the reflection intensities of the plurality of detection points from the laser scanner 102. The acquisition unit 91 acquires a captured image obtained by imaging the predetermined position T from the camera 101.

取得部91は、取得した検出点距離および反射強度を画像生成部92に送出する。また、取得部91は、取得した撮像画像を全景画像推定部93に送出する。   The acquisition unit 91 sends the acquired detection point distance and reflection intensity to the image generation unit 92. The acquisition unit 91 sends the acquired captured image to the panoramic image estimation unit 93.

全景画像推定部93は、カメラ101の撮像により得られた撮像画像に基づいて、車両10の全体の形状を示す三次元形状の画像(以下、全景画像D1という)を推定(生成)する。   The panoramic image estimation unit 93 estimates (generates) a three-dimensional image (hereinafter referred to as panoramic image D1) indicating the overall shape of the vehicle 10 based on the captured image obtained by the imaging of the camera 101.

図3は、本実施形態の車種判別装置103における車両の3次元形状の推定方法の一例を説明するための図である。本実施形態では、全景画像推定部93は、カメラ101によって所定位置Tを複数回撮像して得られた複数の撮像画像を、取得部91から取得する。そして、全景画像推定部93は、SfM(Structured from Motion)等の技術を用いて、複数の撮像画像に従って、車両10の全景画像D1を推定する。   FIG. 3 is a diagram for explaining an example of a method for estimating the three-dimensional shape of the vehicle in the vehicle type identification device 103 of the present embodiment. In the present embodiment, the panoramic image estimation unit 93 acquires a plurality of captured images obtained by capturing the predetermined position T a plurality of times by the camera 101 from the acquisition unit 91. Then, the panoramic image estimation unit 93 estimates the panoramic image D1 of the vehicle 10 according to a plurality of captured images using a technique such as SfM (Structured from Motion).

図3に示す複数の画像200〜203は、カメラ101が所定位置Tを通過する車両10を連続的に撮像した画像の例である。例えば、左端の画像200は、車両10が所定位置Tへ進入した時刻t0において、カメラ101が所定位置Tを撮像した画像である。また、右端の画像203は、車両10が所定位置Tから退出した時刻t3において、カメラ101が所定位置Tを撮像した画像である。中央の2つの画像201〜202はそれぞれ、車両10が所定位置Tに進入した後、退出するまでの所定の時刻t1およびt2において、カメラ101が所定位置Tを撮像した画像である。   A plurality of images 200 to 203 illustrated in FIG. 3 are examples of images obtained by continuously capturing the vehicle 10 in which the camera 101 passes the predetermined position T. For example, the image 200 at the left end is an image in which the camera 101 captures the predetermined position T at time t0 when the vehicle 10 enters the predetermined position T. The rightmost image 203 is an image obtained by the camera 101 capturing the predetermined position T at time t3 when the vehicle 10 leaves the predetermined position T. The two central images 201 to 202 are images in which the camera 101 captures the predetermined position T at predetermined times t1 and t2 after the vehicle 10 enters the predetermined position T and then exits.

図3の下部では、時刻t0〜t1間の車両10の特徴点Pの移動量を、画像200〜201から推定する方法を示す。特徴点PaおよびPbは、画像200〜201に含まれる車両10の特徴点Pの例示である。特徴点PaおよびPbとして用いられる箇所としては、画像200〜201が含む車両10のエッジ(角部)等がある。   In the lower part of FIG. 3, a method for estimating the movement amount of the feature point P of the vehicle 10 between the times t0 and t1 from the images 200 to 201 is shown. The feature points Pa and Pb are examples of the feature point P of the vehicle 10 included in the images 200 to 201. Locations used as the feature points Pa and Pb include edges (corner portions) of the vehicle 10 included in the images 200 to 201.

点aは、画像200に含まれる特徴点Paを、カメラ101の位置204を基準として投影平面205の上に投影した位置を示す。また、点bは、画像200に含まれる特徴点Pbを、カメラ101の位置204を基準として投影平面205の上に投影した位置を示す。点a”および点b”は、画像201に含まれる特徴点PaおよびPbを、カメラ101の位置204を基準として投影平面205の上に投影した位置をそれぞれ示す。投影平面205とは、カメラ101の位置を基準(原点)として、特徴点PaおよびPbの位置を推定するために定義される、仮想的な平面のことをいう。   A point a indicates a position where the feature point Pa included in the image 200 is projected on the projection plane 205 with reference to the position 204 of the camera 101. A point b indicates a position where the feature point Pb included in the image 200 is projected on the projection plane 205 with the position 204 of the camera 101 as a reference. Point a ″ and point b ″ indicate the positions at which the characteristic points Pa and Pb included in the image 201 are projected on the projection plane 205 with respect to the position 204 of the camera 101, respectively. The projection plane 205 refers to a virtual plane defined to estimate the positions of the feature points Pa and Pb with the position of the camera 101 as a reference (origin).

投影平面205の位置は固定されており、画像200から画像201の間で特徴点PaおよびPbが移動するに伴って、点aは点a”の位置へ、点bは点b”の位置へ、投影平面205上を移動する。全景画像推定部93は、このように特徴点PaおよびPbの移動を検出して対応付けることによって、連続して撮像された画像200と画像201の間の特徴点Paおよび特徴点Pbの移動量を推定することができる。   The position of the projection plane 205 is fixed. As the feature points Pa and Pb move between the image 200 and the image 201, the point a is moved to the position of the point a ", and the point b is moved to the position of the point b". Move on the projection plane 205. The panoramic image estimation unit 93 detects the movement of the feature points Pa and Pb and associates the movements of the feature points Pa and the feature points Pb between the images 200 and 201 continuously captured in this manner. Can be estimated.

全景画像推定部93は、投影平面205上に投影された点aおよびbの移動量から、被写体となった車両10とカメラ101の位置204との位置関係に基づいて、特徴点PaおよびPbの3次元位置を推定する。   The panoramic image estimation unit 93 determines the feature points Pa and Pb based on the positional relationship between the vehicle 10 that is the subject and the position 204 of the camera 101 based on the amount of movement of the points a and b projected on the projection plane 205. Estimate the three-dimensional position.

全景画像推定部93は、画像201と画像202の間、および画像202と画像203の間においても、特徴点PaおよびPbの位置の対応付けを行い、特徴点PaおよびPbの3次元位置を推定する。全景画像推定部93は、このように連続する画像間で逐次的に特徴点の移動量の推定を行うことにより、車両10の全景の3次元形状を推定する。   The panoramic image estimation unit 93 associates the positions of the feature points Pa and Pb between the images 201 and 202 and between the image 202 and the image 203, and estimates the three-dimensional positions of the feature points Pa and Pb. To do. The panoramic image estimation unit 93 estimates the three-dimensional shape of the panoramic view of the vehicle 10 by sequentially estimating the movement amount of the feature points between the successive images in this way.

また、カメラ101が固定されず、移動しながら車両10を撮像する場合は、全景画像推定部93は、カメラ101の移動量に基づいて、特徴点PaおよびPbの3次元位置を推定する構成を採用しても良い。   In addition, when the camera 101 is imaged while the camera 101 is not fixed, the panoramic image estimation unit 93 is configured to estimate the three-dimensional positions of the feature points Pa and Pb based on the movement amount of the camera 101. It may be adopted.

このようにして、全景画像推定部93は、カメラ101によって連続して撮像された複数の静止画像から全景画像D1を推定する。全景画像推定部93は、車両10の全景の3次元形状を示す画像である全景画像D1を推定する。また、全景画像推定部93は、各特徴点の近傍の撮像画像を張り合わせることで、全景画像D1の画像を重畳し、全景画像D1の解像度をさらに向上させる構成を採用しても良い。   In this way, the panoramic image estimation unit 93 estimates the panoramic image D1 from a plurality of still images continuously captured by the camera 101. The panoramic image estimation unit 93 estimates a panoramic image D1 that is an image showing the three-dimensional shape of the panoramic view of the vehicle 10. In addition, the whole-view image estimation unit 93 may employ a configuration in which the images of the whole-view image D1 are superimposed by combining the captured images in the vicinity of the feature points to further improve the resolution of the whole-view image D1.

図3では4枚の画像200〜203を例としたが、カメラ101は、車両10が所定位置Tを通過するまでの間により多くの画像を撮像することができる構成を採用しても良い。撮像した画像数が多い方が、全景画像推定部93はより精度の高い全景画像D1を推定することができる。また、特徴点PaおよびPbは画像200〜203における特徴点Pの例であり、位置合わせに用いる特徴点の数を限定するものではない。   In FIG. 3, four images 200 to 203 are taken as an example, but the camera 101 may adopt a configuration that can capture more images until the vehicle 10 passes the predetermined position T. As the number of captured images is larger, the panoramic image estimation unit 93 can estimate the panoramic image D1 with higher accuracy. The feature points Pa and Pb are examples of the feature point P in the images 200 to 203, and do not limit the number of feature points used for alignment.

図4は、本実施形態における車両の全景画像D1の一例を示す図である。点Pは、全景画像D1を構成する特徴点を示している。ここで、図1で説明したように、カメラ101は車両10を斜め上方の位置から撮像しているため、推定された全景画像D1は、図4に示すように車両10を斜めから見た形状を表す。   FIG. 4 is a diagram illustrating an example of a full view image D1 of the vehicle in the present embodiment. A point P indicates a feature point that forms the full-view image D1. Here, as described with reference to FIG. 1, since the camera 101 captures the vehicle 10 from an obliquely upper position, the estimated whole-view image D1 has a shape when the vehicle 10 is viewed obliquely as shown in FIG. 4. Represents.

ここで、全景画像推定部93は、全景画像D1を回転させ、車両10の側面から見た画像を推定する。
図5は、本実施形態における回転処理後の車両の全景画像D2の一例を示す図である。全景画像D1を回転させる処理を行うことによって、全景画像推定部93は、レーザスキャナ102の放射位置と同様の方向から見た車両10の全景画像D2を推定する。
Here, the panoramic image estimation unit 93 rotates the panoramic image D1 and estimates an image viewed from the side of the vehicle 10.
FIG. 5 is a diagram illustrating an example of the full-view image D2 of the vehicle after the rotation process in the present embodiment. By performing the process of rotating the panoramic image D1, the panoramic image estimation unit 93 estimates the panoramic image D2 of the vehicle 10 viewed from the same direction as the radiation position of the laser scanner 102.

全景画像推定部93は、全景画像D2から車両10の車長を測定し、画像生成部92に送出する。また、全景画像推定部93は、推定した全景画像D2を補間部94へ送出する。全景画像推定部93は、全景画像D1および全景画像D2から車両10の車幅および車高をさらに計測する構成を採用しても良い。   The panoramic image estimation unit 93 measures the vehicle length of the vehicle 10 from the panoramic image D2 and sends it to the image generation unit 92. Further, the panoramic image estimation unit 93 sends the estimated panoramic image D2 to the interpolation unit 94. The panoramic image estimation unit 93 may employ a configuration in which the vehicle width and the vehicle height of the vehicle 10 are further measured from the panoramic image D1 and the panoramic image D2.

図2に戻り、画像生成部92は、取得部91から取得した検出点距離から点群データgを生成する。点群データgとは、所定位置Tの画像であって、検出点の濃度を、当該検出点の検出点距離に応じて異ならせた画像である。
図6は、検出点距離から生成した点群データgの一例を示す図である。図6において、縦軸は、車両10の各検出点pにレーザを走査した際の走査角度であり、横軸は、車両10の各検出点pにレーザを走査した時刻である。図6に示すように、点群データgでは、検出点距離が近い検出点pほど薄い色で、検出点距離が遠い検出点pほど濃い色で表示される。
Returning to FIG. 2, the image generation unit 92 generates point cloud data g from the detected point distance acquired from the acquisition unit 91. The point cloud data g is an image at a predetermined position T, in which the density of the detection point is varied according to the detection point distance of the detection point.
FIG. 6 is a diagram illustrating an example of point cloud data g generated from the detected point distance. In FIG. 6, the vertical axis indicates the scanning angle when the laser is scanned at each detection point p of the vehicle 10, and the horizontal axis indicates the time when the laser is scanned at each detection point p of the vehicle 10. As shown in FIG. 6, in the point cloud data g, the detection point p with a shorter detection point distance is displayed in a lighter color, and the detection point p with a longer detection point distance is displayed in a darker color.

また、画像生成部92は、取得部91から取得した反射強度からリフレクタンス画像Gを生成する。リフレクタンス画像Gとは、所定位置Tの画像であって、検出点pの濃度を、当該検出点pにおいて反射したレーザの反射強度に応じて異ならせた画像である。
図7は、本実施形態におけるリフレクタンス画像Gの一例を示す図である。図7において、縦軸は、車両10の各検出点pにレーザを走査した際の走査角度であり、横軸は、車両10の各検出点pにレーザを走査した時刻である。図7に示すように、リフレクタンス画像Gでは、レーザの反射強度が強い検出点pほど薄い色で、反射強度が弱い検出点pほど濃い色で表示される。
Further, the image generation unit 92 generates a reflectance image G from the reflection intensity acquired from the acquisition unit 91. The reflectance image G is an image at a predetermined position T, in which the density at the detection point p is varied according to the reflection intensity of the laser reflected at the detection point p.
FIG. 7 is a diagram illustrating an example of the reflectance image G in the present embodiment. In FIG. 7, the vertical axis indicates the scanning angle when the laser is scanned at each detection point p of the vehicle 10, and the horizontal axis indicates the time when the laser is scanned at each detection point p of the vehicle 10. As shown in FIG. 7, in the reflectance image G, the detection point p having a higher laser reflection intensity is displayed in a lighter color and the detection point p having a lower reflection intensity is displayed in a darker color.

各検出点pに対して、距離と反射強度は1対1に対応して取得されるため、点群データgとリフレクタンス画像Gに表示される各検出点pは、それぞれ1対1の対応関係となる。すなわち、点群データgとリフレクタンス画像Gは同一の車両10を含む画像である。   Since the distance and the reflection intensity are acquired in a one-to-one correspondence with each detection point p, each detection point p displayed in the point cloud data g and the reflectance image G has a one-to-one correspondence. It becomes a relationship. That is, the point cloud data g and the reflectance image G are images including the same vehicle 10.

レーザスキャナ102によって得られた画像の特徴として、レーザスキャナ102の走査方向には密に検出点pを検出しているが、時間軸方向には検出点pの検出が疎になるという性質がある。すなわち、点群データgとリフレクタンス画像Gでは、車両10の車高方向には密に検出点pが表示されているが、車両10の車長方向には検出点pが周期的に欠落している。   A characteristic of the image obtained by the laser scanner 102 is that the detection points p are densely detected in the scanning direction of the laser scanner 102, but the detection of the detection points p is sparse in the time axis direction. . That is, in the point cloud data g and the reflectance image G, the detection points p are densely displayed in the vehicle height direction of the vehicle 10, but the detection points p are periodically missing in the vehicle length direction of the vehicle 10. ing.

ここで、本実施形態の車種判別装置103における車種判別処理では、画像から計測した車両10の車軸の数および車軸間の距離を用いて車種を判別する。このため、本実施形態の車種判別装置103では、点群データgおよびリフレクタンス画像Gを用いて、カメラ101が撮像した画像の画像補間処理を行い、解像度の高い画像を生成することで、車軸の数および車軸間の距離の計測の精度を高める。   Here, in the vehicle type determination process in the vehicle type determination device 103 of the present embodiment, the vehicle type is determined using the number of axles of the vehicle 10 and the distance between the axles measured from the image. For this reason, in the vehicle type identification device 103 according to the present embodiment, the point cloud data g and the reflectance image G are used to perform an image interpolation process on the image captured by the camera 101 to generate a high-resolution image. The accuracy of measuring the number and distance between axles.

画像補間処理を行うためには、カメラ101が撮像した画像とレーザスキャナ102によって得られた画像とを照合し、対応点を検出して位置合わせをするマッチング処理をする必要がある。ここで、カメラ101が撮像した画像は、点群データgよりもリフレクタンス画像Gとの親和性が高い。したがって、リフレクタンス画像Gを、カメラ101が撮像した画像とのマッチング処理に用いる方が、点群データgを用いるよりも対応点の検出が容易である。以上の理由により、本実施形態においてはリフレクタンス画像Gをカメラ101が撮像した画像とのマッチング処理に用いる。   In order to perform the image interpolation process, it is necessary to perform a matching process in which an image captured by the camera 101 and an image obtained by the laser scanner 102 are collated, corresponding points are detected, and alignment is performed. Here, the image captured by the camera 101 is more compatible with the reflectance image G than the point cloud data g. Therefore, it is easier to detect the corresponding points when the reflectance image G is used for matching processing with the image captured by the camera 101 than when the point cloud data g is used. For the above reasons, in this embodiment, the reflectance image G is used for matching processing with an image captured by the camera 101.

ここで、レーザスキャナ102によって得られた画像は、対象物の速度によって時間軸方向に伸縮する性質をもつ。すなわち、レーザスキャナ102の前を走行する車両10の通過速度が速くなるにしたがって、レーザスキャナ102が検出できる時間軸方向の検出点pが少なくなり、生成されるリフレクタンス画像Gの横方向の長さが短くなる。   Here, the image obtained by the laser scanner 102 has a property of expanding and contracting in the time axis direction depending on the speed of the object. That is, as the passing speed of the vehicle 10 traveling in front of the laser scanner 102 increases, the number of detection points p in the time axis direction that can be detected by the laser scanner 102 decreases, and the horizontal length of the generated reflectance image G decreases. Becomes shorter.

車両10の速度によってリフレクタンス画像Gの縦横比が変化したままでは、カメラ101が撮像した画像とのマッチング処理を行うのは困難である。そこで、画像生成部92は、リフレクタンス画像Gに対して、リフレクタンス画像Gの縦横比を車両10の実際の縦横比に合わせる正規化処理を施す。   If the aspect ratio of the reflectance image G remains changed depending on the speed of the vehicle 10, it is difficult to perform matching processing with the image captured by the camera 101. Therefore, the image generation unit 92 performs a normalization process on the reflectance image G so that the aspect ratio of the reflectance image G matches the actual aspect ratio of the vehicle 10.

図8および図9は、本実施形態の車種判別装置103におけるリフレクタンス画像Gが含む車両画像の正規化処理の一例を説明するための図である。車長lは正規化処理前のリフレクタンス画像Gにおける車両10の車長であり、車長Lは正規化処理後のリフレクタンス画像Gにおける車両10の車長である。図8における車両10は速度V1で所定位置Tを通過し、図9における車両10は速度V1よりも速い速度V2で所定位置Tを通過した例を示している。   8 and 9 are diagrams for explaining an example of the normalization process of the vehicle image included in the reflectance image G in the vehicle type identification device 103 of the present embodiment. The vehicle length l is the vehicle length of the vehicle 10 in the reflectance image G before normalization processing, and the vehicle length L is the vehicle length of the vehicle 10 in the reflectance image G after normalization processing. 8 shows an example in which the vehicle 10 passes through the predetermined position T at the speed V1, and the vehicle 10 in FIG. 9 passes through the predetermined position T at the speed V2 faster than the speed V1.

図8および図9は同一の車長の車両10の画像を含むリフレクタンス画像Gである。しかしながら、車両10が速度V2で通過した場合のリフレクタンス画像G(図6参照)が含む車両10の画像の車長lは、車両10が速度V1で通過した場合のリフレクタンス画像G(図5参照)が含む車両10の画像の車長lよりも短くなる。すなわち、リフレクタンス画像Gが含む車両10の画像の車長lは、所定位置Tを通過する車両10の速度が速くなるに従って、短くなる。そこで、図8および図9に示すように、画像生成部92は、リフレクタンス画像Gが含む車両画像の車長lを車長Lに正規化する処理を行う。   8 and 9 are reflectance images G including images of the vehicle 10 having the same vehicle length. However, the vehicle length l of the image of the vehicle 10 included in the reflectance image G (see FIG. 6) when the vehicle 10 passes at the speed V2 is the reflectance image G when the vehicle 10 passes at the speed V1 (FIG. 5). The vehicle length l of the image of the vehicle 10 included in (see). That is, the vehicle length l of the image of the vehicle 10 included in the reflectance image G becomes shorter as the speed of the vehicle 10 passing through the predetermined position T increases. Therefore, as illustrated in FIGS. 8 and 9, the image generation unit 92 performs a process of normalizing the vehicle length l of the vehicle image included in the reflectance image G to the vehicle length L.

次に、図10を用いて、リフレクタンス画像Gを正規化する処理の具体例について説明する。図10は、本実施形態の車種判別装置103におけるリフレクタンス画像Gが含む車両10の画像の正規化処理の一例を具体的に説明するための図である。   Next, a specific example of processing for normalizing the reflectance image G will be described with reference to FIG. FIG. 10 is a diagram for specifically explaining an example of normalization processing of the image of the vehicle 10 included in the reflectance image G in the vehicle type identification device 103 of the present embodiment.

図10(a)〜(b)に示すように、まず、画像生成部92は、リフレクタンス画像Gが含む車両画像の車長lを特定する。さらに、図10(c)に示すように、画像生成部92は、リフレクタンス画像Gが含む前車軸FSおよび後車軸BSを検出する。次いで、画像生成部92は、前車軸FSの幅および後車軸BSの幅を計測する。前車軸FSの幅は、検出した前車軸FSの左端から右端までの距離を計測することで取得できる。後車軸BSの幅の計測方法も同様である。画像生成部92は、前車軸FSおよび後車軸BSを、車軸検出部95における車軸検出と同様の方法で検出することができる。車軸検出部95における車軸検出の方法については後述する。   As shown in FIGS. 10A to 10B, first, the image generation unit 92 specifies the vehicle length l of the vehicle image included in the reflectance image G. Further, as shown in FIG. 10C, the image generation unit 92 detects the front axle FS and the rear axle BS included in the reflectance image G. Next, the image generation unit 92 measures the width of the front axle FS and the width of the rear axle BS. The width of the front axle FS can be acquired by measuring the distance from the left end to the right end of the detected front axle FS. The same applies to the method of measuring the width of the rear axle BS. The image generation unit 92 can detect the front axle FS and the rear axle BS in the same manner as the axle detection in the axle detection unit 95. A method of detecting the axle in the axle detection unit 95 will be described later.

さらに、図10(d)に示すように、画像生成部92は、前車軸FSの幅と後車軸BSの幅の比率を、車両10が所定位置Tを通過する際の速度変化率として算出する。そして、画像生成部92は、速度変化率が「1」であり、車両10が所定位置Tを通過する際に等速で通過した可能性が高い場合、図10(e)に示すように、車両画像の車長方向に向かってリフレクタンス画像Gを均一に伸縮させて、リフレクタンス画像Gが含む車両画像の車長を所定の長さLに正規化する。   Further, as shown in FIG. 10D, the image generation unit 92 calculates the ratio of the width of the front axle FS and the width of the rear axle BS as a rate of change in speed when the vehicle 10 passes the predetermined position T. . When the speed change rate is “1” and there is a high possibility that the vehicle 10 has passed at a constant speed when passing the predetermined position T, as shown in FIG. The reflectance image G is uniformly expanded and contracted in the vehicle length direction of the vehicle image, and the vehicle length of the vehicle image included in the reflectance image G is normalized to a predetermined length L.

ここで、本実施形態においては、画像生成部92は所定の長さLとして、カメラ101が撮像した画像から全景画像推定部93が推定(生成)した全景画像D2の車長Lを用いる。   Here, in the present embodiment, the image generation unit 92 uses the vehicle length L of the panoramic image D2 estimated (generated) by the panoramic image estimation unit 93 from the image captured by the camera 101 as the predetermined length L.

一方、画像生成部92は、速度変化率が「1」でない場合、車両10が所定位置Tを通過する際に加減速した可能性が高いため、リフレクタンス画像Gの部分よって、車両画像の車長方向に対する伸縮率を変える。例えば、画像生成部92は、速度変化率が「1」より小さく、車両10が所定位置Tを通過する際に減速した可能性が高い場合、車両画像の車長方向に向かって、車両画像の後端に向かうに従い、当該リフレクタンス画像Gの検出点pの間隔を小さくする。一方、画像生成部92は、速度変化率が「1」より大きく、車両10が所定位置Tを通過する際に加速した可能性が高い場合、車両画像の車長方向に向かって、車両画像の後端に向かうに従い、当該リフレクタンス画像Gの検出点pの間隔を大きくする。   On the other hand, when the speed change rate is not “1”, the image generation unit 92 is likely to have accelerated or decelerated when the vehicle 10 passes the predetermined position T. Change the expansion ratio in the long direction. For example, when the rate of change in speed is smaller than “1” and there is a high possibility that the vehicle 10 has decelerated when passing the predetermined position T, the image generation unit 92 moves toward the vehicle length direction of the vehicle image. As the distance from the rear end increases, the interval between the detection points p of the reflectance image G is reduced. On the other hand, when the rate of change in speed is greater than “1” and there is a high possibility that the vehicle 10 has accelerated when passing through the predetermined position T, the image generation unit 92 moves toward the vehicle length direction of the vehicle image. As the distance from the rear end increases, the interval between the detection points p of the reflectance image G is increased.

画像生成部92は、点群データgと正規化したリフレクタンス画像Gを補間部94へ送出する。   The image generation unit 92 sends the point cloud data g and the normalized reflectance image G to the interpolation unit 94.

図2に戻り、補間部94は、全景画像D2の特徴点Pと、正規化したリフレクタンス画像Gの検出点pとを照合するマッチング処理を実行する。そして、補間部94は、マッチング処理の結果、および検出点距離から生成された点群データgに含まれる検出点pに基づいて、全景画像D2の特徴点Pを補間する。   Returning to FIG. 2, the interpolation unit 94 executes a matching process for matching the feature point P of the panoramic image D <b> 2 with the detected point p of the normalized reflectance image G. Then, the interpolation unit 94 interpolates the feature point P of the panoramic image D2 based on the result of the matching process and the detection point p included in the point cloud data g generated from the detection point distance.

図11は、本実施形態の車種判別装置103における画像補間処理の一例を説明するための図である。図11(a)に示すように、補間部94は、全景画像D2が含む特徴点Pとリフレクタンス画像Gの検出点pとを照合するマッチング処理を実行する。次いで、図11(b)に示すように、補間部94は、全景画像D2において、検出点pと照合した特徴点P間を、当該特徴点P間に存在する点群データgによって補間する画像補間処理を実行し、密な特徴点Pを有する全景画像Aを得る。   FIG. 11 is a diagram for explaining an example of image interpolation processing in the vehicle type identification device 103 of the present embodiment. As shown in FIG. 11A, the interpolation unit 94 executes a matching process for matching the feature point P included in the panoramic image D2 with the detection point p of the reflectance image G. Next, as illustrated in FIG. 11B, the interpolation unit 94 interpolates between the feature points P collated with the detection points p with the point cloud data g existing between the feature points P in the panoramic image D2. An interpolation process is executed to obtain a panoramic image A having dense feature points P.

補間部94が行うマッチング処理について、具体的に説明する。
図12は、本実施形態の車種判別装置103におけるマッチング処理の一例を説明するための図である。図12に示すように、補間部94は、全景画像D2の特徴点Pと一致する、正規化したリフレクタンス画像Gの検出点pを特定する。
The matching process performed by the interpolation unit 94 will be specifically described.
FIG. 12 is a diagram for explaining an example of matching processing in the vehicle type identification device 103 of the present embodiment. As illustrated in FIG. 12, the interpolation unit 94 specifies the detection point p of the normalized reflectance image G that matches the feature point P of the full-view image D2.

次に、補間部94が行う画像補間処理について、具体的に説明する。
図13は、本実施形態の車種判別装置103における画像補間処理の一例を説明するための図である。図6および図7で述べたように、点群データgは、車両10の走査方向には密に検出点pを有している。しかしながら、点群データgは、車両10の時間軸方向には検出点pが疎になる。
Next, the image interpolation process performed by the interpolation unit 94 will be specifically described.
FIG. 13 is a diagram for explaining an example of image interpolation processing in the vehicle type identification device 103 of the present embodiment. As described in FIGS. 6 and 7, the point cloud data g has the detection points p densely in the scanning direction of the vehicle 10. However, in the point cloud data g, the detection points p are sparse in the time axis direction of the vehicle 10.

一方、図3から図5で述べたように、車両10の全景画像D2は、カメラ101の撮像により得られた撮像画像に基づいて推定される。そのため、全景画像D2は、被写体(車両10)や当該被写体を撮像する際の撮像条件等の影響を受け易い。一般的に、全景画像D2に含まれる特徴点Pは、点群データgに含まれる検出点pよりも疎になる性質を有する。   On the other hand, as described with reference to FIGS. 3 to 5, the panoramic image D <b> 2 of the vehicle 10 is estimated based on the captured image obtained by the imaging of the camera 101. Therefore, the panoramic image D2 is easily affected by the subject (vehicle 10) and the imaging conditions when imaging the subject. In general, the feature points P included in the panoramic image D2 have a property of becoming sparser than the detection points p included in the point cloud data g.

図7で述べたように、リフレクタンス画像Gの検出点pと点群データgの検出点pは1対1の対応関係であるため、全景画像D2の特徴点Pと一致する点群データgの検出点pは、図12で述べたマッチング処理の結果によって特定される。   As described with reference to FIG. 7, since the detection point p of the reflectance image G and the detection point p of the point cloud data g have a one-to-one correspondence, the point cloud data g matching the feature point P of the full-view image D2. The detection point p is identified by the result of the matching process described in FIG.

補間部94は、図13に示すように、全景画像D2において、検出点pと一致(照合)した特徴点P間を、当該特徴点P間に存在する検出点pによって補間(拡充)する。これにより、図13に示すように、補間部94は、密な特徴点Pを有する全景画像A(言い換えると、特徴点Pが拡充された全景画像A)を得ることができる。   As illustrated in FIG. 13, the interpolation unit 94 interpolates (enlarges) between the feature points P that match (match) the detection points p with the detection points p existing between the feature points P in the full-view image D2. Accordingly, as illustrated in FIG. 13, the interpolation unit 94 can obtain a panoramic image A having dense feature points P (in other words, a panoramic image A in which the feature points P are expanded).

補間部94は、全景画像Aを車軸検出部95に送出する。   The interpolation unit 94 sends the panoramic image A to the axle detection unit 95.

図2に戻り、車軸検出部95は、特徴点Pを点群データgによって補間した全景画像Aから車軸を検出し、車軸の数と車軸間の距離を計測する。   Returning to FIG. 2, the axle detection unit 95 detects the axles from the panoramic image A obtained by interpolating the feature points P with the point cloud data g, and measures the number of axles and the distance between the axles.

図14は、本実施形態の車種判別装置103における車軸検出処理の一例を説明するための図である。図14に示す所定位置Tを通過したセミトレーラの全景画像A1は、補間された全景画像Aの一例である。   FIG. 14 is a diagram for explaining an example of an axle detection process in the vehicle type identification device 103 of the present embodiment. The semi-trailer full-view image A1 that has passed the predetermined position T shown in FIG. 14 is an example of the interpolated full-view image A.

図14においては、車軸検出部95が車軸検出を行う範囲の高さ方向の下限は、路面300とする。また、車軸検出部95が車軸検出を行う範囲の高さ方向の上限位置301は、全景画像A1に含まれる車両10の車体の底面の高さである。   In FIG. 14, the lower limit in the height direction of the range in which the axle detection unit 95 performs the axle detection is the road surface 300. Further, the upper limit position 301 in the height direction of the range in which the axle detection unit 95 detects the axle is the height of the bottom surface of the vehicle body of the vehicle 10 included in the full-view image A1.

車軸検出部95が車軸検出を行う範囲には、車軸11a〜11d以外の構造物が含まれることが極力少なくなるように範囲を設定することが望ましい。例えば、車軸検出を行う範囲の高さ方向の上限位置301は、所定位置Tを走行することが想定される車種の最低地上高度の値としても良い。あるいは、路面から車軸検出を行う範囲の高さ方向の上限位置301までの高さは、想定される車軸11a〜11dの直径の2分の1の値としても良い。想定される車種の最低地上高度、および想定される車軸11a〜11dの直径は、記憶部90が記憶する構成を採用しても良い。   It is desirable that the range in which the axle detection unit 95 performs the axle detection is set so that the structure other than the axles 11a to 11d is contained as much as possible. For example, the upper limit position 301 in the height direction of the range in which the axle detection is performed may be a value of the minimum ground altitude of the vehicle type assumed to travel the predetermined position T. Alternatively, the height from the road surface to the upper limit position 301 in the height direction of the range in which the axle detection is performed may be a value that is half the diameter of the assumed axles 11a to 11d. The structure which the memory | storage part 90 memorize | stores may be employ | adopted for the minimum ground altitude of the assumed vehicle type, and the diameter of the assumed axles 11a-11d.

車軸検出部95は、全景画像A1における車軸検出を行う範囲において、特徴点Pの発生頻度が所定の閾値よりも高い領域を検出する。車軸11a〜11dが存在する領域では、車軸11a〜11dが存在しない空間部分と比較して特徴点Pの発生頻度が高い。このため、車軸検出部95は、特徴点Pの発生頻度が所定の閾値よりも高い領域を検出することで、車軸11a〜11dの位置を検出することができる。このように、車軸検出部95は、図14に示す全景画像A1に含まれる車軸11a〜11dの位置を検出する。特徴点Pの発生頻度の所定の閾値は、記憶部90が記憶する。   The axle detection unit 95 detects an area where the occurrence frequency of the feature point P is higher than a predetermined threshold within a range in which the axle detection is performed in the panoramic image A1. In the region where the axles 11a to 11d are present, the occurrence frequency of the feature points P is higher than that of the space portion where the axles 11a to 11d are not present. For this reason, the axle detection unit 95 can detect the positions of the axles 11a to 11d by detecting an area where the occurrence frequency of the feature point P is higher than a predetermined threshold. As described above, the axle detection unit 95 detects the positions of the axles 11a to 11d included in the panoramic image A1 shown in FIG. The storage unit 90 stores a predetermined threshold value for the occurrence frequency of the feature point P.

車軸検出部95における車軸11a〜11dの検出方法は、これに限らない。例えば、車軸11a〜11dは一般に円形で黒色であることが想定されるため、車軸検出部95は、全景画像A1から、パタンマッチング(テンプレートマッチング)によって円形で黒色の画像パタン(テンプレート)と一致する領域を車軸11a〜11dとして検出する構成を採用しても良い。この場合、円形で黒色の画像パタン(テンプレート)は、記憶部90が記憶する構成を採用しても良い。   The method of detecting the axles 11a to 11d in the axle detection unit 95 is not limited to this. For example, since it is assumed that the axles 11a to 11d are generally circular and black, the axle detection unit 95 matches the circular and black image pattern (template) by pattern matching (template matching) from the whole scene image A1. You may employ | adopt the structure which detects an area | region as axle 11a-11d. In this case, a configuration in which the storage unit 90 stores the circular black image pattern (template) may be employed.

また、図8および図9で述べたように、正規化処理後のリフレクタンス画像Gは、所定位置Tを通過する車両10の速度が速くなるに従って、車両10の車長方向(時間軸方向)への検出点pの数が少なくなる。すなわち、通行速度が速い車両10については、リフレクタンス画像Gの横方向の解像度が不足し、正規化処理によって画像を横方向に伸長することで検出点pの位置の誤差が大きくなる場合がある。このため、車軸検出部95は、例えば、正規化処理前のリフレクタンス画像Gの横方向の解像度に下限を設定し、下限を下回った場合には補間されていない全景画像D2から車軸を検出し、車軸の数と車軸間の距離を計測する構成を採用しても良い。リフレクタンス画像Gの横方向の解像度の下限は、例えば正規化処理前のリフレクタンス画像Gに含まれる車両10の画像における車軸の幅が一定以下となった場合等を基準としても良い。   Further, as described with reference to FIGS. 8 and 9, the reflectance image G after the normalization process has a vehicle length direction (time axis direction) of the vehicle 10 as the speed of the vehicle 10 passing through the predetermined position T increases. The number of detection points p is reduced. That is, for the vehicle 10 having a high traveling speed, the lateral resolution of the reflectance image G is insufficient, and the error in the position of the detection point p may be increased by extending the image in the lateral direction by normalization processing. . For this reason, for example, the axle detection unit 95 sets a lower limit for the horizontal resolution of the reflectance image G before normalization processing, and detects the axle from the uninterpolated panoramic image D2 if the resolution is below the lower limit. A configuration may be adopted in which the number of axles and the distance between the axles are measured. The lower limit of the horizontal resolution of the reflectance image G may be based on, for example, a case where the axle width in the image of the vehicle 10 included in the reflectance image G before normalization processing is equal to or less than a certain value.

図14に示す車軸の検出方法は、リフレクタンス画像Gの正規化処理における車軸の検出にも適用可能である。すなわち、画像生成部92は、車軸検出部95が全景画像Aから車軸処理を行う方法を用いて、リフレクタンス画像Gから車軸検出する構成を採用しても良い。   The axle detection method shown in FIG. 14 is also applicable to axle detection in the normalization process of the reflectance image G. That is, the image generation unit 92 may employ a configuration in which the axle detection unit 95 detects the axle from the reflectance image G using a method in which the axle processing is performed from the full-view image A.

また図15は、本実施形態の車種判別装置103における車軸の大きさおよび車軸の中心位置の計測方法の一例を説明するための図である。図15(a)に示すように、車軸検出部95は、全景画像Aから車軸310を検出する。図15(b)は車軸310を含む領域の拡大図である。車軸検出部95は、路面312から、車軸310の路面から最も高い位置311までの距離を計測することで、車軸310の直径(大きさ)を取得することができる。また、車軸検出部95は、路面312と車軸310の路面から最も高い位置311までの間の中間位置313を計測し、路面312から当該中間位置313までの距離を計測することで、車軸310の半径を取得することができる。   FIG. 15 is a diagram for explaining an example of a method of measuring the size of the axle and the center position of the axle in the vehicle type identification device 103 of the present embodiment. As shown in FIG. 15A, the axle detection unit 95 detects the axle 310 from the full-view image A. FIG. 15B is an enlarged view of a region including the axle 310. The axle detection unit 95 can acquire the diameter (size) of the axle 310 by measuring the distance from the road surface 312 to the highest position 311 from the road surface of the axle 310. The axle detection unit 95 measures an intermediate position 313 between the road surface 312 and the road surface of the axle 310 from the highest position 311, and measures the distance from the road surface 312 to the intermediate position 313, thereby The radius can be obtained.

また、車軸310の左端314から右端315までの距離は車軸310の幅の長さを示す。また車軸310の左端314から右端315までの間の中間位置316が、車軸310の中心である。   The distance from the left end 314 to the right end 315 of the axle 310 indicates the width of the axle 310. An intermediate position 316 between the left end 314 and the right end 315 of the axle 310 is the center of the axle 310.

図14に示すように、車軸検出部95は、車軸11a〜11dの位置を検出した後に、各車軸11a〜11d間の距離を計測する。図14の符号L1は第1の車軸11aの中心から第2の車軸11bの中心までの距離、符号L2は第2の車軸11bの中心から第3の車軸11cの中心までの距離、符号L3は第3の車軸11cの中心から第4の車軸11dの中心までの距離をそれぞれ示す。車軸検出部95は、全景画像A1上の車軸11a〜11d間の距離L1〜L3を、車両10の実寸に換算して、実際の車両10における車軸間の距離を計測する。   As shown in FIG. 14, the axle detector 95 measures the distance between the axles 11a to 11d after detecting the positions of the axles 11a to 11d. 14 is a distance from the center of the first axle 11a to the center of the second axle 11b, a symbol L2 is a distance from the center of the second axle 11b to the center of the third axle 11c, and a symbol L3 is The distances from the center of the third axle 11c to the center of the fourth axle 11d are respectively shown. The axle detection unit 95 measures the distance between the axles in the actual vehicle 10 by converting the distances L1 to L3 between the axles 11a to 11d on the panoramic image A1 into the actual size of the vehicle 10.

ここで、車軸の検出の際に考慮が必要な事項として、図16および図17を用いてリフトアクスル機能を備えた車両10が通行した場合について説明する。リフトアクスル機能とは、例えばトレーラ等において積荷が軽い場合に、一部の車軸を路面から浮かせて(リフトして)、接地しないようにする機能のことをいう。路面から浮いた車軸は、車種区分および車種の判定基準上は車軸とはならない。そのため、リフトアクスル機能は、車種区分を特大車から大型車へ下げて高速道路の料金を節約する目的で、車軸の数を減らすために利用されることが多い。   Here, as a matter that needs to be considered when detecting the axle, a case where the vehicle 10 having a lift axle function passes will be described with reference to FIGS. 16 and 17. The lift axle function refers to a function that lifts a part of the axle from the road surface so that it does not come into contact with the ground when the load is light, for example, in a trailer. An axle that floats off the road surface is not an axle in terms of vehicle type classification and vehicle type criteria. Therefore, the lift axle function is often used to reduce the number of axles in order to lower the vehicle type classification from an oversized vehicle to a large vehicle to save on highway tolls.

具体的には、図16に示すように1軸分の車軸を路面から浮かせる場合や、図17に示すように2軸分の車軸を路面から浮かせる場合等がある。図16および図17に示す路面400から、リフトした車軸の高さの下限401までの間は空間がある。車軸部分と空間部分とでは全景画像A1における特徴点Pの分布に差があるため、車軸検出部95は全景画像A1における特徴点Pの分布から車軸の下に空間を認識した場合、当該車軸は車軸ではないと判断する。車軸のリフトを判定する方法はこれに限らず、車軸検出部95は、レーザスキャナ102で測定した検出点pの検出点距離から車軸の下の空間を識別しても良い。また、車軸検出部95は、パタンマッチングの結果、車軸と推定される円形画像の位置が路面400から離れていることを認識して車軸のリフトを判定しても良い。   Specifically, there is a case where one axle is lifted from the road surface as shown in FIG. 16, a case where two axles are lifted from the road surface as shown in FIG. There is a space from the road surface 400 shown in FIGS. 16 and 17 to the lower limit 401 of the height of the lifted axle. Since there is a difference in the distribution of the feature points P in the panoramic image A1 between the axle portion and the space portion, when the axle detection unit 95 recognizes the space below the axle from the distribution of the feature points P in the panoramic image A1, the axle is Judge that it is not an axle. The method for determining the lift of the axle is not limited to this, and the axle detector 95 may identify the space under the axle from the detection point distance of the detection point p measured by the laser scanner 102. Further, the axle detection unit 95 may determine the lift of the axle by recognizing that the position of the circular image estimated as the axle is away from the road surface 400 as a result of pattern matching.

車軸検出部95は、車軸が路面から浮いていることを判定した場合、当該路面から浮いている車軸を除いた車軸の数および車軸間の距離を計測する。   When it is determined that the axle is floating from the road surface, the axle detection unit 95 measures the number of axles excluding the axle floating from the road surface and the distance between the axles.

車軸検出部95は、計測した車両10の車軸の数と車軸間の距離を、判別部96に送出する。   The axle detection unit 95 sends the measured number of axles of the vehicle 10 and the distance between the axles to the determination unit 96.

図2に戻り、判別部96は、車軸検出部95から取得した車軸の数と車軸間の距離に基づいて、車両10の車種区分および車種を判別する。ここで、判別部96が車種区分および車種を判別する処理のことを、車種判別処理という。   Returning to FIG. 2, the determination unit 96 determines the vehicle type classification and vehicle type of the vehicle 10 based on the number of axles acquired from the axle detection unit 95 and the distance between the axles. Here, the process in which the determination unit 96 determines the vehicle type classification and the vehicle type is referred to as a vehicle type determination process.

ここで、車種区分とは、車種を分類する区分のことをいう。本実施形態において、車種区分は高速道路の料金基準で用いられる車種区分に準じて軽自動車、普通車、中型車、大型車、特大車に車種を分類する構成を採用する。   Here, the vehicle type classification means a classification for classifying the vehicle type. In the present embodiment, the vehicle type classification employs a configuration in which the vehicle types are classified into light cars, ordinary cars, medium-sized cars, large-sized cars, and extra-large cars according to the car type classifications used in the toll standards for highways.

判別部96は、車種判別情報20に定義された基準にしたがって、車種判別処理を実行する。車種判別情報20とは、車軸の数と車軸間の距離によって、車種区分および車種を特定する基準を定義した情報である。   The determination unit 96 executes a vehicle type determination process according to the standard defined in the vehicle type determination information 20. The vehicle type discrimination information 20 is information that defines a vehicle type classification and a standard for specifying the vehicle type based on the number of axles and the distance between the axles.

例えば、判別部96は、車種判別情報20に定義された基準にしたがって、車両10が車軸を3軸以上備え、かつ、車両10において車軸間の距離が所定の距離以上離れている箇所が2か所以上あると判断した場合に、車両10が特大車であると判別する。また、判別部96は、車両10の車軸の数が5軸以上であると判断した場合は、車両10を特大車であると判別する。   For example, the discriminator 96 determines whether the vehicle 10 has three or more axles according to the criteria defined in the vehicle type discriminating information 20 and the distance between the axles in the vehicle 10 is more than a predetermined distance. If it is determined that there are more or less places, it is determined that the vehicle 10 is an oversized vehicle. Further, when determining that the number of axles of the vehicle 10 is five or more, the determination unit 96 determines that the vehicle 10 is an extra large vehicle.

車種判別情報20に定義された基準の詳細について、図18を用いて説明する。図18は、本実施形態の車種判別装置103における車種判別情報20の一例を示す図である。本実施形態において、車種判別情報20は、記憶部90に記憶される。あるいは、車種判別情報20は、車種判別装置103とネットワークを介して接続された不図示の外部記憶装置に記憶される構成を採用しても良い。   Details of the standard defined in the vehicle type discrimination information 20 will be described with reference to FIG. FIG. 18 is a diagram illustrating an example of the vehicle type identification information 20 in the vehicle type identification device 103 according to the present embodiment. In the present embodiment, the vehicle type identification information 20 is stored in the storage unit 90. Alternatively, the vehicle type determination information 20 may be configured to be stored in an external storage device (not shown) connected to the vehicle type determination device 103 via a network.

図18に示すように、車種判別情報20は、「軸数」、「車軸間距離条件(m)」、「車種区分」、「車種」の情報を少なくとも含む。なお、項目「イメージ図」は、車軸間距離条件に基づく車軸の位置をモデル化して表示しているものであるので、車種判別情報20の構成としては必須ではない。   As shown in FIG. 18, the vehicle type determination information 20 includes at least information on “number of axes”, “distance condition between axles (m)”, “vehicle type classification”, and “vehicle type”. Note that the item “image diagram” displays the modeled position of the axle based on the inter-axle distance condition, and thus is not essential as the configuration of the vehicle type discrimination information 20.

車種判別情報20の項目「軸数」は車軸の数を示す。図18の車種判別情報20によると、車軸の数は2軸、3軸、4軸、5軸以上の4つに分類されている。本実施形態においては、車両10の車軸の数が2軸であれば、判別部96は、車軸間の距離によって、車両10の車種区分は「軽自動車、普通車、中型車」または「中型車、大型車」のいずれかであると判別する。車両10の車軸の数が3軸であれば、判別部96は、車軸間の距離の組合せによって、車両10の車種区分は「特大車」または「中型車、大型車」のいずれかであると判別する。車両10の車軸の数が4軸であれば、判別部96は、車軸間の距離の組合せによって、車両10の車種区分は「特大車」または「大型車」のいずれかであると判別する。車両10の車軸の数が5軸以上である場合は、判別部96は、車軸間の距離に関わらず、車両10の車種区分は「特大車」であると判別する。   The item “number of axes” of the vehicle type identification information 20 indicates the number of axles. According to the vehicle type discriminating information 20 in FIG. 18, the number of axles is classified into four types of 2 axes, 3 axes, 4 axes, 5 axes and more. In this embodiment, if the number of axles of the vehicle 10 is two, the determination unit 96 determines that the vehicle type classification of the vehicle 10 is “light car, ordinary car, medium-sized car” or “medium-sized car” depending on the distance between the axles. And “large car”. If the number of axles of the vehicle 10 is 3, the discriminator 96 determines that the vehicle type classification of the vehicle 10 is either “extra large vehicle” or “medium-sized vehicle, large vehicle” depending on the combination of distances between the axles. Determine. If the number of axles of the vehicle 10 is 4, the determination unit 96 determines that the vehicle type classification of the vehicle 10 is “extra-large vehicle” or “large vehicle” according to the combination of distances between the axles. When the number of axles of the vehicle 10 is five or more, the determination unit 96 determines that the vehicle type classification of the vehicle 10 is “extra large vehicle” regardless of the distance between the axles.

図18に示す車種判別情報20の「軸数」は一例であり、これに限らない。   The “number of axes” of the vehicle type identification information 20 shown in FIG. 18 is an example, and the present invention is not limited to this.

車種判別情報20の項目「車軸間距離条件(m)」は各車軸間の距離の閾値をメートル単位で示す。車軸の数が3軸以上の場合は、各車軸間の距離の組合せが、車種区分および車種を判別する条件となる。図18に示す車種判別情報20の「車軸間距離条件(m)」の項目L1〜L3は、車両10の隣り合う2つの車軸間の距離を、それぞれの車軸の中心から計測して実寸換算した長さを示す。具体的には、図14と同様に、図18の項目L1は車両10の最も前方側の車軸(第1の車軸)と、前方側から2番目の車軸(第2の車軸)の間の距離を示す。項目L2は車両10の第2の車軸と、前方側から3番目の車軸(第3の車軸)の間の距離を示す。項目L3は車両10の第3の車軸と、前方側から4番目の車軸(第4の車軸)の間の距離を示す。   The item “distance between axles (m)” of the vehicle type discrimination information 20 indicates a threshold value of distance between axles in units of meters. When the number of axles is three or more, the combination of distances between the axles is a condition for discriminating the vehicle type classification and the vehicle type. The items L1 to L3 of the “distance condition between axles (m)” of the vehicle type identification information 20 shown in FIG. 18 are obtained by measuring the distance between two adjacent axles of the vehicle 10 from the center of each axle and converting to the actual size. Indicates the length. Specifically, as in FIG. 14, the item L1 in FIG. 18 is the distance between the foremost axle (first axle) of the vehicle 10 and the second axle (second axle) from the front side. Indicates. The item L2 indicates the distance between the second axle of the vehicle 10 and the third axle (third axle) from the front side. The item L3 indicates the distance between the third axle of the vehicle 10 and the fourth axle (fourth axle) from the front side.

車種判別情報20の「車軸間距離条件(m)」の項目L1〜L3はAND条件であり、各距離の組合せを全て満たした場合にのみ、当該条件に合致するとされる。項目L1〜L3に設定される値n1〜n3は、車軸間の距離における所定の閾値の一例である。また、値n1〜n3の大小関係は、n1<n2<n3とする。   Items L1 to L3 of “distance condition between axles (m)” of the vehicle type identification information 20 are AND conditions, and only when all combinations of distances are satisfied, the conditions are met. The values n1 to n3 set in the items L1 to L3 are an example of a predetermined threshold for the distance between the axles. The magnitude relationship between the values n1 to n3 is n1 <n2 <n3.

例えば、図18の車種判別情報20のNo.6では、「軸数」が4軸であり、「車軸間距離条件(m)」のL1は「n2≦L1<n3」、L2は「n2≦L2<n3」、L3は「0<L3<n2」と定義されている。すなわち、車両10の第1の車軸と第2の車軸の間の距離がn2メートル以上n3メートル未満であり、かつ、第2の車軸と第3の車軸の間の距離がn2メートル以上n3メートル未満であり、かつ、第3の車軸と第4の車軸の間の距離が0mより長くn2メートル未満である場合に、判別部96は、車両10がNo.6の「車軸間距離条件(m)」を満たすと判断する。   For example, the No. of the vehicle type identification information 20 in FIG. 6, the “number of axes” is 4 axes, L1 of “distance between axles (m)” is “n2 ≦ L1 <n3”, L2 is “n2 ≦ L2 <n3”, and L3 is “0 <L3 < n2 ". That is, the distance between the first axle and the second axle of the vehicle 10 is not less than n2 meters and less than n3 meters, and the distance between the second axle and the third axle is not less than n2 meters and less than n3 meters. When the distance between the third axle and the fourth axle is greater than 0 m and less than n2 meters, the determination unit 96 determines that the vehicle 10 is No. 6 “axle distance condition (m)” is determined to be satisfied.

また、車両10の車軸の数が4軸であり、かつ、図18の車種判別情報20のNo.6〜9の「車軸間距離条件(m)」のいずれも満たさない場合は、No.10に示すように、当該車両10の「車種区分」は大型車であり、「車種」は普通トラック、単車、セミトレーラ以外の「その他4軸車」であると判別される。   Further, the number of axles of the vehicle 10 is 4, and the No. of the vehicle type identification information 20 in FIG. When none of the “axle distance conditions (m)” of 6 to 9 is satisfied, As shown in FIG. 10, it is determined that the “vehicle type” of the vehicle 10 is a large vehicle, and the “vehicle type” is “other 4-axle vehicle” other than a normal truck, a single vehicle, and a semi-trailer.

車種判別情報20の項目「車種区分」は、「軸数」と「車軸間距離条件(m)」から特定される車両10の車種の区分を示す。   The item “vehicle type classification” of the vehicle type identification information 20 indicates the classification of the vehicle type of the vehicle 10 specified from the “number of axes” and the “distance condition between axles (m)”.

車種判別情報20の項目「車種」は、「軸数」と「車軸間距離条件(m)」から特定される車両10の車種を示す。例えば、図18に示す車種判別情報20のNo.1に定義されるように、車軸の数が2軸の場合で、かつ、車軸間の距離L1がn1メートル以下であれば車種区分は軽自動車、普通車、中型車のいずれかであり、想定される車種は乗用車類、またはラフタークレーンがある。また、車種判別情報20のNo.2に定義されるように、車軸の数が2軸の場合で、かつ、車軸間の距離L1がn1メートルよりも長ければ、車種区分は中型車または大型車であり、想定される車種は単車、普通トラック、バス、トラクタである。ここで、単車とは、牽引部と被牽引部に分離することができない構造の貨物自動車の総称である。   The item “vehicle type” of the vehicle type determination information 20 indicates the vehicle type of the vehicle 10 specified from the “number of axes” and the “distance condition between axles (m)”. For example, the No. of the vehicle type identification information 20 shown in FIG. As defined in 1, if the number of axles is two and the distance L1 between the axles is n1 meters or less, the vehicle type classification is either a light vehicle, a normal vehicle, or a medium-sized vehicle, There are passenger cars or rough terrain cranes. Further, the vehicle type identification information 20 of No. As defined in 2, if the number of axles is two and the distance L1 between the axles is longer than n1 meters, the vehicle type classification is a medium-sized vehicle or a large vehicle, and the assumed vehicle type is a single vehicle Ordinary trucks, buses, tractors. Here, the single vehicle is a general term for a lorry having a structure that cannot be separated into a towed portion and a towed portion.

図18に示す車種は一例であり、車種判別情報20はさらに多くの車種を記憶する構成を採用しても良い。   The vehicle type shown in FIG. 18 is an example, and the vehicle type identification information 20 may adopt a configuration that stores more vehicle types.

ここで、図14および図18を用いて車種判別処理の内容を具体的に説明する。図14で述べたように、車軸検出部95は、全景画像A1から、車軸11a〜11dを検出し、各車軸間の距離L1〜L3を計測する。判別部96は、車軸検出部95から車軸11a〜11dの検出結果を取得し、図18に示す車種判別情報20を検索して、車両10が当てはまる「軸数」と「車軸間距離条件(m)」の組合せを取得する。図14に示す車両10の車軸11a〜11dの数は4軸で、各車軸間の距離はn2≦L1<n3、n2≦L2<n3、0<L3<n2であるとする。この場合、図14に示す全景画像A1は、車種判別情報20のNo.6に示す「軸数」と「車軸間距離条件(m)」の組合せの条件を満たす。したがって、判別部96は、全景画像A1の「車種区分」は特大車であり、「車種」は単車あるいはセミトレーラであると判別する。   Here, the contents of the vehicle type discrimination process will be specifically described with reference to FIGS. 14 and 18. As described in FIG. 14, the axle detection unit 95 detects the axles 11 a to 11 d from the whole view image A <b> 1 and measures the distances L <b> 1 to L <b> 3 between the axles. The determination unit 96 acquires the detection results of the axles 11a to 11d from the axle detection unit 95, searches the vehicle type determination information 20 shown in FIG. 18, and determines the “number of axes” and the “distance between axles condition (m ) ”Combination. The number of axles 11a to 11d of the vehicle 10 shown in FIG. 14 is four, and the distances between the axles are n2 ≦ L1 <n3, n2 ≦ L2 <n3, and 0 <L3 <n2. In this case, the panoramic image A1 shown in FIG. 6 satisfies the condition of the combination of “number of axes” and “distance condition between axles (m)”. Therefore, the determination unit 96 determines that the “vehicle type classification” of the panoramic image A1 is an oversized vehicle and the “vehicle type” is a single vehicle or a semi-trailer.

一方、全景画像A1に示された車両10が、後方の荷積載部分である被牽引車両を分離し、前方の牽引車両のみで独立して走行した場合、車両10の車軸の数は、牽引車両の車軸11a〜11bの2軸となる。この場合、判別部96は、車種判別情報20を検索して、「軸数」が2軸で、車軸間の距離L1が「n2≦L1<n3」となる車両10があてはまる「軸数」と「車軸間距離条件(m)」の組合せを取得する。この場合、車両10は車種判別情報20のNo.2に示す「軸数」と「車軸間距離条件(m)」の組合せの条件を満たす。したがって、判別部96は、「車種区分」は中型車あるいは大型車であり、「車種」は単車、普通トラック、バスまたはトラクタであると判別する。   On the other hand, when the vehicle 10 shown in the panoramic image A1 separates the towed vehicle that is the rear loading portion and travels independently only with the front towing vehicle, the number of axles of the vehicle 10 is as follows. 2 axles 11a to 11b. In this case, the determination unit 96 searches the vehicle type determination information 20 and determines that “the number of axes” is applicable to the vehicle 10 in which the “number of axes” is two and the distance L1 between the axes is “n2 ≦ L1 <n3”. The combination of “distance condition between axles (m)” is acquired. In this case, the vehicle 10 has the vehicle type identification information 20 of No. 2 satisfies the condition of the combination of “number of axes” and “distance condition between axles (m)”. Therefore, the determination unit 96 determines that the “vehicle type classification” is a medium-sized vehicle or a large vehicle, and the “vehicle type” is a single vehicle, a normal truck, a bus, or a tractor.

また、図18に示す車種判別情報20によれば、車種区分が特大車となるのは、車両10がNo.3、No.6、No.7、No.11のいずれかの定義を満たす場合である。すなわち、前述したように、判別部96は、車種判別情報20の車両10が車軸を3軸以上備え、かつ、車両10において車軸間の距離がn2メートル以上離れている箇所が2か所以上あると判断した場合、あるいは車両10の車軸の数が5軸以上であると判断した場合は、車両10を特大車であると判別する。   Further, according to the vehicle type discrimination information 20 shown in FIG. 3, no. 6, no. 7, no. 11 is satisfied. That is, as described above, the determination unit 96 includes two or more locations where the vehicle 10 of the vehicle type determination information 20 includes three or more axles and the distance between the axles in the vehicle 10 is n2 meters or more. Or when it is determined that the number of axles of the vehicle 10 is five or more, the vehicle 10 is determined to be an oversized vehicle.

判別部96は、車種処理の結果を不図示の外部装置に出力する。あるいは、判別部96は、車種判別装置103の不図示の表示部に車種判別処理の結果を表示する構成を採用しても良い。また、判別部96が特定の車種区分や車種の車両10を判別した場合に、車種判別装置103の不図示の報知部によって報知する構成を採用しても良い。   The determination unit 96 outputs the result of the vehicle type process to an external device (not shown). Alternatively, the determination unit 96 may adopt a configuration in which the result of the vehicle type determination process is displayed on a display unit (not shown) of the vehicle type determination device 103. In addition, when the determination unit 96 determines a specific vehicle type classification or vehicle 10 of a vehicle type, a configuration in which a notification unit (not shown) of the vehicle type determination device 103 notifies may be adopted.

上記のように、本実施形態における車種判別装置103では、判別部96が車軸の数および車軸間の距離に基づいて車種を判別するので、車両10のその他の部位の形状等は車種判別に影響しない。このため、補間部94は、全景画像D2の全体を均等に補間するのではなく、車軸の周囲の解像度を向上させるように全景画像D2の特定の範囲を補間する構成を採用しても良い。例えば、補間部94は、全景画像D2の画像上の路面から、想定される車軸の高さの最高値までの間の範囲を補間する構成を採用しても良い。この場合、想定される車軸の高さの最高値は記憶部90が記憶する構成を採用しても良い。あるいは、補間部94は、補間前に全景画像D2からパタンマッチングによって車軸を検出し、車軸に近傍する範囲を補間する構成を採用しても良い。補間する範囲を限定することで、全景画像D2の全体を補間する場合と比較して、補間部94が行うマッチング処理および画像補間処理の負荷を軽減することができる。   As described above, in the vehicle type discriminating apparatus 103 in the present embodiment, the discriminating unit 96 discriminates the vehicle type based on the number of axles and the distance between the axles, so the shape of other parts of the vehicle 10 affects the vehicle type discrimination. do not do. For this reason, the interpolation unit 94 may adopt a configuration in which a specific range of the panoramic image D2 is interpolated so as to improve the resolution around the axle, instead of interpolating the entire panoramic image D2 uniformly. For example, the interpolation unit 94 may employ a configuration for interpolating a range from the road surface on the image of the full-view image D2 to the maximum value of the assumed axle height. In this case, a configuration in which the storage unit 90 stores the assumed maximum value of the axle height may be employed. Or the interpolation part 94 may employ | adopt the structure which detects an axle shaft by pattern matching from the foreground image D2 before interpolation, and interpolates the range close | similar to an axle shaft. By limiting the range to be interpolated, it is possible to reduce the load of matching processing and image interpolation processing performed by the interpolation unit 94 as compared to the case of interpolating the entire panoramic image D2.

次に以上のように構成された本実施形態の車種判別処理の流れについて説明する。図19は、本実施形態の車種判別装置103における車種判別処理の手順の一例を示すフローチャートである。このフローチャートの処理は、例えば、車両10が所定位置Tに進入したことをレーザスキャナ102が検知した場合に開始する。   Next, the flow of the vehicle type discrimination process of the present embodiment configured as described above will be described. FIG. 19 is a flowchart illustrating an example of the procedure of the vehicle type identification process in the vehicle type identification device 103 of the present embodiment. The process of this flowchart starts when the laser scanner 102 detects that the vehicle 10 has entered the predetermined position T, for example.

S10で、取得部91は、カメラ101から撮像画像を取得する。取得部91は、取得した撮像画像を全景画像推定部93に送出する。   In S <b> 10, the acquisition unit 91 acquires a captured image from the camera 101. The acquisition unit 91 sends the acquired captured image to the panoramic image estimation unit 93.

S11で、全景画像推定部93は、取得部91により取得された撮像画像が含む車両画像の特徴点Pを抽出する。さらに、全景画像推定部93は、車両10とカメラ101との位置関係に基づいて、抽出した各特徴点Pの位置を特定することによって、車両10の全景画像D1を推定する。   In S <b> 11, the panoramic image estimation unit 93 extracts the feature point P of the vehicle image included in the captured image acquired by the acquisition unit 91. Further, the panoramic image estimation unit 93 estimates the panoramic image D1 of the vehicle 10 by specifying the position of each extracted feature point P based on the positional relationship between the vehicle 10 and the camera 101.

S12で、全景画像推定部93は、全景画像D1を回転させることによって、車両10の側面方向の画像である全景画像D2を推定する。全景画像推定部93は、全景画像D2を補間部94に送出する。また、全景画像推定部93は、全景画像D2から計測した車両10の車長Lを画像生成部92に送出する。   In S12, the panoramic image estimation unit 93 estimates the panoramic image D2 that is an image in the side surface direction of the vehicle 10 by rotating the panoramic image D1. The panoramic image estimation unit 93 sends the panoramic image D2 to the interpolation unit 94. The panoramic image estimation unit 93 sends the vehicle length L of the vehicle 10 measured from the panoramic image D2 to the image generation unit 92.

S13で、取得部91は、レーザスキャナ102から各検出点pの検出点距離および反射強度を取得する。取得部91は、取得した各検出点pの検出点距離および反射強度を画像生成部92に送出する。   In S <b> 13, the acquisition unit 91 acquires the detection point distance and reflection intensity of each detection point p from the laser scanner 102. The acquisition unit 91 sends the acquired detection point distance and reflection intensity of each detection point p to the image generation unit 92.

S14で、画像生成部92は、取得部91により取得された各検出点pの検出点距離に基づいて、車両10の検出点pの濃度を、当該検出点pの検出点距離に応じて異ならせた画像である点群データgを生成する。また、画像生成部92は、取得部91により取得された各検出点pの反射強度に基づいて、車両10の検出点pの濃度を、当該検出点pの反射強度に応じて異ならせた画像であるリフレクタンス画像Gを生成する。   In S <b> 14, the image generation unit 92 changes the density of the detection point p of the vehicle 10 based on the detection point distance of the detection point p based on the detection point distance of each detection point p acquired by the acquisition unit 91. Point cloud data g, which is a displayed image, is generated. Further, the image generation unit 92 is an image in which the density of the detection point p of the vehicle 10 is varied according to the reflection intensity of the detection point p based on the reflection intensity of each detection point p acquired by the acquisition unit 91. The reflectance image G is generated.

S15で、画像生成部92は、全景画像推定部93から取得した車長Lを用いてリフレクタンス画像Gを正規化する処理を行う。画像生成部92は、点群データgおよび正規化したリフレクタンス画像Gを補間部94に送出する。   In S <b> 15, the image generation unit 92 performs a process of normalizing the reflectance image G using the vehicle length L acquired from the panoramic image estimation unit 93. The image generation unit 92 sends the point cloud data g and the normalized reflectance image G to the interpolation unit 94.

S16で、補間部94は、全景画像D2の特徴点Pと、正規化処理後のリフレクタンス画像Gの検出点pとを照合するマッチング処理を実行する。補間部94は、マッチング処理の結果に基づいて、全景画像D2の特徴点Pを、点群データgに含まれる検出点pを用いて補間する画像補間処理を行う。補間部94は、画像補間処理によって解像度が向上した全景画像Aを生成する。補間部94は、全景画像Aを車軸検出部95に送出する。   In S <b> 16, the interpolation unit 94 executes a matching process that collates the feature point P of the panoramic image D <b> 2 with the detection point p of the reflectance image G after the normalization process. Based on the result of the matching process, the interpolation unit 94 performs an image interpolation process for interpolating the feature point P of the panoramic image D2 using the detection point p included in the point cloud data g. The interpolation unit 94 generates a panoramic image A with improved resolution by image interpolation processing. The interpolation unit 94 sends the panoramic image A to the axle detection unit 95.

S17で、車軸検出部95は、全景画像Aから車軸の数および位置を検出する。また、車軸検出部95は、車両10の実寸に換算した車軸間の距離を計測する。車軸検出部95は、車軸の数および車軸間の距離の計測結果を判別部96に送出する。   In S17, the axle detection unit 95 detects the number and position of axles from the full-view image A. In addition, the axle detection unit 95 measures the distance between the axles converted to the actual size of the vehicle 10. The axle detection unit 95 sends the measurement results of the number of axles and the distance between the axles to the determination unit 96.

S18で、判別部96は、記憶部90に記憶された車種判別情報20を参照し、車軸検出部95から取得した車軸の数および車軸間の距離に条件が合致する車種区分および車種を特定する車種判別処理を行う。   In S <b> 18, the determination unit 96 refers to the vehicle type determination information 20 stored in the storage unit 90, and specifies the vehicle type classification and the vehicle type that satisfy the conditions for the number of axles acquired from the axle detection unit 95 and the distance between the axles. Car type discrimination processing is performed.

S19で、判別部96は、車種判別処理の結果を不図示の外部装置に出力する。   In S19, the determination unit 96 outputs the result of the vehicle type determination process to an external device (not shown).

このように、本実施形態にかかる車種判別装置103によれば、判別部96は、車軸の数および車軸間の距離に基づいて車種判別処理を行うため、車体の形状等に基づいて車種判別を行う場合と比較して経年変化による車体形状の変化の影響をうけにくく、より安定した車種判別処理の結果を得ることができる。また、積荷の違い等による車両10の形状の違いにも影響を受けないため、本実施形態にかかる車種判別装置103によれば、車種判別処理の精度を向上させることができる。   As described above, according to the vehicle type determination device 103 according to the present embodiment, the determination unit 96 performs the vehicle type determination process based on the number of axles and the distance between the axles. Compared with the case where it performs, it is hard to receive the influence of the change of a vehicle body shape by a secular change, and can obtain the result of the more stable vehicle type discrimination | determination process. Further, since it is not affected by the difference in the shape of the vehicle 10 due to the difference in cargo or the like, the vehicle type determination device 103 according to the present embodiment can improve the accuracy of the vehicle type determination process.

また、車両10の車体の色によってはレーザスキャナ102による走査が難しい場合があり、特に黒色の車体に対してはレーザスキャナ102から出力されるレーザ光が鏡面反射するために受光側に光が戻らず距離計測値が正しく取得できない場合がある。一方、タイヤ(車軸)部分については乱反射により、レーザスキャナ102は比較的安定して距離を測定できる。本実施形態にかかる車種判別装置103によれば、車軸の数および車軸間の距離に基づいて車種判別処理を行うため、このような車両10の車体の鏡面反射の影響が少なく、より安定して車種判別処理を行うことができる。   Further, scanning by the laser scanner 102 may be difficult depending on the color of the vehicle body of the vehicle 10, and particularly for a black vehicle body, the laser light output from the laser scanner 102 is specularly reflected, so that the light returns to the light receiving side. Sometimes distance measurement values cannot be acquired correctly. On the other hand, for the tire (axle) portion, the laser scanner 102 can measure the distance relatively stably due to irregular reflection. According to the vehicle type identification device 103 according to the present embodiment, since the vehicle type identification process is performed based on the number of axles and the distance between the axles, the influence of the specular reflection of the vehicle body of the vehicle 10 is small and more stable. Car type discrimination processing can be performed.

また、本実施形態にかかる車種判別装置103によれば、取得部91が、レーザスキャナ102からは検出点pまでの検出点距離および検出点pにおけるレーザの反射強度を取得し、カメラ101からは所定位置Tの撮像画像を取得する。また、画像生成部92が、リフレクタンス画像Gを生成し、全景画像推定部93が撮像画像から全景画像D1および全景画像D2を推定する。さらに、補間部94がリフレクタンス画像Gと全景画像D2とのマッチング処理を実行し、マッチング処理の結果および検出点距離に基づいて、全景画像D2の特徴点Pを補間する。車軸検出部95は、特徴点Pを補間した全景画像Aから車軸を検出し、車軸の数と車軸間の距離を計測し、判別部96は、車軸の数と車軸間の距離に基づいて、車両10の車種を判別する。   Further, according to the vehicle type identification device 103 according to the present embodiment, the acquisition unit 91 acquires the detection point distance from the laser scanner 102 to the detection point p and the reflection intensity of the laser at the detection point p. A captured image at a predetermined position T is acquired. The image generation unit 92 generates a reflectance image G, and the panoramic image estimation unit 93 estimates the panoramic image D1 and panoramic image D2 from the captured image. Further, the interpolation unit 94 executes a matching process between the reflectance image G and the whole scene image D2, and interpolates the feature point P of the whole scene image D2 based on the result of the matching process and the detection point distance. The axle detection unit 95 detects the axle from the panoramic image A obtained by interpolating the feature point P, measures the number of axles and the distance between the axles, and the discrimination unit 96 determines the number of axles and the distance between the axles. The vehicle type of the vehicle 10 is determined.

このため、本実施形態にかかる車種判別装置103によれば、カメラ101によって撮像された画像のみに基づいて推定された、もしくはレーザスキャナ102によって取得された検出点距離と反射強度のみに基づいて生成された画像と比較して、解像度の高い画像を用いて車軸を検出することができる。すなわち、車軸検出部95による車軸の検出および車軸間の距離の計測の精度を向上させることができ、ひいては、判別部96が高精度に車種判別処理を行うことができる。   For this reason, according to the vehicle type identification device 103 according to the present embodiment, it is generated based only on the detection point distance and the reflection intensity estimated based only on the image captured by the camera 101 or acquired by the laser scanner 102. The axle can be detected using an image having a higher resolution than that of the image. That is, it is possible to improve the accuracy of the detection of the axle by the axle detection unit 95 and the measurement of the distance between the axles, and the discrimination unit 96 can perform the vehicle type discrimination process with high accuracy.

さらに、本実施形態にかかる車種判別装置103によれば、画像生成部92は、リフレクタンス画像Gに対して、リフレクタンス画像Gの縦横比を車両10の実際の縦横比に合わせる正規化処理を施す。また、全景画像推定部93は、カメラ101によって連続して撮像された複数の静止画像から全景画像D1および全景画像D2を推定する。そして、補間部94は、全景画像D2の特徴点Pと正規化処理が施されたリフレクタンス画像Gの検出点pとを照合するマッチング処理を行う。このため、本実施形態にかかる車種判別装置103によれば、全景画像D2の特徴点Pと点群データgの検出点pの位置を高い精度で紐づけることができ、より高い精度で画像補間処理を行うことができる。   Furthermore, according to the vehicle type identification device 103 according to the present embodiment, the image generation unit 92 performs a normalization process for matching the aspect ratio of the reflectance image G with the actual aspect ratio of the vehicle 10 with respect to the reflectance image G. Apply. The panoramic image estimation unit 93 estimates the panoramic image D1 and the panoramic image D2 from a plurality of still images continuously captured by the camera 101. Then, the interpolation unit 94 performs a matching process for collating the feature point P of the panoramic image D2 with the detection point p of the reflectance image G that has been subjected to normalization. For this reason, according to the vehicle type discriminating apparatus 103 according to the present embodiment, the position of the feature point P of the panoramic image D2 and the position of the detection point p of the point cloud data g can be linked with high accuracy, and image interpolation can be performed with higher accuracy. Processing can be performed.

また、本実施形態にかかる車種判別装置103によれば、判別部96は車両10が車軸を3軸以上備え、かつ、車軸間の距離が所定の距離以上離れている箇所が2か所以上あると判断した場合に、車両10が特大車であると判別するため、特大車の判別を、効率的に行うことができる。   Further, according to the vehicle type identification device 103 according to the present embodiment, the determination unit 96 includes two or more locations where the vehicle 10 includes three or more axles and the distance between the axles is a predetermined distance or more. If it is determined that the vehicle 10 is an oversized vehicle, the oversized vehicle can be determined efficiently.

さらに、本実施形態にかかる車種判別装置103によれば、判別部96は、車種判別情報20に定義された車軸の数および車軸間の距離の閾値の条件によって車種判別処理を行うため、車体の形状に基づいて車種判別を行う場合と比較して、車種判別処理において車種が判定不能の結果となる場合が少ない。また、車種判別情報20は車軸の数および車軸間の距離の数値データ、車種区分および車種によって構成されるため、各車種の車体形状等を記憶する場合と比較して、記憶部90が記憶するデータ量を少なく抑えることができる。   Furthermore, according to the vehicle type determination device 103 according to the present embodiment, the determination unit 96 performs the vehicle type determination process according to the threshold conditions for the number of axles and the distance between the axles defined in the vehicle type determination information 20. Compared to the case where the vehicle type is determined based on the shape, the vehicle type is less likely to be determined in the vehicle type determination process. In addition, since the vehicle type identification information 20 is configured by numerical data of the number of axles and the distance between the axles, the vehicle type classification, and the vehicle type, the storage unit 90 stores it as compared with the case where the vehicle body shape of each vehicle type is stored. The amount of data can be reduced.

なお、本実施形態にかかる車種判別装置103の車軸検出部95は、さらに、車軸の数および車軸間の距離から車両10の回転半径をする構成を採用しても良い。この場合、本実施形態の車種判別システム1aは、急なカーブが存在する山道等の入り口付近に設置され、所定の回転半径を超える車両10が進入した場合に不図示の報知部から警告を発する構成を採用しても良い。あるいは本実施形態の車種判別システム1aは、不図示のゲートを閉鎖して車両10の通行を停止させる機能を付加した構成を採用しても良い。所定の回転半径の閾値は、記憶部90が記憶するとしても良い。このように構成することで、本実施形態の車種判別システム1aによれば、回転半径が大きく急なカーブを曲がることができない車両10が当該山道等に進入することを未然に防ぎ、危険を防止することができる。   The axle detection unit 95 of the vehicle type identification device 103 according to the present embodiment may further adopt a configuration in which the turning radius of the vehicle 10 is determined from the number of axles and the distance between the axles. In this case, the vehicle type identification system 1a of the present embodiment is installed near the entrance of a mountain road or the like where a sharp curve exists, and issues a warning from a not-illustrated notification unit when a vehicle 10 exceeding a predetermined turning radius enters. A configuration may be adopted. Alternatively, the vehicle type identification system 1a of the present embodiment may adopt a configuration to which a function of closing a gate (not shown) and stopping the passage of the vehicle 10 is added. The threshold value of the predetermined turning radius may be stored in the storage unit 90. With this configuration, according to the vehicle type identification system 1a of the present embodiment, it is possible to prevent the vehicle 10 that cannot turn a sharp curve with a large turning radius from entering the mountain road and the like, thereby preventing danger. can do.

(実施形態2)
実施形態1の車種判別装置103では、カメラ101が撮像した画像から推定した車両10の車長にもとづいてリフレクタンス画像Gを正規化していたが、本実施形態の車種判別装置1103では、速度計104によって計測された車両10の速度に基づいて、リフレクタンス画像Gを正規化する。
(Embodiment 2)
In the vehicle type discriminating apparatus 103 of the first embodiment, the reflectance image G is normalized based on the vehicle length of the vehicle 10 estimated from the image captured by the camera 101. However, in the vehicle type discriminating apparatus 1103 of the present embodiment, the speedometer Based on the speed of the vehicle 10 measured by 104, the reflectance image G is normalized.

図20は、本実施形態の車種判別システム1bの構成の一例を示す図である。図20に示すように、本実施形態の車種判別システム1bは、カメラ101と、レーザスキャナ102と、車種判別装置1103と、少なくとも1つの速度計104とを備えている。   FIG. 20 is a diagram illustrating an example of the configuration of the vehicle type identification system 1b according to the present embodiment. As shown in FIG. 20, the vehicle type identification system 1 b of this embodiment includes a camera 101, a laser scanner 102, a vehicle type identification device 1103, and at least one speedometer 104.

本実施形態のカメラ101とレーザスキャナ102は、図1で説明した実施形態1の構成と同様である。   The camera 101 and the laser scanner 102 of the present embodiment have the same configuration as that of the first embodiment described with reference to FIG.

速度計104は、車両10の速度を測定する。例えば、図20に示すように、速度計104は、車両10が所定位置Tの直前の位置(符号10a)から、所定位置Tに進入する際(符号10b)の速度を測定する。速度計104は、測定した車両10の速度を車種判別装置1103に送信する。速度計104は、速度計測部の一例である。   The speedometer 104 measures the speed of the vehicle 10. For example, as shown in FIG. 20, the speedometer 104 measures the speed when the vehicle 10 enters the predetermined position T (reference numeral 10b) from the position immediately before the predetermined position T (reference numeral 10a). The speedometer 104 transmits the measured speed of the vehicle 10 to the vehicle type identification device 1103. The speedometer 104 is an example of a speed measurement unit.

車種判別装置1103は、車種判別処理を実行する電子計算機の一例である。車種判別装置1103は、カメラ101、レーザスキャナ102、および速度計104と電気的に接続されている。車種判別装置1103の設置場所は、図1で説明した車種判別装置103の設置場所と同様である。   The vehicle type identification device 1103 is an example of an electronic computer that executes vehicle type identification processing. The vehicle type identification device 1103 is electrically connected to the camera 101, the laser scanner 102, and the speedometer 104. The installation location of the vehicle type identification device 1103 is the same as the installation location of the vehicle type identification device 103 described in FIG.

図21は、本実施形態の車種判別装置1103の機能的構成の一例を示すブロック図である。図21に示すように、本実施形態の車種判別装置1103は、記憶部90と、取得部1091と、画像生成部1092と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96と、を備える。   FIG. 21 is a block diagram illustrating an example of a functional configuration of the vehicle type identification device 1103 of the present embodiment. As shown in FIG. 21, the vehicle type identification device 1103 of the present embodiment includes a storage unit 90, an acquisition unit 1091, an image generation unit 1092, a panoramic image estimation unit 93, an interpolation unit 94, an axle detection unit 95, and the like. And a determination unit 96.

本実施形態の記憶部90と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96は、図2で説明した実施形態1の構成と同様である。   The storage unit 90, the panoramic image estimation unit 93, the interpolation unit 94, the axle detection unit 95, and the determination unit 96 of the present embodiment are the same as the configuration of the first embodiment described in FIG.

本実施形態の取得部1091は、実施形態1の取得部91の機能に加えてさらに、速度計104から車両10の速度を取得する。取得部1091は、取得した速度を画像生成部1092に送出する。   The acquisition unit 1091 of the present embodiment further acquires the speed of the vehicle 10 from the speedometer 104 in addition to the function of the acquisition unit 91 of the first embodiment. The acquisition unit 1091 sends the acquired speed to the image generation unit 1092.

画像生成部1092は、取得部1091から車両10の速度を取得する。画像生成部1092は車両10の速度に基づいて、リフレクタンス画像Gの正規化処理を行う。   The image generation unit 1092 acquires the speed of the vehicle 10 from the acquisition unit 1091. The image generation unit 1092 performs normalization processing of the reflectance image G based on the speed of the vehicle 10.

図8および図9で説明したように、車両10の速度が速いほど、リフレクタンス画像Gに含まれる車両10の画像の車長lは短くなる。すなわち、車両10の速度を計測することで、リフレクタンス画像Gに含まれる車両10の車長lの、車両10の実際の車長と比較した伸縮率を算出することができる。   As described with reference to FIGS. 8 and 9, as the speed of the vehicle 10 increases, the vehicle length l of the image of the vehicle 10 included in the reflectance image G becomes shorter. That is, by measuring the speed of the vehicle 10, the expansion / contraction ratio of the vehicle length l of the vehicle 10 included in the reflectance image G compared to the actual vehicle length of the vehicle 10 can be calculated.

画像生成部1092は、車両10の速度からリフレクタンス画像Gの時間軸方向の伸縮率を算出し、算出結果に基づいてリフレクタンス画像Gの時間軸方向の長さを修正する。これによりリフレクタンス画像Gの縦横比は実際の車両10の縦横比となる。   The image generation unit 1092 calculates the expansion / contraction ratio of the reflectance image G in the time axis direction from the speed of the vehicle 10 and corrects the length of the reflectance image G in the time axis direction based on the calculation result. Thus, the aspect ratio of the reflectance image G becomes the actual aspect ratio of the vehicle 10.

図22は、本実施形態の車種判別装置1103における正規化処理の一例を説明するための図である。図22は、正規化前のリフレクタンス画像Gにおける車両10の車長lおよび車軸位置のモデル500と、正規化後の車両10の車長Lおよび車軸位置のモデル501とを示す。画像生成部1092は、車両10の速度から算出した伸縮率から、車長lを車両10の実際の縦横比に即した車長Lにするための倍率を算出する。そして画像生成部1092は、モデル500〜501に示すように、算出結果の倍率に応じて正規化前のリフレクタンス画像Gの横幅を伸長することでリフレクタンス画像Gの正規化後を行う。   FIG. 22 is a diagram for explaining an example of normalization processing in the vehicle type identification device 1103 of the present embodiment. FIG. 22 shows a model 500 of the vehicle length l and axle position of the vehicle 10 in the reflectance image G before normalization, and a model 501 of the vehicle length L and axle position of the vehicle 10 after normalization. The image generation unit 1092 calculates a magnification for setting the vehicle length l to the vehicle length L in accordance with the actual aspect ratio of the vehicle 10 from the expansion / contraction rate calculated from the speed of the vehicle 10. Then, as shown in the models 500 to 501, the image generation unit 1092 performs normalization of the reflectance image G by extending the width of the reflectance image G before normalization according to the magnification of the calculation result.

また、車種判別システム1bは、一定距離間隔に配置した複数の速度計104を備える構成を採用しても良い。この場合、車両10が所定位置Tの通過中に速度を加減速したことを計測することができるため、図22のようにリフレクタンス画像G全体を同一の比で伸長するのではなく、速度変化に応じて一定領域ごとに伸長させる度合を変更することができる。また、実施形態1の正規化処理では、前輪と後輪の車軸の幅の変化から車両10の速度変化率を算出していたが、本実施形態の車種判別システム1bが一定距離間隔に配置した複数の速度計104を備える場合は、速度計104の計測結果に基づいて速度変化率を算出することができる。   Further, the vehicle type identification system 1b may employ a configuration including a plurality of speedometers 104 arranged at a constant distance interval. In this case, since it is possible to measure that the vehicle 10 has accelerated and decelerated while passing the predetermined position T, the entire reflectance image G is not expanded at the same ratio as shown in FIG. The degree of extension for each predetermined area can be changed according to the above. Further, in the normalization processing of the first embodiment, the speed change rate of the vehicle 10 is calculated from the change in the width of the axles of the front wheels and the rear wheels. When a plurality of speedometers 104 are provided, the speed change rate can be calculated based on the measurement result of the speedometer 104.

以上のように構成された本実施形態の車種判別装置1103における車種判別処理の流れは図19で説明した実施形態1の車種判別処理の流れと同様であるが、S13の処理において取得部1091はさらに速度計104から車両10の速度を取得する。また、S15の処理において画像生成部1092は、取得部1091が取得した車両10の速度に基づいてリフレクタンス画像Gの正規化処理を行う。   The flow of the vehicle type determination process in the vehicle type determination device 1103 of the present embodiment configured as described above is the same as the flow of the vehicle type determination process of the first embodiment described with reference to FIG. Further, the speed of the vehicle 10 is acquired from the speedometer 104. In the process of S15, the image generation unit 1092 performs the normalization process of the reflectance image G based on the speed of the vehicle 10 acquired by the acquisition unit 1091.

このように、本実施形態の車種判別装置1103によれば、取得部1091は速度計104から車両10の速度を取得し、画像生成部1092は取得部1091が取得した車両10の速度に基づいて、リフレクタンス画像Gの正規化処理を行うため、実際の車両10の速度に即してリフレクタンス画像Gの伸縮を行うことができる。このため、本実施形態の車種判別装置1103によれば、より正確な正規化処理を行うことができ、その後の全景画像D2とのマッチング処理の精度を向上させることができる。すなわち、本実施形態の車種判別装置1103によれば、より高解像度な全景画像Aを生成することで、車軸の数および車軸間の距離の計測の精度を向上させ、より高精度な車種判別を行うことができる。   Thus, according to the vehicle type identification device 1103 of the present embodiment, the acquisition unit 1091 acquires the speed of the vehicle 10 from the speedometer 104, and the image generation unit 1092 is based on the speed of the vehicle 10 acquired by the acquisition unit 1091. Since the normalization processing of the reflectance image G is performed, the reflectance image G can be expanded and contracted in accordance with the actual speed of the vehicle 10. For this reason, according to the vehicle type discrimination device 1103 of the present embodiment, more accurate normalization processing can be performed, and the accuracy of the subsequent matching processing with the whole-view image D2 can be improved. That is, according to the vehicle type discriminating apparatus 1103 of this embodiment, the accuracy of measurement of the number of axles and the distance between the axles is improved by generating a higher-resolution panoramic image A, and more accurate vehicle type discrimination is performed. It can be carried out.

(実施形態3)
実施形態1の車種判別装置103では車両10の車種判別をしていたが、本実施形態の車種判別装置2103はさらに、車両10の車種区分または車種ごとの通行車両数をカウントする。
(Embodiment 3)
Although the vehicle type discrimination device 103 of the first embodiment discriminates the vehicle type of the vehicle 10, the vehicle type discrimination device 2103 of this embodiment further counts the vehicle type classification of the vehicle 10 or the number of passing vehicles for each vehicle type.

本実施形態の車種判別システム1cは、カメラ101と、レーザスキャナ102と、車種判別装置2103とを備えている。   The vehicle type identification system 1c of this embodiment includes a camera 101, a laser scanner 102, and a vehicle type identification device 2103.

本実施形態のカメラ101とレーザスキャナ102は、図1で説明した実施形態1の構成と同様である。   The camera 101 and the laser scanner 102 of the present embodiment have the same configuration as that of the first embodiment described with reference to FIG.

車種判別装置2103は、車種判別処理を実行する電子計算機の一例である。車種判別装置2103は、カメラ101、レーザスキャナ102と電気的に接続されている。車種判別装置2103の設置場所は、図1で説明した車種判別装置103の設置場所と同様である。   The vehicle type identification device 2103 is an example of an electronic computer that executes vehicle type identification processing. The vehicle type identification device 2103 is electrically connected to the camera 101 and the laser scanner 102. The installation location of the vehicle type identification device 2103 is the same as the installation location of the vehicle type identification device 103 described in FIG.

図23は、本実施形態の車種判別装置2103の機能的構成の一例を示すブロック図である。図23に示すように、本実施形態の車種判別装置2103は、記憶部90と、取得部91と、画像生成部92と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96と、カウンタ97と、を備える。   FIG. 23 is a block diagram illustrating an example of a functional configuration of the vehicle type identification device 2103 of the present embodiment. As shown in FIG. 23, the vehicle type identification device 2103 of this embodiment includes a storage unit 90, an acquisition unit 91, an image generation unit 92, a panoramic image estimation unit 93, an interpolation unit 94, and an axle detection unit 95. A discriminator 96 and a counter 97.

本実施形態の記憶部90と、取得部91と、画像生成部92と、全景画像推定部93と、補間部94と、車軸検出部95と、判別部96は、図2で説明した実施形態1の構成と同様である。   The storage unit 90, the acquisition unit 91, the image generation unit 92, the panoramic image estimation unit 93, the interpolation unit 94, the axle detection unit 95, and the determination unit 96 of the present embodiment are the same as those described in FIG. The configuration is the same as that of FIG.

カウンタ97は、判別部96の車種判別結果を取得し、車種区分ごとまたは車種ごとの通行車両数を計数(カウント)する。カウンタ97は、車種区分または車種のいずれか一方の分類に基づいて通行車両数を計数しても良いし、両方の分類に基づいて計数しても良い。または、カウンタ97は、特定の車種区分または車種の車両10のみを計数する構成を採用しても良い。   The counter 97 obtains the vehicle type discrimination result of the discrimination unit 96 and counts (counts) the number of passing vehicles for each vehicle type division or each vehicle type. The counter 97 may count the number of passing vehicles based on either one of the vehicle type classification or the vehicle type, or may count based on both categories. Alternatively, the counter 97 may employ a configuration that counts only the vehicles 10 of a specific vehicle type classification or vehicle type.

また、カウンタ97は、車両10の車種区分ごとまたは車種のカウント結果と、各車両10を計数した時刻を紐づける。カウンタ97は、所定の時間ごとに、車種区分ごとまたは車種ごとの通行車両数の合計値を算出する構成を採用しても良い。あるいは、カウンタ97は、1台の車両10を計数する度に、車種区分または車種と時刻との紐づけを行う構成を採用しても良い。   The counter 97 associates the count result of each vehicle type or vehicle type of the vehicle 10 with the time when each vehicle 10 is counted. The counter 97 may employ a configuration that calculates the total value of the number of passing vehicles for each vehicle type classification or for each vehicle type at predetermined time intervals. Alternatively, the counter 97 may adopt a configuration in which the vehicle type classification or the vehicle type and the time are linked each time one vehicle 10 is counted.

カウンタ97は、カウント結果を不図示の外部装置へ出力する。あるいは、カウンタ97は、車種判別装置2103の不図示の表示部にカウント結果を表示する構成を採用しても良い。   The counter 97 outputs the count result to an external device (not shown). Alternatively, the counter 97 may employ a configuration that displays the count result on a display unit (not shown) of the vehicle type identification device 2103.

図24は、本実施形態の車種判別装置2103における車種区分別のカウント処理の一例について説明するための図である。車軸検出部95は全景画像Aから車軸の数および車軸の距離を計測し、判別部96は車種判別処理によって当該全景画像Aに該当する車両10が該当する車種区分を特定する。カウンタ97は、判別部96の判定結果を取得し、車種区分ごとの通行車両数をカウントする。   FIG. 24 is a diagram for explaining an example of the counting process for each vehicle type in the vehicle type identification device 2103 of this embodiment. The axle detection unit 95 measures the number of axles and the distance of the axles from the panoramic image A, and the discrimination unit 96 identifies the vehicle type classification to which the vehicle 10 corresponding to the panoramic image A corresponds by the vehicle type discrimination process. The counter 97 acquires the determination result of the determination unit 96, and counts the number of passing vehicles for each vehicle type division.

図25は、本実施形態の車種判別装置2103における車種区分別の時間当たりの通行車両数のカウント結果の一例を示すグラフである。図25の横軸は時間、縦軸は通行車両数を示す。図25の実線600は全車種を合計した通行車両数の値の推移を示し、破線601は車種区分が特大車の車両10の通行車両の値の推移を示す。一般に、貨物自動車等の特大車は深夜帯に走行することが多く、図25に示すように、全車種を合計した通行車両数と特大車の通行車両数のピークは異なる時間帯になる場合がある。全車種合計の通行車両数が同じであっても、特大車がより多く通行する場合は、道路がより混雑する可能性がある。本実施形態の車種判別装置2103では、カウンタ97が車種区分ごとに通行車両数をカウントすることで、全車種合計の通行車両数のみから道路混雑状況を把握する場合と比較して、より正確に道路混雑状況を把握することができる。   FIG. 25 is a graph showing an example of a count result of the number of vehicles passing by time for each vehicle type classification in the vehicle type identification device 2103 of this embodiment. In FIG. 25, the horizontal axis represents time, and the vertical axis represents the number of passing vehicles. The solid line 600 in FIG. 25 shows the transition of the value of the number of passing vehicles that is the sum of all the vehicle types, and the broken line 601 shows the transition of the value of the passing vehicle of the vehicle 10 whose vehicle type classification is the oversized vehicle. In general, oversized vehicles such as lorries often travel in the middle of the night, and as shown in FIG. 25, the peak of the total number of passing vehicles and the number of passing vehicles of oversized vehicles may be in different times as shown in FIG. is there. Even if the total number of passing vehicles is the same for all vehicle types, the road may be more congested if extra large vehicles pass more. In the vehicle type discriminating apparatus 2103 of this embodiment, the counter 97 counts the number of passing vehicles for each vehicle type division, so that it can be more accurately compared with the case where the road congestion situation is grasped only from the total number of passing vehicles of all vehicle types. The situation of road congestion can be grasped.

次に以上のように構成された本実施形態の車種判別処理の流れについて説明する。
図26は、本実施形態の車種判別装置2103における車種判別処理の手順の一例を示すフローチャートである。S20のカメラの撮像画像の取得から、S28の車種判別処理までは、図19で説明した実施形態1の車種判別処理のS10からS18までと同様に行われる。
Next, the flow of the vehicle type discrimination process of the present embodiment configured as described above will be described.
FIG. 26 is a flowchart illustrating an example of the procedure of the vehicle type identification process in the vehicle type identification device 2103 of the present embodiment. The process from acquisition of the captured image of the camera in S20 to the vehicle type determination process in S28 is performed in the same manner as S10 to S18 in the vehicle type determination process of the first embodiment described in FIG.

S28で判別部96が車種判別処理をしたら、S29で、カウンタ97は、判別部96が判別した車種区分または車種を取得し、車種区分ごとまたは車種ごとの通行車両数をカウントする。また、カウンタ97は、カウント結果とカウント時の時刻を紐づける。   If the discrimination | determination part 96 performs the vehicle type discrimination | determination process by S28, the counter 97 will acquire the vehicle classification or vehicle type which the discrimination | determination part 96 discriminate | determined by S29, and will count the number of passing vehicles for every vehicle classification or each vehicle type. The counter 97 associates the count result with the time at the time of counting.

S30で、判別部96は、車種判別処理の結果を不図示の外部装置に出力する。また、カウンタ97は、カウント結果およびカウント時の時刻を不図示の外部装置に出力する。   In S30, the determination unit 96 outputs the result of the vehicle type determination process to an external device (not shown). The counter 97 outputs the count result and the time at the time of counting to an external device (not shown).

このように、本実施形態にかかる車種判別装置2103によれば、カウンタ97が車種区分ごとまたは車種ごとの通行車両数をカウントするため、車種区分ごとの通行車両数を計測することができる。このため、本実施形態にかかる車種判別装置2103によれば、全車種合計の通行車両数のみから道路混雑状況を把握する場合と比較して、より正確に道路混雑状況を把握することができる。   Thus, according to the vehicle type discriminating apparatus 2103 according to the present embodiment, the counter 97 counts the number of passing vehicles for each vehicle type division or for each vehicle type, and thus the number of passing vehicles for each vehicle type division can be measured. For this reason, according to the vehicle type identification device 2103 according to the present embodiment, it is possible to grasp the road congestion state more accurately as compared with the case where the road congestion state is grasped only from the total number of passing vehicles of all vehicle types.

さらに、本実施形態にかかる車種判別装置2103によれば、カウンタ97が各車両10の車種区分または車種ごとのカウント結果と、各車両10をカウントした時刻とを紐づけるため、時間あたりの車種区分ごとまたは車種ごとの通行車両数を計測することができる。   Furthermore, according to the vehicle type identification device 2103 according to the present embodiment, the counter 97 associates the vehicle type division of each vehicle 10 or the count result for each vehicle type with the time at which each vehicle 10 is counted. The number of passing vehicles can be measured for each vehicle type or vehicle type.

本実施形態の車種判別装置2103は、カウンタ97によるカウント結果およびカウント時の時刻を、例えば道路交通情報として提供することができる。図25で述べたように、時間当たりの車種区分ごとまたは車種ごとの通行車両数を用いることで、全車種合計の通行車両数から道路混雑状況を把握する場合と比較して、より正確な道路混雑状況を道路交通情報として提供することができる。本実施形態の車種判別システム1cを複数の道路に設置し、各設置場所における時間当たりの車種区分ごとまたは車種ごとの通行車両数をカウントすることで、さらに道路交通情報の精度を向上させ、より正確な渋滞予測を行うことができる。   The vehicle type identification device 2103 of this embodiment can provide the count result of the counter 97 and the time at the time of counting as, for example, road traffic information. As described in FIG. 25, by using the number of passing vehicles for each vehicle type classification or for each vehicle type, a more accurate road compared to the case of grasping the road congestion status from the total number of passing vehicles for all vehicle types. The congestion situation can be provided as road traffic information. By installing the vehicle type identification system 1c of the present embodiment on a plurality of roads and counting the number of passing vehicles for each vehicle type division or for each vehicle type at each installation location, the accuracy of road traffic information is further improved. Accurate traffic jam prediction can be performed.

また、車種判別システム1cの設置場所における時間当たりの車種区分ごとまたは車種ごとの通行車両数を、地図情報と統合しても良い。この場合、地図上で車種判別システム1cの設置場所に対応する各地点において、時間当たりの車種区分ごとまたは車種ごとの通行車両数を把握することができる。例えば、当該情報を特大車の運転手に提供することで、運転手はより正確な道路混雑状況を知ることができ、混雑した道路を避けて走行することが可能となる。   Moreover, you may integrate the number of passing vehicles for every vehicle type classification per time or for every vehicle type in the installation place of the vehicle type discrimination system 1c with map information. In this case, it is possible to grasp the number of passing vehicles for each vehicle type classification or for each vehicle type at each point corresponding to the installation location of the vehicle type identification system 1c on the map. For example, by providing the information to the driver of an oversized vehicle, the driver can know a more accurate road congestion situation and can travel while avoiding a crowded road.

また、特定の道路において、車種区分が特大車の車両10が全く走行してない場合は、当該道路は道幅が狭いなどの理由によって特大車が走行できない可能性がある。この場合は、特大車の運転手は、車種区分ごとの通行車両数を知ることによって当該道路を避けて走行することが可能となる。すなわち、本実施形態の車種判別システム1cによれば、運転手が適切な道のりを選択するための支援を行うことができる。カウント結果と地図情報との統合は、不図示の外部装置で行う構成を採用しても良いし、車種判別装置2103がさらに地図情報を取得し、統合処理を行う構成を採用しても良い。   On the specific road, if the vehicle 10 having an oversized vehicle type is not traveling at all, there is a possibility that the oversized vehicle cannot travel because the road is narrow. In this case, the driver of the oversized vehicle can travel while avoiding the road by knowing the number of passing vehicles for each type of vehicle. That is, according to the vehicle type identification system 1c of the present embodiment, it is possible to provide assistance for the driver to select an appropriate route. The integration of the count result and the map information may employ a configuration performed by an external device (not shown), or may adopt a configuration where the vehicle type identification device 2103 further acquires map information and performs an integration process.

また、一般に、特大車の通行は道路へ与える負荷が他の車種区分の車両10の通行と比較して高い。本実施形態にかかる車種判別装置2103によれば、特定の車種区分の通行車両数を把握することができるため、道路への負荷状況の分析にも利用することができる。例えば、車種判別装置2103の出力結果は、特大車が多く通行する道路のメンテナンスを特大車がより少なく通行する道路と比較して高い頻度で実施するよう、メンテナンス時期の算出に利用することができる。   Further, in general, the traffic on an oversized vehicle has a higher load on the road than the traffic of the vehicle 10 in another vehicle type. According to the vehicle type discriminating apparatus 2103 according to the present embodiment, the number of passing vehicles in a specific vehicle type classification can be grasped, so that it can also be used for analyzing the load situation on the road. For example, the output result of the vehicle type discriminating apparatus 2103 can be used for the calculation of the maintenance time so that the maintenance of the road on which the oversized vehicle passes is performed more frequently than the road on which the oversized vehicle passes less. .

(実施形態4)
実施形態1の車種判別装置103では、車両10の車種判別をしていたが、本実施形態の車種判別装置3103はさらに、重量測定器105a〜105cによって車両10の重量を計測する。
(Embodiment 4)
Although the vehicle type discrimination device 103 of the first embodiment discriminates the vehicle type of the vehicle 10, the vehicle type discrimination device 3103 of the present embodiment further measures the weight of the vehicle 10 by the weight measuring devices 105a to 105c.

図27は、本実施形態の車種判別システム1dの構成の一例を示す図である。図27に示すように、本実施形態の車種判別システム1dは、カメラ101と、レーザスキャナ102と、車種判別装置3103と、重量測定器105a〜105cとを備えている。   FIG. 27 is a diagram illustrating an example of a configuration of the vehicle type identification system 1d according to the present embodiment. As shown in FIG. 27, the vehicle type identification system 1d of this embodiment includes a camera 101, a laser scanner 102, a vehicle type identification device 3103, and weight measuring devices 105a to 105c.

本実施形態のカメラ101とレーザスキャナ102は、図1で説明した実施形態1の構成と同様である。   The camera 101 and the laser scanner 102 of the present embodiment have the same configuration as that of the first embodiment described with reference to FIG.

図27では車種判別システム1dは、重量測定器105a〜105cの3台の重量測定器を備えているが、これは一例であり、車種判別システム1dは、少なくとも1つの重量測定器105を備えれば良い。ここで、重量測定器105は重量測定器105a〜105cの総称とする。重量測定器105は、所定位置Tの道路(車両通行路)に設置され、車両10の車軸が重量測定器105上を通過する際に、車両10の重量を計測する。重量測定器105は、道路上に設置された板状の装置であっても良く、または道路に埋め込まれる等の構成を採用しても良い。重量測定器105は、測定した車両10の重量を、車種判別装置3103に送信する。重量測定器105は重量測定部の一例である。   In FIG. 27, the vehicle type identification system 1d includes three weight measuring units 105a to 105c, but this is an example, and the vehicle type identification system 1d includes at least one weight measuring unit 105. It ’s fine. Here, the weight measuring device 105 is a generic name of the weight measuring devices 105a to 105c. The weight measuring device 105 is installed on a road (vehicle passage) at a predetermined position T, and measures the weight of the vehicle 10 when the axle of the vehicle 10 passes over the weight measuring device 105. The weight measuring device 105 may be a plate-like device installed on the road, or may be configured to be embedded in the road. The weight measuring device 105 transmits the measured weight of the vehicle 10 to the vehicle type identification device 3103. The weight measuring device 105 is an example of a weight measuring unit.

図27の重量測定器105bのように、重量測定器105は少なくとも1台がレーザスキャナ102の正面の位置に設置されることが望ましい。また、車両10の揺れによる計測される重量の値の変動があるため、図27の重量測定器105a〜105cのように複数台で計測するとより正確な重量を測定することができる。重量測定器105a〜105cのいずれかが故障した場合には、重量測定器105a〜105cのうち正常に稼働しているものの計測値を採用し、車種判別システム1dの稼働を継続できる構成を採用しても良い。   As in the weight measuring device 105b of FIG. 27, it is desirable that at least one weight measuring device 105 is installed at a position in front of the laser scanner 102. Further, since there is a change in the value of the weight measured due to the shaking of the vehicle 10, more accurate weight can be measured by measuring with a plurality of units such as the weight measuring devices 105a to 105c in FIG. When any of the weight measuring devices 105a to 105c fails, the measurement value of the weight measuring device 105a to 105c that is operating normally is adopted, and the configuration that can continue the operation of the vehicle type identification system 1d is adopted. May be.

重量測定器105がレーザスキャナ102の正面の位置に設置されることが望ましい理由を、図28および図29を用いて説明する。   The reason why it is desirable to install the weight measuring device 105 at a position in front of the laser scanner 102 will be described with reference to FIGS. 28 and 29. FIG.

図28は、本実施形態のカメラ101が連続して撮像した複数の静止画像の一例を示す図である。カメラ101は連続する画像1200〜1203を、それぞれ時刻t0〜t3の時点で撮像したものとする。このとき、車両10がカメラ101の視野内に進入した時刻および退出した時刻は取得できるが、時刻t0〜t3の間の任意の時刻における車両10の正確な位置を検出することは困難である。   FIG. 28 is a diagram illustrating an example of a plurality of still images continuously captured by the camera 101 of the present embodiment. Assume that the camera 101 captures continuous images 1200 to 1203 at times t0 to t3, respectively. At this time, the time when the vehicle 10 entered the field of view of the camera 101 and the time when it exited can be acquired, but it is difficult to detect the exact position of the vehicle 10 at any time between time t0 and time t3.

それに対して、レーザスキャナ102は、カメラ101よりも短い周期で車両10の位置情報を取得しているため、各車軸がレーザスキャナ102の目前を通過した時刻を取得することができる。
図29は、本実施形態のレーザスキャナ102の検出結果の一例を示す図である。図29に示すように、レーザスキャナ102が車両10を走査して取得した距離情報から生成された点群データgは、車軸701を含む。また、符号702に示すように、重量測定器105bは、時刻t1の時点で車両10の重量を測定している。
On the other hand, since the laser scanner 102 acquires the position information of the vehicle 10 at a cycle shorter than that of the camera 101, it is possible to acquire the time at which each axle passes in front of the laser scanner 102.
FIG. 29 is a diagram illustrating an example of a detection result of the laser scanner 102 according to the present embodiment. As shown in FIG. 29, the point cloud data g generated from the distance information acquired by the laser scanner 102 scanning the vehicle 10 includes an axle 701. Further, as indicated by reference numeral 702, the weight measuring device 105b measures the weight of the vehicle 10 at time t1.

図27に示すようにレーザスキャナ102の正面の位置に重量測定器105bを設置した場合、レーザスキャナ102の目前を車両10の車軸が通過する時刻t1と、重量測定器105bが車軸の重量を測定した時刻t1とがほぼ同時になる。このため、図29に示す車軸701をレーザスキャナ102が走査した時刻t1と、重量測定器105bが車軸701の重量を測定した時刻t1とを同期させることにより、重量測定器105bが重量を計測した車軸701が、レーザスキャナ102が走査した車軸701であることが特定できる。以上の理由により、重量測定器105は少なくとも1台がレーザスキャナ102の正面の位置に設置されることが望ましい。   As shown in FIG. 27, when the weight measuring device 105b is installed at the front position of the laser scanner 102, the time t1 when the axle of the vehicle 10 passes in front of the laser scanner 102, and the weight measuring device 105b measures the weight of the axle. The time t1 is almost the same. Therefore, the weight measuring device 105b measures the weight by synchronizing the time t1 when the laser scanner 102 scans the axle 701 shown in FIG. 29 with the time t1 when the weight measuring device 105b measures the weight of the axle 701. It can be specified that the axle 701 is the axle 701 scanned by the laser scanner 102. For the above reasons, it is desirable that at least one weight measuring device 105 is installed at a position in front of the laser scanner 102.

図27に戻り、車種判別装置3103は、車種判別処理を実行する電子計算機の一例である。車種判別装置3103は、カメラ101、レーザスキャナ102、および重量測定器105a〜105cと電気的に接続されている。車種判別装置3103の設置場所は、図1で説明した車種判別装置103の設置場所と同様である。   Returning to FIG. 27, the vehicle type identification device 3103 is an example of an electronic computer that executes a vehicle type identification process. The vehicle type identification device 3103 is electrically connected to the camera 101, the laser scanner 102, and the weight measuring devices 105a to 105c. The installation location of the vehicle type identification device 3103 is the same as the installation location of the vehicle type identification device 103 described in FIG.

図30は、本実施形態の車種判別装置3103の機能的構成の一例を示すブロック図である。図30に示すように、本実施形態の車種判別装置3103は、記憶部1090と、取得部2091と、画像生成部92と、全景画像推定部93と、補間部94と、車軸検出部1095と、判別部1096と、車軸別重量計測部98と、過積載判定部99と、を備える。   FIG. 30 is a block diagram illustrating an example of a functional configuration of the vehicle type identification device 3103 of the present embodiment. As shown in FIG. 30, the vehicle type identification device 3103 of this embodiment includes a storage unit 1090, an acquisition unit 2091, an image generation unit 92, a panoramic image estimation unit 93, an interpolation unit 94, and an axle detection unit 1095. A discriminating unit 1096, an axle-specific weight measuring unit 98, and an overload determining unit 99.

本実施形態の画像生成部92と、全景画像推定部93と、補間部94は、図2で説明した実施形態1の構成と同様である。   The image generation unit 92, the panoramic image estimation unit 93, and the interpolation unit 94 of the present embodiment are the same as the configuration of the first embodiment described with reference to FIG.

本実施形態の記憶部1090は、実施形態1の記憶部90の記憶内容に加えてさらに、車種区分ごとまたは車種ごとの荷積載量の重量の上限値に、当該車種区分または車種の車体の想定される重量の上限値を加算した重量である過積載基準値を記憶する。また、記憶部1090はさらに、車種区分ごとまたは車種ごとに、1車軸あたりが安全に支えられる重量の上限値である限界重量を記憶する。限界重量は車軸の大きさに応じて異なる値が定義されるものとしても良い。上記の過積載基準値および限界重量の算出方法は一例であり、これに限定されない。   In addition to the storage contents of the storage unit 90 of the first embodiment, the storage unit 1090 of the present embodiment further assumes the vehicle type classification or the vehicle body of the vehicle type as the upper limit value of the weight of the load amount for each vehicle type or for each vehicle type. The overload reference value which is a weight obtained by adding the upper limit value of the weight to be stored is stored. Further, the storage unit 1090 further stores a limit weight that is an upper limit value of a weight that can safely be supported per axle for each vehicle type division or each vehicle type. The limit weight may be defined as a different value depending on the size of the axle. The calculation method of the above overload reference value and the limit weight is an example, and is not limited to this.

本実施形態の取得部2091は、実施形態1の取得部91の機能に加えてさらに、重量測定器105a〜105cから車両10の重量と、車両10の重量を測定した時刻とを取得する。取得部2091は、取得した重量を車軸別重量計測部98に送出する。   In addition to the function of the acquisition unit 91 of the first embodiment, the acquisition unit 2091 of the present embodiment further acquires the weight of the vehicle 10 and the time when the weight of the vehicle 10 is measured from the weight measuring devices 105a to 105c. The acquisition unit 2091 sends the acquired weight to the axle-specific weight measurement unit 98.

車軸検出部1095は、点群データgによって補間された全景画像Aから車軸を検出する際、各車軸に対応する検出点pがレーザスキャナ102よって検出された時刻と、各車軸とを紐づける。車軸検出部1095は、車軸の数および車軸間の距離に加え、各車軸がレーザスキャナ102よって走査された時刻を車軸別重量計測部98に送出する。各車軸が走査された時刻と各車軸の検出結果の紐づけ方法はこれに限定されず、点群データgまたはリフレクタンス画像Gを用いる構成を採用しても良い。   When the axle detection unit 1095 detects the axle from the whole scene image A interpolated by the point cloud data g, the axle detection unit 1095 associates each axle with the time when the detection point p corresponding to each axle is detected by the laser scanner 102. The axle detection unit 1095 sends the time when each axle was scanned by the laser scanner 102 to the axle-by-axle weight measurement unit 98 in addition to the number of axles and the distance between the axles. The method of associating the time at which each axle is scanned with the detection result of each axle is not limited to this, and a configuration using point cloud data g or reflectance image G may be adopted.

車軸別重量計測部98は、車軸検出部1095から車軸の数と車軸間の距離、および各車軸がレーザスキャナ102よって走査された時刻を取得する。また、車軸別重量計測部98は、取得部2091が重量測定器105a〜105cから取得した車両10の重量、および車両10の重量を測定した時刻を、取得部2091から取得する。車軸別重量計測部98は、車軸検出部1095から取得した車軸の数と車軸間の距離および各車軸がレーザスキャナ102よって走査された時刻と、取得部2091が取得した車両10の重量および車両10の重量を測定した時刻と、を照合することによって、車軸ごとの重量を計測する。   The axle-specific weight measuring unit 98 acquires the number of axles, the distance between the axles, and the time when each axle was scanned by the laser scanner 102 from the axle detecting unit 1095. The axle-specific weight measuring unit 98 acquires the weight of the vehicle 10 acquired by the acquiring unit 2091 from the weight measuring devices 105a to 105c and the time when the weight of the vehicle 10 is measured from the acquiring unit 2091. The axle-by-axle weight measurement unit 98 includes the number of axles acquired from the axle detection unit 1095, the distance between the axles, the time at which each axle was scanned by the laser scanner 102, the weight of the vehicle 10 acquired by the acquisition unit 2091, and the vehicle 10 The weight of each axle is measured by comparing the time when the weight of the vehicle is measured.

ここで、図16および図17で述べたように、車両10は、リフトアクスル機能によって一部の車軸を路面から浮かせることがある。図16および図17に示す路面400から、リフトした車軸の高さの下限401までの間は空間がある。しかしながら、路面400から、リフトした車軸の高さの下限401までの距離の具体的な基準は決められていない。このため、路面400から、リフトした車軸の高さの下限401までの距離が非常に短くなり、全景画像A等の車両10の形状情報からは車軸が路面400から浮いていることを判断することが困難な場合がある。この場合、実際には車両10の一部の車軸が路面400から浮いているにも関わらず、車軸検出部1095は浮いている車軸も路面400に接地した車軸として判断する可能性がある。   Here, as described in FIGS. 16 and 17, the vehicle 10 may lift a part of the axle from the road surface by the lift axle function. There is a space from the road surface 400 shown in FIGS. 16 and 17 to the lower limit 401 of the height of the lifted axle. However, a specific standard for the distance from the road surface 400 to the lower limit 401 of the height of the lifted axle has not been determined. For this reason, the distance from the road surface 400 to the lower limit 401 of the height of the lifted axle shaft becomes very short, and it is determined from the shape information of the vehicle 10 such as the panoramic image A that the axle is floating from the road surface 400. May be difficult. In this case, although a part of the axle of the vehicle 10 actually floats from the road surface 400, the axle detection unit 1095 may determine that the floating axle is an axle that is in contact with the road surface 400.

そこで、本実施形態の車軸別重量計測部98は、車両10の車軸ごとの重量の計測結果から、各車軸が路面から浮いているか否かを判断する。すなわち、車軸別重量計測部98は、車軸検出部1095が路面に接地した車軸であると判断した場合であっても、当該車軸の重量を重量測定器105a〜105cが測定していない場合、実際には路面から浮いた車軸であると判定する。   Therefore, the axle-based weight measurement unit 98 of the present embodiment determines whether or not each axle is floating from the road surface, based on the measurement result of the weight of each axle of the vehicle 10. That is, even when the axle-based weight measuring unit 98 determines that the axle detection unit 1095 is an axle that is grounded on the road surface, if the weight measuring devices 105a to 105c are not measuring the weight of the axle, It is determined that the axle is floating from the road surface.

車軸別重量計測部98は、車軸が路面から浮いていると判断した場合、当該路面から浮いている車軸を除いた車軸の数および車軸間の距離を再度計測する。   When the axle-specific weight measuring unit 98 determines that the axle is floating from the road surface, it again measures the number of axles excluding the axle floating from the road surface and the distance between the axles.

車軸別重量計測部98は、計測した車両10の車軸の数と車軸間の距離を、判別部1096に送出する。車軸が路面から浮いている車軸がない場合は、車軸別重量計測部98は、車軸検出部1095が計測した車軸の数と車軸間の距離を判別部1096に送出する。また、車軸別重量計測部98は、車両10の車軸ごとの重量を過積載判定部99に送出する。   The axle-specific weight measuring unit 98 sends the measured number of axles of the vehicle 10 and the distance between the axles to the determining unit 1096. When there is no axle with the axle floating from the road surface, the axle-specific weight measurement unit 98 sends the number of axles measured by the axle detection unit 1095 and the distance between the axles to the determination unit 1096. The axle-specific weight measuring unit 98 sends the weight of each axle of the vehicle 10 to the overload determining unit 99.

図30に戻り、判別部1096は、車軸別重量計測部98が計測した車軸の数および車軸間の距離に基づいて、車両10の車種区分および車種を判別する。判別部1096は図18で説明した実施形態1の判別部96と同様に、車種判別情報20に定義された基準に基づいて車種判別処理を行う。判別部1096は、車種判別処理の結果を、過積載判定部99に送出する。   Returning to FIG. 30, the determination unit 1096 determines the vehicle type classification and the vehicle type of the vehicle 10 based on the number of axles measured by the axle-specific weight measurement unit 98 and the distance between the axles. The discriminating unit 1096 performs the vehicle type discriminating process based on the criteria defined in the vehicle type discriminating information 20 similarly to the discriminating unit 96 of the first embodiment described with reference to FIG. The determination unit 1096 sends the result of the vehicle type determination process to the overload determination unit 99.

図30に戻り、過積載判定部99は、判別部1096から車種判別処理の結果を取得する。また、過積載判定部99は、車軸別重量計測部98から車両10の車軸ごとの重量を取得する。過積載判定部99は、判別部1096の車種判別結果と、車両10の重量とに基づいて、車両10が過積載か否か判定する。   Returning to FIG. 30, the overload determination unit 99 acquires the result of the vehicle type determination process from the determination unit 1096. Further, the overload determination unit 99 acquires the weight of each axle of the vehicle 10 from the axle-specific weight measurement unit 98. The overload determination unit 99 determines whether the vehicle 10 is overloaded based on the vehicle type determination result of the determination unit 1096 and the weight of the vehicle 10.

具体的には、過積載判定部99は、記憶部1090から、判別部1096の車種判別結果の車種区分または車種に合致する過積載基準値を取得し、車両10の重量と比較する。すなわち、過積載判定部99は、取得部2091が取得した車両10の重量が、判別部1096が判別した車両10の車種区分または車種に定められた過積載基準値を超えていると判断した場合に、車両10を過積載と判定する。あるいは、過積載判定部99は、過積載基準値に達していなくとも、一定以上過積載基準値に近接した重量の車両10も判定対象とする構成を採用しても良い。   Specifically, the overload determination unit 99 acquires an overload reference value that matches the vehicle type classification or vehicle type of the vehicle type determination result of the determination unit 1096 from the storage unit 1090 and compares it with the weight of the vehicle 10. That is, when the overload determination unit 99 determines that the weight of the vehicle 10 acquired by the acquisition unit 2091 exceeds the overload reference value set for the vehicle type classification or vehicle type determined by the determination unit 1096. Then, it is determined that the vehicle 10 is overloaded. Alternatively, the overload determination unit 99 may adopt a configuration in which the vehicle 10 having a weight close to the overload reference value by a certain amount or more is determined even if the overload reference value is not reached.

また、過積載判定部99は、判別部1096から取得した車種判別結果と、車軸別重量計測部98から取得した車両10の車軸ごとの重量に基づいて、車軸別重量計測部98が計測した車両10の車軸ごとの重量が、車軸ごとの重量の上限値である限界重量に達しているか否かを判定する。   The overload determination unit 99 also measures the vehicle measured by the axle-specific weight measurement unit 98 based on the vehicle type determination result acquired from the determination unit 1096 and the weight for each axle of the vehicle 10 acquired from the axle-specific weight measurement unit 98. It is determined whether the weight for each of the ten axles has reached the limit weight that is the upper limit value of the weight for each axle.

具体的には、過積載判定部99は、記憶部1090から、判別部1096の車種判別結果の車種区分または車種に合致する限界重量を取得し、車両10の各車軸の重量と比較することで、車両10の各車軸の重量が限界重量に達しているか否かを判定する。また、過積載判定部99は、車両10の各車軸の重量が限界重量に達していない場合でも、各車軸の重量の差が著しい場合には判定対象とする構成を採用しても良い。各車軸の重量の差の閾値は、所定の重量差として記憶部1090が記憶する構成を採用しても良い。   Specifically, the overload determination unit 99 obtains a limit weight that matches the vehicle type classification or vehicle type of the vehicle type determination result of the determination unit 1096 from the storage unit 1090 and compares it with the weight of each axle of the vehicle 10. Then, it is determined whether or not the weight of each axle of the vehicle 10 has reached the limit weight. Further, even when the weight of each axle of the vehicle 10 does not reach the limit weight, the overload determination unit 99 may adopt a configuration that is a determination target if the weight difference between the axles is significant. A configuration may be employed in which the storage unit 1090 stores the threshold value for the weight difference between the axles as a predetermined weight difference.

また、過積載判定部99は、図15で述べたように車軸検出部95が測定した車軸の大きさ(直径)を取得しても良い。その場合、記憶部1090から車種区分または車種ごとに、さらに車軸の大きさに応じて定義された限界重量を取得して、車軸ごとの重量が限界重量に達しているかを判定する。   Further, the overload determination unit 99 may acquire the size (diameter) of the axle measured by the axle detection unit 95 as described in FIG. In that case, the limit weight defined according to the size of the axle is further obtained from the storage unit 1090 for each vehicle type or vehicle type, and it is determined whether the weight for each axle has reached the limit weight.

過積載判定部99は、過積載判定結果、各車軸が限界重量に達しているか否かの判定結果、および車軸ごとの重量計測結果を不図示の外部装置に出力する。あるいは、過積載判定部99は、車両10が過積載である場合や、いずれかの車軸が限界重量に達している場合に、不図示の報知部に信号を送出して警報を発する構成を採用しても良い。また、車軸ごとの重量計測結果は車軸別重量計測部98が直接、不図示の外部装置に出力する構成を採用しても良い。   The overload determination unit 99 outputs an overload determination result, a determination result as to whether or not each axle has reached a limit weight, and a weight measurement result for each axle to an external device (not shown). Alternatively, the overload determination unit 99 employs a configuration that issues a warning by sending a signal to a notification unit (not shown) when the vehicle 10 is overloaded or when any axle has reached the limit weight. You may do it. Further, a configuration may be adopted in which the weight measurement result for each axle is directly output to the external device (not shown) by the axle-specific weight measurement unit 98.

図31は、本実施形態の車種判別装置3103における車軸ごとの重量分析の一例を示す図である。図31に示すように、車両10の全景画像Aには、車両10の前輪にあたる車軸801と、後輪にあたる車軸802が含まれる。図31の下部の図は、車軸別重量計測部98による車軸ごとの重量計測結果を示す。車軸801の下に位置する矩形803は車軸801の重量、車軸802の下に位置する矩形804は車軸802の重量をそれぞれ示している。重量測定器105a〜105cによる計測結果の差異がある場合は、矩形803〜804の底辺が最も軽く計測された重量の値、矩形803〜804の上側の辺が最も重く計測された重量の値を示す。   FIG. 31 is a diagram illustrating an example of weight analysis for each axle in the vehicle type identification device 3103 of the present embodiment. As shown in FIG. 31, the panoramic image A of the vehicle 10 includes an axle 801 corresponding to the front wheel of the vehicle 10 and an axle 802 corresponding to the rear wheel. The lower part of FIG. 31 shows the result of weight measurement for each axle by the axle-specific weight measuring unit 98. A rectangle 803 located below the axle 801 represents the weight of the axle 801, and a rectangle 804 located below the axle 802 represents the weight of the axle 802. When there is a difference in the measurement results by the weight measuring devices 105a to 105c, the weight value measured lightest at the bottom of the rectangles 803 to 804 and the weight value measured most heavily at the upper side of the rectangles 803 to 804 Show.

図31に示すように、車両10の前輪にあたる車軸801の重量は限界重量に達していない。しかしながら、車両10の後輪にあたる車軸802の重量は限界重量に達していることがわかる。   As shown in FIG. 31, the weight of the axle 801 corresponding to the front wheel of the vehicle 10 does not reach the limit weight. However, it can be seen that the weight of the axle 802 corresponding to the rear wheel of the vehicle 10 has reached the limit weight.

次に以上のように構成された本実施形態の車種判別処理の流れについて説明する。図32は、本実施形態の車種判別装置3103における車種判別処理の手順の一例を示すフローチャートである。S40のカメラの撮像画像の取得から、S47の車軸の検出までは、図19で説明した実施形態1の車種判別処理のS10からS17までと同様に行われる。   Next, the flow of the vehicle type discrimination process of the present embodiment configured as described above will be described. FIG. 32 is a flowchart illustrating an example of the procedure of the vehicle type identification process in the vehicle type identification device 3103 of the present embodiment. The process from acquisition of the captured image of the camera in S40 to detection of the axle in S47 is performed in the same manner as S10 to S17 in the vehicle type determination process of the first embodiment described in FIG.

S47で車軸検出部1095が車軸の数および車軸間の距離を計測したら、S48で、取得部2091は、重量測定器105a〜105cから車両10の重量と、車両10の重量を測定した時刻とを取得し、車軸別重量計測部98に送出する。   When the axle detection unit 1095 measures the number of axles and the distance between the axles in S47, the acquisition unit 2091 obtains the weight of the vehicle 10 and the time when the weight of the vehicle 10 is measured from the weight measuring devices 105a to 105c in S48. Acquired and sent to the weight measurement unit 98 by axle.

S49で、車軸別重量計測部98は、取得部2091から取得した車両10の重量と、車両10の重量を測定した時刻と、車軸検出部1095から取得した車軸検出結果とを照合する。   In S49, the axle-specific weight measurement unit 98 collates the weight of the vehicle 10 acquired from the acquisition unit 2091, the time when the weight of the vehicle 10 was measured, and the axle detection result acquired from the axle detection unit 1095.

S50で、車軸別重量計測部98は、車軸ごとの重量を計測する。また、車軸別重量計測部98は、路面から浮いている車軸を検出した場合には、当該車軸を除いた車軸の数および車軸間の距離を計測する。   In S50, the axle-specific weight measuring unit 98 measures the weight of each axle. In addition, when detecting the axle floating on the road surface, the weight measuring unit 98 for each axle measures the number of axles excluding the axle and the distance between the axles.

S51で、判別部1096は、車軸別重量計測部98から取得した車軸の数と車軸間の距離の計測結果に基づいて、車両10の車種区分および車種を判別する。   In S51, the determination unit 1096 determines the vehicle type classification and the vehicle type of the vehicle 10 based on the measurement results of the number of axles and the distance between the axles acquired from the axle-based weight measurement unit 98.

S52で、過積載判定部99は、車両10が過積載であるか否かの判定をする。また、過積載判定部99は、各車軸の重量が限界重量に達しているか否かを判定する。   In S52, the overload determination unit 99 determines whether or not the vehicle 10 is overloaded. Further, the overload determination unit 99 determines whether or not the weight of each axle has reached the limit weight.

S53で、判別部1096は、車種判別結果を不図示の外部装置に出力する。また、過積載判定部99は、過積載判定結果、各車軸が限界重量に達しているか否かの判定結果、および車軸ごとの重量計測結果を不図示の外部装置に出力する。   In S53, the determination unit 1096 outputs the vehicle type determination result to an external device (not shown). The overload determination unit 99 outputs an overload determination result, a determination result as to whether or not each axle has reached a limit weight, and a weight measurement result for each axle to an external device (not shown).

このように、本実施形態の車種判別装置3103によれば、取得部2091が重量測定器105a〜105cから車両10の重量を取得し、過積載判定部99が、判別部1096の車種判別結果と、車両10の重量とに基づいて、車両10が過積載か否か判定するため、過積載の車両10を効率よく判定することができる。車種区分および車種によって、重量の上限値は当然に異なるが、本実施形態の車種判別装置3103によれば、判別部1096が車種区分および車種を判定した後に、過積載判定部99が過積載の判定を行うことで、過積載か否かの判定を適切に行うことができる。   Thus, according to the vehicle type identification device 3103 of this embodiment, the acquisition unit 2091 acquires the weight of the vehicle 10 from the weight measuring devices 105a to 105c, and the overload determination unit 99 determines the vehicle type determination result of the determination unit 1096. Since it is determined whether the vehicle 10 is overloaded based on the weight of the vehicle 10, the overloaded vehicle 10 can be determined efficiently. Although the upper limit value of the weight naturally varies depending on the vehicle type classification and the vehicle type, according to the vehicle type identification device 3103 of this embodiment, after the determination unit 1096 determines the vehicle type classification and the vehicle type, the overload determination unit 99 is overloaded. By performing the determination, it is possible to appropriately determine whether or not the vehicle is overloaded.

また、本実施形態の車種判別装置3103によれば、取得部2091が、重量測定器105a〜105cから、車両10の重量と、車両10の重量を測定した時刻とを取得し、車軸別重量計測部98が、車両10の重量と車両10の重量を測定した時刻とを、車軸検出部1095の車軸検出結果と照合することによって、車軸ごとの重量を計測するため、車軸ごとにかかる負荷を把握することができる。このため、本実施形態の車種判別装置3103によれば、積荷の全体の積載量は基準内であっても走行上危険な状態にある車両10や、積荷の積載バランスが悪い車両10を判定することができる。   Further, according to the vehicle type identification device 3103 of the present embodiment, the acquisition unit 2091 acquires the weight of the vehicle 10 and the time when the weight of the vehicle 10 is measured from the weight measuring devices 105a to 105c, and the weight measurement for each axle is performed. The unit 98 measures the weight of each axle by comparing the weight of the vehicle 10 and the time when the weight of the vehicle 10 is measured with the axle detection result of the axle detection unit 1095, and thus grasps the load applied to each axle. can do. Therefore, according to the vehicle type discriminating apparatus 3103 of the present embodiment, it is determined whether the vehicle 10 is in a dangerous state for traveling even if the total load amount of the load is within the standard or the vehicle 10 with a bad load balance of the load. be able to.

さらに、本実施形態の車種判別装置3103によれば、車軸別重量計測部98が、車軸の重量の計測結果から、車軸が路面から浮いているか否かを判定して、路面から浮いている車軸を除いた車軸の数および車軸間の距離を計測し、判別部1096が、車軸別重量計測部98の計測結果に基づいて車両10の車種区分および車種を判別するため、車両10のリフトアクスル機能によってリフトした車軸と路面からの距離がわずかであっても、車種区分および車種の判定を高精度に行うことができる。   Furthermore, according to the vehicle type discriminating apparatus 3103 of this embodiment, the axle-based weight measuring unit 98 determines whether the axle is floating from the road surface based on the measurement result of the axle weight, and the axle floating from the road surface is determined. The number of axles and the distance between the axles are measured, and the discrimination unit 1096 discriminates the vehicle type classification and vehicle type of the vehicle 10 based on the measurement result of the axle-specific weight measurement unit 98. Even if the distance between the lifted axle and the road surface is small, the vehicle type classification and vehicle type determination can be performed with high accuracy.

以上説明したとおり、実施形態1から実施形態4の車種判別システム1a〜1dおよび車種判別装置103〜3103によれば、車両10の車種区分および車種の判定の精度を向上させることができる。   As described above, according to the vehicle type identification systems 1a to 1d and the vehicle type identification devices 103 to 3103 of the first to fourth embodiments, the accuracy of the vehicle type classification and the vehicle type determination of the vehicle 10 can be improved.

上記実施形態1〜4の車種判別装置103〜3103は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)等を備えた通常のコンピュータのハードウェア構成となっている。   The vehicle type discriminating devices 103 to 3103 according to the first to fourth embodiments are ordinary computer equipped with a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), and the like. It has a hardware configuration.

また、上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別処理は、ROM等に予め組み込まれた車種判別プログラムとしてコンピュータプログラムプロダクトとして提供される。上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供するように構成しても良い。   Moreover, the vehicle type discrimination | determination process performed with the vehicle type discrimination | determination apparatuses 103-3103 of the said Embodiment 1-4 is provided as a computer program product as a vehicle type discrimination | determination program previously incorporated in ROM etc. The vehicle type identification program executed by the vehicle type identification devices 103 to 3103 of the first to fourth embodiments is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD ( The program may be recorded on a computer readable recording medium such as Digital Versatile Disk) and provided as a computer program product.

さらに、上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることによりコンピュータプログラムプロダクトとして提供するように構成しても良い。また、上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別プログラムをコンピュータプログラムプロダクトとしてインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, the vehicle type identification program executed by the vehicle type identification devices 103 to 3103 of the above-described first to fourth embodiments is stored on a computer connected to a network such as the Internet and provided as a computer program product by being downloaded via the network. You may comprise so that it may do. Moreover, you may comprise so that the vehicle type discrimination | determination program performed with the vehicle type discrimination | determination apparatuses 103-3103 of the said Embodiment 1-4 may be provided or distributed via networks, such as the internet, as a computer program product.

上記実施形態1〜4の車種判別装置103〜3103で実行される車種判別プログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから車種判別プログラムを読み出して実行することにより上記各部がRAM上にロードされ、各部がRAM上に生成されるようになっている。   The vehicle type determination program executed by the vehicle type determination devices 103 to 3103 of the first to fourth embodiments has a module configuration including the above-described units, and as actual hardware, a CPU (processor) determines the vehicle type from the ROM. By reading and executing the program, the above-described units are loaded onto the RAM, and the units are generated on the RAM.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1a,1b,1c,1d 車種判別システム
10 車両
20 車種判別情報
90,1090 記憶部
91,1091,2091 取得部
92,1092,2092 画像生成部
93 全景画像推定部
94 補間部
95,1095 車軸検出部
96,1096 判別部
97 カウンタ
98 車軸別重量計測部
99 過積載判定部
101 カメラ
102 レーザスキャナ
103,1103,2103,3103 車種判別装置
104 速度計
105,105a,105b,105c 重量測定器
T 所定位置
1a, 1b, 1c, 1d Vehicle type discrimination system 10 Vehicle 20 Vehicle type discrimination information 90, 1090 Storage unit 91, 1091, 2091 Acquisition unit 92, 1092, 2092 Image generation unit 93 Whole view image estimation unit 94 Interpolation unit 95, 1095 Axle detection unit 96, 1096 discriminating unit 97 counter 98 axle-specific weight measuring unit 99 overloading judging unit 101 camera 102 laser scanner 103, 1103, 2103, 3103 vehicle type discriminating device 104 speedometer 105, 105a, 105b, 105c weight measuring device T predetermined position

Claims (8)

スキャナ部で検出した、所定位置を通過する車両に対してレーザを照射して検出した検出点距離、および検出点で反射したレーザの反射強度を取得し、かつ撮像部から、前記所定位置を撮像して得られた撮像画像を取得する取得部と、
前記検出点を含む前記所定位置の画像であって、前記検出点の濃度を、当該検出点において反射したレーザの前記反射強度に応じて異ならせた画像であるリフレクタンス画像を生成する画像生成部と、
前記撮像画像に基づいて、前記車両の全体の形状を示す画像である全景画像を推定する全景画像推定部と、
前記全景画像の特徴点と前記リフレクタンス画像の前記検出点とを照合するマッチング処理を実行し、前記マッチング処理の結果および前記検出点距離に基づいて、前記全景画像の前記特徴点を補間する補間部と、
前記特徴点を補間した前記全景画像から車軸を検出し、前記車軸の数と前記車軸間の距離を計測する車軸検出部と、
前記車軸の数と前記車軸間の距離に基づいて、前記車両の車種を判別する判別部と、
を備えた車種判別装置。
The detection point distance detected by irradiating the laser beam to the vehicle passing through the predetermined position detected by the scanner unit and the reflection intensity of the laser reflected at the detection point are acquired, and the predetermined position is imaged from the imaging unit. An acquisition unit for acquiring a captured image obtained by
An image generation unit for generating a reflectance image that is an image of the predetermined position including the detection point and in which the density of the detection point is changed according to the reflection intensity of the laser reflected at the detection point. When,
A panoramic image estimation unit that estimates a panoramic image that is an image showing the overall shape of the vehicle based on the captured image;
Interpolation for executing the matching process for matching the feature points of the panoramic image and the detection points of the reflectance image, and interpolating the feature points of the panoramic image based on the result of the matching process and the detection point distance And
An axle detection unit that detects an axle from the panoramic image obtained by interpolating the feature points, and measures a number of the axles and a distance between the axles;
A discriminator for discriminating the type of the vehicle based on the number of the axles and the distance between the axles;
A vehicle type identification device.
前記画像生成部は、前記リフレクタンス画像に対して、前記リフレクタンス画像の縦横比を前記車両の実際の縦横比に合わせる正規化処理を施し、
前記全景画像推定部は、前記撮像部によって連続して撮像された複数の静止画像から前記全景画像を推定し、
前記補間部は、前記全景画像の前記特徴点と前記正規化処理が施された前記リフレクタンス画像の前記検出点とを照合する前記マッチング処理を実行する、
請求項1に記載の車種判別装置。
The image generation unit performs a normalization process on the reflectance image so that the aspect ratio of the reflectance image matches the actual aspect ratio of the vehicle,
The panoramic image estimation unit estimates the panoramic image from a plurality of still images continuously captured by the imaging unit,
The interpolation unit performs the matching process for matching the feature points of the panoramic image and the detection points of the reflectance image subjected to the normalization process;
The vehicle type identification device according to claim 1.
前記判別部は、前記車両が前記車軸を3軸以上備え、かつ、前記車軸間の距離が所定の距離以上離れている箇所が2か所以上あると判断した場合に、前記車両が特大車であると判別する、
請求項1に記載の車種判別装置。
The determination unit determines that the vehicle is an oversized vehicle when it is determined that the vehicle has three or more axles and the distance between the axles is more than a predetermined distance. Determine that there is,
The vehicle type identification device according to claim 1.
前記取得部はさらに、速度計測部から前記車両の速度を取得し、
前記画像生成部は、前記取得部が取得した前記車両の速度に基づいて、前記リフレクタンス画像の前記正規化処理を行う、
請求項1に記載の車種判別装置。
The acquisition unit further acquires the speed of the vehicle from the speed measurement unit,
The image generation unit performs the normalization processing of the reflectance image based on the speed of the vehicle acquired by the acquisition unit.
The vehicle type identification device according to claim 1.
前記取得部はさらに、前記車両の重量を測定する重量測定部から前記車両の重量を取得し、
前記取得部が取得した前記車両の重量が、前記判別部が判別した前記車種に定められた過積載基準値を超えていると判断した場合に、前記車両を過積載と判定する過積載判定部をさらに備える、
請求項1に記載の車種判別装置。
The acquisition unit further acquires the weight of the vehicle from a weight measurement unit that measures the weight of the vehicle,
An overload determination unit that determines that the vehicle is overloaded when it is determined that the weight of the vehicle acquired by the acquisition unit exceeds an overload reference value determined for the vehicle type determined by the determination unit. Further comprising
The vehicle type identification device according to claim 1.
前記取得部はさらに、前記重量測定部から、前記車両の重量を測定した時刻を取得し、
前記車軸検出部が検出した前記車軸の数と前記車軸間の距離および前記車軸が前記スキャナ部によって走査された時刻と、前記取得部が取得した前記車両の重量および前記車両の重量を測定した時刻と、を照合することによって、前記車軸ごとの重量を計測する車軸別重量計測部をさらに備え、
前記過積載判定部は、前記車軸別重量計測部が計測した前記車両の前記車軸ごとの重量が、前記車軸ごとの重量の上限値である限界重量に達しているか否かを判定する、
請求項5に記載の車種判別装置。
The acquisition unit further acquires a time when the weight of the vehicle is measured from the weight measurement unit,
The number of axles detected by the axle detection unit, the distance between the axles, the time when the axle was scanned by the scanner unit, the weight of the vehicle acquired by the acquisition unit, and the time when the weight of the vehicle was measured And further comprising an axle-by-axle weight measuring unit that measures the weight of each axle by checking,
The overload determination unit determines whether the weight of each axle of the vehicle measured by the axle-specific weight measurement unit reaches a limit weight that is an upper limit value of the weight of each axle.
The vehicle type identification device according to claim 5.
前記車軸別重量計測部は、前記車軸ごとの重量の計測結果から、前記車軸が路面から浮いていると判断した場合に、前記路面から浮いている前記車軸を除いた前記車軸の数および前記車軸間の距離を計測し、
前記判別部は、前記車軸別重量計測部が計測した前記車軸の数および前記車軸間の距離に基づいて、前記車両の車種を判別する、
請求項6に記載の車種判別装置。
The axle-by-axle weight measuring unit determines the number of the axles excluding the axles floating from the road surface and the axles when it is determined from the weight measurement result for each axle that the axles are floating from the road surface. Measure the distance between
The discriminating unit discriminates the vehicle type of the vehicle based on the number of the axles measured by the axle-specific weight measuring unit and the distance between the axles.
The vehicle type identification device according to claim 6.
スキャナ部から、所定位置を通過する車両に対してレーザを照射して検出した検出点距離、および検出点で反射したレーザの反射強度を取得し、かつ撮像部から、前記所定位置を撮像して得られた撮像画像を取得する取得ステップと、
前記検出点を含む前記所定位置の画像であって、前記検出点の濃度を、当該検出点において反射したレーザの前記反射強度に応じて異ならせた画像であるリフレクタンス画像を生成する画像生成ステップと、
前記撮像画像に基づいて、前記車両全体の形状を現す画像である全景画像を推定する全景画像推定ステップと、
前記全景画像の特徴点と前記リフレクタンス画像の前記検出点とを照合するマッチング処理を実行し、前記マッチング処理の結果および前記検出点距離に基づいて、前記全景画像の前記特徴点を補間する補間ステップと、
前記特徴点を補間した前記全景画像から車軸を検出し、車軸の数と車軸間の距離を計測する車軸検出ステップと、
前記車軸の数と前記車軸間の距離に基づいて、前記車両の車種を判別する判別ステップと、
を含む車種判別方法。
From the scanner unit, the detection point distance detected by irradiating the vehicle with a laser to the vehicle passing through the predetermined position and the reflection intensity of the laser reflected at the detection point are acquired, and the predetermined position is imaged from the imaging unit An acquisition step of acquiring the obtained captured image;
An image generation step of generating a reflectance image that is an image of the predetermined position including the detection point, and is an image in which the density of the detection point is varied according to the reflection intensity of the laser reflected at the detection point. When,
A panoramic image estimation step for estimating a panoramic image, which is an image representing the shape of the entire vehicle, based on the captured image;
Interpolation for executing the matching process for matching the feature points of the panoramic image and the detection points of the reflectance image, and interpolating the feature points of the panoramic image based on the result of the matching process and the detection point distance Steps,
An axle detection step for detecting an axle from the panoramic image interpolating the feature points and measuring the number of axles and the distance between the axles;
A determination step of determining a vehicle type of the vehicle based on the number of the axles and the distance between the axles;
Discriminating method including car.
JP2016115058A 2016-06-09 2016-06-09 Vehicle type identification device and vehicle type identification method Active JP6750967B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016115058A JP6750967B2 (en) 2016-06-09 2016-06-09 Vehicle type identification device and vehicle type identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016115058A JP6750967B2 (en) 2016-06-09 2016-06-09 Vehicle type identification device and vehicle type identification method

Publications (2)

Publication Number Publication Date
JP2017220076A true JP2017220076A (en) 2017-12-14
JP6750967B2 JP6750967B2 (en) 2020-09-02

Family

ID=60658041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016115058A Active JP6750967B2 (en) 2016-06-09 2016-06-09 Vehicle type identification device and vehicle type identification method

Country Status (1)

Country Link
JP (1) JP6750967B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019064682A1 (en) * 2017-09-26 2019-04-04 パナソニックIpマネジメント株式会社 Lift-up determining device and lift-up determining method
CN110164134A (en) * 2018-02-12 2019-08-23 华为技术有限公司 The method and apparatus of information processing
EP3531392A1 (en) * 2018-02-26 2019-08-28 Vinci Autoroutes Projets 8 Method for managing the passage of a vehicle through a toll station of a road
CN110308455A (en) * 2019-07-15 2019-10-08 广州路优信息科技有限公司 Vehicle detecting system and method
JP2020035362A (en) * 2018-08-31 2020-03-05 コニカミノルタ株式会社 Image processing device, axle quantity detection system, fee setting device, fee setting system and program
CN111554097A (en) * 2020-03-31 2020-08-18 深圳市奥拓电子股份有限公司 Method, device and system for detecting vehicle through intelligent lamp pole and electronic equipment thereof
WO2021038991A1 (en) * 2019-08-29 2021-03-04 パナソニックIpマネジメント株式会社 Axle number measurement device, axle number measurement system, and axle number measurement method
JP2021124814A (en) * 2020-02-03 2021-08-30 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP2021124822A (en) * 2020-02-03 2021-08-30 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP2021124943A (en) * 2020-02-05 2021-08-30 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
WO2021181688A1 (en) * 2020-03-13 2021-09-16 三菱重工機械システム株式会社 Axle count detection apparatus, toll collection system, axle count detection method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063987A (en) * 1996-08-23 1998-03-06 Mitsubishi Heavy Ind Ltd Car family discriminating device
JP2003308591A (en) * 2002-04-04 2003-10-31 Lg Industrial Syst Co Ltd Vehicle kind determination system and its method
JP2009216674A (en) * 2008-03-13 2009-09-24 Omron Corp Axle load measuring system, and vehicle separating method
JP2010020414A (en) * 2008-07-08 2010-01-28 Fujitsu Ltd Object detection device, object detection program, and object detection method
JP2014035702A (en) * 2012-08-09 2014-02-24 Topcon Corp Optical data processing device, optical data processing system, optical data processing method, and program for processing optical data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063987A (en) * 1996-08-23 1998-03-06 Mitsubishi Heavy Ind Ltd Car family discriminating device
JP2003308591A (en) * 2002-04-04 2003-10-31 Lg Industrial Syst Co Ltd Vehicle kind determination system and its method
JP2009216674A (en) * 2008-03-13 2009-09-24 Omron Corp Axle load measuring system, and vehicle separating method
JP2010020414A (en) * 2008-07-08 2010-01-28 Fujitsu Ltd Object detection device, object detection program, and object detection method
JP2014035702A (en) * 2012-08-09 2014-02-24 Topcon Corp Optical data processing device, optical data processing system, optical data processing method, and program for processing optical data

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11238608B2 (en) 2017-09-26 2022-02-01 Panasonic Intellectual Property Management Co., Ltd. Lift-up determining device and lift-up determining method
JPWO2019064682A1 (en) * 2017-09-26 2020-09-10 パナソニックIpマネジメント株式会社 Lift-up judgment device and lift-up judgment method
WO2019064682A1 (en) * 2017-09-26 2019-04-04 パナソニックIpマネジメント株式会社 Lift-up determining device and lift-up determining method
JP7190680B2 (en) 2017-09-26 2022-12-16 パナソニックIpマネジメント株式会社 Lift-up determination device and lift-up determination method
CN110164134A (en) * 2018-02-12 2019-08-23 华为技术有限公司 The method and apparatus of information processing
EP3706097A4 (en) * 2018-02-12 2021-01-06 Huawei Technologies Co., Ltd. Information processing method and device
EP3531392A1 (en) * 2018-02-26 2019-08-28 Vinci Autoroutes Projets 8 Method for managing the passage of a vehicle through a toll station of a road
FR3078429A1 (en) * 2018-02-26 2019-08-30 Pierre Coppey METHOD FOR MANAGING THE PASSAGE OF A VEHICLE TO A TOWING STATION OF A ROAD
JP2020035362A (en) * 2018-08-31 2020-03-05 コニカミノルタ株式会社 Image processing device, axle quantity detection system, fee setting device, fee setting system and program
JP7234538B2 (en) 2018-08-31 2023-03-08 コニカミノルタ株式会社 Image processing device, axle number detection system, fee setting device, fee setting system and program
CN110308455A (en) * 2019-07-15 2019-10-08 广州路优信息科技有限公司 Vehicle detecting system and method
WO2021038991A1 (en) * 2019-08-29 2021-03-04 パナソニックIpマネジメント株式会社 Axle number measurement device, axle number measurement system, and axle number measurement method
JP2021124814A (en) * 2020-02-03 2021-08-30 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP2021124822A (en) * 2020-02-03 2021-08-30 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP7362499B2 (en) 2020-02-03 2023-10-17 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP7365254B2 (en) 2020-02-03 2023-10-19 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP2021124943A (en) * 2020-02-05 2021-08-30 三菱重工機械システム株式会社 Axle number detection device, toll collection system, axle number detection method, and program
JP7296898B2 (en) 2020-02-05 2023-06-23 三菱重工機械システム株式会社 AXLE NUMBER DETECTION DEVICE, TOLL COLLECTION SYSTEM, AXLE NUMBER DETECTION METHOD, AND PROGRAM
WO2021181688A1 (en) * 2020-03-13 2021-09-16 三菱重工機械システム株式会社 Axle count detection apparatus, toll collection system, axle count detection method, and program
JPWO2021181688A1 (en) * 2020-03-13 2021-09-16
JP7317207B2 (en) 2020-03-13 2023-07-28 三菱重工機械システム株式会社 AXLE NUMBER DETECTION DEVICE, TOLL COLLECTION SYSTEM, AXLE NUMBER DETECTION METHOD, AND PROGRAM
CN111554097B (en) * 2020-03-31 2021-10-26 深圳市奥拓电子股份有限公司 Method, device and system for detecting vehicle through intelligent lamp pole and electronic equipment thereof
CN111554097A (en) * 2020-03-31 2020-08-18 深圳市奥拓电子股份有限公司 Method, device and system for detecting vehicle through intelligent lamp pole and electronic equipment thereof

Also Published As

Publication number Publication date
JP6750967B2 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
JP6750967B2 (en) Vehicle type identification device and vehicle type identification method
US9058524B2 (en) Measuring the range to an object, in an image, using size categorization
US8817101B2 (en) Mobile device and method for monitoring of vehicles
EP3410415A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
US20170330455A1 (en) Driving determination device and detection device
CN104903915B (en) Method for monitoring the method and apparatus of the ambient enviroment of vehicle and for implementing emergency braking
Harlow et al. Automatic vehicle classification system with range sensors
US20030114964A1 (en) Simple classification scheme for vehicle/pole/pedestrian detection
US20130208945A1 (en) Method for the detection and tracking of lane markings
EP3422289A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP6678552B2 (en) Vehicle type identification device and vehicle type identification method
CN103886757A (en) Method For Automatically Classifying Moving Vehicles
JP5907700B2 (en) Image processing apparatus, vehicle system, and image processing method
WO2017145605A1 (en) Image processing device, image pickup device, moving body apparatus control system, image processing method, and program
JP6818626B2 (en) Vehicle type discrimination device, vehicle type discrimination method, and vehicle type discrimination system
JP2013057992A (en) Inter-vehicle distance calculation device and vehicle control system using the same
JP2018022220A (en) Behavior data analysis system, and behavior data analysis device, and behavior data analysis method
WO2017145634A1 (en) Image processing device, imaging device, system for controlling mobile body, image processing method, and program
Suzuki et al. Sensor fusion-based pedestrian collision warning system with crosswalk detection
US20160207473A1 (en) Method of calibrating an image detecting device for an automated vehicle
KR20210097782A (en) Indicator light detection method, apparatus, device and computer-readable recording medium
KR100997358B1 (en) Detection System and Method of Bad Loading Truck using Image Processing
JP4754440B2 (en) Vehicle type identification device, vehicle type identification system, vehicle type identification method, and vehicle type identification program
JP6602595B2 (en) Vehicle type identification device and vehicle type identification method
JP5103722B2 (en) Stop vehicle discrimination device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200813

R150 Certificate of patent or registration of utility model

Ref document number: 6750967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150