JP7097215B2 - Vehicle estimation device, learning device, and vehicle estimation method - Google Patents

Vehicle estimation device, learning device, and vehicle estimation method Download PDF

Info

Publication number
JP7097215B2
JP7097215B2 JP2018075817A JP2018075817A JP7097215B2 JP 7097215 B2 JP7097215 B2 JP 7097215B2 JP 2018075817 A JP2018075817 A JP 2018075817A JP 2018075817 A JP2018075817 A JP 2018075817A JP 7097215 B2 JP7097215 B2 JP 7097215B2
Authority
JP
Japan
Prior art keywords
vehicle
image
data
learning
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018075817A
Other languages
Japanese (ja)
Other versions
JP2019185410A (en
Inventor
実 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Corp
Original Assignee
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Corp filed Critical Shimizu Corp
Priority to JP2018075817A priority Critical patent/JP7097215B2/en
Publication of JP2019185410A publication Critical patent/JP2019185410A/en
Application granted granted Critical
Publication of JP7097215B2 publication Critical patent/JP7097215B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、作業現場において入退場する車両を管理するための車両推定装置、学習装置、及び車両推定方法に関する。 The present invention relates to a vehicle estimation device, a learning device, and a vehicle estimation method for managing vehicles entering and exiting at a work site.

従来、建設現場などの作業現場においては、車両系の建設機器、建設資材を搬入する車両や産業廃棄物を搬出する車両等、様々な車両が頻繁に出入りする。特に、作業現場にコンクリートを打設する際にはコンクリートミキサー車(以下、生コン車という)が、作業現場から掘削土を搬出する際にはダンプ車が、それぞれ数分間隔でサイクリックに作業現場に入退場し、ピーク時は一日に入場又は退場(以下、入退場という)する車両の数がゲート当たり数百台程度にまで達する。
生コン車やダンプ車については、作業現場に入場した車両の台数による精算が行われる。このため、例えば、作業現場のガードマン等により、作業現場に入場した生コン車等の車両の台数が記録され、精算費用を確認するために用いられている。
また、作業現場に入場するために車両が作業現場付近に停車して待機する場合があり、周辺の道路が渋滞する一因となっている。
このため、要因となり得ることから、作業現場に入退場する車両の台数の報告を、行政から求められる場合もあった。例えば、このような入退場を行う車両を管理する方法として、駐車場に入出場する車両をカメラで撮像した画像を用いて車両のナンバプレートを認識する技術が開示されている(例えば、特許文献1)。
Conventionally, various vehicles such as vehicle-type construction equipment, vehicles for carrying in construction materials, and vehicles for carrying out industrial waste frequently come and go at work sites such as construction sites. In particular, a concrete mixer truck (hereinafter referred to as a ready-mixed concrete truck) is used to place concrete on the work site, and a dump truck is used to carry out excavated soil from the work site cyclically at intervals of several minutes. The number of vehicles entering or exiting (hereinafter referred to as "entrance / exit") reaches several hundreds per gate during peak hours.
For ready-mixed trucks and dump trucks, payment will be made based on the number of vehicles that have entered the work site. Therefore, for example, a guard man at the work site records the number of vehicles such as a ready-mixed concrete truck that has entered the work site, and is used to confirm the settlement cost.
In addition, vehicles may stop near the work site and stand by in order to enter the work site, which is one of the causes of traffic congestion in the surrounding roads.
For this reason, there were cases where the government requested a report on the number of vehicles entering and leaving the work site because it could be a factor. For example, as a method of managing such vehicles entering and exiting a parking lot, a technique of recognizing a vehicle number plate using an image of a vehicle entering and exiting a parking lot by a camera is disclosed (for example, Patent Document). 1).

特開2015-197780号公報Japanese Unexamined Patent Publication No. 2015-197780

しかしながら、上述した従来技術のようにナンバプレートや車両番号を認識させて車両を管理するためには、事前に車両番号を登録させておく必要があり、登録する作業に手間がかかる。また、作業現場に入退場する車両のうち、ダンプ車、生コン車、給油車、産廃収集車以外の車両においては、同一車両のリピート率が低く、一度登録した車両番号の車両が再度同じ作業現場に入場することが稀である。このため、事前に車両番号を登録する手間がかかる一方で、未登録の車両が次々に入場してくることになり、車両管理の運用を継続させることが困難であった。
また、比較的規模が小さい作業現場においては、車両が後進しながら作業現場に入場することが多くあり、車両のフロント部分に設けられたナンバプレートを認識することが前提である場合、車両の後部に設けられたナンバプレートを認識することが困難であった。
However, in order to recognize the number plate and the vehicle number and manage the vehicle as in the above-mentioned conventional technique, it is necessary to register the vehicle number in advance, and the work of registering is troublesome. In addition, among the vehicles entering and leaving the work site, the repeat rate of the same vehicle is low for vehicles other than dump trucks, ready-mixed trucks, refueling vehicles, and industrial waste collection vehicles, and the vehicle with the vehicle number once registered is the same work site again. It is rare to enter. For this reason, while it takes time and effort to register the vehicle number in advance, unregistered vehicles enter one after another, and it is difficult to continue the operation of vehicle management.
In addition, in a relatively small work site, the vehicle often enters the work site while moving backward, and if it is a prerequisite to recognize the number plate provided on the front part of the vehicle, the rear part of the vehicle. It was difficult to recognize the number plate provided in.

上述の課題を鑑み、本発明は、手間を増大させることなく、作業現場において入退場する車両を管理することができる車両推定装置、学習装置、及び車両推定方法を提供する。 In view of the above problems, the present invention provides a vehicle estimation device, a learning device, and a vehicle estimation method that can manage vehicles entering and exiting at a work site without increasing labor.

上述した課題を解決するために、本発明の一態様に係る車両推定装置は、作業現場に入場する車両又は前記作業現場から退場する車両のうち少なくとも何れかの車両が撮像された画像の画像データを取得する画像データ取得部と、前記画像の前記画像データを、車両に関する属性情報を推定する学習済みモデルに入力することにより、前記画像における車両について当該車両に関する属性情報を推定する推定部を備え、前記学習済みモデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである車両推定装置であるIn order to solve the above-mentioned problems, the vehicle estimation device according to one aspect of the present invention is image data of an image of at least one of a vehicle entering the work site or a vehicle leaving the work site. The image data acquisition unit for acquiring the image and the estimation unit for estimating the attribute information about the vehicle for the vehicle in the image by inputting the image data of the image into the trained model for estimating the attribute information about the vehicle. The trained model corresponds to the training data in which the vehicle type of the vehicle is associated with the image captured by the vehicle extracted from the image data, and the image obtained by capturing the load extracted from the image data. It is a vehicle estimation device created by executing deep learning using learning data associated with the names of loads of vehicles .

また、本発明に係る一態様は、上述した車両推定装置であって、前記推定部は、前記画像における車両の車両種別、又は前記画像における車両の積載物のうち少なくとも一方を推定する。 Further, one aspect of the present invention is the vehicle estimation device described above, wherein the estimation unit estimates at least one of the vehicle type of the vehicle in the image and the load of the vehicle in the image.

また、本発明に係る一態様は、上述した車両推定装置であって、前記画像は、作業現場に入場する車両又は前記作業現場から退場する車両のうち少なくとも何れかの車両を俯瞰する画像であって、前記車両の進行方向にみて前側である前部が含まれる車両前部画像、前記前部の方向にある端部と前記車両の積載物の全部又は一部とが含まれる車両前方画像、前記車両の積載物の全部又は一部と前記車両の進行方向にみて後側である後部の方向にある端部とが含まれる車両後方画像、前記車両の積載物の全部が含まれる荷姿画像、前記後部が含まれる車両後部画像のうち少なくとも一つを含む。 Further, one aspect of the present invention is the vehicle estimation device described above, wherein the image is an image of at least one of a vehicle entering the work site or a vehicle leaving the work site. An image of the front part of the vehicle including the front part which is the front side in the traveling direction of the vehicle, and an image of the front part of the vehicle including the end portion in the direction of the front part and all or a part of the load of the vehicle. A vehicle rear image including all or a part of the load of the vehicle and an end in the direction of the rear which is the rear side in the traveling direction of the vehicle, and a package image including the entire load of the vehicle. , At least one of the vehicle rear images including the rear.

また、本発明にかかる一態様は、車両と、当該車両に関する属性情報とを対応づけた学習データを用いて深層学習を実行することにより、作業現場において車両が入退場する領域を撮像領域として撮像された画像データにおける車両における前記属性情報を推定する推定モデルを作成するモデル作成部を備える学習装置であり、前記推定モデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである学習装置である。 Further, in one aspect of the present invention, a region where the vehicle enters and exits at the work site is set as an imaging region by performing deep learning using learning data in which the vehicle and the attribute information related to the vehicle are associated with each other. It is a learning device provided with a model creation unit for creating an estimation model for estimating the attribute information in a vehicle in the image data captured by the user , and the estimation model corresponds to an image captured by the vehicle extracted from the image data. Deep learning is executed using learning data in which the vehicle type of the vehicle is associated with each other and learning data in which the name of the load of the vehicle is associated with the image obtained by capturing the load extracted from the image data. It is a learning device that is created by the above.

また、本発明に係る一態様は、上述した学習装置であって、前記学習データの各々を訓練データとテストデータとに振分ける振分け部と、前記モデル作成部により作成された推定モデルを評価する評価部を更に備え、前記モデル作成部は、前記振分け部により振分けられた前記訓練データを用いて深層学習を実行することにより推定モデルを作成し、前記評価部は、前記推定モデルに前記テストデータに対応する画像を入力することにより、前記テストデータに対応する画像における車両について当該車両の属性情報を推定した推定結果を取得し、取得した推定結果と前記テストデータに対応する画像の属性情報とに基づいて、前記推定モデルを評価する。 Further, one aspect of the present invention is the above-mentioned learning device, which evaluates a distribution unit that distributes each of the training data into training data and test data, and an estimation model created by the model creation unit. An evaluation unit is further provided, and the model creation unit creates an estimation model by executing deep learning using the training data distributed by the distribution unit, and the evaluation unit creates the test data in the estimation model. By inputting the image corresponding to, the estimation result of estimating the attribute information of the vehicle in the image corresponding to the test data is acquired, and the acquired estimation result and the attribute information of the image corresponding to the test data are obtained. Evaluate the estimation model based on.

また、本発明に係る一態様は、上述した車両推定方法であって、画像データ取得部が、作業現場において車両が入退場する領域を撮像領域とする画像の画像データを取得し、推定部が、前記画像の前記画像データを、車両に関する属性情報を推定する学習済みモデルに入力することにより、前記画像における車両について当該車両に関する属性情報を推定し、前記学習済みモデルは、車両に前記属性情報を対応させた学習データを用いて深層学習を実行することにより作成されるものであり、前記学習済みモデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものであることを特徴とする車両推定方法である。 Further, one aspect of the present invention is the vehicle estimation method described above, in which the image data acquisition unit acquires image data of an image in which the area where the vehicle enters and exits at the work site is the image pickup area, and the estimation unit obtains the image data. By inputting the image data of the image into the trained model for estimating the attribute information about the vehicle, the attribute information about the vehicle is estimated for the vehicle in the image, and the trained model gives the vehicle the attribute information. It is created by executing deep learning using the training data corresponding to the above, and the trained model corresponds to the vehicle type of the vehicle to the image captured by the vehicle extracted from the image data. It is created by executing deep learning using the attached learning data and the learning data in which the name of the load of the vehicle is associated with the image captured by the load extracted from the image data. It is a vehicle estimation method characterized by being.

本発明によれば、作業現場を入退場する車両の車両種別や積載物等の属性情報を推定するので、手間を増大させることなく、作業現場において入退場する車両を管理することができる。 According to the present invention, since the attribute information such as the vehicle type and the load of the vehicle entering and leaving the work site is estimated, it is possible to manage the vehicles entering and leaving the work site without increasing the time and effort.

実施形態の車両検知システム30が作業現場1に適用された例を示す図である。It is a figure which shows the example which applied the vehicle detection system 30 of an embodiment to a work site 1. 実施形態の車両推定装置40の構成例を示すブロック図である。It is a block diagram which shows the structural example of the vehicle estimation apparatus 40 of an embodiment. 実施形態の学習済みモデル記憶装置50の構成例を示すブロック図である。It is a block diagram which shows the structural example of the trained model storage device 50 of embodiment. 実施形態の学習装置60の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus 60 of an Embodiment. 実施形態の車両検知システム30において用いられる画像の例を示す図である。It is a figure which shows the example of the image used in the vehicle detection system 30 of an embodiment. 実施形態の学習装置60の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the learning apparatus 60 of an embodiment.

以下、本発明の実施の形態について図面を参照しながら説明する。
図1は、実施形態の車両検知システム30が作業現場1に適用された例を示す図である。図1に示すように、車両検知システム30は作業現場1に適用される。作業現場1には、例えば、入退場ゲート10及び撮像装置20が設けられる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an example in which the vehicle detection system 30 of the embodiment is applied to the work site 1. As shown in FIG. 1, the vehicle detection system 30 is applied to the work site 1. The work site 1 is provided with, for example, an entrance / exit gate 10 and an image pickup device 20.

入退場ゲート10は、作業現場1の出入口に設けられる。入退場ゲート10の両端には、作業現場1を囲むように設けられたパネルゲート11が設けられる。入退場ゲート10は、例えば、出入口の左右に設けられる支柱12(支柱12a、12b)と、支柱12の間の上側に架設した横架材13により門(ゲート)の枠組みが形成される。例えば、このゲートの枠組みに沿うようにして、上端を横架材13に吊架され、下端に設けられた車輪(キャスタ)を走行させることにより開閉可能なキャスタゲート14が設けられる。 The entrance / exit gate 10 is provided at the entrance / exit of the work site 1. Panel gates 11 provided so as to surround the work site 1 are provided at both ends of the entrance / exit gate 10. In the entrance / exit gate 10, for example, a gate frame is formed by columns 12 (supports 12a and 12b) provided on the left and right sides of the entrance / exit and a horizontal member 13 erected on the upper side between the columns 12. For example, a caster gate 14 having an upper end suspended from a horizontal member 13 and which can be opened and closed by running a wheel (caster) provided at the lower end is provided along the framework of the gate.

撮像装置20は、例えば、横架材13の長さ方向における中央付近に設置される。撮像装置20は、例えば、撮像方向が下側方向を向くように設置され、入退場ゲート10を出入する車両15(車両15a、15b)を俯瞰した画像を撮像する。
撮像装置20は、例えば、360度の画角で撮影できる全方位カメラである。撮像装置20は、例えば、入退場ゲート10を車両15が通過する場合に、その通過する車両15を俯瞰した画像を撮像する。なお、撮像装置20は、静止画像を撮像してもよいし、動画像を撮像するようにしてもよい。また、撮像装置20は、白黒画像を撮像してもよいし、カラー画像を撮像するようにしてもよい。
撮像装置20は、撮像した画像の画像データを車両検知システム30に送信する。
The image pickup apparatus 20 is installed near the center of the horizontal member 13 in the length direction, for example. The image pickup device 20 is installed so that the image pickup direction faces downward, for example, and captures an image of a bird's-eye view of the vehicle 15 (vehicles 15a, 15b) entering and exiting the entrance / exit gate 10.
The image pickup device 20 is, for example, an omnidirectional camera capable of shooting at an angle of view of 360 degrees. For example, when the vehicle 15 passes through the entrance / exit gate 10, the image pickup apparatus 20 captures an image of a bird's-eye view of the passing vehicle 15. The image pickup device 20 may capture a still image or may capture a moving image. Further, the image pickup apparatus 20 may capture a black-and-white image or may capture a color image.
The image pickup apparatus 20 transmits the image data of the captured image to the vehicle detection system 30.

車両検知システム30は、撮像装置20により撮像された画像の画像データに基づいて、画像における車両15の属性情報を検知する。ここで、車両15の属性情報とは、車両に関する属性を示す情報であり、例えば、車両種別や積載物、及び動作等を示す情報である。ここでの動作は、車両15が作業現場1に入場しているか、作業現場1から退場しているかを示す情報である。 The vehicle detection system 30 detects the attribute information of the vehicle 15 in the image based on the image data of the image captured by the image pickup device 20. Here, the attribute information of the vehicle 15 is information indicating attributes related to the vehicle, and is, for example, information indicating a vehicle type, a load, an operation, and the like. The operation here is information indicating whether the vehicle 15 has entered the work site 1 or has left the work site 1.

車両検知システム30は、例えば、車両推定装置40と、学習済みモデル記憶装置50と、学習装置60とを備える。
車両推定装置40は、撮像装置20により撮像された画像の画像データに基づいて、画像における車両の属性情報を推定する。車両推定装置40は、車両の属性情報を推定する際に、学習済みモデル記憶装置50に記憶された学習済みモデルを用いる。
ここでの学習済みモデルは、入力としての画像に撮像された車両と、出力としての車両の属性情報との対応関係を示す学習データを用いて深層学習を実行することにより作成されたモデルである。
The vehicle detection system 30 includes, for example, a vehicle estimation device 40, a trained model storage device 50, and a learning device 60.
The vehicle estimation device 40 estimates the attribute information of the vehicle in the image based on the image data of the image captured by the image pickup device 20. The vehicle estimation device 40 uses the trained model stored in the trained model storage device 50 when estimating the attribute information of the vehicle.
The trained model here is a model created by executing deep learning using training data showing the correspondence between the vehicle captured in the image as an input and the attribute information of the vehicle as an output. ..

ここで、深層学習について説明する。
まず、深層学習の基本となる機械学習とは、大量のデータから、そのデータ群に共通する規則性や関連性を見つけ出し、その規則性や関連性に基づいて、当該データに対する判断や予測を行う手法である。機械学習においては、データ群に対して着目すべき特徴(特徴量)を人間が指定する。このため、人間が、学習に用いるデータ(学習データ)の内容と、学習結果として用いる判断や予測との関係を十分に考慮した上で特徴量を適切に指定する必要がある。
これに対し、深層学習の場合は、人間が特徴量を指定する必要がない。深層学習においては、人間の脳神経回路をモデルにした多層構造アルゴリズム(ディープニューラルネットワーク、人工知能などともいう)を用いることにより、特徴量の設定や組み合わせを人工知能が自ら考えて決定するためである。例えば、車両が撮像された画像を学習データとして用いて、その車両種別を推定させようとした場合、機械学習の場合では、特徴量として、色や形状など、人間が考えられる様々な特徴量を指定しなければならず、どの特徴量が車両種別の推定に効果的かは、機械学習を実行しなければ判らない。一方、深層学習においては、車両種別の推定に効果的な特徴量を自ら考えて決定し、自らが自動的に学習を行う。但し、深層学習において、人工知能に推定に効果的な特徴量を決定させるためには、大量の学習データを読み込ませる(学習させる)必要がある。また、読み込ませる学習データの内容により学習の方向性も変化するため、慎重に学習データを選択する必要がある。
しかし、学習データの質を向上させるために学習データ用の画像を増やすには、現実的な問題として人件費などのコストがかかることから、やみくもに学習データ用の画像を増やすことは得策ではない。
そこで、本実施形態においては、学習データ用の画像をある程度(例えば、100枚)用意し、用意した学習データを用いて深層学習を実行する。そして、深層学習を行う際に使用する変数を調整することにより推定モデルの方向性を定めた上で、その方向性に沿った学習データを増加させることにより、効率よく精度の高い推定モデルを作成する。
Here, deep learning will be described.
First, machine learning, which is the basis of deep learning, finds the regularity and relevance common to the data group from a large amount of data, and makes judgments and predictions for the data based on the regularity and relevance. It is a method. In machine learning, humans specify features (features) that should be noted for data groups. Therefore, it is necessary to appropriately specify the feature amount after fully considering the relationship between the content of the data (learning data) used by humans for learning and the judgment and prediction used as the learning result.
On the other hand, in the case of deep learning, it is not necessary for humans to specify the features. This is because in deep learning, artificial intelligence thinks and decides the setting and combination of features by using a multi-layered structure algorithm (also called deep neural network, artificial intelligence, etc.) modeled on the human brain neural circuit. .. For example, when trying to estimate the vehicle type using an image of a vehicle as learning data, in the case of machine learning, various feature quantities that humans can think of, such as color and shape, are used as feature quantities. It must be specified, and which feature quantity is effective for estimating the vehicle type cannot be known without performing machine learning. On the other hand, in deep learning, the feature amount that is effective for estimating the vehicle type is considered and determined by oneself, and the learning is automatically performed by oneself. However, in deep learning, it is necessary to read (learn) a large amount of learning data in order for artificial intelligence to determine effective features for estimation. In addition, since the direction of learning changes depending on the content of the learning data to be read, it is necessary to carefully select the learning data.
However, in order to increase the number of images for training data in order to improve the quality of training data, it is not a good idea to blindly increase the number of images for training data because labor costs and other costs are incurred as a practical problem. ..
Therefore, in the present embodiment, a certain amount of images for learning data (for example, 100 images) are prepared, and deep learning is executed using the prepared learning data. Then, after determining the direction of the estimation model by adjusting the variables used when performing deep learning, by increasing the training data along that direction, an efficient and highly accurate estimation model is created. do.

学習済みモデルは、例えば、学習済みの入力と同じ入力がなされた場合、その学習済みの入力に対応する出力を、推定される車両の属性情報として出力する。
学習済みモデル記憶装置50は、学習済みモデルを記憶する。学習装置60は、学習済みモデル記憶装置50に記憶させる学習済みモデルを作成する。
For example, when the same input as the trained input is made, the trained model outputs the output corresponding to the trained input as the estimated vehicle attribute information.
The trained model storage device 50 stores the trained model. The learning device 60 creates a trained model to be stored in the trained model storage device 50.

車両検知システム30は、車両推定装置40により推定された車両の属性情報を、検知結果とする。車両検知システム30は、検知結果を、例えば、表示装置70に出力する。
表示装置70は、車両検知システム30による検知結果を出力する。図1の例では、表示装置70は、車両15aについて、車両種別(車両)がダンプ車であり、積載物(積荷)が掘削土であり、車両の動作が退場であることを示している。また、表示装置70は、車両15bについて、車両種別が生コン車であり、積載物が生コンクリート(生コン)であり、車両の動作が入場であることを示している。
The vehicle detection system 30 uses the attribute information of the vehicle estimated by the vehicle estimation device 40 as the detection result. The vehicle detection system 30 outputs the detection result to, for example, the display device 70.
The display device 70 outputs the detection result by the vehicle detection system 30. In the example of FIG. 1, the display device 70 indicates that, for the vehicle 15a, the vehicle type (vehicle) is a dump vehicle, the load (load) is excavated soil, and the operation of the vehicle is exit. Further, the display device 70 indicates that the vehicle type of the vehicle 15b is a ready-mixed concrete truck, the load is ready-mixed concrete (ready-mixed concrete), and the operation of the vehicle is admission.

図2は、実施形態の車両推定装置40の構成例を示すブロック図である。車両推定装置40は、例えば、画像データ取得部41と、前処理部42と、車両種別推定部43と、積載物推定部44と、推定結果出力部45と、推定結果記憶部46とを備える。ここで、車両種別推定部43及び積載物推定部44は、「推定部」の一例である。 FIG. 2 is a block diagram showing a configuration example of the vehicle estimation device 40 of the embodiment. The vehicle estimation device 40 includes, for example, an image data acquisition unit 41, a preprocessing unit 42, a vehicle type estimation unit 43, a load estimation unit 44, an estimation result output unit 45, and an estimation result storage unit 46. .. Here, the vehicle type estimation unit 43 and the load estimation unit 44 are examples of the “estimation unit”.

画像データ取得部41は、撮像装置20により撮像された画像の画像データを取得する。画像データ取得部41は、取得した画像データを前処理部42に出力する。
前処理部42は、画像データ取得部41により取得された画像データに対応する画像について前処理を行う。ここでの前処理とは、後述する車両種別推定部43及び積載物推定部44による処理が正しく行われるようにするために、画像を加工する処理である。
前処理部42は、例えば、画像から画像に撮像された様々な物体を抽出する。前処理部42は、例えば、エッジ検出を行うことにより画像に撮像された様々な物体を抽出する。前処理部42は、エッジの外周における輝度の差分に基づいて物体を囲むエッジを検出する。具体的には、前処理部42は、画像に様々な矩形の枠(セル)をあてはめ、枠の内部と外周との輝度を比較し、内部の輝度分布と比較して枠の外周の輝度分布に輝度の差分が少ない場合に、その枠内に物体があると判定し、その枠を抽出することで画像から物体を抽出する。
The image data acquisition unit 41 acquires image data of an image captured by the image pickup device 20. The image data acquisition unit 41 outputs the acquired image data to the preprocessing unit 42.
The pre-processing unit 42 performs pre-processing on the image corresponding to the image data acquired by the image data acquisition unit 41. The pre-processing here is a process of processing an image so that the processing by the vehicle type estimation unit 43 and the load estimation unit 44, which will be described later, can be performed correctly.
The preprocessing unit 42, for example, extracts various objects captured in the image from the image. The preprocessing unit 42 extracts various objects captured in the image by, for example, performing edge detection. The preprocessing unit 42 detects an edge surrounding the object based on the difference in luminance at the outer circumference of the edge. Specifically, the preprocessing unit 42 fits various rectangular frames (cells) into the image, compares the brightness between the inside and the outside of the frame, and compares the brightness distribution inside the frame with the brightness distribution on the outside of the frame. When the difference in brightness is small, it is determined that there is an object in the frame, and the object is extracted from the image by extracting the frame.

前処理部42は、例えば、画像を時系列に比較し、画像の各々から抽出した物体のうち、時系列に変化する物体を選択する。すでに述べたように、ここでの画像は、作業現場1を入退場する車両15が撮像された画像である。このため、画像に時系列に変化する物体が撮像されている場合には、その変化する物体が入退場する車両15であると考えられる。つまり、前処理部42は、時系列に変化する物体を選択することにより、画像における推定対象である車両15や、車両15の積載物を選択する。
また、前処理部42は、例えば、画像から抽出した車両15や、車両15の積載物の画像の各々が同じ大きさになるようにスケーリングする。
前処理部42は、画像から抽出した車両15や、車両15の積載物の画像における画像データを車両種別推定部43及び積載物推定部44に出力する。
For example, the preprocessing unit 42 compares the images in time series, and selects an object that changes in time series from the objects extracted from each of the images. As already described, the image here is an image of the vehicle 15 entering and exiting the work site 1. Therefore, when an object that changes in time series is captured in the image, it is considered that the changing object is the vehicle 15 that enters and exits. That is, the preprocessing unit 42 selects the vehicle 15 that is the estimation target in the image and the load of the vehicle 15 by selecting the object that changes in time series.
Further, the preprocessing unit 42 scales the image of the vehicle 15 extracted from the image and the image of the load of the vehicle 15 to have the same size, for example.
The preprocessing unit 42 outputs the image data of the vehicle 15 extracted from the image and the image of the load of the vehicle 15 to the vehicle type estimation unit 43 and the load estimation unit 44.

車両種別推定部43は、前処理部42により車両が抽出された画像の画像データに基づいて、画像における車両の車両種別を推定する。車両種別推定部43は、学習済みモデル記憶装置50の車両種別学習済みモデル記憶部51(図3参照)に記憶された学習済みモデルに画像データを入力することにより得られる出力を、画像における車両の車両種別と推定する。車両種別推定部43は、推定結果を推定結果出力部45に出力するとともに、推定結果記憶部46に記憶させる。 The vehicle type estimation unit 43 estimates the vehicle type of the vehicle in the image based on the image data of the image in which the vehicle is extracted by the preprocessing unit 42. The vehicle type estimation unit 43 outputs the output obtained by inputting image data to the trained model stored in the vehicle type trained model storage unit 51 (see FIG. 3) of the trained model storage device 50 as a vehicle in the image. It is estimated to be the vehicle type of. The vehicle type estimation unit 43 outputs the estimation result to the estimation result output unit 45 and stores the estimation result in the estimation result storage unit 46.

積載物推定部44は、前処理部42により積載物が抽出された画像の画像データに基づいて、画像における車両の積載物を推定する。積載物推定部44は、学習済みモデル記憶装置50の積載物学習済みモデル記憶部52(図3参照)に記憶された学習済みモデルに画像データを入力することにより得られる出力を、画像における車両の積載物と推定する。積載物推定部44は、推定結果を推定結果出力部45に出力するとともに、推定結果記憶部46に記憶させる。 The load estimation unit 44 estimates the load of the vehicle in the image based on the image data of the image from which the load is extracted by the preprocessing unit 42. The load estimation unit 44 outputs the output obtained by inputting image data to the trained model stored in the load trained model storage unit 52 (see FIG. 3) of the trained model storage device 50 as a vehicle in the image. Estimated to be the load of. The load estimation unit 44 outputs the estimation result to the estimation result output unit 45 and stores the estimation result in the estimation result storage unit 46.

推定結果出力部45は、車両種別推定部43及び積載物推定部44により推定された画像における車両の車両種別及び積載物を示す情報を、画像と対応づけて表示装置70に出力する。
推定結果記憶部46は、車両種別推定部43及び積載物推定部44により推定された画像における車両の車両種別及び積載物を画像と対応づけた情報を記憶する。
The estimation result output unit 45 outputs information indicating the vehicle type and load of the vehicle in the image estimated by the vehicle type estimation unit 43 and the load estimation unit 44 to the display device 70 in association with the image.
The estimation result storage unit 46 stores information in which the vehicle type and load of the vehicle in the image estimated by the vehicle type estimation unit 43 and the load estimation unit 44 are associated with the image.

図3は、実施形態の学習済みモデル記憶装置50の構成例を示すブロック図である。学習済みモデル記憶装置50は、例えば、車両種別学習済みモデル記憶部51と、積載物学習済みモデル記憶部52とを備える。
車両種別学習済みモデル記憶部51は、画像に撮像された車両に基づいて車両種別を推定する学習済みモデルを記憶する。この学習済みモデルは、画像に撮像された車両に、車両種別を対応付けた学習データを用いて深層学習を実行することにより作成されたモデルである。
FIG. 3 is a block diagram showing a configuration example of the trained model storage device 50 of the embodiment. The trained model storage device 50 includes, for example, a vehicle type trained model storage unit 51 and a load-learned model storage unit 52.
The vehicle type trained model storage unit 51 stores a trained model that estimates the vehicle type based on the vehicle captured in the image. This trained model is a model created by executing deep learning on a vehicle captured in an image using learning data associated with the vehicle type.

積載物学習済みモデル記憶部52は、画像に撮像された車両の積載物に基づいて積載物を推定する学習済みモデルを記憶する。この学習済みモデルは、画像に撮像された車両の積載物に、積載物の名称を対応付けた学習データを用いて深層学習を実行することにより作成されたモデルである。
上述した車両種別学習済みモデル記憶部51及び積載物学習済みモデル記憶部52の各々に記憶される学習済みモデルは、例えば、学習装置60により作成される。
The load-learned model storage unit 52 stores a trained model that estimates the load based on the load of the vehicle captured in the image. This trained model is a model created by performing deep learning using the learning data in which the name of the load is associated with the load of the vehicle captured in the image.
The trained model stored in each of the vehicle type trained model storage unit 51 and the load trained model storage unit 52 described above is created by, for example, the learning device 60.

図4は、実施形態の学習装置60の構成例を示すブロック図である。学習装置60は、例えば、画像データ取得部61と、領域画像抽出部62と、車両種別学習データ作成部63と、積載物学習データ作成部64と、学習データ振分け部65と、車両種別学習モデル作成部66と、積載物学習モデル作成部67と、学習モデル評価部68とを備える。ここで、車両種別学習モデル作成部66及び積載物学習モデル作成部67は、「モデル作成部」の一例である。学習データ振分け部65は、「振分け部」の一例である。学習モデル評価部68は、「評価部」の一例である。 FIG. 4 is a block diagram showing a configuration example of the learning device 60 of the embodiment. The learning device 60 includes, for example, an image data acquisition unit 61, an area image extraction unit 62, a vehicle type learning data creation unit 63, a load learning data creation unit 64, a learning data distribution unit 65, and a vehicle type learning model. It includes a creation unit 66, a load learning model creation unit 67, and a learning model evaluation unit 68. Here, the vehicle type learning model creation unit 66 and the load learning model creation unit 67 are examples of the “model creation unit”. The learning data distribution unit 65 is an example of the “distribution unit”. The learning model evaluation unit 68 is an example of the “evaluation unit”.

画像データ取得部61は、車両15が撮像された画像の画像データを取得する。画像データ取得部61は、撮像装置20により撮像された作業現場1に入退場する車両15画像のみならず、他の作業現場において撮像された画像を取得してもよい。画像データ取得部61が、他の作業現場における画像を取得する場合、画像における撮像位置や画角が、作業現場1の撮像装置20の撮像位置や画角と同等であることが好ましい。撮像位置や画角等の撮像条件が、撮像装置20の撮像条件と同等であれば、撮像装置20により撮像された画像に基づいて、車両15の属性情報を精度よく推定させる学習済みモデルを作成することができるためである。画像データ取得部61は、取得した画像データを領域画像抽出部62に出力する。 The image data acquisition unit 61 acquires image data of an image captured by the vehicle 15. The image data acquisition unit 61 may acquire not only the image of the vehicle 15 entering and exiting the work site 1 captured by the image pickup device 20, but also the image captured at another work site. When the image data acquisition unit 61 acquires an image at another work site, it is preferable that the image pickup position and angle of view in the image are the same as the image pickup position and angle of view of the image pickup device 20 at the work site 1. If the imaging conditions such as the imaging position and the angle of view are the same as the imaging conditions of the imaging device 20, a trained model for accurately estimating the attribute information of the vehicle 15 is created based on the image captured by the imaging device 20. Because it can be done. The image data acquisition unit 61 outputs the acquired image data to the area image extraction unit 62.

領域画像抽出部62は、画像データ取得部41により取得された画像データに対応する画像から、前処理部42が行うエッジ検出等の手法を用いた物体検知により車両相当の大きさの物体を車両とみなして抽出することで、検知対象である車両が撮像された車両領域、及び積載物が撮像された積荷領域を抽出する。領域画像抽出部62は、画像から抽出した物体から学習対象である車両や積載物を選択する。
領域画像抽出部62は、車両領域を抽出した画像の画像データを車両種別学習データ作成部63に出力する。また、領域画像抽出部62は、積載物領域を抽出した画像の画像データを積載物学習データ作成部64に出力する。
The area image extraction unit 62 uses an image corresponding to the image data acquired by the image data acquisition unit 41 to detect an object having a size equivalent to that of a vehicle by detecting an object using a technique such as edge detection performed by the preprocessing unit 42. By assuming that the data is extracted, the vehicle area in which the vehicle to be detected is imaged and the load area in which the load is imaged are extracted. The area image extraction unit 62 selects a vehicle or a load to be learned from the objects extracted from the image.
The area image extraction unit 62 outputs the image data of the image extracted from the vehicle area to the vehicle type learning data creation unit 63. Further, the area image extraction unit 62 outputs the image data of the image obtained by extracting the load area to the load learning data creation unit 64.

車両種別学習データ作成部63は、領域画像抽出部62により車両領域が抽出された画像に、車両種別を対応付けることにより、画像に撮像された車両と車両種別との対応関係を学習させる学習データを作成する。車両種別学習データ作成部63は、例えば、作業者によるキーボードやマウス等の入力装置の操作等に基づいて、画像に撮像された車両と、その車両の車両種別とを対応付ける。この場合、車両種別学習データ作成部63は、図示しない入力部に入力された作業者によるマウス等の操作を示す情報を取得し、画像に撮像された車両と、その車両種別とを対応付ける。車両種別学習データ作成部63は、作成した学習データを、学習データ振分け部65に出力する。 The vehicle type learning data creation unit 63 associates the vehicle type with the image extracted by the area image extraction unit 62 to learn the correspondence between the vehicle captured in the image and the vehicle type. create. The vehicle type learning data creation unit 63 associates a vehicle captured in an image with a vehicle type of the vehicle based on, for example, an operation of an input device such as a keyboard or a mouse by an operator. In this case, the vehicle type learning data creation unit 63 acquires information indicating an operation of a mouse or the like by an operator input to an input unit (not shown), and associates the vehicle captured in the image with the vehicle type. The vehicle type learning data creation unit 63 outputs the created learning data to the learning data distribution unit 65.

積載物学習データ作成部64は、領域画像抽出部62により積載物領域が抽出された画像に、積載物の名称を対応付けることにより、画像に撮像された車両の積載物とその積載物の名称との対応関係を学習させる学習データを作成する。積載物学習データ作成部64は、例えば、作業者によるキーボードやマウス等の入力装置の操作等に基づいて、画像に撮像された車両と、その車両の車両種別とを対応付ける。この場合、積載物学習データ作成部64は、図示しない入力部に入力された作業者によるマウス等の操作を示す情報を取得し、画像に撮像された車両と、その車両の車両種別とを対応付ける。積載物学習データ作成部64は、作成した学習データを、学習データ振分け部65に出力する。 By associating the name of the load with the image from which the load area is extracted by the area image extraction unit 62, the load learning data creation unit 64 assigns the vehicle load captured in the image and the name of the load. Create learning data to learn the correspondence of. The load learning data creation unit 64 associates a vehicle captured in an image with a vehicle type of the vehicle based on, for example, an operation of an input device such as a keyboard or a mouse by an operator. In this case, the load learning data creation unit 64 acquires information indicating an operation of a mouse or the like by an operator input to an input unit (not shown), and associates the vehicle captured in the image with the vehicle type of the vehicle. .. The load learning data creation unit 64 outputs the created learning data to the learning data distribution unit 65.

学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データを、訓練データとテストデータとに振分ける。また、学習データ振分け部65は、積載物学習データ作成部64により作成された学習データを、訓練データとテストデータとに振分ける。ここで訓練データは、後述する車両種別学習モデル作成部66、及び積載物学習モデル作成部67により学習済みモデルが作成される際に用いられるデータである。テストデータは、車両種別学習モデル作成部66、及び積載物学習モデル作成部67により作成された学習済みモデルを評価するために用いられるデータである。 The learning data distribution unit 65 distributes the learning data created by the vehicle type learning data creation unit 63 into training data and test data. Further, the learning data distribution unit 65 distributes the learning data created by the load learning data creation unit 64 into training data and test data. Here, the training data is data used when a trained model is created by the vehicle type learning model creation unit 66 and the load learning model creation unit 67, which will be described later. The test data is data used for evaluating the trained model created by the vehicle type learning model creation unit 66 and the load learning model creation unit 67.

学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データを、訓練データとテストデータとに二等分に振り分けてもよいし、所定の比率で振り分けてもよい。例えば、学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データの画像に対応付けられた属性情報が訓練データとテストデータとの両方に同量含まれるように、振り分ける。具体的には、学習データに、画像に撮像された車両15に、その属性情報として車両種別「生コン車」が対応付られた学習データが二つある場合、その学習データのうち一つは訓練データに、残りの一つはテストデータに振り分ける。 The learning data distribution unit 65 may divide the learning data created by the vehicle type learning data creation unit 63 into two equal parts, training data and test data, or may distribute them at a predetermined ratio. For example, the learning data distribution unit 65 distributes the attribute information associated with the image of the learning data created by the vehicle type learning data creation unit 63 so that both the training data and the test data include the same amount. Specifically, when the learning data includes two learning data in which the vehicle 15 captured in the image is associated with the vehicle type "raw computer" as its attribute information, one of the learning data is training. Allocate the remaining one to the data and the remaining one to the test data.

学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データから振分けた訓練データを車両種別学習モデル作成部66に出力する。また、学習データ振分け部65は、積載物学習データ作成部64により作成された学習データから振分け訓練データを積載物学習モデル作成部67に出力する。
学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データから振分けたテストデータ、及び積載物学習データ作成部64により作成された学習データから振分けたテストデータの各々を図示しない記憶部に記憶させる。
The learning data distribution unit 65 outputs the training data distributed from the learning data created by the vehicle type learning data creation unit 63 to the vehicle type learning model creation unit 66. Further, the learning data distribution unit 65 outputs distribution training data from the learning data created by the load learning data creation unit 64 to the load learning model creation unit 67.
The learning data distribution unit 65 does not show each of the test data distributed from the learning data created by the vehicle type learning data creation unit 63 and the test data distributed from the learning data created by the load learning data creation unit 64. Store in the storage unit.

車両種別学習モデル作成部66は、学習データ振分け部65により出力された車両種別を学習するための訓練データを用いて深層学習を実行することにより、学習済みモデルを作成する。
積載物学習モデル作成部67は、学習データ振分け部65により出力された積載物を学習するための訓練データを用いて深層学習を実行することにより、学習済みモデルを作成する。
The vehicle type learning model creation unit 66 creates a trained model by executing deep learning using the training data for learning the vehicle type output by the training data distribution unit 65.
The load learning model creation unit 67 creates a trained model by executing deep learning using the training data for learning the load output by the training data distribution unit 65.

学習モデル評価部68は、車両種別学習モデル作成部66及び積載物学習モデル作成部67の各々により作成された学習済みモデルを評価する。学習モデル評価部68は、例えば、学習データ振分け部65により振分けられたテストデータの画像を学習済みモデルに入力することにより得られた出力と、テストデータの画像に対応づけられた属性情報とを比較することにより、学習済みモデルを評価する。 The learning model evaluation unit 68 evaluates the trained model created by each of the vehicle type learning model creation unit 66 and the load learning model creation unit 67. For example, the learning model evaluation unit 68 inputs the output obtained by inputting the image of the test data distributed by the learning data distribution unit 65 into the trained model, and the attribute information associated with the image of the test data. Evaluate the trained model by comparing.

例えば、画像に撮像された車両の15に、その属性情報として車両種別「生コン車」が対応付られたテストデータがある場合、学習モデル評価部68は、そのテストデータの画像(車両15が撮像された画像)を車両種別を推定する学習済みモデルに入力させる。この場合、学習済みモデルは、入力された画像に撮像された車両15と、一致するか、又は似ている車両の画像について学習済みである場合には、その学習済みの画像に対応する車両種別を出力する。 For example, if the 15 of the vehicles captured in the image have test data to which the vehicle type "raw computer" is associated as the attribute information, the learning model evaluation unit 68 may perform an image of the test data (captured by the vehicle 15). (Image) is input to the trained model that estimates the vehicle type. In this case, if the trained model has learned about an image of a vehicle that matches or is similar to the vehicle 15 captured in the input image, the vehicle type corresponding to the trained image. Is output.

学習モデル評価部68は、学習済みモデルから、そのテストデータの画像(車両15が撮像された画像)に対応付られた車両種別「生コン車」が、車両種別の推定値として出力された場合、推定結果が正しいと評価する。一方、学習モデル評価部68は、学習済みモデルから、そのテストデータの画像(車両15が撮像された画像)に対応付られた車両種別「生コン車」とは異なる車両種別(例えば、「ダンプ車」)が、車両種別の推定値として出力された場合、推定結果が正しくないと評価する。 When the learning model evaluation unit 68 outputs the vehicle type "ready-mixed concrete vehicle" corresponding to the image of the test data (the image in which the vehicle 15 is captured) from the trained model as the estimated value of the vehicle type. Evaluate that the estimation result is correct. On the other hand, the learning model evaluation unit 68 has a vehicle type (for example, a "dump vehicle") different from the vehicle type "ready-conducted vehicle" corresponding to the image of the test data (the image in which the vehicle 15 is captured) from the trained model. ”) Is output as an estimated value for each vehicle type, it is evaluated that the estimated result is not correct.

ここでは、車両の属性情報について、説明する。
車両種別には、例えば、ダンプ車、生コン車、パラセメント車、トラック、ユニック、トレーラー、ポンプ車、ラフタークレーン、汚泥運搬車、産廃・ごみ収集車、給油車、バキューム車、貨物車、及び乗用車等がある。
積載物には、例えば、PCa柱、PCa梁、PCa外壁、鉄骨柱、鉄骨梁、鉄骨階段、鉄筋、型枠、デッキ、ALC、ボード、ガラス/アルミ建具、空調設備、衛生設備、電気設備、仮設、掘削土等がある。
なお、上述した属性情報(車両種別及び積載物)は、あくまで一例であり、車両検知システム30により検知する属性情報は、作業現場1の規模や状況に応じて任意に設定されてよい。
Here, the attribute information of the vehicle will be described.
Vehicle types include, for example, dump vehicles, ready-mixed vehicles, paraceal vehicles, trucks, unic, trailers, pump vehicles, rough terrain cranes, sludge carriers, industrial waste / garbage collection vehicles, refueling vehicles, vacuum vehicles, freight vehicles, and passenger vehicles. And so on.
Loads include, for example, PCa columns, PCa beams, PCa outer walls, steel columns, steel beams, steel stairs, reinforcing bars, formwork, decks, ALC, boards, glass / aluminum fittings, air conditioning equipment, sanitary equipment, electrical equipment, etc. There are temporary construction, excavated soil, etc.
The above-mentioned attribute information (vehicle type and load) is only an example, and the attribute information detected by the vehicle detection system 30 may be arbitrarily set according to the scale and situation of the work site 1.

ここでは、車両や積載物が撮像された画像について、図5を用いて説明する。
図5は、実施形態の車両検知システム30において用いられる画像の例を示す図である。図5(a)は車両15を俯瞰した平面図である。図5(b)~(f)は車両や積載物が所定の撮像領域Pに存在している場合の例を示す。図5(b)~(f)では、撮像領域Pの上側が作業現場1の内部側、撮像領域Pの下側が作業現場1の外部側を示す。つまり、図5(b)~(f)では、車両15が作業現場1に入場する場合における撮像領域Pの時系列変化を示している。
Here, an image in which a vehicle or a load is captured will be described with reference to FIG.
FIG. 5 is a diagram showing an example of an image used in the vehicle detection system 30 of the embodiment. FIG. 5A is a plan view of the vehicle 15 from a bird's-eye view. 5 (b) to 5 (f) show an example when a vehicle or a load is present in a predetermined imaging region P. In FIGS. 5 (b) to 5 (f), the upper side of the imaging region P shows the inner side of the work site 1, and the lower side of the imaging region P shows the outer side of the work site 1. That is, FIGS. 5 (b) to 5 (f) show time-series changes in the imaging region P when the vehicle 15 enters the work site 1.

すでに説明したように、実施形態の車両検知システム30では、車両や積載物が撮像された画像に基づいて、車両の属性情報が検知される。このため、画像には車両や積載物が、検知可能に撮像されていることが好ましい。また、車両の属性情報の検知(推定)は、学習済みモデルに画像を入力させることにより実施されることから、学習に用いた画像と、推定させる画像とが、同じような撮像条件で同じような領域に推定対象である車両や積載物が撮像されていることが好ましい。このため、本実施形態では、図5(b)~(f)に示すような、撮像領域Pにおける所定の領域に車両15の一部が撮像された画像を取得する。 As described above, in the vehicle detection system 30 of the embodiment, the attribute information of the vehicle is detected based on the image of the vehicle or the load. For this reason, it is preferable that the image captures the vehicle or the load so that it can be detected. Further, since the detection (estimation) of the property information of the vehicle is performed by inputting an image to the trained model, the image used for training and the image to be estimated are the same under the same imaging conditions. It is preferable that the vehicle or load to be estimated is imaged in a certain area. Therefore, in the present embodiment, an image in which a part of the vehicle 15 is captured in a predetermined region in the imaging region P as shown in FIGS. 5 (b) to 5 (f) is acquired.

ここでは、撮像装置20は、車両15を俯瞰する位置から画像を撮像する場合を前提としている。また、撮像装置20は、画像の画像中央の左右方向に、入退場ゲート10が位置するようにして撮像を行う。 Here, it is premised that the image pickup apparatus 20 captures an image from a position overlooking the vehicle 15. Further, the image pickup apparatus 20 takes an image so that the entrance / exit gate 10 is located in the left-right direction in the center of the image.

また、撮像装置20は、入退場ゲート10を車両15が通過する場合に、通過する車両15の一部が所定の領域に進入したが否かを判定し、車両15の一部が所定の領域に撮像されるようにして撮像を行う。具体的には、撮像装置20は、例えば、図示しない撮像判定部を備える。撮像判定部は、例えば、図5(b)~(f)に示すような、撮像領域Pの中央の左右方向に境界線S、境界線Sより上側に所定の領域E1、及び境界線Sより下側に所定の領域E2を設定する。撮像判定部は、撮像領域Pを時系列に監視して領域E1又は領域E2に変化があるか否かを検知する。撮像判定部は、領域E1又は領域E2に所定の変化がある場合に、車両15の入場又は退場があると判定し、車両15の入場又は退場が行われる様子を時系列に撮像させる。 Further, when the vehicle 15 passes through the entrance / exit gate 10, the image pickup apparatus 20 determines whether or not a part of the passing vehicle 15 has entered a predetermined area, and a part of the vehicle 15 has entered a predetermined area. The image is taken so that it is imaged in. Specifically, the image pickup apparatus 20 includes, for example, an image pickup determination unit (not shown). The image pickup determination unit is, for example, from the boundary line S in the left-right direction in the center of the image pickup area P, the predetermined area E1 above the boundary line S, and the boundary line S as shown in FIGS. 5 (b) to 5 (f). A predetermined area E2 is set on the lower side. The image pickup determination unit monitors the image pickup area P in time series and detects whether or not there is a change in the area E1 or the area E2. When there is a predetermined change in the area E1 or the area E2, the image pickup determination unit determines that the vehicle 15 has entered or exited, and causes the vehicle 15 to take an image of the entry or exit of the vehicle 15 in chronological order.

図5(a)に示すように、車両15を俯瞰して見た場合に、車両15は、前端150と、前部151と、積載部152と、後部153と、後端154とに分類することができる。
図5(b)では、撮像領域Pに、車両15の進行方向にみて前側である前部151が入退場ゲート10に進入する様子を示している。撮像判定部は、例えば、領域E1のうち、所定の割合(例えば、30%)に変化があった場合に、車両15が進入したと判定する。撮像判定部は、車両15が入退場ゲート10に進入したと判定した場合、その判定した時刻より所定時間(例えば、5秒)前の時刻に撮像された画像を撮像装置20から車両検知システム30に送信させる。この場合、撮像装置20により送信された画像は、車両15の前部151が撮像された、「車両前部画像」である。
図5(c)では、撮像領域Pに車両15の前端150が含まれている状態を示している。撮像判定部は、例えば、車両15が入退場ゲート10に進入したと判定した時刻から所定時間(例えば、10秒)以内に、撮像領域Pの上端を含む領域に所定の変化があった場合に、その時刻に撮像された画像を撮像装置20に撮像させる。この場合、撮像装置20により撮像された画像は、車両15の前部151の全部及び積載部152の一部が撮像された、「車両前方画像」である。
図5(d)では、撮像領域Pに車両15の進行方向にみて後側である後部153の端部となる後端154が含まれている状態を示している。撮像判定部は、例えば、車両15が入退場ゲート10に進入したと判定した時刻から所定時間(例えば、10秒)以内に、撮像領域Pの下端を含む領域に、所定の変化が生じた後にその変化が生じなくなった場合、その時刻に撮像された画像を撮像装置20から車両検知システム30に送信させる。この場合、撮像装置20により撮像された画像は、車両15の後部153の全部及び積載部152の一部が撮像された、「車両後方画像」である。
図5(e)では、撮像領域Pに、車両15の積載部152の全体がきた様子を示している。撮像判定部は、例えば、車両15が入退場ゲート10に進入したと判定した時刻から所定時間(例えば、10秒)以内に、撮像領域Pの上端に積載部152の矩形形状の上端がきた場合に、その時刻に撮像された画像を撮像装置20から車両検知システム30に送信させる。この場合、撮像装置20により撮像された画像は、車両15の積載部152の全部又は一部が撮像された、「車両荷姿画像」である。
図5(f)では、撮像領域Pに、車両15の後部153が退場する様子を示している。撮像判定部は、例えば、車両15が入退場ゲート10に進入したと判定した時刻から所定時間(例えば、10秒)以内に、領域E2のうち、所定の割合(例えば、30%)に変化が生じなくなった場合に、その時刻に撮像された画像を撮像装置20から車両検知システム30に送信させる。この場合、撮像装置20により撮像された画像は、車両15の後部153が撮像された、「車両後部画像」である。
As shown in FIG. 5A, when the vehicle 15 is viewed from a bird's-eye view, the vehicle 15 is classified into a front end 150, a front portion 151, a loading portion 152, a rear portion 153, and a rear end 154. be able to.
FIG. 5B shows how the front portion 151, which is the front side in the traveling direction of the vehicle 15, enters the entrance / exit gate 10 in the imaging region P. The image pickup determination unit determines that the vehicle 15 has entered, for example, when there is a change in a predetermined ratio (for example, 30%) in the region E1. When the image pickup determination unit determines that the vehicle 15 has entered the entrance / exit gate 10, the image pickup determination unit 20 captures an image captured at a predetermined time (for example, 5 seconds) before the determination time from the image pickup device 20 to the vehicle detection system 30. To send to. In this case, the image transmitted by the image pickup apparatus 20 is a "vehicle front image" in which the front 151 of the vehicle 15 is captured.
FIG. 5C shows a state in which the image pickup region P includes the front end 150 of the vehicle 15. The image pickup determination unit is, for example, when there is a predetermined change in the area including the upper end of the image pickup area P within a predetermined time (for example, 10 seconds) from the time when the vehicle 15 is determined to have entered the entrance / exit gate 10. , The image pickup device 20 is made to capture the image captured at that time. In this case, the image captured by the image pickup apparatus 20 is a "vehicle front image" in which the entire front portion 151 of the vehicle 15 and a part of the loading portion 152 are captured.
FIG. 5D shows a state in which the imaging region P includes the rear end 154, which is the end of the rear portion 153, which is the rear side when viewed in the traveling direction of the vehicle 15. The image pickup determination unit is, for example, after a predetermined change occurs in the area including the lower end of the image pickup area P within a predetermined time (for example, 10 seconds) from the time when the vehicle 15 determines that the vehicle has entered the entrance / exit gate 10. When the change does not occur, the image captured at that time is transmitted from the image pickup device 20 to the vehicle detection system 30. In this case, the image captured by the image pickup apparatus 20 is a "vehicle rear image" in which the entire rear portion 153 of the vehicle 15 and a part of the loading portion 152 are captured.
FIG. 5 (e) shows a state in which the entire loading portion 152 of the vehicle 15 has come to the imaging region P. For example, when the image pickup determination unit reaches the upper end of the rectangular shape of the loading unit 152 at the upper end of the image pickup region P within a predetermined time (for example, 10 seconds) from the time when the vehicle 15 determines that the vehicle has entered the entrance / exit gate 10. To transmit the image captured at that time from the image pickup device 20 to the vehicle detection system 30. In this case, the image captured by the image pickup apparatus 20 is a "vehicle packaging image" in which all or part of the loading portion 152 of the vehicle 15 is captured.
FIG. 5 (f) shows how the rear portion 153 of the vehicle 15 leaves the imaging region P. For example, the image pickup determination unit changes to a predetermined ratio (for example, 30%) of the area E2 within a predetermined time (for example, 10 seconds) from the time when the vehicle 15 determines that the vehicle has entered the entrance / exit gate 10. When it does not occur, the image captured at that time is transmitted from the image pickup device 20 to the vehicle detection system 30. In this case, the image captured by the image pickup apparatus 20 is a "vehicle rear image" in which the rear 153 of the vehicle 15 is captured.

なお、上記では、撮像装置20が撮像判定部を備える場合を例示して説明したが、これに限定されることはない。撮像判定部と同等の機能部が、車両推定装置40、又は/及び学習装置60に設けられていてもよい。 In the above description, the case where the image pickup apparatus 20 includes an image pickup determination unit has been described as an example, but the present invention is not limited to this. A functional unit equivalent to the image pickup determination unit may be provided in the vehicle estimation device 40 and / or the learning device 60.

図6は、実施形態の学習装置60の動作例を示すフローチャートである。
本実施形態の学習装置60においては、まず、車両や積載物が撮像された学習データ用の画像を用いて深層学習を行うことにより、画像から車両や積載物の推定する推定モデルを作成する。そして、深層学習のアルゴリズムに用いられるハイパーパラメータを調整することにより推定モデルが正しく推定する確率(以下、認識率という)を向上させる。ここでのハイパーパラメータとは、深層学習を行う際に予め決定しておく様々なパラメータのことであって、例えば、ニューラルネットワークの層の数、中間層のユニット(ノード、結束点などともいう)の数、正則化の係数などの変数である。
そして、所定のハイパーパラメータを設定して作成された推定モデルの認識率に基づいて、深層学習における学習の方向性を決定する。ここでの学習の方向性とは、ハイパーパラメータを調整(チューニング)することにより、何れのハイパーパラメータをどの程度変化させることにより、どのように認識率が変化していくかを把握すること、及び認識率を向上させるために、どのような学習データ(画像)を、どの位増加させればよいか等、具体的な方針を決定することである。これにより、認識率を向上させるために必要な学習データがどの様な画像であるかを把握することができるため、効率よく学習データ(画像)を用意することが可能となる。
FIG. 6 is a flowchart showing an operation example of the learning device 60 of the embodiment.
In the learning device 60 of the present embodiment, first, deep learning is performed using an image for learning data in which a vehicle or a load is captured, and an estimation model for estimating a vehicle or a load from the image is created. Then, by adjusting the hyperparameters used in the deep learning algorithm, the probability that the estimation model estimates correctly (hereinafter referred to as the recognition rate) is improved. The hyperparameters here are various parameters that are determined in advance when performing deep learning, for example, the number of layers of the neural network, the units of the intermediate layer (also referred to as nodes, cohesion points, etc.). Variables such as the number of and the coefficient of regularization.
Then, the direction of learning in deep learning is determined based on the recognition rate of the estimation model created by setting predetermined hyperparameters. The direction of learning here is to understand how the recognition rate changes by adjusting (tuning) which hyperparameters and how much to change which hyperparameters. It is to decide a concrete policy such as what kind of learning data (image) should be increased and how much in order to improve the recognition rate. As a result, it is possible to grasp what kind of image the learning data required to improve the recognition rate is, and it is possible to efficiently prepare the learning data (image).

まず、学習装置60は、画像データを取得する(ステップS10)。画像データ取得部61は、車両15を俯瞰して撮像された画像、及び車両15の積載物を俯瞰して撮像された画像の画像データを取得する。
次に、学習装置60は、取得した画像データに基づいて、画像における車両15と、その車両15の積載物との各々が撮像された領域を抽出する(ステップS11)。領域画像抽出部62は、車両15を俯瞰するようにして撮像された画像から車両15が撮像された領域を抽出する。また、領域画像抽出部62は、車両15の積載物を俯瞰するようにして撮像された画像から車両15の積載物が撮像された領域を抽出する。
次に、学習装置60は、抽出した画像に基づいて、学習データを作成する(ステップS12)。車両種別学習データ作成部63は、車両15が撮像された画像に、その車両15の車両種別を対応付けた学習データを作成する。積載物学習データ作成部64は、車両15の積載物が撮像された画像に、その車両15の積載物の名称を対応付けた学習データを作成する。
次に、学習装置60は、作成した学習データを訓練データとテストデータとに振分ける(ステップS13)。学習データ振分け部65は、車両種別学習データ作成部63及び積載物学習データ作成部64の各々により作成された学習データを訓練データとテストデータとに振分ける。
First, the learning device 60 acquires image data (step S10). The image data acquisition unit 61 acquires image data of an image captured from a bird's-eye view of the vehicle 15 and an image captured by a bird's-eye view of the load of the vehicle 15.
Next, the learning device 60 extracts a region in which each of the vehicle 15 in the image and the load of the vehicle 15 is imaged based on the acquired image data (step S11). The area image extraction unit 62 extracts the region in which the vehicle 15 is captured from the image captured so as to take a bird's-eye view of the vehicle 15. Further, the area image extraction unit 62 extracts a region in which the load of the vehicle 15 is captured from the image captured so as to take a bird's-eye view of the load of the vehicle 15.
Next, the learning device 60 creates learning data based on the extracted image (step S12). The vehicle type learning data creation unit 63 creates learning data in which the vehicle type of the vehicle 15 is associated with the image captured by the vehicle 15. The load learning data creation unit 64 creates learning data in which the image of the load of the vehicle 15 is associated with the name of the load of the vehicle 15.
Next, the learning device 60 distributes the created learning data into training data and test data (step S13). The learning data distribution unit 65 distributes the learning data created by each of the vehicle type learning data creation unit 63 and the load learning data creation unit 64 into training data and test data.

次に、学習装置60は、訓練データとテストデータとを用いて深層学習を行う(ステップS14)。車両種別学習モデル作成部66は、例えば、車両種別学習データ作成部63により作成され、尚且つ、学習データ振分け部65により訓練データと振分けられたデータを用いて深層学習を実行することにより、推定モデルを作成する。そして、学習装置60は、作成した推定モデルの認識率を、テストデータを用いて算出する。具体的には、学習モデル評価部68は、車両種別学習モデル作成部66が作成した推定モデルに、車両種別学習データ作成部63により作成され、尚且つ、学習データ振分け部65によりテストデータと振分けられたデータの画像を入力することにより出力される推定結果を取得する。学習モデル評価部68は、取得した推定結果と、そのテストデータの画像に対応付られた車両種別とが一致する場合に正しい推定がなされたと判定する。一方、学習モデル評価部68は、取得した推定結果と、そのテストデータの画像に対応付られた車両種別とが一致しない場合に正しくない推定がなされたと判定する。また、学習モデル評価部68は、積載物学習モデル作成部67が作成した推定モデルに、積載物学習データ作成部64により作成され、尚且つ、学習データ振分け部65によりテストデータと振分けられたデータの画像を入力することにより出力される推定結果を取得する。学習モデル評価部68は、取得した推定結果と、そのテストデータの画像に対応付られた積載物の名称とが一致する場合に正しい推定がなされたと判定する。一方、学習モデル評価部68は、取得した推定結果と、そのテストデータの画像に対応付られた積載物の名称とが一致しない場合に正しくない推定がなされたと判定する。学習モデル評価部68は、テストデータの総数に対する、正しい推定がなされたテストデータの割合を認識率として算出する。 Next, the learning device 60 performs deep learning using the training data and the test data (step S14). The vehicle type learning model creation unit 66 is estimated by, for example, being created by the vehicle type learning data creation unit 63 and executing deep learning using the training data and the data distributed by the training data distribution unit 65. Create a model. Then, the learning device 60 calculates the recognition rate of the created estimation model using the test data. Specifically, the learning model evaluation unit 68 is created by the vehicle type learning data creation unit 63 in the estimation model created by the vehicle type learning model creation unit 66, and is distributed to the test data by the training data distribution unit 65. The estimation result output by inputting the image of the obtained data is acquired. The learning model evaluation unit 68 determines that correct estimation has been made when the acquired estimation result and the vehicle type associated with the image of the test data match. On the other hand, the learning model evaluation unit 68 determines that an incorrect estimation has been made when the acquired estimation result and the vehicle type associated with the image of the test data do not match. Further, the learning model evaluation unit 68 is created by the load learning data creation unit 64 in the estimation model created by the load learning model creation unit 67, and is distributed to the test data by the learning data distribution unit 65. Get the estimation result output by inputting the image of. The learning model evaluation unit 68 determines that the correct estimation has been made when the acquired estimation result and the name of the load associated with the image of the test data match. On the other hand, the learning model evaluation unit 68 determines that an incorrect estimation has been made when the acquired estimation result and the name of the load associated with the image of the test data do not match. The learning model evaluation unit 68 calculates the ratio of the test data for which the correct estimation is made to the total number of test data as the recognition rate.

次に、学習装置60は、作成した推定モデルの認識率が所定の閾値以上に達したか否かを判定する(ステップS15)。
そして、学習装置60は、作成した推定モデルの認識率が所定の閾値以上である場合には、推定モデルを学習済みモデル記憶装置50に記憶させる(ステップS16)。
Next, the learning device 60 determines whether or not the recognition rate of the created estimation model has reached a predetermined threshold value or more (step S15).
Then, when the recognition rate of the created estimated model is equal to or higher than a predetermined threshold value, the learning device 60 stores the estimated model in the trained model storage device 50 (step S16).

一方、学習装置60は、作成した推定モデルの認識率が所定の閾値未満である場合には、学習データが不足しているか否かを判定する(ステップS17)。学習装置60は、例えば、テストデータの一部(例えば、テストデータの総数のうちの半数)を用いて算出した認識率が、テストデータの総数を用いてした認識率よりも低い認識率であった場合、学習データが不足していると判定する。一方、学習装置60は、例えば、テストデータの一部を用いて算出した認識率と、テストデータの総数を用いてした認識率と同等の認識率であった場合、学習データが不足していないと判定する。
学習装置60は、学習データが不足していると判定した場合、ステップS10に示す処理に戻り、推定モデルを再度作成し直す。推定モデルを再度作成し直す場合、学習データの不足を補うために画像の枚数を増加させる。
On the other hand, when the recognition rate of the created estimation model is less than a predetermined threshold value, the learning device 60 determines whether or not the learning data is insufficient (step S17). In the learning device 60, for example, the recognition rate calculated using a part of the test data (for example, half of the total number of test data) is lower than the recognition rate using the total number of test data. If so, it is determined that the training data is insufficient. On the other hand, when the learning device 60 has a recognition rate equivalent to, for example, a recognition rate calculated using a part of the test data and a recognition rate using the total number of test data, the learning data is not insufficient. Is determined.
When the learning device 60 determines that the learning data is insufficient, the learning device 60 returns to the process shown in step S10 and recreates the estimation model. When recreating the estimation model, increase the number of images to make up for the lack of training data.

また、学習装置60は、学習データが不足していないと判定した場合、深層学習を実行する際のハイパーパラメータを調整する(ステップS18)。ハイパーパラメータを調整した後、学習装置60は、ステップS14に示す処理に戻り、再度の深層学習を行う。 Further, when it is determined that the learning data is not insufficient, the learning device 60 adjusts the hyperparameters when executing deep learning (step S18). After adjusting the hyperparameters, the learning device 60 returns to the process shown in step S14 and performs deep learning again.

以上説明したように、本実施形態の車両推定装置40は、作業現場1に入場する車両15又は作業現場1から退場する車両15のうち少なくとも何れかの車両が撮像された画像の画像データを取得する画像データ取得部41と、画像を、車両に関する属性情報を推定する学習済みモデル(例えば、車両種別学習済みモデル記憶部51に記憶された学習済みモデル、又は積載物学習済みモデル記憶部52に記憶された学習済みモデル)に入力することにより、画像における車両15について当該車両15に関する属性情報を推定する車両種別推定部43及び積載物推定部44を備え、学習済みモデルは、車両に属性情報を対応させた学習データを用いて深層学習を実行することにより作成されるモデルである。これにより、本実施形態の車両推定装置40は、画像に撮像された車両15について属性情報を推定することができる。このため、車両番号を登録したり照会したりして車両15を特定する必要がなく、手間を増大させることなく、作業現場1において入退場する車両15を管理することができる。 As described above, the vehicle estimation device 40 of the present embodiment acquires image data of an image of at least one of the vehicle 15 entering the work site 1 and the vehicle 15 leaving the work site 1. The image data acquisition unit 41 and the trained model for estimating the attribute information about the vehicle (for example, the trained model stored in the vehicle type trained model storage unit 51 or the load-learned model storage unit 52) A vehicle type estimation unit 43 and a load estimation unit 44 that estimate attribute information about the vehicle 15 in the image by inputting to the stored trained model) are provided, and the trained model has attribute information in the vehicle. It is a model created by executing deep learning using the learning data corresponding to. Thereby, the vehicle estimation device 40 of the present embodiment can estimate the attribute information of the vehicle 15 captured in the image. Therefore, it is not necessary to specify the vehicle 15 by registering or inquiring the vehicle number, and it is possible to manage the vehicle 15 entering and exiting at the work site 1 without increasing the time and effort.

上述した実施形態における車両推定装置40、学習装置60の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 All or part of the vehicle estimation device 40 and the learning device 60 in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, a "computer-readable recording medium" is a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. It may also include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that is a server or a client in that case. Further, the above program may be for realizing a part of the above-mentioned functions, and may be further realized for realizing the above-mentioned functions in combination with a program already recorded in the computer system. It may be realized by using a programmable logic device such as FPGA.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.

1…作業現場、10…入退場ゲート、20…撮像装置、30…車両検知システム、40…車両推定装置、50…学習済みモデル記憶装置、60…学習装置、41…画像データ取得部、43…車両種別推定部、44…積載物推定部、63…車両種別学習データ作成部、64…積載物学習データ作成部、65学習データ振分け部、66…車両種別学習モデル作成部、67…積載物学習モデル作成部、68…学習モデル評価部 1 ... Work site, 10 ... Entrance / exit gate, 20 ... Imaging device, 30 ... Vehicle detection system, 40 ... Vehicle estimation device, 50 ... Learned model storage device, 60 ... Learning device, 41 ... Image data acquisition unit, 43 ... Vehicle type estimation unit, 44 ... Load estimation unit, 63 ... Vehicle type learning data creation unit, 64 ... Load learning data creation unit, 65 learning data distribution unit, 66 ... Vehicle type learning model creation unit, 67 ... Load learning unit Model creation department, 68 ... Learning model evaluation department

Claims (6)

作業現場に入場する車両又は前記作業現場から退場する車両のうち少なくとも何れかの車両が撮像された画像の画像データを取得する画像データ取得部と、
前記画像の前記画像データを、車両に関する属性情報を推定する学習済みモデルに入力することにより、前記画像における車両について当該車両に関する属性情報を推定する推定部
を備え、
前記学習済みモデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである
車両推定装置。
An image data acquisition unit that acquires image data of an image captured by at least one of a vehicle entering the work site or a vehicle leaving the work site.
By inputting the image data of the image into a trained model for estimating the attribute information about the vehicle, the estimation unit for estimating the attribute information about the vehicle for the vehicle in the image is provided.
In the trained model, the learning data in which the vehicle type of the vehicle is associated with the image of the vehicle extracted from the image data and the image of the load extracted from the image data are captured by the vehicle. It is created by executing deep learning using the learning data associated with the name of the load.
Vehicle estimation device.
前記推定部は、前記画像における車両の車両種別、又は前記画像における車両の積載物のうち少なくとも一方を推定する
請求項1に記載の車両推定装置。
The vehicle estimation device according to claim 1, wherein the estimation unit estimates at least one of the vehicle type of the vehicle in the image and the load of the vehicle in the image.
前記画像は、作業現場に入場する車両又は前記作業現場から退場する車両のうち少なくとも何れかの車両を俯瞰する画像であって、前記車両の進行方向にみて前側となる前部が含まれる車両前部画像、前記前部の方向にある端部と前記車両の積載物の全部又は一部とが含まれる車両前方画像、前記車両の積載物の全部又は一部と前記車両の進行方向にみて後側となる後部の方向にある端部とが含まれる車両後方画像、前記車両の積載物の全部が含まれる荷姿画像、前記後部が含まれる車両後部画像のうち少なくとも一つを含む
請求項1又は請求項2に記載の車両推定装置。
The image is an image of a bird's-eye view of at least one of a vehicle entering the work site or a vehicle leaving the work site, and includes a front portion on the front side in the traveling direction of the vehicle. Part image, vehicle front image including the end in the front direction and all or part of the vehicle load, rear view of all or part of the vehicle load and the vehicle traveling direction 1 Or the vehicle estimation device according to claim 2.
車両と、当該車両に関する属性情報とを対応づけた学習データを用いて深層学習を実行することにより、作業現場において車両が入退場する領域を撮像領域として撮像された画像データにおける車両における前記属性情報を推定する推定モデルを作成するモデル作成部
を備える学習装置であり、
前記推定モデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである
学習装置。
The above-mentioned in the vehicle in the image data imaged with the area where the vehicle enters and exits at the work site as the image pickup area by executing the deep learning using the learning data in which the vehicle and the attribute information related to the vehicle are associated with each other. It is a learning device equipped with a model creation unit that creates an estimation model that estimates attribute information.
In the estimation model, the learning data in which the vehicle type of the vehicle is associated with the image captured by the vehicle extracted from the image data and the image of the load extracted from the image data are captured by the vehicle. It is created by executing deep learning using the learning data associated with the name of the load.
Learning device.
前記学習データの各々を訓練データとテストデータとに振分ける振分け部と、
前記モデル作成部により作成された推定モデルを評価する評価部
を更に備え、
前記モデル作成部は、前記振分け部により振分けられた前記訓練データを用いて深層学習を実行することにより推定モデルを作成し、
前記評価部は、前記推定モデルに前記テストデータに対応する画像を入力することにより、前記テストデータに対応する画像における車両について当該車両の属性情報を推定した推定結果を取得し、取得した推定結果と前記テストデータに対応する画像の属性情報とに基づいて、前記推定モデルを評価する
請求項4に記載の学習装置。
A distribution unit that distributes each of the training data into training data and test data,
It also has an evaluation unit that evaluates the estimation model created by the model creation unit.
The model creation unit creates an estimation model by executing deep learning using the training data distributed by the distribution unit.
By inputting an image corresponding to the test data into the estimation model, the evaluation unit acquires an estimation result of estimating the attribute information of the vehicle for the vehicle in the image corresponding to the test data, and the acquired estimation result. The learning device according to claim 4, wherein the estimation model is evaluated based on the attribute information of the image corresponding to the test data.
画像データ取得部が、作業現場において車両が入退場する領域を撮像領域とする画像の画像データを取得し、
推定部が、前記画像の前記画像データを、車両に関する属性情報を推定する学習済みモデルに入力することにより、前記画像における車両について当該車両に関する属性情報を推定し、
前記学習済みモデルは、車両に前記属性情報を対応させた学習データを用いて深層学習を実行することにより作成されるものであり、
前記学習済みモデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである
ことを特徴とする車両推定方法。
The image data acquisition unit acquires image data of an image whose imaging area is the area where the vehicle enters and exits at the work site.
The estimation unit estimates the attribute information about the vehicle for the vehicle in the image by inputting the image data of the image into the trained model for estimating the attribute information about the vehicle.
The trained model is created by executing deep learning using the training data in which the attribute information is associated with the vehicle .
In the trained model, the learning data in which the vehicle type of the vehicle is associated with the image of the vehicle extracted from the image data and the image of the load extracted from the image data are captured by the vehicle. It is created by executing deep learning using the learning data associated with the name of the load.
A vehicle estimation method characterized by that.
JP2018075817A 2018-04-11 2018-04-11 Vehicle estimation device, learning device, and vehicle estimation method Active JP7097215B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018075817A JP7097215B2 (en) 2018-04-11 2018-04-11 Vehicle estimation device, learning device, and vehicle estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018075817A JP7097215B2 (en) 2018-04-11 2018-04-11 Vehicle estimation device, learning device, and vehicle estimation method

Publications (2)

Publication Number Publication Date
JP2019185410A JP2019185410A (en) 2019-10-24
JP7097215B2 true JP7097215B2 (en) 2022-07-07

Family

ID=68341326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018075817A Active JP7097215B2 (en) 2018-04-11 2018-04-11 Vehicle estimation device, learning device, and vehicle estimation method

Country Status (1)

Country Link
JP (1) JP7097215B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402779B2 (en) * 2020-10-19 2023-12-21 新明和工業株式会社 Program, information processing method, and information processing system
WO2022208647A1 (en) * 2021-03-30 2022-10-06 日本電信電話株式会社 Learning model generation device, learning model generation method, and learning model generation program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260527A (en) 2003-02-26 2004-09-16 Mitsubishi Heavy Ind Ltd Device and method for detecting object
JP2010517139A (en) 2007-01-18 2010-05-20 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting and tracking a vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3004501B2 (en) * 1993-08-02 2000-01-31 三菱重工業株式会社 Vehicle type identification device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260527A (en) 2003-02-26 2004-09-16 Mitsubishi Heavy Ind Ltd Device and method for detecting object
JP2010517139A (en) 2007-01-18 2010-05-20 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting and tracking a vehicle

Also Published As

Publication number Publication date
JP2019185410A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
KR101926561B1 (en) Road crack detection apparatus of patch unit and method thereof, and computer program for executing the same
CN106373426B (en) Parking stall based on computer vision and violation road occupation for parking monitoring method
US8666117B2 (en) Video-based system and method for detecting exclusion zone infractions
CN103824452B (en) A kind of peccancy parking detector based on panoramic vision of lightweight
CN109887283B (en) Road congestion prediction method, system and device based on checkpoint data
CN103985182B (en) A kind of bus passenger flow automatic counting method and automatic counter system
CN107967806A (en) Vehicle fake-license detection method, device, readable storage medium storing program for executing and electronic equipment
US20170053192A1 (en) Systems and methods for detecting parking occupancy status
CN108256554A (en) Vehicle reverse stopping judgment method, server and system based on deep learning
DE102009048892A1 (en) Clear traveling path detecting method for vehicle e.g. car, involves generating three-dimensional map of features in view based upon preferential set of matched pairs, and determining clear traveling path based upon features
US20150279036A1 (en) Side window detection in near-infrared images utilizing machine learning
DE102009048699A1 (en) Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface
DE102009050502A1 (en) Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface
CN110889371B (en) Method and device for detecting throwing of muck truck
WO2014202362A1 (en) Method for providing parking information on free parking spaces
JP7097215B2 (en) Vehicle estimation device, learning device, and vehicle estimation method
DE102018116036A1 (en) Training a deep convolutional neural network for individual routes
WO2019201565A1 (en) Method, device and computer-readable storage medium having instructions for processing sensor data
CN115239219B (en) Smart city muck vehicle management method and system based on Internet of things
EP2521070A2 (en) Method and system for recording a static or dynamic scene, for determining raw events and detecting free areas in an area under observation
CN116128360A (en) Road traffic congestion level evaluation method and device, electronic equipment and storage medium
US9946936B2 (en) Automated video based ingress/egress sensor reset for truck stop occupancy detection
KR20200123537A (en) Method for detecting sinkhole using deep learning and data association and sinkhole detecting system using it
CN111435457A (en) Method for classifying acquisition acquired by sensor
CN112818847A (en) Vehicle detection method, device, computer equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R150 Certificate of patent or registration of utility model

Ref document number: 7097215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150