JP7097215B2 - Vehicle estimation device, learning device, and vehicle estimation method - Google Patents
Vehicle estimation device, learning device, and vehicle estimation method Download PDFInfo
- Publication number
- JP7097215B2 JP7097215B2 JP2018075817A JP2018075817A JP7097215B2 JP 7097215 B2 JP7097215 B2 JP 7097215B2 JP 2018075817 A JP2018075817 A JP 2018075817A JP 2018075817 A JP2018075817 A JP 2018075817A JP 7097215 B2 JP7097215 B2 JP 7097215B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- data
- learning
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、作業現場において入退場する車両を管理するための車両推定装置、学習装置、及び車両推定方法に関する。 The present invention relates to a vehicle estimation device, a learning device, and a vehicle estimation method for managing vehicles entering and exiting at a work site.
従来、建設現場などの作業現場においては、車両系の建設機器、建設資材を搬入する車両や産業廃棄物を搬出する車両等、様々な車両が頻繁に出入りする。特に、作業現場にコンクリートを打設する際にはコンクリートミキサー車(以下、生コン車という)が、作業現場から掘削土を搬出する際にはダンプ車が、それぞれ数分間隔でサイクリックに作業現場に入退場し、ピーク時は一日に入場又は退場(以下、入退場という)する車両の数がゲート当たり数百台程度にまで達する。
生コン車やダンプ車については、作業現場に入場した車両の台数による精算が行われる。このため、例えば、作業現場のガードマン等により、作業現場に入場した生コン車等の車両の台数が記録され、精算費用を確認するために用いられている。
また、作業現場に入場するために車両が作業現場付近に停車して待機する場合があり、周辺の道路が渋滞する一因となっている。
このため、要因となり得ることから、作業現場に入退場する車両の台数の報告を、行政から求められる場合もあった。例えば、このような入退場を行う車両を管理する方法として、駐車場に入出場する車両をカメラで撮像した画像を用いて車両のナンバプレートを認識する技術が開示されている(例えば、特許文献1)。
Conventionally, various vehicles such as vehicle-type construction equipment, vehicles for carrying in construction materials, and vehicles for carrying out industrial waste frequently come and go at work sites such as construction sites. In particular, a concrete mixer truck (hereinafter referred to as a ready-mixed concrete truck) is used to place concrete on the work site, and a dump truck is used to carry out excavated soil from the work site cyclically at intervals of several minutes. The number of vehicles entering or exiting (hereinafter referred to as "entrance / exit") reaches several hundreds per gate during peak hours.
For ready-mixed trucks and dump trucks, payment will be made based on the number of vehicles that have entered the work site. Therefore, for example, a guard man at the work site records the number of vehicles such as a ready-mixed concrete truck that has entered the work site, and is used to confirm the settlement cost.
In addition, vehicles may stop near the work site and stand by in order to enter the work site, which is one of the causes of traffic congestion in the surrounding roads.
For this reason, there were cases where the government requested a report on the number of vehicles entering and leaving the work site because it could be a factor. For example, as a method of managing such vehicles entering and exiting a parking lot, a technique of recognizing a vehicle number plate using an image of a vehicle entering and exiting a parking lot by a camera is disclosed (for example, Patent Document). 1).
しかしながら、上述した従来技術のようにナンバプレートや車両番号を認識させて車両を管理するためには、事前に車両番号を登録させておく必要があり、登録する作業に手間がかかる。また、作業現場に入退場する車両のうち、ダンプ車、生コン車、給油車、産廃収集車以外の車両においては、同一車両のリピート率が低く、一度登録した車両番号の車両が再度同じ作業現場に入場することが稀である。このため、事前に車両番号を登録する手間がかかる一方で、未登録の車両が次々に入場してくることになり、車両管理の運用を継続させることが困難であった。
また、比較的規模が小さい作業現場においては、車両が後進しながら作業現場に入場することが多くあり、車両のフロント部分に設けられたナンバプレートを認識することが前提である場合、車両の後部に設けられたナンバプレートを認識することが困難であった。
However, in order to recognize the number plate and the vehicle number and manage the vehicle as in the above-mentioned conventional technique, it is necessary to register the vehicle number in advance, and the work of registering is troublesome. In addition, among the vehicles entering and leaving the work site, the repeat rate of the same vehicle is low for vehicles other than dump trucks, ready-mixed trucks, refueling vehicles, and industrial waste collection vehicles, and the vehicle with the vehicle number once registered is the same work site again. It is rare to enter. For this reason, while it takes time and effort to register the vehicle number in advance, unregistered vehicles enter one after another, and it is difficult to continue the operation of vehicle management.
In addition, in a relatively small work site, the vehicle often enters the work site while moving backward, and if it is a prerequisite to recognize the number plate provided on the front part of the vehicle, the rear part of the vehicle. It was difficult to recognize the number plate provided in.
上述の課題を鑑み、本発明は、手間を増大させることなく、作業現場において入退場する車両を管理することができる車両推定装置、学習装置、及び車両推定方法を提供する。 In view of the above problems, the present invention provides a vehicle estimation device, a learning device, and a vehicle estimation method that can manage vehicles entering and exiting at a work site without increasing labor.
上述した課題を解決するために、本発明の一態様に係る車両推定装置は、作業現場に入場する車両又は前記作業現場から退場する車両のうち少なくとも何れかの車両が撮像された画像の画像データを取得する画像データ取得部と、前記画像の前記画像データを、車両に関する属性情報を推定する学習済みモデルに入力することにより、前記画像における車両について当該車両に関する属性情報を推定する推定部を備え、前記学習済みモデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである車両推定装置である。 In order to solve the above-mentioned problems, the vehicle estimation device according to one aspect of the present invention is image data of an image of at least one of a vehicle entering the work site or a vehicle leaving the work site. The image data acquisition unit for acquiring the image and the estimation unit for estimating the attribute information about the vehicle for the vehicle in the image by inputting the image data of the image into the trained model for estimating the attribute information about the vehicle. The trained model corresponds to the training data in which the vehicle type of the vehicle is associated with the image captured by the vehicle extracted from the image data, and the image obtained by capturing the load extracted from the image data. It is a vehicle estimation device created by executing deep learning using learning data associated with the names of loads of vehicles .
また、本発明に係る一態様は、上述した車両推定装置であって、前記推定部は、前記画像における車両の車両種別、又は前記画像における車両の積載物のうち少なくとも一方を推定する。 Further, one aspect of the present invention is the vehicle estimation device described above, wherein the estimation unit estimates at least one of the vehicle type of the vehicle in the image and the load of the vehicle in the image.
また、本発明に係る一態様は、上述した車両推定装置であって、前記画像は、作業現場に入場する車両又は前記作業現場から退場する車両のうち少なくとも何れかの車両を俯瞰する画像であって、前記車両の進行方向にみて前側である前部が含まれる車両前部画像、前記前部の方向にある端部と前記車両の積載物の全部又は一部とが含まれる車両前方画像、前記車両の積載物の全部又は一部と前記車両の進行方向にみて後側である後部の方向にある端部とが含まれる車両後方画像、前記車両の積載物の全部が含まれる荷姿画像、前記後部が含まれる車両後部画像のうち少なくとも一つを含む。 Further, one aspect of the present invention is the vehicle estimation device described above, wherein the image is an image of at least one of a vehicle entering the work site or a vehicle leaving the work site. An image of the front part of the vehicle including the front part which is the front side in the traveling direction of the vehicle, and an image of the front part of the vehicle including the end portion in the direction of the front part and all or a part of the load of the vehicle. A vehicle rear image including all or a part of the load of the vehicle and an end in the direction of the rear which is the rear side in the traveling direction of the vehicle, and a package image including the entire load of the vehicle. , At least one of the vehicle rear images including the rear.
また、本発明にかかる一態様は、車両と、当該車両に関する属性情報とを対応づけた学習データを用いて深層学習を実行することにより、作業現場において車両が入退場する領域を撮像領域として撮像された画像データにおける車両における前記属性情報を推定する推定モデルを作成するモデル作成部を備える学習装置であり、前記推定モデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである学習装置である。 Further, in one aspect of the present invention, a region where the vehicle enters and exits at the work site is set as an imaging region by performing deep learning using learning data in which the vehicle and the attribute information related to the vehicle are associated with each other. It is a learning device provided with a model creation unit for creating an estimation model for estimating the attribute information in a vehicle in the image data captured by the user , and the estimation model corresponds to an image captured by the vehicle extracted from the image data. Deep learning is executed using learning data in which the vehicle type of the vehicle is associated with each other and learning data in which the name of the load of the vehicle is associated with the image obtained by capturing the load extracted from the image data. It is a learning device that is created by the above.
また、本発明に係る一態様は、上述した学習装置であって、前記学習データの各々を訓練データとテストデータとに振分ける振分け部と、前記モデル作成部により作成された推定モデルを評価する評価部を更に備え、前記モデル作成部は、前記振分け部により振分けられた前記訓練データを用いて深層学習を実行することにより推定モデルを作成し、前記評価部は、前記推定モデルに前記テストデータに対応する画像を入力することにより、前記テストデータに対応する画像における車両について当該車両の属性情報を推定した推定結果を取得し、取得した推定結果と前記テストデータに対応する画像の属性情報とに基づいて、前記推定モデルを評価する。 Further, one aspect of the present invention is the above-mentioned learning device, which evaluates a distribution unit that distributes each of the training data into training data and test data, and an estimation model created by the model creation unit. An evaluation unit is further provided, and the model creation unit creates an estimation model by executing deep learning using the training data distributed by the distribution unit, and the evaluation unit creates the test data in the estimation model. By inputting the image corresponding to, the estimation result of estimating the attribute information of the vehicle in the image corresponding to the test data is acquired, and the acquired estimation result and the attribute information of the image corresponding to the test data are obtained. Evaluate the estimation model based on.
また、本発明に係る一態様は、上述した車両推定方法であって、画像データ取得部が、作業現場において車両が入退場する領域を撮像領域とする画像の画像データを取得し、推定部が、前記画像の前記画像データを、車両に関する属性情報を推定する学習済みモデルに入力することにより、前記画像における車両について当該車両に関する属性情報を推定し、前記学習済みモデルは、車両に前記属性情報を対応させた学習データを用いて深層学習を実行することにより作成されるものであり、前記学習済みモデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものであることを特徴とする車両推定方法である。 Further, one aspect of the present invention is the vehicle estimation method described above, in which the image data acquisition unit acquires image data of an image in which the area where the vehicle enters and exits at the work site is the image pickup area, and the estimation unit obtains the image data. By inputting the image data of the image into the trained model for estimating the attribute information about the vehicle, the attribute information about the vehicle is estimated for the vehicle in the image, and the trained model gives the vehicle the attribute information. It is created by executing deep learning using the training data corresponding to the above, and the trained model corresponds to the vehicle type of the vehicle to the image captured by the vehicle extracted from the image data. It is created by executing deep learning using the attached learning data and the learning data in which the name of the load of the vehicle is associated with the image captured by the load extracted from the image data. It is a vehicle estimation method characterized by being.
本発明によれば、作業現場を入退場する車両の車両種別や積載物等の属性情報を推定するので、手間を増大させることなく、作業現場において入退場する車両を管理することができる。 According to the present invention, since the attribute information such as the vehicle type and the load of the vehicle entering and leaving the work site is estimated, it is possible to manage the vehicles entering and leaving the work site without increasing the time and effort.
以下、本発明の実施の形態について図面を参照しながら説明する。
図1は、実施形態の車両検知システム30が作業現場1に適用された例を示す図である。図1に示すように、車両検知システム30は作業現場1に適用される。作業現場1には、例えば、入退場ゲート10及び撮像装置20が設けられる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an example in which the
入退場ゲート10は、作業現場1の出入口に設けられる。入退場ゲート10の両端には、作業現場1を囲むように設けられたパネルゲート11が設けられる。入退場ゲート10は、例えば、出入口の左右に設けられる支柱12(支柱12a、12b)と、支柱12の間の上側に架設した横架材13により門(ゲート)の枠組みが形成される。例えば、このゲートの枠組みに沿うようにして、上端を横架材13に吊架され、下端に設けられた車輪(キャスタ)を走行させることにより開閉可能なキャスタゲート14が設けられる。
The entrance /
撮像装置20は、例えば、横架材13の長さ方向における中央付近に設置される。撮像装置20は、例えば、撮像方向が下側方向を向くように設置され、入退場ゲート10を出入する車両15(車両15a、15b)を俯瞰した画像を撮像する。
撮像装置20は、例えば、360度の画角で撮影できる全方位カメラである。撮像装置20は、例えば、入退場ゲート10を車両15が通過する場合に、その通過する車両15を俯瞰した画像を撮像する。なお、撮像装置20は、静止画像を撮像してもよいし、動画像を撮像するようにしてもよい。また、撮像装置20は、白黒画像を撮像してもよいし、カラー画像を撮像するようにしてもよい。
撮像装置20は、撮像した画像の画像データを車両検知システム30に送信する。
The
The
The
車両検知システム30は、撮像装置20により撮像された画像の画像データに基づいて、画像における車両15の属性情報を検知する。ここで、車両15の属性情報とは、車両に関する属性を示す情報であり、例えば、車両種別や積載物、及び動作等を示す情報である。ここでの動作は、車両15が作業現場1に入場しているか、作業現場1から退場しているかを示す情報である。
The
車両検知システム30は、例えば、車両推定装置40と、学習済みモデル記憶装置50と、学習装置60とを備える。
車両推定装置40は、撮像装置20により撮像された画像の画像データに基づいて、画像における車両の属性情報を推定する。車両推定装置40は、車両の属性情報を推定する際に、学習済みモデル記憶装置50に記憶された学習済みモデルを用いる。
ここでの学習済みモデルは、入力としての画像に撮像された車両と、出力としての車両の属性情報との対応関係を示す学習データを用いて深層学習を実行することにより作成されたモデルである。
The
The
The trained model here is a model created by executing deep learning using training data showing the correspondence between the vehicle captured in the image as an input and the attribute information of the vehicle as an output. ..
ここで、深層学習について説明する。
まず、深層学習の基本となる機械学習とは、大量のデータから、そのデータ群に共通する規則性や関連性を見つけ出し、その規則性や関連性に基づいて、当該データに対する判断や予測を行う手法である。機械学習においては、データ群に対して着目すべき特徴(特徴量)を人間が指定する。このため、人間が、学習に用いるデータ(学習データ)の内容と、学習結果として用いる判断や予測との関係を十分に考慮した上で特徴量を適切に指定する必要がある。
これに対し、深層学習の場合は、人間が特徴量を指定する必要がない。深層学習においては、人間の脳神経回路をモデルにした多層構造アルゴリズム(ディープニューラルネットワーク、人工知能などともいう)を用いることにより、特徴量の設定や組み合わせを人工知能が自ら考えて決定するためである。例えば、車両が撮像された画像を学習データとして用いて、その車両種別を推定させようとした場合、機械学習の場合では、特徴量として、色や形状など、人間が考えられる様々な特徴量を指定しなければならず、どの特徴量が車両種別の推定に効果的かは、機械学習を実行しなければ判らない。一方、深層学習においては、車両種別の推定に効果的な特徴量を自ら考えて決定し、自らが自動的に学習を行う。但し、深層学習において、人工知能に推定に効果的な特徴量を決定させるためには、大量の学習データを読み込ませる(学習させる)必要がある。また、読み込ませる学習データの内容により学習の方向性も変化するため、慎重に学習データを選択する必要がある。
しかし、学習データの質を向上させるために学習データ用の画像を増やすには、現実的な問題として人件費などのコストがかかることから、やみくもに学習データ用の画像を増やすことは得策ではない。
そこで、本実施形態においては、学習データ用の画像をある程度(例えば、100枚)用意し、用意した学習データを用いて深層学習を実行する。そして、深層学習を行う際に使用する変数を調整することにより推定モデルの方向性を定めた上で、その方向性に沿った学習データを増加させることにより、効率よく精度の高い推定モデルを作成する。
Here, deep learning will be described.
First, machine learning, which is the basis of deep learning, finds the regularity and relevance common to the data group from a large amount of data, and makes judgments and predictions for the data based on the regularity and relevance. It is a method. In machine learning, humans specify features (features) that should be noted for data groups. Therefore, it is necessary to appropriately specify the feature amount after fully considering the relationship between the content of the data (learning data) used by humans for learning and the judgment and prediction used as the learning result.
On the other hand, in the case of deep learning, it is not necessary for humans to specify the features. This is because in deep learning, artificial intelligence thinks and decides the setting and combination of features by using a multi-layered structure algorithm (also called deep neural network, artificial intelligence, etc.) modeled on the human brain neural circuit. .. For example, when trying to estimate the vehicle type using an image of a vehicle as learning data, in the case of machine learning, various feature quantities that humans can think of, such as color and shape, are used as feature quantities. It must be specified, and which feature quantity is effective for estimating the vehicle type cannot be known without performing machine learning. On the other hand, in deep learning, the feature amount that is effective for estimating the vehicle type is considered and determined by oneself, and the learning is automatically performed by oneself. However, in deep learning, it is necessary to read (learn) a large amount of learning data in order for artificial intelligence to determine effective features for estimation. In addition, since the direction of learning changes depending on the content of the learning data to be read, it is necessary to carefully select the learning data.
However, in order to increase the number of images for training data in order to improve the quality of training data, it is not a good idea to blindly increase the number of images for training data because labor costs and other costs are incurred as a practical problem. ..
Therefore, in the present embodiment, a certain amount of images for learning data (for example, 100 images) are prepared, and deep learning is executed using the prepared learning data. Then, after determining the direction of the estimation model by adjusting the variables used when performing deep learning, by increasing the training data along that direction, an efficient and highly accurate estimation model is created. do.
学習済みモデルは、例えば、学習済みの入力と同じ入力がなされた場合、その学習済みの入力に対応する出力を、推定される車両の属性情報として出力する。
学習済みモデル記憶装置50は、学習済みモデルを記憶する。学習装置60は、学習済みモデル記憶装置50に記憶させる学習済みモデルを作成する。
For example, when the same input as the trained input is made, the trained model outputs the output corresponding to the trained input as the estimated vehicle attribute information.
The trained
車両検知システム30は、車両推定装置40により推定された車両の属性情報を、検知結果とする。車両検知システム30は、検知結果を、例えば、表示装置70に出力する。
表示装置70は、車両検知システム30による検知結果を出力する。図1の例では、表示装置70は、車両15aについて、車両種別(車両)がダンプ車であり、積載物(積荷)が掘削土であり、車両の動作が退場であることを示している。また、表示装置70は、車両15bについて、車両種別が生コン車であり、積載物が生コンクリート(生コン)であり、車両の動作が入場であることを示している。
The
The
図2は、実施形態の車両推定装置40の構成例を示すブロック図である。車両推定装置40は、例えば、画像データ取得部41と、前処理部42と、車両種別推定部43と、積載物推定部44と、推定結果出力部45と、推定結果記憶部46とを備える。ここで、車両種別推定部43及び積載物推定部44は、「推定部」の一例である。
FIG. 2 is a block diagram showing a configuration example of the
画像データ取得部41は、撮像装置20により撮像された画像の画像データを取得する。画像データ取得部41は、取得した画像データを前処理部42に出力する。
前処理部42は、画像データ取得部41により取得された画像データに対応する画像について前処理を行う。ここでの前処理とは、後述する車両種別推定部43及び積載物推定部44による処理が正しく行われるようにするために、画像を加工する処理である。
前処理部42は、例えば、画像から画像に撮像された様々な物体を抽出する。前処理部42は、例えば、エッジ検出を行うことにより画像に撮像された様々な物体を抽出する。前処理部42は、エッジの外周における輝度の差分に基づいて物体を囲むエッジを検出する。具体的には、前処理部42は、画像に様々な矩形の枠(セル)をあてはめ、枠の内部と外周との輝度を比較し、内部の輝度分布と比較して枠の外周の輝度分布に輝度の差分が少ない場合に、その枠内に物体があると判定し、その枠を抽出することで画像から物体を抽出する。
The image
The
The preprocessing
前処理部42は、例えば、画像を時系列に比較し、画像の各々から抽出した物体のうち、時系列に変化する物体を選択する。すでに述べたように、ここでの画像は、作業現場1を入退場する車両15が撮像された画像である。このため、画像に時系列に変化する物体が撮像されている場合には、その変化する物体が入退場する車両15であると考えられる。つまり、前処理部42は、時系列に変化する物体を選択することにより、画像における推定対象である車両15や、車両15の積載物を選択する。
また、前処理部42は、例えば、画像から抽出した車両15や、車両15の積載物の画像の各々が同じ大きさになるようにスケーリングする。
前処理部42は、画像から抽出した車両15や、車両15の積載物の画像における画像データを車両種別推定部43及び積載物推定部44に出力する。
For example, the preprocessing
Further, the preprocessing
The preprocessing
車両種別推定部43は、前処理部42により車両が抽出された画像の画像データに基づいて、画像における車両の車両種別を推定する。車両種別推定部43は、学習済みモデル記憶装置50の車両種別学習済みモデル記憶部51(図3参照)に記憶された学習済みモデルに画像データを入力することにより得られる出力を、画像における車両の車両種別と推定する。車両種別推定部43は、推定結果を推定結果出力部45に出力するとともに、推定結果記憶部46に記憶させる。
The vehicle
積載物推定部44は、前処理部42により積載物が抽出された画像の画像データに基づいて、画像における車両の積載物を推定する。積載物推定部44は、学習済みモデル記憶装置50の積載物学習済みモデル記憶部52(図3参照)に記憶された学習済みモデルに画像データを入力することにより得られる出力を、画像における車両の積載物と推定する。積載物推定部44は、推定結果を推定結果出力部45に出力するとともに、推定結果記憶部46に記憶させる。
The
推定結果出力部45は、車両種別推定部43及び積載物推定部44により推定された画像における車両の車両種別及び積載物を示す情報を、画像と対応づけて表示装置70に出力する。
推定結果記憶部46は、車両種別推定部43及び積載物推定部44により推定された画像における車両の車両種別及び積載物を画像と対応づけた情報を記憶する。
The estimation
The estimation
図3は、実施形態の学習済みモデル記憶装置50の構成例を示すブロック図である。学習済みモデル記憶装置50は、例えば、車両種別学習済みモデル記憶部51と、積載物学習済みモデル記憶部52とを備える。
車両種別学習済みモデル記憶部51は、画像に撮像された車両に基づいて車両種別を推定する学習済みモデルを記憶する。この学習済みモデルは、画像に撮像された車両に、車両種別を対応付けた学習データを用いて深層学習を実行することにより作成されたモデルである。
FIG. 3 is a block diagram showing a configuration example of the trained
The vehicle type trained
積載物学習済みモデル記憶部52は、画像に撮像された車両の積載物に基づいて積載物を推定する学習済みモデルを記憶する。この学習済みモデルは、画像に撮像された車両の積載物に、積載物の名称を対応付けた学習データを用いて深層学習を実行することにより作成されたモデルである。
上述した車両種別学習済みモデル記憶部51及び積載物学習済みモデル記憶部52の各々に記憶される学習済みモデルは、例えば、学習装置60により作成される。
The load-learned
The trained model stored in each of the vehicle type trained
図4は、実施形態の学習装置60の構成例を示すブロック図である。学習装置60は、例えば、画像データ取得部61と、領域画像抽出部62と、車両種別学習データ作成部63と、積載物学習データ作成部64と、学習データ振分け部65と、車両種別学習モデル作成部66と、積載物学習モデル作成部67と、学習モデル評価部68とを備える。ここで、車両種別学習モデル作成部66及び積載物学習モデル作成部67は、「モデル作成部」の一例である。学習データ振分け部65は、「振分け部」の一例である。学習モデル評価部68は、「評価部」の一例である。
FIG. 4 is a block diagram showing a configuration example of the
画像データ取得部61は、車両15が撮像された画像の画像データを取得する。画像データ取得部61は、撮像装置20により撮像された作業現場1に入退場する車両15画像のみならず、他の作業現場において撮像された画像を取得してもよい。画像データ取得部61が、他の作業現場における画像を取得する場合、画像における撮像位置や画角が、作業現場1の撮像装置20の撮像位置や画角と同等であることが好ましい。撮像位置や画角等の撮像条件が、撮像装置20の撮像条件と同等であれば、撮像装置20により撮像された画像に基づいて、車両15の属性情報を精度よく推定させる学習済みモデルを作成することができるためである。画像データ取得部61は、取得した画像データを領域画像抽出部62に出力する。
The image
領域画像抽出部62は、画像データ取得部41により取得された画像データに対応する画像から、前処理部42が行うエッジ検出等の手法を用いた物体検知により車両相当の大きさの物体を車両とみなして抽出することで、検知対象である車両が撮像された車両領域、及び積載物が撮像された積荷領域を抽出する。領域画像抽出部62は、画像から抽出した物体から学習対象である車両や積載物を選択する。
領域画像抽出部62は、車両領域を抽出した画像の画像データを車両種別学習データ作成部63に出力する。また、領域画像抽出部62は、積載物領域を抽出した画像の画像データを積載物学習データ作成部64に出力する。
The area
The area
車両種別学習データ作成部63は、領域画像抽出部62により車両領域が抽出された画像に、車両種別を対応付けることにより、画像に撮像された車両と車両種別との対応関係を学習させる学習データを作成する。車両種別学習データ作成部63は、例えば、作業者によるキーボードやマウス等の入力装置の操作等に基づいて、画像に撮像された車両と、その車両の車両種別とを対応付ける。この場合、車両種別学習データ作成部63は、図示しない入力部に入力された作業者によるマウス等の操作を示す情報を取得し、画像に撮像された車両と、その車両種別とを対応付ける。車両種別学習データ作成部63は、作成した学習データを、学習データ振分け部65に出力する。
The vehicle type learning
積載物学習データ作成部64は、領域画像抽出部62により積載物領域が抽出された画像に、積載物の名称を対応付けることにより、画像に撮像された車両の積載物とその積載物の名称との対応関係を学習させる学習データを作成する。積載物学習データ作成部64は、例えば、作業者によるキーボードやマウス等の入力装置の操作等に基づいて、画像に撮像された車両と、その車両の車両種別とを対応付ける。この場合、積載物学習データ作成部64は、図示しない入力部に入力された作業者によるマウス等の操作を示す情報を取得し、画像に撮像された車両と、その車両の車両種別とを対応付ける。積載物学習データ作成部64は、作成した学習データを、学習データ振分け部65に出力する。
By associating the name of the load with the image from which the load area is extracted by the area
学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データを、訓練データとテストデータとに振分ける。また、学習データ振分け部65は、積載物学習データ作成部64により作成された学習データを、訓練データとテストデータとに振分ける。ここで訓練データは、後述する車両種別学習モデル作成部66、及び積載物学習モデル作成部67により学習済みモデルが作成される際に用いられるデータである。テストデータは、車両種別学習モデル作成部66、及び積載物学習モデル作成部67により作成された学習済みモデルを評価するために用いられるデータである。
The learning
学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データを、訓練データとテストデータとに二等分に振り分けてもよいし、所定の比率で振り分けてもよい。例えば、学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データの画像に対応付けられた属性情報が訓練データとテストデータとの両方に同量含まれるように、振り分ける。具体的には、学習データに、画像に撮像された車両15に、その属性情報として車両種別「生コン車」が対応付られた学習データが二つある場合、その学習データのうち一つは訓練データに、残りの一つはテストデータに振り分ける。
The learning
学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データから振分けた訓練データを車両種別学習モデル作成部66に出力する。また、学習データ振分け部65は、積載物学習データ作成部64により作成された学習データから振分け訓練データを積載物学習モデル作成部67に出力する。
学習データ振分け部65は、車両種別学習データ作成部63により作成された学習データから振分けたテストデータ、及び積載物学習データ作成部64により作成された学習データから振分けたテストデータの各々を図示しない記憶部に記憶させる。
The learning
The learning
車両種別学習モデル作成部66は、学習データ振分け部65により出力された車両種別を学習するための訓練データを用いて深層学習を実行することにより、学習済みモデルを作成する。
積載物学習モデル作成部67は、学習データ振分け部65により出力された積載物を学習するための訓練データを用いて深層学習を実行することにより、学習済みモデルを作成する。
The vehicle type learning
The load learning
学習モデル評価部68は、車両種別学習モデル作成部66及び積載物学習モデル作成部67の各々により作成された学習済みモデルを評価する。学習モデル評価部68は、例えば、学習データ振分け部65により振分けられたテストデータの画像を学習済みモデルに入力することにより得られた出力と、テストデータの画像に対応づけられた属性情報とを比較することにより、学習済みモデルを評価する。
The learning
例えば、画像に撮像された車両の15に、その属性情報として車両種別「生コン車」が対応付られたテストデータがある場合、学習モデル評価部68は、そのテストデータの画像(車両15が撮像された画像)を車両種別を推定する学習済みモデルに入力させる。この場合、学習済みモデルは、入力された画像に撮像された車両15と、一致するか、又は似ている車両の画像について学習済みである場合には、その学習済みの画像に対応する車両種別を出力する。
For example, if the 15 of the vehicles captured in the image have test data to which the vehicle type "raw computer" is associated as the attribute information, the learning
学習モデル評価部68は、学習済みモデルから、そのテストデータの画像(車両15が撮像された画像)に対応付られた車両種別「生コン車」が、車両種別の推定値として出力された場合、推定結果が正しいと評価する。一方、学習モデル評価部68は、学習済みモデルから、そのテストデータの画像(車両15が撮像された画像)に対応付られた車両種別「生コン車」とは異なる車両種別(例えば、「ダンプ車」)が、車両種別の推定値として出力された場合、推定結果が正しくないと評価する。
When the learning
ここでは、車両の属性情報について、説明する。
車両種別には、例えば、ダンプ車、生コン車、パラセメント車、トラック、ユニック、トレーラー、ポンプ車、ラフタークレーン、汚泥運搬車、産廃・ごみ収集車、給油車、バキューム車、貨物車、及び乗用車等がある。
積載物には、例えば、PCa柱、PCa梁、PCa外壁、鉄骨柱、鉄骨梁、鉄骨階段、鉄筋、型枠、デッキ、ALC、ボード、ガラス/アルミ建具、空調設備、衛生設備、電気設備、仮設、掘削土等がある。
なお、上述した属性情報(車両種別及び積載物)は、あくまで一例であり、車両検知システム30により検知する属性情報は、作業現場1の規模や状況に応じて任意に設定されてよい。
Here, the attribute information of the vehicle will be described.
Vehicle types include, for example, dump vehicles, ready-mixed vehicles, paraceal vehicles, trucks, unic, trailers, pump vehicles, rough terrain cranes, sludge carriers, industrial waste / garbage collection vehicles, refueling vehicles, vacuum vehicles, freight vehicles, and passenger vehicles. And so on.
Loads include, for example, PCa columns, PCa beams, PCa outer walls, steel columns, steel beams, steel stairs, reinforcing bars, formwork, decks, ALC, boards, glass / aluminum fittings, air conditioning equipment, sanitary equipment, electrical equipment, etc. There are temporary construction, excavated soil, etc.
The above-mentioned attribute information (vehicle type and load) is only an example, and the attribute information detected by the
ここでは、車両や積載物が撮像された画像について、図5を用いて説明する。
図5は、実施形態の車両検知システム30において用いられる画像の例を示す図である。図5(a)は車両15を俯瞰した平面図である。図5(b)~(f)は車両や積載物が所定の撮像領域Pに存在している場合の例を示す。図5(b)~(f)では、撮像領域Pの上側が作業現場1の内部側、撮像領域Pの下側が作業現場1の外部側を示す。つまり、図5(b)~(f)では、車両15が作業現場1に入場する場合における撮像領域Pの時系列変化を示している。
Here, an image in which a vehicle or a load is captured will be described with reference to FIG.
FIG. 5 is a diagram showing an example of an image used in the
すでに説明したように、実施形態の車両検知システム30では、車両や積載物が撮像された画像に基づいて、車両の属性情報が検知される。このため、画像には車両や積載物が、検知可能に撮像されていることが好ましい。また、車両の属性情報の検知(推定)は、学習済みモデルに画像を入力させることにより実施されることから、学習に用いた画像と、推定させる画像とが、同じような撮像条件で同じような領域に推定対象である車両や積載物が撮像されていることが好ましい。このため、本実施形態では、図5(b)~(f)に示すような、撮像領域Pにおける所定の領域に車両15の一部が撮像された画像を取得する。
As described above, in the
ここでは、撮像装置20は、車両15を俯瞰する位置から画像を撮像する場合を前提としている。また、撮像装置20は、画像の画像中央の左右方向に、入退場ゲート10が位置するようにして撮像を行う。
Here, it is premised that the
また、撮像装置20は、入退場ゲート10を車両15が通過する場合に、通過する車両15の一部が所定の領域に進入したが否かを判定し、車両15の一部が所定の領域に撮像されるようにして撮像を行う。具体的には、撮像装置20は、例えば、図示しない撮像判定部を備える。撮像判定部は、例えば、図5(b)~(f)に示すような、撮像領域Pの中央の左右方向に境界線S、境界線Sより上側に所定の領域E1、及び境界線Sより下側に所定の領域E2を設定する。撮像判定部は、撮像領域Pを時系列に監視して領域E1又は領域E2に変化があるか否かを検知する。撮像判定部は、領域E1又は領域E2に所定の変化がある場合に、車両15の入場又は退場があると判定し、車両15の入場又は退場が行われる様子を時系列に撮像させる。
Further, when the
図5(a)に示すように、車両15を俯瞰して見た場合に、車両15は、前端150と、前部151と、積載部152と、後部153と、後端154とに分類することができる。
図5(b)では、撮像領域Pに、車両15の進行方向にみて前側である前部151が入退場ゲート10に進入する様子を示している。撮像判定部は、例えば、領域E1のうち、所定の割合(例えば、30%)に変化があった場合に、車両15が進入したと判定する。撮像判定部は、車両15が入退場ゲート10に進入したと判定した場合、その判定した時刻より所定時間(例えば、5秒)前の時刻に撮像された画像を撮像装置20から車両検知システム30に送信させる。この場合、撮像装置20により送信された画像は、車両15の前部151が撮像された、「車両前部画像」である。
図5(c)では、撮像領域Pに車両15の前端150が含まれている状態を示している。撮像判定部は、例えば、車両15が入退場ゲート10に進入したと判定した時刻から所定時間(例えば、10秒)以内に、撮像領域Pの上端を含む領域に所定の変化があった場合に、その時刻に撮像された画像を撮像装置20に撮像させる。この場合、撮像装置20により撮像された画像は、車両15の前部151の全部及び積載部152の一部が撮像された、「車両前方画像」である。
図5(d)では、撮像領域Pに車両15の進行方向にみて後側である後部153の端部となる後端154が含まれている状態を示している。撮像判定部は、例えば、車両15が入退場ゲート10に進入したと判定した時刻から所定時間(例えば、10秒)以内に、撮像領域Pの下端を含む領域に、所定の変化が生じた後にその変化が生じなくなった場合、その時刻に撮像された画像を撮像装置20から車両検知システム30に送信させる。この場合、撮像装置20により撮像された画像は、車両15の後部153の全部及び積載部152の一部が撮像された、「車両後方画像」である。
図5(e)では、撮像領域Pに、車両15の積載部152の全体がきた様子を示している。撮像判定部は、例えば、車両15が入退場ゲート10に進入したと判定した時刻から所定時間(例えば、10秒)以内に、撮像領域Pの上端に積載部152の矩形形状の上端がきた場合に、その時刻に撮像された画像を撮像装置20から車両検知システム30に送信させる。この場合、撮像装置20により撮像された画像は、車両15の積載部152の全部又は一部が撮像された、「車両荷姿画像」である。
図5(f)では、撮像領域Pに、車両15の後部153が退場する様子を示している。撮像判定部は、例えば、車両15が入退場ゲート10に進入したと判定した時刻から所定時間(例えば、10秒)以内に、領域E2のうち、所定の割合(例えば、30%)に変化が生じなくなった場合に、その時刻に撮像された画像を撮像装置20から車両検知システム30に送信させる。この場合、撮像装置20により撮像された画像は、車両15の後部153が撮像された、「車両後部画像」である。
As shown in FIG. 5A, when the
FIG. 5B shows how the
FIG. 5C shows a state in which the image pickup region P includes the
FIG. 5D shows a state in which the imaging region P includes the
FIG. 5 (e) shows a state in which the
FIG. 5 (f) shows how the
なお、上記では、撮像装置20が撮像判定部を備える場合を例示して説明したが、これに限定されることはない。撮像判定部と同等の機能部が、車両推定装置40、又は/及び学習装置60に設けられていてもよい。
In the above description, the case where the
図6は、実施形態の学習装置60の動作例を示すフローチャートである。
本実施形態の学習装置60においては、まず、車両や積載物が撮像された学習データ用の画像を用いて深層学習を行うことにより、画像から車両や積載物の推定する推定モデルを作成する。そして、深層学習のアルゴリズムに用いられるハイパーパラメータを調整することにより推定モデルが正しく推定する確率(以下、認識率という)を向上させる。ここでのハイパーパラメータとは、深層学習を行う際に予め決定しておく様々なパラメータのことであって、例えば、ニューラルネットワークの層の数、中間層のユニット(ノード、結束点などともいう)の数、正則化の係数などの変数である。
そして、所定のハイパーパラメータを設定して作成された推定モデルの認識率に基づいて、深層学習における学習の方向性を決定する。ここでの学習の方向性とは、ハイパーパラメータを調整(チューニング)することにより、何れのハイパーパラメータをどの程度変化させることにより、どのように認識率が変化していくかを把握すること、及び認識率を向上させるために、どのような学習データ(画像)を、どの位増加させればよいか等、具体的な方針を決定することである。これにより、認識率を向上させるために必要な学習データがどの様な画像であるかを把握することができるため、効率よく学習データ(画像)を用意することが可能となる。
FIG. 6 is a flowchart showing an operation example of the
In the
Then, the direction of learning in deep learning is determined based on the recognition rate of the estimation model created by setting predetermined hyperparameters. The direction of learning here is to understand how the recognition rate changes by adjusting (tuning) which hyperparameters and how much to change which hyperparameters. It is to decide a concrete policy such as what kind of learning data (image) should be increased and how much in order to improve the recognition rate. As a result, it is possible to grasp what kind of image the learning data required to improve the recognition rate is, and it is possible to efficiently prepare the learning data (image).
まず、学習装置60は、画像データを取得する(ステップS10)。画像データ取得部61は、車両15を俯瞰して撮像された画像、及び車両15の積載物を俯瞰して撮像された画像の画像データを取得する。
次に、学習装置60は、取得した画像データに基づいて、画像における車両15と、その車両15の積載物との各々が撮像された領域を抽出する(ステップS11)。領域画像抽出部62は、車両15を俯瞰するようにして撮像された画像から車両15が撮像された領域を抽出する。また、領域画像抽出部62は、車両15の積載物を俯瞰するようにして撮像された画像から車両15の積載物が撮像された領域を抽出する。
次に、学習装置60は、抽出した画像に基づいて、学習データを作成する(ステップS12)。車両種別学習データ作成部63は、車両15が撮像された画像に、その車両15の車両種別を対応付けた学習データを作成する。積載物学習データ作成部64は、車両15の積載物が撮像された画像に、その車両15の積載物の名称を対応付けた学習データを作成する。
次に、学習装置60は、作成した学習データを訓練データとテストデータとに振分ける(ステップS13)。学習データ振分け部65は、車両種別学習データ作成部63及び積載物学習データ作成部64の各々により作成された学習データを訓練データとテストデータとに振分ける。
First, the
Next, the
Next, the
Next, the
次に、学習装置60は、訓練データとテストデータとを用いて深層学習を行う(ステップS14)。車両種別学習モデル作成部66は、例えば、車両種別学習データ作成部63により作成され、尚且つ、学習データ振分け部65により訓練データと振分けられたデータを用いて深層学習を実行することにより、推定モデルを作成する。そして、学習装置60は、作成した推定モデルの認識率を、テストデータを用いて算出する。具体的には、学習モデル評価部68は、車両種別学習モデル作成部66が作成した推定モデルに、車両種別学習データ作成部63により作成され、尚且つ、学習データ振分け部65によりテストデータと振分けられたデータの画像を入力することにより出力される推定結果を取得する。学習モデル評価部68は、取得した推定結果と、そのテストデータの画像に対応付られた車両種別とが一致する場合に正しい推定がなされたと判定する。一方、学習モデル評価部68は、取得した推定結果と、そのテストデータの画像に対応付られた車両種別とが一致しない場合に正しくない推定がなされたと判定する。また、学習モデル評価部68は、積載物学習モデル作成部67が作成した推定モデルに、積載物学習データ作成部64により作成され、尚且つ、学習データ振分け部65によりテストデータと振分けられたデータの画像を入力することにより出力される推定結果を取得する。学習モデル評価部68は、取得した推定結果と、そのテストデータの画像に対応付られた積載物の名称とが一致する場合に正しい推定がなされたと判定する。一方、学習モデル評価部68は、取得した推定結果と、そのテストデータの画像に対応付られた積載物の名称とが一致しない場合に正しくない推定がなされたと判定する。学習モデル評価部68は、テストデータの総数に対する、正しい推定がなされたテストデータの割合を認識率として算出する。
Next, the
次に、学習装置60は、作成した推定モデルの認識率が所定の閾値以上に達したか否かを判定する(ステップS15)。
そして、学習装置60は、作成した推定モデルの認識率が所定の閾値以上である場合には、推定モデルを学習済みモデル記憶装置50に記憶させる(ステップS16)。
Next, the
Then, when the recognition rate of the created estimated model is equal to or higher than a predetermined threshold value, the
一方、学習装置60は、作成した推定モデルの認識率が所定の閾値未満である場合には、学習データが不足しているか否かを判定する(ステップS17)。学習装置60は、例えば、テストデータの一部(例えば、テストデータの総数のうちの半数)を用いて算出した認識率が、テストデータの総数を用いてした認識率よりも低い認識率であった場合、学習データが不足していると判定する。一方、学習装置60は、例えば、テストデータの一部を用いて算出した認識率と、テストデータの総数を用いてした認識率と同等の認識率であった場合、学習データが不足していないと判定する。
学習装置60は、学習データが不足していると判定した場合、ステップS10に示す処理に戻り、推定モデルを再度作成し直す。推定モデルを再度作成し直す場合、学習データの不足を補うために画像の枚数を増加させる。
On the other hand, when the recognition rate of the created estimation model is less than a predetermined threshold value, the
When the
また、学習装置60は、学習データが不足していないと判定した場合、深層学習を実行する際のハイパーパラメータを調整する(ステップS18)。ハイパーパラメータを調整した後、学習装置60は、ステップS14に示す処理に戻り、再度の深層学習を行う。
Further, when it is determined that the learning data is not insufficient, the
以上説明したように、本実施形態の車両推定装置40は、作業現場1に入場する車両15又は作業現場1から退場する車両15のうち少なくとも何れかの車両が撮像された画像の画像データを取得する画像データ取得部41と、画像を、車両に関する属性情報を推定する学習済みモデル(例えば、車両種別学習済みモデル記憶部51に記憶された学習済みモデル、又は積載物学習済みモデル記憶部52に記憶された学習済みモデル)に入力することにより、画像における車両15について当該車両15に関する属性情報を推定する車両種別推定部43及び積載物推定部44を備え、学習済みモデルは、車両に属性情報を対応させた学習データを用いて深層学習を実行することにより作成されるモデルである。これにより、本実施形態の車両推定装置40は、画像に撮像された車両15について属性情報を推定することができる。このため、車両番号を登録したり照会したりして車両15を特定する必要がなく、手間を増大させることなく、作業現場1において入退場する車両15を管理することができる。
As described above, the
上述した実施形態における車両推定装置40、学習装置60の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
All or part of the
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.
1…作業現場、10…入退場ゲート、20…撮像装置、30…車両検知システム、40…車両推定装置、50…学習済みモデル記憶装置、60…学習装置、41…画像データ取得部、43…車両種別推定部、44…積載物推定部、63…車両種別学習データ作成部、64…積載物学習データ作成部、65学習データ振分け部、66…車両種別学習モデル作成部、67…積載物学習モデル作成部、68…学習モデル評価部 1 ... Work site, 10 ... Entrance / exit gate, 20 ... Imaging device, 30 ... Vehicle detection system, 40 ... Vehicle estimation device, 50 ... Learned model storage device, 60 ... Learning device, 41 ... Image data acquisition unit, 43 ... Vehicle type estimation unit, 44 ... Load estimation unit, 63 ... Vehicle type learning data creation unit, 64 ... Load learning data creation unit, 65 learning data distribution unit, 66 ... Vehicle type learning model creation unit, 67 ... Load learning unit Model creation department, 68 ... Learning model evaluation department
Claims (6)
前記画像の前記画像データを、車両に関する属性情報を推定する学習済みモデルに入力することにより、前記画像における車両について当該車両に関する属性情報を推定する推定部
を備え、
前記学習済みモデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである
車両推定装置。 An image data acquisition unit that acquires image data of an image captured by at least one of a vehicle entering the work site or a vehicle leaving the work site.
By inputting the image data of the image into a trained model for estimating the attribute information about the vehicle, the estimation unit for estimating the attribute information about the vehicle for the vehicle in the image is provided.
In the trained model, the learning data in which the vehicle type of the vehicle is associated with the image of the vehicle extracted from the image data and the image of the load extracted from the image data are captured by the vehicle. It is created by executing deep learning using the learning data associated with the name of the load.
Vehicle estimation device.
請求項1に記載の車両推定装置。 The vehicle estimation device according to claim 1, wherein the estimation unit estimates at least one of the vehicle type of the vehicle in the image and the load of the vehicle in the image.
請求項1又は請求項2に記載の車両推定装置。 The image is an image of a bird's-eye view of at least one of a vehicle entering the work site or a vehicle leaving the work site, and includes a front portion on the front side in the traveling direction of the vehicle. Part image, vehicle front image including the end in the front direction and all or part of the vehicle load, rear view of all or part of the vehicle load and the vehicle traveling direction 1 Or the vehicle estimation device according to claim 2.
を備える学習装置であり、
前記推定モデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである
学習装置。 The above-mentioned in the vehicle in the image data imaged with the area where the vehicle enters and exits at the work site as the image pickup area by executing the deep learning using the learning data in which the vehicle and the attribute information related to the vehicle are associated with each other. It is a learning device equipped with a model creation unit that creates an estimation model that estimates attribute information.
In the estimation model, the learning data in which the vehicle type of the vehicle is associated with the image captured by the vehicle extracted from the image data and the image of the load extracted from the image data are captured by the vehicle. It is created by executing deep learning using the learning data associated with the name of the load.
Learning device.
前記モデル作成部により作成された推定モデルを評価する評価部
を更に備え、
前記モデル作成部は、前記振分け部により振分けられた前記訓練データを用いて深層学習を実行することにより推定モデルを作成し、
前記評価部は、前記推定モデルに前記テストデータに対応する画像を入力することにより、前記テストデータに対応する画像における車両について当該車両の属性情報を推定した推定結果を取得し、取得した推定結果と前記テストデータに対応する画像の属性情報とに基づいて、前記推定モデルを評価する
請求項4に記載の学習装置。 A distribution unit that distributes each of the training data into training data and test data,
It also has an evaluation unit that evaluates the estimation model created by the model creation unit.
The model creation unit creates an estimation model by executing deep learning using the training data distributed by the distribution unit.
By inputting an image corresponding to the test data into the estimation model, the evaluation unit acquires an estimation result of estimating the attribute information of the vehicle for the vehicle in the image corresponding to the test data, and the acquired estimation result. The learning device according to claim 4, wherein the estimation model is evaluated based on the attribute information of the image corresponding to the test data.
推定部が、前記画像の前記画像データを、車両に関する属性情報を推定する学習済みモデルに入力することにより、前記画像における車両について当該車両に関する属性情報を推定し、
前記学習済みモデルは、車両に前記属性情報を対応させた学習データを用いて深層学習を実行することにより作成されるものであり、
前記学習済みモデルは、前記画像データから抽出された車両が撮像された画像に当該車両の車両種別を対応づけた学習データと、前記画像データから抽出された積載物が撮像された画像に当該車両の積載物の名称を対応づけた学習データと、を用いて深層学習を実行することにより作成されるものである
ことを特徴とする車両推定方法。 The image data acquisition unit acquires image data of an image whose imaging area is the area where the vehicle enters and exits at the work site.
The estimation unit estimates the attribute information about the vehicle for the vehicle in the image by inputting the image data of the image into the trained model for estimating the attribute information about the vehicle.
The trained model is created by executing deep learning using the training data in which the attribute information is associated with the vehicle .
In the trained model, the learning data in which the vehicle type of the vehicle is associated with the image of the vehicle extracted from the image data and the image of the load extracted from the image data are captured by the vehicle. It is created by executing deep learning using the learning data associated with the name of the load.
A vehicle estimation method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018075817A JP7097215B2 (en) | 2018-04-11 | 2018-04-11 | Vehicle estimation device, learning device, and vehicle estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018075817A JP7097215B2 (en) | 2018-04-11 | 2018-04-11 | Vehicle estimation device, learning device, and vehicle estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185410A JP2019185410A (en) | 2019-10-24 |
JP7097215B2 true JP7097215B2 (en) | 2022-07-07 |
Family
ID=68341326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018075817A Active JP7097215B2 (en) | 2018-04-11 | 2018-04-11 | Vehicle estimation device, learning device, and vehicle estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7097215B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7402779B2 (en) * | 2020-10-19 | 2023-12-21 | 新明和工業株式会社 | Program, information processing method, and information processing system |
WO2022208647A1 (en) * | 2021-03-30 | 2022-10-06 | 日本電信電話株式会社 | Learning model generation device, learning model generation method, and learning model generation program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004260527A (en) | 2003-02-26 | 2004-09-16 | Mitsubishi Heavy Ind Ltd | Device and method for detecting object |
JP2010517139A (en) | 2007-01-18 | 2010-05-20 | シーメンス コーポレイト リサーチ インコーポレイテツド | System and method for detecting and tracking a vehicle |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3004501B2 (en) * | 1993-08-02 | 2000-01-31 | 三菱重工業株式会社 | Vehicle type identification device |
-
2018
- 2018-04-11 JP JP2018075817A patent/JP7097215B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004260527A (en) | 2003-02-26 | 2004-09-16 | Mitsubishi Heavy Ind Ltd | Device and method for detecting object |
JP2010517139A (en) | 2007-01-18 | 2010-05-20 | シーメンス コーポレイト リサーチ インコーポレイテツド | System and method for detecting and tracking a vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2019185410A (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101926561B1 (en) | Road crack detection apparatus of patch unit and method thereof, and computer program for executing the same | |
CN106373426B (en) | Parking stall based on computer vision and violation road occupation for parking monitoring method | |
US8666117B2 (en) | Video-based system and method for detecting exclusion zone infractions | |
CN103824452B (en) | A kind of peccancy parking detector based on panoramic vision of lightweight | |
CN109887283B (en) | Road congestion prediction method, system and device based on checkpoint data | |
CN103985182B (en) | A kind of bus passenger flow automatic counting method and automatic counter system | |
CN107967806A (en) | Vehicle fake-license detection method, device, readable storage medium storing program for executing and electronic equipment | |
US20170053192A1 (en) | Systems and methods for detecting parking occupancy status | |
CN108256554A (en) | Vehicle reverse stopping judgment method, server and system based on deep learning | |
DE102009048892A1 (en) | Clear traveling path detecting method for vehicle e.g. car, involves generating three-dimensional map of features in view based upon preferential set of matched pairs, and determining clear traveling path based upon features | |
US20150279036A1 (en) | Side window detection in near-infrared images utilizing machine learning | |
DE102009048699A1 (en) | Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface | |
DE102009050502A1 (en) | Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface | |
CN110889371B (en) | Method and device for detecting throwing of muck truck | |
WO2014202362A1 (en) | Method for providing parking information on free parking spaces | |
JP7097215B2 (en) | Vehicle estimation device, learning device, and vehicle estimation method | |
DE102018116036A1 (en) | Training a deep convolutional neural network for individual routes | |
WO2019201565A1 (en) | Method, device and computer-readable storage medium having instructions for processing sensor data | |
CN115239219B (en) | Smart city muck vehicle management method and system based on Internet of things | |
EP2521070A2 (en) | Method and system for recording a static or dynamic scene, for determining raw events and detecting free areas in an area under observation | |
CN116128360A (en) | Road traffic congestion level evaluation method and device, electronic equipment and storage medium | |
US9946936B2 (en) | Automated video based ingress/egress sensor reset for truck stop occupancy detection | |
KR20200123537A (en) | Method for detecting sinkhole using deep learning and data association and sinkhole detecting system using it | |
CN111435457A (en) | Method for classifying acquisition acquired by sensor | |
CN112818847A (en) | Vehicle detection method, device, computer equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7097215 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |