JP7036079B2 - Performance estimator - Google Patents
Performance estimator Download PDFInfo
- Publication number
- JP7036079B2 JP7036079B2 JP2019065881A JP2019065881A JP7036079B2 JP 7036079 B2 JP7036079 B2 JP 7036079B2 JP 2019065881 A JP2019065881 A JP 2019065881A JP 2019065881 A JP2019065881 A JP 2019065881A JP 7036079 B2 JP7036079 B2 JP 7036079B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- performance
- section
- input
- hood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、対象物の性能を推定する性能推定装置に関するものである。 The present invention relates to a performance estimation device that estimates the performance of an object.
近年、畳み込みニューラルネットワークを用いて、対象物の分類や検査などを実行することが提案されている(例えば特許文献1)。特許文献1に記載の装置では、対象物を撮影した画像を入力データとして、教師データによって学習済みの畳み込みニューラルネットワークから、対象物の性能(具体的には、欠陥)に係る情報が取得される。
In recent years, it has been proposed to perform classification and inspection of objects by using a convolutional neural network (for example, Patent Document 1). In the apparatus described in
畳み込みニューラルネットワークを用いて対象物の性能を推定する場合に、対象物が三次元形状をなすもの(例えば車両の外板)であると、次のような不都合が生じてしまう。畳み込みニューラルネットワークの入力データとして単に対象物の画像を用意しても、その画像は二次元データであることから、同画像をもとに対象物の外形を把握することができるものの、同対象物の奥行き方向における凹凸形状を把握することができない。そのため、対象物の性能の推定にかかる精度が低くなってしまう。 When estimating the performance of an object using a convolutional neural network, if the object has a three-dimensional shape (for example, the outer panel of a vehicle), the following inconveniences will occur. Even if an image of an object is simply prepared as input data for a convolutional neural network, the outer shape of the object can be grasped based on the image because the image is two-dimensional data, but the object is the same. It is not possible to grasp the uneven shape in the depth direction of. Therefore, the accuracy of estimating the performance of the object is low.
本発明は、そうした実情に鑑みてなされたものであり、その目的は、三次元形状をなす対象物の性能を精度良く推定することのできる性能推定装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a performance estimation device capable of accurately estimating the performance of an object having a three-dimensional shape.
上記課題を解決するための性能推定装置は、三次元形状をなす対象物の性能を推定する性能推定装置において、同一の前記対象物についての見る角度の異なる複数の画像を記憶する入力部と、同一の前記対象物についての見る角度の異なる複数の画像と同対象物の性能に係る情報とが組み合わされてなる教師データによって学習された畳み込みニューラルネットワークを記憶する記憶部と、前記入力部に記憶された前記複数の画像を入力データとして、前記記憶部に記憶された学習済みの畳み込みニューラルネットワークから、前記対象物の性能に係る情報を取得する出力部と、を有する。 The performance estimation device for solving the above problems is a performance estimation device that estimates the performance of an object having a three-dimensional shape, and includes an input unit that stores a plurality of images of the same object at different viewing angles. A storage unit that stores a convolutional neural network learned by teacher data, which is a combination of a plurality of images of the same object having different viewing angles and information related to the performance of the same object, and a storage unit stored in the input unit. It has an output unit that acquires information related to the performance of the object from a learned convolutional neural network stored in the storage unit using the plurality of images as input data.
異方向から見た複数の画像を有する場合には、一方向から見た一枚の画像のみを有する場合と比較して、三次元形状の対象物の形状を精度良く予測することが可能になる。上記構成によれば、そうした異方向から見た複数の画像を畳み込みニューラルネットワークの入力データとして用いることができる。そのため、三次元形状をなす対象物の性能を精度良く推定することができる。 When having a plurality of images viewed from different directions, it is possible to accurately predict the shape of a three-dimensional object as compared with the case of having only one image viewed from one direction. .. According to the above configuration, a plurality of images viewed from such different directions can be used as input data of the convolutional neural network. Therefore, it is possible to accurately estimate the performance of an object having a three-dimensional shape.
上記性能推定装置において、前記教師データは、前記複数の画像と前記性能に係る情報とが対をなす態様で関連付けられたデータセットを複数有している。
上記構成によれば、各データセットについて「複数の画像」を入力データとするとともに「対象物の性能に係る情報」を出力データとして畳み込みニューラルネットワークを学習させることにより、多入力の畳み込みニューラルネットワークを構築することができる。
In the performance estimation device, the teacher data has a plurality of data sets in which the plurality of images and the information related to the performance are associated with each other in a paired manner.
According to the above configuration, a multi-input convolutional neural network is created by training a convolutional neural network using "multiple images" as input data and "information related to the performance of an object" as output data for each data set. Can be built.
上記性能推定装置において、前記複数の画像は、前記対象物の異方向における断面を示す画像である。
異方向の断面を示す複数の画像を有する場合には、一方向の断面を示す一枚の画像のみを有する場合と比較して、三次元形状の対象物の形状を精度良く把握することが可能になる。上記構成によれば、そうした異方向の断面を示す複数の画像が畳み込みニューラルネットワークの入力データとして用いられるため、それら画像をもとに三次元形状の対象物の性能を精度良く推定することができる。
In the performance estimation device, the plurality of images are images showing a cross section of the object in different directions.
When having a plurality of images showing cross sections in different directions, it is possible to accurately grasp the shape of a three-dimensional object as compared with the case where there is only one image showing a cross section in one direction. become. According to the above configuration, since a plurality of images showing cross sections in different directions are used as input data of the convolutional neural network, the performance of the object having a three-dimensional shape can be estimated accurately based on the images. ..
本発明によれば、三次元形状をなす対象物の性能を精度良く推定することができる。 According to the present invention, the performance of an object having a three-dimensional shape can be estimated with high accuracy.
以下、性能推定装置の一実施形態について説明する。
本実施形態の性能推定装置は、車両のフードの断面形状を示す画像を入力データとして、学習済みの畳み込みニューラルネットワークから、車両のフードによる歩行者保護性能を推定する装置である。具体的には、性能推定装置により、車両の歩行者保護性能(詳しくは、頭部保護性能)に係る情報としての以下の(値A)~(値D)が求められる。なお本実施形態では、車両のフードが三次元形状をなす対象物に相当し、歩行者保護性能が同フードの性能に相当する。
Hereinafter, an embodiment of the performance estimation device will be described.
The performance estimation device of the present embodiment is a device that estimates the pedestrian protection performance of the vehicle hood from the trained convolutional neural network by using an image showing the cross-sectional shape of the vehicle hood as input data. Specifically, the performance estimation device obtains the following (value A) to (value D) as information related to the pedestrian protection performance (specifically, the head protection performance) of the vehicle. In the present embodiment, the hood of the vehicle corresponds to an object having a three-dimensional shape, and the pedestrian protection performance corresponds to the performance of the hood.
[値A]頭部傷害基準値(以下、HIC)。
[値B]歩行者保護試験用の頭部インパクタの車両フードへの侵入量に相当する値(以下、インパクタ侵入量)。
[Value A] Head injury reference value (hereinafter referred to as HIC).
[Value B] A value corresponding to the amount of penetration of the head impactor for the pedestrian protection test into the vehicle hood (hereinafter referred to as the amount of impactor penetration).
[値C]車両フードへの衝突初期(1ミリ秒)における頭部インパクタの平均加速度に相当する値(以下、1ミリ秒G)。
[値D]車両フードへの衝突初期(2ミリ秒)における頭部インパクタの平均加速度に相当する値(以下、2ミリ秒G)。
[Value C] A value corresponding to the average acceleration of the head impactor at the initial stage of collision with the vehicle hood (1 ms) (hereinafter, 1 ms G).
[Value D] A value corresponding to the average acceleration of the head impactor at the initial stage of collision with the vehicle hood (2 ms) (hereinafter, 2 ms G).
以下、本実施形態の性能推定装置のハードウェア構成について説明する。
図1に示すように、性能推定装置10は、制御部11、記憶部12、入力装置13および出力装置14が電気的に接続されたコンピュータである。
Hereinafter, the hardware configuration of the performance estimation device of this embodiment will be described.
As shown in FIG. 1, the
制御部11は、ハードウェアプロセッサであるCPU15や、RAM16、ROM17等を有している。この制御部11は、各種のプログラムやデータに基づいて各種の演算処理を実行するように構成されている。
The
記憶部12は、ハードディスクドライブやソリッドステートドライブなどによって構成されている。この記憶部12は、制御部11によって実行される実行プログラム18や、学習器の機械学習に利用される教師データ19、機械学習の実行を通じて作成された学習データ20、歩行者保護性能の推定対象のフードの画像を記憶する入力部21、歩行者保護性能を推定した結果を示す推定結果データ22等を記憶する。
The
実行プログラム18は、性能推定装置10に学習処理を実行させるとともに同学習処理の実行結果を示すデータである学習データ20を生成させるためのプログラムであり、且つ、性能推定装置10に推定処理を実行させるとともに同推定処理の実行結果を示す推定結果データ22を生成させるためのプログラムである。教師データ19は、歩行者保護性能を推定する能力を獲得するように、学習処理を通じて学習器の機械学習を行うためのデータである。なお、学習処理、推定処理、および教師データ19の詳細については後に詳述する。
The
入力装置13は、マウスやキーボードなどの入力を行うための装置である。また、出力装置14は、ディスプレイやスピーカなどの出力を行うための装置である。これら入力装置13および出力装置14によって性能推定装置10は操作される。
The input device 13 is a device for inputting a mouse, a keyboard, or the like. Further, the
図2に示すように、性能推定装置10は、歩行者保護性能を推定するための機械学習を行った学習済みの学習器として、畳み込みニューラルネットワーク(以下、CNN30)を利用する。
As shown in FIG. 2, the
記憶部12の入力部21は、画像データを格納する第1入力フォルダ21Aおよび第2入力フォルダ21Bを有している。第1入力フォルダ21Aには車両のフード外面の正面視断面を示す画像が保存される。第2入力フォルダ21Bには車両のフード外面の側面視断面を示す画像が保存される。本実施形態では、図3に断面線の一部を破線で示すように、フード25の正面視断面を示す画像を形成する箇所として、車両の前後方向(図3のL方向)において並ぶ複数箇所(例えば4000箇所)が定められている。また、フード25の側面視断面を示す画像を形成する箇所としては、車幅方向(図3のW方向)において並ぶ複数箇所(4000箇所)が定められている。そうした第1入力フォルダ21A(図2)および第2入力フォルダ21Bに保存される画像をもとに、制御部11は実行プログラム18を通じて歩行者保護性能の推定のための処理(学習処理や推定処理)を実行する。なお本実施形態では、正面視断面を示す画像および側面視断面を示す画像が、同一のフードについての見る角度の異なる複数の画像に相当し、同一のフードの異方向における断面を示す画像に相当する。
The
性能推定装置10は、画像データを数値化する数値化部31A,31Bを2つ有している。第1数値化部31Aは第1入力フォルダ21Aに保存された画像データを数値化し、第2数値化部31Bは第2入力フォルダ21Bに保存される画像データを数値化する。これら数値化部31A,31Bでは、画像データが二次元配列の値に変換される。
The
CNN30は、第1入力層32Aおよび第2入力層32Bを有している。これら第1入力層32Aおよび第2入力層32Bは画像データを数値化した値が入力される層である。第1入力層32Aには第1数値化部31Aによって数値化された二次元配列の値が入力され、第2入力層32Bには第2数値化部31Bによって数値化された二次元配列の値が入力される。
The
CNN30は第1中間層33Aおよび第2中間層33Bを有している。第1中間層33Aおよび第2中間層33Bはそれぞれ、入力されるデータに対して畳み込み処理を行う畳み込み層34と、畳み込み層34から出力されたデータに対してプーリング処理を行うプーリング層35とを有している。第1中間層33Aおよび第2中間層33Bはそれぞれ、畳み込み層34およびプーリング層35が交互に複数回(例えば3回)並ぶ構造になっている。
The
CNN30は結合層36を有している。結合層36は、第1中間層33Aから出力され
る値と第2中間層33Bから出力される値とを結合する。
CNN30は4つの全結合層37A,37B,37C,37Dを有している。これら全結合層37A~37Dはいずれも、第1中間層33Aおよび第2中間層33Bを通じて特徴部分が取り出されたデータを一つのノードに結合するとともに、活性化関数によって変換した値(特徴変数)を出力する。本実施形態では、第1全結合層37Aは「HIC」に対応する値を出力する層であり、第2全結合層37Bは「インパクタ侵入量」に対応する値を出力する層であり、第3全結合層37Cは「1ミリ秒G」に対応する値を出力する層であり、第4全結合層37Dは「2ミリ秒G」に対応する値を出力する層である。
CNN30 has a
CNN30 has four fully
CNN30は4つの出力層38A,38B,38C,38Dを有している。これら出力層38A~38DはCNN30の最も出力側に配置される層である。本実施形態では、第1出力層38Aは第1全結合層37Aから出力された値をもとに「HIC」を算出して出力する層であり、第2出力層38Bは第2全結合層37Bから出力された値をもとに「インパクタ侵入量」を算出して出力する層である。また、第3出力層38Cは第3全結合層37Cから出力された値をもとに「1ミリ秒G」を算出して出力する層であり、第4出力層38Dは第4全結合層37Dから出力された値をもとに「2ミリ秒G」を算出して出力する層である。なお本実施形態では、これら出力層38A~38Dが出力部に相当する。
The
以下、前記学習処理の実行手順について説明する。
学習処理の実行に際して制御部11は、記憶部12に記憶されている実行プログラム18をRAM16に展開する。そして、制御部11は、実行プログラム18(詳しくは、学習処理)をCPU15により実行して、CNN30の機械学習を実行する。
Hereinafter, the execution procedure of the learning process will be described.
When executing the learning process, the
また学習処理を実行する際には、記憶部12の第1入力フォルダ21Aおよび第2入力フォルダ21Bに画像(詳しくは、教師データ19)が記憶される。この画像をもとにCNN30の機械学習が実行される。
Further, when the learning process is executed, the image (specifically, the teacher data 19) is stored in the
教師データ19は、開発済みの車両の歩行者保護性能を実際に測定した結果をもとに作成される。教師データ19としては、フード外面の正面視断面を示す画像と、同フード外面の側面視断面を示す画像と、歩行者保護性能の各値(HIC、インパクタ侵入量、1ミリ秒G、2ミリ秒G)とを組み合わせたデータが多数用意されている。
The
教師データ19は、各入力フォルダ21A,21Bに保存される画像のファイル名によって、正面視断面を示す画像と側面視断面を示す画像と歩行者保護性能の各値とが関連付けられたデータセットになっている。具体的には、第1入力フォルダ21Aおよび第2入力フォルダ21Bに記憶される多数の画像のうち、組み合わせ対象となる一対の画像には同一のファイル名が付与されている。また、このファイル名には、それら画像を組み合わせた場合における歩行者保護性能の各値についての情報が含まれている。学習処理の実行に際して、入力フォルダ21A,21Bから同一のファイル名の画像を各別に抽出することにより、正面視断面を示す画像と側面視断面を示す画像と歩行者保護性能の各値とがセットになったデータを得ることができる。
The
そうしたファイル名の一例を図4に示す。図4に示す例では、ファイル名の「L1000」が正面視断面のL方向位置を示しており、同ファイル名の「W200」が側面視断面のW方向位置を示している。具体的には、ファイル名の「L1000W200」は、正面視断面のうちの車両前側から1000番目の断面と、側面視断面のうちの車両左側から200番目の断面とを組み合わせたデータであることを示している。また、上記ファイル名の「HIC500」は正面視断面と側面視断面との交点(打点座標)におけるHICが「500」であることを示しており、同ファイル名の「ST90」は上記打点座標におけるインパクタ侵入量が「90」であることを示している。さらに、上記ファイル名の「1G
20」は上記打点座標における1ミリ秒Gが「20」であることを示しており、同ファイル名の「2G10」は上記打点座標における2ミリ秒Gが「10」であることを示している。本実施形態では、教師データ19として、上記打点座標毎に、多数組(例えば数千組)のデータが用意されている。
An example of such a file name is shown in FIG. In the example shown in FIG. 4, the file name "L1000" indicates the position in the L direction of the front view cross section, and the file name "W200" indicates the position in the W direction of the side view cross section. Specifically, the file name "L1000W200" is data obtained by combining the 1000th cross section from the front side of the vehicle in the front view cross section and the 200th cross section from the left side of the vehicle in the side view cross section. Shows. Further, "HIC500" in the above file name indicates that the HIC at the intersection (dotted point coordinates) between the front view cross section and the side view cross section is "500", and "ST90" in the same file name is in the hitting point coordinates. It shows that the impactor intrusion amount is "90". Furthermore, the above file name "1G"
"20" indicates that the 1 millisecond G in the dot coordinates is "20", and "2G10" in the same file name indicates that the 2 milliseconds G in the dot coordinates is "10". .. In the present embodiment, as the
図5に示すように、本実施形態の性能推定装置10では、学習処理の実行に合わせて、教師データ19におけるフードの正面視断面を示す画像が第1入力フォルダ21Aに記憶されるとともに、同フードの側面視断面を示す画像が第2入力フォルダ21Bに記憶される(ステップS11)。
As shown in FIG. 5, in the
そして、学習処理では、各入力フォルダ21A,21Bに記憶された画像をもとに、学習器としてのCNN30の機械学習が実行される(ステップS12)。詳しくは、各入力フォルダ21A,21Bに記憶された画像のファイル名をもとに、正面視断面を示す画像と側面視断面を示す画像とが対をなす画像データが一組抽出される。そして、それら画像をCNN30の入力データとした場合に、同画像のファイル名に含まれる歩行者保護性能の各値がCNN30の出力値として得られるように、CNN30が構築される。本実施形態の学習処理では、こうしたCNN30の機械学習が、正面視断面を示す画像と側面視断面を示す画像とが対をなす画像データの組毎に実行される態様で、繰り返し実行される。そして、このとき構築したCNN30の構成(例えば、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)や、各ニューロン間の結合の重み、並びに各ニューロンの閾値を示す情報が学習データ20として記憶部12に格納される。本実施形態では、こうした一連の処理が自動的に実行されるように、実行プログラム18が構築されて記憶部12に記憶されている。
Then, in the learning process, machine learning of the
以下、前記推定処理の実行手順について説明する。
推定処理の実行に際して制御部11は、記憶部12に記憶されている実行プログラム18をRAM16に展開する。なお、学習済みのCNN30の構成や、各ニューロン間の結合の重み、並びに各ニューロンの閾値を示す情報は、記憶部12に記憶されている学習データ20に含まれている。本実施形態では、実行プログラム18を展開する際に、そうした学習データ20が参照されて、歩行者保護性能を推定する推定処理に用いる学習済みのCNN30の設定が行われる。
Hereinafter, the execution procedure of the estimation process will be described.
When executing the estimation process, the
図6に示すように、本実施形態の性能推定装置10では、推定処理の実行に合わせて、入力装置13の操作を通じて推定対象車両のフード25の正面視断面を示す画像が第1入力フォルダ21Aに記憶されるとともに、同フード25の側面視断面を示す画像が第2入力フォルダ21Bに記憶される(ステップS21)。
As shown in FIG. 6, in the
なお本実施形態では、推定対象車両の開発工程において意匠形状(デザイン)が決定されると、その意匠形状をもとにフード25(詳しくは、その外面)の側面視断面を示す画像と正面視断面を示す画像とが形成される。そして、推定処理の実行に合わせて、それら画像が第1入力フォルダ21Aおよび第2入力フォルダ21Bに保存される。
In the present embodiment, when the design shape is determined in the development process of the estimation target vehicle, an image showing a side view cross section of the hood 25 (specifically, its outer surface) and a front view based on the design shape are obtained. An image showing a cross section is formed. Then, these images are saved in the
こうした推定用の画像としては、フード25の正面視断面を示す画像と同フード25の側面視断面を示す画像とを組み合わせた一対の画像データが前記打点座標毎に1組ずつ用意される。推定用の画像データは、各入力フォルダ21A,21Bに保存される画像に付与されたファイル名によって、正面視断面を示す画像と側面視断面を示す画像とが関連付けられたデータセットになっている。具体的には、第1入力フォルダ21Aおよび第2入力フォルダ21Bに記憶される多数の画像データのうち、組み合わせ対象となる一対の画像データには同一のファイル名(例えば、L1000W200.jpeg)が付与されている。そのため、推定処理の実行に際して、各入力フォルダ21A,21Bから同一のフ
ァイル名の画像を抽出することにより、正面視断面を示す画像と側面視断面を示す画像とがセットになったデータを得ることができる。なお、例示したファイル名(L1000W200.jpeg)における「L1000」は正面視断面のL方向位置を示しており、同ファイル名の「W200」は側面視断面のW方向位置を示している。そのため、このファイル名は、正面視断面のうちの車両前側から1000番目の断面と、側面視断面のうちの車両右側から200番目の断面とを組み合わせたデータであることを示している。
As such an image for estimation, a pair of image data in which an image showing a front view cross section of the
本実施形態の推定処理では、一対の画像データをもとに、学習済みのCNN30を利用して、正面視断面と側面視断面との交点(打点座標)における歩行者保護性能についての各出力値(HIC、インパクタ侵入量、1ミリ秒G、2ミリ秒G)が求められる(ステップS22)。本実施形態では、こうした歩行者保護性能についての各出力値の算出が、正面視断面を示す画像と側面視断面を示す画像とが対をなすデータセット毎に実行される態様で、繰り返し実行される。本実施形態では、こうした一連の処理が自動的に実行されるように実行プログラム18が構築されて記憶部12に記憶されている。
In the estimation process of the present embodiment, each output value of the pedestrian protection performance at the intersection (dotting coordinates) between the front view cross section and the side view cross section is used based on the pair of image data and the trained CNN30 is used. (HIC, impactor penetration amount, 1 ms G, 2 ms G) is required (step S22). In the present embodiment, the calculation of each output value for the pedestrian protection performance is repeatedly executed in such a manner that the calculation of each output value is executed for each data set in which the image showing the front view cross section and the image showing the side view cross section are paired. To. In the present embodiment, the
そして、全てのデータセットについての歩行者保護性能の出力値の算出が完了すると、それら出力値が出力される(ステップS23)。具体的には、各衝撃打点と歩行者保護性能についての各出力値との関係を示すデータ(例えば、CSVデータ)が作成されるとともに、同データが推定結果データ22として記憶部12に記憶される。また、衝撃打点と歩行者保護性能についての各出力値との関係を示す表が作成されて、出力装置14(詳しくはディスプレイ)に表示される。
Then, when the calculation of the output value of the pedestrian protection performance for all the data sets is completed, those output values are output (step S23). Specifically, data (for example, CSV data) showing the relationship between each impact hit point and each output value for pedestrian protection performance is created, and the data is stored in the
本実施形態によれば、以下に記載する作用効果が得られる。
(1)CNN30の入力データや教師データ19を構成する画像データとして、見る角度の異なる二種類の画像、詳しくはフードの正面視断面を示す画像と側面視断面を示す画像とが用意される。ここで、三次元形状のフードの形状を予測する際には、その予測に用いる画像として一方向の断面を示す一枚の画像のみが用意される場合と比較して、異方向の断面を示す二枚の画像が用意される場合のほうが、同フードの形状を精度良く予測することが可能である。本実施形態によれば、そうした異方向の断面を示す二枚の画像をCNN30の入力データや教師データ19として用いることができる。そのため、三次元形状のフード25の形状を正確に把握して考慮しつつ、同フード25による歩行者保護性能を精度良く推定することができる。
According to this embodiment, the effects described below can be obtained.
(1) As the input data of the
(2)教師データ19は、フードの断面を示す二枚の画像と同フードによる歩行者保護性能の各値とが対をなす態様で関連付けられたデータセットを複数有している。これにより、各データセットについて「フードの断面を示す二枚の画像」を入力データとするとともに「フードによる歩行者保護性能の各値」を出力データとしてCNN30を学習させることにより、多入力のCNN30を構築することができる。
(2) The
なお、上記実施形態は、以下のように変更して実施してもよい。
・CNN30の構成は任意に変更することができる。例えば各中間層33A,33Bにおいて畳み込み層34およびプーリング層35が交互に並ぶ回数を変更したり、ドロップアウト層を追加したりしてもよい。
The above embodiment may be modified as follows.
-The configuration of CNN30 can be changed arbitrarily. For example, the number of times the
・性能推定装置10による推定対象項目を、HIC、インパクタ侵入量、1ミリ秒G、および2ミリ秒Gのいずれか1つにしたり、いずれか2つにしたり、いずれか3つにしたりしてもよい。また、HIC、インパクタ侵入量、1ミリ秒G、および2ミリ秒G以外の値を、性能推定装置10の推定対象項目にすることもできる。
-The item to be estimated by the
・歩行者保護性能の推定結果を出力する態様は、推定結果を示すデータを記憶部12に
記憶したり同データを出力装置14に表示させたりすることに限らず、任意に変更することができる。
-The mode for outputting the estimation result of the pedestrian protection performance is not limited to storing the data indicating the estimation result in the
・CNN30の入力データや教師データ19を構成する画像データに、フードの厚さを示す情報やフードの材質を示す情報を付与するようにしてもよい。例えばフードの厚さを示す情報は同フードの断面を示す線の太さを変えることによって付与することができ、フードの材質を示す情報は同フードの断面を示す線の表示色を変えることによって付与することができる。上記構成によれば、フードの厚さや材質を把握したうえで歩行者保護性能の各値の算出を行うことができるため、それら値をより精度良く算出することができる。
-Information indicating the thickness of the hood and information indicating the material of the hood may be added to the input data of the
・教師データ19を、フードの正面視断面を示す画像と、同フードの側面視断面を示す画像と、歩行者保護性能の各値を示す数値データファイルとを組み合わせたデータにしてもよい。要は、フードの正面視断面を示す画像と同フードの側面視断面を示す画像と歩行者保護性能の各値とが関連付けられたデータセットであれば、教師データ19として用いることができる。
-The
・CNN30の入力データおよび教師データ19を構成する画像データとしては、フードの正面視断面を示す画像や側面視断面を示す画像に限らず、任意の断面線に沿ったフードの断面を示す画像を用いることができる。また、CNN30の入力データおよび教師データ19を構成する画像データとして、フードの断面を示す画像に限らず、フードの外面形状を示す画像を用いることなども可能である。
The image data constituting the input data of the
・CNN30の入力データおよび教師データ19を構成する画像データとして、三枚以上の画像を用いるようにしてもよい。この場合には、それら画像データに各別に対応する態様で、画像データを保存する入力フォルダや、同画像データを数値化する数値化部、CNNの入力層および中間層を設定するようにすればよい。例えば、L方向位置の異なる複数枚の正面視断面を示す画像とW方向位置の異なる複数枚の側面視断面を示す画像とを、CNN30の入力データおよび教師データ19を構成する画像データとして用いることができる。こうした構成によれば、フードにおける打点座標周辺の形状を考慮したうえで、フードによる歩行者保護性能を推定することができる。その他、CNN30の入力データおよび教師データ19を構成する画像データとして、フードの正面視断面を示す画像と、側面視断面を示す画像と、それら正面視断面および側面視断面以外の断面を示す画像とを用いることなども可能である。
-Three or more images may be used as the image data constituting the input data of the
・歩行者保護性能の推定に用いるCNNを車種毎に設定するようにしてもよい。同一の車種であれば、車両がモデルチェンジしたところで、フードの基本構造は大きくは変わらない。そのため、上記実施形態の性能推定装置のように、フードの外面の断面形状を示す画像を入力データとして学習済みのCNN30から歩行者保護性能の各値を求めることにより、それら値を精度良く求めることができる。上記構成によれば、車種毎に設定されるCNNを利用して、フードによる歩行者保護性能を精度よく推定することができる。
-The CNN used for estimating the pedestrian protection performance may be set for each vehicle type. If the vehicle is the same model, the basic structure of the hood will not change significantly when the vehicle is remodeled. Therefore, as in the performance estimation device of the above embodiment, each value of the pedestrian protection performance is obtained from the trained
・上記実施形態にかかる性能推定装置は、車両のフードによる歩行者の頭部保護性能を推定する装置に限らず、車両のバンパーによる歩行者の脚部保護性能を推定する装置にも適用することができる。この場合には、バンパーの意匠形状を示す画像を入力データとして、学習済みのCNNから、脚部保護性能を推定するようにすればよい。上記実施形態にかかる性能推定装置は、車両を構成する構成部材についての見る角度の異なる複数の画像をもとに同構成部材の性能を推定する装置であれば、適用可能である。また、そうした車両を構成する構成部材の性能を推定する装置に限らず、三次元形状をなす対象物についての見る角度の異なる複数の画像をもとに同対象物の性能を推定する装置であれば、上記実施形態にかかる性能推定装置は適用することができる。 -The performance estimation device according to the above embodiment is not limited to the device that estimates the pedestrian head protection performance by the vehicle hood, but also applies to the device that estimates the pedestrian leg protection performance by the vehicle bumper. Can be done. In this case, the leg protection performance may be estimated from the trained CNN using an image showing the design shape of the bumper as input data. The performance estimation device according to the above embodiment can be applied as long as it is a device that estimates the performance of the constituent members having different viewing angles based on a plurality of images of the constituent members constituting the vehicle. Further, the device is not limited to a device that estimates the performance of the constituent members constituting such a vehicle, but may be a device that estimates the performance of the object having a three-dimensional shape based on a plurality of images having different viewing angles. For example, the performance estimation device according to the above embodiment can be applied.
10…性能推定装置、11…制御部、12…記憶部、13…入力装置、14…出力装置、15…CPU、16…RAM、17…ROM、18…実行プログラム、19…教師データ、20…学習データ、21…入力部、21A…第1入力フォルダ、21B…第2入力フォルダ、22…推定結果データ、25…フード、30…畳み込みニューラルネットワーク(CNN)、31A…第1数値化部、31B…第2数値化部、32A…第1入力層、32B…第2入力層、33A…第1中間層、33B…第2中間層、34…畳み込み層、35…プーリング層、36…結合層、37A…第1全結合層、37B…第2全結合層、37C…第3全結合層、37D…第4全結合層、38A…第1出力層、38B…第2出力層、38C…第3出力層、38D…第4出力層。 10 ... Performance estimation device, 11 ... Control unit, 12 ... Storage unit, 13 ... Input device, 14 ... Output device, 15 ... CPU, 16 ... RAM, 17 ... ROM, 18 ... Execution program, 19 ... Teacher data, 20 ... Learning data, 21 ... input unit, 21A ... first input folder, 21B ... second input folder, 22 ... estimation result data, 25 ... hood, 30 ... convolutional neural network (CNN), 31A ... first digitization unit, 31B ... 2nd digitization unit, 32A ... 1st input layer, 32B ... 2nd input layer, 33A ... 1st intermediate layer, 33B ... 2nd intermediate layer, 34 ... folding layer, 35 ... pooling layer, 36 ... bonding layer, 37A ... 1st total bond layer, 37B ... 2nd total bond layer, 37C ... 3rd total bond layer, 37D ... 4th total bond layer, 38A ... 1st output layer, 38B ... 2nd output layer, 38C ... 3rd Output layer, 38D ... 4th output layer.
Claims (3)
同一の前記対象物についての見る角度の異なる複数の画像を記憶する入力部と、
同一の前記対象物についての見る角度の異なる複数の画像と同対象物の性能に係る情報とが組み合わされてなる教師データによって学習された畳み込みニューラルネットワークを記憶する記憶部と、
前記入力部に記憶された前記複数の画像を入力データとして、前記記憶部に記憶された学習済みの畳み込みニューラルネットワークから、前記対象物の性能に係る情報を取得する出力部と、
を有することを特徴とする性能推定装置。 In a performance estimation device that estimates the performance of an object that forms a three-dimensional shape,
An input unit that stores a plurality of images of the same object at different viewing angles,
A storage unit that stores a convolutional neural network learned by teacher data, which is a combination of a plurality of images of the same object having different viewing angles and information related to the performance of the same object.
An output unit that acquires information related to the performance of the object from the learned convolutional neural network stored in the storage unit using the plurality of images stored in the input unit as input data.
A performance estimation device characterized by having.
請求項1に記載の性能推定装置。 The performance estimation device according to claim 1, wherein the teacher data has a plurality of data sets in which the plurality of images and the information related to the performance are associated with each other in a paired manner.
請求項1または2に記載の性能推定装置。 The performance estimation device according to claim 1 or 2, wherein the plurality of images are images showing a cross section of the object in a different direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019065881A JP7036079B2 (en) | 2019-03-29 | 2019-03-29 | Performance estimator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019065881A JP7036079B2 (en) | 2019-03-29 | 2019-03-29 | Performance estimator |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020166512A JP2020166512A (en) | 2020-10-08 |
JP7036079B2 true JP7036079B2 (en) | 2022-03-15 |
Family
ID=72716201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019065881A Active JP7036079B2 (en) | 2019-03-29 | 2019-03-29 | Performance estimator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7036079B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023163175A (en) * | 2022-04-27 | 2023-11-09 | 旭化成株式会社 | Examination system, method for examination, method for learning, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014119881A (en) | 2012-12-14 | 2014-06-30 | Konica Minolta Inc | Information processor, label selection method and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6588413B2 (en) * | 2016-10-04 | 2019-10-09 | 日本電信電話株式会社 | Monitoring device and monitoring method |
JP6888484B2 (en) * | 2017-08-29 | 2021-06-16 | 富士通株式会社 | A search program, a search method, and an information processing device on which the search program operates. |
-
2019
- 2019-03-29 JP JP2019065881A patent/JP7036079B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014119881A (en) | 2012-12-14 | 2014-06-30 | Konica Minolta Inc | Information processor, label selection method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020166512A (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5911165B2 (en) | Image recognition device | |
JP6586532B2 (en) | Deep machine learning method and apparatus for robot gripping | |
JP6826296B2 (en) | Joint position estimation device, joint position estimation method and joint position estimation program | |
JP2011131376A5 (en) | ||
JP2013045433A5 (en) | ||
JP2020532797A5 (en) | ||
JP7036079B2 (en) | Performance estimator | |
JP4068487B2 (en) | Shell model creation device for analysis | |
CN112363402B (en) | Gait training method and device of foot type robot based on model-related reinforcement learning, electronic equipment and medium | |
CN109492609A (en) | It is a kind of detect lane line method and vehicle and calculate equipment | |
EP4002292A2 (en) | Method and apparatus for online fitting | |
US20190370991A1 (en) | Electronic device and method of calculating angle of impact of spatter stain | |
Qi et al. | Virtual interactive suturing for the Fundamentals of Laparoscopic Surgery (FLS) | |
JP6683666B2 (en) | Identification code reader and machine learning device | |
JP6821048B2 (en) | Image processing device, trained model generation method, and evaluation device | |
JP7147660B2 (en) | Pedestrian protection performance evaluation device | |
JP7209657B2 (en) | Information processing device and method | |
CN106575315B (en) | Tectosome designing support device, method, program and recording medium | |
JP2022155037A (en) | Information processing device, information processing method, and program | |
JP2018180894A (en) | Information processing device, information processing method, and program | |
JPWO2022024272A5 (en) | ||
JP5176861B2 (en) | Analysis apparatus, analysis method, and analysis program | |
JP7347539B2 (en) | Foreground extraction device, foreground extraction method, and program | |
KR102189238B1 (en) | Method and apparatus for processing 3d printing models | |
JP6839613B2 (en) | Driving ability evaluation system and driving ability evaluation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7036079 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |