JP7036079B2 - Performance estimator - Google Patents

Performance estimator Download PDF

Info

Publication number
JP7036079B2
JP7036079B2 JP2019065881A JP2019065881A JP7036079B2 JP 7036079 B2 JP7036079 B2 JP 7036079B2 JP 2019065881 A JP2019065881 A JP 2019065881A JP 2019065881 A JP2019065881 A JP 2019065881A JP 7036079 B2 JP7036079 B2 JP 7036079B2
Authority
JP
Japan
Prior art keywords
data
performance
section
input
hood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019065881A
Other languages
Japanese (ja)
Other versions
JP2020166512A (en
Inventor
彰矩 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Auto Body Co Ltd
Original Assignee
Toyota Auto Body Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Auto Body Co Ltd filed Critical Toyota Auto Body Co Ltd
Priority to JP2019065881A priority Critical patent/JP7036079B2/en
Publication of JP2020166512A publication Critical patent/JP2020166512A/en
Application granted granted Critical
Publication of JP7036079B2 publication Critical patent/JP7036079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、対象物の性能を推定する性能推定装置に関するものである。 The present invention relates to a performance estimation device that estimates the performance of an object.

近年、畳み込みニューラルネットワークを用いて、対象物の分類や検査などを実行することが提案されている(例えば特許文献1)。特許文献1に記載の装置では、対象物を撮影した画像を入力データとして、教師データによって学習済みの畳み込みニューラルネットワークから、対象物の性能(具体的には、欠陥)に係る情報が取得される。 In recent years, it has been proposed to perform classification and inspection of objects by using a convolutional neural network (for example, Patent Document 1). In the apparatus described in Patent Document 1, information on the performance (specifically, defects) of the object is acquired from the convolutional neural network trained by the teacher data using the image of the object as input data. ..

特開2018-5639号公報Japanese Unexamined Patent Publication No. 2018-5339

畳み込みニューラルネットワークを用いて対象物の性能を推定する場合に、対象物が三次元形状をなすもの(例えば車両の外板)であると、次のような不都合が生じてしまう。畳み込みニューラルネットワークの入力データとして単に対象物の画像を用意しても、その画像は二次元データであることから、同画像をもとに対象物の外形を把握することができるものの、同対象物の奥行き方向における凹凸形状を把握することができない。そのため、対象物の性能の推定にかかる精度が低くなってしまう。 When estimating the performance of an object using a convolutional neural network, if the object has a three-dimensional shape (for example, the outer panel of a vehicle), the following inconveniences will occur. Even if an image of an object is simply prepared as input data for a convolutional neural network, the outer shape of the object can be grasped based on the image because the image is two-dimensional data, but the object is the same. It is not possible to grasp the uneven shape in the depth direction of. Therefore, the accuracy of estimating the performance of the object is low.

本発明は、そうした実情に鑑みてなされたものであり、その目的は、三次元形状をなす対象物の性能を精度良く推定することのできる性能推定装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a performance estimation device capable of accurately estimating the performance of an object having a three-dimensional shape.

上記課題を解決するための性能推定装置は、三次元形状をなす対象物の性能を推定する性能推定装置において、同一の前記対象物についての見る角度の異なる複数の画像を記憶する入力部と、同一の前記対象物についての見る角度の異なる複数の画像と同対象物の性能に係る情報とが組み合わされてなる教師データによって学習された畳み込みニューラルネットワークを記憶する記憶部と、前記入力部に記憶された前記複数の画像を入力データとして、前記記憶部に記憶された学習済みの畳み込みニューラルネットワークから、前記対象物の性能に係る情報を取得する出力部と、を有する。 The performance estimation device for solving the above problems is a performance estimation device that estimates the performance of an object having a three-dimensional shape, and includes an input unit that stores a plurality of images of the same object at different viewing angles. A storage unit that stores a convolutional neural network learned by teacher data, which is a combination of a plurality of images of the same object having different viewing angles and information related to the performance of the same object, and a storage unit stored in the input unit. It has an output unit that acquires information related to the performance of the object from a learned convolutional neural network stored in the storage unit using the plurality of images as input data.

異方向から見た複数の画像を有する場合には、一方向から見た一枚の画像のみを有する場合と比較して、三次元形状の対象物の形状を精度良く予測することが可能になる。上記構成によれば、そうした異方向から見た複数の画像を畳み込みニューラルネットワークの入力データとして用いることができる。そのため、三次元形状をなす対象物の性能を精度良く推定することができる。 When having a plurality of images viewed from different directions, it is possible to accurately predict the shape of a three-dimensional object as compared with the case of having only one image viewed from one direction. .. According to the above configuration, a plurality of images viewed from such different directions can be used as input data of the convolutional neural network. Therefore, it is possible to accurately estimate the performance of an object having a three-dimensional shape.

上記性能推定装置において、前記教師データは、前記複数の画像と前記性能に係る情報とが対をなす態様で関連付けられたデータセットを複数有している。
上記構成によれば、各データセットについて「複数の画像」を入力データとするとともに「対象物の性能に係る情報」を出力データとして畳み込みニューラルネットワークを学習させることにより、多入力の畳み込みニューラルネットワークを構築することができる。
In the performance estimation device, the teacher data has a plurality of data sets in which the plurality of images and the information related to the performance are associated with each other in a paired manner.
According to the above configuration, a multi-input convolutional neural network is created by training a convolutional neural network using "multiple images" as input data and "information related to the performance of an object" as output data for each data set. Can be built.

上記性能推定装置において、前記複数の画像は、前記対象物の異方向における断面を示す画像である。
異方向の断面を示す複数の画像を有する場合には、一方向の断面を示す一枚の画像のみを有する場合と比較して、三次元形状の対象物の形状を精度良く把握することが可能になる。上記構成によれば、そうした異方向の断面を示す複数の画像が畳み込みニューラルネットワークの入力データとして用いられるため、それら画像をもとに三次元形状の対象物の性能を精度良く推定することができる。
In the performance estimation device, the plurality of images are images showing a cross section of the object in different directions.
When having a plurality of images showing cross sections in different directions, it is possible to accurately grasp the shape of a three-dimensional object as compared with the case where there is only one image showing a cross section in one direction. become. According to the above configuration, since a plurality of images showing cross sections in different directions are used as input data of the convolutional neural network, the performance of the object having a three-dimensional shape can be estimated accurately based on the images. ..

本発明によれば、三次元形状をなす対象物の性能を精度良く推定することができる。 According to the present invention, the performance of an object having a three-dimensional shape can be estimated with high accuracy.

一実施形態の性能推定装置のハードウェア構成を示すブロック図。The block diagram which shows the hardware composition of the performance estimation apparatus of one Embodiment. 性能推定装置の学習器の構造を示す略図。The schematic which shows the structure of the learning device of a performance estimation device. 推定対象車両のフードの平面図。Top view of the hood of the vehicle to be estimated. 教師データのファイル名の一例を示す略図。A schematic diagram showing an example of a file name of teacher data. 学習処理の実行手順を示すフローチャート。A flowchart showing the execution procedure of the learning process. 推定処理の実行手順を示すフローチャート。A flowchart showing the execution procedure of the estimation process.

以下、性能推定装置の一実施形態について説明する。
本実施形態の性能推定装置は、車両のフードの断面形状を示す画像を入力データとして、学習済みの畳み込みニューラルネットワークから、車両のフードによる歩行者保護性能を推定する装置である。具体的には、性能推定装置により、車両の歩行者保護性能(詳しくは、頭部保護性能)に係る情報としての以下の(値A)~(値D)が求められる。なお本実施形態では、車両のフードが三次元形状をなす対象物に相当し、歩行者保護性能が同フードの性能に相当する。
Hereinafter, an embodiment of the performance estimation device will be described.
The performance estimation device of the present embodiment is a device that estimates the pedestrian protection performance of the vehicle hood from the trained convolutional neural network by using an image showing the cross-sectional shape of the vehicle hood as input data. Specifically, the performance estimation device obtains the following (value A) to (value D) as information related to the pedestrian protection performance (specifically, the head protection performance) of the vehicle. In the present embodiment, the hood of the vehicle corresponds to an object having a three-dimensional shape, and the pedestrian protection performance corresponds to the performance of the hood.

[値A]頭部傷害基準値(以下、HIC)。
[値B]歩行者保護試験用の頭部インパクタの車両フードへの侵入量に相当する値(以下、インパクタ侵入量)。
[Value A] Head injury reference value (hereinafter referred to as HIC).
[Value B] A value corresponding to the amount of penetration of the head impactor for the pedestrian protection test into the vehicle hood (hereinafter referred to as the amount of impactor penetration).

[値C]車両フードへの衝突初期(1ミリ秒)における頭部インパクタの平均加速度に相当する値(以下、1ミリ秒G)。
[値D]車両フードへの衝突初期(2ミリ秒)における頭部インパクタの平均加速度に相当する値(以下、2ミリ秒G)。
[Value C] A value corresponding to the average acceleration of the head impactor at the initial stage of collision with the vehicle hood (1 ms) (hereinafter, 1 ms G).
[Value D] A value corresponding to the average acceleration of the head impactor at the initial stage of collision with the vehicle hood (2 ms) (hereinafter, 2 ms G).

以下、本実施形態の性能推定装置のハードウェア構成について説明する。
図1に示すように、性能推定装置10は、制御部11、記憶部12、入力装置13および出力装置14が電気的に接続されたコンピュータである。
Hereinafter, the hardware configuration of the performance estimation device of this embodiment will be described.
As shown in FIG. 1, the performance estimation device 10 is a computer to which a control unit 11, a storage unit 12, an input device 13, and an output device 14 are electrically connected.

制御部11は、ハードウェアプロセッサであるCPU15や、RAM16、ROM17等を有している。この制御部11は、各種のプログラムやデータに基づいて各種の演算処理を実行するように構成されている。 The control unit 11 has a CPU 15, a RAM 16, a ROM 17, and the like, which are hardware processors. The control unit 11 is configured to execute various arithmetic processes based on various programs and data.

記憶部12は、ハードディスクドライブやソリッドステートドライブなどによって構成されている。この記憶部12は、制御部11によって実行される実行プログラム18や、学習器の機械学習に利用される教師データ19、機械学習の実行を通じて作成された学習データ20、歩行者保護性能の推定対象のフードの画像を記憶する入力部21、歩行者保護性能を推定した結果を示す推定結果データ22等を記憶する。 The storage unit 12 is composed of a hard disk drive, a solid state drive, or the like. The storage unit 12 includes an execution program 18 executed by the control unit 11, teacher data 19 used for machine learning of the learning device, learning data 20 created through the execution of machine learning, and an estimation target of pedestrian protection performance. The input unit 21 for storing the image of the hood, the estimation result data 22 indicating the result of estimating the pedestrian protection performance, and the like are stored.

実行プログラム18は、性能推定装置10に学習処理を実行させるとともに同学習処理の実行結果を示すデータである学習データ20を生成させるためのプログラムであり、且つ、性能推定装置10に推定処理を実行させるとともに同推定処理の実行結果を示す推定結果データ22を生成させるためのプログラムである。教師データ19は、歩行者保護性能を推定する能力を獲得するように、学習処理を通じて学習器の機械学習を行うためのデータである。なお、学習処理、推定処理、および教師データ19の詳細については後に詳述する。 The execution program 18 is a program for causing the performance estimation device 10 to execute the learning process and to generate the learning data 20 which is data indicating the execution result of the learning process, and the performance estimation device 10 executes the estimation process. It is a program for generating estimation result data 22 indicating the execution result of the estimation process. The teacher data 19 is data for performing machine learning of the learner through the learning process so as to acquire the ability to estimate the pedestrian protection performance. The details of the learning process, the estimation process, and the teacher data 19 will be described in detail later.

入力装置13は、マウスやキーボードなどの入力を行うための装置である。また、出力装置14は、ディスプレイやスピーカなどの出力を行うための装置である。これら入力装置13および出力装置14によって性能推定装置10は操作される。 The input device 13 is a device for inputting a mouse, a keyboard, or the like. Further, the output device 14 is a device for outputting a display, a speaker, or the like. The performance estimation device 10 is operated by the input device 13 and the output device 14.

図2に示すように、性能推定装置10は、歩行者保護性能を推定するための機械学習を行った学習済みの学習器として、畳み込みニューラルネットワーク(以下、CNN30)を利用する。 As shown in FIG. 2, the performance estimation device 10 uses a convolutional neural network (hereinafter referred to as CNN30) as a learned learner that has undergone machine learning for estimating pedestrian protection performance.

記憶部12の入力部21は、画像データを格納する第1入力フォルダ21Aおよび第2入力フォルダ21Bを有している。第1入力フォルダ21Aには車両のフード外面の正面視断面を示す画像が保存される。第2入力フォルダ21Bには車両のフード外面の側面視断面を示す画像が保存される。本実施形態では、図3に断面線の一部を破線で示すように、フード25の正面視断面を示す画像を形成する箇所として、車両の前後方向(図3のL方向)において並ぶ複数箇所(例えば4000箇所)が定められている。また、フード25の側面視断面を示す画像を形成する箇所としては、車幅方向(図3のW方向)において並ぶ複数箇所(4000箇所)が定められている。そうした第1入力フォルダ21A(図2)および第2入力フォルダ21Bに保存される画像をもとに、制御部11は実行プログラム18を通じて歩行者保護性能の推定のための処理(学習処理や推定処理)を実行する。なお本実施形態では、正面視断面を示す画像および側面視断面を示す画像が、同一のフードについての見る角度の異なる複数の画像に相当し、同一のフードの異方向における断面を示す画像に相当する。 The input unit 21 of the storage unit 12 has a first input folder 21A and a second input folder 21B for storing image data. An image showing a front view cross section of the outer surface of the hood of the vehicle is stored in the first input folder 21A. An image showing a side view cross section of the outer surface of the hood of the vehicle is stored in the second input folder 21B. In the present embodiment, as shown by a broken line in a part of the cross-sectional line in FIG. 3, a plurality of places arranged in the front-rear direction of the vehicle (L direction in FIG. 3) as places for forming an image showing the front view cross section of the hood 25. (For example, 4000 places) are defined. Further, as locations for forming an image showing a side view cross section of the hood 25, a plurality of locations (4000 locations) arranged in the vehicle width direction (W direction in FIG. 3) are defined. Based on the images stored in the first input folder 21A (FIG. 2) and the second input folder 21B, the control unit 11 performs a process for estimating the pedestrian protection performance (learning process and estimation process) through the execution program 18. ) Is executed. In this embodiment, the image showing the front view cross section and the image showing the side view cross section correspond to a plurality of images of the same hood at different viewing angles, and correspond to images showing the cross sections of the same hood in different directions. do.

性能推定装置10は、画像データを数値化する数値化部31A,31Bを2つ有している。第1数値化部31Aは第1入力フォルダ21Aに保存された画像データを数値化し、第2数値化部31Bは第2入力フォルダ21Bに保存される画像データを数値化する。これら数値化部31A,31Bでは、画像データが二次元配列の値に変換される。 The performance estimation device 10 has two digitizing units 31A and 31B for digitizing image data. The first digitizing unit 31A digitizes the image data stored in the first input folder 21A, and the second digitizing unit 31B digitizes the image data stored in the second input folder 21B. In these digitization units 31A and 31B, the image data is converted into the value of the two-dimensional array.

CNN30は、第1入力層32Aおよび第2入力層32Bを有している。これら第1入力層32Aおよび第2入力層32Bは画像データを数値化した値が入力される層である。第1入力層32Aには第1数値化部31Aによって数値化された二次元配列の値が入力され、第2入力層32Bには第2数値化部31Bによって数値化された二次元配列の値が入力される。 The CNN 30 has a first input layer 32A and a second input layer 32B. The first input layer 32A and the second input layer 32B are layers in which numerical values of image data are input. The value of the two-dimensional array digitized by the first digitizing unit 31A is input to the first input layer 32A, and the value of the two-dimensional array digitized by the second digitizing unit 31B is input to the second input layer 32B. Is entered.

CNN30は第1中間層33Aおよび第2中間層33Bを有している。第1中間層33Aおよび第2中間層33Bはそれぞれ、入力されるデータに対して畳み込み処理を行う畳み込み層34と、畳み込み層34から出力されたデータに対してプーリング処理を行うプーリング層35とを有している。第1中間層33Aおよび第2中間層33Bはそれぞれ、畳み込み層34およびプーリング層35が交互に複数回(例えば3回)並ぶ構造になっている。 The CNN 30 has a first intermediate layer 33A and a second intermediate layer 33B. The first intermediate layer 33A and the second intermediate layer 33B each have a convolution layer 34 that performs a convolution process on the input data and a pooling layer 35 that performs a pooling process on the data output from the convolution layer 34. Have. The first intermediate layer 33A and the second intermediate layer 33B have a structure in which the convolutional layer 34 and the pooling layer 35 are alternately arranged a plurality of times (for example, three times).

CNN30は結合層36を有している。結合層36は、第1中間層33Aから出力され
る値と第2中間層33Bから出力される値とを結合する。
CNN30は4つの全結合層37A,37B,37C,37Dを有している。これら全結合層37A~37Dはいずれも、第1中間層33Aおよび第2中間層33Bを通じて特徴部分が取り出されたデータを一つのノードに結合するとともに、活性化関数によって変換した値(特徴変数)を出力する。本実施形態では、第1全結合層37Aは「HIC」に対応する値を出力する層であり、第2全結合層37Bは「インパクタ侵入量」に対応する値を出力する層であり、第3全結合層37Cは「1ミリ秒G」に対応する値を出力する層であり、第4全結合層37Dは「2ミリ秒G」に対応する値を出力する層である。
CNN30 has a binding layer 36. The bonding layer 36 combines the value output from the first intermediate layer 33A and the value output from the second intermediate layer 33B.
CNN30 has four fully connected layers 37A, 37B, 37C, 37D. In each of these fully connected layers 37A to 37D, the data from which the characteristic portion is taken out through the first intermediate layer 33A and the second intermediate layer 33B is bound to one node, and the value converted by the activation function (characteristic variable). Is output. In the present embodiment, the first fully connected layer 37A is a layer that outputs a value corresponding to "HIC", and the second fully connected layer 37B is a layer that outputs a value corresponding to "impactor intrusion amount". The 3 fully connected layer 37C is a layer that outputs a value corresponding to "1 millisecond G", and the 4th fully connected layer 37D is a layer that outputs a value corresponding to "2 milliseconds G".

CNN30は4つの出力層38A,38B,38C,38Dを有している。これら出力層38A~38DはCNN30の最も出力側に配置される層である。本実施形態では、第1出力層38Aは第1全結合層37Aから出力された値をもとに「HIC」を算出して出力する層であり、第2出力層38Bは第2全結合層37Bから出力された値をもとに「インパクタ侵入量」を算出して出力する層である。また、第3出力層38Cは第3全結合層37Cから出力された値をもとに「1ミリ秒G」を算出して出力する層であり、第4出力層38Dは第4全結合層37Dから出力された値をもとに「2ミリ秒G」を算出して出力する層である。なお本実施形態では、これら出力層38A~38Dが出力部に相当する。 The CNN 30 has four output layers 38A, 38B, 38C, 38D. These output layers 38A to 38D are layers arranged on the most output side of the CNN 30. In the present embodiment, the first output layer 38A is a layer that calculates and outputs "HIC" based on the value output from the first fully connected layer 37A, and the second output layer 38B is the second fully connected layer. This layer calculates and outputs the "impactor intrusion amount" based on the value output from 37B. Further, the third output layer 38C is a layer that calculates and outputs "1 millisecond G" based on the value output from the third fully connected layer 37C, and the fourth output layer 38D is the fourth fully connected layer. It is a layer that calculates and outputs "2 milliseconds G" based on the value output from 37D. In this embodiment, these output layers 38A to 38D correspond to the output unit.

以下、前記学習処理の実行手順について説明する。
学習処理の実行に際して制御部11は、記憶部12に記憶されている実行プログラム18をRAM16に展開する。そして、制御部11は、実行プログラム18(詳しくは、学習処理)をCPU15により実行して、CNN30の機械学習を実行する。
Hereinafter, the execution procedure of the learning process will be described.
When executing the learning process, the control unit 11 expands the execution program 18 stored in the storage unit 12 into the RAM 16. Then, the control unit 11 executes the execution program 18 (specifically, the learning process) by the CPU 15 to execute the machine learning of the CNN 30.

また学習処理を実行する際には、記憶部12の第1入力フォルダ21Aおよび第2入力フォルダ21Bに画像(詳しくは、教師データ19)が記憶される。この画像をもとにCNN30の機械学習が実行される。 Further, when the learning process is executed, the image (specifically, the teacher data 19) is stored in the first input folder 21A and the second input folder 21B of the storage unit 12. Machine learning of CNN30 is executed based on this image.

教師データ19は、開発済みの車両の歩行者保護性能を実際に測定した結果をもとに作成される。教師データ19としては、フード外面の正面視断面を示す画像と、同フード外面の側面視断面を示す画像と、歩行者保護性能の各値(HIC、インパクタ侵入量、1ミリ秒G、2ミリ秒G)とを組み合わせたデータが多数用意されている。 The teacher data 19 is created based on the result of actually measuring the pedestrian protection performance of the developed vehicle. The teacher data 19 includes an image showing a front view cross section of the outer surface of the hood, an image showing a side view cross section of the outer surface of the hood, and each value of pedestrian protection performance (HIC, impactor penetration amount, 1 ms G, 2 mm). A lot of data combined with the second G) are prepared.

教師データ19は、各入力フォルダ21A,21Bに保存される画像のファイル名によって、正面視断面を示す画像と側面視断面を示す画像と歩行者保護性能の各値とが関連付けられたデータセットになっている。具体的には、第1入力フォルダ21Aおよび第2入力フォルダ21Bに記憶される多数の画像のうち、組み合わせ対象となる一対の画像には同一のファイル名が付与されている。また、このファイル名には、それら画像を組み合わせた場合における歩行者保護性能の各値についての情報が含まれている。学習処理の実行に際して、入力フォルダ21A,21Bから同一のファイル名の画像を各別に抽出することにより、正面視断面を示す画像と側面視断面を示す画像と歩行者保護性能の各値とがセットになったデータを得ることができる。 The teacher data 19 is a data set in which an image showing a front view cross section, an image showing a side view cross section, and each value of pedestrian protection performance are associated with each other by the file name of the image saved in each input folder 21A and 21B. It has become. Specifically, among the large number of images stored in the first input folder 21A and the second input folder 21B, the pair of images to be combined are given the same file name. In addition, this file name contains information about each value of the pedestrian protection performance when these images are combined. By extracting images with the same file name from the input folders 21A and 21B separately when executing the learning process, an image showing a front view cross section, an image showing a side view cross section, and each value of pedestrian protection performance are set. You can get the data that became.

そうしたファイル名の一例を図4に示す。図4に示す例では、ファイル名の「L1000」が正面視断面のL方向位置を示しており、同ファイル名の「W200」が側面視断面のW方向位置を示している。具体的には、ファイル名の「L1000W200」は、正面視断面のうちの車両前側から1000番目の断面と、側面視断面のうちの車両左側から200番目の断面とを組み合わせたデータであることを示している。また、上記ファイル名の「HIC500」は正面視断面と側面視断面との交点(打点座標)におけるHICが「500」であることを示しており、同ファイル名の「ST90」は上記打点座標におけるインパクタ侵入量が「90」であることを示している。さらに、上記ファイル名の「1G
20」は上記打点座標における1ミリ秒Gが「20」であることを示しており、同ファイル名の「2G10」は上記打点座標における2ミリ秒Gが「10」であることを示している。本実施形態では、教師データ19として、上記打点座標毎に、多数組(例えば数千組)のデータが用意されている。
An example of such a file name is shown in FIG. In the example shown in FIG. 4, the file name "L1000" indicates the position in the L direction of the front view cross section, and the file name "W200" indicates the position in the W direction of the side view cross section. Specifically, the file name "L1000W200" is data obtained by combining the 1000th cross section from the front side of the vehicle in the front view cross section and the 200th cross section from the left side of the vehicle in the side view cross section. Shows. Further, "HIC500" in the above file name indicates that the HIC at the intersection (dotted point coordinates) between the front view cross section and the side view cross section is "500", and "ST90" in the same file name is in the hitting point coordinates. It shows that the impactor intrusion amount is "90". Furthermore, the above file name "1G"
"20" indicates that the 1 millisecond G in the dot coordinates is "20", and "2G10" in the same file name indicates that the 2 milliseconds G in the dot coordinates is "10". .. In the present embodiment, as the teacher data 19, a large number of sets (for example, several thousand sets) of data are prepared for each of the dot coordinates.

図5に示すように、本実施形態の性能推定装置10では、学習処理の実行に合わせて、教師データ19におけるフードの正面視断面を示す画像が第1入力フォルダ21Aに記憶されるとともに、同フードの側面視断面を示す画像が第2入力フォルダ21Bに記憶される(ステップS11)。 As shown in FIG. 5, in the performance estimation device 10 of the present embodiment, an image showing a front view cross section of the hood in the teacher data 19 is stored in the first input folder 21A in accordance with the execution of the learning process, and the same. An image showing a side view cross section of the hood is stored in the second input folder 21B (step S11).

そして、学習処理では、各入力フォルダ21A,21Bに記憶された画像をもとに、学習器としてのCNN30の機械学習が実行される(ステップS12)。詳しくは、各入力フォルダ21A,21Bに記憶された画像のファイル名をもとに、正面視断面を示す画像と側面視断面を示す画像とが対をなす画像データが一組抽出される。そして、それら画像をCNN30の入力データとした場合に、同画像のファイル名に含まれる歩行者保護性能の各値がCNN30の出力値として得られるように、CNN30が構築される。本実施形態の学習処理では、こうしたCNN30の機械学習が、正面視断面を示す画像と側面視断面を示す画像とが対をなす画像データの組毎に実行される態様で、繰り返し実行される。そして、このとき構築したCNN30の構成(例えば、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)や、各ニューロン間の結合の重み、並びに各ニューロンの閾値を示す情報が学習データ20として記憶部12に格納される。本実施形態では、こうした一連の処理が自動的に実行されるように、実行プログラム18が構築されて記憶部12に記憶されている。 Then, in the learning process, machine learning of the CNN 30 as a learning device is executed based on the images stored in the input folders 21A and 21B (step S12). Specifically, based on the file names of the images stored in the input folders 21A and 21B, a set of image data in which the image showing the front view cross section and the image showing the side view cross section are paired is extracted. Then, when those images are used as the input data of the CNN 30, the CNN 30 is constructed so that each value of the pedestrian protection performance included in the file name of the image is obtained as the output value of the CNN 30. In the learning process of the present embodiment, such machine learning of the CNN 30 is repeatedly executed in such a manner that such machine learning is executed for each set of image data in which an image showing a front view cross section and an image showing a side view cross section are paired. Then, the configuration of the CNN30 constructed at this time (for example, the number of neurons in each layer, the connection relationship between neurons, the transmission function of each neuron), the weight of the connection between each neuron, and the information indicating the threshold value of each neuron are learned. It is stored in the storage unit 12 as data 20. In the present embodiment, the execution program 18 is constructed and stored in the storage unit 12 so that such a series of processes are automatically executed.

以下、前記推定処理の実行手順について説明する。
推定処理の実行に際して制御部11は、記憶部12に記憶されている実行プログラム18をRAM16に展開する。なお、学習済みのCNN30の構成や、各ニューロン間の結合の重み、並びに各ニューロンの閾値を示す情報は、記憶部12に記憶されている学習データ20に含まれている。本実施形態では、実行プログラム18を展開する際に、そうした学習データ20が参照されて、歩行者保護性能を推定する推定処理に用いる学習済みのCNN30の設定が行われる。
Hereinafter, the execution procedure of the estimation process will be described.
When executing the estimation process, the control unit 11 expands the execution program 18 stored in the storage unit 12 into the RAM 16. Information indicating the structure of the learned CNN 30, the weight of the connection between each neuron, and the threshold value of each neuron is included in the learning data 20 stored in the storage unit 12. In the present embodiment, when the execution program 18 is developed, such learning data 20 is referred to, and the trained CNN 30 used for the estimation process for estimating the pedestrian protection performance is set.

図6に示すように、本実施形態の性能推定装置10では、推定処理の実行に合わせて、入力装置13の操作を通じて推定対象車両のフード25の正面視断面を示す画像が第1入力フォルダ21Aに記憶されるとともに、同フード25の側面視断面を示す画像が第2入力フォルダ21Bに記憶される(ステップS21)。 As shown in FIG. 6, in the performance estimation device 10 of the present embodiment, an image showing a front view cross section of the hood 25 of the estimation target vehicle through the operation of the input device 13 is displayed in the first input folder 21A in accordance with the execution of the estimation process. An image showing a side view cross section of the hood 25 is stored in the second input folder 21B (step S21).

なお本実施形態では、推定対象車両の開発工程において意匠形状(デザイン)が決定されると、その意匠形状をもとにフード25(詳しくは、その外面)の側面視断面を示す画像と正面視断面を示す画像とが形成される。そして、推定処理の実行に合わせて、それら画像が第1入力フォルダ21Aおよび第2入力フォルダ21Bに保存される。 In the present embodiment, when the design shape is determined in the development process of the estimation target vehicle, an image showing a side view cross section of the hood 25 (specifically, its outer surface) and a front view based on the design shape are obtained. An image showing a cross section is formed. Then, these images are saved in the first input folder 21A and the second input folder 21B in accordance with the execution of the estimation process.

こうした推定用の画像としては、フード25の正面視断面を示す画像と同フード25の側面視断面を示す画像とを組み合わせた一対の画像データが前記打点座標毎に1組ずつ用意される。推定用の画像データは、各入力フォルダ21A,21Bに保存される画像に付与されたファイル名によって、正面視断面を示す画像と側面視断面を示す画像とが関連付けられたデータセットになっている。具体的には、第1入力フォルダ21Aおよび第2入力フォルダ21Bに記憶される多数の画像データのうち、組み合わせ対象となる一対の画像データには同一のファイル名(例えば、L1000W200.jpeg)が付与されている。そのため、推定処理の実行に際して、各入力フォルダ21A,21Bから同一のフ
ァイル名の画像を抽出することにより、正面視断面を示す画像と側面視断面を示す画像とがセットになったデータを得ることができる。なお、例示したファイル名(L1000W200.jpeg)における「L1000」は正面視断面のL方向位置を示しており、同ファイル名の「W200」は側面視断面のW方向位置を示している。そのため、このファイル名は、正面視断面のうちの車両前側から1000番目の断面と、側面視断面のうちの車両右側から200番目の断面とを組み合わせたデータであることを示している。
As such an image for estimation, a pair of image data in which an image showing a front view cross section of the hood 25 and an image showing a side view cross section of the hood 25 are combined is prepared for each dot coordinate. The image data for estimation is a data set in which an image showing a front view cross section and an image showing a side view cross section are associated with each other by the file name given to the image saved in each input folder 21A and 21B. .. Specifically, among a large number of image data stored in the first input folder 21A and the second input folder 21B, the same file name (for example, L1000W200.jpg) is given to the pair of image data to be combined. Has been done. Therefore, when executing the estimation process, by extracting images with the same file name from the input folders 21A and 21B, data obtained as a set of an image showing a front view cross section and an image showing a side view cross section can be obtained. Can be done. In the illustrated file name (L1000W200.jpeg), "L1000" indicates the position in the L direction of the front view cross section, and "W200" in the same file name indicates the position in the W direction of the side view cross section. Therefore, this file name indicates that the data is a combination of the 1000th cross section from the front side of the vehicle in the front view cross section and the 200th cross section from the right side of the vehicle in the side view cross section.

本実施形態の推定処理では、一対の画像データをもとに、学習済みのCNN30を利用して、正面視断面と側面視断面との交点(打点座標)における歩行者保護性能についての各出力値(HIC、インパクタ侵入量、1ミリ秒G、2ミリ秒G)が求められる(ステップS22)。本実施形態では、こうした歩行者保護性能についての各出力値の算出が、正面視断面を示す画像と側面視断面を示す画像とが対をなすデータセット毎に実行される態様で、繰り返し実行される。本実施形態では、こうした一連の処理が自動的に実行されるように実行プログラム18が構築されて記憶部12に記憶されている。 In the estimation process of the present embodiment, each output value of the pedestrian protection performance at the intersection (dotting coordinates) between the front view cross section and the side view cross section is used based on the pair of image data and the trained CNN30 is used. (HIC, impactor penetration amount, 1 ms G, 2 ms G) is required (step S22). In the present embodiment, the calculation of each output value for the pedestrian protection performance is repeatedly executed in such a manner that the calculation of each output value is executed for each data set in which the image showing the front view cross section and the image showing the side view cross section are paired. To. In the present embodiment, the execution program 18 is constructed and stored in the storage unit 12 so that such a series of processes are automatically executed.

そして、全てのデータセットについての歩行者保護性能の出力値の算出が完了すると、それら出力値が出力される(ステップS23)。具体的には、各衝撃打点と歩行者保護性能についての各出力値との関係を示すデータ(例えば、CSVデータ)が作成されるとともに、同データが推定結果データ22として記憶部12に記憶される。また、衝撃打点と歩行者保護性能についての各出力値との関係を示す表が作成されて、出力装置14(詳しくはディスプレイ)に表示される。 Then, when the calculation of the output value of the pedestrian protection performance for all the data sets is completed, those output values are output (step S23). Specifically, data (for example, CSV data) showing the relationship between each impact hit point and each output value for pedestrian protection performance is created, and the data is stored in the storage unit 12 as estimation result data 22. To. Further, a table showing the relationship between the impact hitting point and each output value for the pedestrian protection performance is created and displayed on the output device 14 (specifically, the display).

本実施形態によれば、以下に記載する作用効果が得られる。
(1)CNN30の入力データや教師データ19を構成する画像データとして、見る角度の異なる二種類の画像、詳しくはフードの正面視断面を示す画像と側面視断面を示す画像とが用意される。ここで、三次元形状のフードの形状を予測する際には、その予測に用いる画像として一方向の断面を示す一枚の画像のみが用意される場合と比較して、異方向の断面を示す二枚の画像が用意される場合のほうが、同フードの形状を精度良く予測することが可能である。本実施形態によれば、そうした異方向の断面を示す二枚の画像をCNN30の入力データや教師データ19として用いることができる。そのため、三次元形状のフード25の形状を正確に把握して考慮しつつ、同フード25による歩行者保護性能を精度良く推定することができる。
According to this embodiment, the effects described below can be obtained.
(1) As the input data of the CNN 30 and the image data constituting the teacher data 19, two types of images having different viewing angles, specifically, an image showing a front view cross section and an image showing a side view cross section of the hood are prepared. Here, when predicting the shape of a three-dimensional hood, a cross section in a different direction is shown as compared with a case where only one image showing a cross section in one direction is prepared as an image used for the prediction. It is possible to predict the shape of the hood more accurately when two images are prepared. According to this embodiment, two images showing such cross sections in different directions can be used as input data and teacher data 19 of CNN 30. Therefore, it is possible to accurately estimate the pedestrian protection performance of the hood 25 while accurately grasping and considering the shape of the hood 25 having a three-dimensional shape.

(2)教師データ19は、フードの断面を示す二枚の画像と同フードによる歩行者保護性能の各値とが対をなす態様で関連付けられたデータセットを複数有している。これにより、各データセットについて「フードの断面を示す二枚の画像」を入力データとするとともに「フードによる歩行者保護性能の各値」を出力データとしてCNN30を学習させることにより、多入力のCNN30を構築することができる。 (2) The teacher data 19 has a plurality of data sets in which two images showing a cross section of the hood and each value of the pedestrian protection performance by the hood are associated with each other in a paired manner. As a result, the CNN30 is trained using "two images showing the cross section of the hood" as input data and "each value of the pedestrian protection performance by the hood" as output data for each data set, so that the CNN30 has multiple inputs. Can be built.

なお、上記実施形態は、以下のように変更して実施してもよい。
・CNN30の構成は任意に変更することができる。例えば各中間層33A,33Bにおいて畳み込み層34およびプーリング層35が交互に並ぶ回数を変更したり、ドロップアウト層を追加したりしてもよい。
The above embodiment may be modified as follows.
-The configuration of CNN30 can be changed arbitrarily. For example, the number of times the convolutional layer 34 and the pooling layer 35 are alternately arranged in the intermediate layers 33A and 33B may be changed, or a dropout layer may be added.

・性能推定装置10による推定対象項目を、HIC、インパクタ侵入量、1ミリ秒G、および2ミリ秒Gのいずれか1つにしたり、いずれか2つにしたり、いずれか3つにしたりしてもよい。また、HIC、インパクタ侵入量、1ミリ秒G、および2ミリ秒G以外の値を、性能推定装置10の推定対象項目にすることもできる。 -The item to be estimated by the performance estimation device 10 is set to one of HIC, impactor intrusion amount, 1 ms G, and 2 ms G, any two, or any three. May be good. Further, values other than the HIC, the impactor intrusion amount, 1 millisecond G, and 2 ms G can be set as the estimation target items of the performance estimation device 10.

・歩行者保護性能の推定結果を出力する態様は、推定結果を示すデータを記憶部12に
記憶したり同データを出力装置14に表示させたりすることに限らず、任意に変更することができる。
-The mode for outputting the estimation result of the pedestrian protection performance is not limited to storing the data indicating the estimation result in the storage unit 12 or displaying the data in the output device 14, and can be arbitrarily changed. ..

・CNN30の入力データや教師データ19を構成する画像データに、フードの厚さを示す情報やフードの材質を示す情報を付与するようにしてもよい。例えばフードの厚さを示す情報は同フードの断面を示す線の太さを変えることによって付与することができ、フードの材質を示す情報は同フードの断面を示す線の表示色を変えることによって付与することができる。上記構成によれば、フードの厚さや材質を把握したうえで歩行者保護性能の各値の算出を行うことができるため、それら値をより精度良く算出することができる。 -Information indicating the thickness of the hood and information indicating the material of the hood may be added to the input data of the CNN 30 and the image data constituting the teacher data 19. For example, information indicating the thickness of the hood can be given by changing the thickness of the line indicating the cross section of the hood, and information indicating the material of the hood can be given by changing the display color of the line indicating the cross section of the hood. Can be granted. According to the above configuration, since each value of the pedestrian protection performance can be calculated after grasping the thickness and material of the hood, those values can be calculated more accurately.

・教師データ19を、フードの正面視断面を示す画像と、同フードの側面視断面を示す画像と、歩行者保護性能の各値を示す数値データファイルとを組み合わせたデータにしてもよい。要は、フードの正面視断面を示す画像と同フードの側面視断面を示す画像と歩行者保護性能の各値とが関連付けられたデータセットであれば、教師データ19として用いることができる。 -The teacher data 19 may be data in which an image showing a front view cross section of the hood, an image showing a side view cross section of the hood, and a numerical data file showing each value of the pedestrian protection performance are combined. In short, any data set in which the image showing the front view cross section of the hood, the image showing the side view cross section of the hood, and each value of the pedestrian protection performance are associated can be used as the teacher data 19.

・CNN30の入力データおよび教師データ19を構成する画像データとしては、フードの正面視断面を示す画像や側面視断面を示す画像に限らず、任意の断面線に沿ったフードの断面を示す画像を用いることができる。また、CNN30の入力データおよび教師データ19を構成する画像データとして、フードの断面を示す画像に限らず、フードの外面形状を示す画像を用いることなども可能である。 The image data constituting the input data of the CNN 30 and the teacher data 19 is not limited to an image showing a front view cross section and an image showing a side view cross section of the hood, but an image showing a cross section of the hood along an arbitrary cross section. Can be used. Further, as the image data constituting the input data of the CNN 30 and the teacher data 19, not only the image showing the cross section of the hood but also the image showing the outer surface shape of the hood can be used.

・CNN30の入力データおよび教師データ19を構成する画像データとして、三枚以上の画像を用いるようにしてもよい。この場合には、それら画像データに各別に対応する態様で、画像データを保存する入力フォルダや、同画像データを数値化する数値化部、CNNの入力層および中間層を設定するようにすればよい。例えば、L方向位置の異なる複数枚の正面視断面を示す画像とW方向位置の異なる複数枚の側面視断面を示す画像とを、CNN30の入力データおよび教師データ19を構成する画像データとして用いることができる。こうした構成によれば、フードにおける打点座標周辺の形状を考慮したうえで、フードによる歩行者保護性能を推定することができる。その他、CNN30の入力データおよび教師データ19を構成する画像データとして、フードの正面視断面を示す画像と、側面視断面を示す画像と、それら正面視断面および側面視断面以外の断面を示す画像とを用いることなども可能である。 -Three or more images may be used as the image data constituting the input data of the CNN 30 and the teacher data 19. In this case, an input folder for storing the image data, a digitizing unit for quantifying the image data, an input layer for CNN, and an intermediate layer may be set in a manner corresponding to each of the image data. good. For example, an image showing a plurality of front view cross sections having different positions in the L direction and an image showing a plurality of side view cross sections having different positions in the W direction are used as image data constituting the input data of the CNN 30 and the teacher data 19. Can be done. According to such a configuration, it is possible to estimate the pedestrian protection performance by the hood after considering the shape around the hitting point coordinates in the hood. In addition, as image data constituting the input data of the CNN 30 and the teacher data 19, an image showing a front view cross section of the hood, an image showing a side view cross section, and an image showing a cross section other than the front view cross section and the side view cross section. It is also possible to use.

・歩行者保護性能の推定に用いるCNNを車種毎に設定するようにしてもよい。同一の車種であれば、車両がモデルチェンジしたところで、フードの基本構造は大きくは変わらない。そのため、上記実施形態の性能推定装置のように、フードの外面の断面形状を示す画像を入力データとして学習済みのCNN30から歩行者保護性能の各値を求めることにより、それら値を精度良く求めることができる。上記構成によれば、車種毎に設定されるCNNを利用して、フードによる歩行者保護性能を精度よく推定することができる。 -The CNN used for estimating the pedestrian protection performance may be set for each vehicle type. If the vehicle is the same model, the basic structure of the hood will not change significantly when the vehicle is remodeled. Therefore, as in the performance estimation device of the above embodiment, each value of the pedestrian protection performance is obtained from the trained CNN 30 using an image showing the cross-sectional shape of the outer surface of the hood as input data, and these values are obtained accurately. Can be done. According to the above configuration, the pedestrian protection performance by the hood can be accurately estimated by using the CNN set for each vehicle type.

・上記実施形態にかかる性能推定装置は、車両のフードによる歩行者の頭部保護性能を推定する装置に限らず、車両のバンパーによる歩行者の脚部保護性能を推定する装置にも適用することができる。この場合には、バンパーの意匠形状を示す画像を入力データとして、学習済みのCNNから、脚部保護性能を推定するようにすればよい。上記実施形態にかかる性能推定装置は、車両を構成する構成部材についての見る角度の異なる複数の画像をもとに同構成部材の性能を推定する装置であれば、適用可能である。また、そうした車両を構成する構成部材の性能を推定する装置に限らず、三次元形状をなす対象物についての見る角度の異なる複数の画像をもとに同対象物の性能を推定する装置であれば、上記実施形態にかかる性能推定装置は適用することができる。 -The performance estimation device according to the above embodiment is not limited to the device that estimates the pedestrian head protection performance by the vehicle hood, but also applies to the device that estimates the pedestrian leg protection performance by the vehicle bumper. Can be done. In this case, the leg protection performance may be estimated from the trained CNN using an image showing the design shape of the bumper as input data. The performance estimation device according to the above embodiment can be applied as long as it is a device that estimates the performance of the constituent members having different viewing angles based on a plurality of images of the constituent members constituting the vehicle. Further, the device is not limited to a device that estimates the performance of the constituent members constituting such a vehicle, but may be a device that estimates the performance of the object having a three-dimensional shape based on a plurality of images having different viewing angles. For example, the performance estimation device according to the above embodiment can be applied.

10…性能推定装置、11…制御部、12…記憶部、13…入力装置、14…出力装置、15…CPU、16…RAM、17…ROM、18…実行プログラム、19…教師データ、20…学習データ、21…入力部、21A…第1入力フォルダ、21B…第2入力フォルダ、22…推定結果データ、25…フード、30…畳み込みニューラルネットワーク(CNN)、31A…第1数値化部、31B…第2数値化部、32A…第1入力層、32B…第2入力層、33A…第1中間層、33B…第2中間層、34…畳み込み層、35…プーリング層、36…結合層、37A…第1全結合層、37B…第2全結合層、37C…第3全結合層、37D…第4全結合層、38A…第1出力層、38B…第2出力層、38C…第3出力層、38D…第4出力層。 10 ... Performance estimation device, 11 ... Control unit, 12 ... Storage unit, 13 ... Input device, 14 ... Output device, 15 ... CPU, 16 ... RAM, 17 ... ROM, 18 ... Execution program, 19 ... Teacher data, 20 ... Learning data, 21 ... input unit, 21A ... first input folder, 21B ... second input folder, 22 ... estimation result data, 25 ... hood, 30 ... convolutional neural network (CNN), 31A ... first digitization unit, 31B ... 2nd digitization unit, 32A ... 1st input layer, 32B ... 2nd input layer, 33A ... 1st intermediate layer, 33B ... 2nd intermediate layer, 34 ... folding layer, 35 ... pooling layer, 36 ... bonding layer, 37A ... 1st total bond layer, 37B ... 2nd total bond layer, 37C ... 3rd total bond layer, 37D ... 4th total bond layer, 38A ... 1st output layer, 38B ... 2nd output layer, 38C ... 3rd Output layer, 38D ... 4th output layer.

Claims (3)

三次元形状をなす対象物の性能を推定する性能推定装置において、
同一の前記対象物についての見る角度の異なる複数の画像を記憶する入力部と、
同一の前記対象物についての見る角度の異なる複数の画像と同対象物の性能に係る情報とが組み合わされてなる教師データによって学習された畳み込みニューラルネットワークを記憶する記憶部と、
前記入力部に記憶された前記複数の画像を入力データとして、前記記憶部に記憶された学習済みの畳み込みニューラルネットワークから、前記対象物の性能に係る情報を取得する出力部と、
を有することを特徴とする性能推定装置。
In a performance estimation device that estimates the performance of an object that forms a three-dimensional shape,
An input unit that stores a plurality of images of the same object at different viewing angles,
A storage unit that stores a convolutional neural network learned by teacher data, which is a combination of a plurality of images of the same object having different viewing angles and information related to the performance of the same object.
An output unit that acquires information related to the performance of the object from the learned convolutional neural network stored in the storage unit using the plurality of images stored in the input unit as input data.
A performance estimation device characterized by having.
前記教師データは、前記複数の画像と前記性能に係る情報とが対をなす態様で関連付けられたデータセットを複数有している
請求項1に記載の性能推定装置。
The performance estimation device according to claim 1, wherein the teacher data has a plurality of data sets in which the plurality of images and the information related to the performance are associated with each other in a paired manner.
前記複数の画像は、前記対象物の異方向における断面を示す画像である
請求項1または2に記載の性能推定装置。
The performance estimation device according to claim 1 or 2, wherein the plurality of images are images showing a cross section of the object in a different direction.
JP2019065881A 2019-03-29 2019-03-29 Performance estimator Active JP7036079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019065881A JP7036079B2 (en) 2019-03-29 2019-03-29 Performance estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019065881A JP7036079B2 (en) 2019-03-29 2019-03-29 Performance estimator

Publications (2)

Publication Number Publication Date
JP2020166512A JP2020166512A (en) 2020-10-08
JP7036079B2 true JP7036079B2 (en) 2022-03-15

Family

ID=72716201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019065881A Active JP7036079B2 (en) 2019-03-29 2019-03-29 Performance estimator

Country Status (1)

Country Link
JP (1) JP7036079B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023163175A (en) * 2022-04-27 2023-11-09 旭化成株式会社 Examination system, method for examination, method for learning, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119881A (en) 2012-12-14 2014-06-30 Konica Minolta Inc Information processor, label selection method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6588413B2 (en) * 2016-10-04 2019-10-09 日本電信電話株式会社 Monitoring device and monitoring method
JP6888484B2 (en) * 2017-08-29 2021-06-16 富士通株式会社 A search program, a search method, and an information processing device on which the search program operates.

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119881A (en) 2012-12-14 2014-06-30 Konica Minolta Inc Information processor, label selection method and program

Also Published As

Publication number Publication date
JP2020166512A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP5911165B2 (en) Image recognition device
JP6586532B2 (en) Deep machine learning method and apparatus for robot gripping
JP6826296B2 (en) Joint position estimation device, joint position estimation method and joint position estimation program
JP2011131376A5 (en)
JP2013045433A5 (en)
JP2020532797A5 (en)
JP7036079B2 (en) Performance estimator
JP4068487B2 (en) Shell model creation device for analysis
CN112363402B (en) Gait training method and device of foot type robot based on model-related reinforcement learning, electronic equipment and medium
CN109492609A (en) It is a kind of detect lane line method and vehicle and calculate equipment
EP4002292A2 (en) Method and apparatus for online fitting
US20190370991A1 (en) Electronic device and method of calculating angle of impact of spatter stain
Qi et al. Virtual interactive suturing for the Fundamentals of Laparoscopic Surgery (FLS)
JP6683666B2 (en) Identification code reader and machine learning device
JP6821048B2 (en) Image processing device, trained model generation method, and evaluation device
JP7147660B2 (en) Pedestrian protection performance evaluation device
JP7209657B2 (en) Information processing device and method
CN106575315B (en) Tectosome designing support device, method, program and recording medium
JP2022155037A (en) Information processing device, information processing method, and program
JP2018180894A (en) Information processing device, information processing method, and program
JPWO2022024272A5 (en)
JP5176861B2 (en) Analysis apparatus, analysis method, and analysis program
JP7347539B2 (en) Foreground extraction device, foreground extraction method, and program
KR102189238B1 (en) Method and apparatus for processing 3d printing models
JP6839613B2 (en) Driving ability evaluation system and driving ability evaluation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R151 Written notification of patent or utility model registration

Ref document number: 7036079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151