JP7447708B2 - モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム - Google Patents
モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム Download PDFInfo
- Publication number
- JP7447708B2 JP7447708B2 JP2020114595A JP2020114595A JP7447708B2 JP 7447708 B2 JP7447708 B2 JP 7447708B2 JP 2020114595 A JP2020114595 A JP 2020114595A JP 2020114595 A JP2020114595 A JP 2020114595A JP 7447708 B2 JP7447708 B2 JP 7447708B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- network module
- images
- regression
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 84
- 238000013528 artificial neural network Methods 0.000 claims description 163
- 238000004364 calculation method Methods 0.000 claims description 126
- 238000012549 training Methods 0.000 claims description 97
- 238000010801 machine learning Methods 0.000 claims description 71
- 238000012545 processing Methods 0.000 claims description 65
- 238000000605 extraction Methods 0.000 claims description 64
- 230000008569 process Effects 0.000 description 45
- 238000005259 measurement Methods 0.000 description 22
- 210000002569 neuron Anatomy 0.000 description 21
- 238000001514 detection method Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 230000010365 information processing Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 230000000052 comparative effect Effects 0.000 description 10
- 230000007547 defect Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 238000012795 verification Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 5
- 229910000679 solder Inorganic materials 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000007659 motor function Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0008—Industrial image inspection checking presence/absence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Description
図1は、本発明を適用した場面の一例を模式的に例示する。図1に示されるとおり、本実施形態に係る回帰システム100は、モデル生成装置1及び回帰装置2を備えている。
[ハードウェア構成]
<モデル生成装置>
図2は、本実施形態に係るモデル生成装置1のハードウェア構成の一例を模式的に例示する。図2に示されるとおり、本実施形態に係るモデル生成装置1は、制御部11、記憶部12、通信インタフェース13、外部インタフェース14、入力装置15、出力装置16、及びドライブ17が電気的に接続されたコンピュータである。なお、図2では、通信インタフェース及び外部インタフェースを「通信I/F」及び「外部I/F」と記載している。
図3は、本実施形態に係る回帰装置2のハードウェア構成の一例を模式的に例示する。図3に示されるとおり、本実施形態に係る回帰装置2は、制御部21、記憶部22、通信インタフェース23、外部インタフェース24、入力装置25、出力装置26、及びドライブ27が電気的に接続されたコンピュータである。
<モデル生成装置>
図4は、本実施形態に係るモデル生成装置1のソフトウェア構成の一例を模式的に例示する。モデル生成装置1の制御部11は、記憶部12に記憶されたモデル生成プログラム81をRAMに展開する。そして、制御部11は、RAMに展開されたモデル生成プログラム81に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、図4に示されるとおり、本実施形態に係るモデル生成装置1は、データ取得部111、学習処理部112、及び保存処理部113をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、モデル生成装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。
図4に示されるとおり、本実施形態に係るニューラルネットワークモジュール5の一例は、入力層51、1つ以上の中間(隠れ)層52、及び出力層53を備えている。中間層52の数は、実施の形態に応じて適宜決定されてよい。各層51~53は、1又は複数のニューロン(ノード)を備えている。各層51~53に含まれるニューロンの数は、実施の形態に応じて適宜決定されてよい。本実施形態では、各層51~53に含まれる各ニューロンは、隣接する層の全てのニューロンと結合される。これにより、本実施形態に係るニューラルネットワークモジュール5は、全結合型ニューラルネットワークにより構成されている。
図5は、本実施形態に係る回帰装置2のソフトウェア構成の一例を模式的に例示する。回帰装置2の制御部21は、記憶部22に記憶された回帰プログラム82をRAMに展開する。そして、制御部21は、RAMに展開された回帰プログラム82に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、図5に示されるとおり、本実施形態に係る回帰装置2は、画像取得部211、回帰部212、及び出力部213をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、回帰装置2の各ソフトウェアモジュールも、モデル生成装置1と同様に、制御部21(CPU)により実現される。
モデル生成装置1及び回帰装置2の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、モデル生成装置1及び回帰装置2の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、上記ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサ(例えば、グラフィックスプロセッシングユニット)により実現されてもよい。上記各モジュールは、ハードウェアモジュールとして実現されてもよい。また、モデル生成装置1及び回帰装置2それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
[モデル生成装置]
図6は、本実施形態に係るモデル生成装置1による機械学習に関する処理手順の一例を示すフローチャートである。以下で説明するモデル生成装置1の処理手順は、モデル生成方法の一例である。ただし、以下で説明するモデル生成装置1の処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
ステップS101では、制御部11は、データ取得部111として動作し、複数の学習データセット3を取得する。
ステップS102では、制御部11は、学習処理部112として動作し、取得された複数の学習データセット3を使用して、ニューラルネットワークモジュール5の機械学習を実施する。
ステップS103では、制御部11は、保存処理部113として動作し、機械学習により生成された訓練済みのニューラルネットワークモジュール5に関する情報を学習結果データ125として生成する。そして、制御部11は、生成された学習結果データ125を所定の記憶領域に保存する。
図7は、本実施形態に係る回帰装置2による回帰タスクの遂行に関する処理手順の一例を示すフローチャートである。以下で説明する回帰装置2の処理手順は、回帰方法の一例である。ただし、以下で説明する回帰装置2の処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
ステップS201では、制御部21は、画像取得部211として動作し、回帰タスクの対象となる1つ以上の対象画像221を取得する。本実施形態では、制御部21は、外部インタフェース24を介して、1つ以上の対象画像221をカメラSから直接的に取得する。対象画像221は、動画像であってもよいし、静止画像であってもよい。なお、対象画像221を取得する経路は、このような例に限定されなくてよい。他の経路の一例として、カメラSは、他のコンピュータに接続されてよい。この場合、制御部21は、他のコンピュータを介してカメラSから間接的に対象画像221を取得してもよい。1つ以上の対象画像221を取得すると、制御部21は、次のステップS202に処理を進める。
ステップS202では、制御部21は、回帰部212として動作し、学習結果データ125を参照して、訓練済みのニューラルネットワークモジュール5の設定を行う。そして、制御部21は、訓練済みのニューラルネットワークモジュール5を使用して、取得された1つ以上の対象画像221から実数値を回帰する。
ステップS203では、制御部21は、出力部213として動作し、回帰の結果に関する情報を出力する。
以上のとおり、本実施形態に係るモデル生成装置1は、ステップS102の機械学習の逆伝播のフェーズにおいて、ニューラルネットワークモジュール5に含まれる抽出演算を微分可能な代替演算に置き換え、代替演算の微分計算により算出される近似勾配を抽出演算の勾配として採用する。この置き換えにより、微分不可能な抽出演算を含むニューラルネットワークモジュール5の機械学習を適切に実施することができる。また、本実施形態に係る回帰装置2は、ステップS202の回帰処理において、そのような機械学習により生成された訓練済みのニューラルネットワークモジュール5を使用する。この訓練済みのニューラルネットワークモジュール5の回帰演算の過程に抽出演算が含まれていることで、最も確からしい候補以外の他の候補の影響を抑えることができる。上記の一例では、式1~式4の演算により、最も尤度の高い候補値近傍に期待値を算出する範囲を絞ることができる(すなわち、最も尤度の高い候補値から離れた候補値の影響を抑えることができる)。その結果、ステップS202の回帰精度の向上を図ることができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態に係る回帰システム100は、1つ以上の画像から1つ以上の実数値を回帰するあらゆる場面に適用されてよい。具体例として、上記実施形態に係る回帰システム100は、複数の画像間の視差を計測する場面、連続する複数の画像間の動きを計測する場面、画像から対象物を検出する場面等に適用されてよい。以下、適用場面を限定した一具体例を示す。
図8は、第1具体例に係る視差計測システム100Aの適用場面の一例を模式的に例示する。第1具体例は、複数の画像間の視差を計測する場面に上記実施形態を適用した例である。第1具体例に係る視差計測システム100Aは、モデル生成装置1及び視差計測装置2Aを備える。視差計測装置2Aは、上記回帰装置2の一例である。
第1具体例において、モデル生成装置1は、上記実施形態と同様の処理手順により、複数の画像間の視差を回帰する能力を獲得した訓練済みのニューラルネットワークモジュール5を生成することができる。
視差計測装置2Aのハードウェア構成及びソフトウェア構成は、上記実施形態に係る回帰装置2と同様であってよい。第1具体例において、視差計測装置2Aは、上記回帰装置2と同様の処理手順により、複数の画像間の視差を計測することができる。
第1具体例のモデル生成装置1によれば、抽出演算を含み、かつ複数の画像間の視差を回帰する能力を獲得した訓練済みのニューラルネットワークモジュール5を適切に生成することができる。また、視差計測装置2Aでは、訓練済みのニューラルネットワークモジュール5の回帰演算の過程に抽出演算が含まれていることで、複数の対象画像221A間における視差を精度よく計測することができる。
図9は、第2具体例に係る動き計測システム100Bの適用場面の一例を模式的に例示する。第2具体例は、連続的に撮像された複数の画像に写る対象物の動きを計測する場面に上記実施形態を適用した例である。第2具体例に係る動き計測システム100Bは、モデル生成装置1及び動き計測装置2Bを備える。動き計測装置2Bは、上記回帰装置2の一例である。
第2具体例において、モデル生成装置1は、上記実施形態と同様の処理手順により、連続する複数の画像に写る対象物の動きを回帰する能力を獲得した訓練済みのニューラルネットワークモジュール5を生成することができる。
動き計測装置2Bのハードウェア構成及びソフトウェア構成は、上記実施形態に係る回帰装置2と同様であってよい。第2具体例において、動き計測装置2Bは、上記回帰装置2と同様の処理手順により、連続する複数の画像に写る対象物の動きを計測することができる。
第2具体例のモデル生成装置1によれば、抽出演算を含み、かつ連続する複数の画像に写る対象物の動きを回帰する能力を獲得した訓練済みのニューラルネットワークモジュール5を適切に生成することができる。また、動き計測装置2Bでは、訓練済みのニューラルネットワークモジュール5の回帰演算の過程に抽出演算が含まれていることで、連続する複数の対象画像221Bに写る対象物RBの動きを精度よく計測することができる。
図10は、第3具体例における検出システム100Cの適用場面の一例を模式的に例示する。第3具体例は、画像から対象物を検出する場面に上記実施形態を適用した例である。第3具体例に係る検出システム100Cは、モデル生成装置1及び検出装置2Cを備える。検出装置2Cは、上記回帰装置2の一例である。
第3具体例において、モデル生成装置1は、上記実施形態と同様の処理手順により、画像に写る対象物の位置を回帰する能力を獲得した訓練済みのニューラルネットワークモジュール5を生成することができる。
検出装置2Cのハードウェア構成及びソフトウェア構成は、上記実施形態に係る回帰装置2と同様であってよい。第3具体例において、検出装置2Cは、上記回帰装置2と同様の処理手順により、画像から対象物RCを検出することができる。
第3具体例のモデル生成装置1によれば、抽出演算を含み、かつ画像に写る対象物RCの位置を回帰する能力を獲得した訓練済みのニューラルネットワークモジュール5を生成することができる。また、検出装置2Cでは、訓練済みのニューラルネットワークモジュール5の回帰演算の過程に抽出演算が含まれていることで、対象画像221Cに写る対象物RCの位置を精度よく回帰することができる。
ニューラルネットワークモジュール5の構成は、上記実施形態の例に限定されなくてよく、実施の形態に応じて適宜変更されてよい。例えば、各ニューロンは、隣接する層の特定のニューロンと接続されたり、隣接する層以外の層のニューロンと接続されたりしてもよい。各ニューロンの結合関係は、実施の形態に応じて適宜決定されてよい。中間層52は、省略されてもよい。ニューラルネットワークモジュール5は、例えば、畳み込み層、プーリング層、正規化層、ドロップアウト層等の他の種類の層を含んでもよい。ニューラルネットワークモジュール5は、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク等の他の形式のニューラルネットワークにより構成されてよい。
抽出演算の有効性を検証するために、以下の実施例及び比較例に係る訓練済みのニューラルネットワークモジュールを生成した。ただし、本発明は、以下の実施例に限定されるものではない。
11…制御部、12…記憶部、13…通信インタフェース、
14…外部インタフェース、
15…入力装置、16…出力装置、17…ドライブ、
81…モデル生成プログラム、91…記憶媒体、
111…データ取得部、112…学習処理部、
113…保存処理部、
125…学習結果データ、
2…回帰装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…外部インタフェース、
25…入力装置、26…出力装置、27…ドライブ、
82…回帰プログラム、92…記憶媒体、
211…画像取得部、212…回帰部、213…出力部、
221…対象画像、
3…学習データセット、
31…訓練画像、32…正解情報、
5…ニューラルネットワークモジュール、
51…入力層、52…中間(隠れ)層、
53…出力層
Claims (7)
- 1つ以上の訓練画像、及び前記1つ以上の訓練画像から回帰する実数値の正解を示す正解情報の組み合わせによりそれぞれ構成される複数の学習データセットを取得するデータ取得部と、
前記複数の学習データセットを使用して、ニューラルネットワークモジュールの機械学習を実施する学習処理部であって、
前記ニューラルネットワークモジュールは、所定の条件を満たす要素を対象の集合から抽出する演算を含み、
前記機械学習は、前記各学習データセットについて、前記ニューラルネットワークモジュールを使用して前記1つ以上の訓練画像から回帰される値が前記正解情報により示される正解に適合するように前記ニューラルネットワークモジュールを訓練することにより構成され、
前記機械学習の間、前記ニューラルネットワークモジュールの順伝播のフェーズでは、前記抽出する演算をそのまま計算するのに対して、逆伝播のフェーズでは、前記抽出する演算を微分可能な代替演算に置き換え、置き換えられた前記代替演算の微分計算により、前記抽出する演算の微分計算に対応する近似勾配を算出する、
学習処理部と、
を備え、
前記ニューラルネットワークモジュールは、回帰する実数値に対する複数の候補値それぞれの尤度を算出する演算を更に含み、
前記抽出する演算は、算出された各尤度のうちの最大値の要素を抽出することにより構成される、
モデル生成装置。 - 前記1つ以上の訓練画像は、異なる位置から撮像された複数の画像により構成され、
回帰する実数値は、前記複数の画像の間における視差である、
請求項1に記載のモデル生成装置。 - 前記1つ以上の訓練画像は、連続的に撮像された複数の画像により構成され、
回帰する実数値は、前記複数の画像に写る対象物の動きに関する推定値である、
請求項1に記載のモデル生成装置。 - 前記1つ以上の訓練画像は、対象物の写る画像により構成され、
回帰する実数値は、前記対象物の検出位置に関する推定値である、
請求項1に記載のモデル生成装置。 - 1つ以上の対象画像を取得する画像取得部と、
訓練済みのニューラルネットワークモジュールを使用して、取得された前記1つ以上の対象画像から実数値を回帰する回帰部であって、
前記訓練済みのニューラルネットワークモジュールは、1つ以上の訓練画像、及び前記1つ以上の訓練画像から回帰する実数値の正解を示す正解情報の組み合わせによりそれぞれ構成される複数の学習データセットを使用した機械学習により生成されたものであり、
前記ニューラルネットワークモジュールは、所定の条件を満たす要素を対象の集合から抽出する演算を含み、
前記機械学習は、前記各学習データセットについて、前記ニューラルネットワークモジュールを使用して前記1つ以上の訓練画像から回帰される値が前記正解情報により示される正解に適合するように前記ニューラルネットワークモジュールを訓練することにより構成され、
前記機械学習の間、前記ニューラルネットワークモジュールの順伝播のフェーズでは、前記抽出する演算をそのまま計算するのに対して、逆伝播のフェーズでは、前記抽出する演算を微分可能な代替演算に置き換え、置き換えられた前記代替演算の微分計算により、前記抽出する演算の微分計算に対応する近似勾配を算出する、
回帰部と、
回帰の結果に関する情報を出力する出力部と、
を備え、
前記ニューラルネットワークモジュールは、回帰する実数値に対する複数の候補値それぞれの尤度を算出する演算を更に含み、
前記抽出する演算は、算出された各尤度のうちの最大値の要素を抽出することにより構成される、
回帰装置。 - コンピュータが、
1つ以上の訓練画像、及び前記1つ以上の訓練画像から回帰する実数値の正解を示す正解情報の組み合わせによりそれぞれ構成される複数の学習データセットを取得するステップと、
前記複数の学習データセットを使用して、ニューラルネットワークモジュールの機械学習を実施するステップであって、
前記ニューラルネットワークモジュールは、所定の条件を満たす要素を対象の集合から抽出する演算を含み、
前記機械学習は、前記各学習データセットについて、前記ニューラルネットワークモジュールを使用して前記1つ以上の訓練画像から回帰される値が前記正解情報により示される正解に適合するように前記ニューラルネットワークモジュールを訓練することにより構成され、
前記機械学習の間、前記ニューラルネットワークモジュールの順伝播のフェーズでは、前記抽出する演算をそのまま計算するのに対して、逆伝播のフェーズでは、前記抽出する演算を微分可能な代替演算に置き換え、置き換えられた前記代替演算の微分計算により、前記抽出する演算の微分計算に対応する近似勾配を算出する、
ステップと、
を実行し、
前記ニューラルネットワークモジュールは、回帰する実数値に対する複数の候補値それぞれの尤度を算出する演算を更に含み、
前記抽出する演算は、算出された各尤度のうちの最大値の要素を抽出することにより構成される、
モデル生成方法。 - コンピュータに、
1つ以上の訓練画像、及び前記1つ以上の訓練画像から回帰する実数値の正解を示す正解情報の組み合わせによりそれぞれ構成される複数の学習データセットを取得するステップと、
前記複数の学習データセットを使用して、ニューラルネットワークモジュールの機械学習を実施するステップであって、
前記ニューラルネットワークモジュールは、所定の条件を満たす要素を対象の集合から抽出する演算を含み、
前記機械学習は、前記各学習データセットについて、前記ニューラルネットワークモジュールを使用して前記1つ以上の訓練画像から回帰される値が前記正解情報により示される正解に適合するように前記ニューラルネットワークモジュールを訓練することにより構成され、
前記機械学習の間、前記ニューラルネットワークモジュールの順伝播のフェーズでは、前記抽出する演算をそのまま計算するのに対して、逆伝播のフェーズでは、前記抽出する演算を微分可能な代替演算に置き換え、置き換えられた前記代替演算の微分計算により、前記抽出する演算の微分計算に対応する近似勾配を算出する、
ステップと、
を実行させ、
前記ニューラルネットワークモジュールは、回帰する実数値に対する複数の候補値それぞれの尤度を算出する演算を更に含み、
前記抽出する演算は、算出された各尤度のうちの最大値の要素を抽出することにより構成される、
モデル生成プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114595A JP7447708B2 (ja) | 2020-07-02 | 2020-07-02 | モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム |
EP21833036.3A EP4177827A4 (en) | 2020-07-02 | 2021-06-30 | MODEL GENERATING DEVICE, REGRESSION DEVICE, MODEL GENERATION METHOD AND MODEL GENERATION PROGRAM |
US18/002,684 US20230245437A1 (en) | 2020-07-02 | 2021-06-30 | Model generation apparatus, regression apparatus, model generation method, and computer-readable storage medium storing a model generation program |
CN202180044574.7A CN115803774A (zh) | 2020-07-02 | 2021-06-30 | 模型生成装置、回归装置、模型生成方法以及模型生成程序 |
PCT/JP2021/024701 WO2022004773A1 (ja) | 2020-07-02 | 2021-06-30 | モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114595A JP7447708B2 (ja) | 2020-07-02 | 2020-07-02 | モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022012626A JP2022012626A (ja) | 2022-01-17 |
JP7447708B2 true JP7447708B2 (ja) | 2024-03-12 |
Family
ID=79316638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020114595A Active JP7447708B2 (ja) | 2020-07-02 | 2020-07-02 | モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230245437A1 (ja) |
EP (1) | EP4177827A4 (ja) |
JP (1) | JP7447708B2 (ja) |
CN (1) | CN115803774A (ja) |
WO (1) | WO2022004773A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115557550B (zh) * | 2022-08-31 | 2024-02-23 | 达斯玛环境科技(北京)有限公司 | 一种污水预处理方法及系统 |
CN115657580B (zh) * | 2022-12-14 | 2023-03-31 | 北京交科公路勘察设计研究院有限公司 | 基于组合算法的隧道消防水池监控方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018514856A (ja) | 2015-06-05 | 2018-06-07 | グーグル エルエルシー | 空間的変換モジュール |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5271090A (en) * | 1990-03-21 | 1993-12-14 | At&T Bell Laboratories | Operational speed improvement for neural network |
-
2020
- 2020-07-02 JP JP2020114595A patent/JP7447708B2/ja active Active
-
2021
- 2021-06-30 US US18/002,684 patent/US20230245437A1/en active Pending
- 2021-06-30 WO PCT/JP2021/024701 patent/WO2022004773A1/ja active Application Filing
- 2021-06-30 EP EP21833036.3A patent/EP4177827A4/en active Pending
- 2021-06-30 CN CN202180044574.7A patent/CN115803774A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018514856A (ja) | 2015-06-05 | 2018-06-07 | グーグル エルエルシー | 空間的変換モジュール |
Also Published As
Publication number | Publication date |
---|---|
JP2022012626A (ja) | 2022-01-17 |
EP4177827A1 (en) | 2023-05-10 |
EP4177827A4 (en) | 2024-02-28 |
CN115803774A (zh) | 2023-03-14 |
WO2022004773A1 (ja) | 2022-01-06 |
US20230245437A1 (en) | 2023-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970559B2 (en) | People flow estimation device, people flow estimation method, and recording medium | |
JP7339029B2 (ja) | モーション認識モデルを用いた自体運動推定装置及び方法並びにモーション認識モデルトレーニング装置及び方法 | |
CN112991413A (zh) | 自监督深度估测方法和系统 | |
CN104599287B (zh) | 对象跟踪方法和装置、对象识别方法和装置 | |
KR20190031318A (ko) | 도메인 분리 뉴럴 네트워크들 | |
JP2014522035A (ja) | オブジェクト姿勢検索装置及び方法 | |
CN110263920B (zh) | 卷积神经网络模型及其训练方法和装置、巡检方法和装置 | |
CN111695402A (zh) | 用于标注3d点云数据中人体姿态的工具和方法 | |
EP4078523A1 (en) | System, method and computer program product for determining sizes and/or 3d locations of objects imaged by a single camera | |
JP7447708B2 (ja) | モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム | |
US11625852B1 (en) | Object pose neural network system | |
WO2020033345A1 (en) | Action localization using relational features | |
CN113642431A (zh) | 目标检测模型的训练方法及装置、电子设备和存储介质 | |
CN104850219A (zh) | 估计附着物体的人体姿势的设备和方法 | |
US20230281966A1 (en) | Semi-supervised keypoint based models | |
CN110059646A (zh) | 训练动作规划模型的方法及目标搜索方法 | |
JP7434829B2 (ja) | モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム | |
Ishihara et al. | Deep radio-visual localization | |
CN114937177A (zh) | 自动打标、检测模型训练及目标识别方法、和电子设备 | |
JP2005078528A (ja) | 物体検出装置及び方法 | |
CN114663503A (zh) | 从图像进行三维位置预测 | |
CN107481263B (zh) | 乒乓球目标跟踪方法、装置、存储介质和计算机设备 | |
JP2021077177A (ja) | 動作認識装置、動作認識方法及び動作認識プログラム | |
Chen et al. | An integrated sensor network method for safety management of construction workers | |
WO2020028068A1 (en) | Learning template representation libraries |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7447708 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |