JP2020080050A - 訓練装置、訓練方法及びプログラム - Google Patents
訓練装置、訓練方法及びプログラム Download PDFInfo
- Publication number
- JP2020080050A JP2020080050A JP2018213039A JP2018213039A JP2020080050A JP 2020080050 A JP2020080050 A JP 2020080050A JP 2018213039 A JP2018213039 A JP 2018213039A JP 2018213039 A JP2018213039 A JP 2018213039A JP 2020080050 A JP2020080050 A JP 2020080050A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- data
- rendering
- abstract
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】大規模なネットワークの学習を高速かつ高精度で実行する。【解決手段】訓練装置は、抽象層およびレンダリング層を備えるモデルを訓練する装置であって、入力データを抽象化した抽象データを前記抽象層に入力して得られる特徴量マップをサンプリングする、サンプリング部と、前記サンプリングされた特徴量マップを前記レンダリング層に入力してレンダリング結果を出力する、レンダリング部と、前記レンダリング結果と、教師データと、に基づいて逆伝播を行い、前記抽象層と前記レンダリング層とを更新する、逆伝播部と、を備える。【選択図】図1
Description
本発明は、訓練装置、訓練方法及びプログラムに関する。
ディープラーニング等の機械学習の発展により、推定モデルを形成するネットワークは、大規模なものへと変遷してきている。このため、大規模なネットワークを高速に学習する手法を確立することが重要な課題となっている。例えば、初期に比較的小規模なネットワークを学習し、次第に大規模にしていくことでネットワークの大規模化を図る手法が知られている。しかしながら、学習時間ごとに、モデルを増大させるパラメータを決定する必要がある。また、大規模なネットワークを形成する際に、小規模なネットワークを形成した際に用いたデータの密度、粒度、解像度等を上げてネットワークを拡大していくと、そのデータの格納、演算等に必要となるメモリが逼迫され、適宜バッチサイズを調節する必要がある。
T. Karras et. al., "Progressive Growing of GANs for Improved Quality, Stability, and Variation," [インターネット] arXive:1710.10196, v3, https://arxiv.org/abs/1710.10196
本発明の実施形態は、大規模なネットワークの学習を高速かつ高精度で実行する、訓練装置、訓練方法及びプログラムを提供する。
一実施形態によれば、訓練装置は、抽象層およびレンダリング層を備えるモデルを訓練する装置であって、入力データを抽象化した抽象データを前記抽象層に入力して得られる特徴量マップをサンプリングする、サンプリング部と、前記サンプリングされた特徴量マップを前記レンダリング層に入力してレンダリング結果を出力する、レンダリング部と、前記レンダリング結果と、教師データと、に基づいて逆伝播を行い、前記抽象層と前記レンダリング層とを更新する、逆伝播部と、を備える。
以下、図面を参照して一実施形態について説明する。
図1は、一実施形態に係る訓練装置1の機能を示すブロック図である。訓練装置1は、入力部100と、抽象データ生成部102と、サンプリング部104と、レンダリング部106と、逆伝播部108と、出力部110と、記憶部112と、を備え、学習を行うことにより推定モデルを生成する。訓練装置1は、抽象レイヤ(抽象層)と、レンダリングレイヤ(レンダリング層)と、を少なくとも備えるニューラルネットワークモデルの訓練を行う。
入力部100は、訓練データの入力を受け付ける。入力されるデータは、ユーザがファイルにより入力してもよいし、訓練装置1の内部又は外部に存在するデータベース等から取得してもよい。
抽象データ生成部102は、入力データ、又は、前の層において出力されたデータを抽象化する。抽象化とは、入力されたデータを、入力データよりも疎である抽象データにすることを言う。例えば、入力データが画像データである場合には、より解像度の低い画像データに変換することを言う。
例えば、抽象データ生成部120は、ニューラルネットワークにより生成され、データを入力するとデータを抽象化し、その特徴量マップを出力する隠れ層を備える。
別の例としては、データの抽象化を抽象データ生成部120で行い、ニューラルネットワークモデルのうち、抽象データを扱う抽象レイヤに入力される。抽象レイヤ(抽象層)は、抽象化されたデータについての隠れ層であり、例えば、入力層に続く1又は複数の抽象レイヤを経ることにより、抽象データの特徴量マップを取得する。
このように、ネットワーク内の抽象レイヤという隠れ層において、データの抽象化と特徴量マップの取得を実行するようにしてもよいし、抽象レイヤに入力する抽象データの生成は、ルールベースで行い、その後、抽象データを抽象レイヤに入力し、特徴量マップを取得するようにしてもよい。
サンプリング部104は、1又は複数の抽象レイヤにより抽象データから得られた特徴量マップから確率的にサンプリングを行い、サンプリングされた抽象データの特徴量を取得する。ここでいうサンプリングとは、画像データである場合には、例えば、所定のサイズとなるようにクロッピングされたデータを取得する処理であり、動画データである場合には、例えば、所定数ごとにフレームを抽出する処理である。
レンダリング部106は、サンプリング部104がサンプリングしたデータをレンダリングする。レンダリングとは、例えば、画像、映像等を生成する処理のこと言うが、これには限られず、入力データの特徴量マップをデコードした場合に得られるデータから、出力データの形式へと再構成する処理のことを表す。出力データの形式とは、例えば、敵対的生成ネットワーク(GAN:Generative Adversarial Network)であれば、データセットと同じ形式であってもよい。識別器であれば、識別された対象を示すデータであってもよい。この他、他のネットワークにおいても、それぞれモデルから出力されるデータの形式のことを示す。
逆伝播部108は、レンダリング部106が出力したレンダリングデータと、入力データに対応する教師データのうち、同じ条件の下でサンプリングしたサンプリングデータとを比較して、損失を算出する。算出された損失に基づいて勾配を算出して逆伝播させて誤差逆伝播を実行し、ネットワークの各層におけるパラメータを更新する。例えば、抽象レイヤと、レンダリング部106内において、レンダリングを行う層であるレンダリング層のパラメータが更新される。なお、これには限られず、他の層が存在し、当該層のパラメータを更新してもよい。
逆伝播部108によるパラメータの更新が反復的に実行され、モデルの学習が終了した後、出力部110は、更新された抽象レイヤを含むネットワークを出力する。なお、出力するのではなく、記憶部112に学習済みモデルに関するパラメータ等を格納してもよい。図1においては抽象レイヤのみが示されているが、これには限られず、学習済みモデルは、他の一般的なレイヤを含むニューラルネットワークであってもよい。
なお、訓練装置1には、逆伝播部108とは別個に、損失算出部、勾配算出部及びパラメータ更新部の少なくとも1つが備えられていてもよい。この場合、損失算出部が算出した損失に基づいて勾配算出部が各レイヤにおける勾配を算出し、この勾配に基づいて逆伝播部108がネットワークについて誤差逆伝播を実行し、この逆伝播によりパラメータ更新部がパラメータを更新してもよい。
図2は、訓練されるモデルを中心に、データのフローを示す図である。訓練時と推定時のそれぞれのデータの流れが示されている。図2の下方に示される訓練時において、入力データは、入力層に入力されると、何らかの処理をした後のデータ、又は、入力データそのものから、抽象データ生成部102により、疎なデータである抽象データへと変換される。
抽象データは、抽象レイヤにおいて、入力データよりも疎な状態の特徴量マップへと変換される。疎な特徴量マップは、サンプリング部104により確率的にサンプリングされ、サンプリングデータが生成される。
サンプリングデータは、レンダリング部106においてレンダリングされ、出力層から出力される。出力されたデータは、教師データの同じ条件でサンプリングしたデータと比較され、損失、勾配が算出されて逆伝播に用いられる。抽象レイヤは、このように逆伝播部108によりパラメータが更新されていく。必要なだけの反復演算が終了すると、出力部110から訓練されたモデルのデータ(例えば、学習済みの入力層、抽象層、出力層のパラメータ)が出力される。
図2の上方に示される推定時には、出力部110が出力したモデルのデータに基づきモデルを生成する。例えば、抽象レイヤにおける抽象データが入力されると疎な特徴量マップが生成され、この特徴量マップをレンダリングによりデコードするネットワークが学習済みモデルとして生成される。この学習済みモデルに入力データが入力されることにより、出力層からレンダリング後の出力データが出力される。すなわち、推定装置には、訓練装置1からサンプリング部104の機能を取り除いたものが備えられる。
図3は、訓練時における処理の流れを示すフローチャートである。この図3を用いて訓練装置1の処理について説明する。
まず、入力部100は、入力データを受け付ける(S100)。入力データは、例えば、画像と、当該画像に対して出力される画像である。上述したように、データの形式は、画像に限られるものではなく、動画、音声、文字、文章等、所謂学習済みモデルに入力されるデータであればよい。このようなデータの種類は、訓練するモデルに基づいて変更される。
次に、抽象データ生成部102は、入力データを抽象化する(S102)。抽象化により、入力データは、より疎なデータへと変換される。上述したように、入力データが画像であれば、解像度の低いデータ、動画であれば、フレームを飛ばしたデータ又は解像度の低いデータ等を抽象データとして生成する。
次に、抽象レイヤに抽象データを入力して、抽象データの特徴量マップを取得する(S104)。特徴量マップの取得は、抽象レイヤに抽象データを順伝播させることにより実行される。
次に、サンプリング部104は、得られた特徴量マップを確率的にサンプリングする(S106)。このサンプリングは、例えば、サブサンプリング処理であり、画像データであれば、クロッピング、動画データであれば、所定のフレームごとに抜き出す処理等を示す。また、演算を行っているバッチ数を削減してサンプリングをしてもよい。
次に、レンダリング部106は、サンプリングされた特徴量マップをレンダリングする(S108)。例えば、レンダリング部106にネットワークを備え、入力されたデータをエンコードすることによりレンダリングデータを取得する。このように、サンプリングされたデータ領域についてレンダリングすることにより、演算に用いるメモリ量、リソース量及び演算時間等の演算コストの削減を図ることが可能となる。さらに、このように演算コストを削減し、より多くの演算を並列に処理することにより、予測精度を向上することにも繋がる。
次に、逆伝播部108は、逆伝播をしてネットワークを更新する(S110)。まず、レンダリング部106がレンダリングしたデータと、入力部100が受け付けた教師データのうち抽象データと同じ条件でサンプリングしたデータと、を比較して損失が算出される。この損失に基づいて各パラメータについての勾配が算出され、この勾配に基づいて逆伝播してパラメータを更新する。このように、抽象レイヤ、レンダリング部106内のレイヤ、及び、その他必要となるレイヤのパラメータが各々更新される。
次に、訓練装置1は、訓練が終了したか否かを判断する(S112)。訓練の終了は、例えば、上記で算出された損失が所定値を下回った、正解率、適合率、再現率が所定値を上回った等の評価値により判断してもよいし、所定数のエポックの訓練が終了した等の終了条件により判断してもよい。
訓練が終了していないと判断された場合(S112:NO)、S104からの処理が繰り返される。
訓練が終了したと判断された場合(S112:YES)、適切に、学習済みモデル、又は、学習済みモデルの構築に必要なパラメータ等、ネットワークを再構成するのに必要な学習結果のデータが適切な箇所へと出力される(S114)。
上記の訓練処理は、一般的な機械学習の手法に適用される。例えば、用いるネットワークの種類は、MLP(Multi-Layer Perceptron)、CNN(Convolutional Neural Network)、また、形式として判定器、又は、生成器(例えばGAN)等、逆伝播により訓練され、抽象データを用いることが可能なものであればどのようなものであってもよいし、同様に、訓練手法についても、ミニバッチ処理を使用する等の一般的な手法を用いてもよい。勾配も、Adam、SGD等、任意の手法を用いることができるし、活性化関数についても勾配を適切に求められるものであればどのようなものを用いてもよい。
推定装置は、訓練装置1により学習されたモデルを用いて、推定を行う。この推定は、サンプリングブロックを用いずに、データを抽象データへと変換し、抽象データの特徴量マップを取得した後、この特徴量マップをレンダリングすることにより出力データを取得する。
以上のように、本実施形態によれば、入力データを抽象データへと変換し、この抽象データを入力とする抽象レイヤを備えるネットワークにより特徴量マップを生成し、さらに、サンプリングしてレンダリングを行うことにより、レンダリングを高速、低リソースで実行することが可能となる訓練装置が実現される。
上述では、1組の抽象レイヤを備え、サンプリングを1回行う例について説明したが、これには限られない。図4は、本実施形態の別の例に係るネットワーク構成を示す図である。
図4に示すように、様々なサンプリングレートにおける抽象レイヤが複数存在していてもよい。まず、入力データは、抽象化され、第1抽象層に入力される。第1抽象層において、第1特徴量マップを取得した後、第1特徴量マップをサンプリングする。サンプリングされた第1特徴量マップは、第2抽象層へと入力される。
第2抽象層へと入力される前に、サンプリングされた第1特徴量は、ルールベースにより密なデータへと変換されてもよい。例えば、1024×1024ピクセルの画像データが入力される場合、当該画像データが32×32の疎なデータとして抽象化され、第1抽象層へ入力される。第1抽象層の出力である第1特徴量マップは、32×32のマップであるとする。このマップのうち、サンプリングにより16×16の領域が取得される。そして、この16×16の領域を32×32のより密なデータへと変換して、第2抽象層へと入力される。このように、各抽象層へと入力されるデータがサンプリングされた次の抽象層へと入力される段階で少しずつ密なデータへと変換してもよい。
別の例として、動画である場合には、第1特徴量マップは、32フレームごとに抽出されたフレームの全体的なデータの特徴量マップであり、徐々に、16フレームごと、8フレームごと、と、密な特徴量マップを取得する。
別の例として、第2抽象層へとサンプリングされた第1特徴量マップがそのまま入力され、第2特徴量マップとして、第1特徴量マップよりも密なデータが出力されるようにネットワークを形成してもよい。この場合、明示的に密なデータへと変換するのではなく、ネットワークを介することにより密なデータへと変換される。
取得された第2特徴量マップは、同様にサンプリングされ、第3抽象層へと入力される。このような処理を第L抽象層まで繰り返し、各抽象層において特徴量マップを取得する。
本実施形態では、上記のように、前の層よりも密な特徴量マップが取得されるようにネットワークが形成される。第L抽象層において特徴量マップが取得されると、各抽象層において取得された特徴量マップがレンダリングされる。このレンダリング結果と、教師データを各層において同じ条件でサンプリングした結果と、を比較して、勾配を算出して逆伝播を実行する。逆伝播により、各抽象層を含むネットワーク全体のパラメータが更新される。
訓練は、前述した形態と同様に、終了条件に基づいて終了が判断され、訓練終了のタイミングで学習されたモデルが出力される。図4の場合におけるデータの流れは、原則図1と同様であるが、図1内において破線で示されるように、サンプリング部104から抽象データ生成部102へのデータの流れが存在する。
図5は、抽象層が複数ある場合の処理を示すフローチャートである。同じ符号がついている処理は、図3に示す処理とほぼ同等の処理を示す。
入力データが抽象化される(S102)、この抽象化されたデータは、第1抽象層へと入力されて、第1特徴量マップが取得され(S104)、この第1特徴量マップがサンプリングされる(S106)。第1抽象層が最終層であるか否かを判断し(S116)、第1抽象層が最終層ではない場合(S116:NO)、サンプリングされた第1特徴量マップが第2抽象層へと入力され、第2特徴量マップを取得する(S104)。上述した例のように明示的に密なデータへと変換する場合、S104の前に密なデータへと変換する処理を実行する。
図1には、1つの抽象データ生成部102と、1つのサンプリング部104とが示されているがこれには限られず、各抽象層に対応して第1サンプリング部、第2サンプリング部、・・・、等が備えら得ていてもよい。また、本実施形態においては、抽象データ生成部102は、上述したように、第1抽象層に入力するための疎なデータを生成することは前述の実施形態と同様であるが、第2抽象層以降の抽象層に入力するための前層において出力された特徴量マップよりも密な抽象データを生成するものであってもよい。
第2抽象層において同様な処理が行われた後、第3抽象層、第4抽象層、・・・と、最終層になるまでS104、S106、S116の処理が繰り返される。最終層である第L層まで特徴量マップが取得されると(S116:YES)、各層において出力された特徴量マップはレンダリング部106によりレンダリングされ(S108)、逆伝播部108により、パラメータが更新される(S110)。
最終層においては、S106を省略し、サンプリングを実行しなくてもよい。また、S108において全ての層の特徴量マップからレンダリングを行っているが、これには限られず、各層において、S108でレンダリングして、次の層の処理へと遷移してもよい。
なお、上記の説明において抽象層として記載しているが、これは、必ずしも1層を示すものではなく、複数の層を備えるネットワークであってもよい。すなわち、各抽象層が複数の隠れ層を有するネットワークであってもよい。
以上のように、本実施形態によっても、前述した実施形態と同様に、抽象レイヤを用いてより疎なデータから高効率、高精度な結果を取得するネットワークを訓練することが可能である。
さらに、抽象層を多層化した本実施形態によれば、疎なデータから徐々に密なデータへと処理を行い、最終的には、入出力データと同様の密度のデータへと処理が実行される。低次の層においては、全体的な特徴量マップを取得し、高次になるにつれ、サンプリングされた領域におけるより密な、すなわち、前の層よりも精密さの高い特徴量マップを取得する。このように、本実施形態では、疎ではあるが全体の特徴を捉えるサンプルから、蜜ではあるが局所的な特徴を捉えるサンプルまでを複数生成することにより、精度を保ちつつ高速な学習が可能となる。
本実施形態は、例えば、長軸・高解像度な動画を扱うGANに適用することが可能である。まず、ジェネレータがノイズベクトルから抽象レイヤを生成する。この抽象レイヤは、サンプリング部104によりサンプリングされた後に、レンダリング部106において、部分的な出力サンプル、例えば、部分的な動画を生成する。一方、ディスクリミネータは、部分的な出力のサンプルと、同じ条件でサンプリングされた部分的な動画から、対象のサンプルが本物であるか偽物であるかを識別するネットワークを生成するように訓練される。
前述した実施形態における訓練装置1において、各機能は、アナログ回路、デジタル回路又はアナログ・デジタル混合回路で構成された回路であってもよい。また、各機能の制御を行う制御回路を備えていてもよい。各回路の実装は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等によるものであってもよい。
上記の全ての記載において、訓練装置1の少なくとも一部はハードウェアで構成されていてもよいし、ソフトウェアで構成され、ソフトウェアの情報処理によりCPU(Central Processing Unit)等が実施をしてもよい。ソフトウェアで構成される場合には、訓練装置1、予測装置2及びその少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記憶媒体に収納し、コンピュータに読み込ませて実行させるものであってもよい。記憶媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記憶媒体であってもよい。すなわち、ソフトウェアによる情報処理がハードウェア資源を用いて具体的に実装されるものであってもよい。さらに、ソフトウェアによる処理は、FPGA等の回路に実装され、ハードウェアが実行するものであってもよい。ジョブの実行は、例えば、GPU(Graphics Processing Unit)等のアクセラレータを使用して行ってもよい。
例えば、コンピュータが読み取り可能な記憶媒体に記憶された専用のソフトウェアをコンピュータが読み出すことにより、コンピュータを上記の実施形態の装置とすることができる。記憶媒体の種類は特に限定されるものではない。また、通信ネットワークを介してダウンロードされた専用のソフトウェアをコンピュータがインストールすることにより、コンピュータを上記の実施形態の装置とすることができる。こうして、ソフトウェアによる情報処理が、ハードウェア資源を用いて、具体的に実装される。
図6は、本発明の一実施形態におけるハードウェア構成の一例を示すブロック図である。訓練装置1は、プロセッサ71と、主記憶装置72と、補助記憶装置73と、ネットワークインタフェース74と、デバイスインタフェース75と、を備え、これらがバス76を介して接続されたコンピュータ装置7として実現できる。
なお、図6のコンピュータ装置7は、各構成要素を一つ備えているが、同じ構成要素を複数備えていてもよい。また、1台のコンピュータ装置7が示されているが、ソフトウェアが複数のコンピュータ装置にインストールされて、当該複数のコンピュータ装置それぞれがソフトウェアの異なる一部の処理を実行してもよい。
プロセッサ71は、コンピュータの制御装置および演算装置を含む電子回路(処理回路、Processing circuit、Processing circuitry)である。プロセッサ71は、コンピュータ装置7の内部構成の各装置などから入力されたデータやプログラムに基づいて演算処理を行い、演算結果や制御信号を各装置などに出力する。具体的には、プロセッサ71は、コンピュータ装置7のOS(Operating System)や、アプリケーションなどを実行することにより、コンピュータ装置7を構成する各構成要素を制御する。プロセッサ71は、上記の処理を行うことができれば特に限られるものではない。訓練装置1及びそれらの各構成要素は、プロセッサ71により実現される。ここで、処理回路とは、1チップ上に配置された1又は複数の電気回路を指してもよいし、2つ以上のチップあるいはデバイス上に配置された1又は複数の電気回路を指してもよい。
主記憶装置72は、プロセッサ71が実行する命令および各種データなどを記憶する記憶装置であり、主記憶装置72に記憶された情報がプロセッサ71により直接読み出される。補助記憶装置73は、主記憶装置72以外の記憶装置である。なお、これらの記憶装置は、電子情報を格納可能な任意の電子部品を意味するものとし、メモリでもストレージでもよい。また、メモリには、揮発性メモリと、不揮発性メモリがあるが、いずれでもよい。訓練装置1内において各種データを保存するためのメモリ、例えば、記憶部112は、主記憶装置72または補助記憶装置73により実現されてもよい。例えば、前述した各記憶部の少なくとも一部は、この主記憶装置72又は補助記憶装置73に実装されていてもよい。別の例として、アクセラレータが備えられている場合には、前述した各記憶部の少なくとも一部は、当該アクセラレータに備えられているメモリ内に実装されていてもよい。
ネットワークインタフェース74は、無線または有線により、通信ネットワーク8に接続するためのインタフェースである。ネットワークインタフェース74は、既存の通信規格に適合したものを用いればよい。ネットワークインタフェース74により、通信ネットワーク8を介して通信接続された外部装置9Aと情報のやり取りが行われてもよい。
外部装置9Aは、例えば、カメラ、モーションキャプチャ、出力先デバイス、外部のセンサ、入力元デバイスなどが含まれる。また、外部装置9Aは、訓練装置1の構成要素の一部の機能を有する装置でもよい。そして、コンピュータ装置7は、訓練装置1の処理結果の一部を、クラウドサービスのように通信ネットワーク8を介して受け取ってもよい。
デバイスインタフェース75は、外部装置9Bと直接接続するUSB(Universal Serial Bus)などのインタフェースである。外部装置9Bは、外部記憶媒体でもよいし、ストレージ装置でもよい。各記憶部は、外部装置9Bにより実現されてもよい。
外部装置9Bは出力装置でもよい。出力装置は、例えば、画像を表示するための表示装置でもよいし、音声などを出力する装置などでもよい。例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、PDP(Plasma Display Panel)、スピーカなどがあるが、これらに限られるものではない。
なお、外部装置9Bは入力装置でもよい。入力装置は、キーボード、マウス、タッチパネルなどのデバイスを備え、これらのデバイスにより入力された情報をコンピュータ装置7に与える。入力装置からの信号はプロセッサ71に出力される。
上記の全ての記載に基づいて、本発明の追加、効果又は種々の変形を当業者であれば想到できるかもしれないが、本発明の態様は、上記した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容及びその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲において種々の追加、変更及び部分的削除が可能である。例えば、前述した全ての実施形態において、説明に用いた数値は、一例として示したものであり、これらに限られるものではない。
1:訓練装置、100:入力部、102:抽象データ生成部、104:サンプリング部、106:レンダリング部、108:逆伝播部、110:出力部、112:記憶部
Claims (10)
- 抽象層およびレンダリング層を備えるモデルを訓練する装置であって、
入力データを抽象化した抽象データを前記抽象層に入力して得られる特徴量マップをサンプリングする、サンプリング部と、
前記サンプリングされた特徴量マップを前記レンダリング層に入力してレンダリング結果を出力する、レンダリング部と、
前記レンダリング結果と、教師データと、に基づいて逆伝播を行い、前記抽象層と前記レンダリング層とを更新する、逆伝播部と、
を備える、訓練装置。 - 前記入力データを抽象化して前記抽象データを生成する、抽象データ生成部をさらに備える、請求項1に記載の訓練装置。
- 前記抽象データは、前記入力データ及び前記教師データよりも疎なデータである、請求項1又は請求項2に記載の訓練装置。
- 前記サンプリング部は、前記特徴量マップを確率的にサブサンプリングする、請求項1乃至請求項3のいずれかに記載の訓練装置。
- 前記逆伝播部は、前記レンダリング結果と、前記レンダリング部がレンダリングした前記特徴量マップと同じ条件で前記教師データをサンプリングしたデータと、に基づいて、逆伝播する、請求項1乃至請求項4のいずれかに記載の訓練装置。
- 前記逆伝播部は、前記レンダリング結果と、前記教師データとの間の損失を算出し、前記損失の勾配を算出し、前記勾配に基づいて逆伝播する、請求項1乃至請求項5のいずれかに記載の訓練装置。
- 複数の前記抽象層と、複数の前記レンダリング層とを備えるモデルであって、前記抽象層のそれぞれが異なる密度のデータについて前記特徴量マップを出力するモデルを訓練する、請求項1乃至請求項6のいずれかに記載の訓練装置。
- 請求項1乃至請求項7のいずれかに記載の訓練装置により訓練された、前記抽象層と、前記レンダリング層と、を備える学習済みモデルを備える、推定装置。
- 抽象層及びレンダリング層を備えるモデルを訓練する方法であって、
入力データを抽象化した抽象データを、前記抽象層に入力して特徴量マップを出力し、
前記特徴量マップをサンプリングし、
前記サンプリングされた特徴量マップを前記レンダリング層に入力してレンダリングし、
前記レンダリングした結果と、教師データと、に基づいて、逆伝播を行う、
訓練方法。 - コンピュータに、
抽象層及びレンダリング層を備えるモデルを訓練させる手段であって、
入力データを抽象化した抽象データを前記抽象層に入力して得られる特徴量マップをサンプリングする、サンプリング手段、
前記サンプリングされた特徴量マップをレンダリング層に入力してレンダリング結果を出力する、レンダリング手段、
前記レンダリング結果と、教師データと、に基づいて逆伝播を行い、前記抽象層と、前記レンダリング層とを更新する、逆伝播手段、
を備える手段、
として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018213039A JP2020080050A (ja) | 2018-11-13 | 2018-11-13 | 訓練装置、訓練方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018213039A JP2020080050A (ja) | 2018-11-13 | 2018-11-13 | 訓練装置、訓練方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020080050A true JP2020080050A (ja) | 2020-05-28 |
Family
ID=70801811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018213039A Pending JP2020080050A (ja) | 2018-11-13 | 2018-11-13 | 訓練装置、訓練方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020080050A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023051757A (ja) * | 2021-09-30 | 2023-04-11 | ウーブン・アルファ株式会社 | 車両データ収集システム及びその使用方法 |
-
2018
- 2018-11-13 JP JP2018213039A patent/JP2020080050A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023051757A (ja) * | 2021-09-30 | 2023-04-11 | ウーブン・アルファ株式会社 | 車両データ収集システム及びその使用方法 |
JP7382465B2 (ja) | 2021-09-30 | 2023-11-16 | ウーブン・バイ・トヨタ株式会社 | 車両データ収集システム及びその使用方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10878284B2 (en) | Method and apparatus for training image model, and method and apparatus for category prediction | |
JP2023547917A (ja) | 画像分割方法、装置、機器および記憶媒体 | |
KR102322773B1 (ko) | 전극편의 버를 검출하기 위한 방법 및 장치 | |
CN112581361B (zh) | 图像风格迁移模型的训练方法、图像风格迁移方法及装置 | |
WO2020093724A1 (zh) | 生成信息的方法和装置 | |
CN113689372A (zh) | 图像处理方法、设备、存储介质及程序产品 | |
CN112381717A (zh) | 图像处理方法、模型训练方法、装置、介质及设备 | |
CN114964296B (zh) | 车辆行驶路径规划方法、装置、设备和计算机可读介质 | |
CN110992395B (zh) | 图像训练样本的生成方法及装置、运动跟踪方法及装置 | |
CN113034648A (zh) | 图像处理方法、装置、设备和存储介质 | |
CN112183627A (zh) | 生成预测密度图网络的方法和车辆年检标数量检测方法 | |
CN114330236A (zh) | 文字生成方法、装置、电子设备及存储介质 | |
CN114762004A (zh) | 数据生成方法、数据生成装置、模型生成方法、模型生成装置及程序 | |
CN111916050A (zh) | 语音合成方法、装置、存储介质和电子设备 | |
CN112712121B (zh) | 一种图像识别模型训练方法、装置及存储介质 | |
CN112785669A (zh) | 一种虚拟形象合成方法、装置、设备及存储介质 | |
CN115587523A (zh) | 高动态空间自适应流体仿真方法、设备及存储介质 | |
JP2020080050A (ja) | 訓練装置、訓練方法及びプログラム | |
CN113570695B (zh) | 一种图像生成方法、装置及电子设备 | |
CN113194270B (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN115937356A (zh) | 图像处理方法、装置、设备及介质 | |
WO2024131652A1 (zh) | 特效处理方法、装置、电子设备及存储介质 | |
CN112036517B (zh) | 图像缺陷分类方法、装置及电子设备 | |
CN115731341A (zh) | 三维人头重建方法、装置、设备及介质 | |
CN114037772A (zh) | 一种图像生成器的训练方法、图像生成方法及装置 |