JP2022015236A - 学習装置、学習済みモデルの生成方法および学習プログラム - Google Patents

学習装置、学習済みモデルの生成方法および学習プログラム Download PDF

Info

Publication number
JP2022015236A
JP2022015236A JP2020117942A JP2020117942A JP2022015236A JP 2022015236 A JP2022015236 A JP 2022015236A JP 2020117942 A JP2020117942 A JP 2020117942A JP 2020117942 A JP2020117942 A JP 2020117942A JP 2022015236 A JP2022015236 A JP 2022015236A
Authority
JP
Japan
Prior art keywords
difference
displacement
loss
machine learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020117942A
Other languages
English (en)
Other versions
JP7315929B2 (ja
Inventor
誠明 松村
Masaaki Matsumura
良規 草地
Yoshinori Kusachi
健太 秋田
Kenta Akita
哲 丸山
Satoru Maruyama
有紀 森本
Yuki Morimoto
玲治 鶴野
Reiji Tsuruno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Nippon Telegraph and Telephone Corp filed Critical Kyushu University NUC
Priority to JP2020117942A priority Critical patent/JP7315929B2/ja
Publication of JP2022015236A publication Critical patent/JP2022015236A/ja
Application granted granted Critical
Publication of JP7315929B2 publication Critical patent/JP7315929B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】対象物の変位に係る量を出力する機械学習モデルの学習に要する時間を短縮する。【解決手段】推論実行部は、機械学習モデルを用いて、対象物の変位に係る量の時系列を示す入力サンプルから、対象物の変位に係る量の推定値を算出する。機械学習モデルは、所定の時間幅における対象物の変位に係る量の時系列を入力し、時間幅の少なくとも一部の時刻における対象物の変位に係る量を出力するものである。第2差分算出部は、推定値を1階以上微分した値と出力サンプルを1階以上微分した値との差分である第2差分を算出する。損失算出部は、第2差分に対して出力が単調増加する損失関数を用いて、損失値を算出する。更新部は、損失値に基づいて、機械学習モデルのパラメータを更新する。【選択図】図2

Description

本開示は、学習装置、学習済みモデルの生成方法および学習プログラムに関する。
被写体にセンサを取り付けることなく、モーションキャプチャを実現するマーカーレスモーションキャプチャという技術が知られている。マーカーレスモーションキャプチャは、複数地点に設置した時間同期カメラで撮影した映像に基づいて、二次元姿勢推定と三角測量とを用いることで被写体の関節回転角を推定する技術である。
一方で、被写体とカメラとの距離が遠い場合など、二次元姿勢推定において推定誤差が大きくなると、三角測量で求める被写体の関節座標がフレームごとに大きく振動し、被写体のモーションにノイズが生じる。非特許文献1、2には、このノイズを除去する技術が開示されている。
T. Ohashi, Y. Ikegami, K. Yamamoto, W. Takano and Y. Nakamura, "Video Motion Capture from the Part Confidence Maps of Multi-Camera Images by Spatiotemporal Filtering Using the Human Skeletal Model," 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Madrid, 2018, pp. 4226-4231. U Mall, GR Lal, S Chaudhuri, P Chaudhuri, "A deep recurrent framework for cleaning motion capture data", arXiv preprint arXiv:1712.03380, 2017.
非特許文献1に記載の手法は、関節座標に対してローパスフィルタを適用することでノイズ除去を行うものである。しかしながら、非特許文献1に記載の手法では、ローパスフィルタの強度を強めると、ノイズのみならず、実際の微細な動作まで除去されてしまう可能性がある。
非特許文献2に記載の手法は、ノイズが激しい環境においてもモーションの再現性を高めるために、機械学習技術を用いてノイズを除去するものである。しかしながら、非特許文献2に記載の手法に係る機械学習モデルの出力は被写体の関節ごとの回転角であるため、正解データとの誤差を平均損失として最小化するよう学習すると、学習に膨大な時間を要することとなる。
本開示の目的は、対象物の変位に係る量を出力する機械学習モデルの学習に要する時間を短縮することができる学習装置、学習済みモデルの生成方法および学習プログラムを提供することにある。
本発明の第1の態様によれば、学習装置は、所定の時間幅における対象物の変位に係る量の時系列を入力し、前記時間幅の少なくとも一部の時刻における前記対象物の変位に係る量を出力する機械学習モデルを用いて、対象物の変位に係る量の時系列を示す入力サンプルから、前記対象物の変位に係る量の推定値を算出する推論実行部と、前記推定値と前記入力サンプルに対応する出力サンプル(正解データ)との差分である第1差分を算出する第1差分算出部と、前記推定値を1階以上微分した値と前記出力サンプルを1階以上微分した値との差分である第2差分を算出する第2差分算出部と、前記第1差分および前記第2差分に対して出力が単調増加する損失関数を用いて、損失値を算出する損失算出部と、前記損失値に基づいて、前記機械学習モデルのパラメータを更新する更新部とを備える。
本発明の第2の態様によれば、学習済みモデルの生成方法は、所定の時間幅における対象物の変位に係る量の時系列を入力し、前記時間幅の少なくとも一部の時刻における前記対象物の変位に係る量を出力する機械学習モデルを用いて、対象物の変位に係る量の時系列を示す入力サンプルから、前記対象物の変位に係る量の推定値を算出する推論実行ステップと、前記推定値と前記入力サンプルに対応する出力サンプルとの差分である第1差分を算出する第1差分算出ステップと、前記推定値を1階以上微分した値と前記出力サンプルを1階以上微分した値との差分である第2差分を算出する第2差分算出ステップと、前記第1差分および前記第2差分に対して出力が単調増加する損失関数を用いて、損失値を算出する損失算出ステップと、前記損失値に基づいて、前記機械学習モデルのパラメータを更新する更新ステップと、前記パラメータが更新された前記機械学習モデルを学習済みモデルとして出力する出力ステップとを有する。
本発明の第3の態様によれば、学習プログラムは、コンピュータを、上述の学習装置として機能させる。
上記態様のうち少なくとも1つの態様によれば、対象物の変位に係る量を出力する機械学習モデルの学習に要する時間を短縮することができる。
モーションキャプチャシステムの構成を示す概略図である。 第1の実施形態に係る学習装置の構成を示す概略ブロック図である。 第1の実施形態に係る学習装置の動作を示すフローチャートである。 学習装置のハードウェア構成を示す概略ブロック図である。
〈第1の実施形態〉
《学習済みモデルを用いたマーカーレスモーションキャプチャについて》
以下、図面を参照しながら実施形態について詳しく説明する。
第1の実施形態に係る学習装置10は、マーカーレスモーションキャプチャに用いられる学習済みモデルを生成する。本実施形態において学習済みモデルとは、ニューラルネットワークなどのモデル構造に適用されるパラメータであって、学習用データセットを用いた訓練によって更新されたものである。
図1は、モーションキャプチャシステム50の構成を示す概略図である。
マーカーレスモーションキャプチャを実現するモーションキャプチャシステム50について説明する。モーションキャプチャシステム50は、複数の時間同期カメラ51と、演算装置52と、学習装置10とを備える。複数の時間同期カメラ51は、それぞれ異なる方向から対象物Oを撮影するように設置される。複数の時間同期カメラ51は、互いに内部時計の時刻が同期されている。
演算装置52は、複数の時間同期カメラ51から映像データを取得し、各映像データのフレームごとに対象物Oの姿勢を推定する。これにより、演算装置52は、各映像データの各フレームに映る対象物Oの関節の位置を推定する。演算装置52は、複数の映像データの同時刻に係るフレームにおける関節の位置と、現実空間における複数の時間同期カメラ51の設置位置および姿勢に基づいて、三角測量により、対象物Oの関節の現実空間における位置を推定する。演算装置52は、例えば非特許文献1に記される骨格構造のフィッティング手法を用いることで、各関節の三軸回転角を推定する。ただし、姿勢推定の誤差により、推定された関節の現実空間における位置にはノイズが重畳されている可能性があるため、各関節の三軸回転角にもノイズが重畳されている可能性がある。そのため、演算装置52は、目的フレームを含む所定数のフレームにおける各関節の三軸回転角の時系列から、ノイズを除去した目的フレームにおける各関節の三軸回転角を算出する。これにより、モーションキャプチャシステム50は、ノイズを除去した対象物Oの関節の三軸回転角の時系列を生成することができる。
このノイズ除去の演算において、学習装置10によって学習された学習済みモデルが用いられる。
《学習装置の構成》
図2は、第1の実施形態に係る学習装置10の構成を示す概略ブロック図である。
学習装置10は、構造記憶部101、パラメータ記憶部102、学習用データセット記憶部103、初期値生成部104、サンプル抽出部105、推論実行部106、第1差分算出部107、第2差分算出部108、損失算出部109、損失記憶部110、更新部111、出力部112を備える。
構造記憶部101は、機械学習モデルであるノイズ除去モデルの構造データを記憶する。第1の実施形態に係る構造データは、入力層および出力層のノード数を回転軸数3×関節数j×フレーム数nであるDNN(Deep Neural Network)を表す。つまり、ノイズ除去モデルは、ノイズ除去対象の目的フレームを含む連続するn個のフレームに係る対象物Oのj個の関節それぞれの三軸の回転角の時系列を、入力し、また出力する。
パラメータ記憶部102は、機械学習モデルに適用するパラメータを記憶する。パラメータの例としては、ニューロンの重み、活性化関数の係数などが挙げられる。
学習用データセット記憶部103は、パラメータの学習に用いる学習用データセットを記憶する。学習用データセットは、ノイズを含む対象物Oの関節の回転角の時系列と、実際の回転角の時系列とを含む。ノイズを含む回転角の時系列は、演算装置52によって演算されたノイズ除去前の回転角の時系列であってよい。また、ノイズを含む回転角の時系列は、実際の回転角の時系列にランダムノイズ、スパイクノイズ、またはオフセットノイズを重畳させたものであってよい。ランダムノイズは、振幅や周波数が不規則に変化するノイズである。スパイクノイズは、間欠的に発生する比較的振幅の大きいノイズである。オフセットノイズは、すべての信号が一律に増加するノイズである。
また、他の実施形態においては、学習用データセット記憶部103は実際の各関節の回転角の時系列のみを記憶し、学習装置10がこれにノイズを重畳させることでノイズを含む各関節の回転角の時系列を生成してもよい。
初期値生成部104は、構造記憶部101が記憶する機械学習モデルの構造データに基づいて、当該機械学習モデルのパラメータの初期値を生成する。初期値生成部104は、例えば乱数に基づいてパラメータの初期値を生成する。初期値生成部104は、生成した初期値をパラメータ記憶部102に記録する。
サンプル抽出部105は、学習用データセット記憶部103が記憶するノイズを含む回転角の時系列から、連続するnフレーム相当の部分時系列を切り出すことで、入力サンプルを生成する。サンプル抽出部105は、学習用データセット記憶部103が記憶する実際の回転角の時系列から、生成した入力サンプルに対応する部分時系列を切り出すことで、出力サンプルを生成する。
推論実行部106は、構造記憶部101が記憶する構造データとパラメータ記憶部102が記憶するパラメータとによって構成される機械学習モデルに、サンプル抽出部105が抽出した入力サンプルを入力することで、回転角の時系列の推定値を得る。
第1差分算出部107は、推論実行部106が得た推定値とサンプル抽出部105が抽出した出力サンプルとの差分である第1差分を算出する。差分は、絶対誤差、二乗誤差などによって表される。すなわち、第1差分算出部107は、回転角の差を算出する。
第2差分算出部108は、推論実行部106が得た推定値を1階以上微分した値とサンプル抽出部105が抽出した出力サンプルを1階以上微分した値との差分である第2差分を算出する。例えば、第2差分算出部108は、回転角の1階微分である回転角速度の差分、回転角の2階微分である回転角加速度の差分、回転角の3階微分である回転角躍度の差分などを算出する。
損失算出部109は、損失関数に第1差分算出部107が算出した第1差分および第2差分算出部108が算出した第2差分を代入し、平均損失を算出する。第1の実施形態に係る損失関数は、回転角の差分、回転角速度の差分、回転角加速度の差分、および回転角躍度の差分を、説明変数とする。
損失記憶部110は、損失算出部109が算出した平均損失の履歴を記憶する。
更新部111は、損失記憶部110が記憶する平均損失に基づいて、平均損失を最小化するように、パラメータ記憶部102が記憶する機械学習モデルのパラメータを更新する。
出力部112は、パラメータ記憶部102が記憶する機械学習モデルのパラメータを学習済みモデルとして演算装置52に出力する。学習済みモデルの出力は、通信によってなされてもよいし、記録媒体を介してなされてもよい。
《学習装置の動作》
図3は、第1の実施形態に係る学習装置の動作を示すフローチャートである。
まず、初期値生成部104は、構造記憶部101が記憶する機械学習モデルの構造データに基づいて、当該機械学習モデルのパラメータの初期値を生成する(ステップS1)。初期値生成部104は、生成した初期値をパラメータ記憶部102に記録する。
次に、学習装置10は、学習の終了条件を満たすまで、以下のステップS3からステップS11の処理を繰り返し実行する(ステップS2)。終了条件の例としては、更新部111によるパラメータの更新回数が所定回数に達することや、平均損失の勾配が所定値未満となることなどが挙げられる。
サンプル抽出部105は、学習用データセット記憶部103から所定数の入力サンプルと出力サンプルのペアを抽出する(ステップS3)。推論実行部106は、構造記憶部101が記憶する構造データとパラメータ記憶部102が記憶するパラメータとによって構成される機械学習モデルに、ステップS3で抽出した複数の入力サンプルを入力することで、回転角の時系列の複数の推定値を得る(ステップS4)。
第1差分算出部107は、ステップS4で得られた複数の推定値それぞれと、ステップS3で抽出された当該推定値に対応する出力サンプルとの差分(第1差分)を算出する(ステップS5)。第2差分算出部108は、推論実行部106が得た推定値およびステップS3で抽出された出力サンプルについて、1階微分値、2階微分値、および3階微分値をそれぞれ求める(ステップS6)。第2差分算出部108は、ステップS6で求めた1階微分値、2階微分値、および3階微分値に基づいて、回転角速度の差分、回転角加速度の差分、および回転角躍度の差分(第2差分)を算出する(ステップS7)。
損失算出部109は、ステップS5およびステップS7で算出した差分を損失関数に代入することで、平均損失を算出する(ステップS8)。具体的には、損失算出部109は、推定値に係る第1差分および第2差分と、出力サンプルに係る第1差分および第2差分とを、それぞれ対応関係が崩れないようにラスタスキャンし、一次元配列に変換する。そして、損失算出部109は、推定値に係る一次元配列と出力サンプルに係る一次元配列の要素同士の絶対値の総和を、要素数で除算することで、平均損失を算出する。
損失算出部109は、算出した平均損失を損失記憶部110に記録する(ステップS9)。
更新部111は、損失記憶部110から直近の所定回数分の平均損失を読み出し、当該平均損失の勾配を求める。更新部111は、平均損失の勾配に基づいて、平均損失を最小化するように、機械学習モデルのパラメータを補正する(ステップS10)。更新部111は、補正したパラメータをパラメータ記憶部102に上書き記録する(ステップS11)。
学習装置10が学習の終了条件を満たすと、出力部112は、パラメータ記憶部102が記憶する機械学習モデルのパラメータとを演算装置52に出力する(ステップS12)。
《作用・効果》
このように、第1の実施形態に係る学習装置10は、機械学習モデルによって算出された推定値を1階以上微分した値と出力サンプルを1階以上微分した値との差分である第2差分を用いて平均損失を算出し、当該平均損失に基づいて、機械学習モデルのパラメータを更新する。これにより、学習装置10は、ランダムノイズやスパイクノイズなど、時間的に変化するノイズを、時間的な変化を伴わないオフセットノイズと比較して優先的に除去するように学習することができる。
マーカーレスモーションキャプチャにおいては、カメラキャリブレーションの誤差や関節座標推定の誤差から、演算結果にランダムノイズやスパイクノイズが重畳しやすい。また、ランダムノイズやスパイクノイズのように急な変化を与えるノイズは、視覚的な違和感を生じやすい。そのため、第1の実施形態に係る学習済みモデルによって補正されたモーションデータは、回転角の差分のみに基づく平均損失を用いて同じ繰返し回数だけ学習されたモデルによって補正されたモーションデータと比較して、視覚的な違和感が少ない。つまり、第1の実施形態に係る学習装置10は、ランダムノイズやスパイクノイズが重畳しやすいというマーカーレスモーションキャプチャの特性に鑑みてこのようなノイズに強く反応する微分値を損失関数に組み込むことで、ノイズの除去に係る学習の効率を向上させたものである。
第1の実施形態に係る損失関数は、第2差分および回転角の差分である第1差分の平均損失を求めるものである。これにより、学習装置10は、ランダムノイズやスパイクノイズと比較して優先度は下がるが、オフセットノイズも除去するように機械学習モデルのパラメータを学習することができる。
第1の実施形態に係る機械学習モデルは、目標フレームの回転角だけでなく、当該目標フレームを含む所定フレーム数の回転角の時系列を出力する。これにより、学習装置10は、平均損失の算出範囲を目標フレームのみならず、その近傍のフレームにも拡大することで、精度を向上させることができる。なお、第1の実施形態に係る機械学習モデルは、入力された時系列と同じ時間幅に係る時系列を出力するが、これに限られない。他の実施形態に係る機械学習モデルは、入力された時系列の少なくとも一部に係る回転角を出力するものであればよい。
第1の実施形態に係る学習装置10は、ランダムノイズおよびスパイクノイズを含む学習用データセットを用いて機械学習モデルのパラメータを学習する。これにより、学習装置10は、マーカーレスモーションキャプチャにおいて発生しやすいランダムノイズやスパイクノイズの影響を、効率的に抑止するように機械学習モデルのパラメータを学習することができる。
〈その他の実施形態〉
以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。すなわち、他の実施形態においては、上述の処理の順序が適宜変更されてもよい。また、一部の処理が並列に実行されてもよい。
上述した実施形態に係る学習装置10は、単独のコンピュータによって構成されるものであってもよいし、学習装置10の構成を複数のコンピュータに分けて配置し、複数のコンピュータが互いに協働することで学習装置10として機能するものであってもよい。また、学習装置10と演算装置52とが同一のコンピュータによって実現されるものであってもよい。
上述した実施形態に係る機械学習モデルは、対象物Oの関節の三軸回転角を補正するためのものであるが、これに限られない。例えば、他の実施形態に係る機械学習モデルは、対象物Oの関節の回転速度などの関節の角度に係る他の量を補正するものであってもよい。また、他の実施形態に係る機械学習モデルは、関節の三次元直交座標系における位置や速度を補正するものなど、関節の変位に係る他の量を補正するものであってもよい。また、他の実施形態に係る機械学習モデルは、対象物の中心の位置や速度を補正するものであってもよい。すなわち、機械学習モデルは、対象物Oの変位に係る量を補正するものであればよい。
上述した実施形態に係る損失関数は、平均損失を求めるものであるが、これに限られない。例えば、他の実施形態に係る損失関数は、平均二乗誤差を算出するものなど、第2差分に対して損失値が単調増加する他の関数であってよい。
〈コンピュータ構成〉
図4は、学習装置10のハードウェア構成を示す概略ブロック図である。
学習装置10は、バスで接続されたプロセッサ11、メモリ12、ストレージ13、インタフェース14などを備え、学習プログラムを実行することによって、初期値生成部104、サンプル抽出部105、推論実行部106、第1差分算出部107、第2差分算出部108、損失算出部109、損失記憶部110、更新部111、出力部112を備える装置として機能する。すなわち、学習プログラムを実行するプロセッサ11は、初期値生成部104、サンプル抽出部105、推論実行部106、第1差分算出部107、第2差分算出部108、損失算出部109、損失記憶部110、更新部111、出力部112として機能する。そして、学習プログラムを実行するプロセッサ11は、ストレージ13を、構造記憶部101、パラメータ記憶部102、および学習用データセット記憶部103として機能させる。学習装置10は、インタフェース14を介して演算装置52、外部記憶媒体、ネットワークに接続される。
プロセッサ11の例としては、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、マイクロプロセッサなどが挙げられる。
学習プログラムは、ストレージ13などのコンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えば磁気ディスク、光磁気ディスク、光ディスク、半導体メモリ等の記憶装置である。学習プログラムは、電気通信回線を介して送信されてもよい。
なお、学習装置10の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)等のカスタムLSI(Large Scale Integrated Circuit)を用いて実現されてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。このような集積回路も、プロセッサ11の一例に含まれる。
10 学習装置
101 構造記憶部
102 パラメータ記憶部
103 学習用データセット記憶部
104 初期値生成部
105 サンプル抽出部
106推論実行部
107 第1差分算出部
108 第2差分算出部
109 損失算出部
110 損失記憶部
111 更新部
112 出力部
50 モーションキャプチャシステム
51 時間同期カメラ
52 演算装置
O 対象物

Claims (7)

  1. 所定の時間幅における対象物の変位に係る量の時系列を入力し、前記時間幅の少なくとも一部の時刻における前記対象物の変位に係る量を出力する機械学習モデルを用いて、対象物の変位に係る量の時系列を示す入力サンプルから、前記対象物の変位に係る量の推定値を算出する推論実行部と、
    前記推定値を1階以上微分した値と前記入力サンプルに対応する出力サンプルを1階以上微分した値との差分である第2差分を算出する第2差分算出部と、
    前記第2差分に対して出力が単調増加する損失関数を用いて、損失値を算出する損失算出部と、
    前記損失値に基づいて、前記機械学習モデルのパラメータを更新する更新部と
    を備える学習装置。
  2. 前記推定値と前記出力サンプルとの差分である第1差分を算出する第1差分算出部を備え、
    前記損失算出部は、前記第1差分および前記第2差分に対して出力が単調増加する損失関数を用いて、損失値を算出する、
    請求項1に記載の学習装置。
  3. 前記機械学習モデルは、入力された前記時系列と同じ時間幅に係る変位に係る量の時系列を出力する
    請求項1または請求項2に記載の学習装置。
  4. 前記入力サンプルは、前記出力サンプルにランダムノイズまたはスパイクノイズを加えたものである
    請求項1から請求項3の何れか1項に記載の学習装置。
  5. 前記対象物の変位に係る量は、前記対象物が有する関節の直交する三軸の回転角である
    請求項1から請求項4のいずれか1項に記載の学習装置。
  6. 所定の時間幅における対象物の変位に係る量の時系列を入力し、前記時間幅の少なくとも一部の時刻における前記対象物の変位に係る量を出力する機械学習モデルを用いて、対象物の変位に係る量の時系列を示す入力サンプルから、前記対象物の変位に係る量の推定値を算出するステップと、
    前記推定値を1階以上微分した値と前記入力サンプルに対応する出力サンプルを1階以上微分した値との差分である第2差分を算出するステップと、
    前記第2差分に対して出力が単調増加する損失関数を用いて、損失値を算出するステップと、
    前記損失値に基づいて、前記機械学習モデルのパラメータを更新するステップと、
    前記パラメータが更新された前記機械学習モデルを学習済みモデルとして出力するステップと
    を有する学習済みモデルの生成方法。
  7. コンピュータを、請求項1から請求項5の何れか1項に記載の学習装置として機能させるための学習プログラム。
JP2020117942A 2020-07-08 2020-07-08 学習装置、学習済みモデルの生成方法および学習プログラム Active JP7315929B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020117942A JP7315929B2 (ja) 2020-07-08 2020-07-08 学習装置、学習済みモデルの生成方法および学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020117942A JP7315929B2 (ja) 2020-07-08 2020-07-08 学習装置、学習済みモデルの生成方法および学習プログラム

Publications (2)

Publication Number Publication Date
JP2022015236A true JP2022015236A (ja) 2022-01-21
JP7315929B2 JP7315929B2 (ja) 2023-07-27

Family

ID=80121336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020117942A Active JP7315929B2 (ja) 2020-07-08 2020-07-08 学習装置、学習済みモデルの生成方法および学習プログラム

Country Status (1)

Country Link
JP (1) JP7315929B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05341826A (ja) * 1992-06-12 1993-12-24 Nippon Telegr & Teleph Corp <Ntt> 接触状態変化検出方法およびロボット制御装置
JP2015085437A (ja) * 2013-10-30 2015-05-07 富士通株式会社 判定装置、判定方法、および判定プログラム
JP2019003615A (ja) * 2017-04-27 2019-01-10 ダッソー システムズDassault Systemes オートエンコーダの学習

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5341826B2 (ja) 2010-06-18 2013-11-13 セイコーインスツル株式会社 双安定液晶表示パネルの駆動方法及び駆動デバイス

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05341826A (ja) * 1992-06-12 1993-12-24 Nippon Telegr & Teleph Corp <Ntt> 接触状態変化検出方法およびロボット制御装置
JP2015085437A (ja) * 2013-10-30 2015-05-07 富士通株式会社 判定装置、判定方法、および判定プログラム
JP2019003615A (ja) * 2017-04-27 2019-01-10 ダッソー システムズDassault Systemes オートエンコーダの学習

Also Published As

Publication number Publication date
JP7315929B2 (ja) 2023-07-27

Similar Documents

Publication Publication Date Title
CN107516326B (zh) 融合单目视觉和编码器信息的机器人定位方法和系统
Warren et al. Online calibration of stereo rigs for long-term autonomy
Chowdhury et al. 3D face reconstruction from video using a generic model
CN113706699B (zh) 数据处理方法、装置、电子设备及计算机可读存储介质
JP6202879B2 (ja) ローリングシャッタ歪み補正と映像安定化処理方法
WO2019191288A1 (en) Direct sparse visual-inertial odometry using dynamic marginalization
TWI795885B (zh) 視覺定位方法、設備和電腦可讀儲存介質
CN112734890A (zh) 基于三维重建的人脸替换方法及装置
CN112401369A (zh) 基于人体重建的身体参数测量方法、系统、设备、芯片及介质
JP7315929B2 (ja) 学習装置、学習済みモデルの生成方法および学習プログラム
CN111531546B (zh) 一种机器人位姿估计方法、装置、设备及存储介质
CN113240597A (zh) 基于视觉惯性信息融合的三维软件稳像方法
Wang et al. Online spatial and temporal initialization for a monocular visual-inertial-LiDAR system
CN116580169A (zh) 一种数字人驱动方法及装置、电子设备和存储介质
CN116563497A (zh) 一种虚拟人驱动方法、装置、设备及可读存储介质
CN116342649A (zh) 一种复杂场景下低分辨率图像中进行特定目标物体跟踪的方法、装置与设备
JP2007034964A (ja) カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム
JP2020095471A (ja) 推定装置、訓練装置、推定方法及び訓練方法
JP3112750B2 (ja) 階層型ニューラルネットワークを用いたセンサ情報処理方式
Amanatiadis et al. A rotational and translational image stabilization system for remotely operated robots
Liu et al. Computationally efficient visual-inertial sensor fusion for GPS-denied navigation on a small quadrotor
Chann Recursive estimation of 3-D motion and structure in image sequences based on measurement transformations.
CN117152021A (zh) 一种运动模糊图像的去模糊方法及装置
Gaspar et al. Depth estimation in active monocular vision systems for indoor 3D tracking
JP2023069801A (ja) トラッキング装置、トラッキング方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7315929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150