JP2020140644A - 学習装置および学習方法 - Google Patents
学習装置および学習方法 Download PDFInfo
- Publication number
- JP2020140644A JP2020140644A JP2019037788A JP2019037788A JP2020140644A JP 2020140644 A JP2020140644 A JP 2020140644A JP 2019037788 A JP2019037788 A JP 2019037788A JP 2019037788 A JP2019037788 A JP 2019037788A JP 2020140644 A JP2020140644 A JP 2020140644A
- Authority
- JP
- Japan
- Prior art keywords
- information
- output
- learning
- synthesizer
- learners
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/08—Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
- G03B7/091—Digital circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Exposure Control For Cameras (AREA)
- Image Analysis (AREA)
Abstract
【課題】環境や使用状況の変化に対して再学習や追加学習を自動で行う。【解決手段】複数のセンサ101からの信号をそれぞれ入力し、教師データにより状態が決定される複数の学習器102と、複数の学習器から出力される情報を合成して識別結果を含む出力情報を出力する合成器107と、合成器から出力される出力情報を複数の学習器に与えるフィードバック系110とを有し、複数の学習器102はフィードバック系を介して得られる出力情報を教師データとして用いて学習する。【選択図】 図1
Description
本発明は学習装置および学習方法に係り、特に複数センサを利用した自己学習に関する技術である。
物流倉庫におけるピッキングロボットや公道を走行する自動運転車両では、多種のセンサから得られたセンサデータを用いて認識演算部で周辺情報を認識し、それに基づいた機器制御が行われている。周囲の物体等を認識するセンサとしては、RGBカメラ、赤外線カメラ、LiDAR、ミリ波レーダなどが知られている。認識演算ではセンサデータから特徴量を抽出して識別する機械学習アルゴリズムが用いられる。また、単体のセンサでは認識できる範囲、物体、環境が限られるので、複数のセンサを組み合わせ相補的に動作させるセンサフュージョン技術が開発されている。
機械学習を用いて精度よく物体の識別を行うには、予め多量の教師データを用いてトレーニングした学習器が用いられる。機械学習アルゴリズムは、学習過程において学習データセットに含まれる環境、物体に学習パラメータが最適化されるため、経年劣化や周囲環境の変動、未学習環境に対しては正しく認識することができない。この場合、学習用データを再度用意して学習を行う必要がある。
機械学習や人工知能のフュージョン技術における自己再学習に関しては、例えば特許文献1がある。特許文献1では、1つの入力情報に対して人工知能1と人工知能2という別の処理機能で結果を出力し、その結果を比較することで次に実行する処理内容を決定している。多面的な観点から評価した結果が得られることになるために、処理動作の信頼性の向上が実現可能である。
また、特許文献2には、コンピュータネットワークにおける複数の学習器の高効率化について開示されている。この技術は、まず、各学習器からパフォーマンススコア情報を制御部へ送り、制御部では受信したパフォーマンススコア情報に基づいて、各学習器の自由度と信頼度を計算し、各学習器の自由度を算出する。この自由度に基づいて各学習器が動作することで高効率化が実現される、としている。
特許文献1の技術によれば、人工知能は外部信号を受け取り、自律的かつ適応的に認識判断機能を調節する機能を持たない。そのため、信頼性の向上が得られる環境条件は限定されると考えられる。また、比較結果をフィードバック信号として受け取ることなく、自律的に再学習することはない。また、処理動作の信頼性や人工知能の出力結果の確度を定量化するような処理はしていないため、人工知能1と人工知能2で異なる結果が出力された場合の判定や精度が課題となる。
特許文献2の技術は、各学習器から制御部へのパフォーマンススコア情報と制御部から各学習器(学習システム)への自由度という情報によるフィードバックループが形成されている。これは、学習システム全体の最適化による高効率化を主な目的としたもので、各学習器を再度学習することを目的としたものではない。然るに、各学習器が個別に精度改善することができれば、更なる高精度化が期待できる。
このように、特許文献1,2に記載の従来の技術は、環境や使用状況が変化した場合に学習器の精度の劣化が生じる。また、教師あり学習の学習器を想定した場合、教師データに対して想定していない環境等の変化が実際に生じた場合には、学習器の正答率の劣化や誤警報確率の増加が発生する。
本発明の目的は、環境等の変化に対して再学習や追加学習を自動で行うことができる学習装置および学習方法を提供することにある。
本発明に係る学習装置の好ましい例によれば、複数のセンサからの信号をそれぞれ入力し、教師データにより状態が決定される複数の学習器と、
前記複数の学習器から出力される情報を合成して、識別結果を含む出力情報を出力する合成器と、
前記合成器から出力される前記出力情報を前記複数の学習器に与えるフィードバック系と、を有し、
前記複数の学習器は、前記フィードバック系を介して得られる前記出力情報を教師データとして用いて学習する、学習装置として構成される。
本発明はまた、上記学習装置が実行する学習方法としても把握される。
前記複数の学習器から出力される情報を合成して、識別結果を含む出力情報を出力する合成器と、
前記合成器から出力される前記出力情報を前記複数の学習器に与えるフィードバック系と、を有し、
前記複数の学習器は、前記フィードバック系を介して得られる前記出力情報を教師データとして用いて学習する、学習装置として構成される。
本発明はまた、上記学習装置が実行する学習方法としても把握される。
本発明によれば、教師データが不十分な学習器でも精度の改善が可能となり、環境等の変化に対して再学習や追加学習を自動で実施することが可能となる。
以下、図面を参照して、好ましい実施形態について説明する。
図1は、自己学習装置が適用される自己学習システムの例を示す。
自己学習システムは主に、複数のセンサ101と、各センサ101の出力に配置された複数の学習器102と、複数の学習器102の結果を合成する合成器107を有して構成される。この自己学習システムは、コンピュータがプログラムを実行することで実現される。ここで、複数の学習器102と合成器107を含む構成を自己学習装置と呼んでよい。或いは、センサ101をも含んで自己学習装置と呼んでもよい。合成器107は自ら合成の仕方を学習するので学習型合成器、或いは合成型学習器と呼んでもよい。
自己学習システムは主に、複数のセンサ101と、各センサ101の出力に配置された複数の学習器102と、複数の学習器102の結果を合成する合成器107を有して構成される。この自己学習システムは、コンピュータがプログラムを実行することで実現される。ここで、複数の学習器102と合成器107を含む構成を自己学習装置と呼んでよい。或いは、センサ101をも含んで自己学習装置と呼んでもよい。合成器107は自ら合成の仕方を学習するので学習型合成器、或いは合成型学習器と呼んでもよい。
センサ101は、例えば、物理情報や化学情報等を検知するセンサ素子と、センサ素子の状態を監視し、センサ素子で検知したデータを処理するマイクロプロセッサで構成されるコントローラと、コントローラで実行されるプログラムや検知データ等を記憶するメモリと、学習装置との間で制御情報や検知データ等を送受信する通信部、等を有して構成される。
車載向けの物体を検知する場合、複数のセンサ101としては、例えば、RGBカメラとミリ波レーダの組み合わせが考えられる。RGBカメラの出力はカラー画像データであり、ミリ波レーダの出力は、3次元の空間座標における点群と点に紐づけられる速度である。同一のターゲットをRGBカメラとミリ波レーダで検知して、ターゲットが何であるかを種別する場合、2つのセンサの異なる特性をうまく合成することができれば、種別の高精度化が期待できる。2つのセンサ出力を合成する方法として、視差を利用したRGB画像の3次元空間座標化と、ミリ波レーダの点群データとを合成して、学習器により種別することが考えられる。しかし、異種センサ間で時間及び空間同期処理を行うことは容易でなく、かつ座標変換の信号処理量が膨大であり現実的でない。そこで、センサ101対応に学習器102を用意して、センサ毎に種別を行った上で、種別したそれぞれの結果に基づき合成器107で統合判断することが好ましい。この場合、各学習器102からはそれぞれ種別した識別結果103が出力される。なお、識別結果は推定結果と呼んでもよい。
合成器107は、例えば多数決を用いて合成及び推定を行う。多数決の法則を用いることで推論精度の向上が期待される。一方、センサによっては特定環境下では誤った推定結果に偏ってしまう事態が生じる。例えば、RGBカメラは、暗い場所や逆光といった環境では精度が悪くなるために、学習器102で種別した推定結果の確度は悪化する。ミリ波レーダは降雨により減衰が生じるため、確度が悪化する。特定条件におけるセンサ固有の精度劣化を回避し、合成による更なる推論精度向上を実現するために、各学習器の識別結果103に対して環境に応じて重み付けすることが有効である。例えば、センサ101(S1)がRGBカメラの場合、明るさが環境情報105として乗算器106に印加されて(この部位を印加部という)、確度情報104への重み付き係数に反映される。センサ101(S2)がミリ波レーダの場合は、降雨情報が環境情報105として乗算器106に印加されて、確度情報104への重み付き係数に反映される。合成器107は、環境情報105による重み係数が反映された確度情報104を合成することになり、一層高精度化が図れる。ここで、これらの環境情報105は複数の外部センサ111により取得される。なお、環境情報105は、必ずしも外部センサ111から取得するとは限らず、例えば降雨情報は気象庁のような外部機関或いは外部装置から配信される情報を用いてもよい。
各センサ101の出力の特徴に応じて最適な学習器を配置するということは識別結果の高精度化や信号処理量の削減という観点で重要となる。種別を目的とした学習器102としては、カラー画像データの場合はCNN(Convolutional Neural Network)と呼ばれる機械学習アルゴリズムが用いられることが多く、点群データの場合は、SVM(Support Vector Machine)と呼ばれる比較的処理の軽い機械学習アルゴリズムが用いられることが多い。これらの学習アルゴリズムでは、CNNにおける相関量やSVMにおける閾値からの距離を基に種別した識別結果103に対しておおよその確度を抽出することが可能である。この確度情報104を学習器102から出力して、合成器107にて重み付き合成を行うことで、学習器102の識別結果より高精度化を図ることが可能である。
さらに、環境情報105による重み付き係数を確度情報104に含めて、合成器107で重み付き合成を行えば、環境変化に強い、高精度な識別結果108を得ることが可能である。また、合成器107のアルゴリズムは単純な多数決ではなく、CNNやSVMといった機械学習アルゴリズムを用いることができる。これにより、タスクごとに最適な非線形関数を学習から得ることができ、高精度化することが期待できる。この場合、学習データとの誤差を、フィードバック系110にて合成器107へフィードバックして重み係数112を学習により更新する。ここで、誤差とは、識別結果108と外部から与えられた学習用データの差をいう。誤差は例えば、人の位置座標の推定結果と、学習用データに予め記載された正解座標データとの差になる。誤差の計算は例えば、合成器107自身で行う、或いは合成器107の識別結果108の先に接続される部位で外部の関数を用いて行われる。
環境変化に対して更に強くするためには、根本的な対策としては学習器102に対して追加学習や再学習を実施することが挙げられる。
図2は、時間経過とともにセンサの周辺環境や状態が変化した場合の学習器102の正答率を概略的に示す図である。図2において、x軸は時間経過201、y軸は正答率202を示す。例として、RGBカメラの場合、教師データが理想的なRGBカメラによるカラー画像データとして、時間経過とともにカメラレンズに対して汚れの付着や曇りが生じると、色のスペクトル変異や歪が生じることで学習器の正答率が劣化する。ここで、追加学習や再学習を行わない場合は、点線203のように正答率が時間経過とともに劣化しつづける。一方で、変化する環境下におけるデータ、すなわち経年劣化したレンズでのデータで追加学習や再学習を行うことができれば、実線204のように正答率は改善する。正答率を常に高い状態で維持したい場合には、追加学習または再学習を正答率の劣化の都度に実施することになり、膨大な教師データが必要となる。
合成器107の出力である識別結果108は、単体の学習器102の出力結果103と比較して大数の法則に基づき精度が良いことを利用して、合成器107の出力である識別結果108と確度情報109を教師データとして、フィードバック系110にて各学習器102へフィードバックする。学習器102にフィードバックされる識別結果108に基づいてセンサ101に対応した学習器102を再学習させることで、学習器102はセンサの経時劣化を含む環境変化に対して常に自己学習を行うことができる。これを合成器107により合成することで、図2の点線205のように、学習装置全体として更に高い精度および正答率を維持することが可能となる。
各学習器102は出力の識別結果108を受け取り、自身の重み係数を更新する。CNNアルゴリズムやSVMアルゴリズムが各学習器に採用されている場合、重み係数は誤差逆伝搬法を用い、各学習器102の識別結果が合成器107の出力110に最も関連付けが高くなるようにアップデートされる。
なお、合成器107の出力での精度または正答率が悪い場合は、間違った教師データを頻繁にフィードバックする恐れがあり、この場合にはフィードバックループとして悪循環を起こす。この対策として、合成器107の識別結果108に対する確度情報109を算出し、確度が低いデータは教師データとして用いないように制御することで、悪循環を回避することができる。
図3は、実施例2による自己学習システムを示す。
実施例2による自己学習システムは、実施例1と同様に、複数のセンサ302と、各センサの出力に配置された複数の学習器102と、複数の学習器102の結果を合成する合成器107を有して構成される。実施例1との相違は、合成器107の出力が、フィードバック系301を介して各センサ302に接続される点である。合成器107からのフィードバック信号は、センサ302のコントローラに与えられる。
実施例2による自己学習システムは、実施例1と同様に、複数のセンサ302と、各センサの出力に配置された複数の学習器102と、複数の学習器102の結果を合成する合成器107を有して構成される。実施例1との相違は、合成器107の出力が、フィードバック系301を介して各センサ302に接続される点である。合成器107からのフィードバック信号は、センサ302のコントローラに与えられる。
複数のセンサ302として、RGBカメラとIRカメラ(赤外カメラ)の組み合わせを例示する。ここで、夜間でのスポットライトなど、部分的に非常に明るく他が暗いような明暗が混在するシーンでは、RGBカメラ単体では明るさのダイナミックレンジ不足が生じ、明るい箇所が白く塗りつぶされる「白とび」と呼ばれる画像の劣化現象、もしくは暗部が黒く塗りつぶされる「黒つぶれ」と呼ばれる画像の劣化現象が生じる。解決方法としては、例えば、RGBカメラで明るい箇所が見えるようにカメラの露出を調整し、暗い箇所については、センサとして優位性を持つIRカメラを用いるのが好ましい。
例えば、夜の工事現場のようなスポットライトの周辺で作業する人を検知したい場合、RGBカメラの出力に配置する学習器102およびIRカメラの出力に配置する学習器102から人であるか否かという識別結果103が出力される。このときの確度情報104に、検出した周辺ピクセルの輝度情報を含めることで、合成器107で合成する際に、ダイナミックレンジを超えている周辺ピクセルでは重み係数を小さくする、RGBカメラで暗い輝度の周辺ピクセルでは、IRカメラの重み係数を上げる、という処理も可能である。また、合成器107に入力された、輝度情報を含む確度情報104をもとに、RGBカメラの露出やIRカメラのゲインをフィードバック(301)すれば、センサ302のコントローラは、システムとして常に最適なセンサの状態を保つように制御することができ、夜のスポットライト下でも安定して人を検知することが可能となる。
図4は、実施例3による自己学習システムを示す。
近年、RGB用イメージセンサと赤外線(Infra Red, IR)用イメージセンサが同一のシリコンチップ上に集積される、RGB・IR一体型イメージセンサが開発されている。
近年、RGB用イメージセンサと赤外線(Infra Red, IR)用イメージセンサが同一のシリコンチップ上に集積される、RGB・IR一体型イメージセンサが開発されている。
この場合、図4に示すように、RGB・IR一体型イメージセンサを搭載したRGB・IR一体型カメラ401を用いて自己学習システムを構成することができる。実施例2と比べて、一体型カメラを用いることで、RGB画像とIR画像で同一の焦点距離、同一の画角、同一のシャッタータイミングを実現することができる。これにより、RGB画像とIR画像の間で視点変換やシャッタータイミングの差に起因する時間変換を行うための複雑な信号処理が不要となる。フィードバック制御信号301に含まれるRGBカメラの露出とIRカメラのゲインを用いて、カメラコントローラ402は、各RGB画像とIR画像のゲイン403、シャッタースピード405、絞り406を制御することができる。
上記実施例1乃至3を基にした幾つかの変形例について説明する。
実施例2では、合成器107の出力である識別結果108と確度情報109を、トレーニングデータとして複数の各学習器102にフィードバック(110)することを前提にして、さらに合成器107からカメラの露出やゲインの信号を、複数のセンサ302へセンサ制御信号としてフィードバックしている。変形例によれば、トレーニングデータのフィードバック(110)を止めて、センサ制御信号のみを各センサ302へフィードバックすることが可能である。これにより、実施例1におけるトレーニングデータのフィードバックによる効果は得られないが、実施例2の効果は実現できる。
実施例2では、合成器107の出力である識別結果108と確度情報109を、トレーニングデータとして複数の各学習器102にフィードバック(110)することを前提にして、さらに合成器107からカメラの露出やゲインの信号を、複数のセンサ302へセンサ制御信号としてフィードバックしている。変形例によれば、トレーニングデータのフィードバック(110)を止めて、センサ制御信号のみを各センサ302へフィードバックすることが可能である。これにより、実施例1におけるトレーニングデータのフィードバックによる効果は得られないが、実施例2の効果は実現できる。
さらに他の変形例として、実施例1におけるトレーニングデータのフィードバック(110)を止めて、環境情報105の印加による各学習器102の確度情報104への重み係数の反映のみを行うことが可能である。合成器107は、環境情報105による重み係数が反映された確度情報104を合成することで、学習の高精度化が実現できる。
101:センサ
102:学習器
103:識別結果
104:確度情報
105:環境情報
106:乗算器
107:合成器
108:推定結果
109:確度情報
110:フィードバック
111:環境情報取得用センサ
112:学習アルゴリズムの重み係数
201:経過時間
202:正答率
203:再学習を実施しない場合の正答率
204:再学習を実施した場合の正答率
205:実施例1の正答率
301:フィードバック
302:センサ
401:RGB及びIR一体型カメラ
402:カメラコントローラ
403:プログラマブル信号増幅器
404:RGBおよびIR一体型イメージセンサ
405:シャッター
406:絞り
102:学習器
103:識別結果
104:確度情報
105:環境情報
106:乗算器
107:合成器
108:推定結果
109:確度情報
110:フィードバック
111:環境情報取得用センサ
112:学習アルゴリズムの重み係数
201:経過時間
202:正答率
203:再学習を実施しない場合の正答率
204:再学習を実施した場合の正答率
205:実施例1の正答率
301:フィードバック
302:センサ
401:RGB及びIR一体型カメラ
402:カメラコントローラ
403:プログラマブル信号増幅器
404:RGBおよびIR一体型イメージセンサ
405:シャッター
406:絞り
Claims (13)
- 複数のセンサからの信号をそれぞれ入力し、教師データにより状態が決定される複数の学習器と、
前記複数の学習器から出力される情報を合成して、識別結果を含む出力情報を出力する合成器と、
前記合成器から出力される前記出力情報を前記複数の学習器に与えるフィードバック系と、を有し、
前記複数の学習器は、前記フィードバック系を介して得られる前記出力情報を教師データとして用いて学習する、ことを特徴とする学習装置。 - 前記複数の学習器は、それぞれ、識別結果と確度情報を出力し、
前記合成器は、前記複数の学習器から出力される前記識別結果と前記確度情報に基づいて合成処理を行い、識別結果と確度情報を出力する、請求項1に記載の学習装置。 - 前記複数の学習器は、前記フィードバック系を介して提供される前記識別結果と前記確度情報を基にそれぞれ学習する、請求項2に記載の学習装置。
- 前記複数の学習器は、それぞれ重み係数を有し、前記フィードバック系を介して提供される前記識別結果と前記確度情報に応じて前記重み係数を更新する、請求項2に記載の学習装置。
- 前記合成器は、前記複数の学習器に対応した重み係数を有し、該重み係数に応じて前記複数の学習器からの出力情報を合成処理する、請求項2に記載の学習装置。
- 前記合成器は、自らの出力である前記識別結果と学習データとの誤差をフィードバックして、学習によって前記重み係数を更新する、請求項5に記載の学習装置。
- 前記複数の学習器から出力される複数の前記確度情報に対して、外部センサから得られる環境情報を印加する印加部を有し、
前記合成器は、前記印加部で該環境情報により重み付けされた前記確度情報を用いて合成処理する、請求項2に記載の学習装置。 - 前記合成器は、前記複数の学習器から入力される各識別結果と確度情報を、多数決を用いて合成処理する、請求項2に記載の学習装置。
- 前記合成器は、識別結果と確度情報(第1の出力情報)と、前記複数のセンサのための制御情報(第2の出力情報)を出力し、
前記第2の出力情報は、第2のフィードバック系を介して前記複数のセンサに提供され、
前記複数のセンサは、該第2のフィードバック系を介して得られる前記第2の出力情報を用いて、自センサの制御を行う、請求項2に記載の学習装置。 - 前記第2の出力情報は、RGBカメラの露出とIRカメラのゲインを含み、
制御部は、前記露出と前記ゲインを用いて、各RGB画像とIR画像のゲインと絞りを制御する、
請求項9に記載の学習装置を用いたRGB・IR一体型カメラ。 - 複数のセンサからの信号をそれぞれ入力し、教師データにより状態が決定されて、識別結果と確度情報を出力する複数の学習器と、
前記複数の学習器から出力される識別結果と確度情報を基に合成処理を行い、識別結果と確度情報を含む第1の出力情報と、前記複数のセンサのための制御情報(第2の出力情報)を出力する合成器と、
前記第2の出力情報を前記複数のセンサに提供する第2のフィードバック系と、を有し、
前記複数のセンサは、該第2のフィードバック系を介して得られる前記第2の出力情報を用いて自センサの制御を行う、ことを特徴とする学習装置。 - 複数のセンサからの信号をそれぞれ入力し、教師データにより状態が決定されて、識別結果と確度情報を出力する複数の学習器と、
前記複数の学習器から出力される識別結果と確度情報を基に合成処理を行い、識別結果と確度情報を含む出力情報を出力する合成器と、
前記複数の学習器から出力される複数の前記確度情報に対して、外部センサから得られる環境情報を印加する印加部と、を有し、
前記合成器は、前記印加部で該環境情報により重み付けされた前記確度情報を用いて合成処理する、ことを特徴とする学習装置。 - 複数の学習装置が、複数のセンサからの信号をそれぞれ入力し、教師データにより状態が決定されて、識別結果と確度情報を出力するステップと、
合成器が、前記複数の学習器から出力される情報を合成して、識別結果を含む出力情報を出力するステップと、
前記合成器から出力される前記出力情報をフィードバックして、前記複数の学習器に提供するステップと、
前記複数の学習器が、前記フィードバックされた前記出力情報を教師データとして用いて学習するステップと、
を有することを特徴とする学習方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019037788A JP2020140644A (ja) | 2019-03-01 | 2019-03-01 | 学習装置および学習方法 |
PCT/JP2020/007982 WO2020179605A1 (ja) | 2019-03-01 | 2020-02-27 | 学習装置および学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019037788A JP2020140644A (ja) | 2019-03-01 | 2019-03-01 | 学習装置および学習方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020140644A true JP2020140644A (ja) | 2020-09-03 |
Family
ID=72264960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019037788A Pending JP2020140644A (ja) | 2019-03-01 | 2019-03-01 | 学習装置および学習方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020140644A (ja) |
WO (1) | WO2020179605A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022107595A1 (ja) * | 2020-11-17 | 2022-05-27 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679677B (zh) * | 2013-12-12 | 2016-11-09 | 杭州电子科技大学 | 一种基于模型互更新的双模图像决策级融合跟踪方法 |
JP7014218B2 (ja) * | 2017-03-08 | 2022-02-01 | ソニーグループ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP7351139B2 (ja) * | 2018-08-24 | 2023-09-27 | 株式会社豊田中央研究所 | センシング装置 |
-
2019
- 2019-03-01 JP JP2019037788A patent/JP2020140644A/ja active Pending
-
2020
- 2020-02-27 WO PCT/JP2020/007982 patent/WO2020179605A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022107595A1 (ja) * | 2020-11-17 | 2022-05-27 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2020179605A1 (ja) | 2020-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210088628A1 (en) | Generation of synthetic radar signals | |
KR20220143617A (ko) | 이동체의 이동 속성 획득 방법 및 이를 수행하는 장치 | |
EP2065842B1 (en) | Adaptive driver assistance system with robust estimation of object properties | |
CN100579174C (zh) | 一种运动检测方法和装置 | |
WO2017155602A1 (en) | Systems and methods for normalizing an image | |
CN108377380B (zh) | 影像扫描系统及其方法 | |
US10769448B2 (en) | Surveillance system and surveillance method | |
Shinzato et al. | Fast visual road recognition and horizon detection using multiple artificial neural networks | |
Haghbayan et al. | An efficient multi-sensor fusion approach for object detection in maritime environments | |
US20210027207A1 (en) | Cross-modality image generation | |
US11418773B2 (en) | Method and apparatus for camera calibration | |
EP3800581A1 (en) | A method and apparatus for generating an object classification for an object | |
JP6989294B2 (ja) | 監視システム及び監視方法 | |
Malawade et al. | HydraFusion: Context-aware selective sensor fusion for robust and efficient autonomous vehicle perception | |
CN110610130A (zh) | 一种多传感器信息融合的输电线路机器人导航方法及系统 | |
WO2020179605A1 (ja) | 学習装置および学習方法 | |
US20200401151A1 (en) | Device motion control | |
Begum et al. | Deep learning models for gesture-controlled drone operation | |
KR20210041330A (ko) | 체결공구 시스템 및 그 제어 방법 | |
CN113591722A (zh) | 一种移动机器人的目标人员跟随控制方法及系统 | |
CN117218380A (zh) | 无人船遥感图像的动态目标检测追踪方法 | |
CN110121055B (zh) | 用于对象识别的方法和设备 | |
Muhammad et al. | Visual object detection based lidar point cloud classification | |
US20210110218A1 (en) | Environment sensing method and device, control method and device, and vehicle | |
Xu et al. | Adaptive brightness learning for active object recognition |