JP7497188B2 - 校正装置、訓練装置、及びコンピュータ・プログラム - Google Patents
校正装置、訓練装置、及びコンピュータ・プログラム Download PDFInfo
- Publication number
- JP7497188B2 JP7497188B2 JP2020058019A JP2020058019A JP7497188B2 JP 7497188 B2 JP7497188 B2 JP 7497188B2 JP 2020058019 A JP2020058019 A JP 2020058019A JP 2020058019 A JP2020058019 A JP 2020058019A JP 7497188 B2 JP7497188 B2 JP 7497188B2
- Authority
- JP
- Japan
- Prior art keywords
- time series
- data
- sensor
- neural network
- series data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 148
- 238000004590 computer program Methods 0.000 title claims description 15
- 238000000034 method Methods 0.000 claims description 111
- 238000013528 artificial neural network Methods 0.000 claims description 64
- 238000005070 sampling Methods 0.000 claims description 29
- 238000003860 storage Methods 0.000 claims description 26
- 230000004044 response Effects 0.000 claims description 10
- 238000013075 data extraction Methods 0.000 claims description 6
- 238000009825 accumulation Methods 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 238000010923 batch production Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 92
- 238000005259 measurement Methods 0.000 description 32
- 238000012545 processing Methods 0.000 description 32
- 239000013598 vector Substances 0.000 description 25
- 230000006870 function Effects 0.000 description 19
- 238000013500 data storage Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 10
- 238000013480 data collection Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- MCSOAHVAIJXNDN-ZTFGCOKTSA-N ram-322 Chemical compound C1C(=O)CC[C@@]2(O)[C@H]3CC4=CC=C(OC)C(O)=C4[C@]21CCN3C MCSOAHVAIJXNDN-ZTFGCOKTSA-N 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Description
1 構成
(1)背景
図1に、この発明の第1の実施の形態に係る校正装置を用いるセンサシステム50の概略構成を示す。図1を参照して、このセンサシステム50は、2台のRGB-Dセンサ60及び62と、1台のマイクロホン・アレイ64を含み、2人の対象人物66及び68の位置を検出し、時系列の位置データを出力する。RGB-Dセンサ60及びびRGB-Dセンサ62はRGB画像とセンサから対象までの距離を測定可能なセンサであり、各センサが検出した対象人物66及び68の3次元座標を、各センサの位置を原点とする各センサのローカル座標で出力する。またマイクロホン・アレイ64は2次元センサであり、マイクロホン・アレイ64が得た対象人物66及び68の二次元座標をマイクロホン・アレイ64の位置を原点とするローカル座標で出力する。なお、マイクロホン・アレイは人物が発話したときしか人物の位置を検出できない。したがって、マイクロホン・アレイを含むセンサシステムのための後述する訓練データの収集及び校正用データの収集では、所定領域内で人物が歩き回る際に何らかの発話を行う必要がある。
図2を参照して、例えばグローバル座標としてRGB-Dセンサ60のローカル座標80を採用するものとする。この場合、原点がローカル座標82により表されるようにローカル座標80の原点と一致するようにRGB-Dセンサ62のローカル座標を平行移動する。さらにローカル座標82の各軸(e1’、 e2’及びe3’の単位ベクトルで表される。)をRGB-Dセンサ60のローカル座標80の各軸(e1、 e2及び3の単位ベクトルで表される。)と一致するようにローカル座標を回転する。この際の並行移動による座標変換をt2、回転による座標変換をR2と表せば、RGB-Dセンサ62のローカル座標をRGB-Dセンサ60のローカル座標80によるローカル座標に変換する変換は通常は以下の式で表される。
上記した校正は、各センサが測定した人物の対応付けができていることが前提である。しかし、現実の環境では、測定誤差があるために、例えば複数の人物の位置を複数のセンサで測定したときに、各センサの出力のどの人物が互いに対応するかを正確に知ることが難しいという問題がある。
図5は、この発明の第1の実施の形態に係る校正システム150の全体構成を示す。図5を参照して、校正システム150は、上記したニューラル・ネットワークを一部に含みそのニューラル・ネットワークの訓練を行うためのオートエンコーダ178と、オートエンコーダ178により訓練されたニューラル・ネットワークのパラメータを記憶するためのパラメータ記憶部180とを含む。以下、このニューラル・ネットワークをエンコーダと呼ぶ。
図5において、訓練データ生成部160及び校正対象音響処理システム162を除く各機能部は、コンピュータハードウェア及びその上で実行されるコンピュータ・プログラムにより実現される。図6にそうしたコンピュータシステム290の外観を示し、図7にコンピュータシステム290のハードウェア構成をブロック図で示す。
図8は、図5に示すオートエンコーダ178の概略構成を示す。図8を参照して、このオートエンコーダ178は、2つの頂点の一定数のタイムステップの位置データの時系列を入力とし、その2つの頂点の間にエッジがあるか否かに関する確率分布354(p(e|ν)、ただしνは2つの頂点の位置データの時系列、eはその2つの頂点の間にエッジがあるか否かを示す値)にしたがった値を出力するエンコーダ350と、異なる頂点の組合せからの位置データの入力に応答してエンコーダ350が出力する、確率分布354にしたがった値のうち、最も大きなものに対応する頂点の組合せの、特定のタイムステップにおける位置データを入力として、出力がその入力と等しくなるように訓練されるニューラル・ネットワークからなるデコーダ352とを含む。したがってデコーダ352の出力するベクトルの次元数は入力ベクトルの次元数と同じである。オンライン校正装置訓練システム174は、エンコーダ350に可能な頂点の組合せの位置データの時系列を与え、エンコーダ350の出力である確率分布354のサンプリング値が最も大きな組合せの、特定時点での位置データをデコーダ352に与え、デコーダ352の出力がそのデコーダ352への入力と等しくなる方向に近づくように、エンコーダ350及びデコーダ352のパラメータを調整する動作を、位置データの時系列の先頭から順番に最後まで行う処理を所定の終了条件が成立するまで繰返してオートエンコーダ178の訓練を行う。この実施の形態では、終了条件は上記繰返しを予め定められた回数だけ行ったときに充足される。
エンコーダ350は、上記非特許文献3に記載された、グラフの頂点からエッジへ、さらにエッジから頂点へのメッセージ伝達を行うニューラル・ネットワークをヒントにしたものである。図9に、非特許文献3に記載されたニューラル・ネットワークの構成の概略を示す。
上記したように訓練されたオートエンコーダ178のうち、エンコーダ350を用いて図5の校正対象音響処理システム162の校正が行われる。図5には2台のRGB-Dセンサ60及び62のみが示されている。しかし実際には、校正対象音響処理システム162には3台以上のセンサが校正対象音響処理システム162には設けられていることが多い。また各センサはRGB-Dセンサ60のような3次元センサには限らず、マイクロホン・アレイであってもよい。いずれかのセンサのローカル座標をグローバル座標として選択すれば、どのセンサも、グローバル座標に対応するセンサとの対でその位置を校正すればよい。グローバル座標として選択されたセンサをここでは基準センサと呼ぶ。
この実施の形態ではさらに、上記したように校正パラメータを決定した後にも、各センサが出力するデータを用いて校正パラメータの更新を行う。コンピュータシステム290をそのための校正装置バックグラウンド更新システム184として機能させるプログラムの制御構造を図13に示す。
上記した構成を持つ校正システム150は以下のように動作する。
校正システム150の全体の動作の流れは以下のとおりである。
・訓練データ収集装置170が訓練データを収集し訓練データ記憶部172に格納する。
・オンライン校正装置訓練システム174が訓練データ記憶部172とオートエンコーダ176とを用いてオートエンコーダ178を訓練する。訓練後のオートエンコーダ178のパラメータはパラメータ記憶部180に記憶される。
・RGB-Dセンサ60、62等が検出対象とする領域内を2人の人物が歩き回り、その間にオンライン校正装置182が校正用データを収集する。
・オンライン校正装置182がパラメータ記憶部180からオートエンコーダ178のパラメータを読み込み、エンコーダ350及びデコーダ352を構築する。
・オンライン校正装置182が校正用データに対して図12に示す処理を実行することで各センサの校正パラメータを算出する。校正パラメータは校正パラメータ記憶部186に記憶される。
・人物の位置の検出と並行して、その際に得られた時系列データを用い、バックグラウンドでコンピュータシステム290がオートエンコーダ178の訓練を行う。その結果、エンコーダ350を含むオートエンコーダ178が新たなデータに基づいて更新される。
エンコーダ350の訓練は以下のようにして実行される。図5を参照して、RGB-Dセンサ60、62等が配置された領域内を二人の人物が歩き回り、そのあいだのセンサ出力を訓練データ収集装置170が収集する。これがオートエンコーダ178の訓練データとして訓練データ記憶部172に記憶される。必要な量の訓練データが収集できたらオートエンコーダ178の訓練を行う。
上記した処理により訓練が終了したエンコーダ350を用いた校正対象音響処理システム162(図5)内の各センサの校正は以下のようにして行われる。
この第1の実施の形態に係るオートエンコーダ178による校正処理の性能をテストするために、以下に述べる実験を行った。実験では、非特許文献4で使用されたオープンデータセットを用いた。各カメラ測定値に、15cmの標準偏差のガウシアンノイズを加えた。マイクロホン・アレイの初期位置をランダムに設定し、そのマイクロホン・アレイに対するターゲット・アングルを、平均が0、標準偏差が2のガウシアンノイズにより生成した。
1 構成
(1)全体構成
第2の実施の形態は、オンライン校正装置訓練システムに関する。図5に示すオンライン校正装置訓練システム174とは異なり、第2の実施の形態に係るオンライン校正装置訓練システムは、誤差逆伝播法によるオートエンコーダ178の訓練をミニバッチにより行う。
図14に、この第2の実施の形態においてオートエンコーダ178を訓練するためのプログラム(コンピュータシステム290をオンライン校正装置訓練システムとして機能させるプログラム)の制御構造をフローチャート形式で示す。図14を参照して、このプログラムが図11に示すものと異なるのは、図11のステップ504に代えて、処理722を全ての訓練データに対して所定回数にわたり繰返すステップ720を含む点である。
(1)動作全体の流れ
この第2の実施の形態に係るオンライン校正装置訓練システムの、訓練時の動作の全体の流れが第1の実施の形態の動作と異なるのは、訓練データの各組単位ではなく、ミニバッチ単位で誤差逆伝播法を適用する点にある。その他の点ではこの第2の実施の形態に係るオンライン校正装置訓練システムと第1の実施の形態のオンライン校正装置訓練システム174とは同様の動作を行う。
図14を参照して、この第2の実施の形態に係るオンライン校正装置訓練システムは、ステップ500で初期処理を行う。続いてステップ502で訓練データを訓練データ記憶部172(図3参照)から読出し、RAM320(図7参照)にロードする。
60、62 RGB-Dセンサ
64 マイクロホン・アレイ
66、68 対象人物
80、82 ローカル座標
100 グラフ
120、122、124、126 エッジ
150 校正システム
160 訓練データ生成部
162 校正対象音響処理システム
170 訓練データ収集装置
172 訓練データ記憶部
174 オンライン校正装置訓練システム
176、178 オートエンコーダ
180 パラメータ記憶部
182 オンライン校正装置
184 校正装置バックグラウンド更新システム
186 校正パラメータ記憶部
290 コンピュータシステム
300 コンピュータ
302 モニタ
304 ネットワークI/F
306 キーボード
308 マウス
310 DVDドライブ
312 USBメモリポート
314 ハードディスク
316 CPU
317 GPU
318 ROM
320 RAM
322 DVD
326 バス
328 ネットワーク
330 USBメモリ
350 エンコーダ
352、460 デコーダ
354 確率分布
390、392、394、420、422、424、450、452、454 組合せ
400 メッセージ伝達ニューラル・ネットワーク
410、412 ニューラル・ネットワーク
440、442、444 値
470、472、474 スコア
Claims (10)
- 各々が複数の移動体の位置を離散的な時系列で検出し出力可能な、第1のセンサ及び第2のセンサの位置及び姿勢を校正するための校正装置であって、
所定時間にわたり前記第1のセンサと前記第2のセンサとによりそれぞれ測定された、所定数の移動体の位置に関する第1の時系列データと第2の時系列データとを取得する取得部と、
前記第1の時系列データ及び前記第2の時系列データを入力として、前記第1の時系列データにより表される第1の移動体と前記第2の時系列データにより表される第2の移動体との組合せごとに、前記第1の時系列データ内の前記第1の移動体の位置の時系列データと前記第2の時系列データ内の前記第2の移動体の位置の時系列データとを入力として受け、当該組合せを形成する前記第1の移動体及び前記第2の移動体が同一の移動体であるか否かを示すスコアを出力するように予め訓練済のニューラル・ネットワークからなる移動体同定手段と、
前記移動体同定手段の出力に基づいて、前記第1の時系列データにより表される各移動体と前記第2の時系列データにより表される各移動体との対応関係を推定し、当該対応関係を用い、各移動体に関する前記第1のセンサと前記第2のセンサとの出力誤差が所定の条件を充足するように、前記第1のセンサに対する前記第2のセンサの位置及び姿勢を校正するセンサ校正手段とを含む、校正装置。 - 前記センサ校正手段は、前記出力誤差の和を最小化するように、前記第2のセンサの位置及び姿勢を校正する最小化手段を含む、請求項1に記載の校正装置。
- さらに、前記第1の時系列データ及び前記第2の時系列データを用いて、前記移動体同定手段の訓練を前記センサ校正手段の動作と並行して行う並行訓練手段を含む、請求項1又は請求項2に記載の校正装置。
- 前記並行訓練手段は、
前記移動体同定手段の出力と、前記第1の時系列データと前記第2の時系列データの各々の同一タイムステップの位置データとを入力とするデコーダと、
前記第1の時系列データと前記第2の時系列データの所定範囲にわたり前記デコーダの出力が前記デコーダに入力される前記同一タイムステップの位置データに近くなるように、前記移動体同定手段と前記デコーダとのパラメータを調整することで前記移動体同定手段の訓練を行う調整手段とを含む、請求項3に記載の校正装置。 - 前記調整手段は、前記所定時間の全体にわたる前記第1の時系列データと前記第2の時系列データを用いて、前記デコーダの出力と前記デコーダに入力される前記同一タイムステップの位置データとの誤差を用いた誤差逆伝播法により前記移動体同定手段と前記デコーダとのパラメータを調整することで前記移動体同定手段の訓練を行う誤差逆伝播手段を含む、請求項4に記載の校正装置。
- 前記並行訓練手段は、前記第1の時系列データと前記第2の時系列データとが与えられるごとに前記移動体同定手段の訓練を行う、請求項3から請求項5のいずれか1項に記載の校正装置。
- 複数の移動体の各々に対して所定の時間にわたり所定のタイムステップで得られた位置データの時系列を取得する時系列データ取得部と、
前記時系列データ取得部により取得された前記位置データの時系列から、指定された順番の、同じ時刻に取得された位置データを抽出する位置データ抽出手段と、
前記所定のタイムステップの数により定まる入力と、少なくとも一つの出力とを持つ第1のニューラル・ネットワークと、
いずれも前記時系列を構成する前記位置データにより定まる同じ数の入力及び出力を有する第2のニューラル・ネットワークと、
前記複数の移動体から2つの移動体の可能な組合せを全て抽出し、前記位置データの時系列のうち、抽出された当該組合せを構成する移動体の位置データの時系列を前記第1のニューラル・ネットワークへの入力として前記第1のニューラル・ネットワークに与える入力手段と、
前記入力に応答して前記第1のニューラル・ネットワークが出力する値をサンプリングする第1のサンプリング手段と、
前記可能な前記組合せの各々に対して前記第1のサンプリング手段によりサンプリングされた値のうち、最も大きな値が得られた組合せを選択する選択手段と、
前記位置データ抽出手段により抽出された位置データのうちで、前記選択手段により選択された組合せに対応する2つの移動体の位置データを前記第2のニューラル・ネットワークに入力し、当該第2のニューラル・ネットワークの出力をサンプリングする第2のサンプリング手段と、
前記第2のニューラル・ネットワークの入力に与えられた2つの移動体の位置データと、前記第2のサンプリング手段が前記第2のニューラル・ネットワークの出力からサンプリングした値との間の誤差が小さくなるように、誤差逆伝播法により前記第1のニューラル・ネットワーク及び前記第2のニューラル・ネットワークの各々のパラメータの調整を行うパラメータ調整手段と、
前記位置データ抽出手段、前記第1のニューラル・ネットワーク、前記入力手段、前記第1のサンプリング手段、前記選択手段、前記第2のサンプリング手段、及び前記パラメータ調整手段を、前記位置データの時系列の先頭から順番に位置データを指定して前記位置データの時系列が終了するまで繰返して動作させる第1の繰返実行手段と、
前記第1の繰返実行手段による繰返しを、所定の終了条件が成立するまで繰返し実行する第2の繰返実行手段と、
前記第2の繰返実行手段による繰返が終了した時点での前記第1のニューラル・ネットワークのパラメータを所定の記憶装置に保存するパラメータ保存手段とを含む、訓練装置。 - 前記パラメータ調整手段は、前記第2のニューラル・ネットワークの入力に与えられた2つの移動体の位置データと、前記第2のサンプリング手段が前記第2のニューラル・ネットワークの出力からサンプリングした値との間の誤差を所定の回数だけ蓄積する誤差蓄積手段と、
前記第1のサンプリング手段及び前記第2のサンプリング手段が前記所定の回数だけ動作した後に、前記誤差蓄積手段により蓄積された前記誤差が小さくなるように、誤差逆伝播法により前記第1のニューラル・ネットワーク及び前記第2のニューラル・ネットワークの各々のパラメータの調整をバッチ処理により行うバッチ調整手段とを含む、請求項7に記載の訓練装置。 - コンピュータを、請求項1から請求項6のいずれか1項に記載の校正装置として機能させる、コンピュータ・プログラム。
- コンピュータを、請求項7又は請求項8に記載の訓練装置として機能させる、コンピュータ・プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058019A JP7497188B2 (ja) | 2020-03-27 | 2020-03-27 | 校正装置、訓練装置、及びコンピュータ・プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058019A JP7497188B2 (ja) | 2020-03-27 | 2020-03-27 | 校正装置、訓練装置、及びコンピュータ・プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021156764A JP2021156764A (ja) | 2021-10-07 |
JP7497188B2 true JP7497188B2 (ja) | 2024-06-10 |
Family
ID=77918110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020058019A Active JP7497188B2 (ja) | 2020-03-27 | 2020-03-27 | 校正装置、訓練装置、及びコンピュータ・プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7497188B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7088427B1 (ja) | 2022-01-20 | 2022-06-21 | 富士電機株式会社 | 運転支援装置、運転支援方法及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010276529A (ja) | 2009-05-29 | 2010-12-09 | Panasonic Corp | 物体同定装置および物体同定方法 |
WO2013038561A1 (ja) | 2011-09-16 | 2013-03-21 | 富士通株式会社 | 車線判定装置、車線判定方法及び車線判定用コンピュータプログラム |
JP2013093787A (ja) | 2011-10-27 | 2013-05-16 | Secom Co Ltd | カメラシステム |
JP2016149678A (ja) | 2015-02-13 | 2016-08-18 | オムロン株式会社 | カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム |
JP2019016098A (ja) | 2017-07-05 | 2019-01-31 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2019125368A (ja) | 2018-01-13 | 2019-07-25 | トヨタ自動車株式会社 | 複数のコネクティッド車両による観測値を関連付ける方法 |
-
2020
- 2020-03-27 JP JP2020058019A patent/JP7497188B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010276529A (ja) | 2009-05-29 | 2010-12-09 | Panasonic Corp | 物体同定装置および物体同定方法 |
WO2013038561A1 (ja) | 2011-09-16 | 2013-03-21 | 富士通株式会社 | 車線判定装置、車線判定方法及び車線判定用コンピュータプログラム |
JP2013093787A (ja) | 2011-10-27 | 2013-05-16 | Secom Co Ltd | カメラシステム |
JP2016149678A (ja) | 2015-02-13 | 2016-08-18 | オムロン株式会社 | カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム |
JP2019016098A (ja) | 2017-07-05 | 2019-01-31 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2019125368A (ja) | 2018-01-13 | 2019-07-25 | トヨタ自動車株式会社 | 複数のコネクティッド車両による観測値を関連付ける方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2021156764A (ja) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108829232B (zh) | 基于深度学习的人体骨骼关节点三维坐标的获取方法 | |
CN109202912B (zh) | 一种基于单目深度传感器和机械臂配准目标轮廓点云的方法 | |
CN107122705B (zh) | 基于三维人脸模型的人脸关键点检测方法 | |
CN105856230B (zh) | 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法 | |
CN106845515B (zh) | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 | |
JP7515795B2 (ja) | 画像処理システム、及び、画像処理方法、並びに、画像処理プログラム | |
EP2302586B1 (en) | Information processing device, information processing method and program | |
CN107358629B (zh) | 一种基于目标识别的室内建图与定位方法 | |
CN110487274B (zh) | 用于弱纹理场景的slam方法、系统、导航车及存储介质 | |
JP2018128897A (ja) | 対象物の姿勢等を検出する検出方法、検出プログラム | |
CN104778661A (zh) | 在姿态估计中使用的骨架平滑方法和设备 | |
CN115401685A (zh) | 相机导引的装置的手眼校准 | |
JP7497188B2 (ja) | 校正装置、訓練装置、及びコンピュータ・プログラム | |
CN112419419A (zh) | 用于人体姿势和形状估计的系统和方法 | |
Wang et al. | Accurate mix-norm-based scan matching | |
US11282218B2 (en) | Systems and methods for providing medical guidance using a patient depth image | |
CN116452648A (zh) | 一种基于法向量约束纠正的点云配准方法及系统 | |
CN114066981A (zh) | 一种无人机对地目标定位方法 | |
Kowalewski et al. | Semantic mapping and object detection for indoor mobile robots | |
CN115170911B (zh) | 一种基于图像识别的人体关键部位定位系统及方法 | |
Huang et al. | Some research questions for slam in deformable environments | |
CN108205805B (zh) | 锥束ct图像间体素稠密对应的自动建立方法 | |
JP2020113116A (ja) | モーション生成装置、モーション生成方法、及びプログラム | |
CN114742141A (zh) | 基于icp点云的多源信息数据融合研判方法 | |
Vitiuk et al. | Software Package for Evaluation the Stereo Camera Calibration for 3D Reconstruction in Robotics Grasping System. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200407 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7497188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |