JP6211428B2 - ガイダンス表示装置、方法及びプログラム - Google Patents
ガイダンス表示装置、方法及びプログラム Download PDFInfo
- Publication number
- JP6211428B2 JP6211428B2 JP2014015522A JP2014015522A JP6211428B2 JP 6211428 B2 JP6211428 B2 JP 6211428B2 JP 2014015522 A JP2014015522 A JP 2014015522A JP 2014015522 A JP2014015522 A JP 2014015522A JP 6211428 B2 JP6211428 B2 JP 6211428B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- captured image
- region
- estimated
- estimation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
(手順2A)上記成功の際に特定された位置姿勢等を用いて、マーカーレス推定部5による処理を可能な限り継続する。マーカーレス推定部5による処理が継続不可能と判定された時点で、上記(手順1A)に戻る。
(手順2B)オブジェクトベース推定部3が継続して、対象物の位置姿勢等の推定を可能な限り継続する。この際適宜、マーカーレス推定部5が、(位置姿勢等の推定自体は実施しないものの、)リファレンス保存部4に保存する情報の更新を併せて実施する。オブジェクトベース推定部3による推定が継続不可能と判定された時点で、(手順3B)へ進む。
(手順3B)当該一時点においてマーカーレス推定部5による姿勢推定を試み、成功すれば次の時点は(手順2B)に戻り、失敗した場合には(手順1B)に戻る。
Claims (13)
- 対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示装置であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定部と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定部と、
前記オブジェクトベース推定部又は前記マーカーレス推定部が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示部と、を備え、
前記オブジェクトベース推定部は、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定部は、前記一時点より後の撮影映像における撮影画像に対して、現時点以前において推定された領域及び位置姿勢と、前記所定の対象物の配置情報と、に基づいて当該現時点における撮影画像内の対象物の領域を予測したうえで、当該予測された領域と、当該現時点以前において推定された領域と、の間で特徴点マッチング及び特徴点追跡を行うことで、当該現時点における前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定部は、前記予測された領域と、前記現時点以前において推定された領域と、の間で特徴点マッチング及び特徴点追跡を行ってその第一誤差を求め、さらに、撮影画像の全体を対象として当該特徴点マッチング及び特徴点追跡を行ってその第二誤差を求め、第二誤差が第一誤差よりも小さい場合には、前記撮影画像の全体を対象としての特徴点マッチング及び特徴点追跡の結果に基づいて、前記現時点における前記対象物の領域及び位置姿勢を推定することを特徴とするガイダンス表示装置。 - 対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示装置であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定部と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定部と、
前記オブジェクトベース推定部又は前記マーカーレス推定部が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示部と、を備え、
前記オブジェクトベース推定部は、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記オブジェクトベース推定部は、前記対象物の領域及び位置姿勢の推定を、各時点における撮影画像に対して当該推定が成功したと判定される限りは継続し、
当該推定が失敗したと判定された時点の撮影画像に対して、前記マーカーレス推定部が前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定部は、特徴点マッチング及び特徴点追跡を行う際の特徴量を、前記オブジェクトベース推定部が前記推定に成功している間に、当該推定された対象物の領域より抽出し、
前記マーカーレス推定部は、前記特徴点の抽出を、前記オブジェクトベース推定部が前記推定に成功している間であって、且つ、前記オブジェクトベース推定部の推定した対象物の領域及び位置姿勢が所定条件を満たす際に、行うことを特徴とするガイダンス表示装置。 - 前記所定条件が、前記オブジェクトベース推定部の推定した対象物の位置姿勢の変動が所定基準を満たして大きいこと、または、前記オブジェクトベース推定部の推定した対象物の位置姿勢の履歴によって現時点の次の時点で前記オブジェクトが撮影画像内から逸脱すると判定されること、であることを特徴とする請求項2に記載のガイダンス表示装置。
- 対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示装置であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定部と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定部と、
前記オブジェクトベース推定部又は前記マーカーレス推定部が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示部と、を備え、
前記オブジェクトベース推定部は、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定部は、特徴点マッチング及び特徴点追跡を、前記オブジェクトの領域を除外したうえで行うことを特徴とするガイダンス表示装置。 - 前記マーカーレス推定部が前記対象物の領域及び位置姿勢を推定することに失敗した後には、再度、前記オブジェクトベース推定部が、前記対象物の領域及び位置姿勢を推定することを特徴とする請求項1ないし4のいずれかに記載のガイダンス表示装置。
- 対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示方法であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定段階と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定段階と、
前記オブジェクトベース推定段階又は前記マーカーレス推定段階が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示段階と、を備え、
前記オブジェクトベース推定段階では、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定段階は、前記一時点より後の撮影映像における撮影画像に対して、現時点以前において推定された領域及び位置姿勢と、前記所定の対象物の配置情報と、に基づいて当該現時点における撮影画像内の対象物の領域を予測したうえで、当該予測された領域と、当該現時点以前において推定された領域と、の間で特徴点マッチング及び特徴点追跡を行うことで、当該現時点における前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定段階は、前記予測された領域と、前記現時点以前において推定された領域と、の間で特徴点マッチング及び特徴点追跡を行ってその第一誤差を求め、さらに、撮影画像の全体を対象として当該特徴点マッチング及び特徴点追跡を行ってその第二誤差を求め、第二誤差が第一誤差よりも小さい場合には、前記撮影画像の全体を対象としての特徴点マッチング及び特徴点追跡の結果に基づいて、前記現時点における前記対象物の領域及び位置姿勢を推定することを特徴とするガイダンス表示方法。 - 対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示方法であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定段階と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定段階と、
前記オブジェクトベース推定段階又は前記マーカーレス推定段階が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示段階と、を備え、
前記オブジェクトベース推定段階では、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記オブジェクトベース推定段階は、前記対象物の領域及び位置姿勢の推定を、各時点における撮影画像に対して当該推定が成功したと判定される限りは継続し、
当該推定が失敗したと判定された時点の撮影画像に対して、前記マーカーレス推定段階が前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定段階は、特徴点マッチング及び特徴点追跡を行う際の特徴量を、前記オブジェクトベース推定段階が前記推定に成功している間に、当該推定された対象物の領域より抽出し、
前記マーカーレス推定段階は、前記特徴点の抽出を、前記オブジェクトベース推定段階が前記推定に成功している間であって、且つ、前記オブジェクトベース推定段階の推定した対象物の領域及び位置姿勢が所定条件を満たす際に、行うことを特徴とするガイダンス表示方法。 - 前記所定条件が、前記オブジェクトベース推定段階の推定した対象物の位置姿勢の変動が所定基準を満たして大きいこと、または、前記オブジェクトベース推定段階の推定した対象物の位置姿勢の履歴によって現時点の次の時点で前記オブジェクトが撮影画像内から逸脱すると判定されること、であることを特徴とする請求項7に記載のガイダンス表示方法。
- 対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示方法であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定段階と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定段階と、
前記オブジェクトベース推定段階又は前記マーカーレス推定段階が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示段階と、を備え、
前記オブジェクトベース推定段階では、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定段階は、特徴点マッチング及び特徴点追跡を、前記オブジェクトの領域を除外したうえで行うことを特徴とするガイダンス表示方法。 - コンピュータを、
対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示装置であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定部と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定部と、
前記オブジェクトベース推定部又は前記マーカーレス推定部が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示部と、を備え、
前記オブジェクトベース推定部は、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定部は、前記一時点より後の撮影映像における撮影画像に対して、現時点以前において推定された領域及び位置姿勢と、前記所定の対象物の配置情報と、に基づいて当該現時点における撮影画像内の対象物の領域を予測したうえで、当該予測された領域と、当該現時点以前において推定された領域と、の間で特徴点マッチング及び特徴点追跡を行うことで、当該現時点における前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定部は、前記予測された領域と、前記現時点以前において推定された領域と、の間で特徴点マッチング及び特徴点追跡を行ってその第一誤差を求め、さらに、撮影画像の全体を対象として当該特徴点マッチング及び特徴点追跡を行ってその第二誤差を求め、第二誤差が第一誤差よりも小さい場合には、前記撮影画像の全体を対象としての特徴点マッチング及び特徴点追跡の結果に基づいて、前記現時点における前記対象物の領域及び位置姿勢を推定することを特徴とするガイダンス表示装置として機能させるプログラム。 - コンピュータを、
対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示装置であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定部と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定部と、
前記オブジェクトベース推定部又は前記マーカーレス推定部が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示部と、を備え、
前記オブジェクトベース推定部は、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記オブジェクトベース推定部は、前記対象物の領域及び位置姿勢の推定を、各時点における撮影画像に対して当該推定が成功したと判定される限りは継続し、
当該推定が失敗したと判定された時点の撮影画像に対して、前記マーカーレス推定部が前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定部は、特徴点マッチング及び特徴点追跡を行う際の特徴量を、前記オブジェクトベース推定部が前記推定に成功している間に、当該推定された対象物の領域より抽出し、
前記マーカーレス推定部は、前記特徴点の抽出を、前記オブジェクトベース推定部が前記推定に成功している間であって、且つ、前記オブジェクトベース推定部の推定した対象物の領域及び位置姿勢が所定条件を満たす際に、行うことを特徴とするガイダンス表示装置として機能させるプログラム。 - 前記所定条件が、前記オブジェクトベース推定部の推定した対象物の位置姿勢の変動が所定基準を満たして大きいこと、または、前記オブジェクトベース推定部の推定した対象物の位置姿勢の履歴によって現時点の次の時点で前記オブジェクトが撮影画像内から逸脱すると判定されること、であることを特徴とする請求項11に記載のプログラム。
- コンピュータを、
対象物の撮影映像に関して拡張現実表示を行うことで、対象物への作業及び/又は操作を補助するガイダンス表示装置であって、
前記撮影映像の一時点における撮影画像より、オブジェクトを検出することで、当該一時点における前記対象物の領域及び位置姿勢を推定するオブジェクトベース推定部と、
前記一時点より後の撮影映像における撮影画像に対して、前記一時点において推定された領域及び位置姿勢との間で特徴点マッチング及び特徴点追跡を行うことで、前記対象物の領域及び位置姿勢を推定するマーカーレス推定部と、
前記オブジェクトベース推定部又は前記マーカーレス推定部が推定した前記対象物の領域及び位置姿勢に基づいて、前記撮影映像の各時点における撮影画像に関して拡張現実表示を行う拡張現実表示部と、を備え、
前記オブジェクトベース推定部は、位置姿勢を決定可能なマーカーの役割を有し且つ所定の対象物に対応付けられた所定オブジェクトの情報を参照することで、前記オブジェクトをその位置姿勢と共に検出し、さらに、当該所定オブジェクトに対応付けられた所定の対象物の配置情報を参照することで、前記対象物の領域及び位置姿勢を推定し、
前記マーカーレス推定部は、特徴点マッチング及び特徴点追跡を、前記オブジェクトの領域を除外したうえで行うことを特徴とするガイダンス表示装置として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014015522A JP6211428B2 (ja) | 2014-01-30 | 2014-01-30 | ガイダンス表示装置、方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014015522A JP6211428B2 (ja) | 2014-01-30 | 2014-01-30 | ガイダンス表示装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015141676A JP2015141676A (ja) | 2015-08-03 |
JP6211428B2 true JP6211428B2 (ja) | 2017-10-11 |
Family
ID=53771952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014015522A Active JP6211428B2 (ja) | 2014-01-30 | 2014-01-30 | ガイダンス表示装置、方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6211428B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6575325B2 (ja) * | 2015-11-27 | 2019-09-18 | 富士通株式会社 | カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム |
CN108351651B (zh) * | 2016-09-27 | 2024-06-21 | 深圳市大疆创新科技有限公司 | 一种基于影像的控制方法、装置及飞行器 |
JP2018092299A (ja) * | 2016-12-01 | 2018-06-14 | Kddi株式会社 | 操作支援装置 |
JP6696925B2 (ja) * | 2017-03-16 | 2020-05-20 | Kddi株式会社 | 操作支援装置 |
JP6885179B2 (ja) | 2017-04-20 | 2021-06-09 | 富士通株式会社 | 撮影装置、撮影制御プログラム、及び撮影管理システム |
JP6762913B2 (ja) * | 2017-07-11 | 2020-09-30 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP6694907B2 (ja) * | 2018-03-20 | 2020-05-20 | 東芝インフォメーションシステムズ株式会社 | 判定装置、判定方法及び判定プログラム |
JP7117767B2 (ja) * | 2018-07-13 | 2022-08-15 | 株式会社Suntac | 画像表示装置 |
CN109794948B (zh) * | 2019-03-04 | 2020-08-21 | 北京国电富通科技发展有限责任公司 | 配网带电作业机器人及识别定位方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4537557B2 (ja) * | 2000-09-19 | 2010-09-01 | オリンパス株式会社 | 情報呈示システム |
JP2003115052A (ja) * | 2001-10-09 | 2003-04-18 | National Institute Of Advanced Industrial & Technology | 画像処理方法及び画像処理装置 |
JP2004145592A (ja) * | 2002-10-24 | 2004-05-20 | Nippon Telegr & Teleph Corp <Ntt> | 移動ベクトル抽出装置及び方法及びプログラム及びその記録媒体 |
JP5423406B2 (ja) * | 2010-01-08 | 2014-02-19 | ソニー株式会社 | 情報処理装置、情報処理システム及び情報処理方法 |
-
2014
- 2014-01-30 JP JP2014015522A patent/JP6211428B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015141676A (ja) | 2015-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6211428B2 (ja) | ガイダンス表示装置、方法及びプログラム | |
CN110631554B (zh) | 机器人位姿的确定方法、装置、机器人和可读存储介质 | |
Jiang et al. | A robust hybrid tracking system for outdoor augmented reality | |
US9953225B2 (en) | Image processing apparatus and image processing method | |
Botterill et al. | Real-time aerial image mosaicing | |
KR20200041355A (ko) | 마커를 결합한 동시 위치결정과 지도작성 내비게이션 방법, 장치 및 시스템 | |
JP6129981B2 (ja) | 移動体位置推定装置および移動体位置推定方法 | |
US11238653B2 (en) | Information processing device, information processing system, and non-transitory computer-readable storage medium for storing program | |
CN103155001A (zh) | 用于多用户扩增现实的在线基准生成和跟踪 | |
US20030012410A1 (en) | Tracking and pose estimation for augmented reality using real features | |
CN107025662A (zh) | 一种实现增强现实的方法、服务器、终端及系统 | |
KR20170046790A (ko) | 시스루 스마트 안경 및 그 투시 방법 | |
Stricker et al. | A fast and robust line-based optical tracker for augmented reality applications | |
US20190080190A1 (en) | System and method of selecting a keyframe for iterative closest point | |
JP7240573B2 (ja) | 施工支援システムおよび施工支援装置 | |
US8009899B2 (en) | Image filling methods | |
EP3051254B1 (en) | Survey data processing device, survey data processing method, and program therefor | |
Wei et al. | Integrated vision-based automated progress monitoring of indoor construction using mask region-based convolutional neural networks and BIM | |
Riazuelo et al. | Semantic visual slam in populated environments | |
US20180197308A1 (en) | Information processing apparatus and method of controlling the same | |
CN106530322B (zh) | 抖动视频中目标跟踪的方法 | |
CN110111389A (zh) | 一种基于slam的移动增强现实跟踪注册方法和系统 | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
CN111524086B (zh) | 运动物体检测装置、运动物体检测方法、存储介质 | |
CN113884006A (zh) | 一种空间定位方法及系统、设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160729 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6211428 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |