JP7178514B2 - 場面深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム - Google Patents
場面深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム Download PDFInfo
- Publication number
- JP7178514B2 JP7178514B2 JP2021565990A JP2021565990A JP7178514B2 JP 7178514 B2 JP7178514 B2 JP 7178514B2 JP 2021565990 A JP2021565990 A JP 2021565990A JP 2021565990 A JP2021565990 A JP 2021565990A JP 7178514 B2 JP7178514 B2 JP 7178514B2
- Authority
- JP
- Japan
- Prior art keywords
- image frame
- time
- camera motion
- sample
- hidden state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Auxiliary Devices For Music (AREA)
Description
本願は、出願番号が202010348872.2であり、出願日が2020年4月28日である中国特許出願に基づいて提出するものであり、この中国特許出願の優先権を主張し、この中国特許出願の全てが参照によって本願に組み込まれる。
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
トレーニング対象である場面深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象である場面深度予測ネットワークをトレーニングして、前記場面深度予測ネットワークを得るステップと、を実行するように構成される第1トレーニングモジュールを更に備える。
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、
トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を実行するように構成される第2トレーニングモジュールを更に備える。
時刻tの目標画像フレームを取得するように構成される第1取得モジュール51と、
場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して場面深度予測を行って、目標画像フレームに対応する予測深度マップを決定するように構成される第1場面深度予測モジュール52であって、第1隠れ状態情報は場面深度に関連する特徴情報を含み、場面深度予測ネットワークは、カメラ運動予測ネットワークの補助でトレーニングして得られる第1場面深度予測モジュール52と、を備える。
目標画像フレームに対して特徴抽出を行って、目標画像フレームに対応する第1特徴マップを決定するように構成される第1決定サブモジュールであって、第1特徴マップは場面深度に関連する特徴マップである第1決定サブモジュールと、
第1特徴マップと時刻t-1の第1隠れ状態情報に基づいて、時刻tの第1隠れ状態情報を決定するように構成される第2決定サブモジュールと、
時刻tの第1隠れ状態情報に基づいて、予測深度マップを決定するように構成される第3決定サブモジュールと、を備える。
第1決定サブモジュールは、具体的に、目標画像フレームに対してマルチスケールダウンサンプリングを行って、目標画像フレームに対応する、異なるスケールにおける第1特徴マップを決定するように構成され、
第2決定サブモジュールは、具体的に、いずれか1つのスケールに対して、当該スケールにおける第1特徴マップと時刻t-1の当該スケールにおける第1隠れ状態情報に基づいて、時刻tの当該スケールにおける第1隠れ状態情報を決定するように構成され、
第3決定サブモジュールは、具体的に、時刻tの異なるスケールにおける第1隠れ状態情報に対して特徴融合を行って、予測深度マップを決定するように構成される。
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
トレーニング対象である場面深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象である場面深度予測ネットワークをトレーニングして、前記場面深度予測ネットワークを得るステップと、を実行するように構成される第1トレーニングモジュールを更に備える。
時刻tに対応する画像フレーム系列を取得するように構成される第2取得モジュール61であって、画像フレーム系列は時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む第2取得モジュール61と、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて画像フレーム系列に対してカメラ位置姿勢予測を行って、画像フレーム系列に対応する予測カメラ運動を決定するように構成される第1カメラ運動予測モジュール62であって、第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、カメラ運動予測ネットワークは、場面深度予測ネットワークの補助でトレーニングして得られる第1カメラ運動予測モジュール62と、を備える。
画像フレーム系列に対して特徴抽出を行って、画像フレーム系列に対応する第2特徴マップを決定するように構成される第6決定サブモジュールであって、第2特徴マップはカメラ運動に関連する特徴マップである第6決定サブモジュールと、
第2特徴マップと時刻t-1の第2隠れ状態情報に基づいて、時刻tの第2隠れ状態情報を決定するように構成される第7決定サブモジュールと、
時刻tの第2隠れ状態情報に基づいて、予測カメラ運動を決定するように構成される第8決定サブモジュールと、を備える。
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
場面深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は場面深度に関連する特徴情報を含むステップと、
トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を実行するように構成される第2トレーニングモジュールを更に備える。
Claims (12)
- 時刻tの目標画像フレームを取得するステップと、
場面深度予測ネットワークによって、時刻t-1の場面深度に関連する第1隠れ状態情報を用いて前記目標画像フレームに対して場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップであって、前記場面深度予測ネットワークは、サンプル画像フレーム系列に基づいて、カメラ運動予測ネットワークにより得られた前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を利用して損失関数を構築し、前記損失関数によりトレーニングして得られるステップと、を含み、
場面深度予測ネットワークによって、時刻t-1の場面深度に関連する第1隠れ状態情報を用いて前記目標画像フレームに対して場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップは、
前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップであって、前記第1特徴マップは場面深度に関連する特徴マップであるステップと、
前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップと、
時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップと、を含む
場面深度予測方法。 - 前記時刻t-1の前記第1隠れ状態情報は時刻t-1の異なるスケールにおける前記第1隠れ状態情報を含み、
前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップは、
前記目標画像フレームに対してマルチスケールダウンサンプリングを行って、前記目標画像フレームに対応する、異なるスケールにおける前記第1特徴マップを決定するステップを含み、
前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップは、
いずれか1つのスケールに対して、当該スケールにおける前記第1特徴マップと時刻t-1の当該スケールにおける前記第1隠れ状態情報に基づいて、時刻tの当該スケールにおける前記第1隠れ状態情報を決定するステップを含み、
時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップは、
時刻tの異なるスケールにおける前記第1隠れ状態情報に対して特徴融合を行って、前記予測深度マップを決定するステップを含む
請求項1に記載の方法。 - 時刻tに対応する前記サンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
カメラ運動予測ネットワークによって、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップと、
トレーニング対象である場面深度予測ネットワークによって、時刻t-1の前記第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象である場面深度予測ネットワークをトレーニングして、前記場面深度予測ネットワークを得るステップと、を更に含む
請求項1又は2に記載の方法。 - 前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、
前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、
前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、
前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を含む
請求項3に記載の方法。 - 時刻tに対応する画像フレーム系列を取得するステップであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含むステップと、
カメラ運動予測ネットワークによって、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップであって、前記カメラ運動予測ネットワークは、サンプル画像フレーム系列に基づいて、場面深度予測ネットワークにより得られたサンプル予測深度マップを利用して損失関数を構築し、前記損失関数によりトレーニングして得られるステップと、を含み、
カメラ運動予測ネットワークによって、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップは、
前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するステップであって、前記第2特徴マップはカメラ運動に関連する特徴マップであるステップと、
前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するステップと、
時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するステップと、を含む
カメラ運動予測方法。 - 前記予測カメラ運動は、前記画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む
請求項5に記載の方法。 - 時刻tに対応する前記サンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
場面深度予測ネットワークによって、時刻t-1の場面深度に関連する第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップと、
トレーニング対象であるカメラ運動予測ネットワークによって、時刻t-1の前記第2隠れ状態情報を用いて、前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を更に含み、
場面深度予測ネットワークによって、時刻t-1の場面深度に関連する第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して場面深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップは、
前記第1サンプル画像フレームに対して特徴抽出を行い、前記第1サンプル画像フレームに対応する第1特徴マップを決定するステップであって、前記第1特徴マップは、場面深度に関連する特徴マップである、ステップと、
前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップと、
時刻tの前記第1隠れ状態情報に基づいて、前記サンプル予測深度マップを決定するステップと、を含む、
請求項5又は6に記載の方法。 - 前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、
前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、
前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、
前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を含む
請求項7に記載の方法。 - 時刻tの目標画像フレームを取得するように構成される第1取得モジュールと、
場面深度予測ネットワークによって、時刻t-1の場面深度に関連する第1隠れ状態情報を用いて、前記目標画像フレームに対して場面深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するように構成される第1場面深度予測モジュールであって、前記場面深度予測ネットワークは、サンプル画像フレーム系列に基づいて、カメラ運動予測ネットワークにより得られた前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を利用して損失関数を構築し、前記損失関数によりトレーニングして得られる第1場面深度予測モジュールと、を備え、
前記第1場面深度予測モジュールは、
前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するように構成される第1決定サブモジュールであって、前記第1特徴マップは場面深度に関連する特徴マップである第1決定サブモジュールと、
前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するように構成される第2決定サブモジュールと、
時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するように構成される第3決定サブモジュールと、を備える
場面深度予測装置。 - 時刻tに対応する画像フレーム系列を取得するように構成される第2取得モジュールであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含む第1取得モジュールと、
カメラ運動予測ネットワークによって、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するように構成される第1カメラ運動予測モジュールであって、前記カメラ運動予測ネットワークは、サンプル画像フレーム系列に基づいて、場面深度予測ネットワークにより得られたサンプル予測深度マップを利用して損失関数を構築し、前記損失関数によりトレーニングして得られる第1カメラ運動予測モジュールと、を備え、
前記第1カメラ運動予測モジュールは、
前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するように構成される第1決定サブモジュールであって、前記第2特徴マップはカメラ運動に関連する特徴マップである第1決定サブモジュールと、
前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するように構成される第2決定サブモジュールと、
時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するように構成される第3決定サブモジュールと、を備える
カメラ運動予測装置。 - プロセッサと、
プロセッサ実行可能指令を記憶するように構成されるメモリと、を備え、
前記プロセッサは前記メモリに記憶された指令を呼び出して請求項1~8のいずれか一項に記載の方法を実行するように構成される電子機器。 - コンピュータプログラム指令が記憶されており、前記コンピュータプログラム指令がプロセッサに、請求項1~8のいずれか一項に記載の方法を実行させるコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010348872.2A CN111540000B (zh) | 2020-04-28 | 2020-04-28 | 场景深度和相机运动预测方法及装置、电子设备和介质 |
CN202010348872.2 | 2020-04-28 | ||
PCT/CN2021/076038 WO2021218282A1 (zh) | 2020-04-28 | 2021-02-08 | 场景深度和相机运动预测方法及装置、设备、介质和程序 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022528012A JP2022528012A (ja) | 2022-06-07 |
JP7178514B2 true JP7178514B2 (ja) | 2022-11-25 |
Family
ID=71977213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021565990A Active JP7178514B2 (ja) | 2020-04-28 | 2021-02-08 | 場面深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP7178514B2 (ja) |
KR (1) | KR102397268B1 (ja) |
CN (2) | CN113822918B (ja) |
TW (1) | TWI767596B (ja) |
WO (1) | WO2021218282A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113822918B (zh) * | 2020-04-28 | 2024-07-12 | 深圳市商汤科技有限公司 | 场景深度和相机运动预测方法及装置、电子设备和介质 |
CN112492230B (zh) * | 2020-11-26 | 2023-03-24 | 北京字跳网络技术有限公司 | 视频处理方法、装置、可读介质及电子设备 |
CN112232322B (zh) * | 2020-12-14 | 2024-08-02 | 支付宝(杭州)信息技术有限公司 | 一种基于对象状态预测的图像生成方法及装置 |
CN112767481B (zh) * | 2021-01-21 | 2022-08-16 | 山东大学 | 一种基于视觉边缘特征的高精度定位及建图方法 |
CN114339402B (zh) * | 2021-12-31 | 2024-10-11 | 北京字节跳动网络技术有限公司 | 视频播放完成率预测方法、装置、介质及电子设备 |
KR102559936B1 (ko) * | 2022-01-28 | 2023-07-27 | 포티투닷 주식회사 | 단안 카메라를 이용하여 깊이 정보를 추정하는 방법 및 장치 |
WO2023155043A1 (zh) * | 2022-02-15 | 2023-08-24 | 中国科学院深圳先进技术研究院 | 一种基于历史信息的场景深度推理方法、装置及电子设备 |
CN114612510B (zh) * | 2022-03-01 | 2024-03-29 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备、存储介质及计算机程序产品 |
CN114998403A (zh) * | 2022-06-13 | 2022-09-02 | 北京百度网讯科技有限公司 | 深度预测方法、装置、电子设备、介质 |
TWI823491B (zh) * | 2022-07-22 | 2023-11-21 | 鴻海精密工業股份有限公司 | 深度估計模型的優化方法、裝置、電子設備及存儲介質 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019099684A1 (en) | 2017-11-15 | 2019-05-23 | Google Llc | Unsupervised learning of image depth and ego-motion prediction neural networks |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109964237B (zh) * | 2016-09-15 | 2020-07-17 | 谷歌有限责任公司 | 图像深度预测神经网络 |
CN106780543B (zh) * | 2017-01-13 | 2019-06-28 | 深圳市唯特视科技有限公司 | 一种基于卷积神经网络的双框架估计深度和运动方法 |
US10803546B2 (en) * | 2017-11-03 | 2020-10-13 | Baidu Usa Llc | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency |
CN109087349B (zh) * | 2018-07-18 | 2021-01-26 | 亮风台(上海)信息科技有限公司 | 一种单目深度估计方法、装置、终端和存储介质 |
US11783500B2 (en) * | 2018-09-05 | 2023-10-10 | Google Llc | Unsupervised depth prediction neural networks |
US10860873B2 (en) * | 2018-09-17 | 2020-12-08 | Honda Motor Co., Ltd. | Driver behavior recognition and prediction |
CN109978851B (zh) * | 2019-03-22 | 2021-01-15 | 北京航空航天大学 | 一种红外视频空中弱小运动目标检测跟踪方法 |
CN110060286B (zh) * | 2019-04-25 | 2023-05-23 | 东北大学 | 一种单目深度估计方法 |
CN110136185B (zh) * | 2019-05-23 | 2022-09-06 | 中国科学技术大学 | 一种单目深度估计方法及系统 |
CN110264526B (zh) * | 2019-06-19 | 2023-04-07 | 华东师范大学 | 一种基于深度学习的场景深度和摄像机位置姿势求解方法 |
CN110310317A (zh) * | 2019-06-28 | 2019-10-08 | 西北工业大学 | 一种基于深度学习的单目视觉场景深度估计的方法 |
CN110378250B (zh) * | 2019-06-28 | 2021-04-09 | 深圳先进技术研究院 | 用于场景认知的神经网络的训练方法、装置及终端设备 |
CN110473254A (zh) * | 2019-08-20 | 2019-11-19 | 北京邮电大学 | 一种基于深度神经网络的位姿估计方法及装置 |
CN110503680B (zh) * | 2019-08-29 | 2023-08-18 | 大连海事大学 | 一种基于非监督的卷积神经网络单目场景深度估计方法 |
CN110942484B (zh) * | 2019-11-26 | 2022-07-12 | 福州大学 | 基于遮挡感知和特征金字塔匹配的相机自运动估计方法 |
CN111028282A (zh) * | 2019-11-29 | 2020-04-17 | 浙江省北大信息技术高等研究院 | 一种无监督位姿与深度计算方法及系统 |
CN113822918B (zh) * | 2020-04-28 | 2024-07-12 | 深圳市商汤科技有限公司 | 场景深度和相机运动预测方法及装置、电子设备和介质 |
-
2020
- 2020-04-28 CN CN202111204857.1A patent/CN113822918B/zh active Active
- 2020-04-28 CN CN202010348872.2A patent/CN111540000B/zh active Active
-
2021
- 2021-02-08 KR KR1020217036422A patent/KR102397268B1/ko active IP Right Grant
- 2021-02-08 WO PCT/CN2021/076038 patent/WO2021218282A1/zh active Application Filing
- 2021-02-08 JP JP2021565990A patent/JP7178514B2/ja active Active
- 2021-03-04 TW TW110107767A patent/TWI767596B/zh active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019099684A1 (en) | 2017-11-15 | 2019-05-23 | Google Llc | Unsupervised learning of image depth and ego-motion prediction neural networks |
Also Published As
Publication number | Publication date |
---|---|
WO2021218282A1 (zh) | 2021-11-04 |
KR102397268B1 (ko) | 2022-05-12 |
CN111540000B (zh) | 2021-11-05 |
CN113822918B (zh) | 2024-07-12 |
CN111540000A (zh) | 2020-08-14 |
CN113822918A (zh) | 2021-12-21 |
TW202141428A (zh) | 2021-11-01 |
TWI767596B (zh) | 2022-06-11 |
JP2022528012A (ja) | 2022-06-07 |
KR20210138788A (ko) | 2021-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7178514B2 (ja) | 場面深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム | |
CN109978886B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
JP7262659B2 (ja) | 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体 | |
TWI706379B (zh) | 圖像處理方法及裝置、電子設備和儲存介質 | |
CN110798630B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111401230B (zh) | 姿态估计方法及装置、电子设备和存储介质 | |
JP7316456B2 (ja) | 点群マップ構築方法及びその装置、電子機器、記憶媒体並びにプログラム | |
CN113052874B (zh) | 目标跟踪方法及装置、电子设备和存储介质 | |
WO2022151686A1 (zh) | 场景图像展示方法、装置、设备、存储介质、程序及产品 | |
JP2022546201A (ja) | ターゲット検出方法および装置、電子機器並びに記憶媒体 | |
CN111325786B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
KR20220123218A (ko) | 타깃 포지셔닝 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN114581525A (zh) | 姿态确定方法及装置、电子设备和存储介质 | |
CN112767541B (zh) | 三维重建方法及装置、电子设备和存储介质 | |
CN109543544B (zh) | 跨光谱图像匹配方法及装置、电子设备和存储介质 | |
JP7261889B2 (ja) | 共有地図に基づいた測位方法及び装置、電子機器並びに記憶媒体 | |
CN112330721A (zh) | 三维坐标的恢复方法及装置、电子设备和存储介质 | |
CN112837361B (zh) | 一种深度估计方法及装置、电子设备和存储介质 | |
CN112308878A (zh) | 一种信息处理方法、装置、电子设备和存储介质 | |
CN112967311B (zh) | 三维线图构建方法及装置、电子设备和存储介质 | |
CN113297983A (zh) | 人群定位方法及装置、电子设备和存储介质 | |
CN114924828A (zh) | Ar影像显示方法及装置、电子设备和存储介质 | |
CN113807369A (zh) | 目标重识别方法及装置、电子设备和存储介质 | |
CN114782656A (zh) | 虚拟对象的显示方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211105 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7178514 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |