JP2021500689A - 単眼画像深度推定方法及び装置、機器、プログラム及び記憶媒体 - Google Patents
単眼画像深度推定方法及び装置、機器、プログラム及び記憶媒体 Download PDFInfo
- Publication number
- JP2021500689A JP2021500689A JP2020542490A JP2020542490A JP2021500689A JP 2021500689 A JP2021500689 A JP 2021500689A JP 2020542490 A JP2020542490 A JP 2020542490A JP 2020542490 A JP2020542490 A JP 2020542490A JP 2021500689 A JP2021500689 A JP 2021500689A
- Authority
- JP
- Japan
- Prior art keywords
- monocular image
- depth map
- features
- depth
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
Description
本願は、出願番号が201810845040.4で、出願日が2018年7月27日である中国特許出願に基づいて提出され、且つ該中国特許出願の優先権を主張し、該中国特許出願の全ての内容が参照によって本願に組み込まれる。
深度推定ニューラルネットワークにより、単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得するステップと、
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得するステップと、を含む単眼画像深度推定方法を提供する。
前記単眼画像に対して第1ニューラルネットワークにより特徴抽出を行って前記単眼画像内の各所定領域の特徴を取得し、前記各所定領域の特徴を前記単眼画像内の各所定領域の絶対特徴とするステップと、
前記単眼画像内の各所定領域の絶対特徴に基づいて、前記単眼画像内の各所定領域の間の相対特徴を取得するステップと、を更に含む。
前記単眼画像内の各所定領域の絶対特徴に対して、関連度層を介してベクトル演算を行って、前記単眼画像内の各所定領域の間の相対特徴を取得するステップを含む。
前記単眼画像に対してダウンサンプリングを行って所定次元を有する単眼画像を取得するステップを更に含み、前記単眼画像の次元が前記所定次元の倍数である。
全結合層によって前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴を組み合わせ、前記単眼画像のグローバル特徴を取得するステップを含む。
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、深度推定器で深度推定を行って、前記単眼画像の予測深度マップを取得するステップを含む。
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するステップを更に含む。
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するステップと、
前記残差マップに基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するステップと、を含む。
前記単眼画像の深度情報の縦方向変化法則に基づいて、残差推定ネットワークによって前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するステップを含み、
前記残差マップに基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得する前記ステップには、
前記残差マップと前記予測深度マップに対して画素ずつの重畳演算を行って、前記単眼画像の目標深度マップを取得するステップを含む。
前記予測深度マップに基づいて、前記単眼画像の深度情報の縦方向変化法則を取得するステップを更に含む。
縦方向プーリング層によって前記予測深度マップを処理して、前記単眼画像の深度情報の縦方向変化法則を取得するステップを含む。
前記予測深度マップに対して所定回数のアップサンプリングを行い、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップに基づいて、深度情報の縦方向変化法則を取得し、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップの深度情報の縦方向変化法則に基づいて、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップを最適化して、最適化後の目標深度マップを取得するステップを含み、
最終回のアップサンプリング以外の毎回のアップサンプリングで取得された最適化後の目標深度マップを次回のアップサンプリングの予測深度マップとし、最終回のアップサンプリングで取得された最適化後の目標深度マップを、前記単眼画像の目標深度マップとし、前記目標深度マップの次元が前記単眼画像の次元と同じである。
単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得し、前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得するように構成される深度推定ニューラルネットワークを含む単眼画像深度推定装置を提供する。
前記単眼画像に対して特徴抽出を行って、前記単眼画像内の各所定領域の特徴を取得し、前記各所定領域の特徴を前記単眼画像内の各所定領域の絶対特徴とするように構成される第1ニューラルネットワークを更に含み、
前記深度推定ニューラルネットワークは、更に、前記単眼画像内の各所定領域の絶対特徴に基づいて、前記単眼画像内の各所定領域の間の相対特徴を取得するために用いられる。
前記単眼画像内の各所定領域の絶対特徴に対してベクトル演算を行って、前記単眼画像内の各所定領域の間の相対特徴を取得するように構成される関連度層を含む。
前記単眼画像に対して特徴抽出を行う前に、前記単眼画像に対してダウンサンプリングを行って所定次元を有する単眼画像を取得するように構成されるダウンサンプリング層を更に含み、前記単眼画像の次元が前記所定次元の倍数である。
前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴を組み合わせ、前記単眼画像のグローバル特徴を取得するように構成される全結合層を含む。
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて深度推定を行って、前記単眼画像の予測深度マップを取得するように構成される深度推定器を含む。
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するように構成される第2ニューラルネットワークを更に含む。
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するように構成される残差推定ネットワークと、
前記残差マップと前記予測深度マップに対して画素ずつの重畳演算を行って、前記単眼画像の目標深度マップを取得するように構成される加算ユニットと、を含む。
前記予測深度マップを処理して、前記単眼画像の深度情報の縦方向変化法則を取得するように構成される縦方向プーリング層を含む。
前記予測深度マップに対して所定回数のアップサンプリングを行うように構成されるアップサンプリング層と、
毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップに基づいて、深度情報の縦方向変化法則を取得するように構成される縦方向プーリング層と、を更に含み、
前記第2ニューラルネットワークは、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップの深度情報の縦方向変化法則に基づいて、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップを最適化して、最適化後の目標深度マップを取得するように構成され、
最終回のアップサンプリング以外の毎回のアップサンプリングで取得された最適化後の目標深度マップを次回のアップサンプリングの予測深度マップとし、最終回のアップサンプリングで取得された最適化後の目標深度マップを、前記単眼画像の目標深度マップとし、前記目標深度マップの次元が前記単眼画像の次元と同じである。
実行可能コマンドを記憶するように構成されるメモリと、
前記実行可能コマンドを実行して上記のいずれか1つの実施例に記載の方法を実行するように構成されるプロセッサと、を含む電子機器を提供する。
206において、単眼画像の深度情報の縦方向変化法則に基づいて、予測深度マップを最適化して、単眼画像の目標深度マップを取得するステップを更に含んでよい。
深度推定ニューラルネットワーク510は、単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、単眼画像のグローバル特徴を取得し、また、グローバル特徴、単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、単眼画像の予測深度マップを取得するように構成される。
例えば、本願は以下の項目を提供する。
(項目1)
深度推定ニューラルネットワークにより、単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得するステップと、
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得するステップと、を含む単眼画像深度推定方法。
(項目2)
単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得する前記ステップの前に、
前記単眼画像に対して第1ニューラルネットワークにより特徴抽出を行って前記単眼画像内の各所定領域の特徴を取得し、前記各所定領域の特徴を前記単眼画像内の各所定領域の絶対特徴とするステップと、
前記単眼画像内の各所定領域の絶対特徴に基づいて、前記単眼画像内の各所定領域の間の相対特徴を取得するステップと、を更に含む項目1に記載の方法。
(項目3)
前記単眼画像内の各所定領域の絶対特徴に基づいて、前記単眼画像内の各所定領域の間の相対特徴を取得する前記ステップには、
前記単眼画像内の各所定領域の絶対特徴に対して、関連度層を介してベクトル演算を行って、前記単眼画像内の各所定領域の間の相対特徴を取得するステップを含む項目2に記載の方法。
(項目4)
前記単眼画像に対して第1ニューラルネットワークにより特徴抽出を行うステップの前に、
前記単眼画像に対してダウンサンプリングを行って所定次元を有する単眼画像を取得するステップを更に含み、前記単眼画像の次元が前記所定次元の倍数である項目2又は3に記載の方法。
(項目5)
単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得する前記ステップには、
全結合層によって前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴を組み合わせ、前記単眼画像のグローバル特徴を取得するステップを含む項目1〜4のいずれか一項に記載の方法。
(項目6)
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得する前記ステップには、
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、深度推定器で深度推定を行って、前記単眼画像の予測深度マップを取得するステップを含む項目1〜5のいずれか一項に記載の方法。
(項目7)
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得する前記ステップの後に、
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するステップを更に含む項目1〜6のいずれか一項に記載の方法。
(項目8)
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得する前記ステップには、
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するステップと、
前記残差マップに基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するステップと、を含む項目7に記載の方法。
(項目9)
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得する前記ステップには、
前記単眼画像の深度情報の縦方向変化法則に基づいて、残差推定ネットワークによって前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するステップを含み、
前記残差マップに基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得する前記ステップには、
前記残差マップと前記予測深度マップに対して画素ずつの重畳演算を行って、前記単眼画像の目標深度マップを取得するステップを含む項目8に記載の方法。
(項目10)
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得する前記ステップの前に、
前記予測深度マップに基づいて、前記単眼画像の深度情報の縦方向変化法則を取得するステップを更に含む項目7〜9のいずれか一項に記載の方法。
(項目11)
前記予測深度マップに基づいて、前記単眼画像の深度情報の縦方向変化法則を取得する前記ステップには、
縦方向プーリング層によって前記予測深度マップを処理して、前記単眼画像の深度情報の縦方向変化法則を取得するステップを含む項目10に記載の方法。
(項目12)
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化する前記ステップには、
前記予測深度マップに対して所定回数のアップサンプリングを行い、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップに基づいて、深度情報の縦方向変化法則を取得し、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップの深度情報の縦方向変化法則に基づいて、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップを最適化して、最適化後の目標深度マップを取得するステップを含み、
最終回のアップサンプリング以外の毎回のアップサンプリングで取得された最適化後の目標深度マップを次回のアップサンプリングの予測深度マップとし、最終回のアップサンプリングで取得された最適化後の目標深度マップを、前記単眼画像の目標深度マップとし、前記目標深度マップの次元が前記単眼画像の次元と同じである項目7に記載の方法。
(項目13)
前記深度推定ニューラルネットワークは、関連度層、全結合層及び深度推定器を含み、疎な深度マップと両眼画像の立体的なマッチングで取得された密な深度マップをアノテーションデータとして利用して、前記深度推定ニューラルネットワークをトレーニングする項目1〜12のいずれか一項に記載の方法。
(項目14)
単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得し、前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得するように構成される深度推定ニューラルネットワークを含む単眼画像深度推定装置。
(項目15)
前記単眼画像に対して特徴抽出を行って、前記単眼画像内の各所定領域の特徴を取得し、前記各所定領域の特徴を前記単眼画像内の各所定領域の絶対特徴とするように構成される第1ニューラルネットワークを更に含み、
前記深度推定ニューラルネットワークは、更に、前記単眼画像内の各所定領域の絶対特徴に基づいて、前記単眼画像内の各所定領域の間の相対特徴を取得するために用いられる項目14に記載の装置。
(項目16)
前記深度推定ニューラルネットワークは、
前記単眼画像内の各所定領域の絶対特徴に対してベクトル演算を行って、前記単眼画像内の各所定領域の間の相対特徴を取得するように構成される関連度層を含む項目15に記載の装置。
(項目17)
前記単眼画像に対して特徴抽出を行う前に、前記単眼画像に対してダウンサンプリングを行って所定次元を有する単眼画像を取得するように構成されるダウンサンプリング層を更に含み、前記単眼画像の次元が前記所定次元の倍数である項目15又は16に記載の装置。
(項目18)
前記深度推定ニューラルネットワークは、
前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴を組み合わせ、前記単眼画像のグローバル特徴を取得するように構成される全結合層を含む項目14〜17のいずれか一項に記載の装置。
(項目19)
前記深度推定ニューラルネットワークは、
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて深度推定を行って、前記単眼画像の予測深度マップを取得するように構成される深度推定器を含む項目14〜18のいずれか一項に記載の装置。
(項目20)
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するように構成される第2ニューラルネットワークを更に含む項目14〜19のいずれか一項に記載の装置。
(項目21)
前記第2ニューラルネットワークは、前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得し、前記残差マップに基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するように構成される項目20に記載の装置。
(項目22)
前記第2ニューラルネットワークは、
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するように構成される残差推定ネットワークと、
前記残差マップと前記予測深度マップに対して画素ずつの重畳演算を行って、前記単眼画像の目標深度マップを取得するように構成される加算ユニットと、を含む項目21に記載の装置。
(項目23)
前記第2ニューラルネットワークは、更に、前記予測深度マップに基づいて、前記単眼画像の深度情報の縦方向変化法則を取得するために用いられる項目20〜22のいずれか一項に記載の装置。
(項目24)
前記第2ニューラルネットワークは、
前記予測深度マップを処理して、前記単眼画像の深度情報の縦方向変化法則を取得するように構成される縦方向プーリング層を含む項目23に記載の装置。
(項目25)
前記予測深度マップに対して所定回数のアップサンプリングを行うように構成されるアップサンプリング層と、
毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップに基づいて、深度情報の縦方向変化法則を取得するように構成される縦方向プーリング層と、を更に含み、
前記第2ニューラルネットワークは、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップの深度情報の縦方向変化法則に基づいて、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップを最適化して、最適化後の目標深度マップを取得するように構成され、
最終回のアップサンプリング以外の毎回のアップサンプリングで取得された最適化後の目標深度マップを次回のアップサンプリングの予測深度マップとし、最終回のアップサンプリングで取得された最適化後の目標深度マップを、前記単眼画像の目標深度マップとし、前記目標深度マップの次元が前記単眼画像の次元と同じである項目20に記載の装置。
(項目26)
前記深度推定ニューラルネットワークは、関連度層、全結合層及び深度推定器を含み、疎な深度マップと両眼画像の立体的なマッチングで取得された密な深度マップをアノテーションデータとして利用して、前記深度推定ニューラルネットワークをトレーニングする項目14〜25のいずれか一項に記載の装置。
(項目27)
項目14〜26のいずれか一項に記載の装置を含む電子機器。
(項目28)
実行可能コマンドを記憶するように構成されるメモリと、
前記実行可能コマンドを実行して項目1〜13のいずれか一項に記載の方法を実行するように構成されるプロセッサと、を含む電子機器。
(項目29)
コンピュータ可読コードを含むコンピュータプログラムであって、前記コンピュータ可読コードが機器上で作動する時に、前記機器におけるプロセッサが項目1〜13のいずれか一項に記載の方法を実現するためのコマンドを実行するコンピュータプログラム。
(項目30)
コンピュータ可読コマンドを記憶し、前記コマンドが実行される時に項目1〜13のいずれか一項に記載の方法が実現されるように構成されるコンピュータ記憶媒体。
Claims (30)
- 深度推定ニューラルネットワークにより、単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得するステップと、
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得するステップと、を含む単眼画像深度推定方法。 - 単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得する前記ステップの前に、
前記単眼画像に対して第1ニューラルネットワークにより特徴抽出を行って前記単眼画像内の各所定領域の特徴を取得し、前記各所定領域の特徴を前記単眼画像内の各所定領域の絶対特徴とするステップと、
前記単眼画像内の各所定領域の絶対特徴に基づいて、前記単眼画像内の各所定領域の間の相対特徴を取得するステップと、を更に含む請求項1に記載の方法。 - 前記単眼画像内の各所定領域の絶対特徴に基づいて、前記単眼画像内の各所定領域の間の相対特徴を取得する前記ステップには、
前記単眼画像内の各所定領域の絶対特徴に対して、関連度層を介してベクトル演算を行って、前記単眼画像内の各所定領域の間の相対特徴を取得するステップを含む請求項2に記載の方法。 - 前記単眼画像に対して第1ニューラルネットワークにより特徴抽出を行うステップの前に、
前記単眼画像に対してダウンサンプリングを行って所定次元を有する単眼画像を取得するステップを更に含み、前記単眼画像の次元が前記所定次元の倍数である請求項2又は3に記載の方法。 - 単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得する前記ステップには、
全結合層によって前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴を組み合わせ、前記単眼画像のグローバル特徴を取得するステップを含む請求項1〜4のいずれか一項に記載の方法。 - 前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得する前記ステップには、
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、深度推定器で深度推定を行って、前記単眼画像の予測深度マップを取得するステップを含む請求項1〜5のいずれか一項に記載の方法。 - 前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得する前記ステップの後に、
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するステップを更に含む請求項1〜6のいずれか一項に記載の方法。 - 前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得する前記ステップには、
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するステップと、
前記残差マップに基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するステップと、を含む請求項7に記載の方法。 - 前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得する前記ステップには、
前記単眼画像の深度情報の縦方向変化法則に基づいて、残差推定ネットワークによって前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するステップを含み、
前記残差マップに基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得する前記ステップには、
前記残差マップと前記予測深度マップに対して画素ずつの重畳演算を行って、前記単眼画像の目標深度マップを取得するステップを含む請求項8に記載の方法。 - 前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得する前記ステップの前に、
前記予測深度マップに基づいて、前記単眼画像の深度情報の縦方向変化法則を取得するステップを更に含む請求項7〜9のいずれか一項に記載の方法。 - 前記予測深度マップに基づいて、前記単眼画像の深度情報の縦方向変化法則を取得する前記ステップには、
縦方向プーリング層によって前記予測深度マップを処理して、前記単眼画像の深度情報の縦方向変化法則を取得するステップを含む請求項10に記載の方法。 - 前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化する前記ステップには、
前記予測深度マップに対して所定回数のアップサンプリングを行い、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップに基づいて、深度情報の縦方向変化法則を取得し、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップの深度情報の縦方向変化法則に基づいて、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップを最適化して、最適化後の目標深度マップを取得するステップを含み、
最終回のアップサンプリング以外の毎回のアップサンプリングで取得された最適化後の目標深度マップを次回のアップサンプリングの予測深度マップとし、最終回のアップサンプリングで取得された最適化後の目標深度マップを、前記単眼画像の目標深度マップとし、前記目標深度マップの次元が前記単眼画像の次元と同じである請求項7に記載の方法。 - 前記深度推定ニューラルネットワークは、関連度層、全結合層及び深度推定器を含み、疎な深度マップと両眼画像の立体的なマッチングで取得された密な深度マップをアノテーションデータとして利用して、前記深度推定ニューラルネットワークをトレーニングする請求項1〜12のいずれか一項に記載の方法。
- 単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像のグローバル特徴を取得し、前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて、前記単眼画像の予測深度マップを取得するように構成される深度推定ニューラルネットワークを含む単眼画像深度推定装置。
- 前記単眼画像に対して特徴抽出を行って、前記単眼画像内の各所定領域の特徴を取得し、前記各所定領域の特徴を前記単眼画像内の各所定領域の絶対特徴とするように構成される第1ニューラルネットワークを更に含み、
前記深度推定ニューラルネットワークは、更に、前記単眼画像内の各所定領域の絶対特徴に基づいて、前記単眼画像内の各所定領域の間の相対特徴を取得するために用いられる請求項14に記載の装置。 - 前記深度推定ニューラルネットワークは、
前記単眼画像内の各所定領域の絶対特徴に対してベクトル演算を行って、前記単眼画像内の各所定領域の間の相対特徴を取得するように構成される関連度層を含む請求項15に記載の装置。 - 前記単眼画像に対して特徴抽出を行う前に、前記単眼画像に対してダウンサンプリングを行って所定次元を有する単眼画像を取得するように構成されるダウンサンプリング層を更に含み、前記単眼画像の次元が前記所定次元の倍数である請求項15又は16に記載の装置。
- 前記深度推定ニューラルネットワークは、
前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴を組み合わせ、前記単眼画像のグローバル特徴を取得するように構成される全結合層を含む請求項14〜17のいずれか一項に記載の装置。 - 前記深度推定ニューラルネットワークは、
前記グローバル特徴、前記単眼画像内の各所定領域の絶対特徴及び各所定領域の間の相対特徴に基づいて深度推定を行って、前記単眼画像の予測深度マップを取得するように構成される深度推定器を含む請求項14〜18のいずれか一項に記載の装置。 - 前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するように構成される第2ニューラルネットワークを更に含む請求項14〜19のいずれか一項に記載の装置。
- 前記第2ニューラルネットワークは、前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得し、前記残差マップに基づいて、前記予測深度マップを最適化して、前記単眼画像の目標深度マップを取得するように構成される請求項20に記載の装置。
- 前記第2ニューラルネットワークは、
前記単眼画像の深度情報の縦方向変化法則に基づいて、前記予測深度マップに対して残差推定を行って、前記予測深度マップの残差マップを取得するように構成される残差推定ネットワークと、
前記残差マップと前記予測深度マップに対して画素ずつの重畳演算を行って、前記単眼画像の目標深度マップを取得するように構成される加算ユニットと、を含む請求項21に記載の装置。 - 前記第2ニューラルネットワークは、更に、前記予測深度マップに基づいて、前記単眼画像の深度情報の縦方向変化法則を取得するために用いられる請求項20〜22のいずれか一項に記載の装置。
- 前記第2ニューラルネットワークは、
前記予測深度マップを処理して、前記単眼画像の深度情報の縦方向変化法則を取得するように構成される縦方向プーリング層を含む請求項23に記載の装置。 - 前記予測深度マップに対して所定回数のアップサンプリングを行うように構成されるアップサンプリング層と、
毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップに基づいて、深度情報の縦方向変化法則を取得するように構成される縦方向プーリング層と、を更に含み、
前記第2ニューラルネットワークは、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップの深度情報の縦方向変化法則に基づいて、毎回のアップサンプリングで取得された、次元が倍に順次増大する予測深度マップを最適化して、最適化後の目標深度マップを取得するように構成され、
最終回のアップサンプリング以外の毎回のアップサンプリングで取得された最適化後の目標深度マップを次回のアップサンプリングの予測深度マップとし、最終回のアップサンプリングで取得された最適化後の目標深度マップを、前記単眼画像の目標深度マップとし、前記目標深度マップの次元が前記単眼画像の次元と同じである請求項20に記載の装置。 - 前記深度推定ニューラルネットワークは、関連度層、全結合層及び深度推定器を含み、疎な深度マップと両眼画像の立体的なマッチングで取得された密な深度マップをアノテーションデータとして利用して、前記深度推定ニューラルネットワークをトレーニングする請求項14〜25のいずれか一項に記載の装置。
- 請求項14〜26のいずれか一項に記載の装置を含む電子機器。
- 実行可能コマンドを記憶するように構成されるメモリと、
前記実行可能コマンドを実行して請求項1〜13のいずれか一項に記載の方法を実行するように構成されるプロセッサと、を含む電子機器。 - コンピュータ可読コードを含むコンピュータプログラムであって、前記コンピュータ可読コードが機器上で作動する時に、前記機器におけるプロセッサが請求項1〜13のいずれか一項に記載の方法を実現するためのコマンドを実行するコンピュータプログラム。
- コンピュータ可読コマンドを記憶し、前記コマンドが実行される時に請求項1〜13のいずれか一項に記載の方法が実現されるように構成されるコンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810845040.4A CN109035319B (zh) | 2018-07-27 | 2018-07-27 | 单目图像深度估计方法及装置、设备、程序及存储介质 |
CN201810845040.4 | 2018-07-27 | ||
PCT/CN2019/082314 WO2020019761A1 (zh) | 2018-07-27 | 2019-04-11 | 单目图像深度估计方法及装置、设备、程序及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021500689A true JP2021500689A (ja) | 2021-01-07 |
JP6963695B2 JP6963695B2 (ja) | 2021-11-10 |
Family
ID=64647384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020542490A Active JP6963695B2 (ja) | 2018-07-27 | 2019-04-11 | 単眼画像深度推定方法及び装置、機器、プログラム及び記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11443445B2 (ja) |
JP (1) | JP6963695B2 (ja) |
KR (1) | KR102292559B1 (ja) |
CN (1) | CN109035319B (ja) |
SG (1) | SG11202003878TA (ja) |
TW (1) | TWI766175B (ja) |
WO (1) | WO2020019761A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035319B (zh) * | 2018-07-27 | 2021-04-30 | 深圳市商汤科技有限公司 | 单目图像深度估计方法及装置、设备、程序及存储介质 |
US11589031B2 (en) * | 2018-09-26 | 2023-02-21 | Google Llc | Active stereo depth prediction based on coarse matching |
GB201900839D0 (en) * | 2019-01-21 | 2019-03-13 | Or3D Ltd | Improvements in and relating to range-finding |
CN111784659A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 图像检测的方法、装置、电子设备以及存储介质 |
US20220051372A1 (en) * | 2020-08-12 | 2022-02-17 | Niantic, Inc. | Feature matching using features extracted from perspective corrected image |
CN112070817A (zh) * | 2020-08-25 | 2020-12-11 | 中国科学院深圳先进技术研究院 | 一种图像深度估计方法、终端设备及计算机可读存储介质 |
CN112446328B (zh) * | 2020-11-27 | 2023-11-17 | 汇纳科技股份有限公司 | 单目深度的估计系统、方法、设备及计算机可读存储介质 |
CN112183537B (zh) * | 2020-11-30 | 2021-03-19 | 北京易真学思教育科技有限公司 | 模型训练方法及装置、文本区域检测方法及装置 |
CN112837361A (zh) * | 2021-03-05 | 2021-05-25 | 浙江商汤科技开发有限公司 | 一种深度估计方法及装置、电子设备和存储介质 |
CN116745813A (zh) * | 2021-03-18 | 2023-09-12 | 创峰科技 | 室内环境的自监督式深度估计框架 |
CN113379813B (zh) * | 2021-06-08 | 2024-04-30 | 北京百度网讯科技有限公司 | 深度估计模型的训练方法、装置、电子设备及存储介质 |
CN113344997B (zh) * | 2021-06-11 | 2022-07-26 | 方天圣华(北京)数字科技有限公司 | 快速获取只含有目标对象的高清前景图的方法及系统 |
CN113344998B (zh) * | 2021-06-25 | 2022-04-29 | 北京市商汤科技开发有限公司 | 深度检测方法、装置、计算机设备及存储介质 |
KR20230064188A (ko) * | 2021-11-03 | 2023-05-10 | 네이버랩스 주식회사 | 단안 거리 추정 모델 학습 방법 및 시스템 |
CN114612544B (zh) * | 2022-03-11 | 2024-01-02 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备和存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002222419A (ja) * | 2001-01-29 | 2002-08-09 | Olympus Optical Co Ltd | 画像領域分割装置及びその方法ならびに処理プログラムが記録された記録媒体 |
CN102750702A (zh) * | 2012-06-21 | 2012-10-24 | 东华大学 | 基于优化bp神经网络模型的单目红外图像深度估计方法 |
WO2015043872A1 (en) * | 2013-09-25 | 2015-04-02 | Technische Universität München | Semi-dense simultaneous localization and mapping |
CN106157307A (zh) * | 2016-06-27 | 2016-11-23 | 浙江工商大学 | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 |
CN106599805A (zh) * | 2016-12-01 | 2017-04-26 | 华中科技大学 | 一种基于有监督数据驱动的单目视频深度估计方法 |
CN106780588A (zh) * | 2016-12-09 | 2017-05-31 | 浙江大学 | 一种基于稀疏激光观测的图像深度估计方法 |
CN106952222A (zh) * | 2017-03-17 | 2017-07-14 | 成都通甲优博科技有限责任公司 | 一种交互式图像虚化方法及装置 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与系统 |
CN107553490A (zh) * | 2017-09-08 | 2018-01-09 | 深圳市唯特视科技有限公司 | 一种基于深度学习的单目视觉避障方法 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
CN107767413A (zh) * | 2017-09-20 | 2018-03-06 | 华南理工大学 | 一种基于卷积神经网络的图像深度估计方法 |
CN108229478A (zh) * | 2017-06-30 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像语义分割及训练方法和装置、电子设备、存储介质和程序 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8472699B2 (en) * | 2006-11-22 | 2013-06-25 | Board Of Trustees Of The Leland Stanford Junior University | Arrangement and method for three-dimensional depth image construction |
US9471988B2 (en) * | 2011-11-02 | 2016-10-18 | Google Inc. | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image |
CN107230014B (zh) * | 2017-05-15 | 2020-11-03 | 浙江仟和网络科技有限公司 | 一种末端即时物流的智能调度系统 |
CN107945265B (zh) | 2017-11-29 | 2019-09-20 | 华中科技大学 | 基于在线学习深度预测网络的实时稠密单目slam方法与系统 |
CN109035319B (zh) * | 2018-07-27 | 2021-04-30 | 深圳市商汤科技有限公司 | 单目图像深度估计方法及装置、设备、程序及存储介质 |
-
2018
- 2018-07-27 CN CN201810845040.4A patent/CN109035319B/zh active Active
-
2019
- 2019-04-11 WO PCT/CN2019/082314 patent/WO2020019761A1/zh active Application Filing
- 2019-04-11 JP JP2020542490A patent/JP6963695B2/ja active Active
- 2019-04-11 SG SG11202003878TA patent/SG11202003878TA/en unknown
- 2019-04-11 KR KR1020207009304A patent/KR102292559B1/ko active IP Right Grant
- 2019-07-24 TW TW108126232A patent/TWI766175B/zh active
-
2020
- 2020-03-26 US US16/830,363 patent/US11443445B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002222419A (ja) * | 2001-01-29 | 2002-08-09 | Olympus Optical Co Ltd | 画像領域分割装置及びその方法ならびに処理プログラムが記録された記録媒体 |
CN102750702A (zh) * | 2012-06-21 | 2012-10-24 | 东华大学 | 基于优化bp神经网络模型的单目红外图像深度估计方法 |
WO2015043872A1 (en) * | 2013-09-25 | 2015-04-02 | Technische Universität München | Semi-dense simultaneous localization and mapping |
CN106157307A (zh) * | 2016-06-27 | 2016-11-23 | 浙江工商大学 | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 |
CN106599805A (zh) * | 2016-12-01 | 2017-04-26 | 华中科技大学 | 一种基于有监督数据驱动的单目视频深度估计方法 |
CN106780588A (zh) * | 2016-12-09 | 2017-05-31 | 浙江大学 | 一种基于稀疏激光观测的图像深度估计方法 |
CN106952222A (zh) * | 2017-03-17 | 2017-07-14 | 成都通甲优博科技有限责任公司 | 一种交互式图像虚化方法及装置 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与系统 |
CN108229478A (zh) * | 2017-06-30 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像语义分割及训练方法和装置、电子设备、存储介质和程序 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
CN107553490A (zh) * | 2017-09-08 | 2018-01-09 | 深圳市唯特视科技有限公司 | 一种基于深度学习的单目视觉避障方法 |
CN107767413A (zh) * | 2017-09-20 | 2018-03-06 | 华南理工大学 | 一种基于卷积神经网络的图像深度估计方法 |
Non-Patent Citations (1)
Title |
---|
SAXENA, A. ET AL.: "Learning Depth from Single Monocular Images", NIPS '05: PROCEEDINGS OF THE 18TH INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, JPN7021001234, December 2005 (2005-12-01), ISSN: 0004484828 * |
Also Published As
Publication number | Publication date |
---|---|
CN109035319B (zh) | 2021-04-30 |
WO2020019761A1 (zh) | 2020-01-30 |
KR102292559B1 (ko) | 2021-08-24 |
TW202008308A (zh) | 2020-02-16 |
KR20200044108A (ko) | 2020-04-28 |
CN109035319A (zh) | 2018-12-18 |
US11443445B2 (en) | 2022-09-13 |
SG11202003878TA (en) | 2020-05-28 |
US20200226773A1 (en) | 2020-07-16 |
JP6963695B2 (ja) | 2021-11-10 |
TWI766175B (zh) | 2022-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6963695B2 (ja) | 単眼画像深度推定方法及び装置、機器、プログラム及び記憶媒体 | |
US11308638B2 (en) | Depth estimation method and apparatus, electronic device, program, and medium | |
CN109325972B (zh) | 激光雷达稀疏深度图的处理方法、装置、设备及介质 | |
JP7032536B2 (ja) | インスタンスセグメンテーション方法および装置、電子機器、プログラムならびに媒体 | |
US10255686B2 (en) | Estimating depth from a single image | |
WO2019020075A1 (zh) | 图像处理方法、装置、存储介质、计算机程序和电子设备 | |
JP7123133B2 (ja) | 両眼画像の深度推定方法及び装置、機器、プログラム並びに媒体 | |
JP6902122B2 (ja) | ダブル視野角画像較正および画像処理方法、装置、記憶媒体ならびに電子機器 | |
CN111739005B (zh) | 图像检测方法、装置、电子设备及存储介质 | |
EP3872760B1 (en) | Method and apparatus of training depth estimation network, and method and apparatus of estimating depth of image | |
CN110223236B (zh) | 用于增强图像序列的方法 | |
CN113129352A (zh) | 一种稀疏光场重建方法及装置 | |
CN108305281A (zh) | 图像的校准方法、装置、存储介质、程序产品和电子设备 | |
CN116883770A (zh) | 深度估计模型的训练方法、装置、电子设备及存储介质 | |
CN112348939A (zh) | 用于三维重建的纹理优化方法及装置 | |
CN117333627B (zh) | 一种自动驾驶场景的重建与补全方法、系统及存储介质 | |
Hamzah et al. | Depth Estimation Based on Stereo Image Using Passive Sensor | |
JP7425169B2 (ja) | 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN116051832A (zh) | 车辆的三维标注方法和装置 | |
CN117788658A (zh) | 用于渲染图像的方法、设备和计算机程序产品 | |
CN115239782A (zh) | 用于呈现图像的方法、电子设备和存储介质 | |
KR20240012426A (ko) | 비제약 이미지 안정화 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200422 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211015 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6963695 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |