JP2022528012A - 被写界深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム - Google Patents

被写界深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム Download PDF

Info

Publication number
JP2022528012A
JP2022528012A JP2021565990A JP2021565990A JP2022528012A JP 2022528012 A JP2022528012 A JP 2022528012A JP 2021565990 A JP2021565990 A JP 2021565990A JP 2021565990 A JP2021565990 A JP 2021565990A JP 2022528012 A JP2022528012 A JP 2022528012A
Authority
JP
Japan
Prior art keywords
image frame
depth
time
hidden state
state information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021565990A
Other languages
English (en)
Other versions
JP7178514B2 (ja
Inventor
タオ ハン
ジャンポン ジャン
フイ チョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2022528012A publication Critical patent/JP2022528012A/ja
Application granted granted Critical
Publication of JP7178514B2 publication Critical patent/JP7178514B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本開示は、時刻tの目標画像フレームを取得するステップと、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して被写界深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含み、前記被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られるステップと、を含む被写界深度とカメラ運動を予測する方法及び装置、電子機器、媒体並びにプログラムに関する。

Description

(関連出願の相互参照)
本願は、出願番号が202010348872.2であり、出願日が2020年4月28日である中国特許出願に基づいて提出するものであり、この中国特許出願の優先権を主張し、この中国特許出願の全てが参照によって本願に組み込まれる。
本開示は、コンピュータの技術分野に関し、被写界深度とカメラ運動を予測する方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラムに関するが、それらに限定されない。
単眼画像収集装置(例えば、単眼カメラ)が収集した画像を入力として被写界深度及びカメラ運動を予測することは、この20年以来コンピュータビジョン分野で活発且つ重要な研究方向であり、拡張現実、無人運転及び移動ロボットの位置決定と走行誘導等の多くの分野に広く利用されている。
本開示の実施例は、被写界深度とカメラ運動を予測する方法及び装置、電子機器、媒体並びにプログラムの技術的解決手段を提供する。
本開示の実施例は、時刻tの目標画像フレームを取得するステップと、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して被写界深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含み、前記被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られるステップとを含む被写界深度予測方法を提供する。
本開示のいくつかの実施例で、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して被写界深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップは、前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップであって、前記第1特徴マップは被写界深度に関連する特徴マップであるステップと、前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップと、時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップとを含む。
本開示のいくつかの実施例で、時刻t-1の前記第1隠れ状態情報は時刻t-1の異なるスケールにおける前記第1隠れ状態情報を含み、前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップは、前記目標画像フレームに対してマルチスケールダウンサンプリングを行って、前記目標画像フレームに対応する、異なるスケールにおける前記第1特徴マップを決定するステップを含み、前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップは、いずれか1つのスケールに対して、当該スケールにおける前記第1特徴マップと時刻t-1の当該スケールにおける前記第1隠れ状態情報に基づいて、時刻tの当該スケールにおける前記第1隠れ状態情報を決定するステップを含み、時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップは、時刻tの異なるスケールにおける前記第1隠れ状態情報に対して特徴融合を行って、前記予測深度マップを決定するステップを含む。
本開示のいくつかの実施例で、前記方法は、時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、トレーニング対象である被写界深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、前記損失関数により、前記トレーニング対象である被写界深度予測ネットワークをトレーニングして、前記被写界深度予測ネットワークを得るステップと、を更に含む。
本開示のいくつかの実施例で、前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップとを含む。
本開示の実施例は、時刻tに対応する画像フレーム系列を取得するステップであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含むステップと、カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、前記カメラ運動予測ネットワークは、被写界深度予測ネットワークを補助としてトレーニングして得られるステップとを含むカメラ運動予測方法を更に提供する。
本開示のいくつかの実施例で、カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップは、前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するステップであって、前記第2特徴マップはカメラ運動に関連する特徴マップであるステップと、前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するステップと、時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するステップとを含む。
本開示のいくつかの実施例で、前記予測カメラ運動は、前記画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む。
本開示のいくつかの実施例で、前記方法は、時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を更に含む。
本開示のいくつかの実施例で、前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を含む。
本開示の実施例は、時刻tの目標画像フレームを取得するように構成される第1取得モジュールと、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して被写界深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するように構成される第1被写界深度予測モジュールであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含み、前記被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られる第1被写界深度予測モジュールとを備える被写界深度予測装置を更に提供する。
本開示のいくつかの実施例で、前記第1被写界深度予測モジュールは、前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するように構成される第1決定サブモジュールであって、前記第1特徴マップは被写界深度に関連する特徴マップである第1決定サブモジュールと、前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するように構成される第2決定サブモジュールと、時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するように構成される第3決定サブモジュールと、を備える。
本開示のいくつかの実施例で、時刻t-1の前記第1隠れ状態情報は時刻t-1の異なるスケールにおける前記第1隠れ状態情報を含み、前記第1決定サブモジュールは、具体的に、前記目標画像フレームに対してマルチスケールダウンサンプリングを行って、前記目標画像フレームに対応する、異なるスケールにおける前記第1特徴マップを決定するように構成され、前記第2決定サブモジュールは、具体的に、いずれか1つのスケールに対して、当該スケールにおける前記第1特徴マップと時刻t-1の当該スケールにおける前記第1隠れ状態情報に基づいて、時刻tの当該スケールにおける前記第1隠れ状態情報を決定するように構成され、前記第3決定サブモジュールは、具体的に、時刻tの異なるスケールにおける前記第1隠れ状態情報に対して特徴融合を行って、前記予測深度マップを決定するように構成される。
本開示のいくつかの実施例で、前記装置は、
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
トレーニング対象である被写界深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象である被写界深度予測ネットワークをトレーニングして、前記被写界深度予測ネットワークを得るステップと、を実行するように構成される第1トレーニングモジュールを更に備える。
本開示のいくつかの実施例で、前記第1トレーニングモジュールは、具体的に、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される。
本開示の実施例は、時刻tに対応する画像フレーム系列を取得するように構成される第2取得モジュールであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含む第2取得モジュールと、カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するように構成される第1カメラ運動予測モジュールであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、前記カメラ運動予測ネットワークは、被写界深度予測ネットワークを補助としてトレーニングして得られる第1カメラ運動予測モジュールと、を備えるカメラ運動予測装置を更に提供する。
本開示のいくつかの実施例で、前記第1カメラ運動予測モジュールは、前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するように構成される第6決定サブモジュールであって、前記第2特徴マップはカメラ運動に関連する特徴マップである第6決定サブモジュールと、前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するように構成される第7決定サブモジュールと、時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するように構成される第8決定サブモジュールと、を備える。
本開示のいくつかの実施例で、前記予測カメラ運動は、前記画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む。
本開示のいくつかの実施例で、前記装置は、
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、
トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を実行するように構成される第2トレーニングモジュールを更に備える。
本開示のいくつかの実施例で、前記第2トレーニングモジュールは、具体的に、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される。
本開示の実施例は、プロセッサと、プロセッサ実行可能指令を記憶するように構成されるメモリと、を備え、前記プロセッサは前記メモリに記憶された指令を呼び出して上記のいずれか1種の方法を実行するように構成される電子機器を更に提供する。
本開示の実施例は、コンピュータプログラム指令が記憶されており、前記コンピュータプログラム指令がプロセッサに実行される時に、上記のいずれか1種の方法を実現するコンピュータ可読記憶媒体を更に提供する。
本開示の実施例は、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で実行される時に、前記電子機器内のプロセッサが上記のいずれか1種の方法を実現するための指令を実行するコンピュータプログラムを更に提供する。
本開示の実施例で、時刻tに対応する目標画像フレームを取得し、隣接時刻の間で、被写界深度は時系列的な関連関係があるので、時刻t-1の被写界深度に関連する第1隠れ状態情報を用いて、被写界深度予測ネットワークによって目標画像フレームに対して被写界深度予測を行うことで、目標画像フレームに対応する予測精度の高い予測深度マップを得ることができる。
本開示の実施例で、時刻tに対応する、時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む画像フレーム系列を取得し、隣接時刻の間で、カメラ位置姿勢は時系列的な関連関係があるので、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、カメラ運動予測ネットワークによって画像フレーム系列に対してカメラ位置姿勢予測を行うことで、予測精度の高い予測カメラ運動を得ることができる。
以上の一般説明と以下の詳細説明は解釈するための例示的なものに過ぎず、本開示を制限しないこと、を理解すべきである。以下の図面を参照した例示的な実施例に対する詳細な説明によれば、本開示の他の特徴及び態様は明確になる。
本開示の実施例の被写界深度予測方法のフローチャートである。 本開示の実施例の被写界深度予測ネットワークのブロック図である。 本開示の実施例の教師なしのネットワークトレーニングのブロック図である。 本開示の実施例のカメラ運動予測方法のフローチャートである。 本開示の実施例の被写界深度予測装置の構成の模式図である。 本開示の実施例のカメラ運動予測装置の構成の模式図である。 本開示の実施例の電子機器の構成の模式図である。 本開示の実施例の電子機器の構成の模式図である。
ここの図面は明細書に組み込まれて明細書の一部を構成し、これらの図面は本開示に合致する実施例を示し、明細書と共に本開示の技術的解決手段を説明するために用いられる。
以下に図面を参照しながら本開示の様々な例示的実施例、特徴及び態様を詳細に説明する。図面における同じ符号は同じ又は類似する機能の要素を表す。図面において実施例の様々な態様を示したが、特に断らない限り、比例に従って図面を作る必要がない。
ここの用語「例示的」とは、「例、実施例として用いられること又は説明的なもの」を意味する。ここで「例示的」に説明したいかなる実施例も必ずしも他の実施例より好ましい又は有利であると解釈されるべきではない。
本明細書の用語の「及び/又は」は、関連対象の関連関係を記述するためのものに過ぎず、3種の関係が存在可能であることを示し、例えば、A及び/又はDは、Aが単独して存在し、AとDが同時に存在し、Dが単独して存在するという3種の場合を示してもよい。また、本明細書の用語の「少なくとも1種」は多種のうちのいずれか1種又は多種のうちの少なくとも2種の任意の組み合わせを示し、例えば、A、C、Dのうちの少なくとも1種を含むということは、A、C及びDから構成される集合から選択されるいずれか1つ又は複数の要素を含むことを示してもよい。
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的詳細を示す。当業者であれば、何らかの具体的詳細がなくなるにも関わらず、本開示は同様に実施できるということを理解すべきである。いくつかの実施例では、本開示の趣旨を強調するよう、当業者に既知の方法、手段、要素及び回路に対する詳細な説明を省略する。
図1は本開示の実施例に係る被写界深度予測方法のフローチャートを示す。図1に示す被写界深度予測方法は、ユーザ側装置(User Equipment:UEと略称)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、携帯情報端末(Personal Digital Assistant:PDAと略称)、携帯型デバイス、計算装置、車載装置、ウェアラブル装置等の端末装置又は他の処理装置により実行してもよい。他の処理装置はサーバ又はクラウドサーバ等であってもよい。いくつかの実施例では、この被写界深度予測方法はプロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。図1に示すように、当該方法は、以下のステップを含んでもよい。
ステップS11で、時刻tの目標画像フレームを取得する。
ステップS12で、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して被写界深度予測を行って、目標画像フレームに対応する予測深度マップを決定し、第1隠れ状態情報は被写界深度に関連する特徴情報を含み、被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られる。
本開示の実施例で、時刻tの目標画像フレームを取得し、隣接時刻の間で、被写界深度は時系列的な関連関係があるので、時刻t-1の被写界深度に関連する第1隠れ状態情報を用いて、被写界深度予測ネットワークによって目標画像フレームに対して被写界深度予測を行うことで、目標画像フレームに対応する予測精度の高い予測深度マップを得ることができる。
いくつかの実施例では、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して被写界深度予測を行って、目標画像フレームに対応する予測深度マップを決定するステップは、目標画像フレームに対して特徴抽出を行って、目標画像フレームに対応する第1特徴マップを決定するステップであって、第1特徴マップは被写界深度に関連する特徴マップであるステップと、第1特徴マップと時刻t-1の第1隠れ状態情報に基づいて、時刻tの第1隠れ状態情報を決定するステップと、時刻tの第1隠れ状態情報に基づいて、予測深度マップを決定するステップと、を含んでもよい。
隣接時刻の間で、被写界深度は時系列的な関連関係があるので、被写界深度予測ネットワークは現在時刻(例えば、時刻t)の目標画像フレームに対応する、被写界深度に関連する第1特徴マップ、及び直前時刻(例えば、時刻t-1)の被写界深度に関連する第1隠れ状態情報を用いて、現在時刻の被写界深度に関連する第1隠れ状態情報を決定でき、更に現在時刻の被写界深度に関連する第1隠れ状態情報に基づいて目標画像フレームに対して被写界深度予測を行って、現在時刻の目標画像フレームに対応する予測精度の高い予測深度マップを得ることができる。
例えば、被写界深度予測ネットワークを用いて画像フレーム系列(第1時刻~第t時刻の画像フレームを含む)のうちの各画像フレームに対応する予測深度マップを予測する時に、被写界深度予測ネットワークの初期化段階で、被写界深度に関連する第1隠れ状態情報の事前設定初期値を設定する。第1隠れ状態情報の事前設定初期値及び第1時刻の画像フレームに対応する、被写界深度に関連する第1特徴マップに基づいて、第1時刻の第1隠れ状態を決定し、更に第1時刻の第1隠れ状態に基づいて第1時刻の画像フレームに対して被写界深度予測を行って、第1時刻の画像フレームに対応する予測深度マップを得、また、第1時刻の第1隠れ状態及び第2時刻の画像フレームに対応する、被写界深度に関連する第1特徴マップに基づいて、第2時刻の第1隠れ状態を決定し、更に第2時刻の第1隠れ状態に基づいて第2時刻の画像フレームに対して被写界深度予測を行って、第2時刻の画像フレームに対応する予測深度マップを得、また、第2時刻の第1隠れ状態及び第3時刻の画像フレームに対応する、被写界深度に関連する第1特徴マップに基づいて、第3時刻の第1隠れ状態を決定し、更に第3時刻の第1隠れ状態に基づいて第3時刻の画像フレームに対して被写界深度予測を行って、第3時刻の画像フレームに対応する予測深度マップを得、これによって類推して、最終的に画像フレーム系列(第1時刻~第t時刻の画像フレームを含む)のうちの各画像フレームに対応する予測深度マップを得る。
いくつかの実施例では、時刻t-1の第1隠れ状態情報は時刻t-1の異なるスケールにおける第1隠れ状態情報を含み、目標画像フレームに対して特徴抽出を行って、目標画像フレームに対応する第1特徴マップを決定するステップは、目標画像フレームに対してマルチスケールダウンサンプリングを行って、目標画像フレームに対応する、異なるスケールにおける第1特徴マップを決定するステップを含んでもよく、第1特徴マップと時刻t-1の第1隠れ状態情報に基づいて、時刻tの第1隠れ状態情報を決定するステップは、いずれか1つのスケールに対して、当該スケールにおける第1特徴マップと時刻t-1の当該スケールにおける第1隠れ状態情報に基づいて、時刻tの当該スケールにおける第1隠れ状態情報を決定するステップを含んでもよく、時刻tの第1隠れ状態情報に基づいて、予測深度マップを決定するステップは、時刻tの異なるスケールにおける第1隠れ状態情報に対して特徴融合を行って、予測深度マップを決定するステップを含んでもよい。
時刻tの目標画像フレームに対応する予測深度マップをより好適に決定するために、被写界深度予測ネットワークはマルチスケール特徴融合メカニズムを採用してもよい。図2は本開示の実施例に係る被写界深度予測ネットワークのブロック図を示し、図2に示すように、被写界深度予測ネットワークは、深度エンコーダ202、マルチスケール畳み込みゲート付き回帰型ユニット(Convolutional Gated Recurrent Unit:ConvGRU)及び深度デコーダ205を含む。時刻tの目標画像フレーム201を深度エンコーダ202に入力してマルチスケールダウンサンプリングを行って、目標画像フレームに対応する、異なるスケールにおける第1特徴マップ203、即ち、第1スケールにおける第1特徴マップ
Figure 2022528012000002
、第2スケールにおける第1特徴マップ
Figure 2022528012000003
及び第3スケールにおける第1特徴マップ
Figure 2022528012000004
を得る。ここで、マルチスケールConvGRUはマルチスケールの第1特徴マップのスケールに対応し、即ち、マルチスケールConvGRUは第1スケールでのConvGRU、第2スケールでのConvGRU及び第3スケールでのConvGRUを含む。
依然として上記図2を例とし、第1特徴マップ
Figure 2022528012000005
をConvGRUに入力し、第1特徴マップ
Figure 2022528012000006
をConvGRUに入力し、第1特徴マップ
Figure 2022528012000007
をConvGRUに入力する。ConvGRUは第1特徴マップ
Figure 2022528012000008
とConvGRUに記憶された時刻t-1の第1スケールにおける第1隠れ状態情報
Figure 2022528012000009
に対して特徴融合を行って、時刻tの第1スケールでの第1隠れ状態
Figure 2022528012000010
を得、ConvGRUは時刻tの第1スケールでの第1隠れ状態
Figure 2022528012000011
を記憶し、時刻tの第1スケールでの第1隠れ状態
Figure 2022528012000012
を深度デコーダに出力し、また、ConvGRUは第1特徴マップ
Figure 2022528012000013
とConvGRUに記憶された時刻t-1の第2スケールにおける第1隠れ状態情報
Figure 2022528012000014
に対して特徴融合を行って、時刻tの第2スケールでの第1隠れ状態
Figure 2022528012000015
を得、ConvGRUは時刻tの第2スケールでの第1隠れ状態
Figure 2022528012000016
を記憶し、時刻tの第2スケールでの第1隠れ状態
Figure 2022528012000017
を深度デコーダに出力し、また、ConvGRUは第1特徴マップ
Figure 2022528012000018
とConvGRUに記憶された時刻t-1の第3スケールにおける第1隠れ状態情報
Figure 2022528012000019
に対して特徴融合を行って、時刻tの第3スケールでの第1隠れ状態
Figure 2022528012000020
を得、ConvGRUは時刻tの第3スケールでの第1隠れ状態
Figure 2022528012000021
を記憶し、時刻tの第3スケールでの第1隠れ状態
Figure 2022528012000022
を深度デコーダに出力する。図2において、マルチスケール隠れ状態204は時刻tの第1スケールでの第1隠れ状態
Figure 2022528012000023
、第2スケールでの第1隠れ状態
Figure 2022528012000024
及び第3スケールでの第1隠れ状態
Figure 2022528012000025
を含む。
深度デコーダ205は時刻tの第1スケールでの第1隠れ状態
Figure 2022528012000026
、第2スケールでの第1隠れ状態
Figure 2022528012000027
及び第3スケールでの第1隠れ状態
Figure 2022528012000028
のスケールを目標画像フレーム201のスケール(以下、目標画像フレームのスケールを目標スケールと略称)と同じになるようにそれぞれ回復し、時刻tの目標スケールでの3つの第1隠れ状態を得る。第1隠れ状態情報は被写界深度に関連する特徴情報を含み、被写界深度予測ネットワークにおいても特徴マップとして存在するので、時刻tの目標スケールでの3つの第1隠れ状態に対して特徴マップ融合を行って、時刻tの目標画像フレームに対応する予測深度マップ
Figure 2022528012000029
を得る。
いくつかの実施例では、当該被写界深度予測方法は、時刻tに対応するサンプル画像フレーム系列を取得するステップであって、サンプル画像フレーム系列は時刻tの第1サンプル画像フレームと第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いてサンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、トレーニング対象である被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて第1サンプル画像フレームに対して被写界深度予測を行って、第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、サンプル予測深度マップとサンプル予測カメラ運動に基づいて損失関数を構築するステップと、損失関数により、トレーニング対象である被写界深度予測ネットワークをトレーニングして、被写界深度予測ネットワークを得るステップと、を更に含んでもよい。
本開示の実施例で、被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られたものであり、又は、被写界深度予測ネットワークとカメラ運動予測ネットワークは共同訓練して得られたものである。被写界深度とカメラ位置姿勢の隣接時刻の間における時系列的な関連関係によって、スライドウィンドウデータ融合メカニズムを導入し、スライドウィンドウの系列における目標時刻(時刻t)の被写界深度とカメラ運動に関連する隠れ状態情報を抽出、記憶し、更に被写界深度予測ネットワーク及び/又はカメラ運動予測ネットワークに対して教師なしのネットワークトレーニングを行う。
本開示の実施例で、時系列的に連続して収集したサンプル画像フレーム系列を含むトレーニングセットを予め作成し、更に当該トレーニングセットに基づいてトレーニング対象である被写界深度予測ネットワークをトレーニングしてもよい。図3は本開示の実施例の教師なしのネットワークトレーニングのブロック図を示す。図3に示すように、目標時刻が時刻tであり、目標時刻に対応するサンプル画像フレーム系列301(即ち、目標時刻に対応するスライドウィンドウに含まれるサンプル画像フレーム系列)が時刻tの第1サンプル画像フレームI、時刻t-1の隣接サンプル画像フレームIt-1及び時刻t+1の隣接サンプル画像フレームIt+1を含む。サンプル画像フレーム系列における第1サンプル画像フレームの隣接サンプル画像フレームの数量は実際状況に応じて決定可能であり、本開示はこれを具体的に限定するものでない。
図3に示すトレーニング対象である被写界深度予測ネットワークに採用されたのは単一スケール特徴融合メカニズムである。ネットワークトのレーニング過程で、トレーニング対象である被写界深度予測ネットワークは図3に示す単一スケール特徴融合メカニズムを採用してもよいし、図2に示すマルチスケール特徴融合メカニズムを採用してもよく、本開示はこれを具体的に限定するものでない。図3に示すように、トレーニング対象である被写界深度予測ネットワークは、深度エンコーダ202、ConvGRU及び深度デコーダ205を含む。時刻tの第1サンプル画像フレームIを深度エンコーダ202に入力して特徴抽出を行って、第1サンプル画像フレームIに対応する第1特徴マップ
Figure 2022528012000030
を得、更に第1特徴マップ
Figure 2022528012000031
をConvGRUに入力して、第1特徴マップ
Figure 2022528012000032
とConvGRUに記憶された時刻t-1の第1隠れ状態情報
Figure 2022528012000033
に対して特徴融合を行って、時刻tの第1隠れ状態
Figure 2022528012000034
を得、ConvGRUは時刻tの第1隠れ状態
Figure 2022528012000035
を記憶し、時刻tの第1隠れ状態
Figure 2022528012000036
を深度デコーダ205に出力して、時刻tの第1サンプル画像フレームに対応するサンプル予測深度マップ
Figure 2022528012000037
を得る。
依然として上記図3を例とし、図3に示すように、カメラ運動予測ネットワークは、位置姿勢エンコーダ302、ConvGRU及び位置姿勢デコーダ303を含む。時刻tに対応するサンプル画像フレーム系列[I,It-1,It+1]を位置姿勢エンコーダ302に入力して特徴抽出を行って、サンプル画像フレーム系列に対応する第2特徴マップ
Figure 2022528012000038
を得、更に第2特徴マップ
Figure 2022528012000039
をConvGRUに入力して、第2特徴マップ
Figure 2022528012000040
とConvGRUに記憶された時刻t-1の第2隠れ状態情報
Figure 2022528012000041
に対して特徴融合を行って、時刻tの第2隠れ状態
Figure 2022528012000042
を得、ConvGRUは時刻tの第2隠れ状態
Figure 2022528012000043
を記憶し、時刻tの第2隠れ状態
Figure 2022528012000044
を位置姿勢デコーダに出力して、時刻tのサンプル画像フレーム系列に対応するサンプル予測カメラ運動[
Figure 2022528012000045
,
Figure 2022528012000046
]を得る。
依然として上記図3を例とし、サンプル予測深度マップ
Figure 2022528012000047
とサンプル予測カメラ運動[
Figure 2022528012000048
,
Figure 2022528012000049
]により、損失関数
Figure 2022528012000050
を構築できる。具体的には、サンプル予測カメラ運動[
Figure 2022528012000051
,
Figure 2022528012000052
]により、サンプル画像フレーム系列のうちの隣接サンプル画像フレームIt-1とIt+1の第1サンプル画像フレームIに対する再投影誤差項
Figure 2022528012000053
を決定し、また、サンプル予測深度マップ
Figure 2022528012000054
の分布連続性に基づいて、ペナルティ関数項
Figure 2022528012000055
を決定する。更に、下式(1)によって損失関数
Figure 2022528012000056
を構築し、

Figure 2022528012000057
(1)
ここで、
Figure 2022528012000058
は重み係数であり、実際状況に応じて
Figure 2022528012000059
の値の大きさを決定でき、本開示はこれを具体的に限定するものでない。
いくつかの実施例では、サンプル予測深度マップ
Figure 2022528012000060
の分布連続性に基づいてペナルティ関数項
Figure 2022528012000061
を決定する具体的な過程は以下のとおりである。第1サンプル画像フレームIにおける各画素点の勾配値を決定し、各画素点の勾配値が第1サンプル画像フレームIの分布連続性(平滑性と呼んでもよい)を表すことができるので、各画素点の勾配値により第1サンプル画像フレームIにおける縁領域(勾配値が閾値以上の画素点が構成した領域)と非縁領域(勾配値が閾値より小さい画素点が構成した領域)を決定でき、更に第1サンプル画像フレームIに対応するサンプル予測深度マップ
Figure 2022528012000062
における縁領域と非縁領域を決定できる。サンプル予測深度マップ
Figure 2022528012000063
における各画素点の勾配値を決定し、サンプル予測深度マップ
Figure 2022528012000064
における非縁領域の分布連続性及び縁領域の分布非連続性を確保するために、サンプル予測深度マップ
Figure 2022528012000065
における非縁領域中の各画素点に対して、勾配値に正比例するペナルティ要素を設定する。サンプル予測深度マップ
Figure 2022528012000066
における縁領域中の各画素点に対して、勾配値に反比例するペナルティ要素を設定する。更にサンプル予測深度マップ
Figure 2022528012000067
における各画素点のペナルティ要素に基づいて、ペナルティ関数項
Figure 2022528012000068
を構築する。
サンプル予測深度マップとサンプル予測カメラ運動は、被写界深度とカメラ運動の隣接時刻の間における時系列的な関連関係によって得られたものであるので、カメラ運動予測ネットワークで得られた予測カメラ運動により決定された再投影誤差項、及び被写界深度予測ネットワークで得られた予測深度マップにより決定されたペナルティ関数項によって構築された損失関数を総合的に利用して、トレーニング対象である被写界深度予測ネットワークをトレーニングすることで、トレーニングされた被写界深度予測ネットワークは被写界深度予測の予測精度を高くすることができる。
いくつかの実施例では、図3におけるカメラ運動予測ネットワークはトレーニング対象であるカメラ運動予測ネットワークであってもよく、上記損失関数によりトレーニング待ちカメラ運動ネットワークをトレーニングして、トレーニング対象である被写界深度予測ネットワークとトレーニング待ちカメラ運動ネットワークの共同訓練を実現して、トレーニング済みの被写界深度予測ネットワークとカメラ運動予測ネットワークを得ることができる。
予測深度マップと予測カメラ運動が被写界深度とカメラ運動の隣接時刻の間における時系列的な関連関係で得られたものであるので、カメラ運動予測ネットワークで得られた予測カメラ運動により決定された再投影誤差項、及び被写界深度予測ネットワークで得られた予測深度マップにより決定されたペナルティ関数項によって構築された損失関数を総合的に利用して、被写界深度予測ネットワークとカメラ運動予測ネットワークを共同訓練することで、トレーニングされた被写界深度予測ネットワークとカメラ運動予測ネットワークは被写界深度予測とカメラ運動予測の予測精度を高くすることができる。
いくつかの実施例では、深度エンコーダと位置姿勢エンコーダはResNet18構造を共用してもよく、ResNet54構造を共用してもよく、他の構造を共用してもよく、本開示はこれを具体的に限定するものでない。深度デコーダと位置姿勢デコーダはUnetネットワーク構造を採用してもよく、他のデコーダネットワーク構造を採用してもよく、本開示はこれを具体的に限定するものでない。
いくつかの実施例では、ConvGRUは畳み込み操作を含み、また、ConvGRU中の活性化関数がELU活性化関数である。
例えば、1次元データに対してしかデータ処理できない畳み込みゲート付き回帰型ユニットConvGRUを改良し、ConvGRU中の線形操作を畳み込み操作に換え、ConvGRU中のtanh活性化関数をELU活性化関数に換えることで、2次元画像データに対してデータ処理できるConvGRUを得ることができる。
被写界深度及び/又はカメラ運動が時系列的な関連関係を利用して、ConvGRUによって、異なる時刻の対応する画像フレーム系列に対して時系列で畳み込み処理を繰り返すことができ、これによって、異なる時刻の対応する第1隠れ状態及び/又は第2隠れ状態を得ることができる。
スライドウィンドウデータ融合メカニズムを実現するために、上記ConvGRUを採用することに加えて、畳み込み長期短期記憶ユニット(Convolutional Long Short-Term Memory:ConvLSTM)を採用してもよく、スライドウィンドウデータ融合を実現可能な他の構造を採用してもよく、本開示はこれを具体的に限定するものでない。
図4は本開示の実施例に係るカメラ運動予測方法のフローチャートを示す。図4に示すカメラ運動予測方法は、ユーザ側装置(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、携帯情報端末(Personal Digital Assistant:PDA)、携帯型デバイス、計算装置、車載装置、ウェアラブル装置等の端末機器又は他の処理装置により実行してもよい。他の処理装置はサーバ又はクラウドサーバ等であってもよい。いくつかの可能な実現形態において、このカメラ運動予測方法はプロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。図4に示すように、当該方法は、以下のステップを含んでもよい。
ステップS41で、時刻tに対応する画像フレーム系列を取得し、画像フレーム系列は時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む。
ステップS42で、カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて画像フレーム系列に対してカメラ位置姿勢予測を行って、画像フレーム系列に対応する予測カメラ運動を決定し、第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、カメラ運動予測ネットワークは、被写界深度予測ネットワークを補助としてトレーニングして得られる。
本開示の実施例で、時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む画像フレーム系列を取得し、隣接時刻の間でカメラ運動は時系列的な関連関係があるので、時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、カメラ運動予測ネットワークによって画像フレーム系列に対してカメラ位置姿勢予測を行うことで、画像フレーム系列に対応する予測精度の高い予測カメラ運動を得ることができる。
いくつかの実施例では、カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて画像フレーム系列に対してカメラ位置姿勢予測を行って、画像フレーム系列に対応する予測カメラ運動を決定するステップは、画像フレーム系列に対して特徴抽出を行って、画像フレーム系列に対応する第2特徴マップを決定するステップであって、第2特徴マップはカメラ運動に関連する特徴マップであるステップと、第2特徴マップと時刻t-1の第2隠れ状態情報に基づいて、時刻tの第2隠れ状態情報を決定するステップと、時刻tの第2隠れ状態情報に基づいて、予測カメラ運動を決定するステップと、を含んでもよい。
隣接時刻の間でカメラ運動は時系列的な関連関係があるので、カメラ運動予測ネットワークは、時刻tの画像フレーム系列に対応する被写界深度に関連する第2特徴マップ、及び時刻t-1のカメラ運動に関連する第2隠れ状態情報を用いて、時刻tのカメラ運動に関連する第2隠れ状態情報を決定でき、更に時刻tのカメラ運動に関連する第2隠れ状態情報に基づいて時刻tの画像フレーム系列に対してカメラ運動予測を行って、時刻tの画像フレーム系列に対応する予測精度の高い予測深度マップを得ることができる。
いくつかの実施例では、予測カメラ運動は画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含んでもよい。ここで、相対的位置姿勢は6次元パラメータであり、3次元回転情報と3次元平行移動情報を含む。
例えば、予測カメラ運動[
Figure 2022528012000069
,
Figure 2022528012000070
]は、隣接画像フレームIt-1~目標画像フレームIの間の相対的位置姿勢
Figure 2022528012000071
、及び目標画像フレームI~隣接画像フレームIt+1の間の相対的位置姿勢
Figure 2022528012000072
を含む。
上記図3を例とし、図3に示すように、カメラ運動予測ネットワークは、位置姿勢エンコーダ、ConvGRU及び位置姿勢デコーダを含む。時刻tに対応する画像フレーム系列[I,It-1,It+1]を位置姿勢エンコーダ302に入力して特徴抽出を行って、画像フレーム系列に対応する第2特徴マップ
Figure 2022528012000073
を得、更に第2特徴マップ
Figure 2022528012000074
をConvGRUに入力して、第2特徴マップ
Figure 2022528012000075
とConvGRUに記憶された時刻t-1の第2隠れ状態情報
Figure 2022528012000076
に対して特徴融合を行い、時刻tの第2隠れ状態
Figure 2022528012000077
を得、ConvGRUは時刻tの第2隠れ状態
Figure 2022528012000078
を記憶し、時刻tの第2隠れ状態
Figure 2022528012000079
を位置姿勢デコーダに出力して、時刻tの画像フレーム系列に対応する予測カメラ運動[
Figure 2022528012000080
,
Figure 2022528012000081
]を得る。
例えば、カメラ運動予測ネットワークを用いて画像フレーム系列に対応する予測カメラ運動を予測する時に、カメラ運動予測ネットワークの初期化段階で、カメラ運動に関連する第2隠れ状態情報の事前設定初期値を設定する。第2隠れ状態情報の事前設定初期値及び第1時刻の画像フレーム系列に対応する、カメラ運動に関連する第2特徴マップに基づいて、第1時刻の第2隠れ状態を決定し、更に第1時刻の第2隠れ状態に基づいて第1時刻の画像フレーム系列に対してカメラ運動予測を行って、第1時刻の画像フレーム系列に対応する予測カメラ運動を得、また、第1時刻の第2隠れ状態及び第2時刻の画像フレーム系列に対応する、カメラ運動に関連する第2特徴マップに基づいて、第2時刻の第2隠れ状態を決定し、更に第2時刻の第2隠れ状態に基づいて第2時刻の画像フレーム系列に対してカメラ運動予測を行って、第2時刻の画像フレーム系列に対応する予測カメラ運動を得、また、第2時刻の第2隠れ状態及び第3時刻の画像フレーム系列に対応する、カメラ運動に関連する第2特徴マップに基づいて、第3時刻の第2隠れ状態を決定し、更に第3時刻の第2隠れ状態に基づいて第3時刻の画像フレーム系列に対してカメラ運動予測を行って、第3時刻の画像フレーム系列に対応する予測カメラ運動を得、これによって類推して、最終的に異なる時刻の画像フレーム系列に対応する予測カメラ運動を得る。
いくつかの実施例では、当該カメラ運動予測方法は、時刻tに対応するサンプル画像フレーム系列を取得するステップであって、サンプル画像フレーム系列は時刻tの第1サンプル画像フレームと第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して被写界深度予測を行って、第1サンプル画像フレームに対応する予測深度マップを決定するステップであって、第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いてサンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、サンプル予測深度マップとサンプル予測カメラ運動に基づいて損失関数を構築するステップと、損失関数により、トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、カメラ運動予測ネットワークを得るステップと、を更に含んでもよい。
いくつかの実施例では、サンプル予測深度マップとサンプル予測カメラ運動に基づいて損失関数を構築するステップは、サンプル予測カメラ運動に基づいてサンプル画像フレーム系列のうちの第1サンプル画像フレームの隣接サンプル画像フレームの第1サンプル画像フレームに対する再投影誤差項を決定するステップと、サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、再投影誤差項とペナルティ関数項により、損失関数を構築するステップと、を含んでもよい。
本開示の実施例で、カメラ運動予測ネットワークは、被写界深度予測ネットワークを補助としてトレーニングして得られたものであり、又は、被写界深度予測ネットワークとカメラ運動予測ネットワークは共同訓練して得られたものである。いくつかの実施例では、上記図3に基づいてトレーニング対象であるカメラ運動予測ネットワークをトレーニングしてもよく、このトレーニング過程で、図3におけるカメラ運動予測ネットワークはトレーニング対象であるカメラ運動予測ネットワークであり、図3における被写界深度予測ネットワークはトレーニング対象である被写界深度予測ネットワークであってもよく(トレーニング対象である被写界深度予測ネットワークとトレーニング対象であるカメラ運動予測ネットワークを共同訓練)、トレーニング済みの被写界深度予測ネットワークであってもよく(トレーニング対象であるカメラ運動予測ネットワークを単独トレーニング)、具体的なトレーニング過程は上記図3と同じであり、本開示の実施例はここで詳細に説明しない。
予測深度マップと予測カメラ運動は、被写界深度とカメラ運動の隣接時刻の間における時系列的な関連関係によって得られたものであるので、カメラ運動予測ネットワークで得られた予測カメラ運動により決定された再投影誤差項、及び被写界深度予測ネットワークで得られた予測深度マップにより決定されたペナルティ関数項に基づいて構築された損失関数を総合的に利用して、被写界深度予測ネットワークとカメラ運動予測ネットワークを共同訓練することで、トレーニングされた被写界深度予測ネットワークとカメラ運動予測ネットワークは被写界深度予測とカメラ運動予測の予測精度を高くすることができる。
本開示の実施例で、上記図3に示すネットワークトレーニング方法によってトレーニングされた被写界深度予測ネットワークとカメラ運動予測ネットワークは環境の深度予測と3次元シーンの構築に利用可能である。例えば、被写界深度予測ネットワークを清掃ロボット、草刈り機等の室内外の移動ロボットの走行誘導シーンに適用し、赤緑青(Red Green Blue:RGB)カメラによってRGB画像を得、更に被写界深度予測ネットワークを用いてRGB画像に対応する予測深度マップを決定し、カメラ予測ネットワークを用いてRGBカメラのカメラ運動を決定することで、障害物の距離測定と3次元シーンの構築を可能にして、障害物回避と走行誘導タスクを遂行する。
本開示で言及される上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて、組み合わせ後の実施例を形成することができることが理解され、紙数に限りがあるので、本開示では詳細な説明を省略する。具体的な実施形態の上記方法において、各ステップの具体的な実行順序はその機能と可能な内在的論理に依存することが当業者に理解される。
また、本開示は被写界深度/カメラ運動予測装置、電子機器、コンピュータ可読記憶媒体並びにプログラムを更に提供し、それらはいずれも本開示で提供されるいずれか一種の被写界深度/カメラ運動予測方法を実現するために利用可能であり、それらに対応する技術手段及び説明については方法部分に対応する記載を参照してもよく、ここで省略する。
図5は本開示の実施例に係る被写界深度予測装置のブロック図を示す。図5に示すように、被写界深度予測装置50は、
時刻tの目標画像フレームを取得するように構成される第1取得モジュール51と、
被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて目標画像フレームに対して被写界深度予測を行って、目標画像フレームに対応する予測深度マップを決定するように構成される第1被写界深度予測モジュール52であって、第1隠れ状態情報は被写界深度に関連する特徴情報を含み、被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られる第1被写界深度予測モジュール52と、を備える。
いくつかの実施例では、第1被写界深度予測モジュール52は、
目標画像フレームに対して特徴抽出を行って、目標画像フレームに対応する第1特徴マップを決定するように構成される第1決定サブモジュールであって、第1特徴マップは被写界深度に関連する特徴マップである第1決定サブモジュールと、
第1特徴マップと時刻t-1の第1隠れ状態情報に基づいて、時刻tの第1隠れ状態情報を決定するように構成される第2決定サブモジュールと、
時刻tの第1隠れ状態情報に基づいて、予測深度マップを決定するように構成される第3決定サブモジュールと、を備える。
いくつかの実施例では、時刻t-1の第1隠れ状態情報は時刻t-1の異なるスケールにおける第1隠れ状態情報を含み、
第1決定サブモジュールは、具体的に、目標画像フレームに対してマルチスケールダウンサンプリングを行って、目標画像フレームに対応する、異なるスケールにおける第1特徴マップを決定するように構成され、
第2決定サブモジュールは、具体的に、いずれか1つのスケールに対して、当該スケールにおける第1特徴マップと時刻t-1の当該スケールにおける第1隠れ状態情報に基づいて、時刻tの当該スケールにおける第1隠れ状態情報を決定するように構成され、
第3決定サブモジュールは、具体的に、時刻tの異なるスケールにおける第1隠れ状態情報に対して特徴融合を行って、予測深度マップを決定するように構成される。
いくつかの実施例では、被写界深度予測装置50は、
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
トレーニング対象である被写界深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象である被写界深度予測ネットワークをトレーニングして、前記被写界深度予測ネットワークを得るステップと、を実行するように構成される第1トレーニングモジュールを更に備える。
いくつかの実施例では、第1トレーニングモジュールは、具体的に、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される。
図6は本開示の実施例に係るカメラ運動予測装置のブロック図を示す。図6に示すように、カメラ運動予測装置60は、
時刻tに対応する画像フレーム系列を取得するように構成される第2取得モジュール61であって、画像フレーム系列は時刻tの目標画像フレームと目標画像フレームの隣接画像フレームを含む第2取得モジュール61と、
カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて画像フレーム系列に対してカメラ位置姿勢予測を行って、画像フレーム系列に対応する予測カメラ運動を決定するように構成される第1カメラ運動予測モジュール62であって、第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、カメラ運動予測ネットワークは、被写界深度予測ネットワークを補助としてトレーニングして得られる第1カメラ運動予測モジュール62と、を備える。
いくつかの実施例では、第1カメラ運動予測モジュール62は、
画像フレーム系列に対して特徴抽出を行って、画像フレーム系列に対応する第2特徴マップを決定するように構成される第6決定サブモジュールであって、第2特徴マップはカメラ運動に関連する特徴マップである第6決定サブモジュールと、
第2特徴マップと時刻t-1の第2隠れ状態情報に基づいて、時刻tの第2隠れ状態情報を決定するように構成される第7決定サブモジュールと、
時刻tの第2隠れ状態情報に基づいて、予測カメラ運動を決定するように構成される第8決定サブモジュールと、を備える。
いくつかの実施例では、予測カメラ運動は画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む。
いくつかの実施例では、カメラ運動予測装置60は、
時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、
トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を実行するように構成される第2トレーニングモジュールを更に備える。
いくつかの実施例では、第2トレーニングモジュールは、具体的に、前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される。
いくつかの実施例では、本開示の実施例で提供された装置に備えた機能又はモジュールは、上記方法実施例に記載の方法を実行するために用いられ、その具体的な実施形態については上記方法実施例の説明を参照してよく、簡単化するために、ここで重複説明は割愛する。
本開示の実施例は、コンピュータプログラム指令が記憶されており、前記コンピュータプログラム指令がプロセッサに実行される時に、上記方法を実現するコンピュータ可読記憶媒体を更に提供する。コンピュータ可読記憶媒体は揮発性又は非揮発性コンピュータ可読記憶媒体であってもよい。
本開示の実施例は、プロセッサと、プロセッサ実行可能指令を記憶するように構成されるメモリと、を備え、前記プロセッサは前記メモリに記憶された指令を呼び出して上記のいずれか1種の被写界深度予測方法又は上記のいずれか1種のカメラ運動予測方法を実行するように構成される電子機器を更に提供する。
本開示の実施例は、コンピュータ可読コードを含み、コンピュータ可読コードが機器で実行される時に、機器中のプロセッサが上記のいずれか1つの実施例で提供された被写界深度及び/又はカメラ運動予測方法を実現するための指令を実行するコンピュータプログラム製品を更に提供する。
本開示の実施例は、コンピュータ可読指令を記憶するように構成され、指令が実行される時にコンピュータが上記のいずれか1つの実施例で提供された被写界深度及び/又はカメラ運動予測方法の操作を実行する別のコンピュータプログラム製品を更に提供する。
電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
図7は本開示の実施例に係る電子機器800のブロック図を示す。図7に示すように、電子機器800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、携帯情報端末等の端末であってもよい。
図7を参照すると、電子機器800は第1処理コンポーネント802、第1メモリ804、第1電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、第1入力/出力(Input Output:I/O)インタフェース812、センサコンポーネント814、及び通信コンポーネント816の一つ又は複数を含むことができる。
第1処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作及び記録動作に関連する動作を制御する。第1処理コンポーネント802は、上記方法の全て又は一部のステップを完了するために、一つ又は複数のプロセッサ820を含んで命令を実行することができる。また、第1処理コンポーネント802は、他のコンポーネントとの対話のために、一つ又は複数のモジュールを含むことができる。例えば、第1処理コンポーネント802は、マルチメディアコンポーネント808との対話のために、マルチメディアモジュールを含むことができる。
第1メモリ804は電子機器800での動作をサポートするために様々なタイプのデータを記憶するように構成される。これらのデータの例は電子機器800において運用するためのあらゆるアプリケーションプログラム又は方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオ等を含む。第1メモリ804は、例えば静的ランダムアクセスメモリ(Static Random-Access Memory:SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(Electrically Erasable Programmable Read Only Memory:EEPROM)、消去可能なプログラマブル読み取り専用メモリ(Electrical Programmable Read Only Memory:EPROM)、プログラマブル読み取り専用メモリ(Programmable Read-Only Memory:PROM)、読み取り専用メモリ(Read-Only Memory:ROM)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスク等の様々なタイプの揮発性又は非揮発性記憶機器又はそれらの組み合わせによって実現できる。
第1電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。第1電源コンポーネント806は電源管理システム、一つ又は複数の電源、及び電子機器800のための電力生成、管理及び配分に関連する他のコンポーネントを含むことができる。
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インタフェースを提供する画面を含む。いくつかの実施例では、画面は液晶ディスプレイ(Liquid Crystal Display:LCD)及びタッチパネル(Touch Pad:TP)を含むことができる。画面は、タッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチ画面として実現してもよい。タッチパネルは、タッチ、スライド及びタッチパネルでのジェスチャを検知するために、一つ又は複数のタッチセンサを含む。前記タッチセンサはタッチ又はスライド動きの境界を検知するのみならず、前記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラ及び/又は後面カメラを含む。電子機器800が動作モード、例えば撮影モード又は撮像モードになる場合、前面カメラ及び/又は後面カメラは外部のマルチメディアデータを受信することができる。各前面カメラ及び後面カメラは固定された光学レンズ系又は焦点距離及び光学ズーム能力を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、電子機器800が動作モード、例えば呼び出しモード、記録モード及び音声認識モードになる場合、外部のオーディオ信号を受信するように構成されたマイク(MIC)を含む。受信されたオーディオ信号はさらに第1メモリ804に記憶されるか、又は通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
第1入力/出力インタフェース812は第1処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタン等であってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタン及びロックボタンを含むことができるが、これらに限定されない。
センサコンポーネント814は電子機器800に各面での状態評価を提供するための一つ又は複数のセンサを含む。例えば、センサコンポーネント814は電子機器800のオン/オフ状態、及び、例えば電子機器800の表示装置やキーパッドであるコンポーネントの相対的位置決めを検出でき、センサコンポーネント814はさらに、電子機器800又は電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加減速及び電子機器800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するように構成された近接センサを含む。センサコンポーネント814はさらに、相補型金属酸化物半導体(Complementary Metal Oxide Semiconductor:CMOS)又は電荷結合素子(Charge Coupled Device:CCD)イメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含むことができる。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサ又は温度センサを含むことができる。
通信コンポーネント816は電子機器800と他の機器との間の有線又は無線通信を実現するように構成される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2G又は3G、又はそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルによって外部の放送管理システムの放送信号又は放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(Near Field Communication:NFC)モジュールを含む。例えば、NFCモジュールでは無線周波数識別(Radio Frequency Identification:RFID)技術、赤外線データ協会(Infrared Data Association:IrDA)技術、超広帯域(Ultra Wide Band:UWB)技術、ブルートゥース(Bluetooth:BT)技術及び他の技術によって実現できる。
例示的な実施例では、電子機器800は一つ又は複数の特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、デジタル信号プロセッサ(Digital Signal Processor:DSP)、デジタル信号処理装置(Digital Signal Process:DSPD)、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子要素によって実現し、上記のいずれか1種の被写界深度予測方法又は上記のいずれか1種のカメラ運動予測方法を実行するために用いることができる。
例示的な実施例では、さらに、非揮発性コンピュータ可読記憶媒体、例えばコンピュータプログラム命令を含む第1メモリ804が提供され、上記コンピュータプログラム命令は電子機器800のプロセッサ820によって実行して上記のいずれか1種の被写界深度予測方法又は上記のいずれか1種のカメラ運動予測方法を完了することができる。
図8は本開示の実施例に係る電子機器のブロック図を示す。図8に示すように、電子機器900はサーバとして提供できる。図8を参照すると、電子機器900は、さらに一つ又は複数のプロセッサを含む第2処理コンポーネント922、及び、第2処理コンポーネント922によって実行可能な命令、例えばアプリケーションプログラムを記憶するための、第2メモリ932を代表とするメモリ資源を含む。第2メモリ932に記憶されたアプリケーションプログラムはそれぞれが1グループの命令に対応する一つ又は複数のモジュールを含むことができる。また、第2処理コンポーネント922は命令を実行し、それによって上記のいずれか1種の被写界深度予測方法又は上記のいずれか1種のカメラ運動予測方法を実行するように構成される。
電子機器900はさらに、電子機器900の電源管理を実行するように構成された第2電源コンポーネント926、電子機器900をネットワークにアクセスするように構成された有線又は無線ネットワークインタフェース950、及び第2入出力(I/O)インタフェース958を含むことができる。電子機器900は第2メモリ932に記憶されたオペレーティングシステム、例えばWindows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM又は類似するものに基づいて動作できる。
例示的な実施例では、さらに、非揮発性コンピュータ可読記憶媒体、例えばコンピュータプログラム命令を含む第2メモリ932が提供され、上記コンピュータプログラム命令は電子機器900の第2処理コンポーネント922によって実行して上記のいずれか1種の被写界深度予測方法又は上記のいずれか1種のカメラ運動予測方法を完了することができる。
本開示はシステム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各態様を実現させるためのコンピュータ可読プログラム命令がロードされているコンピュータ可読記憶媒体を含むことができる。
コンピュータ可読記憶媒体は命令実行機器により使用される命令を保存及び記憶可能な有形機器であってもよい。コンピュータ可読記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のさらに具体的な例(非包括的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(Random-Access Memory:RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、及び機械的符号化装置、例えば命令が記憶されているせん孔カード又はスロット内突起構造、並びに上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ可読記憶媒体は瞬時信号自体、例えば無線電波又は他の自由に伝播される電磁波、導波路又は他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、又は電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ可読プログラム命令はコンピュータ可読記憶媒体から各計算/処理機器にダウンロードされてもよいし、又はネットワーク、例えばインタネット、ローカルエリアネットワーク、広域ネットワーク及び/又は無線ネットワークによって外部のコンピュータ又は外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含むことができる。各計算/処理機器内のネットワークアダプタカード又はネットワークインタフェースはネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各計算/処理機器内のコンピュータ可読記憶媒体に記憶する。
本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(Instruction Set Architecture:ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、C++等のオブジェクト指向プログラミング言語、及び「C」言語又は類似するプログラミング言語等の一般的な手続き型プログラミング言語を含む一つ又は複数のプログラミング言語の任意の組み合わせで書かれたソースコード又は目標コードであってもよい。コンピュータ可読プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいて且つ部分的にリモートコンピュータにおいて実行されてもよく、又は完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(Local Area Network:LAN)又は広域ネットワーク(Wide Area Network:WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、又は、外部コンピュータに接続されてもよい(例えばインタネットサービスプロバイダを用いてインタネット経由で接続する)。いくつかの実施例では、コンピュータ可読プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)又はプログラマブル論理アレイ(Programmable Logic Array:PLA)等の電子回路をパーソナライズすることで、該電子回路はコンピュータ可読プログラム命令を実行し、それにより本開示の各態様を実現できるようになる。
なお、ここで本開示の実施例に係る方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら本開示の各態様を説明しが、フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図の各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令によって実現できることを理解すべきである。
これらのコンピュータ可読プログラム命令は、機械を製造するために、共通コンピュータ、専用コンピュータ又は他のプログラマブルデータ処理装置のプロセッサへ提供されてもよく、それにより、これらの命令はコンピュータ又は他のプログラマブルデータ処理装置のプロセッサによって実行され、フローチャート及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能/動作を実現する手段を創出する。また、これらのコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体に記憶し、それによってコンピュータ、プログラマブルデータ処理装置及び/又は他の機器を特定の方式で動作させるようにしてもよく、それにより、中に保存された命令を有するコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能/動作の各態様を実現する命令を含む製品を備える。
コンピュータ可読プログラムはコンピュータ、他のプログラマブルデータ処理装置、又は他の機器にロードすることにより、コンピュータ実施プロセスを生成するように、コンピュータ、他のプログラマブルデータ処理装置又は他の機器において一連の動作ステップを実行させるようにしてもよく、それにより、コンピュータ、他のプログラマブルデータ処理装置、又は他の機器において実行される命令はフローチャート及び/又はブロック図の一つ又は複数のブロックにおいて指定された機能/動作を実現する。
図面のうちフローチャート及びブロック図は本開示の複数の実施例に係るシステム、方法及びコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能及び動作を示す。この点では、フローチャート又はブロック図における各ブロックは一つのモジュール、プログラムセグメント又は命令の一部分を代表することができ、前記モジュール、プログラムセグメント又は命令の一部分は指定された論理機能を実現するための一つ又は複数の実行可能命令を含む。いくつかの置換としての実現形態では、ブロックに表記される機能は図面に付したものと異なる順序で実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、それらは逆な順序で実行してもよい場合がある。なお、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、指定される機能又は動作を実行するハードウェアに基づく専用システムによって実現してもよいし、又は専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことに注意すべきである。
該コンピュータプログラム製品は具体的にはハードウェア、ソフトウェア又はそれらの組み合わせにより実現可能である。選択可能な一実施例において、前記コンピュータプログラム製品は具体的にはコンピュータ記憶媒体として実現され、別の選択可能な一実施例において、コンピュータプログラム製品は具体的には、例えばソフトウェア開発キット(Software Development Kit:SDK)等のソフトウェア製品として実現される。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、且つ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲及び精神から逸脱することなく、様々な修正及び変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用又は市場における技術への技術的改善を好適に解釈するか、又は他の当業者に本文に披露された各実施例を理解させるためのものである。
本開示の実施例は、時刻tの目標画像フレームを取得するステップと、被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して被写界深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含み、前記被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られるステップと、を含む被写界深度とカメラ運動を予測する方法及び装置、電子機器、媒体並びにプログラムを提供する。本開示の実施例は目標画像フレームに対応する予測精度の高い予測深度マップを得ることができる。

Claims (23)

  1. 時刻tの目標画像フレームを取得するステップと、
    被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して被写界深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含み、前記被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られるステップと、を含む被写界深度予測方法。
  2. 被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して被写界深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するステップは、
    前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップであって、前記第1特徴マップは被写界深度に関連する特徴マップであるステップと、
    前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップと、
    時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップと、を含む
    請求項1に記載の方法。
  3. 前記時刻t-1の前記第1隠れ状態情報は時刻t-1の異なるスケールにおける前記第1隠れ状態情報を含み、
    前記目標画像フレームに対して特徴抽出を行って、前記目標画像フレームに対応する第1特徴マップを決定するステップは、
    前記目標画像フレームに対してマルチスケールダウンサンプリングを行って、前記目標画像フレームに対応する、異なるスケールにおける前記第1特徴マップを決定するステップを含み、
    前記第1特徴マップと時刻t-1の前記第1隠れ状態情報に基づいて、時刻tの前記第1隠れ状態情報を決定するステップは、
    いずれか1つのスケールに対して、当該スケールにおける前記第1特徴マップと時刻t-1の当該スケールにおける前記第1隠れ状態情報に基づいて、時刻tの当該スケールにおける前記第1隠れ状態情報を決定するステップを含み、
    時刻tの前記第1隠れ状態情報に基づいて、前記予測深度マップを決定するステップは、
    時刻tの異なるスケールにおける前記第1隠れ状態情報に対して特徴融合を行って、前記予測深度マップを決定するステップを含む
    請求項2に記載の方法。
  4. 時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
    カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
    トレーニング対象である被写界深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、
    前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
    前記損失関数により、前記トレーニング対象である被写界深度予測ネットワークをトレーニングして、前記被写界深度予測ネットワークを得るステップと、を更に含む
    請求項1-3のいずれか一項に記載の方法。
  5. 前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、
    前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、
    前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、
    前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を含む
    請求項4に記載の方法。
  6. 時刻tに対応する画像フレーム系列を取得するステップであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含むステップと、
    カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、前記カメラ運動予測ネットワークは、被写界深度予測ネットワークを補助としてトレーニングして得られるステップと、を含むカメラ運動予測方法。
  7. カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するステップは、
    前記画像フレーム系列に対して特徴抽出を行って、前記画像フレーム系列に対応する第2特徴マップを決定するステップであって、前記第2特徴マップはカメラ運動に関連する特徴マップであるステップと、
    前記第2特徴マップと時刻t-1の前記第2隠れ状態情報に基づいて、時刻tの前記第2隠れ状態情報を決定するステップと、
    時刻tの前記第2隠れ状態情報に基づいて、前記予測カメラ運動を決定するステップと、を含む
    請求項6に記載の方法。
  8. 前記予測カメラ運動は、前記画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む
    請求項6又は7に記載の方法。
  9. 時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
    被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、
    トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
    前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
    前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を更に含む
    請求項6~8のいずれか一項に記載の方法。
  10. 前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップは、
    前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、
    前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、
    前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を含む
    請求項9に記載の方法。
  11. 時刻tの目標画像フレームを取得するように構成される第1取得モジュールと、
    被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記目標画像フレームに対して被写界深度予測を行って、前記目標画像フレームに対応する予測深度マップを決定するように構成される第1被写界深度予測モジュールであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含み、前記被写界深度予測ネットワークは、カメラ運動予測ネットワークを補助としてトレーニングして得られる第1被写界深度予測モジュールと、を備える被写界深度予測装置。
  12. 前記第1被写界深度予測モジュールは、
    目標画像フレームに対して特徴抽出を行って、目標画像フレームに対応する第1特徴マップを決定するように構成される第1決定サブモジュールであって、第1特徴マップは被写界深度に関連する特徴マップである第1決定サブモジュールと、
    第1特徴マップと時刻t-1の第1隠れ状態情報に基づいて、時刻tの第1隠れ状態情報を決定するように構成される第2決定サブモジュールと、
    時刻tの第1隠れ状態情報に基づいて、予測深度マップを決定するように構成される第3決定サブモジュールと、を備える
    請求項11に記載の装置。
  13. 前記時刻t-1の第1隠れ状態情報は時刻t-1の異なるスケールにおける第1隠れ状態情報を含み、
    第1決定サブモジュールは、具体的に、目標画像フレームに対してマルチスケールダウンサンプリングを行って、目標画像フレームに対応する、異なるスケールにおける第1特徴マップを決定するように構成され、
    第2決定サブモジュールは、具体的に、いずれか1つのスケールに対して、当該スケールにおける第1特徴マップと時刻t-1の当該スケールにおける第1隠れ状態情報に基づいて、時刻tの当該スケールにおける第1隠れ状態情報を決定するように構成され、
    第3決定サブモジュールは、具体的に、時刻tの異なるスケールにおける第1隠れ状態情報に対して特徴融合を行って、予測深度マップを決定するように構成される
    請求項12に記載の装置。
  14. 時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
    カメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
    トレーニング対象である被写界深度予測ネットワークによって、時刻t-1の第1隠れ状態情報を用いて、前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、
    前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
    前記損失関数により、前記トレーニング対象である被写界深度予測ネットワークをトレーニングして、前記被写界深度予測ネットワークを得るステップと、を実行するように構成される第1トレーニングモジュールを更に備える
    請求項11~13のいずれか一項に記載の装置。
  15. 前記第1トレーニングモジュールは、具体的に、
    前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される
    請求項14に記載の装置。
  16. 時刻tに対応する画像フレーム系列を取得するように構成される第2取得モジュールであって、前記画像フレーム系列は、時刻tの目標画像フレームと前記目標画像フレームの隣接画像フレームを含む第2取得モジュールと、
    カメラ運動予測ネットワークによって、時刻t-1の第2隠れ状態情報を用いて前記画像フレーム系列に対してカメラ位置姿勢予測を行って、前記画像フレーム系列に対応する予測カメラ運動を決定するように構成される第1カメラ運動予測モジュールであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含み、前記カメラ運動予測ネットワークは、被写界深度予測ネットワークを補助としてトレーニングして得られる第1カメラ運動予測モジュールと、を備えるカメラ運動予測装置。
  17. 前記第1カメラ運動予測モジュールは、
    画像フレーム系列に対して特徴抽出を行って、画像フレーム系列に対応する第2特徴マップを決定するように構成される第6決定サブモジュールであって、第2特徴マップはカメラ運動に関連する特徴マップである第6決定サブモジュールと、
    第2特徴マップと時刻t-1の第2隠れ状態情報に基づいて、時刻tの第2隠れ状態情報を決定するように構成される第7決定サブモジュールと、
    時刻tの第2隠れ状態情報に基づいて、予測カメラ運動を決定するように構成される第8決定サブモジュールと、を備える
    請求項16に記載の装置。
  18. 前記予測カメラ運動は画像フレーム系列のうちの隣接画像フレーム間の相対的位置姿勢を含む
    請求項16又は17に記載の装置。
  19. 時刻tに対応するサンプル画像フレーム系列を取得するステップであって、前記サンプル画像フレーム系列は、時刻tの第1サンプル画像フレームと前記第1サンプル画像フレームの隣接サンプル画像フレームを含むステップと、
    被写界深度予測ネットワークによって時刻t-1の第1隠れ状態情報を用いて前記第1サンプル画像フレームに対して被写界深度予測を行って、前記第1サンプル画像フレームに対応するサンプル予測深度マップを決定するステップであって、前記第1隠れ状態情報は被写界深度に関連する特徴情報を含むステップと、
    トレーニング対象であるカメラ運動予測ネットワークによって時刻t-1の第2隠れ状態情報を用いて前記サンプル画像フレーム系列に対してカメラ位置姿勢予測を行って、前記サンプル画像フレーム系列に対応するサンプル予測カメラ運動を決定するステップであって、前記第2隠れ状態情報はカメラ運動に関連する特徴情報を含むステップと、
    前記サンプル予測深度マップと前記サンプル予測カメラ運動に基づいて損失関数を構築するステップと、
    前記損失関数により、前記トレーニング対象であるカメラ運動予測ネットワークをトレーニングして、前記カメラ運動予測ネットワークを得るステップと、を実行するように構成される第2トレーニングモジュールを更に備える
    請求項16~18のいずれか一項に記載の装置。
  20. 前記第2トレーニングモジュールは、具体的に、
    前記サンプル予測カメラ運動に基づいて前記サンプル画像フレーム系列のうちの前記第1サンプル画像フレームの隣接サンプル画像フレームの前記第1サンプル画像フレームに対する再投影誤差項を決定するステップと、前記サンプル予測深度マップの分布連続性に基づいて、ペナルティ関数項を決定するステップと、前記再投影誤差項と前記ペナルティ関数項により、前記損失関数を構築するステップと、を実行するように構成される
    請求項19に記載の装置。
  21. プロセッサと、
    プロセッサ実行可能指令を記憶するように構成されるメモリと、を備え、
    前記プロセッサは前記メモリに記憶された指令を呼び出して請求項1~10のいずれか一項に記載の方法を実行するように構成される電子機器。
  22. コンピュータプログラム指令が記憶されており、前記コンピュータプログラム指令がプロセッサに実行される時に、請求項1~10のいずれか一項に記載の方法を実現するコンピュータ可読記憶媒体。
  23. コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で実行される時に、前記電子機器内のプロセッサが請求項1~10のいずれか一項に記載の方法を実現するための指令を実行するコンピュータプログラム。
JP2021565990A 2020-04-28 2021-02-08 場面深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム Active JP7178514B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010348872.2 2020-04-28
CN202010348872.2A CN111540000B (zh) 2020-04-28 2020-04-28 场景深度和相机运动预测方法及装置、电子设备和介质
PCT/CN2021/076038 WO2021218282A1 (zh) 2020-04-28 2021-02-08 场景深度和相机运动预测方法及装置、设备、介质和程序

Publications (2)

Publication Number Publication Date
JP2022528012A true JP2022528012A (ja) 2022-06-07
JP7178514B2 JP7178514B2 (ja) 2022-11-25

Family

ID=71977213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021565990A Active JP7178514B2 (ja) 2020-04-28 2021-02-08 場面深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム

Country Status (5)

Country Link
JP (1) JP7178514B2 (ja)
KR (1) KR102397268B1 (ja)
CN (1) CN111540000B (ja)
TW (1) TWI767596B (ja)
WO (1) WO2021218282A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111540000B (zh) * 2020-04-28 2021-11-05 深圳市商汤科技有限公司 场景深度和相机运动预测方法及装置、电子设备和介质
CN112492230B (zh) * 2020-11-26 2023-03-24 北京字跳网络技术有限公司 视频处理方法、装置、可读介质及电子设备
CN112232322A (zh) * 2020-12-14 2021-01-15 支付宝(杭州)信息技术有限公司 一种基于对象状态预测的图像生成方法及装置
CN112767481B (zh) * 2021-01-21 2022-08-16 山东大学 一种基于视觉边缘特征的高精度定位及建图方法
CN114339402A (zh) * 2021-12-31 2022-04-12 北京字节跳动网络技术有限公司 视频播放完成率预测方法、装置、介质及电子设备
KR102559936B1 (ko) * 2022-01-28 2023-07-27 포티투닷 주식회사 단안 카메라를 이용하여 깊이 정보를 추정하는 방법 및 장치
WO2023155043A1 (zh) * 2022-02-15 2023-08-24 中国科学院深圳先进技术研究院 一种基于历史信息的场景深度推理方法、装置及电子设备
CN114998403A (zh) * 2022-06-13 2022-09-02 北京百度网讯科技有限公司 深度预测方法、装置、电子设备、介质
TWI823491B (zh) * 2022-07-22 2023-11-21 鴻海精密工業股份有限公司 深度估計模型的優化方法、裝置、電子設備及存儲介質

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019099684A1 (en) * 2017-11-15 2019-05-23 Google Llc Unsupervised learning of image depth and ego-motion prediction neural networks

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109964237B (zh) * 2016-09-15 2020-07-17 谷歌有限责任公司 图像深度预测神经网络
CN106780543B (zh) * 2017-01-13 2019-06-28 深圳市唯特视科技有限公司 一种基于卷积神经网络的双框架估计深度和运动方法
EP3847619B1 (en) * 2018-09-05 2023-11-01 Google LLC Unsupervised depth prediction neural networks
US10860873B2 (en) * 2018-09-17 2020-12-08 Honda Motor Co., Ltd. Driver behavior recognition and prediction
CN109978851B (zh) * 2019-03-22 2021-01-15 北京航空航天大学 一种红外视频空中弱小运动目标检测跟踪方法
CN110060286B (zh) * 2019-04-25 2023-05-23 东北大学 一种单目深度估计方法
CN110136185B (zh) * 2019-05-23 2022-09-06 中国科学技术大学 一种单目深度估计方法及系统
CN110264526B (zh) * 2019-06-19 2023-04-07 华东师范大学 一种基于深度学习的场景深度和摄像机位置姿势求解方法
CN110310317A (zh) * 2019-06-28 2019-10-08 西北工业大学 一种基于深度学习的单目视觉场景深度估计的方法
CN110378250B (zh) * 2019-06-28 2021-04-09 深圳先进技术研究院 用于场景认知的神经网络的训练方法、装置及终端设备
CN110503680B (zh) * 2019-08-29 2023-08-18 大连海事大学 一种基于非监督的卷积神经网络单目场景深度估计方法
CN110942484B (zh) * 2019-11-26 2022-07-12 福州大学 基于遮挡感知和特征金字塔匹配的相机自运动估计方法
CN111028282A (zh) * 2019-11-29 2020-04-17 浙江省北大信息技术高等研究院 一种无监督位姿与深度计算方法及系统
CN111540000B (zh) * 2020-04-28 2021-11-05 深圳市商汤科技有限公司 场景深度和相机运动预测方法及装置、电子设备和介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019099684A1 (en) * 2017-11-15 2019-05-23 Google Llc Unsupervised learning of image depth and ego-motion prediction neural networks

Also Published As

Publication number Publication date
KR20210138788A (ko) 2021-11-19
TW202141428A (zh) 2021-11-01
CN111540000B (zh) 2021-11-05
CN111540000A (zh) 2020-08-14
JP7178514B2 (ja) 2022-11-25
WO2021218282A1 (zh) 2021-11-04
CN113822918A (zh) 2021-12-21
TWI767596B (zh) 2022-06-11
KR102397268B1 (ko) 2022-05-12

Similar Documents

Publication Publication Date Title
JP2022528012A (ja) 被写界深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム
US20210326587A1 (en) Human face and hand association detecting method and a device, and storage medium
CN109978886B (zh) 图像处理方法及装置、电子设备和存储介质
JP6986167B2 (ja) 画像生成方法および装置、電子機器並びに記憶媒体
CN109829863B (zh) 图像处理方法及装置、电子设备和存储介质
CN110798630B (zh) 图像处理方法及装置、电子设备和存储介质
US20210279473A1 (en) Video processing method and apparatus, electronic device, and storage medium
CN111445414B (zh) 图像处理方法及装置、电子设备和存储介质
CN111783986A (zh) 网络训练方法及装置、姿态预测方法及装置
CN111401230B (zh) 姿态估计方法及装置、电子设备和存储介质
CN111666917A (zh) 姿态检测及视频处理方法、装置、电子设备和存储介质
JP7316456B2 (ja) 点群マップ構築方法及びその装置、電子機器、記憶媒体並びにプログラム
CN108171222B (zh) 一种基于多流神经网络的实时视频分类方法及装置
CN111325786A (zh) 图像处理方法及装置、电子设备和存储介质
CN113052874B (zh) 目标跟踪方法及装置、电子设备和存储介质
JP2022515274A (ja) 検出器の配置方法、検出器の配置装置及び非一時的コンピュータ可読記憶媒体
CN111832338A (zh) 对象检测方法及装置、电子设备和存储介质
CN115457024A (zh) 冷冻电镜图像处理方法、装置、电子设备及存储介质
CN111784772B (zh) 基于域随机化的姿态估计模型训练方法及装置
CN113822918B (zh) 场景深度和相机运动预测方法及装置、电子设备和介质
CN112461245A (zh) 数据处理方法及装置、电子设备和存储介质
CN112967311B (zh) 三维线图构建方法及装置、电子设备和存储介质
CN110896476B (zh) 图像处理方法、装置及存储介质
CN114924828A (zh) Ar影像显示方法及装置、电子设备和存储介质
CN114638817A (zh) 一种图像分割方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211105

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R150 Certificate of patent or registration of utility model

Ref document number: 7178514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150