JP7177062B2 - 統計モデルを用いた画像データからの深度予測 - Google Patents
統計モデルを用いた画像データからの深度予測 Download PDFInfo
- Publication number
- JP7177062B2 JP7177062B2 JP2019535986A JP2019535986A JP7177062B2 JP 7177062 B2 JP7177062 B2 JP 7177062B2 JP 2019535986 A JP2019535986 A JP 2019535986A JP 2019535986 A JP2019535986 A JP 2019535986A JP 7177062 B2 JP7177062 B2 JP 7177062B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- predicted
- disparity
- model
- disparity value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Description
ネットワーク内に左右視差整合性制約を組み入れた新規の訓練ロスを用いてエンドツーエンド教師なし単眼深度推定を行うネットワークアーキテクチャ、
前述のアプローチの有効性を強調する、いくつかの異なる訓練ロス及び画像形成モデルの評価、及び
他の異なるデータセットによって一般化されるモデル
を提供する。
-以下のことを行うノード及び層を含むエンコーダ12:入力画像データを処理し、かつ入力画像内のオブジェクトまたは特徴を示す符号化されたデータを出力する。
-以下のことを行うノード及び層を含むデコーダ14:エンコーダ12からの符号化されたデータを処理し、アップコンボリューション及びアップサンプリングすることで、より大きな空間解像度のスケールされたデータを出力し、予測視差マップ(例えば、符号化されたデータの入力によって、視差予測器9により出力された視差マップ)を出力し、予測視差マップを入力画像データに適用することにより投影ビューを出力する。
-以下のことを行うノード及び層を持つロスモジュール19:CNN11を更新するために用いられる訓練ロスを計算する。訓練ロスは、デコーダ14によって出力された視差マップから計算される視差平滑性項及び左右視差整合性コスト項、並びに投影ビューと対応する入力ビューとの比較から計算されたアピアランスマッチングコスト項を含む。
コンピュータシステム
Claims (20)
- コンピュータによって実現される方法であって、
単一入力カラー画像から視差値を予測するためのモデルであって、左画像と右画像とを含む少なくとも1つの入力された両眼ステレオ画像ペアを用いて、
前記右画像および前記左画像のいずれか一方を用いて、前記左画像に適用されたときに予測される右画像の再構築を可能にする左から右への視差値と、前記右画像に適用されたときに予測される左画像の再構築を可能にする右から左への視差値と、を予測すること、及び
前記左から右への予測視差値と前記右から左への予測視差値との間の整合性を高めるコスト関数に基づいて前記モデルを更新すること、
によって訓練された前記モデルを提供するステップと、
前記モデルを用いて前記単一入力カラー画像から前記視差値を生成するステップと、
前記単一入力カラー画像から生成される前記視差値を用いて、前記単一入力カラー画像に対応する推定深度データを算出するステップと、を含む方法。 - 前記モデルは、前記左から右への予測視差値を用いて、右から左への投影視差値を計算すること、および、
前記右から左への予測視差値を用いて、左から右への投影視差値を計算すること、によってさらに訓練される、請求項1に記載の方法。 - 前記右から左への投影視差値は、前記左から右への予測視差値をサンプリングし、かつ前記サンプリングされたデータに前記右から左への予測視差値を適用することで計算され、
前記左から右への投影視差値は、前記右から左への予測視差値をサンプリングし、かつ前記サンプリングされたデータに前記左から右への予測視差値を適用することで計算される、請求項2に記載の方法。 - 前記コスト関数は、前記左から右および右から左への予測視差値と前記左から右および右から左への投影視差値との間の整合性を高めるための視差整合性構成要素を含む、請求項2に記載の方法。
- 前記モデルは、前記左画像のサンプリングされたピクセルをずらすために前記左から右への予測視差値を適用することで、前記ステレオペアの前記右画像を再構築すること、および、
前記右画像のサンプリングされたピクセルをずらすために前記右から左への予測視差値を適用することで、前記ステレオペアの前記左画像を再構築すること、によってさらに訓練される、請求項1に記載の方法。 - 前記サンプリングは、バイリニア補間を含む、請求項3に記載の方法。
- 前記コスト関数は、再構築された前記予測される左画像及び前記予測される右画像と、前記ステレオペアの前記左画像および前記右画像との間の画像再構築誤差を最小にするための再構築アピアランスマッチング構成要素をさらに含む、請求項5に記載の方法。
- 前記コスト関数は、前記左から右および右から左への予測視差値を局所的に平滑化するための平滑化構成要素をさらに含む、請求項7に記載の方法。
- 前記コスト関数は、前記左から右および右から左への予測視差値と前記左から右および右から左への投影視差値との間の整合性を高めるための視差整合性構成要素、前記平滑化構成要素、及び前記再構築アピアランスマッチング構成要素の重み付き和を実現する、請求項8に記載の方法。
- 前記モデルは、各処理ノードが少なくとも一つの重み値を有する処理ノードの構造化された配置を含む畳み込みニューラルネットワーク(convolutional neural network: CNN)を含む、請求項1に記載の方法。
- 前記畳み込みニューラルネットワークは、前記コスト関数の逆伝播構成要素により訓練される、請求項10に記載の方法。
- 前記モデルは、
前記入力された両眼ステレオ画像ペアの前記左画像および前記右画像を複数の空間解像度でアップサンプリング及びアップコンボリューションし、
左から右の視差値および右から左の視差値のそれぞれを各空間解像度で予測することによってさらに訓練され、
前記モデルは、前記左から右への予測視差値と前記右から左への予測視差値との間の整合性を各空間解像度で高めるコスト関数に基づいて更新される、請求項1に記載の方法。 - 前記コスト関数は、前記空間解像度に応じて前記左から右への予測視差値と前記右から左への予測視差値との間の整合性の重み付き強化を含む、請求項12に記載の方法。
- 前記両眼ステレオ画像ペアは、既知のカメラ焦点長を有しかつ既知の基線距離だけ離れているそれぞれのカメラによって同時に撮像され、それによって前記左から右および右から左への予測視差値から対応する深度データが計算される、請求項1に記載の方法。
- 前記両眼ステレオ画像ペアは、修正されかつ時間的にアラインされたステレオペアである請求項14に記載の方法。
- デジタル画像は、前記画像を撮像した前記それぞれのカメラの属性を定義するメタデータで注釈付けされる、請求項15に記載の方法。
- コンピュータによって実現される方法であって、
単一入力カラー画像から視差値を予測するためのモデルを定義するデータを記憶するステップと、
左画像と右画像とを含む少なくとも1つの入力された両眼ステレオ画像ペアを用いた前記モデルの訓練を、
前記右画像および前記左画像のいずれか一方を用いて、前記左画像に適用されたときに予測される右画像の再構築を可能にする左から右への視差値、および、前記右画像に適用されたときに予測される左画像の再構築を可能にする右から左への視差値を予測すること、及び
前記左から右への予測視差値と前記右から左への予測視差値との間の整合性を高めるコスト関数に基づいて前記モデルを更新すること、
によって行うステップと、を含み、
前記訓練されたモデルは、
前記訓練されたモデルを用いて前記単一入力カラー画像から前記視差値を生成すること、および、
前記単一入力カラー画像から生成された前記視差値を用いて、前記単一入力カラー画像に対応する推定深度データを算出すること、
によって前記単一入力カラー画像から深度画像を生成するために使用される、方法。 - 前記単一入力カラー画像はカメラによって撮影される、請求項17に記載の方法。
- 演算装置によって実行されると、
単一入力カラー画像から視差値を予測するためのモデルであって、左画像と右画像とを含む少なくとも1つの入力された両眼ステレオ画像ペアを用いて、
前記右画像および前記左画像のいずれか一方を用いて、前記左画像に適用されたときに予測される右画像の再構築を可能にする左から右への視差値と、前記右画像に適用されたときに予測される左画像の再構築を可能にする右から左への視差値と、を予測すること、及び
前記左から右への予測視差値と前記右から左への予測視差値との間の整合性を高めるコスト関数に基づいて前記モデルを更新すること、
によって訓練された前記モデルを提供するステップと、
前記モデルを用いて前記単一入力カラー画像から前記視差値を生成するステップと、
前記単一入力カラー画像から生成される前記視差値を用いて、前記単一入力カラー画像に対応する推定深度データを算出するステップと、
を含む動作を前記演算装置に行わせる命令を記憶する非一時的なコンピュータ可読媒体。 - 前記動作は、
前記入力された両眼ステレオ画像ペアの前記左画像および前記右画像を複数の空間解像度でアップサンプリング及びアップコンボリューションし、
左から右の視差値および右から左の視差値のそれぞれを各空間解像度で予測すること、
を更に含み、
前記モデルは、前記左から右への予測視差値と前記右から左への予測視差値との間の整合性を各空間解像度で高めるコスト関数に基づいて更新される、請求項19に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1615470.0 | 2016-09-12 | ||
GB1615470.0A GB2553782B (en) | 2016-09-12 | 2016-09-12 | Predicting depth from image data using a statistical model |
PCT/GB2017/052671 WO2018046964A1 (en) | 2016-09-12 | 2017-09-12 | Predicting depth from image data using a statistical model |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019526878A JP2019526878A (ja) | 2019-09-19 |
JP2019526878A5 JP2019526878A5 (ja) | 2020-10-22 |
JP7177062B2 true JP7177062B2 (ja) | 2022-11-22 |
Family
ID=57234660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019535986A Active JP7177062B2 (ja) | 2016-09-12 | 2017-09-12 | 統計モデルを用いた画像データからの深度予測 |
Country Status (10)
Country | Link |
---|---|
US (1) | US11100401B2 (ja) |
EP (1) | EP3510561B1 (ja) |
JP (1) | JP7177062B2 (ja) |
KR (1) | KR102487270B1 (ja) |
CN (1) | CN109791697B (ja) |
AU (1) | AU2017324923B2 (ja) |
BR (1) | BR112019004798A8 (ja) |
CA (1) | CA3035298C (ja) |
GB (1) | GB2553782B (ja) |
WO (1) | WO2018046964A1 (ja) |
Families Citing this family (92)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017017963A1 (ja) * | 2015-07-29 | 2017-02-02 | 京セラ株式会社 | 視差算出装置、ステレオカメラ装置、車両及び視差算出方法 |
US10834406B2 (en) | 2016-12-12 | 2020-11-10 | Netflix, Inc. | Device-consistent techniques for predicting absolute perceptual video quality |
US10803546B2 (en) * | 2017-11-03 | 2020-10-13 | Baidu Usa Llc | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency |
CN109785376B (zh) * | 2017-11-15 | 2023-02-28 | 富士通株式会社 | 深度估计装置的训练方法、深度估计设备及存储介质 |
US10643383B2 (en) * | 2017-11-27 | 2020-05-05 | Fotonation Limited | Systems and methods for 3D facial modeling |
US11042163B2 (en) | 2018-01-07 | 2021-06-22 | Nvidia Corporation | Guiding vehicles through vehicle maneuvers using machine learning models |
US10740876B1 (en) * | 2018-01-23 | 2020-08-11 | Facebook Technologies, Llc | Systems and methods for generating defocus blur effects |
CN108335322B (zh) * | 2018-02-01 | 2021-02-12 | 深圳市商汤科技有限公司 | 深度估计方法和装置、电子设备、程序和介质 |
CN110352153A (zh) | 2018-02-02 | 2019-10-18 | 辉达公司 | 自主车辆中用于障碍物躲避的安全程序分析 |
WO2019168869A1 (en) | 2018-02-27 | 2019-09-06 | Nvidia Corporation | Real-time detection of lanes and boundaries by autonomous vehicles |
WO2019178548A1 (en) | 2018-03-15 | 2019-09-19 | Nvidia Corporation | Determining drivable free-space for autonomous vehicles |
WO2019182974A2 (en) | 2018-03-21 | 2019-09-26 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
DE112019001605T5 (de) | 2018-03-27 | 2020-12-17 | Nvidia Corporation | Trainieren, testen und verifizieren von autonomen maschinen unter verwendung simulierter umgebungen |
CN108734693B (zh) * | 2018-03-30 | 2019-10-25 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108537837B (zh) * | 2018-04-04 | 2023-05-05 | 腾讯科技(深圳)有限公司 | 一种深度信息确定的方法及相关装置 |
EP3781366A1 (en) * | 2018-04-17 | 2021-02-24 | ETH Zürich | Robotic camera software and controller |
WO2019222467A1 (en) * | 2018-05-17 | 2019-11-21 | Niantic, Inc. | Self-supervised training of a depth estimation system |
CN108961327B (zh) * | 2018-05-22 | 2021-03-30 | 深圳市商汤科技有限公司 | 一种单目深度估计方法及其装置、设备和存储介质 |
JP2020525809A (ja) * | 2018-06-14 | 2020-08-27 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法 |
US11966838B2 (en) | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
TW202006738A (zh) * | 2018-07-12 | 2020-02-01 | 國立臺灣科技大學 | 應用機器學習的醫學影像分析方法及其系統 |
CN109166144B (zh) * | 2018-07-20 | 2021-08-24 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
CN109213147A (zh) * | 2018-08-01 | 2019-01-15 | 上海交通大学 | 一种基于深度学习的机器人避障轨迹规划方法及系统 |
RU2698402C1 (ru) * | 2018-08-30 | 2019-08-26 | Самсунг Электроникс Ко., Лтд. | Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты) |
US10986325B2 (en) * | 2018-09-12 | 2021-04-20 | Nvidia Corporation | Scene flow estimation using shared features |
CN113168541A (zh) * | 2018-10-15 | 2021-07-23 | 菲力尔商业系统公司 | 用于成像系统的深度学习推理系统和方法 |
US11507822B2 (en) * | 2018-10-31 | 2022-11-22 | General Electric Company | Scalable artificial intelligence model generation systems and methods for healthcare |
JP6946255B2 (ja) * | 2018-11-13 | 2021-10-06 | 株式会社東芝 | 学習装置、推定装置、学習方法およびプログラム |
US11610115B2 (en) | 2018-11-16 | 2023-03-21 | Nvidia Corporation | Learning to generate synthetic datasets for training neural networks |
CN109712228B (zh) * | 2018-11-19 | 2023-02-24 | 中国科学院深圳先进技术研究院 | 建立三维重建模型的方法、装置、电子设备及存储介质 |
US11182916B2 (en) | 2018-12-28 | 2021-11-23 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
US11170299B2 (en) | 2018-12-28 | 2021-11-09 | Nvidia Corporation | Distance estimation to objects and free-space boundaries in autonomous machine applications |
CN113454636A (zh) | 2018-12-28 | 2021-09-28 | 辉达公司 | 自主机器应用中障碍物检测的距离 |
WO2020134229A1 (zh) * | 2018-12-29 | 2020-07-02 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
DE102019100303A1 (de) | 2019-01-08 | 2020-07-09 | HELLA GmbH & Co. KGaA | Verfahren und Vorrichtung zum Ermitteln einer Krümmung einer Fahrbahn |
WO2020163390A1 (en) | 2019-02-05 | 2020-08-13 | Nvidia Corporation | Driving lane perception diversity and redundancy in autonomous driving applications |
US10839543B2 (en) * | 2019-02-26 | 2020-11-17 | Baidu Usa Llc | Systems and methods for depth estimation using convolutional spatial propagation networks |
CN113811886B (zh) | 2019-03-11 | 2024-03-19 | 辉达公司 | 自主机器应用中的路口检测和分类 |
CN109919993B (zh) * | 2019-03-12 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置和设备及控制系统 |
US11044462B2 (en) | 2019-05-02 | 2021-06-22 | Niantic, Inc. | Self-supervised training of a depth estimation model using depth hints |
CN110113595B (zh) * | 2019-05-08 | 2021-04-30 | 北京奇艺世纪科技有限公司 | 一种2d视频转3d视频的方法、装置及电子设备 |
CN109996056B (zh) * | 2019-05-08 | 2021-03-26 | 北京奇艺世纪科技有限公司 | 一种2d视频转3d视频的方法、装置及电子设备 |
CN110111244B (zh) * | 2019-05-08 | 2024-01-26 | 北京奇艺世纪科技有限公司 | 图像转换、深度图预测和模型训练方法、装置及电子设备 |
CN110490919B (zh) * | 2019-07-05 | 2023-04-18 | 天津大学 | 一种基于深度神经网络的单目视觉的深度估计方法 |
US11138751B2 (en) * | 2019-07-06 | 2021-10-05 | Toyota Research Institute, Inc. | Systems and methods for semi-supervised training using reprojected distance loss |
CN110443843A (zh) * | 2019-07-29 | 2019-11-12 | 东北大学 | 一种基于生成对抗网络的无监督单目深度估计方法 |
CN110415284B (zh) * | 2019-07-31 | 2022-04-19 | 中国科学技术大学 | 一种单视彩色图像深度图获得方法及装置 |
US11468585B2 (en) * | 2019-08-27 | 2022-10-11 | Nec Corporation | Pseudo RGB-D for self-improving monocular slam and depth prediction |
CN110610486B (zh) * | 2019-08-28 | 2022-07-19 | 清华大学 | 单目图像深度估计方法及装置 |
US11788861B2 (en) | 2019-08-31 | 2023-10-17 | Nvidia Corporation | Map creation and localization for autonomous driving applications |
US11911903B2 (en) | 2019-09-07 | 2024-02-27 | Embodied Intelligence, Inc. | Systems and methods for robotic picking and perturbation |
WO2021046530A1 (en) * | 2019-09-07 | 2021-03-11 | Embodied Intelligence, Inc. | Three-dimensional computer vision system for robotic devices |
WO2021046531A1 (en) | 2019-09-07 | 2021-03-11 | Embodied Intelligence, Inc. | Training artificial networks for robotic picking |
CN110738697B (zh) * | 2019-10-10 | 2023-04-07 | 福州大学 | 基于深度学习的单目深度估计方法 |
CN111047634B (zh) * | 2019-11-13 | 2023-08-08 | 杭州飞步科技有限公司 | 场景深度的确定方法、装置、设备及存储介质 |
CN111047630B (zh) * | 2019-11-13 | 2023-06-13 | 芯启源(上海)半导体科技有限公司 | 神经网络和基于神经网络的目标检测及深度预测方法 |
US11157774B2 (en) * | 2019-11-14 | 2021-10-26 | Zoox, Inc. | Depth data model training with upsampling, losses, and loss balancing |
WO2021096806A1 (en) * | 2019-11-14 | 2021-05-20 | Zoox, Inc | Depth data model training with upsampling, losses, and loss balancing |
CN114761998A (zh) * | 2019-12-02 | 2022-07-15 | 大学之母博洛尼亚大学 | 通过神经网络的自适应学习从图像确定深度的方法及其系统 |
CN111192238B (zh) * | 2019-12-17 | 2022-09-20 | 南京理工大学 | 基于自监督深度网络的无损血管三维测量方法 |
CN111027508B (zh) * | 2019-12-23 | 2022-09-06 | 电子科技大学 | 一种基于深层神经网络的遥感图像覆被变化检测方法 |
US11288522B2 (en) | 2019-12-31 | 2022-03-29 | Woven Planet North America, Inc. | Generating training data from overhead view images |
US11037328B1 (en) | 2019-12-31 | 2021-06-15 | Lyft, Inc. | Overhead view image generation |
US11244500B2 (en) | 2019-12-31 | 2022-02-08 | Woven Planet North America, Inc. | Map feature extraction using overhead view images |
CN111242999B (zh) * | 2020-01-10 | 2022-09-20 | 大连理工大学 | 基于上采样及精确重匹配的视差估计优化方法 |
CN111310916B (zh) * | 2020-01-22 | 2022-10-25 | 浙江省北大信息技术高等研究院 | 一种区分左右眼图片的深度系统训练方法及系统 |
CN111523409B (zh) * | 2020-04-09 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于生成位置信息的方法和装置 |
CN113724311B (zh) * | 2020-05-25 | 2024-04-02 | 北京四维图新科技股份有限公司 | 深度图获取方法、设备及存储介质 |
US20220051372A1 (en) * | 2020-08-12 | 2022-02-17 | Niantic, Inc. | Feature matching using features extracted from perspective corrected image |
JP7389729B2 (ja) * | 2020-09-10 | 2023-11-30 | 株式会社日立製作所 | 障害物検知装置、障害物検知システム及び障害物検知方法 |
US11747468B2 (en) | 2020-09-24 | 2023-09-05 | Eagle Technology, Llc | System using a priori terrain height data for interferometric synthetic aperture radar (IFSAR) phase disambiguation and related methods |
US11587249B2 (en) | 2020-09-24 | 2023-02-21 | Eagle Technology, Llc | Artificial intelligence (AI) system and methods for generating estimated height maps from electro-optic imagery |
US11238307B1 (en) | 2020-09-24 | 2022-02-01 | Eagle Technology, Llc | System for performing change detection within a 3D geospatial model based upon semantic change detection using deep learning and related methods |
US11302071B1 (en) | 2020-09-24 | 2022-04-12 | Eagle Technology, Llc | Artificial intelligence (AI) system using height seed initialization for extraction of digital elevation models (DEMs) and related methods |
CN112330795B (zh) * | 2020-10-10 | 2022-10-28 | 清华大学 | 基于单张rgbd图像的人体三维重建方法及系统 |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
DE102020006971A1 (de) * | 2020-11-13 | 2022-05-19 | Alexander Bayer | Kamerabasiertes Assistenzsystem mit Künstlicher Intelligenz für blinde Personen |
CN112465888A (zh) * | 2020-11-16 | 2021-03-09 | 电子科技大学 | 一种基于单目视觉的无监督深度估计方法 |
TWI784349B (zh) * | 2020-11-16 | 2022-11-21 | 國立政治大學 | 顯著圖產生方法及使用該方法的影像處理系統 |
US20220189049A1 (en) * | 2020-12-12 | 2022-06-16 | Niantic, Inc. | Self-Supervised Multi-Frame Monocular Depth Estimation Model |
CN112330675B (zh) * | 2020-12-15 | 2022-08-23 | 南昌工程学院 | 基于AOD-Net的交通道路图像大气能见度检测方法 |
CN112802079A (zh) * | 2021-01-19 | 2021-05-14 | 奥比中光科技集团股份有限公司 | 一种视差图获取方法、装置、终端和存储介质 |
KR102319237B1 (ko) * | 2021-03-02 | 2021-10-29 | 인하대학교 산학협력단 | 핸드크래프트 비용 기반의 다중 뷰 스테레오 정합 방법 |
TWI790560B (zh) * | 2021-03-03 | 2023-01-21 | 宏碁股份有限公司 | 並排影像偵測方法與使用該方法的電子裝置 |
JP7447042B2 (ja) | 2021-03-17 | 2024-03-11 | 株式会社東芝 | 画像処理装置、方法及びプログラム |
KR102489890B1 (ko) * | 2021-05-28 | 2023-01-17 | 한국항공대학교산학협력단 | 깊이 추정 시스템 및 깊이 추정 방법 |
CN113762278B (zh) * | 2021-09-13 | 2023-11-17 | 中冶路桥建设有限公司 | 一种基于目标检测的沥青路面损坏识别方法 |
CN114401391B (zh) * | 2021-12-09 | 2023-01-06 | 北京邮电大学 | 虚拟视点生成方法及装置 |
KR102559936B1 (ko) * | 2022-01-28 | 2023-07-27 | 포티투닷 주식회사 | 단안 카메라를 이용하여 깊이 정보를 추정하는 방법 및 장치 |
KR102531286B1 (ko) * | 2022-03-29 | 2023-05-12 | 포티투닷 주식회사 | 깊이 정보 추정 모델 학습을 위한 데이터 처리 방법 및 장치 |
CN114782911B (zh) * | 2022-06-20 | 2022-09-16 | 小米汽车科技有限公司 | 图像处理的方法、装置、设备、介质、芯片及车辆 |
CN116258756B (zh) * | 2023-02-23 | 2024-03-08 | 齐鲁工业大学(山东省科学院) | 一种自监督单目深度估计方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165614A (ja) | 2003-12-02 | 2005-06-23 | Canon Inc | 画像合成装置および画像合成方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5577130A (en) * | 1991-08-05 | 1996-11-19 | Philips Electronics North America | Method and apparatus for determining the distance between an image and an object |
US20100220932A1 (en) * | 2007-06-20 | 2010-09-02 | Dong-Qing Zhang | System and method for stereo matching of images |
WO2009157895A1 (en) * | 2008-06-24 | 2009-12-30 | Thomson Licensing | System and method for depth extraction of images with motion compensation |
CN101605270B (zh) * | 2009-07-16 | 2011-02-16 | 清华大学 | 生成深度图的方法和装置 |
GB2473282B (en) * | 2009-09-08 | 2011-10-12 | Nds Ltd | Recommended depth value |
WO2011081646A1 (en) * | 2009-12-15 | 2011-07-07 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
CN101840574B (zh) * | 2010-04-16 | 2012-05-23 | 西安电子科技大学 | 基于边缘象素特征的深度估计方法 |
US20110304618A1 (en) * | 2010-06-14 | 2011-12-15 | Qualcomm Incorporated | Calculating disparity for three-dimensional images |
TR201010438A2 (tr) * | 2010-12-14 | 2012-07-23 | Vestel Elektroni̇k Sanayi̇ Ve Ti̇caret A.Ş. | Stereo video için enformasyon geçirgenliği temelinde disparite tahmini. |
CN102523464A (zh) * | 2011-12-12 | 2012-06-27 | 上海大学 | 一种双目立体视频的深度图像估计方法 |
US9117295B2 (en) * | 2011-12-20 | 2015-08-25 | Adobe Systems Incorporated | Refinement of depth maps by fusion of multiple estimates |
US9571810B2 (en) * | 2011-12-23 | 2017-02-14 | Mediatek Inc. | Method and apparatus of determining perspective model for depth map generation by utilizing region-based analysis and/or temporal smoothing |
CN103106651B (zh) * | 2012-07-16 | 2015-06-24 | 清华大学深圳研究生院 | 一种基于三维hough变换的获取视差平面的方法 |
CN102831601A (zh) * | 2012-07-26 | 2012-12-19 | 中北大学 | 基于联合相似性测度和自适应支持权重的立体匹配方法 |
EP3869797B1 (en) * | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
NL2009616C2 (en) * | 2012-10-11 | 2014-04-14 | Ultra D Co Peratief U A | Adjusting depth in a three-dimensional image signal. |
CN103295229B (zh) * | 2013-05-13 | 2016-01-20 | 清华大学深圳研究生院 | 视频深度信息恢复的全局立体匹配方法 |
US9373171B2 (en) * | 2013-07-22 | 2016-06-21 | Stmicroelectronics S.R.L. | Method for generating a depth map, related system and computer program product |
EP2887312A1 (en) * | 2013-12-18 | 2015-06-24 | Nokia Corporation | Method, apparatus and computer program product for depth estimation of stereo images |
EP2887311B1 (en) * | 2013-12-20 | 2016-09-14 | Thomson Licensing | Method and apparatus for performing depth estimation |
CN103955954B (zh) * | 2014-04-21 | 2017-02-08 | 杭州电子科技大学 | 一种结合同场景立体图对的高分辨率深度图像重建方法 |
EP2950269A1 (en) * | 2014-05-27 | 2015-12-02 | Thomson Licensing | Method and apparatus for improving estimation of disparity in a stereo image pair using a hybrid recursive matching processing |
CN104065947B (zh) * | 2014-06-18 | 2016-06-01 | 长春理工大学 | 一种集成成像系统的深度图获取方法 |
CN104408710B (zh) * | 2014-10-30 | 2017-05-24 | 北京大学深圳研究生院 | 一种全局视差估计方法和系统 |
KR20160056132A (ko) * | 2014-11-11 | 2016-05-19 | 삼성전자주식회사 | 영상 변환 장치 및 그 영상 변환 방법 |
US10200666B2 (en) * | 2015-03-04 | 2019-02-05 | Dolby Laboratories Licensing Corporation | Coherent motion estimation for stereoscopic video |
-
2016
- 2016-09-12 GB GB1615470.0A patent/GB2553782B/en active Active
-
2017
- 2017-09-12 US US16/332,343 patent/US11100401B2/en active Active
- 2017-09-12 AU AU2017324923A patent/AU2017324923B2/en active Active
- 2017-09-12 BR BR112019004798A patent/BR112019004798A8/pt unknown
- 2017-09-12 CN CN201780055710.6A patent/CN109791697B/zh active Active
- 2017-09-12 WO PCT/GB2017/052671 patent/WO2018046964A1/en unknown
- 2017-09-12 JP JP2019535986A patent/JP7177062B2/ja active Active
- 2017-09-12 EP EP17794764.5A patent/EP3510561B1/en active Active
- 2017-09-12 CA CA3035298A patent/CA3035298C/en active Active
- 2017-09-12 KR KR1020197010331A patent/KR102487270B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165614A (ja) | 2003-12-02 | 2005-06-23 | Canon Inc | 画像合成装置および画像合成方法 |
Non-Patent Citations (1)
Title |
---|
Ravi Garg, Vijay Kumar B G, Gustavo Carneiro, Ian Reid,Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue,arxiv.org,米国,CORNELL UNIVERSITY,2016年03月16日,https://arxiv.org/pdf/1603.04992v1 |
Also Published As
Publication number | Publication date |
---|---|
US20190213481A1 (en) | 2019-07-11 |
US11100401B2 (en) | 2021-08-24 |
GB2553782A (en) | 2018-03-21 |
KR20190065287A (ko) | 2019-06-11 |
EP3510561A1 (en) | 2019-07-17 |
KR102487270B1 (ko) | 2023-01-11 |
AU2017324923A1 (en) | 2019-04-11 |
WO2018046964A1 (en) | 2018-03-15 |
CN109791697B (zh) | 2023-10-13 |
BR112019004798A8 (pt) | 2023-04-04 |
AU2017324923B2 (en) | 2022-01-27 |
CA3035298C (en) | 2023-03-21 |
JP2019526878A (ja) | 2019-09-19 |
CN109791697A (zh) | 2019-05-21 |
GB201615470D0 (en) | 2016-10-26 |
BR112019004798A2 (pt) | 2019-06-04 |
GB2553782B (en) | 2021-10-20 |
EP3510561B1 (en) | 2022-03-02 |
CA3035298A1 (en) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7177062B2 (ja) | 統計モデルを用いた画像データからの深度予測 | |
Bhoi | Monocular depth estimation: A survey | |
Poggi et al. | Towards real-time unsupervised monocular depth estimation on cpu | |
Zou et al. | Df-net: Unsupervised joint learning of depth and flow using cross-task consistency | |
Kuznietsov et al. | Semi-supervised deep learning for monocular depth map prediction | |
CN111325794A (zh) | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 | |
US9626766B2 (en) | Depth sensing using an RGB camera | |
WO2019180414A1 (en) | Localisation, mapping and network training | |
CN111783582A (zh) | 一种基于深度学习的无监督单目深度估计算法 | |
Zhou et al. | Unsupervised learning of monocular depth estimation with bundle adjustment, super-resolution and clip loss | |
Wan et al. | Learning dense and continuous optical flow from an event camera | |
CN114996814A (zh) | 一种基于深度学习与三维重建的家具设计系统 | |
Yang et al. | Unsupervised framework for depth estimation and camera motion prediction from video | |
Zhou et al. | PADENet: An efficient and robust panoramic monocular depth estimation network for outdoor scenes | |
Hosseinzadeh et al. | Unsupervised learning of camera pose with compositional re-estimation | |
Yusiong et al. | AsiANet: Autoencoders in autoencoder for unsupervised monocular depth estimation | |
Lee et al. | Automatic 2d-to-3d conversion using multi-scale deep neural network | |
Zhang et al. | Unsupervised detail-preserving network for high quality monocular depth estimation | |
Lu et al. | Self-supervised depth estimation from spectral consistency and novel view synthesis | |
Peng et al. | Self-supervised correlational monocular depth estimation using resvgg network | |
Yusiong et al. | Unsupervised monocular depth estimation of driving scenes using siamese convolutional LSTM networks | |
Lin et al. | Bridging local and global representations for self-supervised monocular depth estimation | |
Feng et al. | Unsupervised Monocular Depth Prediction for Indoor Continuous Video Streams | |
Zhou et al. | Unsupervised video depth estimation based on ego-motion and disparity consensus | |
US20240005581A1 (en) | Generating 3d facial models & animations using computer vision architectures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7177062 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |