JP2019526878A - 統計モデルを用いた画像データからの深度予測 - Google Patents
統計モデルを用いた画像データからの深度予測 Download PDFInfo
- Publication number
- JP2019526878A JP2019526878A JP2019535986A JP2019535986A JP2019526878A JP 2019526878 A JP2019526878 A JP 2019526878A JP 2019535986 A JP2019535986 A JP 2019535986A JP 2019535986 A JP2019535986 A JP 2019535986A JP 2019526878 A JP2019526878 A JP 2019526878A
- Authority
- JP
- Japan
- Prior art keywords
- image
- predicted
- data
- parallax
- disparity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013179 statistical model Methods 0.000 title claims abstract description 9
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims description 71
- 238000012545 processing Methods 0.000 claims description 38
- 238000009499 grossing Methods 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 11
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
ネットワーク内に左右視差整合性制約を組み入れた新規の訓練ロスを用いてエンドツーエンド教師なし単眼深度推定を行うネットワークアーキテクチャ、
前述のアプローチの有効性を強調する、いくつかの異なる訓練ロス及び画像形成モデルの評価、及び
他の異なるデータセットによって一般化されるモデル
を提供する。
−以下のことを行うノード及び層を含むエンコーダ12:入力画像データを処理し、かつ入力画像内のオブジェクトまたは特徴を示す符号化されたデータを出力する。
−以下のことを行うノード及び層を含むデコーダ14:エンコーダ12からの符号化されたデータを処理し、アップコンボリューション及びアップサンプリングすることで、より大きな空間解像度のスケールされたデータを出力し、予測視差マップ(例えば、符号化されたデータの入力によって、視差予測器9により出力された視差マップ)を出力し、予測視差マップを入力画像データに適用することにより投影ビューを出力する。
−以下のことを行うノード及び層を持つロスモジュール19:CNN11を更新するために用いられる訓練ロスを計算する。訓練ロスは、デコーダ14によって出力された視差マップから計算される視差平滑性項及び左右視差整合性コスト項、並びに投影ビューと対応する入力ビューとの比較から計算されたアピアランスマッチングコスト項を含む。
コンピュータシステム
Claims (20)
- コンピュータによって実現される方法であって、
カラー画像データから深度データを予測するための統計モデルを定義するデータを記憶するステップと、
少なくとも1つの両眼ステレオ画像ペアを用いた前記モデルの訓練を、
前記入力された両眼ステレオペアの各画像について、前記画像に適用されたときに他の画像の再構築を可能にする対応する視差値を予測すること、及び
前記ステレオペアの各画像についての前記予測視差値の間の整合性を高めるコスト関数に基づいて前記モデルを更新すること、
によって行うステップと、を含む方法。 - 前記モデルを訓練するステップは、前記ステレオペアの各画像について、前記対応する視差値に基づいて投影視差値を計算することをさらに含む、請求項1に記載の方法。
- 前記投影視差値は、前記ステレオペアの一方の画像について第1画像の前記予測視差値をサンプリングし、かつ前記サンプリングされたデータに他方の画像の前記予測視差値を適用することで計算される、請求項2に記載の方法。
- 前記コスト関数は、予測視差値間の整合性を高めるための視差整合性構成要素と、前記ステレオペアの各画像に対して計算された投影視差値とを含む、請求項2または3に記載の方法。
- 前記ステレオペアの前記第1画像のサンプリングされた画像ピクセルをずらすために前記対応する予測視差値を適用することで、前記ステレオペアの第2画像を再構築するステップをさらに含む、先行する請求項のいずれか1つに記載の方法。
- 前記サンプリングは、バイリニア補間を含む、請求項3または5に記載の方法。
- 前記コスト関数は、前記再構築画像と前記対応する入力画像との間の画像再構築誤差を最小にするための再構築アピアランスマッチング構成要素をさらに含む、請求項5または6に記載の方法。
- 前記コスト関数は、前記対応する予測視差値を局所的に平滑化するための平滑化構成要素をさらに含む、請求項7に記載の方法。
- 前記コスト関数は、前記視差整合性構成要素、前記平滑化構成要素、及び前記再構築アピアランスマッチング構成要素の重み付き和を実現する、請求項8に記載の方法。
- 前記統計モデルは、各処理ノードが少なくとも一つの重み値を有する処理ノードの構造化された配置を含む畳み込みニューラルネットワーク(convolutional neural network: CNN)を含む、先行する請求項のいずれか1つにに記載の方法。
- 前記畳み込みニューラルネットワークは、前記コスト関数の逆伝播構成要素により訓練される、請求項10に記載の方法。
- 複数の空間解像度で前記入力画像データをアップサンプリング及びアップコンボリューションするステップと、
各空間解像度で対応する視差値を予測するステップと、をさらに含み、
前記モデルは、前記ステレオペアの各画像に対する各空間解像度で前記予測視差値間の整合性を高めるコスト関数に基づいて更新される、先行する請求項のいずれか1つに記載の方法。 - 前記コスト関数は、前記空間解像度に応じて前記予測視差値間の整合性の重み付き強化を含む、請求項12に記載の方法。
- 前記両眼ステレオ画像ペアは、既知のカメラ焦点長を有しかつ既知の基線距離だけ離れているそれぞれのカメラによって同時に撮像され、それによって前記予測視差値から対応する深度データが計算される、先行する請求項のいずれか1つに記載の方法。
- 前記両眼ステレオ画像ペアは、修正されかつ時間的にアラインされたステレオペアである請求項14に記載の方法。
- デジタル画像は、前記画像を撮像した前記それぞれのカメラの属性を定義するメタデータで注釈付けされる、請求項15に記載の方法。
- 入力された単一カラー画像からの深度画像の生成を、
前記訓練されたモデルを用いて前記入力されたカラー画像から予測視差マップを生成すること、及び
前記予測視差マップから対応する推定深度データを計算すること、
によって行うステップを含む、先行する請求項のいずれか1つに記載の方法。 - 前記カラー画像データは、カメラによって撮像される、請求項17に記載の方法。
- 請求項1〜18のいずれか一項に記載の方法を実行する手段を含む装置またはシステム。
- コンピュータシステムに請求項1〜18のいずれか一項に記載の方法を実行させるための機械読取可能な命令を記憶した記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1615470.0 | 2016-09-12 | ||
GB1615470.0A GB2553782B (en) | 2016-09-12 | 2016-09-12 | Predicting depth from image data using a statistical model |
PCT/GB2017/052671 WO2018046964A1 (en) | 2016-09-12 | 2017-09-12 | Predicting depth from image data using a statistical model |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019526878A true JP2019526878A (ja) | 2019-09-19 |
JP2019526878A5 JP2019526878A5 (ja) | 2020-10-22 |
JP7177062B2 JP7177062B2 (ja) | 2022-11-22 |
Family
ID=57234660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019535986A Active JP7177062B2 (ja) | 2016-09-12 | 2017-09-12 | 統計モデルを用いた画像データからの深度予測 |
Country Status (10)
Country | Link |
---|---|
US (1) | US11100401B2 (ja) |
EP (1) | EP3510561B1 (ja) |
JP (1) | JP7177062B2 (ja) |
KR (1) | KR102487270B1 (ja) |
CN (1) | CN109791697B (ja) |
AU (1) | AU2017324923B2 (ja) |
BR (1) | BR112019004798A8 (ja) |
CA (1) | CA3035298C (ja) |
GB (1) | GB2553782B (ja) |
WO (1) | WO2018046964A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523409A (zh) * | 2020-04-09 | 2020-08-11 | 北京百度网讯科技有限公司 | 用于生成位置信息的方法和装置 |
JP2020135879A (ja) * | 2019-02-19 | 2020-08-31 | 富士通株式会社 | 画像処理装置、方法及び記憶媒体 |
KR102319237B1 (ko) * | 2021-03-02 | 2021-10-29 | 인하대학교 산학협력단 | 핸드크래프트 비용 기반의 다중 뷰 스테레오 정합 방법 |
WO2022054422A1 (ja) * | 2020-09-10 | 2022-03-17 | 株式会社日立製作所 | 障害物検知装置、障害物検知システム及び障害物検知方法 |
US11868430B2 (en) | 2021-03-17 | 2024-01-09 | Kabushiki Kaisha Toshiba | Image processing device, method, and storage medium |
JP7500811B2 (ja) | 2022-03-29 | 2024-06-17 | 42ドット・インコーポレイテッド | 深度情報推定モデル学習のためのデータ処理方法及び装置 |
Families Citing this family (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017017963A1 (ja) * | 2015-07-29 | 2017-02-02 | 京セラ株式会社 | 視差算出装置、ステレオカメラ装置、車両及び視差算出方法 |
US10798387B2 (en) | 2016-12-12 | 2020-10-06 | Netflix, Inc. | Source-consistent techniques for predicting absolute perceptual video quality |
US10803546B2 (en) * | 2017-11-03 | 2020-10-13 | Baidu Usa Llc | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency |
CN109785376B (zh) * | 2017-11-15 | 2023-02-28 | 富士通株式会社 | 深度估计装置的训练方法、深度估计设备及存储介质 |
US10643383B2 (en) * | 2017-11-27 | 2020-05-05 | Fotonation Limited | Systems and methods for 3D facial modeling |
US11042163B2 (en) | 2018-01-07 | 2021-06-22 | Nvidia Corporation | Guiding vehicles through vehicle maneuvers using machine learning models |
US10740876B1 (en) * | 2018-01-23 | 2020-08-11 | Facebook Technologies, Llc | Systems and methods for generating defocus blur effects |
CN108335322B (zh) * | 2018-02-01 | 2021-02-12 | 深圳市商汤科技有限公司 | 深度估计方法和装置、电子设备、程序和介质 |
DE112019000065T5 (de) | 2018-02-02 | 2020-03-05 | Nvidia Corporation | Sicherheitsprozeduranalyse zur hindernisvermeidung in einem autonomen fahrzeug |
WO2019168869A1 (en) | 2018-02-27 | 2019-09-06 | Nvidia Corporation | Real-time detection of lanes and boundaries by autonomous vehicles |
US11537139B2 (en) | 2018-03-15 | 2022-12-27 | Nvidia Corporation | Determining drivable free-space for autonomous vehicles |
US11080590B2 (en) * | 2018-03-21 | 2021-08-03 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
US11436484B2 (en) | 2018-03-27 | 2022-09-06 | Nvidia Corporation | Training, testing, and verifying autonomous machines using simulated environments |
CN108734693B (zh) * | 2018-03-30 | 2019-10-25 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108537837B (zh) * | 2018-04-04 | 2023-05-05 | 腾讯科技(深圳)有限公司 | 一种深度信息确定的方法及相关装置 |
JP7397001B2 (ja) * | 2018-04-17 | 2023-12-12 | シアヴィジョン・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | ロボットカメラソフトウェアと制御装置 |
EP3794555B1 (en) | 2018-05-17 | 2024-03-13 | Niantic, Inc. | Self-supervised training of a depth estimation system |
CN108961327B (zh) * | 2018-05-22 | 2021-03-30 | 深圳市商汤科技有限公司 | 一种单目深度估计方法及其装置、设备和存储介质 |
WO2019237307A1 (en) * | 2018-06-14 | 2019-12-19 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for updating a high-resolution map based on binocular images |
US11966838B2 (en) | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
TW202006738A (zh) * | 2018-07-12 | 2020-02-01 | 國立臺灣科技大學 | 應用機器學習的醫學影像分析方法及其系統 |
CN109166144B (zh) * | 2018-07-20 | 2021-08-24 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
CN109213147A (zh) * | 2018-08-01 | 2019-01-15 | 上海交通大学 | 一种基于深度学习的机器人避障轨迹规划方法及系统 |
RU2698402C1 (ru) * | 2018-08-30 | 2019-08-26 | Самсунг Электроникс Ко., Лтд. | Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты) |
US10986325B2 (en) * | 2018-09-12 | 2021-04-20 | Nvidia Corporation | Scene flow estimation using shared features |
EP3867810A1 (en) * | 2018-10-15 | 2021-08-25 | Flir Commercial Systems, Inc. | Deep learning inference systems and methods for imaging systems |
US11507822B2 (en) * | 2018-10-31 | 2022-11-22 | General Electric Company | Scalable artificial intelligence model generation systems and methods for healthcare |
JP6946255B2 (ja) * | 2018-11-13 | 2021-10-06 | 株式会社東芝 | 学習装置、推定装置、学習方法およびプログラム |
WO2020102733A1 (en) | 2018-11-16 | 2020-05-22 | Nvidia Corporation | Learning to generate synthetic datasets for training neural networks |
CN109712228B (zh) * | 2018-11-19 | 2023-02-24 | 中国科学院深圳先进技术研究院 | 建立三维重建模型的方法、装置、电子设备及存储介质 |
DE112019006484T5 (de) | 2018-12-28 | 2021-10-21 | Nvidia Corporation | Detektion von abständen zu hindernissen in autonomen maschinenanwendungen |
US11170299B2 (en) | 2018-12-28 | 2021-11-09 | Nvidia Corporation | Distance estimation to objects and free-space boundaries in autonomous machine applications |
WO2020140049A1 (en) | 2018-12-28 | 2020-07-02 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
CN111383256B (zh) * | 2018-12-29 | 2024-05-17 | 北京市商汤科技开发有限公司 | 图像处理方法、电子设备及计算机可读存储介质 |
DE102019100303A1 (de) | 2019-01-08 | 2020-07-09 | HELLA GmbH & Co. KGaA | Verfahren und Vorrichtung zum Ermitteln einer Krümmung einer Fahrbahn |
WO2020163390A1 (en) | 2019-02-05 | 2020-08-13 | Nvidia Corporation | Driving lane perception diversity and redundancy in autonomous driving applications |
US10839543B2 (en) * | 2019-02-26 | 2020-11-17 | Baidu Usa Llc | Systems and methods for depth estimation using convolutional spatial propagation networks |
US11648945B2 (en) | 2019-03-11 | 2023-05-16 | Nvidia Corporation | Intersection detection and classification in autonomous machine applications |
CN109919993B (zh) * | 2019-03-12 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置和设备及控制系统 |
US11044462B2 (en) * | 2019-05-02 | 2021-06-22 | Niantic, Inc. | Self-supervised training of a depth estimation model using depth hints |
CN110113595B (zh) * | 2019-05-08 | 2021-04-30 | 北京奇艺世纪科技有限公司 | 一种2d视频转3d视频的方法、装置及电子设备 |
CN110111244B (zh) * | 2019-05-08 | 2024-01-26 | 北京奇艺世纪科技有限公司 | 图像转换、深度图预测和模型训练方法、装置及电子设备 |
CN109996056B (zh) * | 2019-05-08 | 2021-03-26 | 北京奇艺世纪科技有限公司 | 一种2d视频转3d视频的方法、装置及电子设备 |
CN110490919B (zh) * | 2019-07-05 | 2023-04-18 | 天津大学 | 一种基于深度神经网络的单目视觉的深度估计方法 |
US11138751B2 (en) * | 2019-07-06 | 2021-10-05 | Toyota Research Institute, Inc. | Systems and methods for semi-supervised training using reprojected distance loss |
CN110443843A (zh) * | 2019-07-29 | 2019-11-12 | 东北大学 | 一种基于生成对抗网络的无监督单目深度估计方法 |
CN110415284B (zh) * | 2019-07-31 | 2022-04-19 | 中国科学技术大学 | 一种单视彩色图像深度图获得方法及装置 |
US11468585B2 (en) * | 2019-08-27 | 2022-10-11 | Nec Corporation | Pseudo RGB-D for self-improving monocular slam and depth prediction |
CN110610486B (zh) * | 2019-08-28 | 2022-07-19 | 清华大学 | 单目图像深度估计方法及装置 |
JP2022546397A (ja) | 2019-08-31 | 2022-11-04 | エヌビディア コーポレーション | 自律運転アプリケーションのためのマップ作成及びローカリゼーション |
WO2021046530A1 (en) * | 2019-09-07 | 2021-03-11 | Embodied Intelligence, Inc. | Three-dimensional computer vision system for robotic devices |
US11911901B2 (en) | 2019-09-07 | 2024-02-27 | Embodied Intelligence, Inc. | Training artificial networks for robotic picking |
US11911903B2 (en) | 2019-09-07 | 2024-02-27 | Embodied Intelligence, Inc. | Systems and methods for robotic picking and perturbation |
CN110738697B (zh) * | 2019-10-10 | 2023-04-07 | 福州大学 | 基于深度学习的单目深度估计方法 |
CN111047630B (zh) * | 2019-11-13 | 2023-06-13 | 芯启源(上海)半导体科技有限公司 | 神经网络和基于神经网络的目标检测及深度预测方法 |
CN111047634B (zh) * | 2019-11-13 | 2023-08-08 | 杭州飞步科技有限公司 | 场景深度的确定方法、装置、设备及存储介质 |
US11157774B2 (en) * | 2019-11-14 | 2021-10-26 | Zoox, Inc. | Depth data model training with upsampling, losses, and loss balancing |
EP4058974A4 (en) * | 2019-11-14 | 2023-12-13 | Zoox, Inc. | DEEP DATA MODEL TRAINING WITH UP SAMPLING, LOSSES AND LOSS COMPENSATION |
CN114761998A (zh) * | 2019-12-02 | 2022-07-15 | 大学之母博洛尼亚大学 | 通过神经网络的自适应学习从图像确定深度的方法及其系统 |
CN111192238B (zh) * | 2019-12-17 | 2022-09-20 | 南京理工大学 | 基于自监督深度网络的无损血管三维测量方法 |
CN111027508B (zh) * | 2019-12-23 | 2022-09-06 | 电子科技大学 | 一种基于深层神经网络的遥感图像覆被变化检测方法 |
US11288522B2 (en) | 2019-12-31 | 2022-03-29 | Woven Planet North America, Inc. | Generating training data from overhead view images |
US11244500B2 (en) | 2019-12-31 | 2022-02-08 | Woven Planet North America, Inc. | Map feature extraction using overhead view images |
US11037328B1 (en) | 2019-12-31 | 2021-06-15 | Lyft, Inc. | Overhead view image generation |
CN111242999B (zh) * | 2020-01-10 | 2022-09-20 | 大连理工大学 | 基于上采样及精确重匹配的视差估计优化方法 |
CN111310916B (zh) * | 2020-01-22 | 2022-10-25 | 浙江省北大信息技术高等研究院 | 一种区分左右眼图片的深度系统训练方法及系统 |
US20210326694A1 (en) * | 2020-04-20 | 2021-10-21 | Nvidia Corporation | Distance determinations using one or more neural networks |
CN113724311B (zh) * | 2020-05-25 | 2024-04-02 | 北京四维图新科技股份有限公司 | 深度图获取方法、设备及存储介质 |
US20220005217A1 (en) * | 2020-07-06 | 2022-01-06 | Toyota Research Institute, Inc. | Multi-view depth estimation leveraging offline structure-from-motion |
US12008740B2 (en) * | 2020-08-12 | 2024-06-11 | Niantic, Inc. | Feature matching using features extracted from perspective corrected image |
US11747468B2 (en) | 2020-09-24 | 2023-09-05 | Eagle Technology, Llc | System using a priori terrain height data for interferometric synthetic aperture radar (IFSAR) phase disambiguation and related methods |
US11302071B1 (en) | 2020-09-24 | 2022-04-12 | Eagle Technology, Llc | Artificial intelligence (AI) system using height seed initialization for extraction of digital elevation models (DEMs) and related methods |
US11238307B1 (en) | 2020-09-24 | 2022-02-01 | Eagle Technology, Llc | System for performing change detection within a 3D geospatial model based upon semantic change detection using deep learning and related methods |
US11587249B2 (en) | 2020-09-24 | 2023-02-21 | Eagle Technology, Llc | Artificial intelligence (AI) system and methods for generating estimated height maps from electro-optic imagery |
CN112330795B (zh) * | 2020-10-10 | 2022-10-28 | 清华大学 | 基于单张rgbd图像的人体三维重建方法及系统 |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
DE102020006971A1 (de) * | 2020-11-13 | 2022-05-19 | Alexander Bayer | Kamerabasiertes Assistenzsystem mit Künstlicher Intelligenz für blinde Personen |
CN112465888A (zh) * | 2020-11-16 | 2021-03-09 | 电子科技大学 | 一种基于单目视觉的无监督深度估计方法 |
TWI784349B (zh) * | 2020-11-16 | 2022-11-21 | 國立政治大學 | 顯著圖產生方法及使用該方法的影像處理系統 |
US20220189049A1 (en) * | 2020-12-12 | 2022-06-16 | Niantic, Inc. | Self-Supervised Multi-Frame Monocular Depth Estimation Model |
CN112330675B (zh) * | 2020-12-15 | 2022-08-23 | 南昌工程学院 | 基于AOD-Net的交通道路图像大气能见度检测方法 |
CN112802079A (zh) * | 2021-01-19 | 2021-05-14 | 奥比中光科技集团股份有限公司 | 一种视差图获取方法、装置、终端和存储介质 |
TWI790560B (zh) * | 2021-03-03 | 2023-01-21 | 宏碁股份有限公司 | 並排影像偵測方法與使用該方法的電子裝置 |
KR102489890B1 (ko) * | 2021-05-28 | 2023-01-17 | 한국항공대학교산학협력단 | 깊이 추정 시스템 및 깊이 추정 방법 |
CN113762278B (zh) * | 2021-09-13 | 2023-11-17 | 中冶路桥建设有限公司 | 一种基于目标检测的沥青路面损坏识别方法 |
CN114401391B (zh) * | 2021-12-09 | 2023-01-06 | 北京邮电大学 | 虚拟视点生成方法及装置 |
KR102559936B1 (ko) * | 2022-01-28 | 2023-07-27 | 포티투닷 주식회사 | 단안 카메라를 이용하여 깊이 정보를 추정하는 방법 및 장치 |
CN114782911B (zh) * | 2022-06-20 | 2022-09-16 | 小米汽车科技有限公司 | 图像处理的方法、装置、设备、介质、芯片及车辆 |
CN116258756B (zh) * | 2023-02-23 | 2024-03-08 | 齐鲁工业大学(山东省科学院) | 一种自监督单目深度估计方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165614A (ja) * | 2003-12-02 | 2005-06-23 | Canon Inc | 画像合成装置および画像合成方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5577130A (en) * | 1991-08-05 | 1996-11-19 | Philips Electronics North America | Method and apparatus for determining the distance between an image and an object |
CA2687213C (en) * | 2007-06-20 | 2015-12-22 | Thomson Licensing | System and method for stereo matching of images |
JP5153940B2 (ja) * | 2008-06-24 | 2013-02-27 | トムソン ライセンシング | 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法 |
CN101605270B (zh) * | 2009-07-16 | 2011-02-16 | 清华大学 | 生成深度图的方法和装置 |
GB2473282B (en) * | 2009-09-08 | 2011-10-12 | Nds Ltd | Recommended depth value |
US9030530B2 (en) * | 2009-12-15 | 2015-05-12 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
CN101840574B (zh) * | 2010-04-16 | 2012-05-23 | 西安电子科技大学 | 基于边缘象素特征的深度估计方法 |
US20110304618A1 (en) * | 2010-06-14 | 2011-12-15 | Qualcomm Incorporated | Calculating disparity for three-dimensional images |
TR201010438A2 (tr) * | 2010-12-14 | 2012-07-23 | Vestel Elektroni̇k Sanayi̇ Ve Ti̇caret A.Ş. | Stereo video için enformasyon geçirgenliği temelinde disparite tahmini. |
CN102523464A (zh) * | 2011-12-12 | 2012-06-27 | 上海大学 | 一种双目立体视频的深度图像估计方法 |
US9117295B2 (en) * | 2011-12-20 | 2015-08-25 | Adobe Systems Incorporated | Refinement of depth maps by fusion of multiple estimates |
US9571810B2 (en) * | 2011-12-23 | 2017-02-14 | Mediatek Inc. | Method and apparatus of determining perspective model for depth map generation by utilizing region-based analysis and/or temporal smoothing |
CN103106651B (zh) * | 2012-07-16 | 2015-06-24 | 清华大学深圳研究生院 | 一种基于三维hough变换的获取视差平面的方法 |
CN102831601A (zh) * | 2012-07-26 | 2012-12-19 | 中北大学 | 基于联合相似性测度和自适应支持权重的立体匹配方法 |
AU2013305770A1 (en) * | 2012-08-21 | 2015-02-26 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras |
NL2009616C2 (en) * | 2012-10-11 | 2014-04-14 | Ultra D Co Peratief U A | Adjusting depth in a three-dimensional image signal. |
CN103295229B (zh) * | 2013-05-13 | 2016-01-20 | 清华大学深圳研究生院 | 视频深度信息恢复的全局立体匹配方法 |
US9483830B2 (en) * | 2013-07-22 | 2016-11-01 | Stmicroelectronics S.R.L. | Depth map generation method, related system and computer program product |
EP2887312A1 (en) * | 2013-12-18 | 2015-06-24 | Nokia Corporation | Method, apparatus and computer program product for depth estimation of stereo images |
EP2887311B1 (en) * | 2013-12-20 | 2016-09-14 | Thomson Licensing | Method and apparatus for performing depth estimation |
CN103955954B (zh) * | 2014-04-21 | 2017-02-08 | 杭州电子科技大学 | 一种结合同场景立体图对的高分辨率深度图像重建方法 |
EP2950269A1 (en) * | 2014-05-27 | 2015-12-02 | Thomson Licensing | Method and apparatus for improving estimation of disparity in a stereo image pair using a hybrid recursive matching processing |
CN104065947B (zh) * | 2014-06-18 | 2016-06-01 | 长春理工大学 | 一种集成成像系统的深度图获取方法 |
CN104408710B (zh) * | 2014-10-30 | 2017-05-24 | 北京大学深圳研究生院 | 一种全局视差估计方法和系统 |
KR20160056132A (ko) * | 2014-11-11 | 2016-05-19 | 삼성전자주식회사 | 영상 변환 장치 및 그 영상 변환 방법 |
US10200666B2 (en) * | 2015-03-04 | 2019-02-05 | Dolby Laboratories Licensing Corporation | Coherent motion estimation for stereoscopic video |
-
2016
- 2016-09-12 GB GB1615470.0A patent/GB2553782B/en active Active
-
2017
- 2017-09-12 US US16/332,343 patent/US11100401B2/en active Active
- 2017-09-12 EP EP17794764.5A patent/EP3510561B1/en active Active
- 2017-09-12 AU AU2017324923A patent/AU2017324923B2/en active Active
- 2017-09-12 KR KR1020197010331A patent/KR102487270B1/ko active IP Right Grant
- 2017-09-12 WO PCT/GB2017/052671 patent/WO2018046964A1/en unknown
- 2017-09-12 CN CN201780055710.6A patent/CN109791697B/zh active Active
- 2017-09-12 CA CA3035298A patent/CA3035298C/en active Active
- 2017-09-12 JP JP2019535986A patent/JP7177062B2/ja active Active
- 2017-09-12 BR BR112019004798A patent/BR112019004798A8/pt unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165614A (ja) * | 2003-12-02 | 2005-06-23 | Canon Inc | 画像合成装置および画像合成方法 |
Non-Patent Citations (1)
Title |
---|
RAVI GARG, VIJAY KUMAR B G, GUSTAVO CARNEIRO, IAN REID: "Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue", ARXIV.ORG, JPN6021036093, 16 March 2016 (2016-03-16), US, ISSN: 0004594209 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135879A (ja) * | 2019-02-19 | 2020-08-31 | 富士通株式会社 | 画像処理装置、方法及び記憶媒体 |
CN111523409A (zh) * | 2020-04-09 | 2020-08-11 | 北京百度网讯科技有限公司 | 用于生成位置信息的方法和装置 |
JP2021168119A (ja) * | 2020-04-09 | 2021-10-21 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 位置情報を生成するための方法及び装置 |
US11521331B2 (en) | 2020-04-09 | 2022-12-06 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for generating position information, device, and medium |
JP7324792B2 (ja) | 2020-04-09 | 2023-08-10 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 位置情報を生成するための方法及び装置 |
CN111523409B (zh) * | 2020-04-09 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于生成位置信息的方法和装置 |
WO2022054422A1 (ja) * | 2020-09-10 | 2022-03-17 | 株式会社日立製作所 | 障害物検知装置、障害物検知システム及び障害物検知方法 |
KR102319237B1 (ko) * | 2021-03-02 | 2021-10-29 | 인하대학교 산학협력단 | 핸드크래프트 비용 기반의 다중 뷰 스테레오 정합 방법 |
US11868430B2 (en) | 2021-03-17 | 2024-01-09 | Kabushiki Kaisha Toshiba | Image processing device, method, and storage medium |
JP7500811B2 (ja) | 2022-03-29 | 2024-06-17 | 42ドット・インコーポレイテッド | 深度情報推定モデル学習のためのデータ処理方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
KR102487270B1 (ko) | 2023-01-11 |
CN109791697A (zh) | 2019-05-21 |
WO2018046964A1 (en) | 2018-03-15 |
US20190213481A1 (en) | 2019-07-11 |
BR112019004798A2 (pt) | 2019-06-04 |
AU2017324923A1 (en) | 2019-04-11 |
GB201615470D0 (en) | 2016-10-26 |
CA3035298A1 (en) | 2018-03-15 |
GB2553782B (en) | 2021-10-20 |
EP3510561B1 (en) | 2022-03-02 |
AU2017324923B2 (en) | 2022-01-27 |
JP7177062B2 (ja) | 2022-11-22 |
CN109791697B (zh) | 2023-10-13 |
US11100401B2 (en) | 2021-08-24 |
GB2553782A (en) | 2018-03-21 |
EP3510561A1 (en) | 2019-07-17 |
KR20190065287A (ko) | 2019-06-11 |
BR112019004798A8 (pt) | 2023-04-04 |
CA3035298C (en) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7177062B2 (ja) | 統計モデルを用いた画像データからの深度予測 | |
Ming et al. | Deep learning for monocular depth estimation: A review | |
Guo et al. | Learning monocular depth by distilling cross-domain stereo networks | |
Yan et al. | Ddrnet: Depth map denoising and refinement for consumer depth cameras using cascaded cnns | |
CN111325794A (zh) | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 | |
CN112991413A (zh) | 自监督深度估测方法和系统 | |
WO2019180414A1 (en) | Localisation, mapping and network training | |
Qu et al. | Depth completion via deep basis fitting | |
KR20210025942A (ko) | 종단간 컨볼루셔널 뉴럴 네트워크를 이용한 스테레오 매칭 방법 | |
Wang et al. | Depth estimation of video sequences with perceptual losses | |
Yang et al. | Depth map super-resolution using stereo-vision-assisted model | |
Qiao et al. | SF-Net: Learning scene flow from RGB-D images with CNNs | |
Liu et al. | A survey on deep learning methods for scene flow estimation | |
Yusiong et al. | AsiANet: Autoencoders in autoencoder for unsupervised monocular depth estimation | |
KR20230083212A (ko) | 객체 자세 추정 장치 및 방법 | |
Zhang et al. | Unsupervised detail-preserving network for high quality monocular depth estimation | |
Tang et al. | Encoder-decoder structure with the feature pyramid for depth estimation from a single image | |
Liang et al. | Selective progressive learning for sparse depth completion | |
Liu et al. | Deep learning for 3D human pose estimation and mesh recovery: A survey | |
Yusiong et al. | Unsupervised monocular depth estimation of driving scenes using siamese convolutional LSTM networks | |
Ji et al. | Dynamic visual sequence prediction with motion flow networks | |
Luo et al. | Full resolution dense depth recovery by fusing RGB images and sparse depth | |
Feng et al. | Unsupervised Monocular Depth Prediction for Indoor Continuous Video Streams | |
Wu | Learning Depth from Images | |
Zhou et al. | Recurrent Multiscale Feature Modulation for Geometry Consistent Depth Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7177062 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |