JP7108125B2 - 画像視差推定 - Google Patents
画像視差推定 Download PDFInfo
- Publication number
- JP7108125B2 JP7108125B2 JP2021502923A JP2021502923A JP7108125B2 JP 7108125 B2 JP7108125 B2 JP 7108125B2 JP 2021502923 A JP2021502923 A JP 2021502923A JP 2021502923 A JP2021502923 A JP 2021502923A JP 7108125 B2 JP7108125 B2 JP 7108125B2
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- information
- parallax
- image
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 claims description 146
- 230000011218 segmentation Effects 0.000 claims description 106
- 238000000034 method Methods 0.000 claims description 105
- 238000012549 training Methods 0.000 claims description 87
- 238000012545 processing Methods 0.000 claims description 60
- 238000000605 extraction Methods 0.000 claims description 34
- 238000009499 grossing Methods 0.000 claims description 22
- 238000002156 mixing Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
において、最大視差パラメータをdに設定してもよい。これにより、例えばサイズがh×w×(d + 1)の相関特徴マップFcを取得でき、式中、hは第1視点一次特徴マップFlの高さ、wは第1視点一次特徴マップFlの幅である。
(教師無し方式)
を取得する。その次に、L1ノルム(norm)により光学的整合性を正規化し、取得された光度損失Lpは式(1)に示す通りとなる。
はL1ノルムである。
、ここで、fyiは正解ラベルで、yjはクラス番号で、fyjはカテゴリがyjであるアクティベーション値(activation)で、iは画素のインデックスであり、単一画素のsoftmax損失を次のように定義する。一枚の画像全体に対して、ラベル付き画素の位置のsoftmax損失を算出し、ラベル付き画素の集合はNvである。
(教師あり方式)
をも提供する。そのため、L1ノルムを直接使用して予測回帰を正規化することができる。視差回帰損失Lrは、以下の式(5)で表され得る。
Claims (11)
- 視差推定ニューラルネットワークにより実現される画像視差推定方法であって、
対象シーンの第1視点画像および第2視点画像を取得することと、
前記第1視点画像に対して特徴抽出処理を行って第1視点特徴情報を取得することと、
前記第1視点画像に対してセマンティックセグメンテーション処理を行って第1視点セマンティックセグメンテーション情報を取得することと、
前記第1視点特徴情報、前記第1視点セマンティックセグメンテーション情報、および前記第1視点画像と前記第2視点画像との相関情報に基づいて、前記第1視点画像と前記第2視点画像との視差予測情報を取得することと、
を含み、
前記視差予測情報に基づいて前記視差推定ニューラルネットワークをトレーニングすることをさらに含み、
前記視差予測情報に基づいて前記視差推定ニューラルネットワークをトレーニングすることは、
前記第2視点画像に対してセマンティックセグメンテーション処理を行って第2視点セマンティックセグメンテーション情報を取得することと、
前記第2視点セマンティックセグメンテーション情報および前記視差予測情報に基づいて第1視点再構築セマンティック情報を取得することと、
前記第1視点再構築セマンティック情報に基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整することと、を含む
ことを特徴とする画像視差推定方法。 - 前記第2視点画像に対して特徴抽出処理を行って第2視点特徴情報を取得することと、
前記第1視点特徴情報および前記第2視点特徴情報に基づいて相関処理を行って前記相関情報を取得することと、
をさらに含むことを特徴とする請求項1に記載の画像視差推定方法。 - 前記第1視点特徴情報、前記第1視点セマンティックセグメンテーション情報、および前記第1視点画像と前記第2視点画像との相関情報に基づいて、前記第1視点画像と前記第2視点画像との視差予測情報を取得することは、
前記第1視点特徴情報、前記第1視点セマンティックセグメンテーション情報、および前記相関情報に対して混合処理を行って混合特徴情報を取得することと、
前記混合特徴情報に基づいて前記視差予測情報を取得することと、
を含むことを特徴とする請求項1または2に記載の画像視差推定方法。 - 前記第1視点再構築セマンティック情報に基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整することは、
前記第1視点再構築セマンティック情報に基づいてセマンティック損失値を特定することと、
前記セマンティック損失値に基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整することと、
を含むことを特徴とする請求項1~3のいずれか一項に記載の画像視差推定方法。 - 前記第1視点再構築セマンティック情報に基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整することは、
前記第1視点再構築セマンティック情報および前記第1視点画像の第1セマンティックラベルに基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整すること、あるいは、
前記第1視点再構築セマンティック情報および前記第1視点セマンティックセグメンテーション情報に基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整すること、
を含むことを特徴とする請求項1~4のいずれか一項に記載の画像視差推定方法。 - 前記視差予測情報に基づいて前記視差推定ニューラルネットワークをトレーニングすることは、
前記視差予測情報および前記第2視点画像に基づいて第1視点再構築画像を取得することと、
前記第1視点再構築画像と前記第1視点画像との光度差に基づいて光度損失値を特定することと、
前記視差予測情報に基づいて平滑化損失値を特定することと、
前記光度損失値および前記平滑化損失値に基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整することと、
を含むことを特徴とする請求項1~5のいずれか一項に記載の画像視差推定方法。 - 前記第1視点画像と前記第2視点画像とは、ラベルされた視差情報に対応し、
前記方法は、前記視差予測情報および前記ラベルされた視差情報に基づいて前記方法を実現するための視差推定ニューラルネットワークをトレーニングすることをさらに含む、ことを特徴とする請求項1~6のいずれか一項に記載の画像視差推定方法。 - 前記視差予測情報および前記ラベルされた視差情報に基づいて前記視差推定ニューラルネットワークをトレーニングすることは、
前記視差予測情報および前記ラベルされた視差情報に基づいて視差回帰損失値を特定することと、
前記視差回帰損失値に基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整することと、
を含むことを特徴とする請求項7に記載の画像視差推定方法。 - 対象シーンの第1視点画像および第2視点画像を取得するための画像取得モジュールと、
前記第1視点画像および前記第2視点画像に基づいて視差予測情報を取得するための視差推定ニューラルネットワークと、
前記視差予測情報に基づいて前記視差推定ニューラルネットワークをトレーニングするための第1ネットワークトレーニングモジュールと、を備え、
前記視差推定ニューラルネットワークは、
前記第1視点画像に対して特徴抽出処理を行って第1視点特徴情報を取得するための一次特徴抽出モジュールと、
前記第1視点画像に対してセマンティックセグメンテーション処理を行って第1視点セマンティックセグメンテーション情報を取得するためのセマンティック特徴抽出モジュールと、
前記第1視点特徴情報、前記第1視点セマンティックセグメンテーション情報、および前記第1視点画像と前記第2視点画像との相関情報に基づいて、前記第1視点画像と前記第2視点画像との視差予測情報を取得するための視差回帰モジュールと、
を含み、
前記第1ネットワークトレーニングモジュールはさらに、
前記第2視点画像に対してセマンティックセグメンテーション処理を行って第2視点セマンティックセグメンテーション情報を取得し、
前記第2視点セマンティックセグメンテーション情報および前記視差予測情報に基づいて第1視点再構築セマンティック情報を取得し、
前記第1視点再構築セマンティック情報に基づいて前記視差推定ニューラルネットワークのネットワークパラメータを調整するために用いられることを
ことを特徴とする画像視差推定装置。 - 画像視差推定装置であって、
メモリと、プロセッサと、前記メモリに格納され且つ前記プロセッサ上で実行可能なコンピュータプログラムと、を備え、
前記コンピュータプログラムが前記プロセッサによって実行される際に、請求項1~8のいずれか一項に記載の画像視差推定方法が実現されることを特徴とする画像視差推定装置。 - 記憶媒体であって、
前記記憶媒体にはコンピュータプログラムが格納されており、
前記コンピュータプログラムがプロセッサによって実行される際に、請求項1~8のいずれか一項に記載の画像視差推定方法が前記プロセッサによって実行されることを特徴とする記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810824486.9A CN109191515B (zh) | 2018-07-25 | 2018-07-25 | 一种图像视差估计方法及装置、存储介质 |
CN201810824486.9 | 2018-07-25 | ||
PCT/CN2019/097307 WO2020020160A1 (zh) | 2018-07-25 | 2019-07-23 | 图像视差估计 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021531582A JP2021531582A (ja) | 2021-11-18 |
JP7108125B2 true JP7108125B2 (ja) | 2022-07-27 |
Family
ID=64936941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021502923A Active JP7108125B2 (ja) | 2018-07-25 | 2019-07-23 | 画像視差推定 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210142095A1 (ja) |
JP (1) | JP7108125B2 (ja) |
CN (1) | CN109191515B (ja) |
SG (1) | SG11202100556YA (ja) |
WO (1) | WO2020020160A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191515B (zh) * | 2018-07-25 | 2021-06-01 | 北京市商汤科技开发有限公司 | 一种图像视差估计方法及装置、存储介质 |
WO2020027233A1 (ja) | 2018-07-31 | 2020-02-06 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置及び車両制御システム |
JP6725733B2 (ja) * | 2018-07-31 | 2020-07-22 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置および電子機器 |
CN113168713B (zh) * | 2018-12-14 | 2024-09-06 | 富士胶片株式会社 | 小批量学习装置及其工作程序、工作方法及图像处理装置 |
CN110060230B (zh) * | 2019-01-18 | 2021-11-26 | 商汤集团有限公司 | 三维场景分析方法、装置、介质及设备 |
CN110163246B (zh) * | 2019-04-08 | 2021-03-30 | 杭州电子科技大学 | 基于卷积神经网络的单目光场图像无监督深度估计方法 |
CN110148179A (zh) * | 2019-04-19 | 2019-08-20 | 北京地平线机器人技术研发有限公司 | 一种训练用于估计图像视差图的神经网络模型方法、装置及介质 |
CN110060264B (zh) * | 2019-04-30 | 2021-03-23 | 北京市商汤科技开发有限公司 | 神经网络训练方法、视频帧处理方法、装置及系统 |
CN110378201A (zh) * | 2019-06-05 | 2019-10-25 | 浙江零跑科技有限公司 | 一种基于侧环视鱼眼相机输入的多列车铰接角测量方法 |
CN110310317A (zh) * | 2019-06-28 | 2019-10-08 | 西北工业大学 | 一种基于深度学习的单目视觉场景深度估计的方法 |
CN110728707B (zh) * | 2019-10-18 | 2022-02-25 | 陕西师范大学 | 基于非对称深度卷积神经网络的多视角深度预测方法 |
US10984290B1 (en) | 2019-11-15 | 2021-04-20 | Zoox, Inc. | Multi-task learning for real-time semantic and/or depth aware instance segmentation and/or three-dimensional object bounding |
CN111192238B (zh) * | 2019-12-17 | 2022-09-20 | 南京理工大学 | 基于自监督深度网络的无损血管三维测量方法 |
US20210390407A1 (en) * | 2020-06-10 | 2021-12-16 | Waymo Llc | Training perspective computer vision models using view synthesis |
CN111768434B (zh) * | 2020-06-29 | 2024-07-16 | Oppo广东移动通信有限公司 | 视差图获取方法、装置、电子设备和存储介质 |
CN112634341B (zh) * | 2020-12-24 | 2021-09-07 | 湖北工业大学 | 多视觉任务协同的深度估计模型的构建方法 |
CN112767468B (zh) * | 2021-02-05 | 2023-11-03 | 中国科学院深圳先进技术研究院 | 基于协同分割与数据增强的自监督三维重建方法及系统 |
JP2023041286A (ja) * | 2021-09-13 | 2023-03-24 | 日立Astemo株式会社 | 画像処理装置、および、画像処理方法 |
CN113807251A (zh) * | 2021-09-17 | 2021-12-17 | 哈尔滨理工大学 | 一种基于外观的视线估计方法 |
CN113808187A (zh) * | 2021-09-18 | 2021-12-17 | 京东鲲鹏(江苏)科技有限公司 | 视差图生成方法、装置、电子设备和计算机可读介质 |
US20230140170A1 (en) * | 2021-10-28 | 2023-05-04 | Samsung Electronics Co., Ltd. | System and method for depth and scene reconstruction for augmented reality or extended reality devices |
CN114528976B (zh) * | 2022-01-24 | 2023-01-03 | 北京智源人工智能研究院 | 一种等变网络训练方法、装置、电子设备及存储介质 |
CN114782911B (zh) * | 2022-06-20 | 2022-09-16 | 小米汽车科技有限公司 | 图像处理的方法、装置、设备、介质、芯片及车辆 |
CN117422750B (zh) * | 2023-10-30 | 2024-08-02 | 河南送变电建设有限公司 | 一种场景距离实时感知方法、装置、电子设备及存储介质 |
CN117789971B (zh) * | 2024-02-13 | 2024-05-24 | 长春职业技术学院 | 基于文本情感分析的心理健康智能评测系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101996399A (zh) | 2009-08-18 | 2011-03-30 | 三星电子株式会社 | 在左图像与右图像之间估计视差的设备和方法 |
CN102799646A (zh) | 2012-06-27 | 2012-11-28 | 浙江万里学院 | 一种面向多视点视频的语义对象分割方法 |
JP2018010359A (ja) | 2016-07-11 | 2018-01-18 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4196302B2 (ja) * | 2006-06-19 | 2008-12-17 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
CN101344965A (zh) * | 2008-09-04 | 2009-01-14 | 上海交通大学 | 基于双目摄像的跟踪系统 |
CN102663765B (zh) * | 2012-04-28 | 2016-03-02 | Tcl集团股份有限公司 | 一种基于语义分割的三维图像立体匹配方法和系统 |
US10055013B2 (en) * | 2013-09-17 | 2018-08-21 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
CN105631479B (zh) * | 2015-12-30 | 2019-05-17 | 中国科学院自动化研究所 | 基于非平衡学习的深度卷积网络图像标注方法及装置 |
CN108280451B (zh) * | 2018-01-19 | 2020-12-29 | 北京市商汤科技开发有限公司 | 语义分割及网络训练方法和装置、设备、介质 |
CN108229591B (zh) * | 2018-03-15 | 2020-09-22 | 北京市商汤科技开发有限公司 | 神经网络自适应训练方法和装置、设备、程序和存储介质 |
CN109191515B (zh) * | 2018-07-25 | 2021-06-01 | 北京市商汤科技开发有限公司 | 一种图像视差估计方法及装置、存储介质 |
-
2018
- 2018-07-25 CN CN201810824486.9A patent/CN109191515B/zh active Active
-
2019
- 2019-07-23 JP JP2021502923A patent/JP7108125B2/ja active Active
- 2019-07-23 WO PCT/CN2019/097307 patent/WO2020020160A1/zh active Application Filing
- 2019-07-23 SG SG11202100556YA patent/SG11202100556YA/en unknown
-
2021
- 2021-01-20 US US17/152,897 patent/US20210142095A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101996399A (zh) | 2009-08-18 | 2011-03-30 | 三星电子株式会社 | 在左图像与右图像之间估计视差的设备和方法 |
CN102799646A (zh) | 2012-06-27 | 2012-11-28 | 浙江万里学院 | 一种面向多视点视频的语义对象分割方法 |
JP2018010359A (ja) | 2016-07-11 | 2018-01-18 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN109191515A (zh) | 2019-01-11 |
US20210142095A1 (en) | 2021-05-13 |
SG11202100556YA (en) | 2021-03-30 |
CN109191515B (zh) | 2021-06-01 |
JP2021531582A (ja) | 2021-11-18 |
WO2020020160A1 (zh) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7108125B2 (ja) | 画像視差推定 | |
Yang et al. | Dense depth posterior (ddp) from single image and sparse range | |
AU2017324923B2 (en) | Predicting depth from image data using a statistical model | |
US11830211B2 (en) | Disparity map acquisition method and apparatus, device, control system and storage medium | |
Huang et al. | Indoor depth completion with boundary consistency and self-attention | |
CN108269266A (zh) | 使用马尔可夫随机场优化来产生分割图像 | |
KR20210025942A (ko) | 종단간 컨볼루셔널 뉴럴 네트워크를 이용한 스테레오 매칭 방법 | |
CN113256699B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN111105451B (zh) | 一种克服遮挡效应的驾驶场景双目深度估计方法 | |
Popović et al. | Volumetric occupancy mapping with probabilistic depth completion for robotic navigation | |
Yue et al. | Semi-supervised monocular depth estimation based on semantic supervision | |
Yang et al. | [Retracted] A Method of Image Semantic Segmentation Based on PSPNet | |
Prasad et al. | Epipolar geometry based learning of multi-view depth and ego-motion from monocular sequences | |
CN118429524A (zh) | 基于双目立体视觉的车辆行驶环境建模方法及系统 | |
Han et al. | Self-supervised monocular Depth estimation with multi-scale structure similarity loss | |
CN117808691A (zh) | 一种基于差异显著性聚合和联合梯度约束的图像融合方法 | |
Tseng et al. | Semi-supervised image depth prediction with deep learning and binocular algorithms | |
CN112818932A (zh) | 图像处理方法、障碍物检测方法、装置、介质及车辆 | |
CN113160210A (zh) | 基于深度相机的排水管道缺陷检测方法及装置 | |
CN116630238A (zh) | 双目立体匹配方法、装置、电子设备及存储介质 | |
CN116523990A (zh) | 三维语义场景补全方法、设备和介质 | |
CN116630528A (zh) | 基于神经网络的静态场景重建方法 | |
CN111738061A (zh) | 基于区域特征提取的双目视觉立体匹配方法及存储介质 | |
Fan et al. | Photo Hull regularized stereo | |
Chen et al. | Disocclusion-type aware hole filling method for view synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7108125 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |