JP2021502626A - 両眼画像の深度推定方法及び装置、機器、プログラム並びに媒体 - Google Patents
両眼画像の深度推定方法及び装置、機器、プログラム並びに媒体 Download PDFInfo
- Publication number
- JP2021502626A JP2021502626A JP2020522837A JP2020522837A JP2021502626A JP 2021502626 A JP2021502626 A JP 2021502626A JP 2020522837 A JP2020522837 A JP 2020522837A JP 2020522837 A JP2020522837 A JP 2020522837A JP 2021502626 A JP2021502626 A JP 2021502626A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- reliability
- neural network
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本願は、出願番号が201810847268.7で、出願日が2018年7月27日である中国特許出願に基づいて提出され、且つ該中国特許出願の優先権を主張し、該中国特許出願の全ての内容が参照によって本願に組み込まれる。
処理対象である両眼画像を所定ニューラルネットワークに入力して、視差画像、及びその信頼度画像を得るステップであって、前記視差画像内の各画素の所定分布における離散パラメータが、該画素の信頼度と負の相関関係を呈するステップと、
前記視差画像に基づいて、前記処理対象である両眼画像の深度画像を取得するステップと、を含む両眼画像の深度推定方法を提供する。
前記処理対象である両眼画像を両眼立体マッチングニューラルネットワークにより処理した後、2つの畳み込み層と1つの正規化層によって順に処理して前記信頼度画像を得るステップを含む。
前記視差画像内の各画素の信頼度及び該画素の前記所定分布における離散パラメータに基づいて算出された損失関数を用いて、前記所定ニューラルネットワークをトレーニングするステップを更に含む。
前記視差画像とその前記信頼度画像、及び前記所定ニューラルネットワークパラメータと真実視差画像に基づいて、前記所定ニューラルネットワークパラメータに関する尤度関数を取得するステップと、
前記視差画像内の各画素の従う前記所定分布に基づいて、前記視差画像内の各画素の信頼度と該画素の前記所定分布における離散パラメータとの負の相関関係を取得するステップと、
前記視差画像内の各画素の信頼度と該画素の前記所定分布における離散パラメータとの負の相関関係に基づいて、前記所定ニューラルネットワークパラメータが前記所定分布に従い、前記視差画像内の各画素の信頼度が非逓減分布に従うことに基づいて、前記尤度関数に対して負対数を取って、前記損失関数を取得するステップと、を含む。
処理対象である両眼画像を所定ニューラルネットワークに入力して、視差画像、及びその信頼度画像を得るように構成される視差画像取得ユニットであって、前記視差画像内の各画素の所定分布における離散パラメータが、該画素の信頼度と負の相関関係を呈する視差画像取得ユニットと、
前記視差画像に基づいて、前記処理対象である両眼画像の深度画像を取得するように構成される深度画像取得ユニットと、を含む両眼画像の深度推定装置を提供する。
前記視差画像内の各画素の信頼度及び該画素の前記所定分布における離散パラメータに基づいて算出された損失関数を用いて、前記所定ニューラルネットワークをトレーニングするように構成されるニューラルネットワークトレーニングユニットを更に含む。
前記視差画像とその前記信頼度画像、及び前記所定ニューラルネットワークパラメータと真実視差画像に基づいて、前記所定ニューラルネットワークパラメータに関する尤度関数を取得し、前記視差画像内の各画素の従う前記所定分布に基づいて、前記視差画像内の各画素の信頼度と該画素の前記所定分布における離散パラメータとの負の相関関係を取得し、前記視差画像内の各画素の信頼度と該画素の前記所定分布における離散パラメータとの負の相関関係に基づいて、前記所定ニューラルネットワークパラメータが前記所定分布に従い、前記視差画像内の各画素の信頼度が非逓減分布に従うことに基づいて、前記尤度関数に対して負対数を取って、前記損失関数を取得するように構成される損失関数取得モジュールを含む。
実行可能コマンドを記憶するように構成されるメモリと、
前記実行可能コマンドを実行して上記のいずれか1つの実施例に記載の方法を完了するように構成されるプロセッサと、を含む電子機器を提供する。
ただし、x={x1、x2、…、xT}は処理対象である両眼画像であり、y={y1、y2、…、yN}は真実視差画像であり、ただし、TとNはそれぞれ処理対象である両眼画像と真実視差画像中の画素数量であり、wは所定ニューラルネットワークのパラメータであり、c={c1、c2、…、cN}は信頼度画像である。
(式2)
(式3)
ただし、b={b1、b2、…、bN}は異なる標準偏差のラプラス分布であり、biはラプラス分布の標準偏差パラメータ、即ち離散パラメータであり、ci∈[0,1]はランダム変数とし、biとciの線形逓減関数で負の相関関係を呈し、k及びaは、bi≧1を常に満たしているように、a≧k+1を満たす2つの正定数である。
(式4)
視差画像内の各画素の信頼度が非逓減分布に従い、γ≧0であることに基づいて、
(式5)
ただし、x={x1、x2、…、xT}は処理対象である両眼画像であり、y={y1、y2、…、yN}は真実視差画像であり、ただし、TとNはそれぞれ処理対象である両眼画像と真実視差画像中の画素数量であり、wは所定ニューラルネットワークのパラメータであり、c={c1、c2、…、cN}は信頼度画像である。
(式7)
(式3)
ただし、b={b1、b2、…、bN}は異なる標準偏差のガウス分布であり、biはガウス分布の標準偏差パラメータ、即ち離散パラメータであり、ci∈[0,1]はランダム変数とし、biとciの線形逓減関数で負の相関関係を呈し、k及びaは、bi≧1を常に満たしているように、a≧k+1を満たす2つの正定数である。
(式8)
視差画像内の各画素の信頼度が非逓減分布に従い、γ≧0であることに基づいて、
(式5)
Claims (22)
- 処理対象である両眼画像を所定ニューラルネットワークに入力して、視差画像、及びその信頼度画像を得るステップであって、前記視差画像内の各画素の所定分布における離散パラメータが、該画素の信頼度と負の相関関係を呈するステップと、
前記視差画像に基づいて、前記処理対象である両眼画像の深度画像を取得するステップと、を含む両眼画像の深度推定方法。 - 処理対象である両眼画像の左視界画像と右視界画像を所定ニューラルネットワークに入力して、信頼度画像を得る前記ステップは、
前記処理対象である両眼画像を両眼立体マッチングニューラルネットワークにより処理した後、2つの畳み込み層と1つの正規化層によって順に処理して前記信頼度画像を得るステップを含む請求項1に記載の方法。 - 前記視差画像内の各画素の信頼度及び該画素の前記所定分布における離散パラメータに基づいて算出された損失関数を用いて、前記所定ニューラルネットワークをトレーニングするステップを更に含む請求項1又は2に記載の方法。
- 前記損失関数は、正則化項と、前記視差画像内の各画素の前記損失関数における重みを調整するフォーカス損失項とを含む請求項3に記載の方法。
- 前記正則化項は、信頼度に関連する正則化項、及び所定ニューラルネットワークパラメータに関連する正則化項を含む請求項4に記載の方法。
- 前記視差画像内の各画素の信頼度及び該画素の前記所定分布における離散パラメータに基づいて前記損失関数を算出するステップは、
前記視差画像とその前記信頼度画像、及び前記所定ニューラルネットワークパラメータと真実視差画像に基づいて、前記所定ニューラルネットワークパラメータに関する尤度関数を取得するステップと、
前記視差画像内の各画素の従う前記所定分布に基づいて、前記視差画像内の各画素の信頼度と該画素の前記所定分布における離散パラメータとの負の相関関係を取得するステップと、
前記視差画像内の各画素の信頼度と該画素の前記所定分布における離散パラメータとの負の相関関係に基づいて、前記所定ニューラルネットワークパラメータが前記所定分布に従い、前記視差画像内の各画素の信頼度が非逓減分布に従うことに基づいて、前記尤度関数に対して負対数を取って、前記損失関数を取得するステップと、を含む請求項3〜5のいずれか一項に記載の方法。 - 前記所定分布は、ラプラス分布又はガウス分布を含む請求項3〜6のいずれか一項に記載の方法。
- 前記所定分布がラプラス分布であることに応じて、前記損失関数は、前記視差画像と真実視差画像内の各画素の視差値との差の絶対値と、該画素の信頼度との比の平均値に基づいて得られたフォーカス損失項、前記視差画像内の各画素の信頼度の平均値に基づいて得られた正則化項、及び前記所定ニューラルネットワークパラメータに基づいて得られた正則化項を含む請求項7に記載の方法。
- 所定分布がガウス分布であることに応じて、前記損失関数は、前記視差画像と真実視差画像内の各画素の視差値との差の平方と、該画素の信頼度との比の平均値に基づいて得られたフォーカス損失項、前記視差画像内の各画素の信頼度の平均値に基づいて得られた正則化項、及び前記所定ニューラルネットワークパラメータに基づいて得られた正則化項を含む請求項7に記載の方法。
- 処理対象である両眼画像を所定ニューラルネットワークに入力して、視差画像、及びその信頼度画像を得るように構成される視差画像取得ユニットであって、前記視差画像内の各画素の所定分布における離散パラメータが、該画素の信頼度と負の相関関係を呈する視差画像取得ユニットと、
前記視差画像に基づいて、前記処理対象である両眼画像の深度画像を取得するように構成される深度画像取得ユニットと、を含む両眼画像の深度推定装置。 - 前記視差画像取得ユニットは、前記処理対象である両眼画像を両眼立体マッチングニューラルネットワークにより処理した後、2つの畳み込み層と1つの正規化層によって順に処理して前記信頼度画像を得るように構成される請求項10に記載の装置。
- 前記視差画像内の各画素の信頼度及び該画素の前記所定分布における離散パラメータに基づいて算出された損失関数を用いて、前記所定ニューラルネットワークをトレーニングするように構成されるニューラルネットワークトレーニングユニットを更に含む請求項10又は11に記載の装置。
- 前記損失関数は、正則化項と、前記視差画像内の各画素の前記損失関数における重みを調整するフォーカス損失項とを含む請求項12に記載の装置。
- 前記正則化項は、信頼度に関連する正則化項、及び所定ニューラルネットワークパラメータに関連する正則化項を含む請求項13に記載の装置。
- 前記ニューラルネットワークトレーニングユニットは、
前記視差画像とその前記信頼度画像、及び前記所定ニューラルネットワークパラメータと真実視差画像に基づいて、前記所定ニューラルネットワークパラメータに関する尤度関数を取得し、前記視差画像内の各画素の従う前記所定分布に基づいて、前記視差画像内の各画素の信頼度と該画素の前記所定分布における離散パラメータとの負の相関関係を取得し、前記視差画像内の各画素の信頼度と該画素の前記所定分布における離散パラメータとの負の相関関係に基づいて、前記所定ニューラルネットワークパラメータが前記所定分布に従い、前記視差画像内の各画素の信頼度が非逓減分布に従うことに基づいて、前記尤度関数に対して負対数を取って、前記損失関数を取得するように構成される損失関数取得モジュールを含む請求項12〜14のいずれか一項に記載の装置。 - 前記所定分布は、ラプラス分布又はガウス分布を含む請求項12〜15のいずれか一項に記載の装置。
- 所定分布がラプラス分布であることに応じて、前記損失関数は、前記視差画像と真実視差画像内の各画素の視差値との差の絶対値と、該画素の信頼度との比の平均値に基づいて得られたフォーカス損失項、前記視差画像内の各画素の信頼度の平均値に基づいて得られた正則化項、及び前記所定ニューラルネットワークパラメータに基づいて得られた正則化項を含む請求項16に記載の装置。
- 所定分布がガウス分布であることに応じて、前記損失関数は、前記視差画像と真実視差画像内の各画素の視差値との差の平方と、該画素の信頼度との比の平均値に基づいて得られたフォーカス損失項、前記視差画像内の各画素の信頼度の平均値に基づいて得られた正則化項、及び前記所定ニューラルネットワークパラメータに基づいて得られた正則化項を含む請求項16に記載の装置。
- 請求項1〜18のいずれか一項に記載の装置を含む電子機器。
- 実行可能コマンドを記憶するように構成されるメモリと、
前記実行可能コマンドを実行して請求項1〜9のいずれか一項に記載の方法を完了するように構成されるプロセッサと、を含む電子機器。 - コンピュータ可読コードを含むコンピュータプログラムであって、前記コンピュータ可読コードが機器上で作動する時に、前記機器におけるプロセッサが請求項1〜9のいずれか一項に記載の方法を実現するためのコマンドを実行するコンピュータプログラム。
- コンピュータ可読コマンドを記憶し、前記コマンドが実行される時に請求項1〜9のいずれか一項に記載の方法が実現されるように構成されるコンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810847268.7 | 2018-07-27 | ||
CN201810847268.7A CN109191512B (zh) | 2018-07-27 | 2018-07-27 | 双目图像的深度估计方法及装置、设备、程序及介质 |
PCT/CN2019/082549 WO2020019765A1 (zh) | 2018-07-27 | 2019-04-12 | 双目图像的深度估计方法及装置、设备、程序及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021502626A true JP2021502626A (ja) | 2021-01-28 |
JP7123133B2 JP7123133B2 (ja) | 2022-08-22 |
Family
ID=64937763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522837A Active JP7123133B2 (ja) | 2018-07-27 | 2019-04-12 | 両眼画像の深度推定方法及び装置、機器、プログラム並びに媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11295466B2 (ja) |
JP (1) | JP7123133B2 (ja) |
CN (1) | CN109191512B (ja) |
SG (1) | SG11202003899WA (ja) |
TW (1) | TWI721510B (ja) |
WO (1) | WO2020019765A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023047562A1 (ja) * | 2021-09-27 | 2023-03-30 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
JP7451456B2 (ja) | 2021-03-22 | 2024-03-18 | 株式会社東芝 | 運動推定装置及びそれを用いた運動推定方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191512B (zh) | 2018-07-27 | 2020-10-30 | 深圳市商汤科技有限公司 | 双目图像的深度估计方法及装置、设备、程序及介质 |
CN113167269A (zh) * | 2018-12-16 | 2021-07-23 | 森西亚有限责任公司 | 泵系统 |
CN109887019B (zh) * | 2019-02-19 | 2022-05-24 | 北京市商汤科技开发有限公司 | 一种双目匹配方法及装置、设备和存储介质 |
CN111723926B (zh) * | 2019-03-22 | 2023-09-12 | 北京地平线机器人技术研发有限公司 | 用于确定图像视差的神经网络模型的训练方法和训练装置 |
CN110148179A (zh) * | 2019-04-19 | 2019-08-20 | 北京地平线机器人技术研发有限公司 | 一种训练用于估计图像视差图的神经网络模型方法、装置及介质 |
WO2021229455A1 (en) * | 2020-05-11 | 2021-11-18 | Niantic, Inc. | Generating stereo image data from monocular images |
CN112116639B (zh) * | 2020-09-08 | 2022-06-07 | 苏州浪潮智能科技有限公司 | 一种图像配准方法、装置及电子设备和存储介质 |
CN112634341B (zh) * | 2020-12-24 | 2021-09-07 | 湖北工业大学 | 多视觉任务协同的深度估计模型的构建方法 |
CN113706599B (zh) * | 2021-10-29 | 2022-01-21 | 纽劢科技(上海)有限公司 | 一种基于伪标签融合的双目深度估计方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012253666A (ja) * | 2011-06-06 | 2012-12-20 | Sony Corp | 画像理装置および方法、並びにプログラム |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011054833A1 (de) * | 2010-10-29 | 2012-05-03 | Hoya Corp. | Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern |
EP2509324A1 (en) * | 2011-04-08 | 2012-10-10 | Thomson Licensing | Method and apparatus for analyzing stereoscopic or multi-view images |
JP2013005259A (ja) * | 2011-06-17 | 2013-01-07 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
JP5367034B2 (ja) * | 2011-08-24 | 2013-12-11 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法 |
US11074495B2 (en) * | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
EP2774380B1 (en) * | 2011-11-02 | 2019-05-22 | Intuitive Surgical Operations, Inc. | Method and system for stereo gaze tracking |
CN102523464A (zh) * | 2011-12-12 | 2012-06-27 | 上海大学 | 一种双目立体视频的深度图像估计方法 |
CN102609936A (zh) * | 2012-01-10 | 2012-07-25 | 四川长虹电器股份有限公司 | 基于置信度传播的图像立体匹配方法 |
CN103424105B (zh) * | 2012-05-16 | 2016-02-10 | 株式会社理光 | 对象检测方法和装置 |
CN104662589B (zh) * | 2012-08-21 | 2017-08-04 | 派力肯影像公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
WO2014037603A1 (en) * | 2012-09-06 | 2014-03-13 | Nokia Corporation | An apparatus, a method and a computer program for image processing |
JP2014078095A (ja) * | 2012-10-10 | 2014-05-01 | Sony Corp | 画像処理装置、画像処理方法、及びプログラム |
US9519972B2 (en) * | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
CN105096300B (zh) * | 2014-05-08 | 2018-06-12 | 株式会社理光 | 对象检测方法和设备 |
TWI608447B (zh) * | 2015-09-25 | 2017-12-11 | 台達電子工業股份有限公司 | 立體影像深度圖產生裝置及方法 |
US10482313B2 (en) * | 2015-09-30 | 2019-11-19 | Siemens Healthcare Gmbh | Method and system for classification of endoscopic images using deep decision networks |
US9881234B2 (en) * | 2015-11-25 | 2018-01-30 | Baidu Usa Llc. | Systems and methods for end-to-end object detection |
JP6769477B2 (ja) * | 2016-03-10 | 2020-10-14 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
US10841491B2 (en) * | 2016-03-16 | 2020-11-17 | Analog Devices, Inc. | Reducing power consumption for time-of-flight depth imaging |
US10482633B2 (en) * | 2016-09-12 | 2019-11-19 | Zebra Medical Vision Ltd. | Systems and methods for automated detection of an indication of malignancy in a mammographic image |
WO2018057714A1 (en) * | 2016-09-21 | 2018-03-29 | The General Hospital Corporation | Systems, methods and media for automatically generating a bone age assessment from a radiograph |
US10003768B2 (en) * | 2016-09-28 | 2018-06-19 | Gopro, Inc. | Apparatus and methods for frame interpolation based on spatial considerations |
US10003787B1 (en) * | 2016-12-21 | 2018-06-19 | Canon Kabushiki Kaisha | Method, system and apparatus for refining a depth map |
CN106683182B (zh) * | 2017-01-12 | 2019-09-20 | 南京大学 | 一种权衡立体匹配和视觉外形的三维重建方法 |
US10580131B2 (en) * | 2017-02-23 | 2020-03-03 | Zebra Medical Vision Ltd. | Convolutional neural network for segmentation of medical anatomical images |
US11835524B2 (en) * | 2017-03-06 | 2023-12-05 | University Of Southern California | Machine learning for digital pathology |
US10616482B2 (en) * | 2017-03-10 | 2020-04-07 | Gopro, Inc. | Image quality assessment |
CN110574050A (zh) * | 2017-05-31 | 2019-12-13 | 英特尔公司 | 用于基于四元数的机器学习系统的基于梯度的训练引擎 |
WO2019024568A1 (zh) * | 2017-08-02 | 2019-02-07 | 上海市第六人民医院 | 眼底图像处理方法、装置、计算机设备和存储介质 |
US10970425B2 (en) * | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
US11087130B2 (en) * | 2017-12-29 | 2021-08-10 | RetailNext, Inc. | Simultaneous object localization and attribute classification using multitask deep neural networks |
CN108269273B (zh) * | 2018-02-12 | 2021-07-27 | 福州大学 | 一种全景纵向漫游中极线匹配的置信传播方法 |
US10956714B2 (en) * | 2018-05-18 | 2021-03-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
CN110832275B (zh) * | 2018-06-14 | 2021-05-18 | 北京嘀嘀无限科技发展有限公司 | 基于双目图像更新高分辨率地图的系统和方法 |
CN109191512B (zh) * | 2018-07-27 | 2020-10-30 | 深圳市商汤科技有限公司 | 双目图像的深度估计方法及装置、设备、程序及介质 |
-
2018
- 2018-07-27 CN CN201810847268.7A patent/CN109191512B/zh active Active
-
2019
- 2019-04-12 JP JP2020522837A patent/JP7123133B2/ja active Active
- 2019-04-12 SG SG11202003899WA patent/SG11202003899WA/en unknown
- 2019-04-12 WO PCT/CN2019/082549 patent/WO2020019765A1/zh active Application Filing
- 2019-07-24 TW TW108126234A patent/TWI721510B/zh active
-
2020
- 2020-04-27 US US16/858,824 patent/US11295466B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012253666A (ja) * | 2011-06-06 | 2012-12-20 | Sony Corp | 画像理装置および方法、並びにプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7451456B2 (ja) | 2021-03-22 | 2024-03-18 | 株式会社東芝 | 運動推定装置及びそれを用いた運動推定方法 |
WO2023047562A1 (ja) * | 2021-09-27 | 2023-03-30 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
SG11202003899WA (en) | 2020-05-28 |
TW202008310A (zh) | 2020-02-16 |
WO2020019765A1 (zh) | 2020-01-30 |
CN109191512A (zh) | 2019-01-11 |
TWI721510B (zh) | 2021-03-11 |
US11295466B2 (en) | 2022-04-05 |
JP7123133B2 (ja) | 2022-08-22 |
CN109191512B (zh) | 2020-10-30 |
US20200258250A1 (en) | 2020-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021502626A (ja) | 両眼画像の深度推定方法及び装置、機器、プログラム並びに媒体 | |
US20210150759A1 (en) | Eye gaze tracking using neural networks | |
JP6963695B2 (ja) | 単眼画像深度推定方法及び装置、機器、プログラム及び記憶媒体 | |
CN110168560B (zh) | 用于场景理解和生成的方法、系统和介质 | |
EP3295426B1 (en) | Edge-aware bilateral image processing | |
WO2019223382A1 (zh) | 单目深度估计方法及其装置、设备和存储介质 | |
WO2019024808A1 (zh) | 语义分割模型的训练方法和装置、电子设备、存储介质 | |
US20200175700A1 (en) | Joint Training Technique for Depth Map Generation | |
US10970821B2 (en) | Image blurring methods and apparatuses, storage media, and electronic devices | |
US11004221B2 (en) | Depth recovery methods and apparatuses for monocular image, and computer devices | |
EP3182369B1 (en) | Stereo matching method, controller and system | |
US11004179B2 (en) | Image blurring methods and apparatuses, storage media, and electronic devices | |
JP2020523703A (ja) | ダブル視野角画像較正および画像処理方法、装置、記憶媒体ならびに電子機器 | |
US11669977B2 (en) | Processing images to localize novel objects | |
JP2020524355A5 (ja) | ||
US11951622B2 (en) | Domain adaptation using simulation to simulation transfer | |
JP2016148588A (ja) | デプス推定モデル生成装置及びデプス推定装置 | |
US20220051436A1 (en) | Learning template representation libraries | |
CN116152586A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN109035338B (zh) | 一种基于单尺度特征的点云与图片融合方法、装置及其设备 | |
CN117392192A (zh) | 图像深度预测方法、装置、可读存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200422 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7123133 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |