JP2023529332A - 深度推定システム及び深度推定方法 - Google Patents
深度推定システム及び深度推定方法 Download PDFInfo
- Publication number
- JP2023529332A JP2023529332A JP2022573637A JP2022573637A JP2023529332A JP 2023529332 A JP2023529332 A JP 2023529332A JP 2022573637 A JP2022573637 A JP 2022573637A JP 2022573637 A JP2022573637 A JP 2022573637A JP 2023529332 A JP2023529332 A JP 2023529332A
- Authority
- JP
- Japan
- Prior art keywords
- image
- map
- images
- pixel
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000011218 segmentation Effects 0.000 claims abstract description 103
- 238000003384 imaging method Methods 0.000 claims abstract description 61
- 238000006073 displacement reaction Methods 0.000 claims description 61
- 238000012549 training Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000002828 fuel tank Substances 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
(i)深度マップの生成は、前記第1画像及び前記第2画像の間の前記所定のセクションの変位を推定し、それによって、前記第1画像及び前記第2画像の間の前記所定のセクションに重なり領域を生じさせるステップをさらに含み得る。
前記計算するステップは、前記所定のセクションの前記変位に基づいて前記所定のセクション内の前記重なり領域の視差マップを計算するステップを含み得、前記一致するピクセルは、前記変位に基づいて規定された範囲内で、それぞれの前記ピクセルが属する同じ前記セグメント内で検索される。
前記計算するステップは、前記視差マップに基づいて前記所定のセクション内の前記重なり領域の深度マップを算出するステップを含み得る。
(ii)前記1対の画像は、前記相対移動の方向に垂直な方向に沿って、前記セグメンテーションマップに従って1以上のセクションに分割可能である。
(iii)前記1対の画像は、前記セグメンテーションマップ内の前記1以上のセグメントに対応する1以上のセクションに分割され得る。
(iv)前記第1画像及び前記第2画像の間の前記所定のセクションの前記変位は、画像の1以上の前の対内の前記所定のセクションの1以上の変位に関して推定され得る。
(v)視差マップを計算するステップは、前記第1画像内の前記重なり領域内の所定の各ピクセルについて、前記変位に基づいて、かつ、前記所定のピクセルが属する同じ前記セグメント内で前記第2画像内の範囲を規定するステップと;規定された前記範囲内で、マッチング方法を使用して前記第2画像内の前記所定のピクセルに一致するピクセルを検索するステップと;前記所定のピクセルと前記一致するピクセルとの間の位置の差を計算し、前記所定のピクセルに対応する視差値を生じさせるステップと、を含み得る。
(vi)前記マッチング方法は、セグメンテーション係数によって正則化された、最適化されたセミグローバルマッチング方法であり得る。
(vii)前記最適化されたセミグローバルマッチング方法は、候補ピクセルと候補ピクセルの1以上の隣接ピクセルとが同じ前記セグメントに属するかどうかを示す前記セグメンテーション係数に従って当該方法のコスト関数を調整することによって正則化され得、前記検索するステップは、調整された前記コスト関数を使用して、規定された前記範囲内の1以上の候補ピクセルから前記一致するピクセルを選択するステップを含む。
(viii)前記表面部分は前記車両の車台である。
(ix)前記第1画像及び前記第2画像は少なくとも50%にわたって重ね合わせられている。
(x)前記画像全体は、複数の時点で前記少なくとも1つの撮像装置によってキャプチャされた複数の画像をつなぎ合わせることによって生成され得、かつ、前記セグメンテーションマップは、前記画像全体に対応し、かつ、前記表面部分に含まれる1以上の車両コンポーネントに対応する1以上のセグメントを含む。
(xi)前記セグメンテーションマップは、セグメンテーションモデルを使用して生成される。前記セグメンテーションモデルは、前記車両に含まれる前記1以上の車両コンポーネントに従って事前にセグメント化された前記車両の前記表面部分の訓練画像のセットを含む訓練データセットを使用して訓練され得る。
(xii)方法は、前記1対の画像から特徴を抽出するステップと、前記第1画像及び前記第2画像の間で前記特徴を照合するステップと、前記相対移動の方向に垂直な方向に沿って、照合された前記特徴の垂直変位を計算するステップと、前記垂直変位に従って前記1対の画像を調整するステップと、をさらに含み得る。
(xiii)前記一致するピクセルは、前記照合された特徴を考慮して、同じ前記セグメント内に規定された範囲内で検索される。
D(p、dp)は、視差dpを有するピクセルpでのピクセルごとの非類似度コストであり、R(p、dp、q、dq)は、隣接ピクセルNのすべての対について、それぞれ視差dp及びdqを有するピクセルp及びq間の正則化コストである。
P1及びP2は2つの定数パラメータであり、P1<P2である。三方比較により、視差のユニタリ変化に対してより小さなペナルティを割り当てることを可能にし、したがって、例えば、斜面に対応する平滑な移行を可能にし、かつ、一定のペナルティ項による不連続性を維持しながら、より大きなジャンプにペナルティを課す。
D(p、dp)は視差dpを有するピクセルpにおけるピクセルごとの非類似性コストであり、R(p、dp、sp、q、dq、sq)としても参照されるR(p、dp、q、dq、s)は、追加のセグメンテーション係数を用いて調整された正則化コストであり、すなわち、隣接ピクセルNのすべての対について、視差dp及びdqとセグメントsp、sqをそれぞれ有するピクセルp及びqの間の正則化コストである。
Claims (25)
- 深度マップ生成のコンピュータ化された方法であって、前記方法は、プロセッサ及びメモリ回路(PMC)によって実行され、前記方法は、
車両と少なくとも1つの撮像装置との間の相対移動中の2つの時点で前記少なくとも1つの撮像装置によって取得された第1画像及び第2画像を含む1対の画像を取得するステップであって、前記第1画像及び前記第2画像は、前記車両の表面部分のそれぞれの一部をキャプチャし、かつ、キャプチャされた前記一部は部分的に重ね合わせられ、前記1対の画像は、前記表面部分をキャプチャする画像全体の一部を構成する、取得するステップと、
前記画像全体の少なくとも一部に対応するセグメンテーションマップを取得するステップであって、前記セグメンテーションマップは、前記画像全体の前記少なくとも一部に含まれる1以上の車両コンポーネントに対応する1以上のセグメントを含む、取得するステップと、
前記セグメンテーションマップに従って、前記1対の画像を1以上のセクションに分割するステップと、
前記1以上のセクションの所定のセクションごとに、深度マップを生成するステップであって、
i)前記所定のセクションの視差マップを計算するステップであって、前記視差マップは、前記第1画像の前記所定のセクション内のそれぞれのピクセルと前記第2画像内の前記所定のセクションの一致するピクセルとの間の位置の差を各々示す視差値を含み、前記一致するピクセルは、それぞれの前記ピクセルが属する同じ前記セグメント内で規定された範囲内で検索される、計算するステップと、
ii)前記視差マップに基づいて前記所定のセクションの深度マップを算出するステップであって、所定のセクションごとの前記深度マップは、前記1対の画像の深度マップを生成するために組み合わせられて使用可能である、算出するステップと、を含む、生成するステップと、を含む、コンピュータ化された方法。 - 前記深度マップを生成するステップは、前記第1画像と前記第2画像との間で前記所定のセクションの変位を推定して、それによって、前記第1画像と前記第2画像との間の前記所定のセクションに重なり領域を生じさせるステップをさらに含み、
前記計算するステップは、前記所定のセクションの変位に基づいて前記所定のセクション内の前記重なり領域の視差マップを計算するステップを含み、前記一致するピクセルは、前記変位に基づいて規定された範囲内、かつ、それぞれの前記ピクセルが属する同じ前記セグメント内で検索され、
前記算出するステップは、前記視差マップに基づいて前記所定のセクション内の前記重なり領域の深度マップを算出するステップを含む、請求項1に記載のコンピュータ化された方法。 - 前記1対の画像は、前記相対移動の方向に垂直な方向に沿って、前記セグメンテーションマップに従って1以上のセクションに分割される、請求項1に記載のコンピュータ化された方法。
- 前記1対の画像は、前記セグメンテーションマップの前記1以上のセグメントに対応する1以上のセクションに分割される、請求項1に記載のコンピュータ化された方法。
- 前記第1画像及び前記第2画像の間の前記所定のセクションの変位は、1以上の前の対の画像の前記所定のセクションの1以上の変位に関して推定される、請求項2に記載のコンピュータ化された方法。
- 前記視差マップを計算するステップは、前記第1画像の前記重なり領域の所定のピクセルごとに、
前記変位に基づいて、かつ、前記所定のピクセルが属する同じ前記セグメント内で、前記第2画像内の範囲を規定するステップと、
規定された前記範囲内で、マッチング方法を使用して前記第2画像内の前記所定のピクセルの一致するピクセルを検索するステップと、
前記所定のピクセルと前記一致するピクセルとの間の位置の差を計算して、前記所定のピクセルに対応する視差値を生じさせるステップと、を含む、請求項2に記載のコンピュータ化された方法。 - 前記マッチング方法は、セグメンテーション係数によって正則化された、最適化されたセミグローバルマッチング方法である、請求項6に記載のコンピュータ化された方法。
- 前記最適化されたセミグローバルマッチング方法は、前記セグメンテーション係数に従ってそのコスト関数を調整することによって正則化され、前記セグメンテーション係数は、候補ピクセル及び前記候補ピクセルの1以上の隣接ピクセルが同じ前記セグメントに属するかどうかを示し、かつ、前記検索するステップは、前記規定された範囲の1以上の候補ピクセルから前記一致するピクセルを選択するために、調整された前記コスト関数を使用するステップを含む、請求項7に記載のコンピュータ化された方法。
- 前記表面部分は前記車両の車台である、請求項1に記載のコンピュータ化された方法。
- 前記第1画像及び前記第2画像は少なくとも50%にわたって重ね合わせられる、請求項1に記載のコンピュータ化された方法。
- 前記画像全体は、複数の時点で前記少なくとも1つの撮像装置によってキャプチャされた複数の画像をつなぎ合わせることによって生成され、前記セグメンテーションマップは前記画像全体に対応し、かつ、前記セグメンテーションマップは、前記表面部分に含まれる1以上の車両コンポーネントに対応する1以上のセグメントを含む、請求項1に記載のコンピュータ化された方法。
- 前記セグメンテーションマップはセグメンテーションモデルを使用して生成され、前記セグメンテーションモデルは、前記車両の前記表面部分に含まれる前記1以上の車両コンポーネントに従って事前にセグメント化された前記表面部分の訓練画像のセットを備える訓練データセットを使用して訓練される、請求項11に記載のコンピュータ化された方法。
- 前記1対の画像から特徴を抽出するステップと、前記第1画像及び前記第2画像の間の前記特徴を照合するステップと、前記相対移動の方向に垂直な方向に沿って、照合された前記特徴の垂直変位を計算するステップと、前記垂直変位に従って前記1対の画像を調整するステップと、をさらに含む、請求項1に記載のコンピュータ化された方法。
- 前記一致するピクセルは、照合された前記特徴を考慮して、同じ前記セグメント内に規定される範囲で検索される、請求項13に記載のコンピュータ化された方法。
- 深度マップ生成のコンピュータ化されたシステムであって、前記システムは、プロセッサ及びメモリ回路(PMC)を備え、前記プロセッサ及びメモリ回路(PMC)は、
車両と少なくとも1つの撮像装置との間の相対移動中の2つの時点で前記少なくとも1つの撮像装置によって取得された第1画像及び第2画像を含む1対の画像を取得することであって、前記第1画像及び前記第2画像は、前記車両の表面部分のそれぞれの一部をキャプチャし、かつ、キャプチャされた前記一部は部分的に重ね合わせられ、前記1対の画像は、前記表面部分をキャプチャする画像全体の一部を構成する、取得することと、
前記画像全体の少なくとも一部に対応するセグメンテーションマップを取得することであって、前記セグメンテーションマップは、前記画像全体の前記少なくとも一部に含まれる1以上の車両コンポーネントに対応する1以上のセグメントを含む、取得することと、
前記セグメンテーションマップに従って、前記第1画像を1以上のセクションに分割することと、
前記第1画像の所定のセクションごとに、深度マップを生成することであって、
i)前記所定のセクションの視差マップを計算するステップであって、前記視差マップは視差値を含み、各々は、前記第1画像の前記所定のセクション内のそれぞれのピクセルと前記第2画像内の前記所定のセクションの一致するピクセルとの間の位置の差を示し、前記一致するピクセルは、それぞれの前記ピクセルが属する同じ前記セグメント内で規定された範囲内で検索される、計算するステップと、
ii)前記視差マップに基づいて前記所定のセクションの深度マップを算出するステップであって、所定のセクションごとの前記深度マップは、組み合わせられて前記1対の画像の深度マップを生成するために使用可能である、算出するステップと、を含む、生成することと、を行うように構成される、コンピュータ化されたシステム。 - 前記深度マップを生成する場合、前記PMCは、前記第1画像と前記第2画像との間の前記所定のセクションの変位を推定し、それによって、前記第1画像と前記第2画像との間の前記所定のセクションの重なり領域を生じさせるようにさらに構成され、
前記PMCは、前記所定のセクションの変位に基づいて前記所定のセクション内の前記重なり領域の視差マップを計算するように構成され、前記一致するピクセルは、前記変位に基づいて規定された範囲内、かつ、それぞれの前記ピクセルが属する同じ前記セグメント内で検索され、かつ、前記PMCは、前記視差マップに基づいて前記所定のセクション内の前記重なり領域の深度マップを算出するように構成される、請求項15に記載のコンピュータ化されたシステム。 - 前記第1画像は、前記相対移動の方向に垂直な方向に沿って、前記セグメンテーションマップに従って1以上のセクションに分割される、請求項15に記載のコンピュータ化されたシステム。
- 前記第1画像は、前記セグメンテーションマップの前記1以上のセグメントに対応する1以上のセクションに分割される、請求項15に記載のコンピュータ化されたシステム。
- 前記第1画像及び前記第2画像の間の前記所定のセクションの変位は、1以上の前の対の画像の前記所定のセクションの1以上の変位に関して推定される、請求項16に記載のコンピュータ化されたシステム。
- 前記PMCは、
前記第1画像の前記重なり領域の所定のピクセルごとに、
前記変位に基づいて、かつ、前記所定のピクセルが属する同じ前記セグメント内で、前記第2画像の範囲を規定し、
規定された前記範囲内で、マッチング方法を使用して前記第2画像内の前記所定のピクセルの一致するピクセルを検索し、
前記所定のピクセルと前記一致するピクセルとの間の位置の差を計算して、前記所定のピクセルに対応する視差値を生じさせることによって、視差マップを計算するように構成される、請求項16に記載のコンピュータ化されたシステム。 - 前記マッチング方法は、セグメンテーション係数によって正則化された、最適化されたセミグローバルマッチング方法である、請求項20に記載のコンピュータ化されたシステム。
- 前記最適化されたセミグローバルマッチング方法は、前記セグメンテーション係数に従ってそのコスト関数を調整することによって正則化され、前記セグメンテーション係数は、候補ピクセル及び前記候補ピクセルの1以上の隣接ピクセルが同じ前記セグメントに属するかどうかを示し、かつ、検索することは、前記規定された範囲の1以上の候補ピクセルから前記一致するピクセルを選択するために、調整された前記コスト関数を使用することを含む、請求項21に記載のコンピュータ化されたシステム。
- 前記PMCは、前記1対の画像から特徴を抽出し、前記第1画像及び前記第2画像の間の前記特徴を照合し、前記相対移動の方向に垂直な方向に沿って、照合された前記特徴の垂直変位を計算し、かつ、前記垂直変位に従って前記1対の画像を調整するようにさらに構成される、請求項15に記載のコンピュータ化されたシステム。
- 前記一致するピクセルは、照合された前記特徴を考慮して、同じ前記セグメント内に規定された範囲内で検索される、請求項23に記載のコンピュータ化されたシステム。
- コンピュータによって実行されると、深度マップ生成の方法をコンピュータに実行させる命令のプログラムを有形に具現化する、非一時的コンピュータ可読記憶媒体であって、前記方法は、
車両と少なくとも1つの撮像装置との間の相対移動中の2つの時点で前記少なくとも1つの撮像装置によって取得された第1画像及び第2画像を含む1対の画像を取得するステップであって、前記第1画像及び前記第2画像は、前記車両の表面部分のそれぞれの一部をキャプチャし、かつ、キャプチャされた前記一部は部分的に重ね合わせられ、前記1対の画像は、前記表面部分をキャプチャする画像全体の一部を構成する、ステップと、
前記画像全体の少なくとも前記一部に対応するセグメンテーションマップを取得するステップであって、前記セグメンテーションマップは、前記画像全体の前記少なくとも一部に含まれる1以上の車両コンポーネントに対応する1以上のセグメントを含む、取得するステップと、
前記セグメンテーションマップに従って、前記第1画像を1以上のセクションに分割するステップと、
前記第1画像の所定のセクションごとに、深度マップを生成するステップであって、
i)前記所定のセクションの視差マップを計算するステップであって、前記視差マップは視差値を含み、各々は、前記第1画像の前記所定のセクション内のそれぞれのピクセルと前記第2画像の前記所定のセクションの一致するピクセルとの間の位置の差を示し、前記一致するピクセルは、それぞれの前記ピクセルが属する同じ前記セグメント内に規定された範囲内で検索される、計算するステップと、
ii)前記視差マップに基づいて前記所定のセクションの深度マップを算出するステップであって、所定のセクションごとの前記深度マップは、前記1対の画像の深度マップを生成するために組み合わせられて使用可能である、算出するステップと、を含む、生成するステップと、を含む、非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/897,684 | 2020-06-10 | ||
US16/897,684 US11430143B2 (en) | 2020-06-10 | 2020-06-10 | System of depth estimation and method thereof |
PCT/IL2021/050673 WO2021250654A2 (en) | 2020-06-10 | 2021-06-06 | System of depth estimation and method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2023529332A true JP2023529332A (ja) | 2023-07-10 |
JPWO2021250654A5 JPWO2021250654A5 (ja) | 2024-06-17 |
JP7566358B2 JP7566358B2 (ja) | 2024-10-15 |
Family
ID=78825776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022573637A Active JP7566358B2 (ja) | 2020-06-10 | 2021-06-06 | 深度推定システム及び深度推定方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11430143B2 (ja) |
EP (1) | EP4165598A4 (ja) |
JP (1) | JP7566358B2 (ja) |
WO (1) | WO2021250654A2 (ja) |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6873723B1 (en) * | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
GB0125774D0 (en) | 2001-10-26 | 2001-12-19 | Cableform Ltd | Method and apparatus for image matching |
US6856344B2 (en) | 2002-04-02 | 2005-02-15 | Robert H. Franz | Vehicle undercarriage inspection and imaging method and system |
US8411934B2 (en) * | 2007-11-09 | 2013-04-02 | Thomson Licensing | System and method for depth map extraction using region-based filtering |
EP2309452A1 (en) * | 2009-09-28 | 2011-04-13 | Alcatel Lucent | Method and arrangement for distance parameter calculation between images |
CN103493093B (zh) | 2011-11-17 | 2017-07-18 | 松下知识产权经营株式会社 | 图像处理装置、摄像装置及图像处理方法 |
US8605993B2 (en) * | 2011-11-21 | 2013-12-10 | Robo-team Ltd. | Methods and systems of merging depth data from a plurality of disparity maps |
DE102012211791B4 (de) | 2012-07-06 | 2017-10-12 | Robert Bosch Gmbh | Verfahren und Anordnung zum Prüfen eines Fahrzeugunterbodens eines Kraftfahrzeuges |
US20190012789A1 (en) | 2015-07-21 | 2019-01-10 | Heptagon Micro Optics Pte. Ltd. | Generating a disparity map based on stereo images of a scene |
TWI638090B (zh) | 2017-03-23 | 2018-10-11 | 陳金福 | curtain |
DE102017217140B4 (de) * | 2017-09-27 | 2022-03-31 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Ansteuerung eines Fahrerassistenzsystems unter Verwendung eines Stereokamerasystems mit einer ersten und einer zweiten Kamera |
US10650530B2 (en) | 2018-03-29 | 2020-05-12 | Uveye Ltd. | Method of vehicle image comparison and system thereof |
US10782691B2 (en) * | 2018-08-10 | 2020-09-22 | Buffalo Automation Group Inc. | Deep learning and intelligent sensing system integration |
SG11202105016PA (en) | 2018-11-15 | 2021-06-29 | Uveye Ltd | Method of anomaly detection and system thereof |
US11935222B2 (en) | 2018-12-13 | 2024-03-19 | Uveye Ltd. | Method of automatic tire inspection and system thereof |
CN113544467B (zh) * | 2019-03-07 | 2024-09-10 | 御眼视觉技术有限公司 | 对齐用于导航的道路信息 |
US11157774B2 (en) * | 2019-11-14 | 2021-10-26 | Zoox, Inc. | Depth data model training with upsampling, losses, and loss balancing |
US20210150278A1 (en) * | 2019-11-14 | 2021-05-20 | Zoox, Inc. | Depth data model training |
-
2020
- 2020-06-10 US US16/897,684 patent/US11430143B2/en active Active
-
2021
- 2021-06-06 WO PCT/IL2021/050673 patent/WO2021250654A2/en unknown
- 2021-06-06 JP JP2022573637A patent/JP7566358B2/ja active Active
- 2021-06-06 EP EP21822604.1A patent/EP4165598A4/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4165598A2 (en) | 2023-04-19 |
WO2021250654A2 (en) | 2021-12-16 |
EP4165598A4 (en) | 2023-12-20 |
US11430143B2 (en) | 2022-08-30 |
JP7566358B2 (ja) | 2024-10-15 |
US20210390720A1 (en) | 2021-12-16 |
WO2021250654A3 (en) | 2022-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
Guerry et al. | Snapnet-r: Consistent 3d multi-view semantic labeling for robotics | |
JP5926228B2 (ja) | 自律車両用の奥行き検知方法及びシステム | |
Menze et al. | Object scene flow for autonomous vehicles | |
CN103814306B (zh) | 深度测量质量增强 | |
JP7224603B2 (ja) | 車両画像の比較方法とそのシステム | |
Saeedi et al. | Vision-based 3-D trajectory tracking for unknown environments | |
CN114365200A (zh) | 结构注释 | |
Kang et al. | Detection and tracking of moving objects from a moving platform in presence of strong parallax | |
EP2757527B1 (en) | System and method for distorted camera image correction | |
JP7130216B2 (ja) | 車両画像の比較方法とそのシステム | |
KR20150144728A (ko) | 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법 | |
CN111340922A (zh) | 定位与地图构建的方法和电子设备 | |
Sakurada et al. | Dense optical flow based change detection network robust to difference of camera viewpoints | |
Long et al. | A real-time dense stereo matching method for critical environment sensing in autonomous driving | |
KR101699014B1 (ko) | 스테레오 카메라를 이용한 객체 검출 방법 및 장치 | |
Burlacu et al. | Obstacle detection in stereo sequences using multiple representations of the disparity map | |
JP2023017341A (ja) | モデル生成方法、モデル生成装置、モデル生成プログラム、移動体姿勢推定方法、及び移動体姿勢推定装置 | |
Wietrzykowski et al. | Stereo plane R-CNN: Accurate scene geometry reconstruction using planar segments and camera-agnostic representation | |
Wang et al. | Improving deep stereo network generalization with geometric priors | |
JP7566358B2 (ja) | 深度推定システム及び深度推定方法 | |
Fan et al. | Collaborative three-dimensional completion of color and depth in a specified area with superpixels | |
Diskin et al. | Dense 3D point-cloud model using optical flow for a monocular reconstruction system | |
van de Wouw et al. | Hierarchical 2.5-d scene alignment for change detection with large viewpoint differences | |
Zhu et al. | Toward the ghosting phenomenon in a stereo-based map with a collaborative RGB-D repair |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240607 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240607 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240925 |