JP7425169B2 - 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents
画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7425169B2 JP7425169B2 JP2022196549A JP2022196549A JP7425169B2 JP 7425169 B2 JP7425169 B2 JP 7425169B2 JP 2022196549 A JP2022196549 A JP 2022196549A JP 2022196549 A JP2022196549 A JP 2022196549A JP 7425169 B2 JP7425169 B2 JP 7425169B2
- Authority
- JP
- Japan
- Prior art keywords
- relative
- image
- maps
- obtaining
- depth map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 28
- 238000004590 computer program Methods 0.000 title claims description 14
- 230000011218 segmentation Effects 0.000 claims description 84
- 230000000007 visual effect Effects 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 26
- 238000003709 image segmentation Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
目標画像に対して深度推定を行い、目標画像の相対深度マップを得ることと、
相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることと、
画像収集装置の相対高度及び画像収集装置の絶対高度に基づいて、相対深度マップの相対スケールを得ることと、
相対スケール及び相対深度マップに基づいて、目標画像の絶対深度マップを得ることとを含む、画像処理方法を提供している。
目標画像に対して深度推定を行い、目標画像の相対深度マップを得るための深度推定モジュールと、
相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得るための相対高度取得モジュールと、
画像収集装置の相対高度及び画像収集装置の絶対高度に基づいて、相対深度マップの相対スケールを得るための相対スケール取得モジュールと、
相対スケール及び相対深度マップに基づいて、目標画像の絶対深度マップを得るための絶対深度マップ取得モジュールとを含む、画像処理装置を提供している。
少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信接続されたメモリとを含む電子機器であって、
該メモリには、該少なくとも1つのプロセッサにより実行可能な命令が記憶されており、該命令は、該少なくとも1つのプロセッサが本開示の何れかの実施例における方法を実行することができるように、該少なくとも1つのプロセッサにより実行される、電子機器を提供している。
2)監督なしの技術案に基づいて、単眼絶対深度推定ネットワークをトレーニングするものと、
3)大量の公開データ/自収集データに基づいて、ネットワークをトレーニングして、相対深度を得るものとがある。
S110:目標画像に対して深度推定を行い、目標画像の相対深度マップを得る;
S120:相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得る;
S130:画像収集装置の相対高度及び画像収集装置の絶対高度に基づいて、相対深度マップの相対スケールを得る;
S140:相対スケール及び相対深度マップに基づいて、目標画像の絶対深度マップを得る。
S210:目標画像に対して語義分割して、目標画像における地面部分の位置情報を得る;
S220:位置情報に基づいて、相対深度マップにおける地面部分を得る。
S311:パノラマ画像に対して画像セグメンテーションを行い、パノラマ画像の複数の視角セグメンテーションマップを得る;
S312:複数の視角セグメンテーションマップに対して深度推定を行い、複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得る。
S313:隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得る。
S421:複数の第2の相対深度マップにおける少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得る;
S422:地面方程式に基づいて画像収集装置の相対高度を得る。
xcosα+ycosβ+zcosγ=p
1)目標画像とするパノラマ画像に対して画像セグメンテーションを行い、複数の異なる視角の視角セグメンテーションマップを取得し、ただし、画像セグメンテーションの過程では、隣接する視角の視角セグメンテーションマップ間に一定の重なり部分があることを保証する必要があり、かつ、取得された複数の異なる視角の視角セグメンテーションマップが目標パノラマ画像のすべての画素点をカバーする必要がある;
2)複数の視角セグメンテーションマップに対して語義分割を行い、地面部分が含まれる視角セグメンテーションマップにおける地面部分の位置情報を得る;
3)トレーニング済みの相対深度推定ネットワークを利用して、複数の視角セグメンテーションマップに対応する複数の第1の相対深度マップを取得し、隣接する視角の視角セグメンテーションマップに対応する第1の相対深度マップを2つずつ画像収集装置の3次元座標系にマッピングし、その重なり部分の画素点の相対深度を比較し、最終的に、複数の第1の相対深度マップにおける相対深度を同一のスケールに区分し、調整して複数の第1の相対深度マップに対応する複数の第2の相対深度マップを得る;
4)地面部分が含まれる視角セグメンテーションマップにおける地面部分の位置情報に基づいて、複数の第2の相対深度マップのうち地面部分が含まれる視角セグメンテーションマップに対応する一部の第2の相対深度マップにおける地面部分を取得し、地面方程式に基づいて画像収集装置のこれらの第2の相対深度マップにおける複数の相対高度を取得し、複数の相対高度について平均値を求めて画像収集装置のパノラマ画像における相対高度とする;
5)画像収集装置の目標パノラマ画像における相対高度及び画像収集装置の実際高度に基づいて、複数の第2の相対深度マップにおける相対深度と絶対深度との相対スケールを取得し、さらに相対スケールに基づいて複数の第2の相対深度マップを調整することにより、複数の第2の絶対深度マップが得られており、複数の第2の絶対深度マップに対応する視角セグメンテーションマップは目標パノラマ画像のすべての画素点をカバーしているので、複数の第2の絶対深度マップに基づいて目標パノラマ画像の絶対深度マップを得ることができる。
1)パノラマ画像に対して上下左右前後の6方向に基づいて画像セグメンテーションを行い、ただし、前後左右の4方向の視角セグメンテーションマップは、時計回りまたは反時計回りに従って2つずつの間が30°の視角重なりでセグメンテーションを行ってもよく、上下の2方向の視角セグメンテーションマップは、前後左右の4方向の視角セグメンテーションマップのいずれとの間にも30°の視角重なりが保留される;
2)前後左右の4方向の視角セグメンテーションマップに対して語義分割を行い、地面部分のそれぞれの4つの視角セグメンテーションマップにおける位置情報を得る;
3)深度推定ネットワークを利用して6つの視角セグメンテーションマップを処理して、6方向の第1の相対深度マップを得ており、前後左右の4方向の第1の相対深度マップに対して2つずつの間の重なり部分に従って比例関係を取得し、上下の2方向の第1の相対深度マップについて、これらの2つの第1の相対深度マップは前後左右の4方向の第1の相対深度マップのいずれとも重なり部分があるので、前後左右の4方向の第1の相対深度マップにおける各々の方向との比例関係をそれぞれ取得し、平均値で上下の2方向の第1の相対深度マップと他の第1の相対深度マップとの最終的な比例関係を特定し、さらに比例関係により上下左右前後の6方向における第2の相対深度マップを調整し得られる;
4)前後左右の4方向の視角セグメンテーションマップにおける地面部分の位置情報に基づいて、前後左右の4方向の第2の相対深度マップにおける地面部分を取得し、地面方程式に基づいて車載カメラの4つの第2の相対深度マップにおける相対高度を取得し、4つの相対高度の平均値を車載カメラの4つの第2の相対深度マップにおける最終的な相対高度とする;
5)最終的な相対高度及び車載カメラの実際高度に基づいて、上下左右前後の6方向の第2の相対深度マップにおける相対深度及び絶対深度の相対スケールを取得し、さらに6方向の第2の相対深度マップを調整して上下左右前後の6方向の絶対深度マップを取得しており、上下左右前後の6方向の絶対深度マップにより、目標パノラマ画像における各画素点の絶対深度を反映しており、これは自動運転システムの自身ポーズに対する感知及び推定に有利となる。
目標画像に対して深度推定を行い、目標画像の相対深度マップを得るための深度推定モジュール510と、
相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得るための相対高度取得モジュール520と、
画像収集装置の相対高度及び画像収集装置の絶対高度に基づいて、相対深度マップの相対スケールを得るための相対スケール取得モジュール530と、
相対スケール及び相対深度マップに基づいて、目標画像の絶対深度マップを得るための絶対深度マップ取得モジュール540とを含む。
目標画像に対して語義分割を行い、目標画像における地面部分の位置情報を得るための分割モジュール610と、
位置情報に基づいて、相対深度マップにおける地面部分を得るための地面取得モジュール620とをさらに含む。
パノラマ画像に対して画像セグメンテーションして、パノラマ画像の複数の視角セグメンテーションマップを得るためのセグメンテーション手段711と、
複数の視角セグメンテーションマップに対して深度推定して、複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得るための第1の相対深度マップ取得手段712とを含む。
隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得るための第2の相対深度マップ取得手段713をさらに含む。
複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
地面方程式に基づいて画像収集装置の相対高度を得ることとに用いられる。
目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることと、
前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることと、
前記画像収集装置の相対高度及び前記画像収集装置の絶対高度に基づいて、前記相対深度マップの相対スケールを得ることと、
前記相対スケール及び前記相対深度マップに基づいて、前記目標画像の絶対深度マップを得ることとを含む。
第1態様に記載の画像処理方法であって、
前記目標画像に対して語義分割を行い、前記目標画像における地面部分の位置情報を得ることと、
前記位置情報に基づいて、前記相対深度マップにおける地面部分を得ることとをさらに含む。
第1又は第2態様に記載の画像処理方法であって、
前記目標画像はパノラマ画像を含んでおり、
ただし、前記目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることは、
前記パノラマ画像に対して画像セグメンテーションを行い、前記パノラマ画像の複数の視角セグメンテーションマップを得ることと、
前記複数の視角セグメンテーションマップに対して深度推定を行い、前記複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得ることとを含む。
第3態様に記載に画像処理方法であって、
前記複数の視角セグメンテーションマップは、前記パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、
前記目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることは、
前記隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、前記複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得ることをさらに含む。
第4態様に記載の画像処理方法であって、
前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることは、
前記複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
前記地面方程式に基づいて、前記画像収集装置の相対高度を得ることとを含む。
目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得るための深度推定モジュールと、
前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得るための相対高度取得モジュールと、
前記画像収集装置の相対高度及び前記画像収集装置の絶対高度に基づいて、前記相対深度マップの相対スケールを得るための相対スケール取得モジュールと、
前記相対スケール及び前記相対深度マップに基づいて、前記目標画像の絶対深度マップを得るための絶対深度マップ取得モジュールとを含む。
第6態様に記載の画像処理装置であって、
前記目標画像に対して語義分割を行い、前記目標画像における地面部分の位置情報を得るための分割モジュールと、
前記位置情報に基づいて、前記相対深度マップにおける地面部分を得るための地面取得モジュールとをさらに含む。
第6又は第7態様に記載の画像処理装置であって、
前記目標画像はパノラマ画像を含んでおり、
ただし、前記深度推定モジュールは、
前記パノラマ画像に対して画像セグメンテーションを行い、前記パノラマ画像の複数の視角セグメンテーションマップを得るためのセグメンテーション手段と、
前記複数の視角セグメンテーションマップに対して深度推定を行い、前記複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得るための第1の相対深度マップ取得手段とを含む。
第8態様に記載の画像処理装置であって、
前記複数の視角セグメンテーションマップは、前記パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、
前記深度推定モジュールは、
前記隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、前記複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得るための第2の相対深度マップ取得手段をさらに含む。
第9態様に記載の画像処理装置であって、
前記相対高度取得モジュールは、
前記複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
前記地面方程式に基づいて、前記画像収集装置の相対高度を得ることとに用いられる。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを含む電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが第1~5態様のいずれか1項に記載の方法を実行することができるように、前記少なくとも1つのプロセッサにより実行される。
コンピュータ命令が記憶された非一時的なコンピュータ読取可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに第1~5態様のいずれか1つに記載の方法を実行させるために用いられる、
記憶媒体である。
プロセッサにより実行される場合に、第1~5態様のいずれか1つに記載の方法を実現する、
コンピュータプログラムである。
Claims (9)
- プロセッサによって実行され、
目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることと、
前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることと、
前記画像収集装置の相対高度及び前記画像収集装置の絶対高度に基づいて、前記相対深度マップの相対スケールを得ることと、
前記相対スケール及び前記相対深度マップに基づいて、前記目標画像の絶対深度マップを得ることとを含み、
前記目標画像はパノラマ画像を含んでおり、
ただし、前記目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることは、
前記パノラマ画像に対して画像セグメンテーションを行い、前記パノラマ画像の複数の視角セグメンテーションマップを得ることと、
前記複数の視角セグメンテーションマップに対して深度推定を行い、前記複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得ることとを含み、
前記複数の視角セグメンテーションマップは、前記パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、
前記目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることは、
前記隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、前記複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得ることをさらに含む、
画像処理方法。 - 前記目標画像に対して語義分割を行い、前記目標画像における地面部分の位置情報を得ることと、
前記位置情報に基づいて、前記相対深度マップにおける地面部分を得ることとをさらに含む、
請求項1に記載の方法。 - 前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることは、
前記複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
前記地面方程式に基づいて、前記画像収集装置の相対高度を得ることとを含む、
請求項1に記載の方法。 - 目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得るための深度推定モジュールと、
前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得るための相対高度取得モジュールと、
前記画像収集装置の相対高度及び前記画像収集装置の絶対高度に基づいて、前記相対深度マップの相対スケールを得るための相対スケール取得モジュールと、
前記相対スケール及び前記相対深度マップに基づいて、前記目標画像の絶対深度マップを得るための絶対深度マップ取得モジュールとを含み、
前記目標画像はパノラマ画像を含んでおり、
ただし、前記深度推定モジュールは、
前記パノラマ画像に対して画像セグメンテーションを行い、前記パノラマ画像の複数の視角セグメンテーションマップを得るためのセグメンテーション手段と、
前記複数の視角セグメンテーションマップに対して深度推定を行い、前記複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得るための第1の相対深度マップ取得手段とを含み、
前記複数の視角セグメンテーションマップは、前記パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、
前記深度推定モジュールは、
前記隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、前記複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得るための第2の相対深度マップ取得手段をさらに含む、
画像処理装置。 - 前記目標画像に対して語義分割を行い、前記目標画像における地面部分の位置情報を得るための分割モジュールと、
前記位置情報に基づいて、前記相対深度マップにおける地面部分を得るための地面取得モジュールとをさらに含む、
請求項4に記載の装置。 - 前記相対高度取得モジュールは、
前記複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
前記地面方程式に基づいて、前記画像収集装置の相対高度を得ることとに用いられる、
請求項4に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを含む電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1~3のいずれか一項に記載の方法を実行することができるように、前記少なくとも1つのプロセッサにより実行される、
電子機器。 - コンピュータ命令が記憶された非一時的なコンピュータ読取可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに請求項1~3のいずれか一項に記載の方法を実行させるために用いられる、
記憶媒体。 - プロセッサにより実行される場合に、請求項1~3のいずれか一項に記載の方法を実現する、
コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210239492.4 | 2022-03-11 | ||
CN202210239492.4A CN114612544B (zh) | 2022-03-11 | 2022-03-11 | 图像处理方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023027227A JP2023027227A (ja) | 2023-03-01 |
JP7425169B2 true JP7425169B2 (ja) | 2024-01-30 |
Family
ID=81862681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022196549A Active JP7425169B2 (ja) | 2022-03-11 | 2022-12-08 | 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230162383A1 (ja) |
JP (1) | JP7425169B2 (ja) |
KR (1) | KR20230006628A (ja) |
CN (1) | CN114612544B (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012212428A (ja) | 2011-03-23 | 2012-11-01 | Sharp Corp | 視差算出装置、距離算出装置及び視差算出方法 |
US20180189974A1 (en) | 2017-05-19 | 2018-07-05 | Taylor Clark | Machine learning based model localization system |
JP2018195293A (ja) | 2017-05-18 | 2018-12-06 | 三菱電機株式会社 | 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106920279B (zh) * | 2017-03-07 | 2018-06-19 | 百度在线网络技术(北京)有限公司 | 三维地图构建方法和装置 |
CN108520537B (zh) * | 2018-03-29 | 2020-02-18 | 电子科技大学 | 一种基于光度视差的双目深度获取方法 |
CN109035319B (zh) * | 2018-07-27 | 2021-04-30 | 深圳市商汤科技有限公司 | 单目图像深度估计方法及装置、设备、程序及存储介质 |
CN111784757B (zh) * | 2020-06-30 | 2024-01-23 | 北京百度网讯科技有限公司 | 深度估计模型的训练方法、深度估计方法、装置及设备 |
CN112258409A (zh) * | 2020-10-22 | 2021-01-22 | 中国人民武装警察部队工程大学 | 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置 |
CN112634343A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 图像深度估计模型的训练方法、图像深度信息的处理方法 |
CN113205549B (zh) * | 2021-05-07 | 2023-11-28 | 深圳市商汤科技有限公司 | 深度估计方法及装置、电子设备和存储介质 |
CN113989376B (zh) * | 2021-12-23 | 2022-04-26 | 贝壳技术有限公司 | 室内深度信息的获取方法、装置和可读存储介质 |
-
2022
- 2022-03-11 CN CN202210239492.4A patent/CN114612544B/zh active Active
- 2022-12-08 KR KR1020220170636A patent/KR20230006628A/ko unknown
- 2022-12-08 JP JP2022196549A patent/JP7425169B2/ja active Active
- 2022-12-28 US US18/147,527 patent/US20230162383A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012212428A (ja) | 2011-03-23 | 2012-11-01 | Sharp Corp | 視差算出装置、距離算出装置及び視差算出方法 |
JP2018195293A (ja) | 2017-05-18 | 2018-12-06 | 三菱電機株式会社 | 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体 |
US20180189974A1 (en) | 2017-05-19 | 2018-07-05 | Taylor Clark | Machine learning based model localization system |
Non-Patent Citations (1)
Title |
---|
Feng Xue, 外5名,"Toward Hierarchical Self-Supervised Monocular Absolute Depth Estimation for Autonomous Driving Applications",2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),IEEE,2020年10月24日,p.2330-2337 |
Also Published As
Publication number | Publication date |
---|---|
CN114612544B (zh) | 2024-01-02 |
US20230162383A1 (en) | 2023-05-25 |
KR20230006628A (ko) | 2023-01-10 |
JP2023027227A (ja) | 2023-03-01 |
CN114612544A (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10614592B2 (en) | Three-dimensional posture estimating method and apparatus, device and computer storage medium | |
JP6745328B2 (ja) | 点群データを復旧するための方法及び装置 | |
EP3889908A2 (en) | Image projection method, apparatus, device and storage medium | |
US9454851B2 (en) | Efficient approach to estimate disparity map | |
CN113264066A (zh) | 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备 | |
CN113706704B (zh) | 基于高精地图规划路线的方法、设备以及自动驾驶车辆 | |
US11842440B2 (en) | Landmark location reconstruction in autonomous machine applications | |
CN114663529B (zh) | 一种外参确定方法、装置、电子设备及存储介质 | |
CN115147809B (zh) | 一种障碍物检测方法、装置、设备以及存储介质 | |
CN111753739A (zh) | 物体检测方法、装置、设备以及存储介质 | |
CN113129352A (zh) | 一种稀疏光场重建方法及装置 | |
WO2022199195A1 (zh) | 地图更新方法、系统、车载终端、服务器及存储介质 | |
CN117745845A (zh) | 一种外参信息确定方法、装置、设备和存储介质 | |
CN112639822B (zh) | 一种数据处理方法及装置 | |
CN113409340A (zh) | 语义分割模型训练方法、语义分割方法、装置及电子设备 | |
CN117612132A (zh) | 鸟瞰视角bev俯视图的补全方法、装置和电子设备 | |
JP7425169B2 (ja) | 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN115375836A (zh) | 基于多元置信度滤波的点云融合三维重建方法和系统 | |
CN117252912A (zh) | 深度图像获取方法、电子设备及存储介质 | |
CN110389349B (zh) | 定位方法和装置 | |
CN114565681B (zh) | 一种相机标定方法、装置、设备、介质及产品 | |
CN113361379B (zh) | 生成目标检测系统和检测目标的方法及装置 | |
US20240153251A1 (en) | Shape construction-based machine learning model for object localization | |
CN117830397A (zh) | 重定位方法、装置、电子设备、介质和车辆 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7425169 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |