JP7425169B2 - 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents

画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP7425169B2
JP7425169B2 JP2022196549A JP2022196549A JP7425169B2 JP 7425169 B2 JP7425169 B2 JP 7425169B2 JP 2022196549 A JP2022196549 A JP 2022196549A JP 2022196549 A JP2022196549 A JP 2022196549A JP 7425169 B2 JP7425169 B2 JP 7425169B2
Authority
JP
Japan
Prior art keywords
relative
image
maps
obtaining
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022196549A
Other languages
English (en)
Other versions
JP2023027227A (ja
Inventor
慶月 孟
香偉 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023027227A publication Critical patent/JP2023027227A/ja
Application granted granted Critical
Publication of JP7425169B2 publication Critical patent/JP7425169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示は、人工知能の分野に関し、特にコンピュータ視覚、画像処理、3D視覚などの技術分野に関しており、自動運転及びインテリジェント交通などのシーンに適用できる。
深度情報は、自動運転システムの自身のポーズに対する感知及び推定にとって非常的に重要であり、ディープニューラルネットワークの急速な発展に伴い、ディープラーニングに基づく単眼深度推定は広く検討されている。現在の単眼深度推定の技術案は、主に、深度真値付けのデータに基づいて単眼深度推定ネットワークをトレーニングするか、または、監督なしの技術案に基づいて単眼深度推定ネットワークをトレーニングするものである。
本開示は、画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラムを提供している。
本開示の1つの局面によれば、
目標画像に対して深度推定を行い、目標画像の相対深度マップを得ることと、
相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることと、
画像収集装置の相対高度及び画像収集装置の絶対高度に基づいて、相対深度マップの相対スケールを得ることと、
相対スケール及び相対深度マップに基づいて、目標画像の絶対深度マップを得ることとを含む、画像処理方法を提供している。
本開示の別の局面によれば、
目標画像に対して深度推定を行い、目標画像の相対深度マップを得るための深度推定モジュールと、
相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得るための相対高度取得モジュールと、
画像収集装置の相対高度及び画像収集装置の絶対高度に基づいて、相対深度マップの相対スケールを得るための相対スケール取得モジュールと、
相対スケール及び相対深度マップに基づいて、目標画像の絶対深度マップを得るための絶対深度マップ取得モジュールとを含む、画像処理装置を提供している。
本開示の別の局面によれば、
少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信接続されたメモリとを含む電子機器であって、
該メモリには、該少なくとも1つのプロセッサにより実行可能な命令が記憶されており、該命令は、該少なくとも1つのプロセッサが本開示の何れかの実施例における方法を実行することができるように、該少なくとも1つのプロセッサにより実行される、電子機器を提供している。
本開示の別の局面によれば、コンピュータ命令が記憶された非一時的なコンピュータ読取可能な記憶媒体であって、該コンピュータ命令は、コンピュータに本開示の何れかの実施例における方法を実行させるために用いられる、記憶媒体を提供している。
本開示の別の局面によれば、プロセッサにより実行される場合に、本開示の何れかの実施例における方法を実現するコンピュータプログラムを提供している。
本開示の技術によれば、目標画像の相対深度マップのうち画像収集装置の相対高度及び実際の画像収集装置の絶対高度により目標画像の相対深度マップの相対スケールを取得し、さらに目標画像の絶対深度マップを取得することができ、すなわち、目標画像の単眼相対深度及び画像収集装置の高度を取得するだけで、少量の計算により比較的に正確な目標画像の絶対深度を得ることができ、大量のデータ真値でトレーニングして得られた単眼絶対深度推定ネットワークを使用する必要がなく、深度推定精度を向上させながら、効率を向上させてコストを低減させている。
理解されるべきこととして、本部分に記載されたコンテンツは、本開示の実施例のキーポイント又は重要な特徴を示すことを意図するものではなく、本開示の範囲を限定するものでもない。本開示の他の特徴は、以下の説明により容易に理解される。
図面は、本技術案をよりよく理解するために用いられ、本開示を限定するものではない。
図1は、本開示の一実施例による画像処理方法のフロー模式図一である。 図2は、本開示の一実施例による画像処理方法のフロー模式図二である。 図3は、本開示の一実施例による画像処理方法のフロー模式図三である。 図4は、本開示の一実施例による画像処理方法のフロー模式図四である。 図5は、本開示の一実施例による画像処理装置の模式図一である。 図6は、本開示の一実施例による画像処理装置の模式図二である。 図7は、本開示の一実施例による画像処理装置の模式図三である。 図8は、本開示の実施例の画像処理方法を実現するための電子機器のブロック図である。
以下、図面を参照して本開示の例示的な実施例を説明する。ここで、より理解しやすいために本開示の実施例の様々な詳細が含まれ、それらが例示的なものであると考えられるべきである。したがって、当業者であれば分かるように、ここで記載される実施例に対して様々な変更・修正を行うことができ、本開示の範囲及び精神から逸脱することはない。同様に、明確かつ簡潔に説明するために、以下の記載において周知の機能や構成に対する説明を省略する。
本開示の実施例の技術案の理解を容易にするために、以下に本開示の実施例の関連技術を説明し、以下に、関連技術は選択可能な技術案として本開示の実施例の技術案と任意的に組み合わせることができ、それはいずれも本開示の実施例の保護範囲に属する。
現在、単眼深度推定のディープラーニングの技術案には、主に、以下のいくつかのものがある。
1)大量の深度真値付けのデータに基づいて単眼深度推定ネットワークをトレーニングするものと、
2)監督なしの技術案に基づいて、単眼絶対深度推定ネットワークをトレーニングするものと、
3)大量の公開データ/自収集データに基づいて、ネットワークをトレーニングして、相対深度を得るものとがある。
上記のディープラーニング技術案において、技術案1)では、すべてがデータ監督の技術案を採用して、取得された絶対深度が比較的に正確的なものであるが、大量のデータ真値に依存するので、コストが比較的に高い。
技術案2)では、監督なしのトレーニング技術案を採用して、データを比較的に取得しやすいが、取得された絶対深度の精度が比較的に低いので、その後の使用に不利となる。
技術案3)では、大量のデータが自収集データに由来するので、精度が比較的に高い深度を取得することができるが、絶対深度を取得することができない。
そこで、本開示は、画像処理方法を提出しており、図1は、本開示の一実施例による画像処理方法のフロー模式図であって、以下のことを含む:
S110:目標画像に対して深度推定を行い、目標画像の相対深度マップを得る;
S120:相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得る;
S130:画像収集装置の相対高度及び画像収集装置の絶対高度に基づいて、相対深度マップの相対スケールを得る;
S140:相対スケール及び相対深度マップに基づいて、目標画像の絶対深度マップを得る。
例示的に、ステップS110において、目標画像をトレーニング済みの相対深度推定ネットワークに入力して、目標画像の相対深度マップを得てもよい。該相対深度マップは、各画素点間の遠近関係を表すことができる。
理解できるように、相対深度マップから画像収集装置の相対深度マップにおける相対高度を取得した後で、画像収集装置の絶対高度及び相対高度に基づいて、相対深度マップの相対スケールが得られており、相対スケールは、相対深度マップにおける相対深度と現実の絶対深度との比例関係を示している。相対深度マップの相対スケールに基づいて相対深度マップのうち各画素点の相対深度を絶対深度に変換し、目標画像の絶対深度マップが得られる。画像収集装置の絶対高度が固定値であって、簡単な人工方式により取得することができるため、上記ステップが依存されるデータ取得方式は効率が比較的に高い。
上記実施例の方法によれば、目標画像の相対深度マップのうち画像収集装置の相対高度及び実際の画像収集装置の絶対高度により目標画像の相対深度マップの相対深度を取得し、さらに目標画像の絶対深度マップを取得することができ、大量のデータ真値でトレーニングして得られた単眼絶対深度推定ネットワークを使用する必要がなく、大量のデータ真値への依存から外れており、目標画像の単眼相対スケール及び画像収集装置の高度を取得するだけで、少量の計算により比較的に正確な目標画像の絶対深度を得ることができる。
選択できるように、図2に示すように、上記実施例における画像処理方法は、以下のことをさらに含む:
S210:目標画像に対して語義分割して、目標画像における地面部分の位置情報を得る;
S220:位置情報に基づいて、相対深度マップにおける地面部分を得る。
例示的に、目標画像に対して語義分割することにより、目標画像における地面部分の位置情報、すなわち相対深度マップにおける地面部分の位置情報を得ることができる。相対深度マップにおいて地面部分の位置情報に基づいて、相対深度マップにおける地面部分を取得することができる。
理解できるように、相対深度マップにおける地面部分を取得した後で、相対深度マップにおける地面部分の画素点と相対深度マップにおける原点との相対深度差を計算することにより、画像収集装置の相対深度マップにおける相対高度を得ることができ、ひいては、その後、画像収集装置の相対深度マップにおける相対高度と画像収集装置の絶対高度とを比較することにより、相対深度マップの相対スケールを取得することに有利となる。
選択できるように、目標画像はパノラマ画像を含んでおり、上記実施例における画像処理方法はパノラマ画像の処理にも適用され、図3に示すように、上記ステップS110は以下のことを含む:
S311:パノラマ画像に対して画像セグメンテーションを行い、パノラマ画像の複数の視角セグメンテーションマップを得る;
S312:複数の視角セグメンテーションマップに対して深度推定を行い、複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得る。
相対深度推定ネットワークがパノラマ画像を直接的に処理することができない場合に、本開示の実施例によれば、パノラマ画像の相対深度マップを取得する前に、パノラマ画像に対して画像セグメンテーションを行い、パノラマ画像の複数の視角セグメンテーションマップを得てもよく、相対深度推定ネットワークを利用して複数の視角セグメンテーションマップに対して深度推定を行なうことにより、複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得ることができる。いくつかの適用シーンで、複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップはパノラマ画像の相対深度マップと見なされる。
上記実施例の方法によれば、パノラマ画像に対して深度推定を行なうときに、先ず、パノラマ画像に対して画像セグメンテーションを行い、複数の異なる視角のセグメンテーションマップによってパノラマ画像の特徴を示し、さらに、相対深度推定ネットワークを利用して複数の視角セグメンテーションマップを処理することにより、相対深度推定ネットワークに対する複雑度のニーズを低下させ、相対深度推定ネットワークをトレーニングするために必要なコストを低減させている。
例示的に、上記実施例において、パノラマ画像に対して画像セグメンテーションを行った後で得られた複数の視角セグメンテーションマップは、パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、図3に示すように、上記ステップS110は以下のことをさらに含む:
S313:隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得る。
理解できるように、パノラマ画像に対して画像セグメンテーションを行う過程は、実際に、異なる視角方向にパノラマ画像に対してセグメンテーションを行うことにより、複数の普通画像、すなわち複数の視角セグメンテーションマップを得るものである。複数の視角セグメンテーションマップがパノラマ画像における各画素点をカバーするので、複数の視角セグメンテーションマップに対応する複数の相対深度マップはパノラマ画像の相対深度の状況を完全的に表すことができ、さらに、その後に得られた複数の視角セグメンテーションマップに対応する絶対深度マップは、パノラマ画像の絶対深度をさらに表すことができる。
隣接方向の視角セグメンテーションマップに対応する第1の相対深度マップについては、2つの第1の相対深度マップをそれぞれ画像収集装置が位置する3次元座標系にマッピングし、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があるので、2つの第1の相対深度マップが画像収集装置が位置する3次元座標系にマッピングされた後で、必ず重なる画素点があり、したがって、重なる画素点の2つの第1の相対深度マップにおける相対深度に基づいて、2つの第1の相対深度マップにおける相対深度の比例関係を取得することができる。すべての第1の深度マップについては、それぞれ、隣接する第1の深度マップの相対深度との比例関係を取得し、最後に、比例関係に基づいてすべての第1の深度マップにおける相対深度を同一のスケールに区分してもよく、さらに、このスケールに基づいて取得された複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを取得することにより、複数の第2の相対深度マップにおける相対深度を同一のスケールに位置させる。いくつかの適用シーンで、複数の視角セグメンテーションマップと1対1で対応する複数の第2の相対深度マップはパノラマ画像の相対深度マップと見なされる。
上記実施例の方法によれば、パノラマ画像に対して画像セグメンテーションを行うときに、取得された複数の視角セグメンテーションマップはパノラマ画像における各画素点をカバーすることで、その後に画像処理を経った後で複数の視角セグメンテーションマップと1対1で対応する複数の絶対深度マップがパノラマ画像の絶対深度を完全に表すことができることを保証している。同時に、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があるので、重なり部分を利用して複数の視角セグメンテーションマップに対応する複数の第1の相対深度マップを同一のスケールに区分して、複数の第2の相対深度マップを取得することができ、これにより、後続の統一標準と画像収集装置の実際高度との比較に有利となる。
例示的に、上記実施例におけるパノラマ画像に対する画像処理方法によれば、図4に示すように、上記ステップS120は以下のことを含んでもよい:
S421:複数の第2の相対深度マップにおける少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得る;
S422:地面方程式に基づいて画像収集装置の相対高度を得る。
理解できるように、上記のパノラマ画像に対してセグメンテーションを行った後の複数の視角セグメンテーションマップには、個別の視角セグメンテーションマップに地面部分が含まれないものが存在するので、地面部分が含まれる視角セグメンテーションマップに対応する一部の第2の相対深度マップに基づいて他の地面部分の画素点及び原点をそれぞれ取得することができる。地面部分の画素点及び原点に対応する相対深度情報に基づいて、地面方程式を取得する。
地面方程式は以下の通りである。
xcosα+ycosβ+zcosγ=p
ただし、x、y、zは地面部分の画素点の相対深度情報であり、cosα、cosβ、cosγは平面法線ベクトルの方向余弦であり、pは原点と平面との相対深度差であり、原点から平面までの距離、すなわち画像収集装置の第2の相対深度マップにおける相対高度を示している。
複数の第2の相対深度マップから取得された相対高度同士の間に誤差が存在することに鑑って、複数の相対高度の平均値を画像収集装置の相対高度としてもよい。
上記実施例の方法によれば、複数の第2の相対深度マップのうち地面部分が含まれる第2の相対深度マップを利用して、平面方程式により画像収集装置の相対高度を取得しており、平均値の計算により誤差による影響を低減させ、その後に取得されるパノラマ画像の絶対深度の正確度を向上させている。
以下、パノラマ画像に対する画像処理を例として、上記画像処理方法がパノラマ画像の処理に適用される具体的なフローを具体的に示している:
1)目標画像とするパノラマ画像に対して画像セグメンテーションを行い、複数の異なる視角の視角セグメンテーションマップを取得し、ただし、画像セグメンテーションの過程では、隣接する視角の視角セグメンテーションマップ間に一定の重なり部分があることを保証する必要があり、かつ、取得された複数の異なる視角の視角セグメンテーションマップが目標パノラマ画像のすべての画素点をカバーする必要がある;
2)複数の視角セグメンテーションマップに対して語義分割を行い、地面部分が含まれる視角セグメンテーションマップにおける地面部分の位置情報を得る;
3)トレーニング済みの相対深度推定ネットワークを利用して、複数の視角セグメンテーションマップに対応する複数の第1の相対深度マップを取得し、隣接する視角の視角セグメンテーションマップに対応する第1の相対深度マップを2つずつ画像収集装置の3次元座標系にマッピングし、その重なり部分の画素点の相対深度を比較し、最終的に、複数の第1の相対深度マップにおける相対深度を同一のスケールに区分し、調整して複数の第1の相対深度マップに対応する複数の第2の相対深度マップを得る;
4)地面部分が含まれる視角セグメンテーションマップにおける地面部分の位置情報に基づいて、複数の第2の相対深度マップのうち地面部分が含まれる視角セグメンテーションマップに対応する一部の第2の相対深度マップにおける地面部分を取得し、地面方程式に基づいて画像収集装置のこれらの第2の相対深度マップにおける複数の相対高度を取得し、複数の相対高度について平均値を求めて画像収集装置のパノラマ画像における相対高度とする;
5)画像収集装置の目標パノラマ画像における相対高度及び画像収集装置の実際高度に基づいて、複数の第2の相対深度マップにおける相対深度と絶対深度との相対スケールを取得し、さらに相対スケールに基づいて複数の第2の相対深度マップを調整することにより、複数の第2の絶対深度マップが得られており、複数の第2の絶対深度マップに対応する視角セグメンテーションマップは目標パノラマ画像のすべての画素点をカバーしているので、複数の第2の絶対深度マップに基づいて目標パノラマ画像の絶対深度マップを得ることができる。
さらに、上記実施例における画像収集装置は、自動運転車両の車載カメラ又は道路交通監視用の広角カメラなどであってもよく、ここで限定されない。処理しようとする目標パノラマ画像が無人車両又は自動運転車両の車載カメラで撮影されるパノラマ画像であるときに、自動運転システムの目標パノラマ画像に対する処理は、以下のようなものであってもよい:
1)パノラマ画像に対して上下左右前後の6方向に基づいて画像セグメンテーションを行い、ただし、前後左右の4方向の視角セグメンテーションマップは、時計回りまたは反時計回りに従って2つずつの間が30°の視角重なりでセグメンテーションを行ってもよく、上下の2方向の視角セグメンテーションマップは、前後左右の4方向の視角セグメンテーションマップのいずれとの間にも30°の視角重なりが保留される;
2)前後左右の4方向の視角セグメンテーションマップに対して語義分割を行い、地面部分のそれぞれの4つの視角セグメンテーションマップにおける位置情報を得る;
3)深度推定ネットワークを利用して6つの視角セグメンテーションマップを処理して、6方向の第1の相対深度マップを得ており、前後左右の4方向の第1の相対深度マップに対して2つずつの間の重なり部分に従って比例関係を取得し、上下の2方向の第1の相対深度マップについて、これらの2つの第1の相対深度マップは前後左右の4方向の第1の相対深度マップのいずれとも重なり部分があるので、前後左右の4方向の第1の相対深度マップにおける各々の方向との比例関係をそれぞれ取得し、平均値で上下の2方向の第1の相対深度マップと他の第1の相対深度マップとの最終的な比例関係を特定し、さらに比例関係により上下左右前後の6方向における第2の相対深度マップを調整し得られる;
4)前後左右の4方向の視角セグメンテーションマップにおける地面部分の位置情報に基づいて、前後左右の4方向の第2の相対深度マップにおける地面部分を取得し、地面方程式に基づいて車載カメラの4つの第2の相対深度マップにおける相対高度を取得し、4つの相対高度の平均値を車載カメラの4つの第2の相対深度マップにおける最終的な相対高度とする;
5)最終的な相対高度及び車載カメラの実際高度に基づいて、上下左右前後の6方向の第2の相対深度マップにおける相対深度及び絶対深度の相対スケールを取得し、さらに6方向の第2の相対深度マップを調整して上下左右前後の6方向の絶対深度マップを取得しており、上下左右前後の6方向の絶対深度マップにより、目標パノラマ画像における各画素点の絶対深度を反映しており、これは自動運転システムの自身ポーズに対する感知及び推定に有利となる。
以上、異なる局面から、本願の実施例の具体的な設置及び実現方式を説明した。上記実施例により提供される方法によれば、目標画像の単眼相対スケール及び画像収集装置の高度しか取得できない場合に、少量の計算により比較的に正確な目標画像の絶対深度を得ることができ、大量のデータ真値への依存から外れ、かつ、パノラマ画像の単眼絶対深度推定に用いられ、迅速かつ効率的に目標画像の絶対深度を取得することができる。
図5は、本願の一実施例による画像処理装置の模式図であって、該装置は、
目標画像に対して深度推定を行い、目標画像の相対深度マップを得るための深度推定モジュール510と、
相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得るための相対高度取得モジュール520と、
画像収集装置の相対高度及び画像収集装置の絶対高度に基づいて、相対深度マップの相対スケールを得るための相対スケール取得モジュール530と、
相対スケール及び相対深度マップに基づいて、目標画像の絶対深度マップを得るための絶対深度マップ取得モジュール540とを含む。
例示的に、図6に示すように、上記装置は、
目標画像に対して語義分割を行い、目標画像における地面部分の位置情報を得るための分割モジュール610と、
位置情報に基づいて、相対深度マップにおける地面部分を得るための地面取得モジュール620とをさらに含む。
選択できるように、上記画像処理装置により処理される目標画像はパノラマ画像を含んでおり、図7に示すように、深度推定モジュール510は、
パノラマ画像に対して画像セグメンテーションして、パノラマ画像の複数の視角セグメンテーションマップを得るためのセグメンテーション手段711と、
複数の視角セグメンテーションマップに対して深度推定して、複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得るための第1の相対深度マップ取得手段712とを含む。
例示的に、上記画像処理装置により取得される複数の視角セグメンテーションマップは目標パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分がある。
図7に示すように、深度推定モジュール511は、
隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得るための第2の相対深度マップ取得手段713をさらに含む。
選択できるように、上記相対高度取得モジュール520は、具体的に、
複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
地面方程式に基づいて画像収集装置の相対高度を得ることとに用いられる。
本開示の実施例の各装置における各手段、モジュール又はサブモジュールの機能は、上記方法実施例における対応説明を参照することができ、該当する特別な効果を奏し、ここでは説明を繰り返さない。
本開示の技術案では、係られたユーザ個人情報の取得、記憶、及び応用などは、いずれも関連法律や法規の規定に合致しており、公序良俗に反していない。
本開示の実施例によれば、本開示は、電子機器、読取可能な記憶媒体及びコンピュータプログラムをさらに提供している。
図8は、本開示の実施例を実施するために用いられる例示的電子機器800の模式的ブロック図を示している。電子機器は、様々な形式のデジタルコンピュータを示すことを目的とし、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ及び他の適切なコンピュータである。電子機器は、さらに様々な形式の移動装置を示してもよく、例えば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブル機器及び他の類似的な演算装置である。本明細書に示された部品、それらの接続及び関係、並びにそれらの機能は、例示に過ぎず、本明細書に記載された及び/又は要求された本開示の実現を限定しない。
図8に示すように、機器800は、計算手段801を含み、計算手段801は、リードオンリーメモリ(ROM)802に記憶されたコンピュータプログラム又は記憶手段808からランダムアクセスメモリ(RAM)803にロードされたコンピュータプログラムに基づいて、様々な適切な動作及び処理を実行してもよい。RAM803には、さらに機器800の操作に必要な様々なプログラム及びデータが記憶されてもよい。計算手段801、ROM802、及びRAM803は、バス804を介して相互に接続される。入力/出力(I/O)インターフェース805も、バス804に接続される。
機器800における複数の部品は、I/Oインターフェース805に接続され、例えばキーボード、マウス等の入力手段806と、例えば様々な種類のディスプレイ、スピーカ等の出力手段807と、例えば磁気ディスク、光ディスク等の記憶手段808と、例えばネットワークカード、モデム、無線通信トランシーバ等の通信手段809とを含む。通信手段809は、機器800がインターネット等のコンピュータネットワーク及び/又は各種の電気ネットワークを介して他の機器と情報・データをやり取りすることを可能にする。
計算手段801は、処理及び演算能力を有する各種の汎用及び/又は専用の処理モジュールであってもよい。計算手段801の幾つかの例として、中央処理ユニット(CPU)、GPU(Graphics Processing Unit)、各種専用の人工知能(AI)演算チップ、各種機械学習モデルアルゴリズムをランニングする演算ユニット、DSP(Digital Signal Processor)、並びに任意の適切なプロセッサ、コントローラ、マイクロコントローラ等が挙げられるが、これらに限定されない。計算手段801は、前文で記載された各方法及び処理、例えば画像処理方法を実行する。例えば、幾つかの実施例において、画像処理方法は、例えば記憶手段808のような機械可読媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施例において、コンピュータプログラムの一部又は全部は、ROM802及び/又は通信手段809を介して機器800にロード及び/又はインストールされてもよい。コンピュータプログラムがRAM803にロードされて計算手段801により実行される場合、前文に記載の画像処理方法の1つ又は複数のステップを実行してもよい。代替的に、他の実施例において、計算手段801は、他の任意の適切な方式(例えば、ファームウェアを介する)により画像処理方法を実行するように構成されてもよい。
本明細書で以上に説明されたシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラマブルロジックデバイス (CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現されてもよい。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムにおいて実施され、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムで実行され及び/又は解釈されることが可能であり、該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、かつデータ及び命令を該記憶システム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置に伝送することができることを含んでもよい。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで作成されてもよい。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよく、それによって、プログラムコードがプロセッサ又はコントローラにより実行される時に、フローチャート及び/又はブロック図に規定された機能・操作が実施される。プログラムコードは、機器に完全に実行されてもよく、部分的に機器で実行されてもよく、独立したソフトウェアパッケージとして部分的に機器で実行され、かつ部分的に遠隔機器で実行されるか又は完全に遠隔機器又はサーバで実行されてもよい。
本開示のコンテキストにおいて、機械可読媒体は、有形の媒体であってもよく、命令実行システム、装置又は機器に使用され、又は命令実行システム、装置又は機器と組み合わせて使用されるプログラムを含んで又は記憶してもよい。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は、電子の、磁気的、光学的、電磁的、赤外線の、又は半導体システム、装置又は機器、又は上記内容の任意の適切な組み合わせを含んでもよいが、それらに限定されない。機械可読記憶媒体のより具体的な例としては、1つ以上の線による電気的接続、携帯式コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又は上記内容の任意の適切な組み合わせを含む。
ユーザとの対話を提供するために、コンピュータにここで説明されたシステム及び技術を実施させてもよく、該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを備え、ユーザは、該キーボード及び該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類の装置は、さらにユーザとの対話を提供してもよく、例えば、ユーザに提供されたフィードバックは、いかなる形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、かついかなる形式(音声入力、語音入力、又は触覚入力を含む)でユーザからの入力を受信してもよい。
ここで説明されたシステム及び技術は、バックグラウンド部品を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア部品を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド部品を含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザが該グラフィカルユーザインタフェース又は該ネットワークブラウザを介してここで説明されたシステム及び技術の実施形態と対話することができる)、又はこのようなバックグラウンド部品、ミドルウェア部品、又はフロントエンド部品のいずれかの組み合わせを含むコンピューティングシステムに実施されることが可能である。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によりシステムの部品を互いに接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを例示的に含む。
コンピュータシステムは、クライアント及びサーバを含んでもよい。クライアントとサーバ同士は、一般的に離れており、通常、通信ネットワークを介して対話する。クライアントとサーバとの関係は、該当するコンピュータ上でランニングし、互いにクライアント-サーバの関係を有するコンピュータプログラムによって生成される。サーバはクラウドサーバであってもよく、分散型システムのサーバであってもよく、又はブロックチェーンを組み合わせたサーバであってもよい。
理解されるべきこととして、以上に示された様々な形式のフローを使用してもよく、操作を改めてソーティングしたり、追加したり又は削除してもよい。例えば、本発開示に記載の各ステップは、並列に実行されたり、順次に実行されたり、又は異なる順序で実行されてもよく、本開示に開示された技術案が所望する結果を実現することができれば、本明細書はここで限定されない。
以上説明した画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラムは、以下のように表現することができる。
第1態様の画像処理方法は、
目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることと、
前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることと、
前記画像収集装置の相対高度及び前記画像収集装置の絶対高度に基づいて、前記相対深度マップの相対スケールを得ることと、
前記相対スケール及び前記相対深度マップに基づいて、前記目標画像の絶対深度マップを得ることとを含む。
第2態様の画像処理方法は、
第1態様に記載の画像処理方法であって、
前記目標画像に対して語義分割を行い、前記目標画像における地面部分の位置情報を得ることと、
前記位置情報に基づいて、前記相対深度マップにおける地面部分を得ることとをさらに含む。
第3態様の画像処理方法は、
第1又は第2態様に記載の画像処理方法であって、
前記目標画像はパノラマ画像を含んでおり、
ただし、前記目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることは、
前記パノラマ画像に対して画像セグメンテーションを行い、前記パノラマ画像の複数の視角セグメンテーションマップを得ることと、
前記複数の視角セグメンテーションマップに対して深度推定を行い、前記複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得ることとを含む。
第4態様の画像処理方法は、
第3態様に記載に画像処理方法であって、
前記複数の視角セグメンテーションマップは、前記パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、
前記目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることは、
前記隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、前記複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得ることをさらに含む。
第5態様の画像処理方法は、
第4態様に記載の画像処理方法であって、
前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることは、
前記複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
前記地面方程式に基づいて、前記画像収集装置の相対高度を得ることとを含む。
第6態様の画像処理装置は、
目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得るための深度推定モジュールと、
前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得るための相対高度取得モジュールと、
前記画像収集装置の相対高度及び前記画像収集装置の絶対高度に基づいて、前記相対深度マップの相対スケールを得るための相対スケール取得モジュールと、
前記相対スケール及び前記相対深度マップに基づいて、前記目標画像の絶対深度マップを得るための絶対深度マップ取得モジュールとを含む。
第7態様の画像処理装置は、
第6態様に記載の画像処理装置であって、
前記目標画像に対して語義分割を行い、前記目標画像における地面部分の位置情報を得るための分割モジュールと、
前記位置情報に基づいて、前記相対深度マップにおける地面部分を得るための地面取得モジュールとをさらに含む。
第8態様の画像処理装置は、
第6又は第7態様に記載の画像処理装置であって、
前記目標画像はパノラマ画像を含んでおり、
ただし、前記深度推定モジュールは、
前記パノラマ画像に対して画像セグメンテーションを行い、前記パノラマ画像の複数の視角セグメンテーションマップを得るためのセグメンテーション手段と、
前記複数の視角セグメンテーションマップに対して深度推定を行い、前記複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得るための第1の相対深度マップ取得手段とを含む。
第9態様の画像処理装置は、
第8態様に記載の画像処理装置であって、
前記複数の視角セグメンテーションマップは、前記パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、
前記深度推定モジュールは、
前記隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、前記複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得るための第2の相対深度マップ取得手段をさらに含む。
第10態様の画像処理装置は、
第9態様に記載の画像処理装置であって、
前記相対高度取得モジュールは、
前記複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
前記地面方程式に基づいて、前記画像収集装置の相対高度を得ることとに用いられる。
第11態様の電子機器は、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを含む電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが第1~5態様のいずれか1項に記載の方法を実行することができるように、前記少なくとも1つのプロセッサにより実行される。
第12態様の記憶媒体は、
コンピュータ命令が記憶された非一時的なコンピュータ読取可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに第1~5態様のいずれか1つに記載の方法を実行させるために用いられる、
記憶媒体である。
第13態様のコンピュータプログラムは、
プロセッサにより実行される場合に、第1~5態様のいずれか1つに記載の方法を実現する、
コンピュータプログラムである。
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者であれば、設計要求及び他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション及び代替を行うことが可能であると理解すべきである。本開示の精神と原則内で行われる任意の修正、均等置換及び改良などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (9)

  1. プロセッサによって実行され、
    目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることと、
    前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることと、
    前記画像収集装置の相対高度及び前記画像収集装置の絶対高度に基づいて、前記相対深度マップの相対スケールを得ることと、
    前記相対スケール及び前記相対深度マップに基づいて、前記目標画像の絶対深度マップを得ることとを含み、
    前記目標画像はパノラマ画像を含んでおり、
    ただし、前記目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることは、
    前記パノラマ画像に対して画像セグメンテーションを行い、前記パノラマ画像の複数の視角セグメンテーションマップを得ることと、
    前記複数の視角セグメンテーションマップに対して深度推定を行い、前記複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得ることとを含み、
    前記複数の視角セグメンテーションマップは、前記パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、
    前記目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得ることは、
    前記隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、前記複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得ることをさらに含む、
    画像処理方法。
  2. 前記目標画像に対して語義分割を行い、前記目標画像における地面部分の位置情報を得ることと、
    前記位置情報に基づいて、前記相対深度マップにおける地面部分を得ることとをさらに含む、
    請求項1に記載の方法。
  3. 前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得ることは、
    前記複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
    前記地面方程式に基づいて、前記画像収集装置の相対高度を得ることとを含む、
    請求項に記載の方法。
  4. 目標画像に対して深度推定を行い、前記目標画像の相対深度マップを得るための深度推定モジュールと、
    前記相対深度マップにおける地面部分に基づいて、画像収集装置の相対高度を得るための相対高度取得モジュールと、
    前記画像収集装置の相対高度及び前記画像収集装置の絶対高度に基づいて、前記相対深度マップの相対スケールを得るための相対スケール取得モジュールと、
    前記相対スケール及び前記相対深度マップに基づいて、前記目標画像の絶対深度マップを得るための絶対深度マップ取得モジュールとを含み、
    前記目標画像はパノラマ画像を含んでおり、
    ただし、前記深度推定モジュールは、
    前記パノラマ画像に対して画像セグメンテーションを行い、前記パノラマ画像の複数の視角セグメンテーションマップを得るためのセグメンテーション手段と、
    前記複数の視角セグメンテーションマップに対して深度推定を行い、前記複数の視角セグメンテーションマップと1対1で対応する複数の第1の相対深度マップを得るための第1の相対深度マップ取得手段とを含み、
    前記複数の視角セグメンテーションマップは、前記パノラマ画像における各画素点をカバーするとともに、隣接方向の視角セグメンテーションマップの2つずつの間には重なり部分があり、
    前記深度推定モジュールは、
    前記隣接方向の視角セグメンテーションマップの2つずつの間の重なり部分に基づいて、前記複数の第1の相対深度マップに対してスケール調整を行い、複数の第2の相対深度マップを得るための第2の相対深度マップ取得手段をさらに含む、
    画像処理装置。
  5. 前記目標画像に対して語義分割を行い、前記目標画像における地面部分の位置情報を得るための分割モジュールと、
    前記位置情報に基づいて、前記相対深度マップにおける地面部分を得るための地面取得モジュールとをさらに含む、
    請求項に記載の装置。
  6. 前記相対高度取得モジュールは、
    前記複数の第2の相対深度マップのうち少なくとも一部の第2の相対深度マップにおける地面部分に基づいて、地面方程式を得ることと、
    前記地面方程式に基づいて、前記画像収集装置の相対高度を得ることとに用いられる、
    請求項に記載の装置。
  7. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信接続されたメモリとを含む電子機器であって、
    前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1~のいずれか一項に記載の方法を実行することができるように、前記少なくとも1つのプロセッサにより実行される、
    電子機器。
  8. コンピュータ命令が記憶された非一時的なコンピュータ読取可能な記憶媒体であって、
    前記コンピュータ命令は、前記コンピュータに請求項1~のいずれか一項に記載の方法を実行させるために用いられる、
    記憶媒体。
  9. プロセッサにより実行される場合に、請求項1~のいずれか一項に記載の方法を実現する、
    コンピュータプログラム。
JP2022196549A 2022-03-11 2022-12-08 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム Active JP7425169B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210239492.4 2022-03-11
CN202210239492.4A CN114612544B (zh) 2022-03-11 2022-03-11 图像处理方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
JP2023027227A JP2023027227A (ja) 2023-03-01
JP7425169B2 true JP7425169B2 (ja) 2024-01-30

Family

ID=81862681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022196549A Active JP7425169B2 (ja) 2022-03-11 2022-12-08 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20230162383A1 (ja)
JP (1) JP7425169B2 (ja)
KR (1) KR20230006628A (ja)
CN (1) CN114612544B (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212428A (ja) 2011-03-23 2012-11-01 Sharp Corp 視差算出装置、距離算出装置及び視差算出方法
US20180189974A1 (en) 2017-05-19 2018-07-05 Taylor Clark Machine learning based model localization system
JP2018195293A (ja) 2017-05-18 2018-12-06 三菱電機株式会社 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106920279B (zh) * 2017-03-07 2018-06-19 百度在线网络技术(北京)有限公司 三维地图构建方法和装置
CN108520537B (zh) * 2018-03-29 2020-02-18 电子科技大学 一种基于光度视差的双目深度获取方法
CN109035319B (zh) * 2018-07-27 2021-04-30 深圳市商汤科技有限公司 单目图像深度估计方法及装置、设备、程序及存储介质
CN111784757B (zh) * 2020-06-30 2024-01-23 北京百度网讯科技有限公司 深度估计模型的训练方法、深度估计方法、装置及设备
CN112258409A (zh) * 2020-10-22 2021-01-22 中国人民武装警察部队工程大学 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置
CN112634343A (zh) * 2020-12-23 2021-04-09 北京百度网讯科技有限公司 图像深度估计模型的训练方法、图像深度信息的处理方法
CN113205549B (zh) * 2021-05-07 2023-11-28 深圳市商汤科技有限公司 深度估计方法及装置、电子设备和存储介质
CN113989376B (zh) * 2021-12-23 2022-04-26 贝壳技术有限公司 室内深度信息的获取方法、装置和可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212428A (ja) 2011-03-23 2012-11-01 Sharp Corp 視差算出装置、距離算出装置及び視差算出方法
JP2018195293A (ja) 2017-05-18 2018-12-06 三菱電機株式会社 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体
US20180189974A1 (en) 2017-05-19 2018-07-05 Taylor Clark Machine learning based model localization system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Feng Xue, 外5名,"Toward Hierarchical Self-Supervised Monocular Absolute Depth Estimation for Autonomous Driving Applications",2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),IEEE,2020年10月24日,p.2330-2337

Also Published As

Publication number Publication date
CN114612544B (zh) 2024-01-02
US20230162383A1 (en) 2023-05-25
KR20230006628A (ko) 2023-01-10
JP2023027227A (ja) 2023-03-01
CN114612544A (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
US10614592B2 (en) Three-dimensional posture estimating method and apparatus, device and computer storage medium
JP6745328B2 (ja) 点群データを復旧するための方法及び装置
EP3889908A2 (en) Image projection method, apparatus, device and storage medium
US9454851B2 (en) Efficient approach to estimate disparity map
CN113264066A (zh) 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备
CN113706704B (zh) 基于高精地图规划路线的方法、设备以及自动驾驶车辆
US11842440B2 (en) Landmark location reconstruction in autonomous machine applications
CN114663529B (zh) 一种外参确定方法、装置、电子设备及存储介质
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
CN111753739A (zh) 物体检测方法、装置、设备以及存储介质
CN113129352A (zh) 一种稀疏光场重建方法及装置
WO2022199195A1 (zh) 地图更新方法、系统、车载终端、服务器及存储介质
CN117745845A (zh) 一种外参信息确定方法、装置、设备和存储介质
CN112639822B (zh) 一种数据处理方法及装置
CN113409340A (zh) 语义分割模型训练方法、语义分割方法、装置及电子设备
CN117612132A (zh) 鸟瞰视角bev俯视图的补全方法、装置和电子设备
JP7425169B2 (ja) 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム
CN114648639B (zh) 一种目标车辆的检测方法、系统及装置
CN115375836A (zh) 基于多元置信度滤波的点云融合三维重建方法和系统
CN117252912A (zh) 深度图像获取方法、电子设备及存储介质
CN110389349B (zh) 定位方法和装置
CN114565681B (zh) 一种相机标定方法、装置、设备、介质及产品
CN113361379B (zh) 生成目标检测系统和检测目标的方法及装置
US20240153251A1 (en) Shape construction-based machine learning model for object localization
CN117830397A (zh) 重定位方法、装置、电子设备、介质和车辆

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240118

R150 Certificate of patent or registration of utility model

Ref document number: 7425169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150