JP7501481B2 - 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム - Google Patents

距離推定装置、距離推定方法、および距離推定用コンピュータプログラム Download PDF

Info

Publication number
JP7501481B2
JP7501481B2 JP2021156991A JP2021156991A JP7501481B2 JP 7501481 B2 JP7501481 B2 JP 7501481B2 JP 2021156991 A JP2021156991 A JP 2021156991A JP 2021156991 A JP2021156991 A JP 2021156991A JP 7501481 B2 JP7501481 B2 JP 7501481B2
Authority
JP
Japan
Prior art keywords
teacher
sample points
image
feature
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021156991A
Other languages
English (en)
Other versions
JP2023047846A (ja
Inventor
ケール ワディム
大晴 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021156991A priority Critical patent/JP7501481B2/ja
Priority to US17/930,826 priority patent/US12243262B2/en
Priority to CN202211173872.9A priority patent/CN115880215B/zh
Publication of JP2023047846A publication Critical patent/JP2023047846A/ja
Application granted granted Critical
Publication of JP7501481B2 publication Critical patent/JP7501481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional [3D] objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示は、対象物までの距離を推定する距離推定装置、距離推定方法、および距離推定用コンピュータプログラムに関する。
多視点立体視による距離推定装置は、複数のカメラにより異なる視点から対象物を撮影することで生成された画像セットを用いて対象物の3次元構造を再構成することにより、対象物までの距離を推定することができる。
特許文献1には、3次元空間中に設定された所定サイズのボクセルを用いて対象物の形状を表す3次元形状データの生成装置が記載されている。
特開2020-004219号公報
ボクセルを用いて表される3次元形状をコンピュータで取り扱う場合のメモリ使用量は、解像度の3乗で増加する。そのため、ボクセルを用いて表される対象物の3次元構造の解像度を高くすることは困難である。そのため、複雑な形状を有する対象物までの距離を適切に推定することは容易ではない。
本開示は、比較的少ないメモリ容量でも複雑な形状を有する対象物までの距離を適切に推定することができる距離推定装置を提供することを目的とする。
本開示にかかる距離推定装置は、所定のリファレンス位置から対象物を撮影するリファレンス撮像部により生成されたリファレンス画像からリファレンス画像に含まれる各画素に対応する特徴量を表すリファレンス特徴マップを抽出するとともに、リファレンス位置とは異なる位置から対象物を撮影する1以上のソース撮像部のそれぞれにより生成されたソース画像のそれぞれから、当該ソース画像に含まれる各画素の特徴量を表すソース特徴マップを抽出する抽出部と、リファレンス特徴マップにおいてリファレンス画像に含まれる各画素に対応する特徴量を、リファレンス撮像部の像面をリファレンス撮像部の光軸方向に移動させたときの当該像面に対応する画像の各画素に対応するように変換することにより仮説的に配置される複数の仮説平面上にソース特徴マップを射影することで、複数の仮説平面上の座標に特徴量が関連づけられたコストボリュームを生成する生成部と、コストボリュームにおいて、リファレンス位置からリファレンス画像に含まれる複数の画素のうちのいずれかの対象画素に相当する方向に向かう直線の上に複数のサンプル点を設定する設定部と、複数のサンプル点のそれぞれに対応する特徴量を、コストボリュームにおいて、複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間する補間部と、補間された複数のサンプル点に対応する各特徴量を、複数の仮説平面のうちいずれかの仮説平面上のいずれかの座標に対応する特徴量に応じて当該座標が対象物の内部となる確率を表す占有確率を出力するよう学習された識別器に入力することで、当該サンプル点に対応する占有確率を算出する算出部と、複数のサンプル点のそれぞれに対応する占有確率と当該サンプル点のリファレンス位置からの距離との積を加算した値を、リファレンス位置から対象物の表面までの距離と推定する推定部と、を備える。
本開示にかかる距離推定装置において、算出部は、複数のサンプル点のそれぞれに対応する占有確率を、当該サンプル点に隣接する一対のサンプル点の間隔が大きいほど重みが大きくなるように重みづけすることが好ましい。
本開示にかかる距離推定装置において、識別器は、教師対象物が表された教師リファレンス画像、および、教師対象物が表され、教師リファレンス画像の視点とは異なる視点を有する教師ソース画像を含む教師データを用いて生成された教師コストボリュームにおいて、教師リファレンス画像の視点から教師リファレンス画像に含まれる複数の画素のうち表された教師対象物の深度が関連づけられた教師画素に相当する方向に向かう教師サンプリング直線の上に設定された複数の教師サンプル点について推定される占有確率と、教師画素に関連づけられた深度から算出される占有状態との差が小さくなるように学習されることが好ましい。
本開示にかかる距離推定装置において、複数の教師サンプル点は、教師画素に関連づけられた深度に近いほど間隔が密となるように設定されることが好ましい。
本開示にかかる距離推定装置において、識別器は、複数の教師サンプル点について推定される占有確率と、教師画素の前記占有状態との差が小さくなるように学習されるとともに、複数の教師サンプル点について推定される占有確率から算出される教師対象物の深度と当該教師画素に関連づけられた深度との差が小さくなるように学習されることが好ましい。
本開示にかかる距離推定装置において、識別器は、座標の値が教師画素ごとに設定される値を用いて変更された複数の教師サンプル点について推定される占有確率を用いて学習されることが好ましい。
本開示にかかる距離推定方法は、所定のリファレンス位置から対象物を撮影するリファレンス撮像部により生成されたリファレンス画像からリファレンス画像に含まれる各画素に対応する特徴量を表すリファレンス特徴マップを抽出するとともに、リファレンス位置とは異なる位置から対象物を撮影する1以上のソース撮像部のそれぞれにより生成されたソース画像のそれぞれから、当該ソース画像に含まれる各画素の特徴量を表すソース特徴マップを抽出し、リファレンス特徴マップにおいてリファレンス画像に含まれる各画素に対応する特徴量を、リファレンス撮像部の像面をリファレンス撮像部の光軸方向に移動させたときの当該像面に対応する画像の各画素に対応するように変換することにより仮説的に配置される複数の仮説平面上にソース特徴マップを射影することで、複数の仮説平面上の座標に特徴量が関連づけられたコストボリュームを生成し、コストボリュームにおいて、リファレンス位置からリファレンス画像に含まれる複数の画素のうちいずれかの対象画素に相当する方向に向かう直線の上に複数のサンプル点を設定し、複数のサンプル点のそれぞれに対応する特徴量を、コストボリュームにおいて、複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間し、補間された複数のサンプル点に対応する各特徴量を、複数の仮説平面のうちいずれかの仮説平面上のいずれかの座標に対応する特徴量に応じて当該座標が対象物の内部となる確率を表す占有確率を出力するよう学習された識別器に入力することで、当該サンプル点に対応する占有確率を算出し、複数のサンプル点のそれぞれに対応する占有確率と当該サンプル点のリファレンス位置からの距離との積を加算することで、リファレンス位置から対象物の表面までの距離を推定する、ことを含む。
本開示にかかる距離推定用コンピュータプログラムは、所定のリファレンス位置から対象物を撮影するリファレンス撮像部により生成されたリファレンス画像からリファレンス画像に含まれる各画素に対応する特徴量を表すリファレンス特徴マップを抽出するとともに、リファレンス位置とは異なる位置から対象物を撮影する1以上のソース撮像部のそれぞれにより生成されたソース画像のそれぞれから、当該ソース画像に含まれる各画素の特徴量を表すソース特徴マップを抽出し、リファレンス特徴マップにおいてリファレンス画像に含まれる各画素に対応する特徴量を、リファレンス撮像部の像面をリファレンス撮像部の光軸方向に移動させたときの当該像面に対応する画像の各画素に対応するように変換することにより仮説的に配置される複数の仮説平面上にソース特徴マップを射影することで、複数の仮説平面上の座標に特徴量が関連づけられたコストボリュームを生成し、コストボリュームにおいて、リファレンス位置からリファレンス画像に含まれる複数の画素のうちいずれかの対象画素に相当する方向に向かう直線の上に複数のサンプル点を設定し、複数のサンプル点のそれぞれに対応する特徴量を、コストボリュームにおいて、複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間し、補間された複数のサンプル点に対応する各特徴量を、複数の仮説平面のうちいずれかの仮説平面上のいずれかの座標に対応する特徴量に応じて当該座標が対象物の内部となる確率を表す占有確率を出力するよう学習された識別器に入力することで、当該サンプル点に対応する占有確率を算出し、複数のサンプル点のそれぞれに対応する占有確率と当該サンプル点のリファレンス位置からの距離との積を加算することで、リファレンス位置から対象物の表面までの距離を推定する、ことをコンピュータのプロセッサに実行させる。
本開示にかかる距離推定装置によれば、比較的少ないメモリ容量でも複雑な形状を有する対象物までの距離を適切に推定することができる。
距離推定装置が実装される車両の概略構成図である。 ECUのハードウェア模式図である。 ECUが有するプロセッサの機能ブロック図である。 特徴マップの抽出を説明する図である。 特徴マップを用いた距離の推定を説明する図である。 距離推定処理のフローチャートである。
以下、図面を参照して、比較的少ないメモリ容量でも複雑な形状を有する対象物までの距離を適切に推定することができる距離推定装置について詳細に説明する。距離推定装置は、まず、所定のリファレンス位置から対象物を撮影するリファレンス撮像部により生成されたリファレンス画像からリファレンス画像に含まれる各画素に対応する特徴量を表すリファレンス特徴マップを抽出する。また、距離推定装置は、リファレンス位置とは異なる位置から対象物を撮影する1以上のソース撮像部のそれぞれにより生成されたソース画像のそれぞれから、当該ソース画像に含まれる各画素の特徴量を表すソース特徴マップを抽出する。次に、距離推定装置は、リファレンス特徴マップにおいてリファレンス画像に含まれる各画素に対応する特徴量を、リファレンス撮像部の像面をリファレンス撮像部の光軸方向に移動させたときの当該像面に対応する画像の各画素に対応するように変換することにより仮説的に配置される複数の仮説平面上にソース特徴マップを射影することで、複数の仮説平面上の座標に特徴量が関連づけられたコストボリュームを生成する。次に、距離推定装置は、コストボリュームにおいて、リファレンス位置からリファレンス画像に含まれる複数の画素のうちいずれかの対象画素に相当する方向に向かう直線の上に複数のサンプル点を設定する。次に、距離推定装置は、複数のサンプル点のそれぞれに対応する特徴量を、コストボリュームにおいて、複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間する。次に、距離推定装置は、補間された複数のサンプル点に対応する各特徴量を、複数の仮説平面のうちいずれかの仮説平面上のいずれかの座標に対応する特徴量に応じて当該座標が対象物の内部となる確率を表す占有確率を出力するよう学習された識別器に入力することで、当該サンプル点に対応する占有確率を算出する。そして、距離推定装置は、複数のサンプル点のそれぞれに対応する占有確率と当該サンプル点のリファレンス位置からの距離との積を加算することで、リファレンス位置から対象物の表面までの距離を推定する。
図1は、距離推定装置が実装される車両の概略構成図である。
車両1は、周辺カメラ2と、ECU3(Electronic Control Unit)とを有する。ECU3は、距離推定装置の一例である。周辺カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。
周辺カメラ2は、車両1の周辺状況を表す画像を生成するための撮像部の一例である。周辺カメラ2は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上の撮影対象となる領域の像を結像する結像光学系とを有する。周辺カメラ2は、左方周辺カメラ2-1および右方周辺カメラ2-2を有する。左方周辺カメラ2-1は、例えば車室内の前方左側上部に、前方を向けて配置され、右方周辺カメラ2-2は、例えば車室内の前方右側上部に、前方を向けて配置される。左方周辺カメラ2-1および右方周辺カメラ2-2は、車両1において異なる位置に配置されるため、同一の対象物を異なる視点から撮影することができる。本実施形態の周辺カメラ2は左方周辺カメラ2-1および右方周辺カメラ2-2の二つのカメラを有するが、周辺カメラ2はそれぞれ異なる位置に配置された3つ以上のカメラを有していてもよい。周辺カメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとにフロントガラスを介して車両1の周辺の状況を撮影し、周辺の状況が表された画像を出力する。
ECU3は、リファレンス位置から周辺カメラ2が生成する画像に表された対象物までの距離を推定する。また、ECU3は、推定されたリファレンス位置から対象物までの距離に基づいて将来における当該対象物の位置を予測し、将来における車両1と当該対象物との距離が所定の距離閾値を下回らないように、車両1の走行機構(不図示)を制御する。
図2は、ECU3のハードウェア模式図である。ECU3は、通信インタフェース31と、メモリ32と、プロセッサ33とを備える。
通信インタフェース31は、通信部の一例であり、ECU3を車内ネットワークへ接続するための通信インタフェース回路を有する。通信インタフェース31は、受信したデータをプロセッサ33に供給する。また、通信インタフェース31は、プロセッサ33から供給されたデータを外部に出力する。
メモリ32は、記憶部の一例であり、揮発性の半導体メモリおよび不揮発性の半導体メモリを有する。メモリ32は、プロセッサ33による処理に用いられる各種データ、例えば、周辺カメラ2の配置される位置、結像光学系の光軸方向および焦点距離を保存する。また、メモリ32は、画像から特徴マップを抽出する識別器として動作するニューラルネットワークを規定するためのパラメータ群(層数、層構成、カーネル、重み係数等)を保存する。また、メモリ32は、特徴マップを用いて生成されたコストボリュームを保存する。また、メモリ32は、コストボリュームに含まれる座標に対応する特徴量に基づいて当該座標に対応する占有確率を出力する識別器として動作するニューラルネットワークを規定するためのパラメータ群を保存する。また、メモリ32は、各種アプリケーションプログラム、例えば距離推定処理を実行する距離推定用プログラム等を保存する。
プロセッサ33は、制御部の一例であり、1以上のプロセッサおよびその周辺回路を有する。プロセッサ33は、論理演算ユニット、数値演算ユニット、またはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。
図3は、ECU3が有するプロセッサ33の機能ブロック図である。
ECU3のプロセッサ33は、機能ブロックとして、抽出部331と、生成部332と、設定部333と、補間部334と、算出部335と、推定部336とを有する。プロセッサ33が有するこれらの各部は、メモリ32に記憶されプロセッサ33上で実行されるプコンピュータログラムによって実装される機能モジュールである。プロセッサ33の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。あるいは、プロセッサ33が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとしてECU3に実装されてもよい。
抽出部331は、リファレンス撮像部により生成されたリファレンス画像から、リファレンス画像に含まれる各画素に対応する特徴量を表すリファレンス特徴マップを抽出する。また、抽出部331は、と1以上のソース撮像部のそれぞれにより生成されたソース画像のそれぞれから、当該ソース画像に含まれる各画素の特徴量を表す複数のソース特徴マップを抽出する。
図4は、特徴マップの抽出を説明する図である。
車両1に搭載された左方周辺カメラ2-1および右方周辺カメラ2-2は対象物OBJを撮影し、対象物OBJが表されたリファレンス画像PRおよびソース画像PSを出力する。本実施形態では、左方周辺カメラ2-1がリファレンス画像PRを生成するリファレンス撮像部とし、右方周辺カメラ2-2がソース画像PSを生成するソース撮像部として説明するが、この逆であってもよい。また、周辺カメラ2が3以上のカメラを有する場合、そのうち一のカメラをリファレンス撮像部とし、他のカメラを第1、第2、…のソース撮像部とすればよい。左方周辺カメラ2-1の配置される位置はリファレンス位置に相当し、右方周辺カメラ2-2はリファレンス位置とは異なる位置に配置される。
抽出部331は、リファレンス画像PRおよびソース画像PSのそれぞれを識別器C1に入力することで、リファレンス画像PRに含まれる各画素に対応する特徴量を表すリファレンス特徴マップFMRおよびソース画像PSに含まれる各画素に対応する特徴量を表すソース特徴マップFMSを抽出する。リファレンス特徴マップFMRおよびソース特徴マップFMSは、縦方向および横方向にリファレンス画像PRおよびソース画像PSと同一のサイズを有し、画素ごとに、リファレンス画像PRおよびソース画像PSのそれぞれの画素に表わされた物体までの推定距離を表す深度マップである。識別器C1は、例えば、Multi-Scale Deep Networkといった入力側から出力側に向けて直列に接続された複数の畳み込み層を有する畳み込みニューラルネットワーク(CNN)とすることができる。画素ごとに深度が対応づけられた画像を教師データとして用いて、誤差逆伝搬法といった所定の学習手法に従って予めCNNの学習を行うことにより、CNNは画像から画素ごとの特徴量を抽出する識別器C1として動作する。
リファレンス特徴マップFMRおよびソース特徴マップFMSは、リファレンス画像PRおよびソース画像PSのそれぞれの画素を、「道路」「人」「車両」といったクラスに分類するセグメンテーションマップであってもよい。このような特徴マップを出力するために、識別器C1は、例えばSegNetといったCNNとすることができる。
図5は、特徴マップを用いた距離の推定を説明する図である。
生成部332は、リファレンス特徴マップFMRにおいてリファレンス画像PRに含まれる各画素に対応する特徴量を、左方周辺カメラ2-1の像面を左方周辺カメラ2-1の光軸方向に移動させたときの当該像面に対応する画像の各画素に対応するように変換することにより、リファレンス画像PRの視点となる左方周辺カメラ2-1の配置される位置と対象物OBJとの間に複数の仮説平面HP1-HP4を仮説的に配置する。複数の仮説平面HP1-HP4は、左方周辺カメラ2-1の光軸と直交し、かつ、左方周辺カメラ2-1の配置される位置からの距離がそれぞれ異なる平面である。複数の仮説平面HP1-HP4において、リファレンス特徴マップFMRに含まれるリファレンス画像PRに含まれる各画素に対応する特徴量が、左方周辺カメラ2-1の配置される位置からの距離に応じて縮小または拡大された範囲に配置される。
生成部332は、複数の仮説平面のそれぞれに対してソース特徴マップFMSを射影することにより、コストボリュームを生成する。コストボリュームは、複数の仮説平面上の座標を含み、それぞれの座標には、リファレンス特徴マップFMRにおける特徴量とソース特徴マップFMSにおける特徴量との差異に応じた特徴量が関連づけられる。なお、本実施形態は4つの仮説平面が配置される例を示しているが、仮説平面の数はこれに限られない。
生成部332は、仮説平面HP1-HP4のそれぞれの位置に対しソース特徴マップFMSをホモグラフィー変換することで、仮説平面HP1-HP4上にソース特徴マップFMSを射影する。生成部332は、仮説平面HP1-HP4のそれぞれに射影されたソース特徴マップFMSの特徴量に応じた特徴量を有するコストボリュームCVを生成する。なお、ソース画像および対応するソース特徴マップが複数ある場合、コストボリュームCVに含まれる各座標には、それぞれのソース特徴マップに応じた特徴量が関連づけられる。
設定部333は、コストボリュームCVにおいて、左方周辺カメラ2-1の配置される位置からリファレンス画像PRに含まれる複数の画素のうちのいずれかの対象画素Tに相当する方向に向かう直線(サンプリング直線SR)の上に複数のサンプル点p1、p2、p3を設定する。
設定部333は、複数の仮説平面のうち当該仮説平面が配置された深度と当該仮説平面においてサンプリング直線SRの近傍の座標に関連づけられた特徴量に表される深度とが最も近い仮説平面に近いサンプル点において隣接するサンプル点までの間隔が密となるように、複数のサンプル点を設定する。
設定部333は、サンプリング直線SR上に複数のサンプル点を等間隔で設定してもよい。また、設定部333は、サンプリング直線SR上に複数のサンプル点をランダムな間隔で設定してもよい。
補間部334は、複数のサンプル点p1、p2、p3のそれぞれに対応する特徴量を、コストボリュームCVに配置された複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間する。
ここでは、一例として、サンプル点p1に対応する特徴量の補間について説明するが、他のサンプル点についても同様に補間することができる。補間部334は、まず、サンプル点p1に近接する仮説平面を特定する。サンプル点p1は、深度k1に位置するリファレンス特徴マップFMRと平行な平面上の、左右方向がi1、上下方向がj1の位置に設定され、これをサンプル点p1(i1,j1,k1)と記載する。補間部334は、深度がk1以下かつ最大の仮説平面と、深度がk1以上かつ最小の仮説平面を特定する。
補間部334は、特定された仮説平面においてサンプル点p1(i1,j1,k1)に近接する座標を特定する。特定される座標は、左右方向がi1以下かつ最大であるとともに上下方向がj1以下かつ最大である座標、左右方向がi1以下かつ最大であるとともに上下方向がj1以上かつ最小である座標などである。
補間部334は、例えば3軸線形補間(trilinear interpolation)により、仮説平面においてサンプル点p1(i1,j1,k1)に近接する座標に関連づけられた特徴量を用いてサンプル点p1(i1,j1,k1)に対応する特徴量を補間する。
算出部335は、補間された複数のサンプル点に対応する各特徴量を識別器C2に入力することで、当該サンプル点に対応する占有確率を算出する。占有確率は、コストボリュームCVの範囲に含まれる座標が対象物OBJの内部となる確率である。識別器C2は、コストボリュームCVに配置された複数の仮説平面のうちいずれかの仮説平面上のいずれかの座標に対応する特徴量に応じて占有確率を出力するよう学習されている。識別器C2の学習については後述する。
識別器C2は、例えば多層パーセプトロンのような、すべての入力値がすべての出力値に結合された全結合層を有する全結合型ニューラルネットワークにより構成することができる。
算出部335は、複数のサンプル点のそれぞれに対応する占有確率を、当該サンプル点に隣接する一対のサンプル点の間隔(ビンサイズ)が大きいほど重みが大きくなるように重みづけしてもよい。このように重みづけすることで、ECU3は、等間隔で設定されていないサンプル点に対応する占有確率を適切に取り扱うことができる。
算出部335は、左方周辺カメラ2-1の位置からの距離が昇順となるように設定された複数のサンプル点のうちサンプル点piに対応する占有確率を、以下の式(1)により求められるビンサイズbiを用いて、以下の式(2)により重みづけする。
Figure 0007501481000001
式(1)において、diは左方周辺カメラ2-1の配置される位置からサンプル点piまでの距離を表す。式(2)において、f(pi)はサンプル点piに対応して識別器C2により出力される占有確率を表す。
複数のサンプル点が等間隔に設定されている場合、識別器C2により出力される占有確率にソフトマックス関数を適用することで、サンプル点の占有確率の合計が1となるように調整してもよい。
推定部336は、複数のサンプル点のそれぞれに対応する占有確率と当該サンプル点の左方周辺カメラ2-1の配置される位置からの距離との積を加算した値を、左方周辺カメラ2-1の配置される位置から対象画素Tに表された対象物OBJの表面までの推定距離として出力する。
識別器C2の学習は、表わされた対象物の深度の真値が関連づけられた教師画素を有する教師リファレンス画像と、教師リファレンス画像とは異なる視点から当該対象物を撮影することにより生成された教師ソース画像とを教師データとして用いて、誤差逆伝搬法といった所定の手法に従って行われる。
教師リファレンス画像に平行に配置された仮説平面に、教師ソース画像から抽出された教師ソース特徴マップを射影することで、教師コストボリュームが生成される。
教師リファレンス画像の視点と教師リファレンス画像に含まれる教師画素とを通る教師サンプリング直線上に、複数の教師サンプル点が設定される。
複数の教師サンプル点は、教師サンプリング直線において教師画素に関連づけられた深度に近いほど間隔が密となるように設定されることが好ましい。例えば、まず、教師画素に関連づけられた深度に対応する点、および、予め定められた最近傍面および最遠隔面の間に均一に、教師サンプル点として所定数の初期教師サンプル点が設定される。そして、隣接する初期教師サンプル点により区画されたビンのそれぞれに、教師サンプル点として、所定の階層教師サンプル点数に当該ビンが対象物の表面を含む可能性を乗じた数の階層教師サンプル点が設定される。
学習段階において、識別器C2は、教師サンプリング直線上に設定された各教師サンプル点についての占有確率を求める。また、学習段階において、識別器C2は、教師リファレンス画像の視点から各教師サンプル点までのそれぞれの距離を当該教師サンプル点に対応する占有確率に乗じてそれぞれを加算することで、教師リファレンス画像の視点から教師画素までの距離(深度)を推定する。
識別器C2は、教師サンプル点における特徴量の入力に応じた占有確率(0から1)と、教師画素に関連づけられた深度(真値)と教師サンプル点の座標から算出される占有状態との差が小さくなるように学習される。占有状態は、0の場合教師サンプル点の座標が深度により表される対象物の表面よりも視点に近い(すなわち対象物の外側にある)ことを表し、1の場合教師サンプル点の座標が対象物の表面よりも視点から遠い(すなわち対象物の外側にある)ことを表す。識別器C2の学習には、以下の式(3)に示す誤差関数を用いることが好ましい。
Figure 0007501481000002
式(3)において、Ldepthは推定された深度と教師画素に関連づけられた深度(真値)との誤差を表す。また、式(1)において、Loccは以下の式(4)に示すように推定された占有確率と教師サンプル点における占有確率(真値)との誤差を表す。式(3)によると、識別器は、推定された深度と教師画素に関連づけられた深度(真値)との差が小さく、かつ、推定された占有確率と教師サンプル点における占有状態(真値)との差が小さくなるように学習される。λdepthおよびλoccは学習効果を適切に制御するためのハイパーパラメータであり、例えば(λdepth, λocc)を(1e-3, 1)のように設定した上でLを1e5倍することで数的安定性を得ることができる。
Figure 0007501481000003
式(4)において、Nsは教師サンプル点の数であり、CEは交差エントロピー関数である。s(pi)は教師サンプル点piにおける占有状態を示し、1から、それぞれの教師サンプル点の深度と教師画素に関連づけられた深度(真値)との差の絶対値を、占有状態の範囲を制御するためのハイパーパラメータで除した値を減じた値(最小値は0)である。s(pi)は、教師サンプル点piの深度が真値の深度に近いときに1に近づき、遠いときに0に近づく。
式(4)において、f(pi)は教師サンプル点piについて識別器C2が出力する占有確率を表す。また、式(4)において、σ()はシグモイド関数であり、γはLocc(占有損失)とLdepth(深度損失)との間のスケール差異を調整するための学習可能なスカラー値である。
識別器C2の学習においては、教師画素における教師対象物の深度の推定にあたり、教師画素ごとに設定された値を用いて、複数の教師サンプル点の座標の値が変更されていてもよい。例えば、教師画素(x, y, z)の深度の推論にあたり、当該教師画素を通る教師サンプリング直線上に設定された教師サンプル点の座標(xi, yi, zi)は、教師画素(x, y, z)について設定された値(xa, ya, za)を用いて(xi+xa, yi+ya, zi+za)のように変更される。識別器C2に入力される教師サンプル点の座標の値を変更することで、識別器C2における過学習を防止することができる。
図5は距離推定処理のフローチャートである。ECU3は、リファレンス画像PRおよびソース画像PSの入力に応じて距離推定処理を実行する。
ECU3の抽出部331は、リファレンス画像PRからリファレンス特徴マップFMRを抽出するとともに、1以上のソース画像PSのそれぞれからソース特徴マップFMSを抽出する(ステップS1)。
次に、ECU3の生成部332は、仮説的に配置される複数の仮説平面上にソース特徴マップFMSを射影することによりコストボリュームCVを生成する(ステップS2)。
次に、ECU3の設定部333は、左方周辺カメラ2-1の配置される位置からリファレンス画像PRに含まれる複数の画素のうちいずれかの対象画素に相当する方向に向かう直線の上に、複数のサンプル点を設定する(ステップS3)。
次に、ECU3の補間部334は、複数のサンプル点のそれぞれに対応する特徴量を、コストボリュームCVにおいて、複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間する(ステップS4)
次に、ECU3の算出部335は、補間された複数のサンプル点に対応する各特徴量を識別器C2に入力することで、当該サンプル点に対応する占有確率を算出する(ステップS5)。
そして、ECU3の推定部336は、複数のサンプル点のそれぞれに対応する占有確率と当該サンプル点の左方周辺カメラ2-1の配置される位置からの距離との積を加算することで、左方周辺カメラ2-1の配置される位置から対象物の表面までの距離を推定し(ステップS6)、距離推定処理を終了する。
このように距離推定処理を実行することにより、ECU3は、対象物を含む空間を、対象物に対応するボクセルによらず、ニューラルネットワークとして取り扱う。そのため、ECU3は、比較的少ないメモリ容量でも複雑な形状を有する対象物までの距離を適切に推定することができる。
ECU3は、異なる時刻に距離推定処理を実行し、それぞれの時刻における対象物の表面までの距離を推定する。ECU3は、車両1に搭載されたGNSS(Global Navigation Satellite System)受信機(不図示)により複数の時刻に受信された測位信号に基づいて、それぞれの時刻における車両1の位置を特定する。ECU3は、特定された車両1の位置と、推定された対象物の表面までの距離と、周辺カメラ2の設置される位置と、周辺カメラ2の結像光学系の方向および焦点距離とに基づいて、それぞれの時刻における対象物の位置を推定する。ECU3は、複数の時刻における対象物の位置から当該複数の時刻の間隔における対象物の移動速度を算出し、複数の時刻のうち後の時刻よりも将来における対象物の位置を予測する。ECU3は、将来における車両1と対象物との距離が所定の距離閾値を下回らないように車両1の走行経路を作成し、車両1の走行機構(不図示)に制御信号を出力する。走行機構には、例えば車両1を加速させるエンジンまたはモータ、車両1を減速させるブレーキ、および車両1を操舵するステアリング機構が含まれる。
上述した車両1の走行制御は、本開示の距離推定処理により推定された対象物までの距離の利用の一例であり、その他の処理にも利用することができる。また、距離推定装置は車両に搭載されていなくてもよく、車両の周辺に存在する物体以外の対象物までの距離の推定に用いられてもよい。
当業者は、本発明の精神および範囲から外れることなく、種々の変更、置換および修正をこれに加えることが可能であることを理解されたい。
1 車両
3 ECU
331 抽出部
332 生成部
333 設定部
334 補間部
335 算出部
336 推定部

Claims (8)

  1. 所定のリファレンス位置から対象物を撮影するリファレンス撮像部により生成されたリファレンス画像から前記リファレンス画像に含まれる各画素に対応する特徴量を表すリファレンス特徴マップを抽出するとともに、前記リファレンス位置とは異なる位置から前記対象物を撮影する1以上のソース撮像部のそれぞれにより生成されたソース画像のそれぞれから、当該ソース画像に含まれる各画素の特徴量を表すソース特徴マップを抽出する抽出部と、
    前記リファレンス特徴マップにおいて前記リファレンス画像に含まれる各画素に対応する特徴量を、前記リファレンス撮像部の像面を前記リファレンス撮像部の光軸方向に移動させたときの当該像面に対応する画像の各画素に対応するように変換することにより仮説的に配置される複数の仮説平面上に前記ソース特徴マップを射影することで、前記複数の仮説平面上の座標に特徴量が関連づけられたコストボリュームを生成する生成部と、
    前記コストボリュームにおいて、前記リファレンス位置から前記リファレンス画像に含まれる複数の画素のうちいずれかの対象画素に相当する方向に向かう直線の上に複数のサンプル点を設定する設定部と、
    前記複数のサンプル点のそれぞれに対応する特徴量を、前記コストボリュームにおいて、前記複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間する補間部と、
    補間された前記複数のサンプル点に対応する各特徴量を、前記複数の仮説平面のうちいずれかの仮説平面上のいずれかの座標に対応する特徴量に応じて当該座標が前記対象物の内部となる確率を表す占有確率を出力するよう学習された識別器に入力することで、当該サンプル点に対応する前記占有確率を算出する算出部と、
    前記複数のサンプル点のそれぞれに対応する前記占有確率と当該サンプル点の前記リファレンス位置からの距離との積を加算することで、前記リファレンス位置から前記対象物の表面までの距離を推定する推定部と、
    を備える距離推定装置。
  2. 前記算出部は、複数のサンプル点のそれぞれに対応する占有確率を、当該サンプル点に隣接する一対のサンプル点の間隔が大きいほど重みが大きくなるように重みづけする、請求項1に記載の距離推定装置。
  3. 前記識別器は、教師対象物が表された教師リファレンス画像、および、前記教師対象物が表され、前記教師リファレンス画像の視点とは異なる視点を有する教師ソース画像を含む教師データを用いて生成された教師コストボリュームにおいて、前記教師リファレンス画像の視点から前記教師リファレンス画像に含まれる複数の画素のうち表された前記教師対象物の深度が関連づけられた教師画素に相当する方向に向かう教師サンプリング直線の上に設定された複数の教師サンプル点について推定される占有確率と、前記教師画素に関連づけられた深度から算出される占有状態との差が小さくなるように学習される、請求項1または2に記載の距離推定装置。
  4. 前記複数の教師サンプル点は、前記教師画素に関連づけられた深度に近いほど間隔が密となるように設定される、請求項3に記載の距離推定装置。
  5. 前記識別器は、前記複数の教師サンプル点について推定される前記占有確率と、前記教師画素の前記占有状態との差が小さくなるように学習されるとともに、前記複数の教師サンプル点について推定される占有確率から算出される前記教師対象物の深度と当該教師画素に関連づけられた深度との差が小さくなるように学習される、請求項3または4に記載の距離推定装置。
  6. 前記識別器は、座標の値が前記教師画素ごとに設定される値を用いて変更された前記複数の教師サンプル点について推定される前記占有確率を用いて学習される、請求項3-5のいずれか一項に記載の距離推定装置。
  7. 所定のリファレンス位置から対象物を撮影するリファレンス撮像部により生成されたリファレンス画像から前記リファレンス画像に含まれる各画素に対応する特徴量を表すリファレンス特徴マップを抽出するとともに、前記リファレンス位置とは異なる位置から前記対象物を撮影する1以上のソース撮像部のそれぞれにより生成されたソース画像のそれぞれから、当該ソース画像に含まれる各画素の特徴量を表すソース特徴マップを抽出し、
    前記リファレンス特徴マップにおいて前記リファレンス画像に含まれる各画素に対応する特徴量を、前記リファレンス撮像部の像面を前記リファレンス撮像部の光軸方向に移動させたときの当該像面に対応する画像の各画素に対応するように変換することにより仮説的に配置される複数の仮説平面上に前記ソース特徴マップを射影することで、前記複数の仮説平面上の座標に特徴量が関連づけられたコストボリュームを生成し、
    前記コストボリュームにおいて、前記リファレンス位置から前記リファレンス画像に含まれる複数の画素のうちいずれかの対象画素に相当する方向に向かう直線の上に複数のサンプル点を設定し、
    前記複数のサンプル点のそれぞれに対応する特徴量を、前記コストボリュームにおいて、前記複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間し、
    補間された前記複数のサンプル点に対応する各特徴量を、前記複数の仮説平面のうちいずれかの仮説平面上のいずれかの座標に対応する特徴量に応じて当該座標が前記対象物の内部となる確率を表す占有確率を出力するよう学習された識別器に入力することで、当該サンプル点に対応する前記占有確率を算出し、
    前記複数のサンプル点のそれぞれに対応する前記占有確率と当該サンプル点の前記リファレンス位置からの距離との積を加算することで、前記リファレンス位置から前記対象物の表面までの距離を推定する、
    ことを含む距離推定方法。
  8. 所定のリファレンス位置から対象物を撮影するリファレンス撮像部により生成されたリファレンス画像から前記リファレンス画像に含まれる各画素に対応する特徴量を表すリファレンス特徴マップを抽出するとともに、前記リファレンス位置とは異なる位置から前記対象物を撮影する1以上のソース撮像部のそれぞれにより生成されたソース画像のそれぞれから、当該ソース画像に含まれる各画素の特徴量を表すソース特徴マップを抽出し、
    前記リファレンス特徴マップにおいて前記リファレンス画像に含まれる各画素に対応する特徴量を、前記リファレンス撮像部の像面を前記リファレンス撮像部の光軸方向に移動させたときの当該像面に対応する画像の各画素に対応するように変換することにより仮説的に配置される複数の仮説平面上に前記ソース特徴マップを射影することで、前記複数の仮説平面上の座標に特徴量が関連づけられたコストボリュームを生成し、
    前記コストボリュームにおいて、前記リファレンス位置から前記リファレンス画像に含まれる複数の画素のうちいずれかの対象画素に相当する方向に向かう直線の上に複数のサンプル点を設定し、
    前記複数のサンプル点のそれぞれに対応する特徴量を、前記コストボリュームにおいて、前記複数の仮説平面のうち当該サンプル点の近傍に配置された仮説平面上の、当該サンプル点の近傍の座標に関連づけられた特徴量を用いて補間し、
    補間された前記複数のサンプル点に対応する各特徴量を、前記複数の仮説平面のうちいずれかの仮説平面上のいずれかの座標に対応する特徴量に応じて当該座標が前記対象物の内部となる確率を表す占有確率を出力するよう学習された識別器に入力することで、当該サンプル点に対応する前記占有確率を算出し、
    前記複数のサンプル点のそれぞれに対応する前記占有確率と当該サンプル点の前記リファレンス位置からの距離との積を加算することで、前記リファレンス位置から前記対象物の表面までの距離を推定する、
    ことをコンピュータのプロセッサに実行させる距離推定用コンピュータプログラム。
JP2021156991A 2021-09-27 2021-09-27 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム Active JP7501481B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021156991A JP7501481B2 (ja) 2021-09-27 2021-09-27 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム
US17/930,826 US12243262B2 (en) 2021-09-27 2022-09-09 Apparatus and method for estimating distance and non-transitory computer-readable medium containing computer program for estimating distance
CN202211173872.9A CN115880215B (zh) 2021-09-27 2022-09-26 距离推定装置、距离推定方法和保存有距离推定用计算机程序的非瞬时性的计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021156991A JP7501481B2 (ja) 2021-09-27 2021-09-27 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2023047846A JP2023047846A (ja) 2023-04-06
JP7501481B2 true JP7501481B2 (ja) 2024-06-18

Family

ID=85721731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021156991A Active JP7501481B2 (ja) 2021-09-27 2021-09-27 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム

Country Status (3)

Country Link
US (1) US12243262B2 (ja)
JP (1) JP7501481B2 (ja)
CN (1) CN115880215B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7501481B2 (ja) * 2021-09-27 2024-06-18 トヨタ自動車株式会社 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020028114A (ja) 2018-08-10 2020-02-20 日本放送協会 立体画像生成装置及びそのプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195132A (ja) * 1997-10-31 1999-07-21 Hewlett Packard Co <Hp> テクスチャマッピング用バッファ、3次元グラフィクス処理装置、3次元グラフィクス処理システム、3次元グラフィクス処理方法および処理プログラムが記憶された記憶媒体
US6856314B2 (en) 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
KR100955483B1 (ko) 2008-08-12 2010-04-30 삼성전자주식회사 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법
WO2014050827A1 (ja) * 2012-09-25 2014-04-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP2019185283A (ja) * 2018-04-06 2019-10-24 日本放送協会 3次元モデル生成装置及びそのプログラム、並びに、ip立体像表示システム
CN110458755B (zh) * 2018-05-07 2023-01-13 华为技术有限公司 图像处理方法、相关设备及计算机存储介质
JP7195785B2 (ja) 2018-06-29 2022-12-26 キヤノン株式会社 3次元形状データを生成する装置、方法、及びプログラム
CN110160502B (zh) * 2018-10-12 2022-04-01 腾讯科技(深圳)有限公司 地图要素提取方法、装置及服务器
US10949684B2 (en) * 2019-05-08 2021-03-16 Ford Global Technologies, Llc Vehicle image verification
KR20210025942A (ko) * 2019-08-28 2021-03-10 성균관대학교산학협력단 종단간 컨볼루셔널 뉴럴 네트워크를 이용한 스테레오 매칭 방법
US11120280B2 (en) * 2019-11-15 2021-09-14 Argo AI, LLC Geometry-aware instance segmentation in stereo image capture processes
TWI759651B (zh) * 2019-11-21 2022-04-01 財團法人工業技術研究院 基於機器學習的物件辨識系統及其方法
US11462030B2 (en) * 2020-05-11 2022-10-04 Caterpillar Inc. Method and system for detecting a pile
CN113096174A (zh) * 2021-03-24 2021-07-09 苏州中科广视文化科技有限公司 一种基于多平面扫描的端到端网络的多视点场景重建方法
JP7501481B2 (ja) * 2021-09-27 2024-06-18 トヨタ自動車株式会社 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム
US12552040B2 (en) * 2022-06-13 2026-02-17 Toyota Research Institute, Inc. System and method for unknown object manipulation from pure synthetic stereo data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020028114A (ja) 2018-08-10 2020-02-20 日本放送協会 立体画像生成装置及びそのプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yang Hong et al.,StereoPIFu: Depth Aware Clothed Human Digitization via Stereo Vision,2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2021年06月25日,pp.1-11,https://ieeexplore.ieee.org/document/9577346

Also Published As

Publication number Publication date
JP2023047846A (ja) 2023-04-06
US12243262B2 (en) 2025-03-04
CN115880215A (zh) 2023-03-31
US20230102186A1 (en) 2023-03-30
CN115880215B (zh) 2025-09-19

Similar Documents

Publication Publication Date Title
US11734918B2 (en) Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus
CN112292711B (zh) 关联lidar数据和图像数据
CN111223135B (zh) 通过使用雷达和运动数据的单目相机来增强距离估计的系统和方法
EP3510561B1 (en) Predicting depth from image data using a statistical model
JP7556142B2 (ja) 点群からの効率的な三次元物体検出
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
CN112889071B (zh) 用于确定二维图像中深度信息的系统和方法
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
CN107038723B (zh) 棒状像素估计方法和系统
US11443151B2 (en) Driving assistant system, electronic device, and operation method thereof
US20140071240A1 (en) Free space detection system and method for a vehicle using stereo vision
KR20220014678A (ko) 영상의 깊이를 추정하는 방법 및 장치
Giering et al. Multi-modal sensor registration for vehicle perception via deep neural networks
CN114155414A (zh) 面向无人驾驶的新型特征层数据融合的方法、系统及目标检测方法
JP2020122754A (ja) 3次元位置推定装置及びプログラム
JP7501481B2 (ja) 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム
CN117576199A (zh) 一种驾驶场景视觉重建方法、装置、设备及介质
WO2020018140A1 (en) Ballistic estimnation of vehicle data
Harisankar et al. Unsupervised depth estimation from monocular images for autonomous vehicles
CN111192306A (zh) 用于视差估计的系统及用于系统的视差估计的方法
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
CN114919584A (zh) 机动车定点目标测距方法、装置及计算机可读存储介质
CN119672479A (zh) 一种基于深度特征细化的多模态三维目标检测方法、系统及存储介质
KR20250132262A (ko) 차량 제어 장치 및 그 방법
CN119169073A (zh) 一种锚孔定位方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240520

R150 Certificate of patent or registration of utility model

Ref document number: 7501481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150