JP2020502685A - パッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法 - Google Patents

パッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法 Download PDF

Info

Publication number
JP2020502685A
JP2020502685A JP2019533234A JP2019533234A JP2020502685A JP 2020502685 A JP2020502685 A JP 2020502685A JP 2019533234 A JP2019533234 A JP 2019533234A JP 2019533234 A JP2019533234 A JP 2019533234A JP 2020502685 A JP2020502685 A JP 2020502685A
Authority
JP
Japan
Prior art keywords
electronic device
cluster
data
sensor
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019533234A
Other languages
English (en)
Inventor
ビグナード,ニコラス
カノ,ビクター・ロメロ
ラウジエ,クリスチャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Europe NV SA
Original Assignee
Toyota Motor Europe NV SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Europe NV SA filed Critical Toyota Motor Europe NV SA
Publication of JP2020502685A publication Critical patent/JP2020502685A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、パッシブ光学センサの画像データを増大させるための車両のための電子デバイス(1)に関する。電子デバイスは、・パッシブ光学センサの第1の画像データを受信するように構成され、第1の画像データは、画像平面内の複数のピクセルを備え、電子デバイスはさらに、・アクティブセンサの第2のデータを受信するように構成され、パッシブ光学センサおよびアクティブセンサは、車両の外側の同じシーンを検知し、アクティブセンサは、シーン上に分布された複数のスキャン領域を備え、第2のデータは、返されたスキャン領域内の測定値を備え、方法はさらに、・返されたスキャン領域の分布に基づき少なくとも1つのクラスタを識別し、・画像平面上へとクラスタを投影し、・画像平面内に投影されたクラスタと一致するピクセルを識別し、・識別されたピクセルを一致するクラスタの第2のデータと関連付けるように構成される。本発明はさらに、システムおよび方法に関する。

Description

開示の分野
本開示は、パッシブ光学センサの画像データを増大させるための車両のための電子デバイス、システムおよび方法に関する。
開示の背景
近年の車両は、衝突警告または回避およびその他のアクティブな安全用途を可能とするために使用される物体検出アルゴリズムを含む。そのようなインテリジェント車両は、すべての種類の天候においてその周囲のシーンを認知し、認識しなければならない。この目的は、それがあらゆる環境条件に煩わされることなくあらゆる障害を検出することを要する。障害を検出するために、環境は、センサを通して認知される。シーンの高い理解は、障害を検出するためのカメラ空間情報を要する。しかし、雨、霧または雪といった難しい天候は、認知される画像を劣化させ得る。
いくつかの種類のセンサを使用し、アクティブおよびパッシブセンサを組み合わせることが提示されてきた。アクティブセンサ(ライダ、レーダ・・・)およびパッシブセンサ(カメラ、慣性センサ)を有するアーキテクチャを導入することは、シーンの認知を向上させることができる。たとえば、霧内で、カメラは、近い障害を認知することができる一方、ライダは、遠い物体を検出することができる。したがって、認知は、センサからの測定を収集すること、そしてこの情報を環境のレイアウトおよびそこにおける物体の両方についての知識を生成するために処理することによって行われることができる。
たとえばカメラといったパッシブセンサは、安価であり、密集し豊富な外観情報を提供する。しかし、それらが提供する画像情報は、環境の変化に非常に敏感であり、そのような画像情報を処理するときに現在のコンピュータビジョンアルゴリズムは、パフォーマンス降下に煩わされる。わずかな雨または晴天でさえも、これらのアルゴリズムは、障害を検出するための問題を抱えている。
他方、レーザといったアクティブセンサは、より疎な深度および方位測定を提供する。レーザによって生成された点群またはカメラによって記録された画像は、都市環境内の汎用物体を検出するために広範囲に使用されている。
ライダおよびカメラデータ内の汎用物体検出はそれぞれ、たとえば以下のいくつかの研究によって提示されている。
R. Kaestner, J. Maye, Y. Pilat, and R. Siegwart. Generative object detection and tracking in 3D range data. IEEE International Conference on Robotics and Automation (ICRA), pages 3075-3081, may 2012,
X. Wang, M. Yang, S. Zhu, and Y. Lin. Regionlets, generic object detection. International Conference on Computer Vision (ICCV), 2013.
高いレベルにおいて、これらの方法は、センサデータを環境内の物体に個々に対応するグループへとクラスタ化する。これらの1センサモダリティに基づく方法は一般に、最先端の性能を有するが、それらが利用する個々のセンサによって提供されるデータの有用性を制限する悪い環境条件が存在する。たとえば浮遊粉塵は、深度測定におけるノイズをかなり増加し得、一方、照明の変動は、画像のいくつかの部分を過度に明るくしまたは過度に暗くし、したがって使用できないようにし得る。
マルチセンサデータ融合は、全天候条件認知を達成するための有望な方法である。それは、車両、すなわちロボティックなシステムが、所与のセンサモダリティの弱点を別の補完的なものの強度を使用することによって補償することを可能とする。センサ融合方法は、融合が行われる抽象化のレベルに従い分類されることができ、R. C. Luo, C.-C. Yih, and K. L. Su. Multisensor fusion and integration: approaches, applications, and future research directions; IEEE Sensors Journal, 2(2):107-119, 2002によって説明される。
高いレベルの融合方法は、各センサモダリティを独立に使用して推定を行い、そしてこれらの推定融合にデータ関連付け問題としてアプローチする。これらのアプローチは、各センサモダリティのための独立推定機構を要し、これは、各センサモダリティを複雑に重畳させるだけでなく、融合プロセスのための価値があり得る生の情報を無視する。
たとえば、V. Romero-Cano, G. Agamennoni, and J. Nieto. A variational approach to simultaneous multi-object tracking and classification; the International Journal of Robotics Research (IJRR), 35(6):654-671, 2015.のように、すべての検知モダリティからの生の測定が融合プロセスにおいて考慮されるより低いレベルのデータ表現を利用するいくつもの推定フレームワークが増えている。この研究では、統合された音波法を用いてすべてのセンサモダリティを一度に処理するために、ピクセル毎外観および幾何特徴に基づき、マルチモーダルモーション検出、セマンテックセグメンテーションおよびセンサキャリブレーションそれぞれを行うことが提示されている。そのようなアプローチは、センサ測定が測定されたシーンを高く密集して覆うことを要する。したがって、統合された認識方法によって最終的に処理されることができる一般のおよび密集した表現へと生のセンサデータを変換する低レベルまたはピクセルレベルマルチモーダル融合方法の必要性が存在する。
文献において、非パラメトリックまたはエネルギに基づくアプローチを使用してこの低レベル融合問題にアプローチする、以下に例示するようないくつかの研究が存在する。
M. P. Gerardo-Castro, T. Peynot, F. Ramos, and R. Fitch. Non- Parametric Consistency Test for Multiple-Sensing-Modality Data Fusion; IEEE International Conference on Information Fusion (FUSION), pages 443-451, 2015,
P. Pinies, L. M. Paz, and P. Newman. Too Much TV is Bad: Dense Reconstruction from Sparse Laser with Non-convex Regularisation; IEEE International Conference on Robotics and Automation (ICRA), 2015.
しかし、これらのアプローチは、すべてのセンサモダリティが同様に密集していることを要する。
車両上の複数のライダセンサからの出力を融合するためのさらに他のシステムが、US2013242284(A1)から知られる。システムは、レーダセンサおよび/またはビジョンシステムによって検出される物体に応じて融合プロセスをキュー化することを含む。
開示の概要
現在、センサデータ融合が任意のセンサのシーンカバレッジとは独立であり、アクティブセンサデータを用いてパッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法を提供することが、依然として望ましい。
したがって、提示される開示の実施形態に従い、パッシブ光学センサの画像データを増大させるための(特に車両のための)電子デバイスが提供される。電子デバイスは、
−パッシブ光学センサの第1の画像データを受信するように構成され、第1の画像データは、画像平面内の複数のピクセルを備え、電子デバイスはさらに、
−アクティブセンサの第2のデータを受信するように構成され、パッシブ光学センサおよびアクティブセンサは、同じシーンを検知し(特に車両外側)、アクティブセンサは、シーン上に分布された複数のスキャン領域を備え、第2のデータは、返されたスキャン領域内の測定値を備え、電子デバイスはさらに、
−返されたスキャン領域の分布に基づき少なくとも1つのクラスタを識別し、
−画像平面上へとクラスタを投影し、
−画像平面内に投影されたクラスタと一致するピクセルを識別し、
−上記識別されたピクセルを一致するクラスタの第2のデータと関連付けるように構成される。
そのような電子デバイスを提供することによって、ピクセル空間内の低レベルマルチセンサデータ融合が得られることができる。第2のデータは望ましくは、返されたスキャン領域のみにおける、すなわちアクティブセンサによって送出されたスキャン信号を物体が反射したシーンの位置における測定値を備える。そのような位置は、物体を望ましく提示するクラスタを一緒に形成し得る。その結果、一致するピクセルのみ(すなわちクラスタ境界内)が、第2のデータと望ましく関連付けられる。換言すると、その他のピクセル(すなわちクラスタ境界外)は、第2のデータと望ましく関連付けられない。
たとえばレーザをスキャン信号として使用することによって、スキャン領域は、可能な限り点に制限され得る。換言すると、スキャン領域は、スキャン点であり得る。
それゆえ、電子デバイスは、任意のセンサのシーンカバレッジとは独立である。したがって、各ピクセルがたとえば色だけでなくたとえば深度および物体IDといったその他の低レベル特徴も含む、新たな画像様データ表現は、達成されることができる。
クラスタを識別するために、スキャン領域リターン(すなわち返されたスキャン領域)は、潜在的に個々のクラスタに対応し得る(シーンにおいて検出される物体と対応し得る)コヒーレントセグメントへとグループ化され得る。この段階は、クラスタ(物体)仮説生成とも称されることができる。
電子デバイスはさらに、第2のデータの座標系が第1の画像データの座標系と一致するようにそれを変換することによって、第2のデータを画像平面上へと投影するよう構成され得る。
したがって、スキャン領域は、画像平面上へと投影され得、これにより、深度情報(および第2のデータによって含まれるさらに他の情報)は、電子デバイスが最適に動作するためにいくつかのピクセルに対して利用される。この目的のために、センサは、車両と望ましくは正しく整列される。たとえば、実際にはホスト車両の経路内にある物体をセンサが検出したが、センサの誤整列により物体がホスト車両の経路のわずかに左にあるとセンサが決定した場合、これは、電子デバイスに対する重大な結果を有し得る。車両上に前方監視センサが複数存在する場合であっても、競合するセンサ読込みを最小化しまたは除去するように、それらがすべて正しく整列されることが望ましい。換言するとセンサのキャリブレーションが望まれる。
電子デバイスはさらに、各クラスタに対してクラスタ内の返されたスキャン領域における測定値に基づき状態情報の組を決定するよう構成され得、状態情報の組のうちの少なくとも1つは、クラスタの距離、大きさ、および/または速度を含む。
クラスタは、占有グリッドマッピングアルゴリズムによって決定され得る。
各関連付けられたピクセルは、関連付けられたクラスタの画像情報および状態情報を備え得、一方クラスタと関連付けられていない各ピクセルは、画像情報のみを備え得る。
電子デバイスはさらに、
−第1の画像データをスーパーピクセルの組へと分解するよう構成され得、スーパーピクセルは、複数の隣接するピクセルを備え、電子デバイスはさらに、
−隣接するスーパーピクセルを一致するクラスタと関連付けることによって画像平面内の対象の物体を規定するよう構成され得る。
したがって、シーン内の局所的に均質な領域は、スーパーピクセルセグメンテーションによって決定され得る。さらに、画像平面内の対象の物体は、同じクラスタと一致する隣接するスーパーピクセルを組み合わせることによって規定され得る。したがって、クラスタ(物体)仮説とスーパーピクセルとの間のマッピングが提供され得る。このマッピングは、スキャン領域から得られたクラスタ(物体)仮説と関連付けられることができる画像空間内のピクセルを表現し得る。対象の物体は、シーン内で認識された任意の物体、たとえば別の車両であり得る。
スーパーピクセルは、同様の色分布を有する隣接するピクセルを識別することによっておよび/または第1の画像データ内のエッジ識別することによって、特に単純線形反復クラスタリング(SLIC)アルゴリズムを使用することによって決定され得る。
単純線形反復クラスタリング(SLIC)は、k平均クラスタ化に基づき、画像を視覚的に均質の領域またはいわゆるスーパーピクセルの規則的グリッドへと分解するための比較的単純かつ並列化可能な方法であり、R. Achanta, A. Shaji, K. Smith, A. Lucchi, P. Fua, and S. Susstrunk. SLIC superpixels compared to state-of-the-art superpixel methods. IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 34(11):2274-2281, 2012.などに説明される。
結果として、SLICスーパーピクセルは、空間的におよび色空間内の両方で画像ピクセルの距離に従い、画像ピクセルの規則的グルーピングを望ましく提供する。
電子デバイスは、スーパーピクセル、特にスーパーピクセルの各ピクセルを、一致するクラスタの第2のデータと、特に一致するクラスタの状態情報の組と関連付けるようさらに構成され得る。
したがって、スーパーピクセルガイド外挿は、投影された第2のデータを、たとえば(クラスタ化されたスキャン領域を画像上へと投影することによって得られた)深度値を、近くのピクセルに割り当てるために実行され得る。これらの近くのピクセルは、投影された点に割り当てられたスーパーピクセルによって規定され得る。たとえば、比較的単純な内挿/外挿において、同じ深度は、スーパーピクセル内のすべてのピクセルに割り当てられる。
電子デバイスは、対象の物体の物体外観モデルを作成するようさらに構成され得、外観モデルは、対象の物体の色分布に対する推定を表す。
したがって、セグメンテーション初期化において、各クラスタ(物体仮説)に対して、スーパーピクセルは、深度値を割り当てられ得る。たとえばクラスタ(物体)仮説の色分布全体のための初期的推測を提示するガウシアン混合モデル(GMM)は、作成され得る。
電子デバイスは、対象の物体を取り囲んでいるスーパーピクセルに基づき背景外観モデルを作成するようさらに構成され得、背景外観モデルは、シーン内の背景の色分布に対する推定を表す。
したがって、取り囲んでいるスーパーピクセルはまた、背景モデルとして使用されるGMMを作成するために使用され得る。
電子デバイスは、対象の物体の物体外観モデルおよび/または背景外観モデルに基づき、特にエネルギ最小化法を使用することによって、たとえばグラフカットアルゴリズムを使用することによって、対象の物体の境界を再規定するようさらに構成され得る。
したがって、画像空間内の自己監視型(self-supervised)物体セグメンテーション深度高密集化は、実行され得る。そうするために、初期物体および背景モデルは、使用され得る。さらに、初期スーパーピクセルに基づくセグメンテーションを拡張し、精緻化するために、グラフカットアルゴリズムは、それらに適用され得る。
電子デバイスは、再規定された対象の物体の各ピクセルを、対象の物体の第2のデータと、特に対象の物体の状態情報の組と関連付けるようさらに構成され得る。
したがって、グローバル特徴高密集化は、実行され得る。そうするために、各クラスタ(物体仮説)に対してスーパーピクセルに基づく高密集化からの第2のデータ(たとえば深度値)は、以前のステップにおいて得られたグラフカットセグメンテーションによって提供される輪郭全体を覆うためにさらに拡張され得る。
パッシブ光学センサは、デジタルカメラであり得る。
カメラセンサは、歩行者、車、信号機、交通標識等といった物体を検出し得る。デジタルカメラは、比較的密集したデータ(ピクセル空間)、色および物体の外観を提供し得る。この情報は、車両の周囲のシーンを理解するのに望ましい。しかし、このセンサは、光にしばしば依存するので、晴天(過露出ピクセル)、夜(露出不足ピクセル)、雨(雨滴)の影響を受ける。
アクティブセンサは、レーダまたはアクティブ光学センサ、特にレーザセンサおよび/またはライダセンサであり得る。
ライダセンサは、物体を検出し得、これらの物体に対するレンジ測定を提供する。ライダセンサは、それらが追跡された物体の方位を提供することができるという理由で望ましく、これは、ビジョンシステムおよびレーダセンサといったその他の種類のセンサでは、一般に不可能である。ライダセンサの1つの種類に対して、物体からの反射は、点クラスタレンジマップの一部としてのスキャン領域として返され得る。センサの視野にわたり1/2°ごとに別のスキャン領域が提供され得る。したがって、標的車両がホスト車両の正面に検出される場合に、ホスト車両からの標的車両の距離を識別する返された複数スキャン領域が存在し得る。
本発明はさらに、パッシブ光学センサの画像データを増大させるための(特に車両ための)システムに関し、
−上述のような電子デバイスと、
−パッシブ光学センサと、
−アクティブセンサとを備え、
パッシブ光学センサおよびアクティブセンサは、同じシーン(特に車両外側)を検知するために配置される。
本発明はさらに、上述のようなシステムを備える車両に関する。しかし、本発明はまた、上述のようなシステムを備える任意のロボティックなシステムに関し得る。
最後に、本発明は、(特に車両の)パッシブ光学センサの画像データを増大させる方法にも関する。方法は、
−パッシブ光学センサの第1の画像データを受信するステップを備え、第1の画像データは画像平面内の複数のピクセルを備え、方法はさらに、
−アクティブセンサの第2のデータを受信するステップを備え、パッシブ光学センサおよびアクティブセンサは、同じシーンを検知し(特に車両外側)、アクティブセンサは、シーン上に分布された複数のスキャン領域を備え、第2のデータは、返されたスキャン領域内の測定値を備え、方法はさらに、
−返されたスキャン領域の分布に基づき少なくとも1つのクラスタを識別するステップと、
−クラスタを画像平面上へと投影するステップと、
−画像平面内に投影されたクラスタと一致するピクセルを識別するステップと、
−上記識別されたピクセルを一致するクラスタの第2のデータと関連付けるステップとを備える。
方法は、上述のような電子デバイスの機能に対応するさらに他の方法ステップを備え得る。さらに他の望ましい方法ステップは、以下に説明される。
第2のデータは、第2のデータの座標系が第1の画像データの座標系と一致するようにそれを変換することによって、画像平面上へと投影され得る。
各クラスタに対して、状態情報の組は、クラスタ内の返されたスキャン領域における測定値に基づき決定され得、状態情報の組は、クラスタの距離、大きさ、および/または速度のうちの少なくとも1つを含む。
クラスタは、占有グリッドマッピングアルゴリズムによって決定され得る。
各関連付けられたピクセルは、関連付けられたクラスタの画像情報および状態情報を備え得、一方クラスタと関連付けられていない各ピクセルは、画像情報のみを備え得る。
第1の画像データは、スーパーピクセルの組へと分解され得、スーパーピクセルは、複数の隣接するピクセルを備える。
画像平面内の対象の物体は、隣接するスーパーピクセルを一致する同じクラスタと関連付けることによって規定され得る。
スーパーピクセルは、同様の色分布を有する隣接するピクセルを識別することによっておよび/または第1の画像データ内のエッジを識別することによって、特に単純線形反復クラスタリング(SLIC)アルゴリズムを使用することによって決定され得る。
スーパーピクセル、特にスーパーピクセルの各ピクセルは、一致するクラスタの第2のデータと、特に一致するクラスタの状態情報の組と関連付けられ得る。
対象の物体の物体外観モデルは、作成され得る。外観モデルは、対象の物体の色分布のための推定を提示し得る。
背景外観モデルは、対象の物体を取り囲むスーパーピクセルに基づき作成され得る。背景外観モデルは、シーン内の背景の色分布に対する推定を提示し得る。
対象の物体の境界は、対象の物体の物体外観モデルおよび/または背景外観モデルに基づき、特にエネルギ最小化法を使用することによって、たとえばグラフカットアルゴリズムを使用することによって再規定され得る。
再規定された対象の物体の各ピクセルは、対象の物体の第2のデータと、特に対象の物体の状態情報の組と関連付けられ得る。
説明される電子デバイス、システムおよび方法は、車両だけでなく任意の種類のロボティックなシステムに適し得る。
特に矛盾しない限り、上記の要素と本明細書内の要素との組み合わせがなされ得ることが意図される。
上述の一般的な説明および以下の詳細な説明の両方は、例示的かつ説明的なものにすぎず、特許請求の範囲に記載されているように本開示を限定するものではないことを理解されたい。
本明細書に組み込まれその一部を構成する添付の図面は、本開示の実施形態をその説明と共に示し、それらの原理を説明するのに役立つ。
本開示の実施形態に従う電子デバイスを有するシステムのブロック図を示す。 本開示の実施形態に従うシステムビューによって検知される鳥瞰図内の概略的シーンを示す。 図2の鳥瞰図内のシーンの検知された生のデータ(第1のデータおよび第2のデータ)を示す。 本開示の実施形態に従いパッシブ光学センサの画像データを増大させる典型的な方法を描画する概略的フローチャートを示す。 特定例の文脈において図4の典型的な方法を概略的に描画するフローチャートを示す。 図4の典型的な方法に対応するさらに他のフローチャートを示す。
実施形態の説明
ここで、本開示の例示的な実施形態を詳細に参照するが、それらの例は、添付の図面に示されている。同じまたは類似の部分を指すために、可能な限り図面全体を通して同じ参照番号が使用される。
図1は、本開示の実施形態に従う電子デバイス1を有するシステム10のブロック図を示す。システムは、さまざまな機能を有し得、たとえばロボティックなシステムであり得る。たとえばそれは移動可能であり、たとえばそれは駆動可能な車輪を有し、それは少なくとも1つのグリッパ等の物体を回収するための手段を有し得る。それはさらに、車両100内に一体化され、またはそれを構成する。
電子デバイス1は、検知されるシーン内の物体の存在および場所を検出するためのコンピュータビジョンアルゴリズムを実行する。たとえば車両およびその他の物体は、検出され得、アプリケーションソフトウェアは、物体検出情報を使用して警告を提供する、または適切な行動を取る。電子デバイス1は、システム10および/または車両100内のさらに他の機能を追加的に実施し得る。たとえば電子デバイスは、システムの汎用ECU(電子コントロールユニット)として機能し得る。電子デバイス1は、1つまたは複数のソフトウェアプログラムを実行する電子回路、プロセッサ(共有、汎用、またはグループ)、組み合わせロジック回路、メモリ、および/または説明される機能性を提供するその他の適したコンポーネントを備え得る。換言すると、デバイス1は、コンピュータデバイスであり得る。デバイス1は、データ、たとえば実行されると本開示に従う方法を実行するコンピュータプログラムを格納し得るメモリ2に接続され得る。
電子デバイス1はさらに、パッシブ光学センサ3、特にデジタルカメラに接続される。デジタルカメラ3は、それが車両100の正面のシーンを記録することができるように構成され、特にシーンの外観(色)情報を提供するデジタルデータを出力する。
電子デバイス1はさらに、アクティブセンサ4、特にライダセンサ、レーザセンサ、超音波センサ、またはレーダセンサに接続される。アクティブセンサは、レーダまたはアクティブ光学センサ、特にレーザセンサおよび/またはライダセンサであり得る。
パッシブセンサ3およびアクティブセンサ4の出力は、電子デバイス1に送信される。望ましくは、出力は、瞬間的に、すなわちリアルタイムにまたは準リアルタイムに送信される。それゆえ、検知される物体はまた、電子デバイスによってリアルタイムにまたは準リアルタイムに認識され得る。
システム10は、システム30を一緒に形成するために外部サーバ20に追加的に接続され得る。サーバ20は、電子デバイス1によって実行されるアルゴリズムを提供するためにおよび最終的に更新するために使用され得る。デバイス1は、サーバに接続可能であり得る。たとえば電子デバイス1は、サーバ20に無線接続を介して接続され得る。代替的にまたは追加的に、電子デバイス1は、サーバ20に固定された接続を介して、たとえばケーブルを介して接続可能であり得る。
図2は、本開示の実施形態に従うシステムビューによって検知される鳥瞰図内の概略的シーンを示す。
車両100は、その正面のシーンを視野13を有するデジタルカメラ3を用いておよび視野14を有するライダセンサ4を用いてスキャンする。
カメラセンサは、歩行者、車(標的車両101)、信号機、交通標識等といった物体を検出し得る。デジタルカメラは、比較的密集したデータ(ピクセル空間)、色および物体の外観を提供し得る。この情報は、車両の周囲のシーンを理解するために望ましい。しかし、このセンサは、光にしばしば依存するので、それは晴天(過露出ピクセル)、夜(露出不足のピクセル)、雨(雨滴)の影響を受け得る。
ライダセンサは、物体を検出し得、これらの物体に対するレンジ測定を提供する。ライダセンサは、それらが追跡された物体の方位を提供することができるという理由で望ましく、これは、ビジョンシステムおよびレーダセンサといったその他の種類のセンサでは、一般に不可能である。1つの種類のライダセンサに対して、物体からの反射は、点クラスタレンジマップの一部としてのスキャン領域(またはスキャン点)24として返却され得る。以下ではスキャン領域24は、スキャン点24と称される。センサの視野にわたって1/2°毎に別のスキャン点24が提供され得る。標的車両101は、ホスト車両100の正面に検出される。このため、ホスト車両100からの標的車両101の距離を識別する返された複数のスキャン点24が存在する。
図3は、図2の鳥瞰図内のシーンの検知された生のデータ(第1のデータおよび第2のデータ)を示す。図3は、Aにおいてホスト車両100およびその正面の標的車両101(検出されるべき物体)を有する実際のシーンを示す。Bにおいてピクセル空間(第1のデータ)は、同じシーンを検知するカメラ3によって生成されるものとして示される。ピクセル空間は、複数のピクセルを備える。Cにおいてライダ点またはスキャン点(第2のデータ)は、同じシーンを検知するアクティブセンサ4によって生成されるものとして示される。
図4は、本開示の実施形態に従うパッシブ光学センサの画像データを増大させる典型的な方法を描画する概略的フローチャートを示す。図5は、特定例の文脈において図4の典型的な方法を概略的に描画するフローチャートを示す。
ステップS1では、方法が開始される。ステップS2では、ライダデータ(第2のデータ)がライダセンサによって生成される。ステップS10では、図5に示されるようにクラスタ34,44を識別するために、ライダクラスタ化が実行される。このステップは、ライダリターンを個々のクラスタ(物体)に潜在的に対応することができるコヒーレントセグメントへとグループ化する。この段階は、クラスタ(物体)仮説生成とも称されることができる。ステップS11では、座標変換が実行される。したがって、スキャン点群は、深度情報がいくつかのピクセルに対して利用できるように画像平面上へと投影される。
ステップS3では、カメラデータ(第1のデータ)がデジタルセンサによって生成される。ステップS20では、局所的外観に基づく画像セグメンテーションが実行される。したがって、SLICアルゴリズムは、画像を同様の色分布を有する近くのピクセルの組へと分割するために、スーパーピクセルセグメンテーションのために使用され得る。これにより、スーパーピクセル33,43,53,63は、図5に示されるように決定されることができる。
ステップS30では、ライダクラスタ−スーパーピクセル関連付けが実行される。このステップでは、ライダに基づくクラスタ(物体)仮説34,44とスーパーピクセル33,43,53,63との間のマッピングが図5に示されるように確立される。このマッピングは、画像空間内のどのピクセルがライダ(または任意のその他のアクティブセンサ)から得られたクラスタ(物体)仮説、たとえば図5内のスーパーピクセル63を有するクラスタ44と関連付けられることができるかの情報を与える。
ステップS40では、スーパーピクセルガイドされた内挿/外挿を介する深度高密集化が実行される。したがって、以前のステップからのマッピングは、使用され、投影された深度値(すなわち第2のデータ)は、スーパーピクセル63の文脈で図5に示されるような近くのピクセルに割り当てられる。投影された深度値は、クラスタ化されたスキャン点を画像上へと投影することによって得られ得る。これらの近くのピクセルは、投影された点に割り当てられたスーパーピクセルによって規定される。内挿/外挿は、スーパーピクセル内のすべてのピクセルに同じ深度を割り当てることによって実行され得る。
ステップS41では、各ピクセルに対して、それが第2のデータと関連付けられているかどうか、すなわちそれがライダリターンを含むかどうかが決定される。図5の例では、これは、スーパーピクセル33,43,53および63によって含まれるすべてのピクセルに対して真である。この決定は、各クラスタ(物体)仮説に対しておよび所与のクラスタ(物体)仮説内の各スーパーピクセルに対して行われ得る。
ステップS42では、セグメンテーション初期化が実行される。したがって、各クラスタ(物体)仮説に対して、このモジュールは、それらに割り当てられた深度値を有するスーパーピクセル(図5におけるスーパーピクセル33,43,53および63)を取り込み、クラスタ(物体)仮説の色分布全体に対する初期的推測を提示するガウシアン混合モデル(GMM)を作成する。取り囲んでいるスーパーピクセルはまた、背景モデルとして使用されるGMMを作成するために使用される。
ステップS50では、自己監視型物体セグメンテーションは、画像空間内の深度高密集化を得るために実行される。このステップは、以前のステップによって提供される初期的モデルを取り込み、グラフカットアルゴリズムを使用して、初期スーパーピクセルに基づくセグメンテーションを拡張し精緻化する。図5の例では、スーパーピクセル33,43,53に対応する車両の境界(すなわち輪郭)が、たとえばこのステップで認識される。さらに、スーパーピクセル63に対応する車両の境界が認識される。これら車両は、シーン内の対象の物体を構成する。
ステップS60では、グローバル特徴高密集化が実行される。このステップでは、以前のステップで得られたグラフカットセグメンテーションによって提供される輪郭全体を覆うために、各クラスタ(物体)仮説に対して、スーパーピクセルに基づく高密集化からの深度値がさらに拡張される。図5の例では、シーン内で検出される車両のすべてのピクセルはこのため、深度値(第2のデータ)と関連付けられる。
図6は、図4の典型的な方法に対応するさらに他のフローチャートを示す。したがって対応するステップは、同様の参照符号によって示され、これらのステップは、再び詳細に説明されない。しかし、本開示のいくつかの局面は、図6の文脈でさらに説明される。
ステップS20では、レンジ測定が、画像空間上にまず投影される。これらの疎な深度測定は、単純線形反復クラスタリングを使用して局所的に拡張される。単純線形反復クラスタリング(SLIC)は、k平均クラスタ化に基づき、画像を視覚的に均質の領域またはいわゆるスーパーピクセルの規則的グリッドへと分解するための比較的単純かつ並列化可能な方法である。結果として、SLICスーパーピクセルは、空間的におよび色空間内の両方において画像ピクセルの距離に従う、画像ピクセルの規則的グルーピングを望ましく提供する。
このスーパーピクセルセグメンテーションは、2つの補完タスクのために使用される。まず、スーパーピクセルは、ステップS30、S40において使用され、少なくとも1つのレンジ測定を有するスーパーピクセル内のピクセルのすべてに深度値を割り当てる。そして次のセクションで説明される物体仮説とともにスーパーピクセルセグメンテーションは、ステップS50,S60の文脈で説明される最終の外挿/セグメンテーション段階を導く物体に関する外観モデルの正確な初期化を計算するために使用される。
さらにステップS4およびS10では、物体仮説をアクティブセンサから生成するために、たとえばHybrid Sampling Bayesian Occupancy Filter (HSBOF), cf. A. Negre, L. Rummelhard, and C. Laugier. Hybrid Sampling Bayesian Occupancy Filter. IEEE Intelligent Vehicles Symposium, Proceedings, pages 1307-1312, 2014. によって提供される占有グリッドが、利用され得る。
占有グリッドは、閾値処理され、そして最終の物体仮説を得るために、連結成分分析が使用され得る。これら仮説は、地面/グリッド空間上で規定され得、このためそれらは望ましくは、2Dであり物体高さ情報を伝えない。ステップS50,S60の文脈に示されるように、第3の高さ次元を物体仮説に追加するために、相互作用する画像セグメンテーションが望ましく使用される。物体が本開示内ではセマンテック記述を有する高レベル抽象化というよりもむしろデータのクラスタとして考えられるということにということに留意すべきである。物体仮説は、車および歩行者等の移動中の物体だけでなく、木、壁または緑化領域を含む静止物を包含することができる。
ステップS50,S60では、グラフカットガイドされた高密集化が実行される。しかしまた、任意のその他のエネルギ最小化法が使用され得る。レンジ測定の疎な性質により、ステップS20およびS30,S40の文脈で説明されるスーパーピクセルガイドされた深度高密集化は、十分にではない場合がある。特に、ライダリターンは、環境内の物体の底部に集中する傾向がある。この結果および物体が不均一な外観を有するという事実の結果、レンジ測定を有するスーパーピクセルは、必ずしも物体全体を覆わない。深度測定をさらに拡張し、物体仮説全体に対し深度推定を利用可能とするために、C. Rother, V. Kolmogorov, Y. Boykov, and A. Blake. Interactive Foreground Extraction using graph cut. Technical report, Microsoft, 2011.によって説明される相互前景/背景セグメンテーションのためのグラフカットアルゴリズムに基づく自己監視型セグメンテーション処理が提示される。
このセクションは、A. Blake, P. Kohli, and C. Rother. Markov Random Fields for Vision and Image Processing. The MIT Press Cambridge, 2011.等によって説明される画像セグメンテーションに適用されるグラフィックカットモデルの要約から始まる。
それはそして、Rother et.al.による相互前景抽出を行うためにこのモデルが拡張される方法rおよびライダ支援された物体セグメンテーションのための自己監視型方法としてそれが使用され得る方法について説明する。
相互セグメンテーションでは、先験的に知られる前景および背景外観モデルに基づき背景から前景をセグメント化することが目的とされる。これらのモデルは、ユーザ入力からまたは初期的にライダに基づくセグメンテーションTFからの我々の方法論のように組み立てられることができる。それは、良好なピクセルに関するセグメンテーションと空間的コヒーレンスとの間のトレードオフをエンコードするエネルギ関数を数式化することによって開始され得る。良好なセグメンテーションは、初期的セグメンテーションによって提供される分布に従うが、それはまた空間的な滑らかさも強いる。このトレードオフは、次の形態のエネルギ関数によって捕捉されることができる。
ここでxは{0、1}の要素であり、セグメンテーション出力を提示し、ω={h(z);h(z)}は、ガウシアン混合モデル(GMM)を介してパラメタライズされた背景および前景のための色分布に対応する。項Uは、モデルωが与えられたときのセグメンテーションxのデータzへのフィットを測定する。パラメータωを、上述のようにステップS20,S30,S40の文脈で我々のスーパーピクセルガイドされた深度外挿モジュールによって提供される初期セグメンテーションに基づき初期化することが提示されている。最後に、Vは、近くのピクセルを同じラベルを有するようにする滑らかさの項である。最適なセグメンテーションは、ωおよびxを次のように結合的に最適化することによって得られる。
A. P. Dempster, N. M. Laird, and D. B. Rubin. Maximum Likelihood from Incomplete Data via the EM Algorithm. Journal of the Royal Statistical Society. Series B: Statistical Methodology (JRSS), 39(1):1- 38, 1977.に記載されるように、グラフカットを使用してセグメンテーションxを、期待値最大化(EM)アルゴリズムを使用してパラメータωを繰り返し更新することによって最適化が実行される。
特許請求の範囲を含む説明全体を通して、「備える」という用語は、特に明記しない限り「少なくとも1つを備える」と同義であると理解されるべきである。加えて、特許請求の範囲を含む本明細書に記載された任意の範囲は、特に明記しない限りその最終値(複数可)を含むと理解されるべきである。記載された要素の具体的な値は、当業者に知られている許容される製造または工業公差内であると理解されるべきであり、「実質的に」および/または「約」および/または「一般的に」という用語の使用はいずれもそのような公差内に入ることを意味すると理解されるべきである。
本明細書において本開示を特定の実施形態を参照して説明したが、これらの実施形態は本開示の原理および用途の単なる例示であることを理解されたい。
明細書および実施例は例示としてのみ考慮されることを意図しており、開示の真の範囲は特許請求の範囲によって示されることが意図される。

Claims (17)

  1. パッシブ光学センサの画像データを増大させるための電子デバイスであって、
    前記電子デバイスは、
    パッシブ光学センサの第1の画像データを受信するように構成され、前記第1の画像データは、画像平面内の複数のピクセルを備え、前記電子デバイスはさらに、
    アクティブセンサの第2のデータを受信するように構成され、前記パッシブ光学センサおよび前記アクティブセンサは、同じシーンを検知し、前記アクティブセンサは、前記シーン上に分布された複数のスキャン領域を備え、前記第2のデータは、返されたスキャン領域内の測定値を備え、前記電子デバイスはさらに、
    返されたスキャン領域の前記分布に基づき少なくとも1つのクラスタを識別し、
    前記画像平面上へと前記クラスタを投影し、
    前記画像平面内に前記投影されたクラスタと一致するピクセルを識別し、
    前記識別されたピクセルを前記一致するクラスタの第2のデータと関連付けるように構成される、電子デバイス。
  2. 前記電子デバイスはさらに、
    前記第2のデータの座標系を、それが前記第1の画像データの座標系と一致するように変換することによって、前記第2のデータを前記画像平面上へと投影するように構成される、請求項1に記載の電子デバイス。
  3. 前記電子デバイスは、
    各クラスタに対して状態情報の組を前記クラスタ内の返されたスキャン領域における測定値に基づき決定するように構成され、前記状態情報の組は、前記クラスタの距離、大きさ、および/または速度のうちの少なくとも1つを含む、上述の請求項のいずれか1項に記載の電子デバイス。
  4. クラスタは、占有グリッドマッピングアルゴリズムによって決定される、上述の請求項のいずれか1項に記載の電子デバイス。
  5. 各関連付けられたピクセルは、前記関連付けられたクラスタの画像情報および状態情報を備え、一方クラスタと関連付けられていない各ピクセルは、画像情報のみを備える、上述の請求項のいずれか1項に記載の電子デバイス。
  6. 前記電子デバイスはさらに、
    前記第1の画像データをスーパーピクセルの組へと分解するように構成され、スーパーピクセルは、複数の隣接するピクセルを備え、
    隣接するスーパーピクセルを一致するクラスタと関連付けることによって前記画像平面内の対象の物体を規定するように構成される、上述の請求項のいずれか1項に記載の電子デバイス。
  7. スーパーピクセルは、同様の色分布を有する隣接するピクセルを識別することによっておよび/または前記第1の画像データ内のエッジを識別することによって決定される、上述の請求項のいずれか1項に記載の電子デバイス。
  8. 前記電子デバイスはさらに、
    スーパーピクセルを、特に前記スーパーピクセルの各ピクセルを、前記一致するクラスタの第2のデータと、特に前記一致するクラスタの前記状態情報の組と関連付けるように構成される、上述の請求項のいずれか1項に記載の電子デバイス。
  9. 前記電子デバイスはさらに、
    前記対象の物体の物体外観モデルを作成するように構成され、前記外観モデルは、前記対象の物体の前記色分布に対する推定を表す、上述の請求項のいずれか1項に記載の電子デバイス。
  10. 前記電子デバイスはさらに、
    前記対象の物体を取り囲むスーパーピクセルに基づき背景外観モデルを作成するように構成され、前記背景外観モデルは、前記シーン内の背景の前記色分布に対する推定を表す、上述の請求項のいずれか1項に記載の電子デバイス。
  11. 前記電子デバイスはさらに、
    前記対象の物体の前記物体外観モデルおよび/または前記背景外観モデルに基づき、特にエネルギ最小化法を使用することによって、前記対象の物体の境界を再規定するように構成される、上述の請求項のいずれか1項に記載の電子デバイス。
  12. 前記電子デバイスはさらに、
    前記再規定された対象の物体の各ピクセルを前記対象の物体の第2のデータと、特に前記対象の物体の前記状態情報の組と関連付けるように構成される、請求項11に記載の電子デバイス。
  13. 前記パッシブ光学センサは、デジタルカメラである、上述の請求項のいずれか1項に記載の電子デバイス。
  14. 前記アクティブセンサは、レーダまたはアクティブ光学センサ、特にレーザセンサおよび/またはライダセンサである、上述の請求項に記載の電子デバイス。
  15. パッシブ光学センサの画像データを増大させるためのシステムであって、
    上述の請求項のいずれか1項に記載の電子デバイスと、
    パッシブ光学センサと、
    アクティブセンサとを備え、
    前記パッシブ光学センサおよび前記アクティブセンサは、同じシーンを検知するために配置される、システム。
  16. 車両であって、
    請求項15に記載のシステムを備える、車両。
  17. パッシブ光学センサの画像データを増大させる方法であって、
    前記方法は、
    パッシブ光学センサの第1の画像データ受信するステップを備え、前記第1の画像データは、画像平面内の複数のピクセルを備え、前記方法はさらに、
    アクティブセンサの第2のデータを受信するステップを備え、前記パッシブ光学センサおよび前記アクティブセンサは、同じシーンを検知し、前記アクティブセンサは、前記シーン上に分布された複数のスキャン領域を備え、前記第2のデータは、返されたスキャン領域内の測定値を備え、前記方法はさらに、
    返されたスキャン領域の前記分布に基づき少なくとも1つのクラスタを識別するステップと、
    前記クラスタを前記画像平面上へと投影するステップと、
    前記画像平面内に前記投影されたクラスタと一致するピクセルを識別するステップと、
    前記識別されたピクセルを前記一致するクラスタの第2のデータと関連付けるステップとを備える、方法。
JP2019533234A 2016-12-20 2016-12-20 パッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法 Pending JP2020502685A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2016/001934 WO2018115917A1 (en) 2016-12-20 2016-12-20 Electronic device, system and method for augmenting image data of a passive optical sensor

Publications (1)

Publication Number Publication Date
JP2020502685A true JP2020502685A (ja) 2020-01-23

Family

ID=57960553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019533234A Pending JP2020502685A (ja) 2016-12-20 2016-12-20 パッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法

Country Status (3)

Country Link
US (1) US11774554B2 (ja)
JP (1) JP2020502685A (ja)
WO (1) WO2018115917A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220084849A (ko) * 2020-12-14 2022-06-21 이기현 전자기파 데이터의 ai 기계학습을 위한 어노테이션 방법
WO2022208664A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 画像処理装置、画像処理方法、プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11067693B2 (en) * 2018-07-12 2021-07-20 Toyota Research Institute, Inc. System and method for calibrating a LIDAR and a camera together using semantic segmentation
DE102018131495B4 (de) 2018-12-10 2023-08-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bereitstellen eines 3-dimensionalen Datenfeldes eines Abstandsensors aus einer Perspektive eines optischen Sensors und Fahrunterstützungssystem zur Durchführung des Verfahrens
DE102019205469A1 (de) * 2019-04-16 2020-10-22 Zf Friedrichshafen Ag Objekterkennung im Umfeld eines Fahrzeugs unter Verwendung einer primären Sensoreinrichtung und einer sekundären Sensoreinrichtung
CN110909671B (zh) * 2019-11-21 2020-09-29 大连理工大学 一种融合概率和高度信息的栅格地图障碍物检测方法
CN113033586B (zh) * 2019-12-24 2024-04-16 大富科技(安徽)股份有限公司 目标识别方法及设备
EP4053593A1 (de) * 2021-03-03 2022-09-07 Elektrobit Automotive GmbH Verarbeitung von sensordaten in einem fortbewegungsmittel
US20230109909A1 (en) * 2021-10-07 2023-04-13 Motional Ad Llc Object detection using radar and lidar fusion

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018371A (ja) * 2014-07-08 2016-02-01 株式会社デンソー 車載システム、情報処理装置、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007187618A (ja) 2006-01-16 2007-07-26 Omron Corp 物体識別装置
US9128185B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Methods and apparatus of fusing radar/camera object data and LiDAR scan points
US9429650B2 (en) 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
US9177481B2 (en) * 2013-12-13 2015-11-03 Sikorsky Aircraft Corporation Semantics based safe landing area detection for an unmanned vehicle
CN113917439A (zh) 2014-08-15 2022-01-11 艾耶股份有限公司 用于光雷达发射的方法和系统
GB2532194A (en) * 2014-11-04 2016-05-18 Nokia Technologies Oy A method and an apparatus for automatic segmentation of an object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018371A (ja) * 2014-07-08 2016-02-01 株式会社デンソー 車載システム、情報処理装置、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220084849A (ko) * 2020-12-14 2022-06-21 이기현 전자기파 데이터의 ai 기계학습을 위한 어노테이션 방법
KR102572339B1 (ko) * 2020-12-14 2023-08-28 이기현 전자기파 데이터의 ai 기계학습을 위한 어노테이션 방법
WO2022208664A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
WO2018115917A1 (en) 2018-06-28
US11774554B2 (en) 2023-10-03
US20190353791A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
US11774554B2 (en) Electronic device, system and method for augmenting image data of a passive optical sensor
CN112396650B (zh) 一种基于图像和激光雷达融合的目标测距系统及方法
US11113959B2 (en) Crowdsourced detection, identification and sharing of hazardous road objects in HD maps
CN108445480B (zh) 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法
CN111563415B (zh) 一种基于双目视觉的三维目标检测系统及方法
CN112581612B (zh) 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及系统
CN111027401A (zh) 一种摄像头和激光雷达融合的端到端目标检测方法
CN113111887A (zh) 一种基于相机和激光雷达信息融合的语义分割方法及系统
CN114022830A (zh) 一种目标确定方法以及目标确定装置
Handmann et al. Computer vision for driver assistance systems
CN113688738B (zh) 一种基于激光雷达点云数据的目标识别系统及方法
EP4047565A1 (en) Low level sensor fusion based on lightweight semantic segmentation of 3d point clouds
Ouyang et al. A cgans-based scene reconstruction model using lidar point cloud
KR101921071B1 (ko) 다중 프레임에서의 센서 융합을 통한 3차원 객체의 포즈 추정 방법 및 이를 구비한 장치
CN112683228A (zh) 单目相机测距方法及装置
Tsoukalas et al. Deep learning assisted visual tracking of evader-UAV
Esfahani et al. DeepDSAIR: Deep 6-DOF camera relocalization using deblurred semantic-aware image representation for large-scale outdoor environments
Zhang et al. Multi-FEAT: Multi-feature edge alignment for targetless camera-LiDAR calibration
CN117808689A (zh) 基于毫米波雷达与摄像头融合的深度补全方法
CN112733678A (zh) 测距方法、装置、计算机设备和存储介质
CN116664851A (zh) 一种基于人工智能的自动驾驶数据提取方法
Cigla et al. Image-based visual perception and representation for collision avoidance
CN114648639B (zh) 一种目标车辆的检测方法、系统及装置
CN115965847A (zh) 交叉视角下多模态特征融合的三维目标检测方法和系统
CN113052118A (zh) 基于高速快球摄像机实现场景变换视频分析检测的方法、系统、装置、处理器及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190814

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210622