JP6552729B2 - 異なる分解能を有するセンサーの出力を融合するシステム及び方法 - Google Patents

異なる分解能を有するセンサーの出力を融合するシステム及び方法 Download PDF

Info

Publication number
JP6552729B2
JP6552729B2 JP2018516582A JP2018516582A JP6552729B2 JP 6552729 B2 JP6552729 B2 JP 6552729B2 JP 2018516582 A JP2018516582 A JP 2018516582A JP 2018516582 A JP2018516582 A JP 2018516582A JP 6552729 B2 JP6552729 B2 JP 6552729B2
Authority
JP
Japan
Prior art keywords
sensor
measurements
fused
calibration
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018516582A
Other languages
English (en)
Other versions
JP2018535402A (ja
Inventor
カミロフ、ウルグベック
カストレナ、ジュアン
ボウフォウノス、ペトロス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2018535402A publication Critical patent/JP2018535402A/ja
Application granted granted Critical
Publication of JP6552729B2 publication Critical patent/JP6552729B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、検知システム及び検知方法に関し、より詳細には、異なる分解能を有するセンサーの出力を融合することに関する。
センサー融合は、異なるセンサーから導出された検知データを組み合わせるプロセスである。シーンを取得するために用いられるセンサー及びセンサー様式の数が増大するにつれ、センサーデータの統合又は融合がますます重要になっている。センサー融合は、別個のセンサー様式を利用して、環境に関する補足情報を提供し、ハードウェアの制限を克服し、又は各個々のセンサーに起因したデータの不確実性を低減する。例えば、センサー融合により、或るセンサーによって測定されたデータの分解能を、別のセンサーの測定値を用いて増大させる、すなわち、アップサンプリングすることができる。加えて又は代替的に、センサー融合は、或るセンサーによって測定されたデータに、別のセンサーの測定値により注釈を付けることができる。
例えば、深度検知は、シーンにおける深度、すなわち、センサーからシーン内の点への距離を測定するための技術である。深度検知のタイプは、構造化光カメラ、ステレオカメラ、及びシーンから反射された光の飛行時間(TOF)測定値に基づく深度検知カメラを用いた測定値を含む。LIDARセンサー等の幾つかの深度センサーは、実際の用途に十分な分解能を有していない。そのために、深度超解像のために融合を用いることができ、すなわち、LIDARセンサーからの低分解能深度データを、光カメラからの画像と融合して、より高い分解能の深度画像を生成することができる。
センサー融合は、各センサーの互いに対する位置及び向き等の、各センサーの較正パラメーターを決定する外的較正(extrinsic calibration)を用いる。融合中、較正パラメーターは、各センサーの出力を、共通基準系にマッピングする幾何学的変換を計算するのに用いられる。
例えば、幾つかの方法は、既知の位置合わせ標的を用いてオフラインの較正を行う。しかしながら、オフラインの較正を行うことは、幾つかの用途にとって可能でないか又は実際的でない。この問題は、センサーが移動車両に設置されているときに特に明らかとなる。これは、そのようなセンサーが、道路状況の潜在的な粗さに起因して較正を失いやすいことに起因し、較正は、絶えず変動するシーンについてオンラインで行われる必要がある。
他の方法は、様々な画像における物体のエッジを用いて較正をオンラインで行う。しかしながら、幾つかの用途では、エッジマッチングに基づく較正は、センサー測定値の低分解能に起因して不正確である。
したがって、異なる分解能を有するセンサーの出力を融合するシステム及び方法が必要とされている。
本発明の幾つかの実施形態は、融合及び較正が相補的プロセスであり、一方の改善を用いて、他方の性能を高めることができるという認識に基づいている。このため、共同の較正及び融合方法により、最終的な出力を改善することができる。通常、較正又は融合のいずれかに対処するが、両方には対処しない既存の手法と対照的に、共同処理は、共通の目標、すなわち、較正パラメーターに応じたセンサー融合の最終的な出力の改善に向けて機能する。
したがって、本発明の幾つかの実施形態は、センサーの較正及びセンサーの出力の融合を共同で行う。例えば、本発明の幾つかの実施形態は、各事例において適切なコスト関数を用いて、較正パラメーター及び融合出力を共同で最適化する。例えば、1つの実施形態は、較正パラメーター及び融合された測定値組を互いに依拠して更新する。例えば、共同の較正及び融合は、較正パラメーターを所与として、融合された測定値組のコスト関数を最適化することができる。
本発明の1つの実施形態は、異なる分解能を有するセンサーの測定値を融合する方法を開示する。本方法は、第1のセンサーによって測定されたシーンの第1の測定値組を取得することと、第2のセンサーによって測定された前記シーンの第2の測定値組を取得することであって、前記第1のセンサーの様式は前記第2のセンサーの様式と異なり、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満であることと、前記第1のセンサー及び前記第2のセンサーの較正と、前記第1の測定値組及び前記第2の測定値組の融合とを共同で行い、前記第1のセンサーの座標系と前記第2のセンサーの座標系との間の幾何学的マッピングを定義する較正パラメーターと、前記第1のセンサーの前記分解能よりも高い分解能を有する、前記第1のセンサーの前記様式を含む融合された測定値組とを生成することであって、前記較正及び前記融合は、互いに依拠して、前記較正パラメーター及び前記融合された測定値組を更新するために共同で行われることと、を含む。前記方法のステップは、プロセッサを用いて行われる。
別の実施形態は、シーンを測定して、該シーンの第1の測定値組を生成する第1のセンサーと、前記シーンを測定して、該シーンの第2の測定値組を生成する第2のセンサーであって、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満である、第2のセンサーと、前記第1のセンサー及び前記第2のセンサーの較正と、前記第1の測定値組及び前記第2の測定値組の融合とを共同で行い、前記第1のセンサーの座標系と前記第2のセンサーの座標系との間の幾何学的マッピングを定義する較正パラメーターと、前記第1のセンサーの前記分解能よりも高い分解能を有する、前記第1のセンサーの様式を含む融合された測定値組とを生成するプロセッサであって、前記較正及び前記融合は、互いに依拠して、前記較正パラメーター及び前記融合された測定値組を更新するために共同で行われる、プロセッサと、を備える、システムを開示する。
更に別の実施形態は、較正されていないセンサーの出力を融合する方法であって、第1のセンサーからシーンの第1の測定値組を取得することと、第2のセンサーから前記シーンの第2の測定値組を取得することであって、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満であることと、前記第2の測定値組を用いて前記第1の測定値組を融合して、前記第1のセンサーの様式及び該第1のセンサーの前記分解能よりも高い分解能を含む融合された測定値組を生成することであって、該融合は、前記第1のセンサーの座標系と前記第2のセンサーの座標系との幾何学的マッピングを定義する較正パラメーターを用いることと、前記融合された測定値組を、前記第2の測定値組と比較して、前記較正パラメーターの誤差を求めることと、前記較正パラメーターを更新して前記誤差を低減することと、終了条件が満たされるまで、前記融合、前記比較、及び前記更新を繰り返すことと、を含む、方法を開示する。
本発明の様々な実施形態による、センサーの較正及びセンサーの測定値の融合を共同で行う方法のブロック図である。 本発明の様々な実施形態による、センサーの較正及びセンサーの測定値の融合を共同で行う方法のブロック図である。 本発明の様々な実施形態による、センサーの較正及びセンサーの測定値の融合を共同で行う方法のブロック図である。 本発明の幾つかの実施形態による、融合された測定値組を決定する融合方法のブロック図である。 本発明の1つの実施形態によるシステムの概略図である。 本発明の幾つかの実施形態による、センサーの出力を融合する例示的なシステムのブロック図である。
図1Aは、本発明の幾つかの実施形態による、センサーの較正及びセンサーの測定値の融合を共同で行う方法のブロック図を示す。本方法は、第1のセンサー110からシーン105の第1の測定値組を取得し(120)、第2のセンサー115からシーン105の第2の測定値組も取得する(125)。
本方法のステップは、センサーのうちの1つに対し内部又は外部にあるプロセッサ等のプロセッサを用いて行われる。測定値は、センサーから直接取得することができるか、間接的に、例えば、メモリストレージから、及び/又は有線若しくは無線の通信チャネルを介して取得することができる。幾つかの実施形態では、第1のセンサーの分解能は、第2のセンサーの分解能未満である。さらに、幾つかの実施形態では、第1のセンサーの様式は第2のセンサーの様式と異なる。
幾つかの実施形態は、様々なタイプ及び/又は様式のセンサーデータを用いてシーンに関する情報を特定する。シーンは、センサー測定値を生成することができる任意の物理的エリアとすることができる。例えば、限定ではないが、シーンは、市街エリア、近所、森林エリア、水中領域、空域、製造施設内のエリア、部屋、構造物の表面、又は何らかの他の適切なタイプのシーンとすることができる。
第1のセンサー及び第2のセンサーの様々な様式は、限定ではないが、音響データ、バイオメトリックデータ、撮像データ、電圧読み値、振動データ、及び他の適切なタイプのセンサーデータを含む。これらの様々な様式のセンサーデータを、シーン内の物体の存在の検出、シーン内の物体の特定、シーン内の物体の移動の追跡、シーンの環境内の変化の検出、シーン内の物体間の距離の測定等の動作、及び他の適切な動作を行う際に用いることができる。
1つの例として、シーン内の物体を検出、特定及び/又は追跡するために様々なタイプの撮像データを用いることができる。様々なタイプの撮像データは、例えば、電気光学(EO)画像、赤外線(IR)画像、熱画像、レーダー画像、紫外画像、及び他の適切なタイプの撮像データを含むことができる。
例えば、1つの実施形態では、第1のセンサーは、標的をレーザーで照明し、反射光を分析することにより距離を測定するLIDARセンサー等の深度センサーである。第2のセンサーの例は、シーンの画像の輝度を記録するための光カメラである。
本発明の幾つかの実施形態は、センサー融合が、他のセンサーに対する位置及び向き等の各センサーの幾何学的パラメーターを決定する較正を必要とするという認識に基づく。例えば、2つのセンサーの較正は、一方のシステムの基準系の、他方のシステムの基準系に対する透視投影を決定しようとする。この投影は、自由度としても知られる複数のパラメーターによって記述することができる。例として、本発明の1つの実施形態は、6自由度、すなわち、3つの角度回転(ロール、ピッチ及びヨー)、及び3つの並進(x軸沿い、y軸沿い及びz軸沿い)での変換を決定する。この実施形態において、較正パラメーターは、θ=(θroll,θpitch,θyaw,θ,θ,θ)である。しかしながら、他の実施形態は、より小さい又はより大きい自由度を検討することができる。例えば、1つの実施形態は、回転を検討しない。加えて又は代替的に、別の実施形態は、センサーの相対的な拡大及び歪み係数を決定する。これらのパラメーターは、本明細書において、第1のセンサーの座標系と第2のセンサーの座標系との間の幾何学的マッピングを定義する較正パラメーターと呼ばれる。センサーの座標系は、センサー測定値の融合を行うための基準系として用いることができる。
便宜上、大域基準系は、通常、センサーのうちの1つのセンサーの基準系に一致する。例示的な実施形態では、分解能がより高いセンサー115が大域基準系を提供する。較正パラメーターがわかった後、幾何学形状は、分解能がより低いセンサー110の基準系を含む任意の基準系に自明にマッピングすることができる。
第1の測定値組120は、その基準系において、
Figure 0006552729
で表される。ここで、Mは、第1の組における測定値の数である。例えば、分解能がより低いセンサーがLIDARシステムに対応するとき、ψは、点群、すなわち、そこからのLIDAR反射が記録された(x,y,z)デカルト座標の組を表す。
第2の測定値組125は、その基準系において、
Figure 0006552729
で表される。ここで、Nは、第2の組における測定値の総数である。例えば、分解能がより高いセンサーが光カメラに対応するとき、第2の測定値組は、合計N=N*N個の測定値を含む。ここで、Nは水平ピクセル数であり、Nは垂直ピクセル数である。本開示は、n∈{1,…,N}を用いて、u及び他の類似の大きさのデータの要素をインデックス付けし、本質的に、それらをベクトル化する。
較正パラメーターθを所与として、第1の測定値組を、線形3D剛体変換を用いて、分解能がより高いセンサーの座標系にマッピングすることができる。
Figure 0006552729
ここで、Pは、較正パラメーターθによって特徴付けられる投影行列である。
幾つかの実施形態は、較正及び融合が相補的プロセスであり、一方の改善を用いて、他方の性能を高めることができるという認識に基づいている。そのために、実施形態は、第1のセンサー及び第2のセンサーの較正と、第1の測定値組及び第2の測定値組の融合とを共同で実行し(160)、第1のセンサーの座標系と第2のセンサーの座標系との間の幾何学的マッピングを定義する較正パラメーター163を生成し、第1のセンサーの様式を含み、第1のセンサーの分解能よりも高い分解能を有する融合された測定値組165を生成する。本明細書において用いられるとき、共同の較正及び融合は、較正パラメーター163及び融合された測定値組165の双方を互いに依存して(167)更新する。
例えば、1つの実施形態では、共同の較正及び融合160は、終了基準が満たされるまで、較正パラメーター及び融合された測定値組を再帰的に更新し、融合された測定値組の変更に応答して較正パラメーターが更新され、較正パラメーターの変更に応答して融合された測定値組が更新されるようにする。
例えば、較正は、第1の測定値組及び第2の測定値組から較正パラメーターθを直接推定する。
Figure 0006552729
第1の測定値組は、第2の測定値組と対照的に、大幅に低い分解能を有する。較正パラメーターを所与として、融合130は、双方のセンサーからのデータを統合して、双方からの情報を組み合わせるデータを生成する。例えば、幾つかの実施形態において、融合の目標は、高分解能のデータ
Figure 0006552729
を推定することであり、ここで、φの各要素は、第2のセンサーの基準系において第1のセンサーの様式を有する。
Figure 0006552729
融合プロセスの出力の品質は、通常、融合品質が改善するときにより低い値又はより高い値をとるコスト関数を用いて、融合データから推定することができる。
図1Bは、本発明の1つの実施形態による、センサーの較正及びセンサーの測定値の融合を共同で行う方法のブロック図を示す。この実施形態において、較正及び融合は、較正パラメーターを所与として、融合された測定値組のコスト関数175を最適化すること(170)によって共同で行われる。
例えば、較正パラメーターを推定するために、本発明の幾つかの実施形態は、融合プロセスの出力と、融合品質を表し、融合データから推定されるコストとを利用する。特に、1つの実施形態は、φθ=ffusion(u,ψ,θ)を用いて、較正パラメーターθを所与として、融合された測定値組をコンパクトに表す。較正パラメーターは、融合プロセスの品質を評価するのに用いられるコスト関数に対応する、φθに関するコスト関数を最適化することによって推定される。幾つかの実施形態では、最適化は、終了条件が満たされるまでコスト関数を増減させることを含む。
最適化が、コスト関数を減少させることを含む実施形態において、最適化方法は、融合された測定値組及び第2の測定値組のエッジ間の誤った位置合わせにペナルティーを課す。
Figure 0006552729
ここで、以下の式が成り立つ。
Figure 0006552729
例えば、分子A(φθ)は、以下のように定義することができる融合された測定値組の重み付けされたl全変動(TV)を測定する。
Figure 0006552729
ここで、kは、方向を表し、∇は、方向kに沿ったφθに対し作用する勾配を表す。例えば、φθが、高分解能カメラデータと融合された低分解能のLIDARデータに対応するとき、kは、水平x方向又は垂直y方向のいずれかである。重みwk,nは、第2の測定値組を用いて指定され、
Figure 0006552729
これにより、実行パラメーターγ≧0によって制御されるように、第2の測定値組及び融合された測定値組間のエッジの位置合わせを促進する。幾つかの実施形態では、データは、LIDAR及びカメラ測定値に対応し、エッジは、対応する画像における物体の境界に対応する。
1つの実施形態において、組
Figure 0006552729
は、低分解能のセンサーからの測定値に対応する位置の部分組を表す。コストをこれらの点に制約することによって、融合された測定値組の信頼性がある領域のみを検討することが確実になる。関数がこれらの点においてのみ計算される場合であっても、これらの位置において勾配を計算することが可能になるには、融合を行うことが必要とされることに留意されたい。
加えて又は代替的に、第2の測定値組におけるエッジを所与として、大きなγは、融合された測定値組における対応するエッジにペナルティーを課さない。このため、第2の測定値組において対応するエッジを有しない、すなわち適切に位置合わせされていない、融合された測定値組におけるエッジのみが、ペナルティーを課される。他方で、小さなγは、第2の測定値組の影響を低減し、これにより、第2の測定値組が対応するエッジを有するか否かと無関係に、融合された測定値組におけるエッジに同様にペナルティーを課す。
分母は、異なるパラメーター組θを所与として、評価に含まれるΩθにおける点の数の差を考慮に入れる、必要な正規化係数である。
Figure 0006552729
図1Cは、本発明の別の実施形態による、センサーの較正及びセンサーの測定値の融合を共同で行う方法のブロック図を示す。この実施形態において、2つのセンサーからのデータは、較正パラメーターの現在の値を用いて融合され、融合の出力は、第2の測定値組と比較され、較正パラメーターを更新するのに用いられる融合における誤差が求められる。
例えば、実施形態は、第2の測定値組125を用いて第1の測定値組120を融合し(130)、第1のセンサーの様式を有し、第1のセンサーの分解能よりも高い分解能を有する融合された測定値組135を生成する。実施形態は、融合された測定値組135を、第2の測定値組125と比較して(140)、較正パラメーターの誤差155を求める。実施形態は、較正パラメーター150を更新して、誤差155を低減する(145)。幾つかの実施態様では、誤差155は、コスト関数175として設計され、それによって、この誤差により、融合プロセス及び較正の品質が測定される。
プロセスは、終了基準が満たされるまで、更新された較正パラメーター150を用いて反復される。本方法は、推定較正パラメーター若しくは融合データ、又は双方を、後続の処理により要求されるのに応じて出力する。任意選択で、最終的な融合ステップは、推定較正パラメーターを用いて行われてもよい。
センサー融合
固定パラメーターベクトルθを所与として、融合は、第2の測定値組uと、大域基準系Pθ{ψ}への第1の測定値組の投影とを用いて、
Figure 0006552729
を推定する。
1つの実施形態において、融合は、分解能がより低いセンサーの様式に対応する、分解能がより高いデータを決定する。高分解能データの品質は、様々な方法で推定することができる。1つの実施形態は、結果として得られる融合された測定値組と、投影データとの一貫性を促進するために、lペナルティーを用いる。換言すれば、実施形態は、
Figure 0006552729
を用いて、データ忠実性D(Φ)又は誤差を測定する。ここで、
Figure 0006552729
は、投影Pθ{ψ}においてデータを有するインデックスのみを選択するマスキング演算子である。
1つの実施形態において、第1の測定値組は、より低い分解能を有するので、第1の測定値組の重み付けされた等方性全変動(TV)を用いて融合を正則化する。
Figure 0006552729
これは、重みwに従って、よりシャープなエッジを促進する。
融合は、データ忠実性及び正則化項を組み合わせて、融合品質を推定する単一のコスト関数にする。融合により、このコストを以下のように最小限にする融合データが出力される。
Figure 0006552729
ここで、
Figure 0006552729
は、融合された測定値組に対する一定の物理的制約を強制するのに用いられ、λ>0は、正則化の量を制御する。例えば、第1の測定値組が深度に対応するとき、Φは、融合された深度データの非負性を強制する。
図2は、本発明の幾つかの実施形態による、融合された測定値組を決定する融合方法を示す。第1の測定値組120は、第2の測定値組の基準系にマッピングされ(205)、マッピングされた第1の測定値組は、目標分解能までアップサンプリングされる(208)。例えば、目標分解能は、第2の測定値組の分解能とすることができる。
幾つかの実施形態では、融合は、第2の測定値組を利用して、重みwを通じて融合出力を改善する。そのために、1つの実施形態は、第2の測定値組u125を用いて重みwを求める(210)。例えば、幾つかの実施形態は、各ロケーションにおいて第2の測定値組の勾配の関数として重みを選択し、深度画像における対応するエッジがペナルティーを課されないようにする。
幾つかの実施形態は、較正パラメーターが不正確であるとき、この重み付けが、その後の較正を混乱させる偽のエッジを生じさせる可能性があるという理解に基づいている。このため、幾つかの実施形態では、較正が行われる間、重みはw=1として選択される。較正パラメーターが推定された後、定数τ>0について、
Figure 0006552729
等の異なる重みを用いて最終的な融合ステップを行うことができる。代替的な実施形態は、[∇u]が大きい場合に小さい値をとり、[∇u]が小さい場合に大きい値をとる重みを用いる。
実施形態は、コスト関数D(φ)+λR(φ)を低減する方向を計算することによって、融合された測定値組を決定し(220)、この方向に従って、融合された測定値組を更新する(240)。例えば、1つの実施態様は、最急降下法を用いて、以下の式に従って更新240を行う。
Figure 0006552729
ここで、ν>0は、ステップサイズであり、
Figure 0006552729
は、Rの劣勾配であり、φt−1は、古い融合された測定値組であり、φは、新しい融合された測定値組である。
物理的制約を強制するために(230)、1つの実施形態は、違反値を最も近い制約に設定する。例えば、融合された深度データの非負性を強制するために、実施形態は、負の深度値を0に設定する。融合された測定値組の結果としての推定値を用いて、停止基準に達するまでステップ220、230及び240を反復し、最終的な融合された測定値組250を出力する。
例示的な実施形態
図3は、本発明の1つの実施形態によるシステムの概略図を示す。システムは、シーンを測定してシーンの第1の測定値組を生成する第1のセンサー310と、シーンを測定してシーンの第2の測定値組を生成する第2のセンサー320とを備える。例えば、第1のセンサー310は、LIDARであり、第2のセンサー320は、カメラである。LIDARセンサー310は、低分解能の第1のセンサーであり、カメラ320は、高分解能の第2のセンサーである。
システムは、本発明の様々な実施形態によって用いられる原理に従って、第1のセンサー及び第2のセンサーの較正、並びに第1の測定値組及び第2の測定値組の融合を共同で行うプロセッサ302も備える。例えば、1つの実施形態では、第1のセンサー及び第2のセンサーは、車両301に設置され、プロセッサ302は、車両の計算システムの一部を形成する。加えて又は代替的に、プロセッサ302は、センサー310及び/又は320のプロセッサとすることができる。
LIDARは、その基準系に従って物体の距離を記録し、点群315の形式でデータを提供する。幾つかの実施形態では、LIDARは、物体の反射性も記録する。通常のLIDARセンサーは、1〜64の範囲を取る幾つかの垂直方向を用いて水平に走査するが、更なる方向が可能である。このため、LIDARは、厳密な深度情報を提供することができるが、この情報は、低い空間分解能を有する。
カメラは、自身の基準系に従って物体の反射性を記録し、画像325の形態で測定値を提供する。LIDARと対照的に、高分解能のカメラは安価である。このため、カメラは、物体の反射性に関する高空間分解能情報を提供することができる。しかしながら、カメラは、深度情報を提供しない。
2つのセンサーによって記録される情報の分解能及びタイプの差は、融合を非常に魅力的にする。2つのセンサーからのデータを融合するとき、1つの実施形態は、シーン内の全ての物体について高い空間分解能及び精密な深度情報を有する深度マップを出力する。深度マップは、位置合わせされ、高分解能カメラによって記録される輝度マップに対応し、このため、カメラによって記録される輝度情報に深度情報を提供する。換言すれば、1つの実施形態は、双方のセンサーを拡張するために、すなわち、LIDAR出力335の分解能を高め、高分解能深度情報をカメラ出力に組み込むために、共同の較正及び融合330を用いる。融合結果は、ディスプレイ340上にレンダリングするか、又は異なるアプリケーション350、例えば、物体追跡アプリケーションにサブミットすることができる。
カメラ及びLIDARが、同じシーンを観測するために搭載されるとき、これらの基準系は異なる。センサーが搭載された後、それらの基準系が一定のままである場合、融合の前の外的較正が実際的であり得る。例えば、カメラが僅かであっても動く場合、既知の標的を用いたオフライン較正手順は、大きなコスト及びダウンタイムで繰り返されなくてはならない。
実際には、センサーの較正は固定されない。通常、センサーは、搭載構成要素が変形するか又は緩むにつれ、経時的にずれていく可能性がある。偶発的な接触により、センサーの向きが大幅に変化する可能性もある。このため、例示的な実施形態は、オフラインの手動の較正を必要とすることなく、2つのセンサーの動作時にこれらのセンサーを連続して自動的に較正する。特に、共同の融合及び較正プロセスは、連続して動作し、較正パラメーター及び融合データの双方を推定する。
様々な実施形態において、計算を低減するために、共同の較正及び融合プロセスが間欠的に、例えば、毎秒1回、毎分1回、又は毎時間1回(又はそれよりも低い頻度で)行われ、較正パラメーターが更新される。その間に、最後に計算された較正パラメーターを用いて、融合のみが行われる。この手法は、センサーの向き、したがって較正パラメーターが、融合のみが行われる期間、例えば、それぞれ、1秒、1分又は1時間にわたって、概ね変化しないままであることを推定する。センサーの向きがその時間中に変化する場合、融合は、不正確なパラメーターにより実行され、不正確な結果を生成する場合がある。
そのような実施形態は、自動車用途及び自律ナビゲーションシステムにおいて特に有用である。そのようなシステムは、環境を理解し、自身の動作を計算するために、車両301に設置されたLIDAR及びカメラに依拠する。例えば、運転支援安全システムは、実施形態の融合出力を用いて、前のトラフィックが突然停止した場合に、車両を減速させるか、車線を変更させることができる。同様に、自律車両又はロボットは、そのような融合情報を用いて、自身の位置及び自身の経路上の障害物を特定し、適切なナビゲーションルートを求めることができる。しかしながら、そのようなシステムが適切に動作するためには、センサーが較正される必要がある。本発明の様々な実施形態は、オフライン再較正のために頻繁なダウンタイムを必要とすることなく、正確性を確保することができる。
図4は、本発明の幾つかの実施形態による、センサーの出力を融合するように構成された例示的なシステム400のブロック図を示す。システム400は、第1のセンサー及び/又は第2のセンサーの内部に実装することができる。加えて又は代替的に、システム400は、融合を行うためにセンサーに通信可能に接続することができる。
システム400は、カメラ410、慣性測定ユニット(IMU)430、プロセッサ450、メモリ460、送受信機470、及びディスプレイ/スクリーン480のうちの1つ又は組み合わせを備えることができる。これらは、接続420を通じて他の構成要素に作動的に結合することができる。接続420は、バス、ライン、ファイバー、リンク又はそれらの組み合わせを含むことができる。
送受信機470は、例えば、1つ以上のタイプの無線通信ネットワークを通じて1つ以上の信号を送信することを可能にする送信機と、1つ以上のタイプの無線通信ネットワークを通じて送信された1つ以上の信号を受信する受信機とを備えることができる。送受信機470は、様々な技術に基づいて無線ネットワークとの通信を可能にすることができる。これらの技術は、標準規格のIEEE802.11ファミリーに基づくことができるフェムトセル、Wi−Fiネットワーク又は無線ローカルエリアネットワーク(WLAN)、標準規格のIEEE802.15xファミリーに基づくBluetooth、近距離場通信(NFC)、ネットワーク等の無線パーソナルエリアネットワーク(WPAN)、及び/又はLTE、WiMAX等の無線ワイドエリアネットワーク(WWAN)等であるが、これらに限定されるものではない。システム400は、有線ネットワークを通じて通信する1つ以上のポートを備えることもできる。
幾つかの実施形態では、システム400は、CCDセンサー若しくはCMOSセンサー、レーザー及び/又はカメラ等の画像センサー410を備えることができる。この画像センサーは、以下では「センサー410」と呼ばれる。例えば、センサー410は、光画像を電子画像又はデジタル画像に変換することができ、取得された画像をプロセッサ450に送信することができる。加えて又は代替的に、センサー410は、シーン内のターゲット物体から反射された光を検知し、捕捉された光の強度をプロセッサ450にサブミットすることができる。
例えば、センサー410は、「カラー情報」を提供するカラーカメラ又はグレースケールカメラを含むことができる。「カラー情報」という用語は、本明細書において用いられるとき、カラー情報及び/又はグレースケール情報を指す。一般に、カラー画像又はカラー情報は、本明細書において用いられるとき、1〜N個のチャネルを含むものとみなすことができる。ここで、Nは、画像を記憶するのに用いられている色空間に依存する或る整数である。例えば、RGB画像は、3つのチャネルを含み、赤情報、青情報及び緑情報についてそれぞれ1つのチャネルを有する。
例えば、センサー410は、「深度情報」を提供する深度センサーを含むことができる。深度情報は、深度センサーを用いて様々な方法で取得することができる。「深度センサー」という用語は、深度情報を単独で及び/又は他の幾つかのカメラと併せて取得するのに用いることができる機能ユニットを指すのに用いられる。例えば、幾つかの実施形態では、深度センサー及び光カメラは、センサー410の一部分とすることができる。例えば、幾つかの実施形態では、センサー410はRGBDカメラを備える。このRGBDカメラは、カラー(RGB)画像に加えて、深度センサーが有効にされているときはピクセルごとの深度(D)情報を捕捉することができる。
別の例として、幾つかの実施形態では、センサー410は、3D飛行時間(3DTOF)カメラを備えることができる。3DTOFカメラを用いた実施形態では、深度センサーは、3DTOFカメラに結合されたストロボライトの形態を取ることができる。このストロボライトは、シーン内の物体を照明することができ、反射された光は、センサー410内のCCD/CMOSセンサーが捕捉することができる。深度情報は、光パルスが物体に進んでセンサーに戻って来るまでに要する時間を測定することによって取得することができる。
更なる例として、深度センサーは、センサー410に結合された光源の形態を取ることができる。1つの実施形態では、この光源は、1つ以上の狭い光の帯を含むことができる構造化された光パターン又はテクスチャー付けされた光パターンをシーン内の物体に投射する。深度情報は、物体の表面形状によって引き起こされる投射パターンの幾何学的歪みを利用することによって取得される。1つの実施形態は、赤外線構造化光プロジェクターと、RGBカメラにレジスタリングされた赤外線カメラとの組み合わせ等のステレオセンサーから深度情報を求める。
幾つかの実施形態では、センサー410は立体カメラを備える。例えば、深度センサーは、2つ以上のカメラを用いてシーンの深度情報を取得することができる受動ステレオビジョンセンサーの一部分を成すことができる。捕捉されたシーンにおける双方のカメラに共通の点のピクセル座標を、カメラ姿勢情報及び/又は三角測量技法とともに用いて、ピクセルごとの深度情報を取得することができる。
幾つかの実施形態では、システム400は、デュアルフロントカメラ及び/又は前面カメラ及び背面カメラ等の複数のセンサー410に作動的に接続することができ、これらの複数のセンサーは、様々なセンサーを組み込むこともできる。幾つかの実施形態では、センサー410は、静止画像及びビデオ画像の双方を捕捉することができる。幾つかの実施形態では、センサー410は、例えば、30フレーム毎秒(fps)で画像を捕捉することが可能なRGBD又は立体ビデオカメラを備えることができる。1つの実施形態では、センサー410によって捕捉された画像は、生の未圧縮フォーマットとすることができ、処理及び/又はメモリ460への記憶の前に圧縮することができる。幾つかの実施形態では、画像圧縮は、プロセッサ450によって可逆圧縮技法又は非可逆圧縮技法を用いて実行することができる。
幾つかの実施形態では、プロセッサ450は、IMU430から入力を受信することもできる。他の実施形態では、IMU430は、3軸加速度計(複数の場合もある)、3軸ジャイロスコープ(複数の場合もある)、及び/又は磁気計(複数の場合もある)を備えることができる。IMU430は、速度、方位、及び/又は他の位置関連情報をプロセッサ450に提供することができる。幾つかの実施形態では、IMU430は、測定された情報を、センサー410による各画像フレームの捕捉と同期して出力することができる。幾つかの実施形態では、IMU430の出力は、プロセッサ450がセンサー測定値を融合し及び/又は融合された測定値を更に処理するのに部分的に用いられる。
また、システム400は、カラー画像及び/又は深度画像等の画像をレンダリングするスクリーン又はディスプレイ480を備えることができる。幾つかの実施形態では、ディスプレイ480は、センサー410によって捕捉されたライブ画像、画像335等の融合画像、拡張現実(AR)画像、グラフィカルユーザーインターフェース(GUI)、及び他の番組(program:プログラム)出力を表示するのに用いることができる。幾つかの実施形態では、ディスプレイ480は、ユーザーが、仮想キーボード、アイコン、メニュー、又は他のGUI、ユーザージェスチャー及び/又はスタイラス及び他の筆記用具等の入力デバイスの或る組み合わせを介してデータを入力することを可能にするタッチスクリーンを備えることができ及び/又はこのようなタッチスクリーンとともに収容することができる。幾つかの実施形態では、ディスプレイ480は、液晶ディスプレイ(LCD)又は有機LED(OLED)ディスプレイ等の発光ダイオード(LED)ディスプレイを用いて実施することができる。他の実施形態では、ディスプレイ480は、ウェアラブルディスプレイとすることができる。
幾つかの実施形態では、融合の結果をディスプレイ480にレンダリングすることもできるし、システム400の内部又は外部に存在することができる異なるアプリケーションにサブミットすることもできる。例えば、プロセッサ450上で動作するコンピュータービジョン(CV)アプリケーション455は、コンピュータービジョンベースの追跡方法、モデルベースの追跡方法、及び/又は同時ローカライゼーション/マッピング(SLAM)方法を実施及び実行することができる。
例示的なシステム400は、図示した機能ブロックのうちの1つ以上の追加、組み合わせ、又は省略等によって、本開示と整合性を有するように様々な方法で変更することもできる。例えば、幾つかの構成では、システム400は、IMU430又は送受信機470を備えていない。さらに、幾つかの特定の例示の実施態様では、システム400は、周辺光センサー、マイクロフォン、音響センサー、超音波センサー、レーザーレンジファインダー等の様々な他のセンサー(図示せず)を備える。幾つかの実施形態では、システム400の幾つかの部分は、1つ以上のチップセット等の形態を取る。
プロセッサ450は、ハードウェア、ファームウェア及びソフトウェアの組み合わせを用いて実現することができる。プロセッサ450は、センサー融合及び/又は融合した測定値を更に処理するための方法に関連付けられる計算手順又はプロセスの少なくとも一部を実行するように構成可能な1つ以上の回路を表すことができる。プロセッサ450は、メモリ460から命令及び/又はデータを引き出す。プロセッサ450は、1つ以上の特定用途向け集積回路(ASIC)、中央及び/又はグラフィカル処理ユニット(CPU及び/又はGPU)、デジタルシグナルプロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラー、マイクロコントローラー、マイクロプロセッサ、埋め込みプロセッサコア、電子デバイス、本明細書において記述される機能を実行するように設計された他の電子ユニット、又はその組み合わせを用いて実現することができる。
メモリ460は、プロセッサ450の内部に、及び/又はプロセッサ450の外部に実装することができる。本明細書において使用されるときに、「メモリ」という用語は、任意のタイプの長期、短期、揮発性、不揮発性又は他のメモリを指しており、任意の特定のタイプのメモリ若しくはメモリの数、又はメモリが記憶される物理媒体のタイプに制限されるべきではない。幾つかの実施形態では、メモリ460は、センサー融合及び/又は1つ以上の画像処理を容易にし、プロセッサ450上のCV455によって実行されるSLAM、追跡、3D再構成、及び他のタスクを実行するプログラムコードを保持する。
例えば、メモリ460は、静止画像、深度情報、ビデオフレーム、プログラム結果、並びにIMU430及び他のセンサーによって提供されるデータ等のセンサーの測定値を記憶することができる。一般に、メモリ460は、任意のデータ記憶機構を表すことができる。メモリ460は、例えば、一次メモリ及び/又は二次メモリを含むことができる。一次メモリは、例えば、ランダムアクセスメモリ、リードオンリーメモリ等を含むことができる。図4においてプロセッサ450とは別であるように示されるが、一次メモリの全て又は一部をプロセッサ450内に設けることができるか、又はそうでなくても、プロセッサ450と同一の場所に配置し、及び/又はプロセッサ450に結合することができることは理解されたい。
二次メモリは、例えば、一次メモリと同じ、又は類似のタイプのメモリ、及び/又は例えば、フラッシュ/USBメモリドライブ、メモリカードドライブ、ディスクドライブ、光ディスクドライブ、テープドライブ、ソリッドステートドライブ、ハイブリッドドライブ等の1つ以上のデータ記憶デバイス又はシステムを含むことができる。或る特定の実施態様において、二次メモリは、取外し可能な媒体ドライブ(図示せず)内の非一時的コンピューター可読媒体に動作可能に収容可能であるか、又は別の方法で、動作可能に構成可能とすることができる。幾つかの実施形態において、非一時的コンピューター可読媒体は、メモリ460及び/又はプロセッサ450の一部を形成する。
幾つかの実施形態では、CV455は、様々なコンピュータービジョン方法を実施し及び/又はセンサー410によって捕捉された画像を処理することができる。例えば、CV455は、センサー410によって捕捉された1つ以上の画像を処理して、これらの捕捉された画像に関連付けられた深度情報を用いてモデル化されている環境の再構成を実行するように構成することができる。
深度データに基づいて、再構成中、各ピクセルに3D座標を割り当てることができる。1つの実施形態では、プロセッサ450上のCV455は、単眼(単一カメラ)視覚SLAMシステムを用いて、カメラ410の正確でロバストな6DOF追跡のためのMS周辺の環境の粗いマップを作成することによってカメラ410の位置を追跡する。単眼という用語は、単一の非立体カメラを用いて画像を捕捉すること又は深度情報を伴わずに捕捉された画像を指す。その場合、他の再構成方法は、カメラ姿勢及びピクセルごとの深度情報を用いて、捕捉された画像(複数の場合もある)を視認方向に沿って押し出すことができる。例えば、1つの実施形態では、プロセッサ450は、融合された測定値組を用いてシーン内の物体を追跡するように構成されている。
本発明の上記で説明した実施形態は、多数の方法のうちの任意のもので実施することができる。例えば、実施形態は、ハードウェア、ソフトウェア又はそれらの組み合わせを用いて実施することができる。ソフトウェアで実施される場合、ソフトウェアコードは、単一のコンピューターに設けられるのか又は複数のコンピューター間に分散されるのかにかかわらず、任意の適したプロセッサ又はプロセッサの集合体において実行することができる。そのようなプロセッサは、1つ以上のプロセッサを集積回路部品に有する集積回路として実装することができる。ただし、プロセッサは、任意の適したフォーマットの回路類を用いて実装することができる。
また、本発明の実施形態は、例が提供された方法として実施することができる。この方法の一部として実行される動作は、任意の適切な方法で順序付けすることができる。したがって、動作が示したものと異なる順序で実行される実施形態を構築することができ、これには、例示の実施形態では一連の動作として示されたにもかかわらず、幾つかの動作を同時に実行することを含めることもできる。
請求項の要素を修飾する、特許請求の範囲における「第1」、「第2」等の序数の使用は、それ自体で、1つの請求項の要素の別の請求項の要素に対する優先順位も、優位性も、順序も暗示するものでもなければ、方法の動作が実行される時間的な順序も暗示するものでもなく、請求項の要素を区別するために、単に、或る特定の名称を有する1つの請求項の要素を、同じ(序数の用語の使用を除く)名称を有する別の要素と区別するラベルとして用いられているにすぎない。

Claims (19)

  1. 異なる分解能を有するセンサーの測定値を融合する方法であって、
    第1のセンサーによって測定されたシーンの第1の測定値組を取得することと、
    第2のセンサーによって測定された前記シーンの第2の測定値組を取得することであって、前記第1のセンサーの様式は前記第2のセンサーの様式と異なり、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満であることと、
    前記第1のセンサー及び前記第2のセンサーの較正と、前記第1の測定値組及び前記第2の測定値組の融合とを共同で行い、前記第1のセンサーの座標系と前記第2のセンサーの座標系との間の幾何学的マッピングを定義する較正パラメーターと、前記第1のセンサーの前記分解能よりも高い分解能を有する、前記第1のセンサーの前記様式を含む融合された測定値組とを生成することであって、前記較正及び前記融合は、互いに依拠して、前記較正パラメーター及び前記融合された測定値組を更新するために共同で行われ、前記融合は、前記第2の測定値組の値を用いて、前記第1の測定値組をアップサンプリングし、前記融合された測定値組を生成することと、
    を含み、
    前記較正及び前記融合は、
    前記第2の測定値組を用いて前記第1の測定値組を融合し、前記融合された測定値組を生成することであって、前記第1の測定値組及び前記第2の測定値組は、前記較正パラメーターに従って互いにマッピングされることと、
    前記融合された測定値組を前記第2の測定値組と比較して、前記較正パラメーターの誤差を求めることと、
    前記較正パラメーターを更新して、前記誤差を低減することと、
    終了条件が満たされるまで、前記融合、前記比較、及び前記更新を繰り返すことと、
    を含み、前記方法は、プロセッサを用いて行われる、方法。
  2. 前記較正及び前記融合は、
    前記較正パラメーターを所与として前記融合された測定値組のコスト関数を最適化すること、
    を含む、請求項1に記載の方法。
  3. 前記コスト関数は、
    前記コスト関数を低減する方向を求めることと、
    前記方向に従って前記融合された測定値組を更新することと、
    を含む最急降下法を用いて最適化される、請求項2に記載の方法。
  4. 前記較正及び前記融合は、
    終了基準が満たされるまで、前記較正パラメーター及び前記融合された測定値組を再帰的に更新することであって、前記較正パラメーターが、前記融合された測定値組の変化に応じて更新され、前記融合された測定値組が、前記較正パラメーターの変化に応じて更新されるようにすること、
    を含む、請求項1に記載の方法。
  5. 前記誤差は、前記較正パラメーターを所与として最適化された、前記融合された測定値組のコスト関数の値を含む、請求項に記載の方法。
  6. 前記融合することは、
    前記較正パラメーターを用いて、前記第1の測定値組を前記第2のセンサーの前記座標系にマッピングして、マッピングされた測定値組を形成することと、
    前記第2の測定値組を用いて前記マッピングされた測定値組をアップサンプリングして、前記融合された測定値組を生成することと、
    を含む、請求項に記載の方法。
  7. 前記アップサンプリングは、前記第1のセンサーによって当初に取得された測定値の一貫性を保持する、請求項に記載の方法。
  8. 前記アップサンプリングは、前記融合された測定値組の品質の尺度を最大にする、請求項に記載の方法。
  9. 前記アップサンプリングは、前記融合された測定値組と、前記第2の測定値組との間の相違の尺度を最小にする、請求項に記載の方法。
  10. 前記第1のセンサー及び前記第2のセンサーは、前記第1の測定値組及び前記第2の測定値組を取得するために車両に設置される、請求項1に記載の方法。
  11. 前記第1のセンサーは、深度センサーであり、前記第2のセンサーは、カメラであり、前記第1の測定値組は、前記深度センサーの前記分解能を有する深度画像であり、前記第2の測定値組は、前記カメラの前記分解能を有する輝度画像であり、前記融合された測定値組は、前記カメラの前記分解能を有する深度画像である、請求項1に記載の方法。
  12. シーンを測定して、該シーンの第1の測定値組を生成する第1のセンサーと、
    前記シーンを測定して、該シーンの第2の測定値組を生成する第2のセンサーであって、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満である、第2のセンサーと、
    前記第1のセンサー及び前記第2のセンサーの較正と、前記第1の測定値組及び前記第2の測定値組の融合とを共同で行い、前記第1のセンサーの座標系と前記第2のセンサーの座標系との間の幾何学的マッピングを定義する較正パラメーターと、前記第1のセンサーの前記分解能よりも高い分解能を有する、前記第1のセンサーの様式を含む融合された測定値組とを生成するプロセッサであって、前記較正及び前記融合は、互いに依拠して、前記較正パラメーター及び前記融合された測定値組を更新するために共同で行われ、前記融合は、前記第2の測定値組の値を用いて、前記第1の測定値組をアップサンプリングし、前記融合された測定値組を生成する、プロセッサと、
    を備え
    前記プロセッサは、前記較正及び前記融合を行うに当たり、
    前記第2の測定値組を用いて前記第1の測定値組を融合し、前記融合された測定値組を生成し、前記第1の測定値組及び前記第2の測定値組は、前記較正パラメーターに従って互いにマッピングされ、
    前記融合された測定値組を前記第2の測定値組と比較して、前記較正パラメーターの誤差を求め、
    前記較正パラメーターを更新して、前記誤差を低減し、
    終了条件が満たされるまで、前記融合、前記比較、及び前記更新を繰り返す、
    システム。
  13. 前記プロセッサは、前記融合された測定値組を用いて前記シーン内の物体を追跡するように構成される、請求項12に記載のシステム。
  14. 前記プロセッサは、前記較正パラメーターを所与として、前記融合された測定値組のコスト関数を最適化する、請求項12に記載のシステム。
  15. 前記第1のセンサー及び前記第2のセンサーは、前記第1の測定値組及び前記第2の測定値組を取得するために車両に設置され、前記プロセッサは、前記車両の計算システムの一部を形成する、請求項12に記載のシステム。
  16. 前記第1のセンサーは、深度センサーであり、前記第2のセンサーは、カメラであり、前記第1の測定値組は、前記深度センサーの前記分解能を有する深度画像であり、前記第2の測定値組は、前記カメラの前記分解能を有する輝度画像であり、前記融合された測定値組は、前記カメラの前記分解能を有する深度画像である、請求項12に記載のシステム。
  17. 較正されていないセンサーの出力を融合する方法であって、
    第1のセンサーからシーンの第1の測定値組を取得することと、
    第2のセンサーから前記シーンの第2の測定値組を取得することであって、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満であることと、
    前記第2の測定値組を用いて前記第1の測定値組を融合して、前記第1のセンサーの様式及び該第1のセンサーの前記分解能よりも高い分解能を含む融合された測定値組を生成することであって、該融合は、前記第1のセンサーの座標系と前記第2のセンサーの座標系との幾何学的マッピングを定義する較正パラメーターを用い、前記融合は、前記第2の測定値組の値を用いて、前記第1の測定値組をアップサンプリングし、前記融合された測定値組を生成することと、
    前記融合された測定値組を、前記第2の測定値組と比較して、前記較正パラメーターの誤差を求めることと、
    前記較正パラメーターを更新して前記誤差を低減することと、
    終了条件が満たされるまで、前記融合、前記比較、及び前記更新を繰り返すことと、
    を含む、方法。
  18. 前記第1のセンサーの前記様式は、前記第2のセンサーの様式と異なり、前記融合された測定値組は、前記第1のセンサーの前記様式及び前記第2のセンサーの前記様式を有するデータを含み、前記第2のセンサーの分解能を有する、請求項17に記載の方法。
  19. 前記第1のセンサーは、深度センサーであり、前記第2のセンサーは、カメラである、請求項18に記載の方法。
JP2018516582A 2016-01-12 2016-12-20 異なる分解能を有するセンサーの出力を融合するシステム及び方法 Active JP6552729B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/993,307 2016-01-12
US14/993,307 US10582121B2 (en) 2016-01-12 2016-01-12 System and method for fusing outputs of sensors having different resolutions
PCT/JP2016/088804 WO2017122529A1 (en) 2016-01-12 2016-12-20 System and method for fusing outputs of sensors having different resolutions

Publications (2)

Publication Number Publication Date
JP2018535402A JP2018535402A (ja) 2018-11-29
JP6552729B2 true JP6552729B2 (ja) 2019-07-31

Family

ID=57915033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018516582A Active JP6552729B2 (ja) 2016-01-12 2016-12-20 異なる分解能を有するセンサーの出力を融合するシステム及び方法

Country Status (3)

Country Link
US (1) US10582121B2 (ja)
JP (1) JP6552729B2 (ja)
WO (1) WO2017122529A1 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962647B2 (en) 2016-11-30 2021-03-30 Yujin Robot Co., Ltd. Lidar apparatus based on time of flight and moving object
CN110235026A (zh) * 2017-01-26 2019-09-13 御眼视觉技术有限公司 基于对齐的图像和激光雷达信息的车辆导航
US10509120B2 (en) * 2017-02-16 2019-12-17 GM Global Technology Operations LLC Lidar-radar relative pose calibration
JP6816658B2 (ja) * 2017-06-09 2021-01-20 トヨタ自動車株式会社 物標情報取得装置
WO2019039733A1 (ko) * 2017-08-21 2019-02-28 (주)유진로봇 카메라와 라이다를 이용한 융합 센서 및 이동체
CN107862293B (zh) * 2017-09-14 2021-05-04 北京航空航天大学 基于对抗生成网络的雷达生成彩色语义图像系统及方法
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
US20200241140A1 (en) * 2017-09-28 2020-07-30 Sony Semiconductor Solutions Corporation Apparatus and method
US10706505B2 (en) * 2018-01-24 2020-07-07 GM Global Technology Operations LLC Method and system for generating a range image using sparse depth data
DE102018203075A1 (de) * 2018-03-01 2019-09-05 Robert Bosch Gmbh Kühlvorrichtung
US10628920B2 (en) * 2018-03-12 2020-04-21 Ford Global Technologies, Llc Generating a super-resolution depth-map
US11435752B2 (en) 2018-03-23 2022-09-06 Motional Ad Llc Data fusion system for a vehicle equipped with unsynchronized perception sensors
US11061120B2 (en) 2018-04-24 2021-07-13 Ford Global Technologies, Llc Sensor calibration
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor
CN108875164B (zh) * 2018-06-01 2023-04-07 南京理工大学 一种带电更换跌落式熔断器作业场景的快速重构方法
EP3811113A1 (en) * 2018-06-22 2021-04-28 Ams Ag Using time-of-flight and pseudo-random bit sequences to measure distance to object
JP6717887B2 (ja) 2018-07-12 2020-07-08 ファナック株式会社 距離補正機能を有する測距装置
US11609313B2 (en) * 2018-07-31 2023-03-21 Waymo Llc Hybrid time-of-flight and imager module
US10598791B2 (en) 2018-07-31 2020-03-24 Uatc, Llc Object detection based on Lidar intensity
JP6970065B2 (ja) * 2018-09-06 2021-11-24 株式会社Soken 物体検出装置
US10955857B2 (en) 2018-10-02 2021-03-23 Ford Global Technologies, Llc Stationary camera localization
US11609574B2 (en) * 2018-11-13 2023-03-21 FLIR Belgium BVBA Extrinsic sensor calibration systems and methods
US11346950B2 (en) 2018-11-19 2022-05-31 Huawei Technologies Co., Ltd. System, device and method of generating a high resolution and high accuracy point cloud
CN109614889B (zh) * 2018-11-23 2020-09-18 华为技术有限公司 对象检测方法、相关设备及计算机存储介质
US10627512B1 (en) * 2018-11-29 2020-04-21 Luminar Technologies, Inc. Early fusion of lidar return data with camera information
CN109781163B (zh) * 2018-12-18 2021-08-03 北京百度网讯科技有限公司 标定参数有效性检验方法、装置、设备及存储介质
CN111754624A (zh) * 2019-03-29 2020-10-09 株式会社理光 变换矩阵确定方法、设备和可记录介质
US11493635B2 (en) * 2019-04-17 2022-11-08 Uatc, Llc Ground intensity LIDAR localizer
US11372091B2 (en) 2019-06-28 2022-06-28 Toyota Research Institute, Inc. Systems and methods for correcting parallax
JP7162142B2 (ja) * 2019-08-02 2022-10-27 日立Astemo株式会社 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
DE102019212279B3 (de) * 2019-08-15 2021-01-28 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
KR102269750B1 (ko) * 2019-08-30 2021-06-25 순천향대학교 산학협력단 Cnn을 활용한 카메라 및 라이다 센서 기반 실시간 객체 탐지 방법
CN110751722B (zh) * 2019-09-09 2021-06-15 清华大学 同时定位建图方法及装置
JP2023501812A (ja) * 2019-11-13 2023-01-19 ユヴァル ネフマディ 自律車両環境知覚ソフトウェアアーキテクチャ
US11854279B2 (en) * 2020-05-25 2023-12-26 Subaru Corporation Vehicle exterior environment recognition apparatus
IL275896B (en) * 2020-07-07 2022-07-01 Frank Amit Imaging device and method
US11210535B1 (en) * 2020-08-17 2021-12-28 Ford Global Technologies, Llc Sensor fusion
CN112400489B (zh) * 2020-10-27 2022-05-17 贵州省草地技术试验推广站 一种改善牧草储藏性能的储藏仓及其储藏方法
CN112532870B (zh) * 2020-11-09 2021-11-30 福建福瑞康信息技术有限公司 多终端自适应数据处理系统、方法及计算机可读存储介质
CN112911265B (zh) * 2021-02-01 2023-01-24 北京都视科技有限公司 融合处理器及融合处理系统
DE102021102480A1 (de) 2021-02-03 2022-08-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum bestimmen einer ersten montageposition zumindest einer ersten sensorvorrichtung eines assistenzsystems eines kraftfahrzeugs sowie assistenzsystem
CN113034621B (zh) * 2021-05-24 2021-07-30 腾讯科技(深圳)有限公司 联合标定方法、装置、设备、车辆及存储介质
DE102022103958A1 (de) 2022-02-18 2023-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Vorrichtung und Verfahren zum Kalibrieren zumindest eines Parameters eines Radarsystems und mobiles Radarsystem
US20230341542A1 (en) * 2022-04-26 2023-10-26 Gm Cruise Holdings Llc Use of camera information for radar beamforming
JP2024066886A (ja) * 2022-11-02 2024-05-16 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
WO2024105829A1 (ja) * 2022-11-16 2024-05-23 日本電信電話株式会社 画像処理装置及び画像処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317507A (ja) * 2003-04-04 2004-11-11 Omron Corp 監視装置の軸調整方法
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
US7889949B2 (en) * 2007-04-30 2011-02-15 Microsoft Corporation Joint bilateral upsampling
CN102105810B (zh) * 2008-07-24 2013-10-23 皇家飞利浦电子股份有限公司 三维(3-d)画面捕获
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
US20100235129A1 (en) 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
US8704887B2 (en) * 2010-12-02 2014-04-22 GM Global Technology Operations LLC Multi-object appearance-enhanced fusion of camera and range sensor data
JP2012146132A (ja) * 2011-01-12 2012-08-02 Osaka City Univ 3次元データと2次元データの統合方法及びこれを用いた見守りシステム、監視システム
US9875557B2 (en) * 2012-11-05 2018-01-23 The Chancellor Masters And Scholars Of The University Of Oxford Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus
US8891905B2 (en) * 2012-12-19 2014-11-18 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Boundary-based high resolution depth mapping
US8983177B2 (en) * 2013-02-01 2015-03-17 Mitsubishi Electric Research Laboratories, Inc. Method for increasing resolutions of depth images

Also Published As

Publication number Publication date
JP2018535402A (ja) 2018-11-29
US10582121B2 (en) 2020-03-03
WO2017122529A1 (en) 2017-07-20
US20170200273A1 (en) 2017-07-13
WO2017122529A8 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP6552729B2 (ja) 異なる分解能を有するセンサーの出力を融合するシステム及び方法
CN108603933B (zh) 用于融合具有不同分辨率的传感器输出的系统和方法
US11422265B2 (en) Driver visualization and semantic monitoring of a vehicle using LiDAR data
EP3378033B1 (en) Systems and methods for correcting erroneous depth information
US9443350B2 (en) Real-time 3D reconstruction with power efficient depth sensor usage
EP3469306B1 (en) Geometric matching in visual navigation systems
US10636151B2 (en) Method for estimating the speed of movement of a camera
US10509983B2 (en) Operating device, operating system, operating method, and program therefor
US10242454B2 (en) System for depth data filtering based on amplitude energy values
WO2020037492A1 (en) Distance measuring method and device
JP7236565B2 (ja) 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム
US10237532B2 (en) Scan colorization with an uncalibrated camera
Zhang et al. A real-time method for depth enhanced visual odometry
CN111436216A (zh) 用于彩色点云生成的方法和系统
US11082633B2 (en) Method of estimating the speed of displacement of a camera
WO2018179549A1 (en) System and method for controlling motion of vehicle
CN112288825A (zh) 相机标定方法、装置、电子设备、存储介质和路侧设备
US11651502B2 (en) Systems and methods for updating continuous image alignment of separate cameras
US20240176025A1 (en) Generating a parallax free two and a half (2.5) dimensional point cloud using a high resolution image
WO2022019128A1 (ja) 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体
CN117237789A (zh) 基于全景相机和激光雷达融合生成纹理信息点云地图方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190702

R150 Certificate of patent or registration of utility model

Ref document number: 6552729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250