JP2023510331A - 車両又はロボットのカメラ及び/又はlidarセンサを較正するための方法 - Google Patents

車両又はロボットのカメラ及び/又はlidarセンサを較正するための方法 Download PDF

Info

Publication number
JP2023510331A
JP2023510331A JP2022542293A JP2022542293A JP2023510331A JP 2023510331 A JP2023510331 A JP 2023510331A JP 2022542293 A JP2022542293 A JP 2022542293A JP 2022542293 A JP2022542293 A JP 2022542293A JP 2023510331 A JP2023510331 A JP 2023510331A
Authority
JP
Japan
Prior art keywords
camera
pattern
lidar sensor
virtual
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022542293A
Other languages
English (en)
Other versions
JP7437513B2 (ja
Inventor
シンドラー,フィリップ
ブラウン,アレクサンダー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Publication of JP2023510331A publication Critical patent/JP2023510331A/ja
Application granted granted Critical
Publication of JP7437513B2 publication Critical patent/JP7437513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2504Calibration devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Figure 2023510331000001
本発明は、車両(1)又はロボットのカメラ(3)及び/又はLIDARセンサ(2.1)を較正するための方法であって、車両周囲又はロボット周囲の画像(B)は、カメラ(3)を使用して撮像され、少なくとも1つのLIDARセンサ(2.1)を使用して、実パターン(M)は、車両周囲又はロボット周囲においてカメラ(3)の撮像範囲の少なくとも1つの部分に放射され、実パターン(M)は、カメラ(3)を使用して撮像される、方法、に関する。本発明によれば、LIDARセンサ(2.1)の座標系において生成された仮想パターン(M)は、LIDARセンサ(2.1)を使用して車両周囲又はロボット周囲において仮想平面(E)上に投影され、LIDARセンサ(2.1)から放射されたレーザ光線は、仮想平面(E)を貫通し、仮想パターン(M)と相関する実パターン(M)は、実投影面(A)上に生成され、カメラ(3)を使用して撮像された実パターン(M)は、実投影面(A)の表面プロファイルに基づいて仮想平面(E)に再計算され、この再計算から、ひずみ補正仮想パターン(Mev)は、カメラ(3)の座標系において生成され、カメラ(3)及び/又はLIDARセンサ(2.1)は、仮想パターン(M)とひずみ補正仮想パターン(Mev)との比較に基づいて較正される。
【選択図】図1

Description

本発明は、請求項1の前段部に記載の車両又はロボットのカメラ及び/又はLIDARセンサを較正するための方法に関する。
特許文献1から、車両のカメラを較正するための方法は、公知であり、本方法においては、カメラを使用して、車両周囲の画像が撮像される。少なくとも1つのLIDARセンサを使用して、定義されたパターンは、車両周囲においてカメラの撮像範囲の少なくとも1つの部分に放射され、定義されたパターンは、カメラによって撮像される。カメラを使用して撮像された画像に含まれるパターンまでの距離値は、カメラに結合された又はカメラに統合された評価ユニットを用いて決定され、カメラの較正は、距離値に基づいて実行される。LIDARセンサは、自己較正するように設計されており、自己較正は、物体の追跡に基づく。
独国特許第10 2016 009 327 A1号明細書
本発明は、従来技術に対して改善された、車両又はロボットのカメラ及び/又はLIDARセンサを較正するための方法を提供することを課題とする。
本課題は、本発明によれば、請求項1に規定された特徴を有する方法によって解決される。
本発明の有利な実施形態は、従属請求項の主題である。
車両又はロボットのカメラ及び/又はLIDARセンサを較正するための方法では、車両周囲又はロボット周囲の画像は、カメラを使用して撮像される。少なくとも1つのLIDARセンサを使用して、実パターンは、車両周囲又はロボット周囲においてカメラの撮像範囲の少なくとも1つの部分に放射され、実パターンは、カメラを使用して撮像される。
本発明によれば、LIDARセンサの座標系において生成された仮想パターンは、LIDARセンサを使用して車両周囲又はロボット周囲において仮想平面上に投影される。その際、LIDARセンサから放射されたレーザ光線は、仮想平面を貫通し、仮想パターンと相関する実パターンが、実投影面上に生成される。カメラを使用して撮像された実パターンは、実投影面の表面プロファイルに基づいて仮想平面へと再計算される。この再計算から、ひずみ補正仮想パターンが、カメラの座標系において生成され、カメラ及び/又はLIDARセンサは、仮想パターンとひずみ補正仮想パターンとの比較に基づいて較正される。
カメラを使用して撮像された画像では、レンズ系に起因して、またカメラで起こり得るオクルージョンにより、光学的ひずみが生じる可能性がある。このような光学的ひずみの発生を回避するために、カメラの較正は通常、例えば、チェッカーボードパターンを使用して、車両製造又はロボット製造において行われる。その際、決定された補正値が保存される。ただし、これらの補正値は、コンポーネントの経年劣化、多様な温度範囲、及び外部の機械的影響により、その正確性が損なわれるおそれがある。
本方法により、カメラをほぼすべての目的に合わせて較正できるため、車両又はロボットの製造プロセスでの、例えば、製造プロセスの最後での較正を簡素化することができる。更に、較正は、車両又はロボットが動作している間、例えば、動作の短い一時中断中にも実行することができる。したがって、経年変化の影響を感知するために、カメラの動作継続時間にわたって較正することも可能である。したがって、較正は、カメラ及びLIDARセンサの操作中に実行され、かつ補正することもでき、これは、自動化された、特に高度に自動化された、自律的又は半自律的な方法で運転される車両にもまた特に有利である。また、複数の較正を1つのステップに組み合わせることもできる。較正を考慮した結果、カメラとLIDARセンサは、同じ場所にある同じ物体を認識する。
言及されたロボットは、同様に、例えば、車両として、例えば、高度に自動化された又は完全に自動化された乗用車として、高度に自動化された又は完全に自動化された輸送車両として、又は高度に自動化された又は完全に自動化されたトラックとして形成されている。また、ロボットは、産業用ロボット、自動芝刈り機、ロボット掃除機、モッピングロボット、又は自動運航船であり得る。
本方法の可能な一実施形態では、実投影面の表面プロファイルは、LIDARセンサを使用して決定される実パターンのピクセルからの距離に基づいて決定される。これにより、カメラ及び/又はLIDARセンサを、特にいわゆるクロス較正で較正することができ、このクロス較正では、LIDARセンサの反射がカメラに登録され、LIDARセンサに対するカメラの相対的較正のために、すなわちカメラとLIDARセンサとの間の誤差に対して使用される。カメラで検出されたLIDAR反射に基づいて、車両又はロボットの周囲の任意の物体に仮想パターンを規定することができ、この物体は、LIDARセンサによって3次元的に測定されるため、いわゆるグラウンドトゥルースを生成できる。カメラとLIDARセンサとの互いに対する較正により、カメラ及びLIDARセンサを使用して感知された物体を相互に適切に割り当てることができ、精度を向上させることが可能になる。カメラ及びLIDARセンサを相互に直接較正する場合、それらの間の相対誤差が減少する。LIDARセンサに対するカメラの、またその逆でそのように行われた直接較正により、カメラ及びLIDARセンサの生データの直接融合を実行することができる。更に、カメラ及びLIDARセンサの独立したデータの融合もまた改善される。
本方法の可能な更なる実施形態では、仮想パターンをひずみ補正仮想パターンに変換するための、かつ/又はひずみ補正仮想パターンを仮想パターンに変換するための少なくとも1つの変換方程式が、仮想パターンとひずみ補正仮想パターンとの比較において決定される。すなわち、両方の仮想パターンに基づいて、一方の仮想パターンを他方の仮想パターンに変換するための変換パラメータが計算されることを意味する。変換パラメータは、センサ構成のうちの1つ、すなわちカメラ又はLIDARセンサによって決定された周囲データを他のセンサ構成の座標系に変換するために使用することができる。
本方法の可能な更なる実施形態では、カメラ及び/又はLIDARセンサの方位角誤差及び/又は仰角誤差は、較正において決定される。したがって、カメラは、カメラの光軸とLIDARセンサの光軸との間のあり得る差異、すなわち方位角誤差及び仰角誤差を補償できるように、LIDARセンサに対して較正することができる。したがって、方位角誤差及び仰角誤差から生じる、カメラの座標系に対するLIDARセンサの座標系の変位及び回転を決定することができる。この変位及び回転は、2つの仮想パターンを比較するときに考慮され、これらの仮想パターンも同様に、相互に変位され、かつ回転されている。したがって、特に正確な較正を実行することができる。
本方法の可能な更なる実施形態では、仮想パターンを生成するために、LIDARセンサを使用して放射されたレーザ光線は、LIDARセンサの回転ミラーを使用して偏向される。したがって、仮想平面内の仮想パターン及び実パターンは、特に簡単かつ信頼できる方法で生成可能である。
本方法の可能な更なる実施形態では、実パターンがカメラを使用して撮像される場合、カメラの複数の連続撮像画像にわたって積分が実行される。この積分により、赤外線領域でのカメラの解像度が向上することは、従来のカラーカメラとして形成されたカメラが可視光領域で最高の感度を有するのに対して、赤外線領域でかなり低い感度を有するため、有利である。更に、回転ミラーの不規則運動は、仮想パターンの線と線との間の間隔が変動すること、したがって、実パターンの線と線との間の間隔が変動することをもたらす可能性がある。カメラの複数の連続撮像画像にわたって積分することで、これらの誤差の補正が可能となる。
本方法の可能な更なる実施形態では、カメラは、較正のために較正モードに切り替えられる。
本方法の可能な更なる実施形態では、仮想パターンは、赤外線レーザ光線によって生成されるため、カメラを使用して撮像が可能である。
本方法の可能な更なる実施形態では、カメラを使用して撮像された画像を生成するために、カメラに入射する光線は、カメラ自体の赤外線光フィルタによってフィルタリングされる。赤外線フィルタにより、干渉が低減され、色品質が向上する。
本方法の可能な更なる実施形態では、LIDARセンサによって放射され、かつ実投影面によって反射される赤外線レーザ光線を透過する赤外線フィルタが使用され、その結果、実パターンの撮像が可能である。
本方法の可能な更なる実施形態では、赤外線フィルタは、LIDARセンサによって放射され、かつ実投影面によって反射される赤外線レーザ光線に対して透過性になるように、カメラの較正モードで切り替えられる。したがって、赤外線フィルタは、カメラの通常の動作中に干渉を減らし、色品質を向上させるために使用することができ、較正モードでは、非アクティブ化して、LIDARセンサを使用して放射され、投影面によって反射される赤外線レーザ光線を最適に感知するために、無効化することができる。
以下に図面を参照して、本発明の実施形態をより詳細に説明する。
車両、仮想パターン、及び実パターンの概略斜視図である。 車両のカメラ及び/又はLIDARセンサを較正するための装置の概略ブロック図である。
互いに対応する部分には、図面全体で同じ参照符号が付されている。
図1には、車両1、仮想パターンM、及び実パターンMの斜視図が示されている。図2は、車両1のカメラ3及び/又はLIDARセンサ2.1を較正するための装置4の可能な実施形態のブロック図を示す。
以下の説明は、少なくとも1つのカメラ3及び/又は少なくとも1つのLIDARセンサ2.1を含むロボットにも同様に適用可能である。そのようなロボットはまた、例えば、車両として、例えば、高度に自動化された又は完全に自動化された乗用車として、高度に自動化された又は完全に自動化された輸送車両として、又は高度に自動化された又は完全に自動化されたトラックとして形成されている。また、ロボットは、産業用ロボット、自動芝刈り機、ロボット掃除機、モッピングロボット、又は自動運航船であり得る。
車両1は、少なくとも1つのLIDARセンサ2.1を備えたLIDAR2及びカメラ3を含み、LIDAR2及びカメラ3は、車両周囲を撮像するように形成されている。
装置4は、LIDAR2、カメラ3、及び処理ユニット5を含む。
較正の目的は、カメラ3の光軸とLIDARセンサ2.1の光軸との間のあり得る差異、すなわち方位角誤差及び仰角誤差が補正されるように、LIDARセンサ2.1に対してカメラ3を較正することであり、その結果、カメラ3及びLIDARセンサ2.1は、同じ場所にある同じ物体を認識する。
この目的のために、仮想平面Eは、車両1の前方に画定され、仮想平面Eは、カメラ3の撮像範囲及びLIDARセンサ2.1の感知範囲内にある。赤外線レーザ光線は、LIDARセンサ2.1を使用して放射され、そのようにして、仮想パターンMは、仮想平面E上に生成される。仮想パターンMは、例えば、チェッカーボードパターンである。その際、仮想パターンMは、LIDARセンサ2.1の座標系において生成される。赤外線レーザ光線は、仮想平面Eを貫通するので、仮想パターンMと相関する実パターンMは、車両周囲の投影面A、例えば、路面に投影される。この投影された実パターンMが仮想パターンMと比較して歪んでいるのは、実パターンMが作成される投影面Aが、仮想平面Eに対して平行面ではないためである。
可能な一実施形態では、LIDAR2又はLIDARセンサ2.1は、回転ミラーを有し、この回転ミラーを用いて、赤外線レーザ光線は、スキャンするシーンにわたって偏向される。
投影された実パターンMの個々のピクセルまでの距離dは、LIDARセンサ2.1を使用して決定される。したがって、投影面Aの表面プロファイルは、処理ユニット5を使用して3次元的に決定され、いわゆるグラウンドトゥルースが生成される。
カメラ3を使用して、実パターンMの少なくとも1つの画像Bが撮像される。投影面Aの決定された表面プロファイルに基づいて、撮像された実パターンMは、仮想平面E上で実パターンMがどのように見えることになるかを再計算することによって、処理ユニット5を使用してひずみ補正される。この再計算の結果は、カメラ3の座標系において再計算されたひずみ補正仮想パターンMevである。
LIDAR2の回転ミラーの不規則運動は、仮想パターンMの線と線との間の間隔が変動すること、したがって実パターンMの線と線との間の間隔が変動することをもたらす可能性があるため、実パターンMを撮像するときにこれらの誤差を補正するために、可能な実施形態では、カメラ3の複数の画像Bにわたって積分が実行される。この積分により、赤外線領域でのカメラ3の解像度もまた向上し、これは、従来のカラーカメラとして形成されたカメラ3が可視光領域で最高の感度を有し、赤外線領域でかなり低い感度を有するため、有利である。
可能な更なる実施形態では、カメラ3は、較正のために較正モードに切り替えられる。更に、干渉を低減し、かつ/又は色品質を向上させるために、カメラ3が赤外光フィルタを有することが可能である。この赤外線フィルタは、例えば、反射されたIRレーザパルスに対して透過性であること、又はカメラ3の較正モードにおいて、LIDARセンサ2.1の赤外線レーザ光線に対する透過状態に切り替え可能であることのいずれかであるように設計されている。
方位角誤差及び仰角誤差に基づいて、LIDARセンサ2.1の座標系は、カメラ3の座標系に対して変位され、かつ回転されている。したがって、2つの仮想パターンM、Mevもまた、互いに対して変位され、かつ回転されている。
一方の仮想パターンM、Mevを他方の仮想パターンMev、Mに変換するための変換方程式は、2つの仮想パターンM、Mevから決定される。すなわち、座標変換の変換パラメータPが決定されることを意味し、変換パラメータPを用いて、カメラ3によって撮像されたデータをLIDARセンサ2.1の座標系に変換することができるか、又はLIDARセンサ2.1によって感知されたデータをカメラ3の座標系に変換することができる。
次いで、決定された変換パラメータPを用いて、通常の動作中、LIDARセンサ2.1又はカメラ3によって決定された周囲データは、それぞれの他方のセンサの座標系に変換される。次いで、LIDARセンサ2.1及びカメラ3は、同じ場所で同じ物体を認識する。

Claims (10)

  1. 車両(1)又はロボットのカメラ(3)及び/又はLIDARセンサ(2.1)を較正するための方法であって、
    -車両周囲又はロボット周囲の画像(B)は、前記カメラ(3)を使用して撮像され、
    -実パターン(M)は、少なくとも1つのLIDARセンサ(2.1)を使用して、前記車両周囲又は前記ロボット周囲において前記カメラ(3)の撮像範囲の少なくとも1つの部分に放射され、
    -前記実パターン(M)は、前記カメラ(3)を使用して撮像される、方法において、
    -前記LIDARセンサ(2.1)の座標系において生成された仮想パターン(M)は、前記LIDARセンサ(2.1)を使用して、前記車両周囲又は前記ロボット周囲において仮想平面(E)上に投影され、
    -前記LIDARセンサ(2.1)を使用して放射されたレーザ光線は、前記仮想平面(E)を貫通し、前記仮想パターン(M)と相関する前記実パターン(M)は、実投影面(A)上で生成され、
    -前記カメラ(3)を使用して撮像された前記実パターン(M)は、前記実投影面(A)の表面プロファイルに基づいて前記仮想平面(E)へと再計算され、前記再計算から、ひずみ補正仮想パターン(Mev)は、前記カメラ(3)の座標系において生成され、
    -前記カメラ(3)及び/又は前記LIDARセンサ(2.1)は、前記仮想パターン(M)と前記ひずみ補正仮想パターン(Mev)との比較に基づいて較正されることと、を特徴とする、方法。
  2. 前記実投影面(A)の前記表面プロファイルは、前記LIDARセンサ(2.1)を使用して決定された、前記実パターン(M)のピクセルまでの距離に基づいて決定されることを特徴とする、請求項1に記載の方法。
  3. 前記仮想パターン(M)の前記ひずみ補正仮想パターン(Mev)への変換及び/又は前記ひずみ補正仮想パターン(Mev)の前記仮想パターン(M)への変換のための少なくとも1つの変換方程式は、前記仮想パターン(Mv)と前記ひずみ補正仮想パターン(Mev)との比較において決定されることを特徴とする、請求項1又は2に記載の方法。
  4. 前記カメラ(3)及び/又は前記LIDARセンサ(2.1)の方位角誤差及び/又は仰角誤差は、前記較正において決定されることを特徴とする、請求項1から3のいずれか一項に記載の方法。
  5. 前記仮想パターン(M)を生成するために、前記LIDARセンサ(2.1)を使用して放射されたレーザ光線は、前記LIDARセンサ(2.1)の回転ミラーを使用して偏向されることを特徴とする、請求項1から4のいずれか一項に記載の方法。
  6. 前記実パターン(M)が前記カメラ(3)を使用して撮像されるとき、前記カメラ(3)の複数の連続撮像画像(B)にわたって積分が実行されることを特徴とする、請求項1から5のいずれか一項に記載の方法。
  7. 前記カメラ(3)は、前記較正のために較正モードに切り替えられることを特徴とする、請求項1から6のいずれか一項に記載の方法。
  8. 前記仮想パターン(M)は、赤外線レーザ光線を使用して生成されることを特徴とする、請求項1から7のいずれか一項に記載の方法。
  9. 前記カメラ(3)を使用して撮像された画像(B)を生成するために、前記カメラ(3)に入射する光線は、カメラ自体の赤外線フィルタを使用してフィルタリングされることを特徴とする、請求項1から8のいずれか一項に記載の方法。
  10. -前記LIDARセンサ(2.1)から放射され、かつ前記実投影面(A)により反射される赤外線レーザ光線に対して透過性である赤外線フィルタが使用されること、及び/又は
    -前記赤外線フィルタは、前記カメラ(3)の較正モードでは、前記LIDARセンサ(2.1)から放射され、かつ前記実投影面(A)により反射される赤外線レーザ光線に対して透過性に切り替えられること、を特徴とする、請求項9に記載の方法。
JP2022542293A 2020-01-31 2020-12-14 車両又はロボットのカメラ及び/又はlidarセンサを較正するための方法 Active JP7437513B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102020102466.5A DE102020102466A1 (de) 2020-01-31 2020-01-31 Verfahren zur Kalibrierung einer Kamera und/oder eines Lidarsensors eines Fahrzeugs oder eines Roboters
DE102020102466.5 2020-01-31
PCT/EP2020/085898 WO2021151572A1 (de) 2020-01-31 2020-12-14 Verfahren zur kalibrierung einer kamera und/oder eines lidarsensors eines fahrzeugs oder eines roboters

Publications (2)

Publication Number Publication Date
JP2023510331A true JP2023510331A (ja) 2023-03-13
JP7437513B2 JP7437513B2 (ja) 2024-02-22

Family

ID=74095798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022542293A Active JP7437513B2 (ja) 2020-01-31 2020-12-14 車両又はロボットのカメラ及び/又はlidarセンサを較正するための方法

Country Status (6)

Country Link
US (1) US20230082700A1 (ja)
JP (1) JP7437513B2 (ja)
KR (1) KR20220114648A (ja)
CN (1) CN115023626A (ja)
DE (1) DE102020102466A1 (ja)
WO (1) WO2021151572A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240068814A (ko) 2022-11-04 2024-05-20 주식회사 테크웨이즈 자율주행차의 라이다 센서 평가 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090059011A1 (en) * 2007-09-05 2009-03-05 Junhua Sun Calibration method for structure parameters of structured-light vision sensor
DE102016009327A1 (de) * 2016-07-30 2017-02-02 Daimler Ag Vorrichtung und Verfahren zur Kalibrierung einer Kamera

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4861034B2 (ja) 2006-03-29 2012-01-25 クラリオン株式会社 車載カメラのキャリブレーションシステム
DE102015008551A1 (de) * 2015-07-07 2016-01-14 Daimler Ag Kalibrierung einer Kameraeinheit eines Kraftwagens
DE102019000438A1 (de) * 2019-01-22 2019-06-06 Daimler Ag Verfahren zu einer Kalibrierung einer fahrzeugeigenen Kamera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090059011A1 (en) * 2007-09-05 2009-03-05 Junhua Sun Calibration method for structure parameters of structured-light vision sensor
DE102016009327A1 (de) * 2016-07-30 2017-02-02 Daimler Ag Vorrichtung und Verfahren zur Kalibrierung einer Kamera

Also Published As

Publication number Publication date
JP7437513B2 (ja) 2024-02-22
CN115023626A (zh) 2022-09-06
WO2021151572A1 (de) 2021-08-05
US20230082700A1 (en) 2023-03-16
KR20220114648A (ko) 2022-08-17
DE102020102466A1 (de) 2021-08-05

Similar Documents

Publication Publication Date Title
JP5891280B2 (ja) 環境を光学的に走査および測定する方法ならびにデバイス
US20230076693A1 (en) Method for calibrating a lidar sendor
US10218961B2 (en) Calibration method, calibration device, and computer program product
US8396251B2 (en) Method for determining the position of an object from a digital image
JP2006038843A (ja) 距離画像センサの較正方法
KR101831672B1 (ko) 차량 휠의 오리엔테이션을 결정하는 검출 장치 및 이에 관한 시스템
CN103996183A (zh) 校准机动车辆中的传感器总成的方法
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
JP2000504418A (ja) 距離及び/又は位置測定装置
JP7437513B2 (ja) 車両又はロボットのカメラ及び/又はlidarセンサを較正するための方法
US20220091267A1 (en) Method for ascertaining an operating parameter for operating a surroundings detection system for a vehicle, and surroundings detection system
CN105814400A (zh) 校准车辆的相机的方法和系统
CN116269059B (zh) 扫地机器人标定系统及方法
JP6816454B2 (ja) 撮像装置、及び移動体システム
FR2884781A1 (fr) Methode et dispositif de calibrage de camera
JP6996582B2 (ja) 校正方法、校正装置及びプログラム
US20220260717A1 (en) Determining a pitch angle position of an active optical sensor system
JP6949086B2 (ja) カメラ装置、運転支援システムおよび車両
JP6367584B2 (ja) カメラキャリブレーション装置
JP6907678B2 (ja) 移動ロボット
JP2011180962A (ja) 運転支援装置、運転支援方法およびプログラム
WO2020090041A1 (ja) 光軸ズレ検出装置、対象物検出装置、および移動体
WO2020016994A1 (ja) 画像歪み検査装置、画像歪み検査方法及びプログラム
KR102435313B1 (ko) 광전자 센서의 각도 위치를 결정하는 방법 및 테스트 스탠드
JP4305142B2 (ja) 画像補正方法及び撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240209

R150 Certificate of patent or registration of utility model

Ref document number: 7437513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150