JP7375220B2 - Lidar装置の試験システム - Google Patents

Lidar装置の試験システム Download PDF

Info

Publication number
JP7375220B2
JP7375220B2 JP2022555780A JP2022555780A JP7375220B2 JP 7375220 B2 JP7375220 B2 JP 7375220B2 JP 2022555780 A JP2022555780 A JP 2022555780A JP 2022555780 A JP2022555780 A JP 2022555780A JP 7375220 B2 JP7375220 B2 JP 7375220B2
Authority
JP
Japan
Prior art keywords
lidar
image
test system
test
artificial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022555780A
Other languages
English (en)
Other versions
JP2023523384A (ja
Inventor
アンドレ エンゲルベルト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Horiba Europe GmbH
Original Assignee
Horiba Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Horiba Europe GmbH filed Critical Horiba Europe GmbH
Publication of JP2023523384A publication Critical patent/JP2023523384A/ja
Application granted granted Critical
Publication of JP7375220B2 publication Critical patent/JP7375220B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、LIDAR装置、特に自動車に設けられたLIDAR装置を試験するための試験システムに関するものである。さらに本発明は、そのようなLIDAR装置を試験するための方法、及び、車両を試験するための車両試験ベンチに関するものである。
自律走行型自動車が開発されるにつれて、自動車には様々な種類のセンサが搭載されるようになってきている。これらのセンサには、車両の周囲を監視するために設計されたカメラ(例えば、360°カメラ)及びレーダーシステムが含まれる。また自律走行車では、障害物を検知するだけでなく、車両の周囲にある物体を識別することも重要である。そこで、車両への搭載が進んでいるのがLIDAR(Light Detection And Ranging)装置である。これは、レーダーに似た方式で光学的に距離や速度を測定する装置で、レーダーのように電波を使うのではなく、レーザー光を使用する。その際、レーザー光は赤外線領域、特に近赤外線領域(NIR)の光であるため、可視光領域の道路にいる他の道路利用者にレーザー光で迷惑がかからないようになっている。
LIDAR装置の動作モードはよく知られているので、この時点ではより詳細な説明は必要ない。
LIDARシステムは、パルス状の光ビーム(以下、光インパルス又は光パルスともいう)を用いて動作する。そして、前記装置は、車両から光ビームが放出される周囲の人工的な画像を生成する。センサの種類によって、データは点群又はセグメント化された画像として生成される。
自律走行車にとってLIDAR装置の機能は、安全性を確保するために必要不可欠であり非常に重要である。連続的に周囲をスキャンするLIDAR装置の測定結果がなければ、車両を自律的に動かすことは不可能である、又は制限を受けながら何とか可能になる。
そのため、LIDAR装置は広範囲に渡って試験されなければならない。一方では、実験室環境でのシステム試験が行われ、他方では、完成した実車は実際の道路や試験コースで実用試験が行われ、搭載されたLIDAR装置の機能性や信頼性を確認する。
LIDAR装置の試験には、例えば試験対象の車両と相対的に動く台上で動いたり、他の車両に引っ張られたりする人工車両や人間(ダミー)などを用いて、適切な状況を試験コース上で模擬することが可能である。このような試験は、LIDAR装置を搭載した車両がほぼ完成している比較的遅い開発段階でなければ実施できないため、非常にコストがかかる。
また、試験コース以外の実際の道路状況下での試験は、非常に時間とコストがかかる。
GAO YANZE ET AL: "A Programmable All-Optical Delay Array for Light De-tection and Ranging Scene Generation," IEEE ACCESS, Vol.7, July 29, 2019 (2019-07-29), pages 93489-93500より、実験室条件下で模擬光LIDARシーンを生成するLIDARシーン生成器を備えるシステムが知られている。模擬されたシーンは、試験対象のLIDARガイダンスシステムに直接供給することができる。
DE 10 2016 218 277 A1には、運転支援システムの機能試験のための方法が記載されている。運転支援システムは、車両の周囲環境を検出するためのセンサシステムを含んでいる。通常の環境の代わりに、センサシステムは人工ターゲットを検出することも可能である。
US 5 281 813 Aより、レーザー光源の近傍に検出器を配置し、第1のレーザー光の入射を検出するレーザー式距離計を試験するシステムが知られている。この文献によると、レーザー式距離計を試験するために、第2のレーザー信号を時間差でトリガーすることができる。
同様の配置は、US 4 342 514 Aからも知られている。
本発明は、LIDAR装置を試験するための試験システムであり、この試験システムにより、実際の道路での運転又は試験コースでの運転の間に発生する経費を削減することを可能とすることを目的とする。
本発明によれば、この目的は、LIDAR装置を試験するための試験システム、及び、これに対応してLIDAR装置を試験するための試験方法によって解決される。この試験システムは、車両を試験するための車両試験ベンチにおいて有利に使用することができる。本発明の有利な実施形態は、従属請求項に記載されている。
LIDAR装置を試験するための試験システムであり、試験動作のために模擬される実オブジェクトに基づいて人工LIDARオブジェクトに関するLIDAR情報を生成するコントローラであって、前記LIDAR情報が少なくとも2次元外形情報の一部及び前記人工LIDARオブジェクトの仮想距離に関する奥行き情報の一部を含むことを特徴とするコントローラと、前記LIDAR情報に基づいて前記人工LIDARオブジェクトを生成するLIDAR画像生成装置と、前記人工LIDARオブジェクトを投影面に投影するLIDAR投影装置と、を備える試験システムである。
この試験システムにより、実オブジェクトを人工LIDARオブジェクト(アバター)として模擬することが可能になる。このために、LIDAR情報を決定して生成し、試験環境を構築する。例えば、LIDAR装置の試験では、LIDAR装置又はLIDAR装置を搭載した車両より遅い速度で走行する前方車両を検出するように指定することができる。例えば、前方を走行するトラックを人工LIDARオブジェクトとして模擬又は生成することができる。
人工LIDARオブジェクトを生成するためには、少なくとも2次元の外形面(例えばトラックの場合、矩形)及び、奥行き情報又は距離情報が必要である。特に、距離情報は選択された試験シナリオにおいて、人工LIDARオブジェクトがLIDAR装置からどの程度離れているかを定めている。
もちろん、試験シナリオとして使用する人工LIDARオブジェクトを変更してシナリオを設計することも可能である。前方を走行する車両(自動車、トラック、オートバイ、自転車)に加えて、例えば、静的障害物(ガードレール、建物、樹木、構造物)、人間(車道端の歩行者、車道を横断する歩行者、横断歩道等)といったものも含まれる。従って、LIDAR装置は自律走行車の援助を目的としているため、実際の道路交通で発生し得るほぼ全ての実オブジェクトを人工LIDARオブジェクトとして模擬することが可能である。
コントローラは、人工LIDARオブジェクトを生成することができる。このために必要なデータは、通常指定された試験シナリオから得られるもので、適切な人工LIDARオブジェクトを提供するために、コントローラによって適切に処理される。
人工LIDARオブジェクトに基づき、人工応答画像が、LIDAR画像生成装置及びLIDAR投影装置を用いて模擬される。この人工LIDARオブジェクトに対応する人工応答画像は、例えば実際の道路交通などの実際の環境下でLIDAR装置が検知した実オブジェクトから検出し画像として変換したものに相当する。
LIDARの動作原理によると、赤外線レーザービームがLIDAR装置から放出され、その反射光が検出及び解析される。このプロセスでは、光ビームは光パルスの形にパルス化され、スキャンされた周囲の表面情報及び奥行き情報を包含するためにより大きな領域をカバーすることができる。
それゆえ、LIDAR装置の受光器によって検出される画像を、LIDAR画像生成装置及びLIDAR投影装置が試験システムにおいて模擬することができる。特にLIDAR投影装置は、光パルス(赤外光パルス)を用いて人工LIDARオブジェクトを投影面に投影し、その反射光をLIDAR装置の受光器で検出することが可能である。LIDAR装置の受光器にとっては、これが人工的に生成された光であって、反射光パルスではないことは見分けがつかない。
LIDAR情報を構成する奥行き情報は、少なくとも1次元であり、光パルス、特に赤外光パルス(例えば、レーザーによるNIR光)の特に飛行時間に基づくものとすることができる。奥行き情報については、外形情報と同様、人工LIDARオブジェクトとして模擬される実オブジェクトの距離と速度とが換算されている。したがって、この2つの情報を可変にすることで、人工LIDARオブジェクトの動きを模擬することができる。
投影面は様々な設計が可能である。例えば、スクリーンやフォーカシングスクリーンなど、LIDARオブジェクトの「可視化」のために使用される。ここでいう「可視化」とは、LIDAR装置内の赤外線受光器にとって見えるようにすることであり、人間に見えるようにすることではない。
奥行き情報は、投影面と試験対象のLIDAR装置との実際の(実)距離に基づいて決定するものであり、人工LIDARオブジェクトの仮想距離に基づいて決めることが可能である。従って、奥行き情報は、LIDAR装置とLIDARオブジェクトとの間の(仮想)距離を模擬するために計算される又は決定される時間的な成分に基づいている必要がある。
具体的には、光速を考慮し、LIDARオブジェクトを描く光パルスの飛行時間が時間成分として決定される。このプロセスでは、LIDAR装置の実際の動作中に、LIDAR装置が有する光送信器(発光器)から検出対象の物体まで、そして物体での反射後にLIDAR装置が有する受光器(センサ)に戻るまで、光がどれくらいの時間飛行するかが考慮される。実際の条件から導き出されたこの時間(飛行時間)に基づき、コントローラは、LIDAR装置の試験動作においてこの時間が経過した後に受光器が受光することができるように、それぞれの光パルスの放出を模擬し、人工LIDARオブジェクトを生成する。このように、LIDAR装置は、人工LIDARオブジェクトが実際には(はるかに)短い距離で投影面に投影されているにもかかわらず、人工LIDARオブジェクトが実オブジェクトに対応する距離に位置していると錯覚する。
LIDAR装置と投影面の間の距離は、LIDAR装置と人工LIDARオブジェクトとの間で達成すべき(仮想)距離よりも短いので、光パルスはコントローラが適宜決定する遅れ時間を使って生成されなければならない。
上記ではすでに例としてトラックが挙げられており、その外形情報は矩形表面として模擬することができる。このとき、例えばLIDAR装置から60mの距離といった奥行き情報を、光パルスの飛行時間から決定する必要がある。従って、試験シナリオに指定されたターゲット情報「距離60m」から、光パルスをLIDAR装置で放出してからLIDAR装置で受光するまでの時間が計算される。そして、模擬対象のトラックが反射した光が再びLIDAR装置に到達する時間で、人工LIDARオブジェクトを描く赤外光パルスが試験対象のLIDAR装置に到達するようにLIDAR投影装置を制御する。
LIDAR投影装置は、特にLIDARオブジェクトを赤外線画像として投影面に投影する赤外線レーザー装置を備えることができる。このプロセスにおいて、赤外線画像は二次元的に描画することができ、また光パルスによって描画することもできる。特に、この目的のためにNIRレーザーが使用される。同様に、赤外線LED光源も使用することができる。
試験対象のLIDAR装置が放出する光パルスを遮断し検出するために、LIDAR検出装置を設けることができる。LIDAR装置の動作原理は、光ビーム(赤外光パルス)を放出し、検出対象のオブジェクトで反射した後、LIDAR装置によって再びそれを受光することにあることに留意されたい。このために、LIDAR装置は通常、光送信器(発光器)と受光器(センサー)を備えている。
LIDAR装置からの光パルスが、本発明による試験システムにおける模擬光ビーム又は光パルスを損なわないようにするために、光パルスはLIDAR装置によって遮断しなければならない。特に、LIDAR装置からの光パルスは、投影面に到達しないか、あるいは投影面で反射されない。試験システムにおいて、投影面自体は通常、試験対象のLIDAR装置の前に比較的近い(数メートル)位置にあるのに対して、障害物又は物体は、結果として、はるかに大きな距離(例えば、最大300メートル又はそれ以上)にあるように模擬されることになる。
LIDAR装置が放出する光パルスは、それに応じて遮断される又は減光される必要がある。
同時に、LIDAR装置から光パルスが放出されたことを検出することは、試験システムの機能にとって有用である。この検出後すぐに、LIDAR画像生成装置とLIDAR投影装置を用いてコントローラが独自の光パルスを生成し、上記の人工LIDARオブジェクトを作成するようにすることができる。
試験対象装置(試験対象のLIDAR装置)からの光パルスは、このように試験システムからの光パルスの放出を引き起こし、その後、LIDAR装置の受光器によって受光することが可能である。
試験対象のLIDAR装置が放出する光パルスを検出することを、LIDAR投影装置による対応する光パルスの生成のトリガーとすることができる。このプロセスにおいて、LIDAR検出装置及び/又はコントローラは、検出された光パルスが実オブジェクトに当たったであろう位置を決定するように構成することができる。またコントローラは、LIDAR投影装置を用いて、投影面で反射した後に試験対象のLIDAR装置によって検出される赤外光パルスを、試験対象のLIDAR装置が放出し実オブジェクトによって反射された光パルスであるかのように生成するように構成することができる。
これにより、LIDAR検出装置、及び必要に応じてコントローラは、光パルスが投影面のどの部分に表示される必要があるかを認識することができる。試験シナリオが実際にこの場所に人工LIDARオブジェクトを提供する場合、コントローラはLIDAR投影装置を用いて対応する光パルスを生成し、LIDAR装置が受光して対応する分析が可能になる。
従って、光パルスがLIDAR検出装置によって事前に遮断されていなければどの位置でオブジェクトに当たっていたかを判断することが可能である。
赤外光パルスのトリガーをその後修正できるように、試験システムは顧客固有の信号生成を追跡する機構を有することができる。この機構は、このために必要な鍵を暗号化して交換することができるように構成される。このとき、試験システムはLIDAR装置の信号処理に関する情報を直接持つ必要はない。むしろ、試験システム内部のコントローラは、赤外光パルスの遅れ時間がそれに応じて設定されるように設定される。
一実施形態では、投影面上に少なくとも1つの実オブジェクトの可視動画像を生成する動画像生成装置が設けられる。さらにコントローラは、動画像とLIDARオブジェクトに対応する赤外線画像とが重ね合わされるように、動画像の生成と赤外線画像の生成とを調整するように構成され、結果として得られる全体画像において、表示された実オブジェクトがLIDARオブジェクトに重ね合わされるようにすることが可能である。
本実施形態では、LIDAR投影装置が投影する人間には見えない赤外線画像に、人間に見える動画像が重ね合わされる。この場合、可視動画像と不可視赤外線画像は、互いに同期していると効果的である。
特に可視動画像は、例えば試験対象の車両に設置されたカメラによって取得することも可能である。車両の近傍の障害物や道路状況などを検出するために、必要に応じてカメラを車両内に設けたLIDAR装置に結合することも可能である。
例えば、LIDARオブジェクトが上記のトラックを模したものである場合、動画像としての実オブジェクトは、LIDAR装置が(仮想的に)接近する対象であるトラックの背面に相当することが可能である。
この際、LIDAR投影装置で生成されたLIDAR情報を可視動画像に正確かつ同期的に重ね合わせることができる。
可視動画像と赤外線画像との位置合わせをするためのアライメント装置を設けることが可能であり、また、動画像中の可視マーカーと赤外線画像中のマーカーを用いて、試験対象物(例えば、試験対象の車両)におけるカメラとLIDAR装置の位置合わせも可能である。
効率的な試験のためには、動画像と赤外線画像とを正確に重ね合わせることが好都合であるが、オペレータは動画像しか見えず赤外線画像を目で見ることができないため、この位置合わせを容易に行うことができない。このため、人間には見えない赤外線画像を、人間に見えるマーカーで補填することが可能である。従ってアライメント装置は、対応するマーカーを赤外線画像に重ね合わせることができるので、投影される赤外線画像もマーカーとして使用できる可視成分を持ち、動画像と重ね合わせることができる。
本実施形態において、アライメントプロセスを自動化することも可能である。
アライメント装置は、赤外線画像が投影面に投影される前に、赤外線画像にマーカーを重ね合わせるためのマーカー画像装置を備えることが可能である。このようにして、上記で説明したように、赤外光ビームを可視光ビームに重ね合わせることができる。
一変形例では、試験システムは、LIDAR装置に加えて、例えば試験対象の車両に搭載されるステレオカメラを試験するのにも適しているが、自律的に、しかもLIDAR装置と組み合わせて提供することも可能である。
従って、投影面に少なくとも1つの実オブジェクトの可視動画像を生成する、互いに結合された2つの動画像生成装置を備えるステレオ画像装置を設けることが可能であり、2つの動画像を結合することによって、ステレオ画像を表すようにして実オブジェクトの容姿を表現している。コントローラは、動画像とLIDARオブジェクトに対応する赤外線画像とが重ね合わされるように、動画像の生成と赤外線画像の生成とを調整するよう構成され、結果として得られる全体画像において、表示された実オブジェクトがLIDARオブジェクトに重ね合されるようにすることが可能である。
このように、試験システムによってステレオ画像を生成することが可能であり、このステレオ画像は、ステレオカメラのそれぞれの受光器又はカメラの前に配置されたシャッター機構を対応させて制御することにより、それぞれのカメラから交互に供給され得るものである。カメラを、例えば並べて配置したりしてそれぞれ異なる位置におくことで、既知の方法で3次元画像を再構築することができる。
このようなステレオカメラの構造はそれ自体既知であるため、この時点でさらなる説明は必要ない。
ここで説明した本発明による試験システムの変形例では、実オブジェクトの2つの異なる動画像を生成することができるが、ステレオ効果を得るために、これらの動画像は視野角と視点について互いに調整されている。このように設計された試験システムは、シャッターを制御することにより、試験対象のステレオカメラの各カメラが交互に受信又は記録するステレオ画像を模擬することができる。
2つの動画像生成装置(ビーマー)を用いることで、例えば上述のステレオLIDAR装置の試験に加えて、動画像を3次元的に生成することができる。このようにして、例えばステレオカメラも車両で試験することが可能となる。同様に、試験対象のLIDAR装置と車両に搭載されたステレオカメラとの相互作用も試験することができる。ステレオカメラが可視動画像を分析しこれに基づいてオブジェクトを検出する一方で、例えば、試験対象のLIDAR装置は追加の情報(例えば、間隔、距離、動き、速度)を決定することができる。
上述した試験システムを用いて、標準的な市販のLIDAR装置、又は既に車両に搭載され車両の標準装備又はオプション装備の一部となっているLIDAR装置を、LIDAR装置に変更を加える必要なく試験することが可能である。特に、LIDAR装置の構造又はソフトウェアの修正、もしくはLIDAR装置のコントローラの変更を必要としない。むしろ、LIDAR装置は実際の道路交通で使用されるのと同じように試験することができる。LIDAR装置にとって、試験システムによって提供される人工LIDARオブジェクトは実オブジェクトと区別がつかないものである。
上記の試験システムは、特に有利には、車両を試験するための車両試験ベンチにおいて使用することができる。従って、車両を試験するための車両試験ベンチが規定され、この車両試験ベンチは車両に設けられたLIDAR装置を試験するための上述した試験システムを備え、さらに車両を試験するための上述した試験システムを備える。
車両試験ベンチは、種々の様式で知られている。それらは、例えばパワートレインの試験(例えばダイナモメータとして)、自動車の振動挙動、排気ガス試験等に使用される。その過程で車両は多種多様な試験サイクルをこなさなければならず、その多くは法律で規定されてもいる。
本発明によれば、従来の試験システムからなるそれ自体既知の車両試験ベンチは、車両に搭載されるLIDAR装置を上述の試験システムで試験できるように拡張することができる。このようにして、車両に搭載されるLIDAR装置の試験は、開発作業の一部として実行されるべき試験サイクル中に同時に実行することもできるが、しばしば法規のために実行される。その結果、複数の試験作業を同時に行うことができるため、効率が大幅に向上する。
従って、これは上記のLIDAR試験ベンチと「従来の」車両試験ベンチを組み合わせたものである。このようにして、完成した車両を1度に試験することができ、LIDAR装置による検出と車両の挙動との組み合わせの試験を含む。必要であれば、車両に搭載されたカメラによる画像認識も、上記の動画像投影に基づいて試験することができる。このように、車両試験ベンチは、自律走行する車両として構成される試験対象装置の様々な機能を試験することができる。
また本願発明は、試験対象のLIDAR装置が放出する光パルスを検出するステップと、光パルスの進行方向に配置される投影面に光パルスが到達する前に光パルスを遮断するステップと、人工LIDARオブジェクトに基づいて生成される人工応答光パルスを生成して、試験対象のLIDAR装置による人工LIDARオブジェクトの検出を模擬するステップと、応答光パルスを投影面に投影し、応答光パルスを投影面で反射させるステップと、試験対象のLIDAR装置が投影面で反射した応答光パルスを受光するステップと、を含むLIDAR装置の試験方法である。
また必要に応じて、LIDAR装置から放出される光パルスの進行方向を決定し、精度を高めることも可能である。
このプロセスでは、人工LIDARオブジェクトは、人工的に生成される仮想試験オブジェクトとして機能する。
これらの内容と追加の特徴及び利点は、添付の図を用いた例によって以下にさらに詳細に説明される。
LIDAR装置を試験するための試験システムの概略図である。 LIDAR投影装置の概略的なセットアップを示す図である。 試験システムの動作モードを説明するための概略図である。 試験システムの動作モードを説明するための別の図である。 ステレオカメラの試験システムの概略的なセットアップを示す図である。 別の動作状態の図5の試験システムを示す図である。
図1は、LIDAR装置1を試験するための試験システムを示している。
LIDAR装置1は、公知の方法で構成されており、例えば車両に搭載することができる。LIDAR装置1は、発光器2と受光器3とからなる赤外線スキャン機構(例えば、NIRレーザースキャナやsolid-state式LIDAR)を有する。試験システムにおいて、試験対象の装置として機能するLIDAR装置を、適宜車両とともに試験することができるが、独立した位置で別々に試験することもできる。
LIDAR装置1の動作モードは、既に上記で説明したとおりである。特に、発光器2は赤外光パルス4を放出し、赤外光パルス4は実際の道路交通における実際の物体によって反射され、続いて受光器3によって受光及び検出され得る。もちろん発光器2は、LIDAR装置1に検出される領域をカバーする複数の光パルス4を発生させることもできる。
LIDAR装置1の周囲の三次元的な形状が、光パルス4又は複数の光パルス4の飛行時間に基づいて、受光器3により検出され得る。特に、光パルスの飛行時間によって、距離情報又は奥行き情報の一部を決定することができ、例えばレーダーによっても検出可能な2次元情報に加えて、第3の座標としての奥行き情報を決定することができるようになる。
試験システムは、画像生成装置6を構成するコントローラ5を有する。コントローラ5は、試験シナリオのために模擬される実オブジェクトに基づいて、仮想的又は人工的なLIDARオブジェクト(アバター)に関するLIDAR情報を生成する役割を果たす。例えば、前方を走行するトラックを模擬することが、試験シナリオの一部であってもよい。与えられた試験シナリオに基づいて、コントローラ5は、前方を走行するトラックを模擬するために必要なデータを生成することができる。
このデータ(LIDAR情報)は、特に、2次元の外形情報の一部と、人工LIDARオブジェクトの仮想距離に関する奥行き情報の一部とを含む。例えば、外形情報として、2次元の矩形領域でトラックを模擬することができる。さらに、コントローラ5は、試験対象であるLIDAR装置1から仮想的なトラックまでの距離を模擬するための関連奥行き情報を生成することができる。奥行き情報は、トラックの移動又は速度を模擬することもできるように、このようなプロセスで変更することができる。
画像生成装置6を用いることにより、コントローラ5で生成されたLIDAR情報に基づいて人工LIDARオブジェクトを生成し、赤外線画像として表すことが可能である。画像生成装置6は、コントローラ5と一体に構成することができる。
コントローラ5又は画像生成装置6は、LIDAR投影装置7を制御し、このLIDAR投影装置7によって、生成された人工LIDARオブジェクトを投影面8に投影することができる。
投影装置7は、特に、赤外光9aを(例えば、赤外光パルスとして又は複数の赤外光パルスとして)生成し、人工LIDARオブジェクトを(不可視な)赤外線画像9(赤外線画像)の形態で投影面8に投影する赤外線レーザー又は赤外線LEDであってもよい。
試験対象のLIDAR装置1は、投影面8の前に配置され、受光器3を介して投影面8から赤外線画像9を受信することが可能である。
この際、LIDAR装置1の発光器2が発する全ての赤外光パルス4が遮断される必要がある。この目的のために、発光器2の前に検出装置10が配置され、この装置は、すべての光パルス4を遮断し、特に、光パルス4が投影面8に到達して、その後、受光器3によって検出されることを防止する。
さらに1つの変形例では、検出装置10は、それぞれの光パルスと、場合によってはその光パルスの方向とを検出するように構成することができる。この変形例では、検出装置10とコントローラ5とを結合することで、投影装置7が光パルスを生成し得る。このようにして、発光器2によって放出された光パルス4は、投影装置7が光パルスを生成するトリガーとして機能する。
適切な調整により、投影装置7によって生成された光パルスは、発光器2からの実際の光パルス4が想像上の(仮想の)物体上に照射されるであろう方向に放出される。
例えば、現実の状況において発光器2から60m先のトラックに当たって反射する光パルスは、120m移動しなければならないので、反射した光パルスが受光器3によって再び受光されるまでに相応の時間が経過することになる。この遅延時間はコントローラ5によって考慮され、これに対応して投影装置7が遅らせて光パルスを生成する。
このようにして、二次元赤外線画像9を生成することができる。
試験システムにおいては、このようにして、通常車両に搭載されたLIDAR装置によって放出される光パルス又はレーザーパルスが、人工LIDAR信号に置換される。この際、コントローラ5は、投影面8に仮想の試験オブジェクトを生成し、この試験オブジェクトは、距離、サイズ、また必要に応じて動き(速度)のパラメータに関してリアルタイムで生成され、受光器(LIDARセンサ)によって受光することが可能である。
光パルス4が検出装置10によって検出され、それによって対応する赤外光パルス9aが投影装置7によって生成されるという情報を処理するために、一定の処理時間が必要である。この処理時間は、起こり得る測定誤差を最小にするために、当然ながら非常に短くする必要がある。例えば、20ns以下の範囲である(例えば、構成要素の設計に依存するが、約10nsである)。この遅延は、距離測定のずれにつながる可能性がある。例えば、処理時間が10nsのとき、対応する誤差は3mとなる場合がある。したがって、LIDAR装置によって測定された仮想の試験オブジェクトの距離は、処理時間を考慮して、事後的に補正することが可能である。
この事後的な補正を可能にするために、試験システムは、ユーザ固有の信号生成を追跡するためのメカニズムを有することができる。このメカニズムは、そのために必要なキーを暗号化して変換できるように構成される。このようにすれば、試験システムは、LIDAR装置の信号処理に関する直接的な情報を持つ必要がない。
赤外線に加えて、又は、LIDAR投影装置7に加えて、動画像生成装置として機能するビデオビーマー11が設けられ、ビデオビーマー11は、赤外線画像9が投影される投影面8に、可視光12aを用いて可視動画像12を投影する。動画像12は、人工的に生成され得るが、様々な試験シナリオにおける実際の運転状況を示すことができる。
例えば、既に何度か説明したトラックについても、動画像12の形をとることで、運転者が見ることができるトラックと同様のものを、車両に設置されたカメラも見えるようにすることができる。ただし、赤外線画像9は原理的には人間には見えない。
また、ビデオビーマー11をコントローラ5で直接制御して、可視動画像12の生成と赤外線画像9の生成とを連携させることも可能である。
同様に、投影装置7とビデオビーマー11とを共通の装置に統合して、この装置が赤外線画像9と可視動画像12とを生成するようにすることも可能である。
コントローラ5は、さらに複雑な試験シナリオを実施し、模擬するように構成することができる。したがって、コントローラ5は、純粋な画像データに加えて、オブジェクトデータ(例えば、「車両」、「人間」、「交通標識」、「樹木」などの異なるオブジェクトクラスに対応するもの)も含むデータをリアルタイムで生成することができる。このオブジェクトリストは、選択された試験シナリオに従って自動的に生成することができる。同様に、試験システムのオペレータが試験の目的のために外部から影響を与えることも可能である。
図2は、LIDAR投影装置7をより詳細に示している。
LIDAR投影装置7は、NIR(近赤外線)光源15と可視光の光源16とを備えていることを特徴とする。2つの光源15,16は、それぞれコントローラ5によって制御可能である。2つの光源15,16の光束は、光学的結合機構17において、互いに光学的に結合又は重なり合わせられる。このために、例えば、半透過ミラーなどを好適に用いることができる。その結果、光源16からの可視光とNIR光源15からの赤外光とが合成された光束が得られる。
特に、光源16からの可視光は、このプロセスにおいて、投影面8上に可視マーカーを作成するために使用することができる。このマーカーを用いて、例えば、オペレータは投影面8上の赤外画像9と動画像12とを合わせることができる(図1参照)。
光源16は、例えば、投影面8上に必要に応じて生成されるドット又は十字を有する適切なマーキング画像の形態で可視光を生成することができる。
光ビーム結合機構17に隣接して画像機構18が配置されている。コントローラ5又は画像生成装置6によって制御することもできる画像機構18は、例えば、DMD(デジタルミラーデバイス)機構、LCD(液晶ディスプレイ)機構又はDBD(ダイレクトビーム分配)機構によって形成することが可能である。画像機構18を用いることにより、赤外光パターンが生成され、赤外光パターンはその後、投影光学系19を用いることにより投影面8に投影され、赤外線画像9を生成する。
赤外光は特にパルス光であり、NIR光源15からの光パルスの遅延によって奥行き情報(第3座標)を獲得し、画像機構18は本質的に2次元の外形情報(位置、サイズなど)を規定する。
図3は、一例として、試験対象のLIDAR装置1と試験システムとの間の相互作用を詳細に示す。
従って、LIDAR装置1の発光器2は、検出装置10によって遮蔽される赤外光パルス4を放出する。
検出装置10は、光パルス4が放出されたことを検出し、本実施形態では、コントローラ5又は画像生成装置6を用いることにより、投影装置7が対応する赤外光パルス9aを生成するトリガーとなる。
赤外光パルス9aは、光パルス4が検出装置10によって遮蔽されていなかった場合に当たったであろう場所20に対応する投影面8上の場所20に投影される。赤外光パルス4の対応する方向は、仮想線21で表される。
従って、生成された赤外光パルス9aは場所20に当たり、そこから赤外光ビーム9bとして反射するので、LIDAR装置1の受光器3によって検出されることが可能である。
従って、時系列は以下のようになる。発光器2による赤外光パルス4の放出-検出装置10による光パルス4の検出-コントローラ5を介して投影装置7を作動させることにより、対応する赤外光パルス9aの放出を引き起こす-投影面8に赤外光パルス9aを投影-受光器3による、投影面8から反射した赤外光ビーム9bの受光-発光器2による放出から受光器3による受光までの時間の決定-必要に応じて、場所20に生成された人工LIDARオブジェクト(仮想試験オブジェクト)の(仮想)距離の決定。
図4は、図3と同様の状況に、可視光12aを投影面8に投影しそれによって動画像12を生成するビデオビーマー11を追加したものである。
例えば、既に述べた前方を走行するトラックの後姿を、場所20に当たる可視光12aで描画することができる。同時に、投影装置7を用いることにより、赤外光パルス9aを場所20(この場合、描かれたトラックの後部)に投影することができ、これは受光器3によって検出される。
その意図された機能に従って、LIDAR装置1は、発光器2による光パルスの放出から受光器3による赤外光パルス9aの受光までの時間を測定し、そこから場所20に生成された(仮想)オブジェクトの(仮想)距離を決定することができる。
図5及び図6は、ステレオカメラ装置を試験するためのステレオ試験システムのセットアップを示す図である。
なお、上記で既に詳細に説明したLIDAR装置の各装置については図示を省略し、相違点又は追加点のみを説明する。
従って、試験対象となるステレオカメラ装置は、2つの受光器又はカメラ26a,26b(例えば、試験車両に搭載されたステレオカメラ)を有する。各カメラ26a,26bの前方には、シャッター25a,25bが配置されている。
ビデオビーマー11は、2つの別々の投影装置11a,11bの形態で実現され、対応する画像情報を可視光12aとして交互に生成する。この際、投影装置11aからの画像情報は、カメラ26aで受信されることが意図されている。従ってこの場合(図5)、シャッター25bが閉じている間、シャッター25aは開いている。
また他の場合には、投影装置11bが起動しており、投影装置11bからの画像情報は、カメラ26bによって可視光12aとして受信されることが意図されている。従ってこの状態(図6)では、カメラ26bの前方にあるシャッター25bが開いている間、カメラ26aの前方にあるシャッター25aは閉じ、投影面8で反射した光束がカメラ26bに到達できるようになる。
投影装置11a、11b、カメラ26a、26b(試験対象のステレオカメラ)、及びそれぞれに関連するシャッター25a、25bの間の相互作用を同期させるために、コントローラ5は、高い頻度で切り替えを保証する同期機構を備えている。構成によっては、10Hz以上の好適な周波数で切り換えを行うことができる。
その結果、試験対象のステレオカメラでステレオ画像を検出し、赤外光パルスの飛行時間に加えて、さらなる情報を決定し提供することができる。この構成により、試験システムは、試験対象物(車両)に設置されたセンサ・フュージョンの試験も行うことができる。
なお説明の便宜上、上記の説明では通常、光パルスを指す。しかし、実際には、LIDAR装置の機能は、多数の光パルスを放出し最終的に点群として例えば2次元の赤外線画像を生成するものである。従ってこの試験システムは、投影装置7を用いることにより多数の光パルスを高速で放出し、投影面8上に対応する赤外線画像を生成し、これを受光器3で検出することができるようにもなっている。

Claims (12)

  1. LIDAR装置(1)を試験するための試験システムであって、
    試験動作のために模擬される実オブジェクトに基づいて、人工LIDARオブジェクトに関するLIDAR情報を生成するコントローラ(5)であって、前記LIDAR情報が少なくとも2次元外形情報の一部及び前記人工LIDARオブジェクトの仮想距離に関する奥行き情報の一部を含むことを特徴とするコントローラ(5)と、
    前記LIDAR情報に基づいて前記人工LIDARオブジェクトを生成するLIDAR画像生成装置(6)と、
    前記人工LIDARオブジェクト(9)を投影面(8)に投影するLIDAR投影装置(7)と、
    前記投影面(8)に少なくとも1つの前記実オブジェクトの可視動画像(12)を生成する動画像生成装置(11)と、を備え、
    前記コントローラ(5)は、前記動画像(12)と前記LIDARオブジェクトに対応する赤外線画像(9)とが重ね合わされるように、前記動画像(12)の生成と前記赤外線画像(9)の生成とを調整するよう構成されており、結果として得られる全体画像において、表示された前記実オブジェクトが前記LIDARオブジェクトに重ね合わされる、ことを特徴とする試験システム。
  2. 前記奥行き情報は、
    前記投影面(8)と試験対象の前記LIDAR装置(1)との間の実際の距離と、
    前記人工LIDARオブジェクトの仮想距離と、に基づいて決定されることを特徴とする請求項1に記載の試験システム。
  3. 前記LIDAR投影装置(7)は、赤外線画像として前記LIDARオブジェクト(9)を投影面(8)に投影する赤外線レーザー装置(15)を備える、請求項1又は2に記載の試験システム。
  4. 試験対象の前記LIDAR装置(1)が放出する光ビーム(4)を遮断して検出するLIDAR検出装置(10)を備える、請求項1乃至3のうち何れか一項に記載の試験システム。
  5. 試験対象の前記LIDAR装置(1)が放出する前記光ビーム(4)を検出することが、前記LIDAR投影装置(7)が対応する光ビーム(9a)を生成するトリガーとなることを特徴とする、請求項に記載の試験システム。
  6. 前記LIDAR検出装置(10)及び/又は前記コントローラ(5)は、検出された前記光ビームが実際の物体に当たったであろう場所(20)を決定するように構成されており、
    前記コントローラ(5)は、LIDAR投影装置(7)を援用して、投影面(8)で反射し試験対象の前記LIDAR装置(1)によって検出可能な赤外光パルス(9a)を、試験対象の前記LIDAR装置(1)によって放出され前記実オブジェクトによって反射される前記光ビームであるかのように生成するよう構成されることを特徴とする、請求項4又は5に記載の試験システム。
  7. 赤外線画像(9)中の可視マーカーを援用することによって前記可視動画像(12)と前記赤外線画像(9)とを位置合わせするアライメント装置を備える、請求項1乃至6のうち何れか1項に記載の試験システム。
  8. 前記アライメント装置が、前記赤外線画像(9)が前記投影面(8)に投影される前に前記赤外線画像(9)にマーカーを重ね合わせるマーカー画像装置(16)を含むことを特徴とする、請求項7に記載の試験システム。
  9. 前記投影面(8)上に少なくとも1つの前記実オブジェクトの前記可視動画像(12)を生成するための、互いに結合された2つの動画像生成装置(11a、11b)を含むステレオ画像装置を備え、
    前記動画像(12)はそれぞれ、2つの動画像生成装置を合成することによってステレオ画像を表すようにして、前記実オブジェクトの容姿を表現するものであり、
    前記コントローラ(5)は、前記動画像(12)と前記LIDARオブジェクトに対応する前記赤外線画像(9)とが重ね合わされるように、前記動画像(12)の生成と前記赤外線画像(9)の生成とを調整するよう構成されており、結果として得られる全体画像において、表示された前記実オブジェクトが前記LIDARオブジェクトに重ね合わされることを特徴とする、請求項1乃至8のうち何れか一項に記載の試験システム。
  10. 2つのカメラ(26a、26b)を有するステレオカメラ装置を試験するように構成される試験システムであって、
    試験対象の前記ステレオカメラ装置が有する前記カメラ(26a、26b)のそれぞれに割り当てられ、割り当てられた前記カメラ(26a、26b)への光の入射を必要に応じて遮断又はその遮断を解除することができる2つのシャッター機構(25a、25b)を備え、
    前記コントローラ(5)は、前記2つのカメラ(26a、26b)が前記実オブジェクトの姿を交互に検出するように、前記ステレオ画像装置に設けられた2つの動画像生成装置(11a、11b)と前記シャッター機構(25a、25b)とを同期させる同期機構を備えることを特徴とする請求項9に記載の試験システム。
  11. 車両に搭載されている前記LIDAR装置(1)を試験する請求項1乃至10のうち何れか1項に記載の試験システムを備え、
    前記車両を試験する試験システムを備える、車両試験のための車両試験ベンチ。
  12. 試験対象のLIDAR装置(1)が放出する光パルス(4)を検出するステップと、
    前記光パルス(4)の進行方向に配置される投影面(8)に前記光パルス(4)が到達する前に前記光パルス(4)を遮断するステップと、
    人工LIDARオブジェクトに基づいて生成される人工応答光パルス(9a、9b)を生成して、試験対象のLIDAR装置(1)による人工LIDARオブジェクトの検出を模擬するステップであって、前記人工LIDARオブジェクトが、試験動作のために模擬される実オブジェクトに基づいて生成されたLIDAR情報に基づいており、前記LIDAR情報が少なくとも2次元外形情報の一部及び前記人工LIDARオブジェクトの仮想距離に関する奥行き情報の一部を含むことを特徴とするステップと、
    応答光パルス(9a)を投影面(8)に投影し、応答光パルス(9b)を投影面(8)で反射させるステップと、
    試験対象のLIDAR装置(1)が投影面(8)で反射した応答光パルス(9b)を受光するステップと、
    前記投影面(8)に少なくとも1つの前記実オブジェクトの可視動画像(12)を生成するステップと、
    前記動画像(12)と前記LIDARオブジェクトに対応する赤外線画像(9)とがコントローラ(5)によって重ね合わされるように、前記動画像(12)の生成と前記赤外線画像(9)の生成とを調整し、結果として得られる全体画像において、表示された前記実オブジェクトが前記LIDARオブジェクトに重ね合わされるステップと、を含むLIDAR装置(1)の試験方法。
JP2022555780A 2020-03-20 2021-02-23 Lidar装置の試験システム Active JP7375220B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102020107802.1 2020-03-20
DE102020107802.1A DE102020107802A1 (de) 2020-03-20 2020-03-20 Test-System zum Testen einer LIDAR-Vorrichtung
PCT/EP2021/054401 WO2021185537A1 (de) 2020-03-20 2021-02-23 Test-system zum testen einer lidar-vorrichtung

Publications (2)

Publication Number Publication Date
JP2023523384A JP2023523384A (ja) 2023-06-05
JP7375220B2 true JP7375220B2 (ja) 2023-11-07

Family

ID=74732909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022555780A Active JP7375220B2 (ja) 2020-03-20 2021-02-23 Lidar装置の試験システム

Country Status (5)

Country Link
US (1) US20230273301A1 (ja)
EP (1) EP4121795A1 (ja)
JP (1) JP7375220B2 (ja)
DE (1) DE102020107802A1 (ja)
WO (1) WO2021185537A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021108877A1 (de) 2021-04-09 2022-10-13 Horiba Europe Gmbh Laserprojektionsvorrichtung für LIDAR-Testsystem
DE102022103940A1 (de) 2022-02-18 2023-08-24 Dspace Gmbh Prüfaufbau und Verfahren zum Testen einer Stereokamera
CN114792469B (zh) * 2022-04-06 2023-06-02 中信科智联科技有限公司 一种感知系统的测试方法、装置及测试设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180079425A1 (en) 2016-09-22 2018-03-22 Benjamin May Method for testing the function of a driver assistance system and control unit and reference device for a driver assistance system
WO2019058679A1 (ja) 2017-09-20 2019-03-28 日本電産株式会社 距離測定装置及びそれを備えた移動体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4342514A (en) * 1980-08-11 1982-08-03 The United States Of America As Represented By The Secretary Of The Army Means and method for testing laser range finders
US5281813A (en) * 1992-06-30 1994-01-25 Hughes Aircraft Company Laser rangefinder test system
US9110154B1 (en) 2014-02-19 2015-08-18 Raytheon Company Portable programmable ladar test target

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180079425A1 (en) 2016-09-22 2018-03-22 Benjamin May Method for testing the function of a driver assistance system and control unit and reference device for a driver assistance system
WO2019058679A1 (ja) 2017-09-20 2019-03-28 日本電産株式会社 距離測定装置及びそれを備えた移動体

Also Published As

Publication number Publication date
DE102020107802A1 (de) 2021-09-23
WO2021185537A1 (de) 2021-09-23
JP2023523384A (ja) 2023-06-05
EP4121795A1 (de) 2023-01-25
US20230273301A1 (en) 2023-08-31

Similar Documents

Publication Publication Date Title
JP7375220B2 (ja) Lidar装置の試験システム
CN107003398B (zh) 针对机动车安全雷达系统的使用虚拟雷达特征信号的测试方法
US20190236380A1 (en) Image generation system, program and method, and simulation system, program and method
CN103003713B (zh) 具有投影器的激光扫描器或激光跟踪器
JP6019959B2 (ja) 物体検出装置、物体検出プログラムおよび車両
JP2019537703A (ja) 少なくとも1つのカメラを備える車両のシステムを較正および/または検査するための車両テストベンチ、並びに、少なくとも1つのカメラを備える車両のシステムの較正および/または検査を実行する方法。
CN109416399A (zh) 三维成像系统
EP2824418A1 (en) Surround sensing system
CN102149574A (zh) 图像照射系统及图像照射方法
JP5234255B2 (ja) レーザレーダ及びレーザレーダの据付方向調整方法
WO2016181854A1 (ja) ガス濃度測定装置
US20150348388A1 (en) Protecting roadside personnel from vehicle impacts
CN103975250A (zh) 在图像平面中利用动态掩模的空间选择性探测
CN109154984A (zh) 用来提高障碍物的可识别性的机动车的照明装置
US11941888B2 (en) Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular, of a vehicle, method for training and method for activating
CN101252679A (zh) 驾驶辅助方法及驾驶辅助装置
WO2021019906A1 (ja) 測距装置、情報処理方法、および情報処理装置
JP5234254B2 (ja) レーザレーダ及びレーザレーダの較正方法
JPS6215479A (ja) オ−トトラツキング測距装置
JP2010073032A (ja) 画像照射システムおよび画像照射方法
JP3093043B2 (ja) 位置計測作図装置
US20230342952A1 (en) Method for coordinative measuring by terrestrial scanning with image-based interference detection of moving objects
EP3591624B1 (en) Augmented vision in image sequence generated from a moving vehicle
Hafner Physical modeling of environment detection sensors, based on GPU-supported shader technology
CN118294165A (en) Road traffic marking generation system, method and automatic driving ring test system

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20221108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7375220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150