JP4669661B2 - 複数のオプトエレクトロニクス・センサのデータの修正方法 - Google Patents

複数のオプトエレクトロニクス・センサのデータの修正方法 Download PDF

Info

Publication number
JP4669661B2
JP4669661B2 JP2003507583A JP2003507583A JP4669661B2 JP 4669661 B2 JP4669661 B2 JP 4669661B2 JP 2003507583 A JP2003507583 A JP 2003507583A JP 2003507583 A JP2003507583 A JP 2003507583A JP 4669661 B2 JP4669661 B2 JP 4669661B2
Authority
JP
Japan
Prior art keywords
raw data
data elements
time
group
modified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003507583A
Other languages
English (en)
Other versions
JP2004530902A (ja
Inventor
ウルリヒ ラーゲス,
フォルカー ヴィルホエフト,
マルティーン ディットメル,
Original Assignee
イーベーエーオー アウトモビール センサー ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE10128954A external-priority patent/DE10128954A1/de
Priority claimed from DE10132335A external-priority patent/DE10132335A1/de
Priority claimed from DE10148062A external-priority patent/DE10148062A1/de
Priority claimed from DE10154861A external-priority patent/DE10154861A1/de
Application filed by イーベーエーオー アウトモビール センサー ゲーエムベーハー filed Critical イーベーエーオー アウトモビール センサー ゲーエムベーハー
Publication of JP2004530902A publication Critical patent/JP2004530902A/ja
Application granted granted Critical
Publication of JP4669661B2 publication Critical patent/JP4669661B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • G01S2015/933Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past
    • G01S2015/935Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past for measuring the contour, e.g. a trajectory of measurement points, representing the boundary of the parking space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Facsimile Heads (AREA)
  • Silver Salt Photography Or Processing Solution Therefor (AREA)
  • Non-Silver Salt Photosensitive Materials And Non-Silver Salt Photography (AREA)
  • Photosensitive Polymer And Photoresist Processing (AREA)

Description

本発明は、検出対象物の決定のための特にレーザ・スキャナ等の少なくとも2つのオプトエレクトロニクス・センサの視野に含まれる監視区域における検出対象物の位置決定のためのモデル(以下、監視区域のモデルと称する)を生成するために、修正されたデータ要素(又は修正データ要素)を、対応するモデル生成のための方法、及び、その方法を実行するための装置等へ提供する方法に関する。
位置検出用の特にレーザ・スキャナ等のように、検出された対象物の位置を決定するためのオプトエレクトロニクス・センサは一般に公知である。オプトエレクトロニクス・センサは、とりわけ、それらセンサによって検出されたデータの更なる処理のための対応する方法を用いて、それら視野のモデルを作り出すべく使用されて、それらセンサの視野或はセンサ視野の近辺における例えば装置の制御のための更なる処理の基礎を形成可能である。
角分解能を伴って環境をスキャンするレーザ・スキャナのようなオプトエレクトロニクス・センサは、このプロセスにおいて、例えば特定角度でオプトエレクトロニクス・センサによって送信されたレーザ・ビームが実際の対象物の点によって反射されたか否かを検出すると共に、もしそうした場合、そのビームが何れの距離から反射されたかを検出する。こうして、極座標の形態でのデータ点の集合は検出された実際の対象物における複数の点(以下、対象物点と称する)を特徴付けるべく獲得される。しばしば、対象物認識及び対象物追跡は、センサの視野における実際の対象物を、対象物点の集合として認識するために、センサによって伝送されたデータに基づき個別の検出対象物点の位置を介して実行されモデル内において認識された仮想対象物センサの視野における対応する実際の対象物と関連される。このモデルにおける仮想対象物情報は次いで引き続くプロセスで使用される。
こうしたセンサは、例えば、車両に使用可能であるが、監視区域を観察すべく、例えば車両の前方における監視区域を観察すべく静止状態の装置にも使用可能である。このような観察区域を拡張するために、少なくとも2つのセンサが原則として部分重複する複数の視野を有してこのプロセスで使用可能である。もしこれらセンサによって検出された仮想対象物がそうした部分重複領域内に配置されていれば、センサによって同一対象物に関するそれぞれ異なる仮想対象物が引き続くプロセスに伝達されることになる2つのセンサが使用される場合、1つのセンサは(実際の対象物の点に対応する)1つの集合の生データ要素を決定し、他のセンサは(同じ実際の対象物の点に対応する)他の集合の生データ要素を決定する。公知技術において、1つの集合の生データ要素は、1つの仮想対象物を創造するために使用され、他の集合の生データは他の仮想対象物を創造するために使用される。このように、同じ実際の対象物に関するそれぞれ異なる仮想対象物から構成されるグループを、仮想対象物グループと呼ぶ。同じ実際の対象物を表すそれぞれ異なる仮想対象物は、ただ1つの仮想対象物が、監視区域のモデルにおいて、1つの(実際の)対象物に割り当てられるべきであるので、次いでこのプロセスは所謂、仮想対象物融合を実行しなければならない。このプロセスにおいて、1つの対象物と対応する個々別々のセンサによる異なる仮想対象物は、融合されて、1つの新しい仮想対象物を形成する。
公知の方法において、この仮想対象物融合は唯一仮想対象物データに基づき行われる。しかしながらこれの短所は、仮想対象物融合後に−労力に相対して−モデルの低精度だけが付与されることである。これは特に対象物がセンサに対して移動する場合である。
本発明の目的は、高精度で対象物の位置決定を行うための少なくとも2つのオプトエレクトロニクス・センサの視野における監視区域のモデル生成を許容する方法及び装置を提供することである。
この目的は請求項1の特徴を有する方法によって満たされる。
本発明に従った方法は、検出された実際の対象物及び対象物点の位置を決定する特にレーザ・スキャナ等の少なくとも2つのオプトエレクトロニクス・センサの各視野に存在する監視区域のモデルを生成する修正されたデータ要素(又は修正データ要素)を提供するものであり、前記データは均一な対象物認識及び/或は対象物追跡のための基礎を形成できる。
監視区域は、原則として明らかに部分重複することになるが必ずしもそうなる必要がない個々別々のセンサの視野の内部に横たわる。本発明の意味における監視区域は相互に接触することがないか或は相互に部分重複することがなく、センサ数と対応する多数の視野によって付与され得る。
特にレーザ・スキャナのようなオプトエレクトロニクス・センサは、任意の所望センサであることが可能であり、それによって対象物の個々別々の点の位置が検出可能である。
修正データ要素は、監視区域における対象物点と対応する生データ要素からそれぞれが成る複数の集合に基づき提供される。1集合の複数の生データ要素は、視野の1スキャンでそれらセンサの1つずつによって検出され、こうした集合がその対応するセンサと関連される。生データ要素は、関連センサによって検出された対象物点の位置、即ち座標を少なくとも含む。これら座標は、デカルト座標、極座標、或は、球座標等の任意の所望座標系における座標であることが可能である。もし、原則として、例えばレーザ・スキャナの場合のように、反射の間隔が連続的な指標と固定増分とによって特徴付けられる逐次スキャニング角度での位置座標として検出されれば、それら指標及び間隔のみが座標として使用可能であり、角度増分は既知である。
相互に特定の時間関連性を有する異なるセンサの生データ要素から成る複数の集合は、全センサによる全体のスキャンと対応する1グループを形成する。時間関連性だけは重要であるが、スキャニング手続の完全な共時性又は同時性は重要ではない。時間関連性が付与され得て、例えば、全スキャンが開始され特定の時間間隔以内で終了され、特に各種集合と対応しているスキャンは時間的に部分重複する。
各センサの相対位置を考慮しつつ、生データ要素に含まれる座標はグループの各集合に対して共通な座標系へ変換されて、そのグループにおける生データ要素から成る各集合と対応する修正されたデータ要素(又は修正データ要素)から成る修正された集合(又は修正集合)を形成する。
もし異なるセンサの生データ要素の座標が同一タイプでなければ、同一タイプの座標系への変換が変換の初期で行われ得る。既知であることが必要とされている相互に対するセンサの位置に従って、同一タイプの座標は、全センサにとって同一である座標原点である共通の座標原点を有する共通座標系への対応変位によって変換され得る。
生データ要素から成る集合は変換前に読み込まれ得るが、センサの生データ要素の変換もこのセンサ或は別のセンサの生データ要素の読み込みが終了される前に行われ得て、それは、その変換が各生データ要素に対して独立して行われ得るからである。プロセスを実行し得る1つ或はそれ以上の評価装置がセンサの内の1つ或はそれ以上に提供されたならば、評価ユニットの他の機能に従ってそこに格納されている評価装置のメモリ内で直接的に生データ要素にアクセスすることも可能である。
修正データ要素は、出力、記憶、或は、更なる処理のタイプに依存する更なる直接的な処理が為され得る。
特に本発明に従った方法は、修正データ要素の統合集合に対する、例えば従来の対象物検出及び/或は対象物追跡の実行を可能としている。
これが有する長所は、対象物検出及び/或は対象物追跡が、実質的に精度を増大する同一対象物点と関連されたより多くの数の修正データ要素に基づき対象物に対するセンサの部分重複区域内で行われ得ることである。更には、センサの異なる数々の視野からの修正データ要素は同一対象物に対して融合され得て、一方ではこうして拡張された視野による対象物認識を促進し、そして他方では、同一対象物に属する一部のみが部分重複している仮想対象物の融合による複雑性を回避している。
こうした長所はレーザ・スキャナ等の特性を取り入れている極を有するセンサによって生ずる。近傍範囲内における小さな対象物はそうしたセンサによる視野内の非常に大きな角度範囲をマスクし得て、この角度範囲内のより遠方の対象物はもはや検出され得なくなる。そうしたマスクされ且つより遠方の対象物を検出できる少なくとも1つのセンサを含む複数のセンサが使用される場合、その1つのセンサによってのみ検出されるが他のセンサにとっては隠蔽される対象物が、監視区域のモデルの準備のためのデータの本発明に従った修正によって認識され得る。
更には、対象物認識及び対象物追跡の複雑なプロセスは一度だけ実行されなければならず、それによって本方法は、対象物認識及び/或は対象物追跡が生データ要素から成る各集合毎に別々に行われる方法よりも同一の精度を有してより効率的に稼働する。
上記目的を満たす本発明の更なる課題は、それ故に、検出対象物の位置決定のための少なくとも2つのオプトエレクトロニクス・センサの各視野内に存在し且つ対象物点を含む監視区域のモデルを生成する方法であり、本発明に従った方法が実行されて修正データ要素が提供され、そして対象物検出及び/或は対象物追跡が全修正データ要素から成る統合集合に基づき行われる。対象物認識及び/或は対象物追跡が実行された場合、算定された仮想対象物データの、出力、記憶、或は、引き続くプロセスにおける使用が為され得る。
本発明の好適な更なる発展例及び実施例は従属の請求項、以下の説明及び図面に記載されている。
生データ要素は、好ましくは、対象物認識で使用可能な反射のエコー振幅等の更なる情報を含む。そうしたデータは、もしそれらの値が運動データ或は検出の時点に依存していれば、座標の修正の一部として修正されるか、或は、変化されないままであり得る。
1グループ中の集合の生データ要素は原則として同時には検出されず、それは、一方ではセンサが必ずしも同時にそれらスキャンが開始せず(センサ間の待ち時間)、そして他方では生データ要素が1センサの同一スキャンで連続的にのみ検出される(内部スキャンの待ち時間)からである。特に相対移動等のセンサの移動に及んで、異なる時間に検出され、時間差に従うと共にセンサの移動に従って変位する対象物点と対応する生データ要素の座標が生ずる。それ故に生データ要素の座標は、好ましくは、修正集合の形成に及んで、それら生データ要素を検出するセンサの移動に従うと共に、各生データ要素の検出時点として定義される時間と基準時点との間の差に従って各集合毎に修正される。
修正はこのようにして実行されて、その座標は共通の基準時点に対する対象物点の位置を少なくともおおよそ記載するように為す。この目的のために、時間は各生データ要素の検出時点として定義される各生データ要素に対して初期的に固定される。各生データ要素の検出時間の測定は最も精密な修正となり得るが、それは実質的な理由のために鋭敏であり得て、且つ、検出の時点として定義されるべき別の特定の適切な時間にとって修正の必要される精度のフレームワーク以内で充分であり得る。
集合の検出の時点として定義される時間は、1集合の全生データ要素に対する生データ要素の検出の時点として特に好ましくは使用される。これが意味することは、同一検出時間は全生データ要素と関連されていることであり、それによって異なるセンサ間のスキャンの時間的な変位、即ちセンサ間のレイテンシーが考慮され得ることである。1スキャンの開始或は終了の時間は有益には、例えば各センサに対してこのプロセス中において固定され、その集合の検出の時点として使用され、それは一般に各場合においてセンサの1対に対する対応する時間差を知ることだけで充分である。
時間差は、しばしば、センサによるスキャンの時間長より小さく、よってセンサによる同一スキャンにおける相互に異なる生データ要素の検出の時間間隔よりも小さくなる。集合の内の相互に対して個々別々の生データ要素の検出の時間間隔は、それ故に、生データ要素の検出の時点として定義される時間の固定において特に好ましくは考慮される。生データ要素の検出の時点として定義される時間は、集合の検出の時点問として定義される時間から、そして、例えば一定スキャニング速度が仮定された場合、時間的に相互に続く連続的な生データ要素の位置から引き出され得る1スキャン中における生データ要素の検出の間の時間差から生じ得る。
生データ要素の検出の時点として定義される時間の決定が絶対的に行われ得るが、基準時点に対してだけは必要であり、それは、おおよその修正が検出と基準時点の間の時間間隔における移動に対してのみ行われるべきであるからである。この基準時点は、もしスキャン中における異なる検出時間による変位だけが修正されるのであれば、各集合毎に異なって選択され得る。しかしながら複数の集合から成るグループにとって同一である基準時点は好適に選択される。この基準時点は一般に自由に選択され得るが、センサ中の1つによる最も早期のスキャンの開始からセンサ中の1つによる最後のスキャンの終了までの時間間隔以内に好ましく入り、各スキャンはそのグループの集合と対応している。修正変位に対する近似は、一方では、ここではより精密であり、それは、必ずしも時間的に一定ではない移動の近似がより短い時間にわたって行われるからである。この場合、他方では、生データ要素の検出の時点として定義された時間の決定は、特にもし例えばスキャンの開始がセンサ中の1つによって基準時点として選択されれば、実質的に簡素化される。
本発明に従った方法で使用されるセンサの移動はそれらセンサの実際のリアル移動、或は、その実際の移動に近似された移動であり得る。センサの移動は、このプロセスにおいて、例えばその速度、或は、その速度及び加速度を介する修正の品質に依存して、量及び方向を伴うベクトル値を有して考慮され得る。この構成の回転移動も、もしセンサが相互に対して時間的に一定の位置に配置されていれば特に考慮され得る。
これら運動値に対するデータは例えば読み込まれ得る。例えば車両の場合、車両自体の速度及び操舵角若しくは偏揺率は、センサの移動を特定すべく対応する車両センサを介して使用され得る。次いでセンサのこの移動は、例えば、唯一車両の移動によってのみ近似され得て、回転移動に及んで、同一の軌道速度が、それらの配列に関わりなく、全センサと関連される。より良好な近似において、車両の運動データからセンサの移動の算定のため、車両上のそれら位置も必然的に使用され得る。
しかしながらセンサの移動或は運動データも、センサにおける対応する平行対象物検出及び/或は対象物追跡から、或は、引き続く対象物認識から決定され得る。運動データは好ましくは使用され、それらはグループの複数の集合と対応しているセンサによるスキャンに時間的に接近して検出され、特に好ましくはセンサ中の1つによるスキャン中に検出される。
時間差以内の移動に起因する変位は、既知の運動学公式を用いての修正のために、移動の運動データから、そして生データ要素の検出の時点として定義される時間とグループ或は集合の基準時点との間の時間差から算定され得て、生データ要素における座標はこうして修正され得る。しかしながら一般に変更された運動関係も使用され得る。
修正はこのプロセスにおいて運動データ及び時間差が固定されるとすぐに行われ得る。次いでそれらは特に、センサに対して、或は、1グループの関連集合に対して、そして共通座標系への変換の前、その最中、若しくはその後に、別々に或は一緒に行われ得る。
もし2つの移動対象物点がセンサ間の待ち時間及び/或は内部スキャンの待ち時間によって同時に検出されなければ、関連された生データ要素の座標から決定された対象物点の位置と特にそれらの間隔とは、一般に、実際の位置及び間隔とは逸脱している。これら逸脱は高速移動対象物と一緒に特に大きく生じて、上述した方法に従った修正データ要素の修正及び融合の後により後の対象物認識及び/或は対象物追跡を妨げる。
それ故に、対象物認識及び/或は対象物追跡は、グループの生データ要素から成る各集合に対するそれら生データ要素に基づき、対応する修正集合を形成する前に、好ましくは実行され、それら生データ要素が認識対象物と関連され、対象物追跡で算定された移動データの少なくとも1つがこれら生データ要素の各々と関連されている。次いで、修正集合の形成に及んで、特に移動データの幾つか等の対象物認識及び/或は対象物追跡の結果は個々別々の集合に基づき修正用に使用される。各集合毎、即ち各センサ毎に別々に実行され、そして修正データ要素の提供に独立して且つ引き続く対象物認識及び/或は対象物追跡と独立して実行される対象物認識及び/或は対象物追跡によって、上記待ち時間に基づく生データ要素の過誤の仮想対象物に関係された修正が可能である。高速移動対象物点と対応する生データ要素はその待ち時間に関して著しく徹底的に修正され得て、それら修正データ要素に基づき対象物認識及び/或は対象物追跡が簡単に且つ高精度をもって可能である。
既知プロセスは生データ要素から成る集合各々に対する対象物認識及び/或は対象物追跡に使用され得て、一般に比較的簡単な方法で充分である。対象物検出及び/或は対象物追跡は集合の生データ要素だけを参照してか、或は、共通座標系への変換後に行われ得る。
本発明に従った方法の上述した更なる発展例において、各集合に対する修正集合の形成において、生データ要素の座標は、それらと関連された移動データに従って、そしてそれら生データ要素の検出時点として定義された時間とグループ或は集合の基準時点との間の差に従って、好ましくは修正される。必然的にこの修正は、単独で或はセンサ移動及び待ち時間に基づく変位の上述した修正に加えて行われ得る。
ここで、センサの移動が対象物の移動によって代替される場合にも適用される、生データ要素の検出時点として定義された時間とグループ或は集合の基準時点との間の差に関しての説明を参照する。特にグループの全集合に対して同一である基準時点は基準時点として選択され得る。
移動データは、好ましくは仮想対象物の任意の所望の運動データであり得る。例えばその速度、或は、その速度及び加速度を介する修正の必要とされる品質に依存して、量及び方向を伴うベクトル値を有する。仮想対象物関連の生データ要素と関連された移動データはこのプロセスにおいて相互に同一であるように選択され得、特に仮想対象物の移動データと同一であるように選択可能である。特にこれは移動データが仮想対象物の速度のみ含む場合に鋭敏であり、それは、同一速度が仮想対象物を形成する生データ要素全てと関連されるように一貫性を有するからである。しかしながら移動データは仮想対象物と関連された生データ要素と個々別々に関連され得、特にこれは仮想対象物の移動データがその仮想対象物の可能な回転移動をも含む場合に鋭敏であり、それは、個々別々の仮想対象物点は異なる瞬時的な速度を有するからである。待ち時間によって生ずる過誤の特に大きな修正は、比較的高速な対象物、例えば高偏揺率を有する車両に伴う生データ要素において可能である。
上述の方法におけるように、修正は変位、移動値、並びに、移動の待ち時間の間の対応する運動関係を参照して行われ得て、変更もここでは可能である。
センサ間の待ち時間と内部スキャンの待ち時間に起因する生データ要素における過誤の修正に対する上述の方法において、基準時点は、好ましくは、グループの複数の集合の内の1つの生データ要素の検出時点として定義された最も早い時間とグループの複数の集合の内の他の1つの生データ要素の検出時点として定義された最終時間との間に存在する。特にそれによって修正変位の算定における過誤は移動データの迅速な変更により低減される。
個々別々の集合、特に移動データの幾つかに基づく対象物検出及び/或は対象物追跡の結果が修正に対して用いられる本発明に従った方法の更なる実施例において、複数の基準時点が使用され、それらが対象物と対応している仮想対象物グループとそれぞれ関連されている。
修正データ要素から成る集合の形成前或はその形成に及んで、対象物と関連された仮想対象物グループ、即ち、生データ要素から成る集合に基づき準備されると共に対象物と対応しているとして認識される仮想対象物と関連された仮想対象物グループは、複数の基準時点を使用する目的のために形成される。この目的のために、例えば対象物検出及び/或は対象物追跡に対する方法が使用されるか、或は、もし第1センサの視野内の対象物が第2センサの視野内に入れば、第1センサの視野からのデータの対応する外挿に対する方法が使用される。更には、各集合における関連生データ要素は対象物と関連された各仮想対象物グループに対して検索される。加えて、各仮想対象物グループに対して、それと関連された基準時点が固定される。修正データ要素から成る集合の形成に及んで、対象物と関連された仮想対象物グループの各仮想対象物に対して、それと関連された生データ要素の座標が、これら生データ要素を検出するセンサの移動と対応するグループの生データ要素から成る全集合、及び/或は、これら生データ要素と関連された移動データの移動と対応するグループの生データ要素から成る全集合、そして生データ要素の検出時点として定義された時間と仮想対象物グループの基準時点との間の差と対応するグループの生データ要素から成る全集合において、修正される。
移動データは、好ましくはセンサ或は仮想対象物の任意の所望運動データであり得る。例えばその速度、或は、その速度及び加速度を介する修正の必要とされる品質に依存して、量及び方向を伴うベクトル値を有する。仮想対象物関連の生データ要素と関連された移動データはこのプロセスにおいて相互に同一であるように選択され得、特に仮想対象物の移動データと同一であるように選択され得る。特にこれは移動データが仮想対象物の速度のみ含む場合に鋭敏であり、それは、同一速度が仮想対象物を形成する生データ要素全てと関連されるように一貫性を有するからである。しかしながら移動データは仮想対象物と関連された生データ要素と個々別々に関連され得、特にこれは仮想対象物の移動データがその仮想対象物の可能な回転移動をも含む場合に鋭敏であり、それは、個々別々の仮想対象物点は異なる瞬時的な速度を有するからである。待ち時間によって生ずる過誤の特に大きな修正は、比較的高速な対象物、例えば高偏揺率を有する車両に伴う生データ要素において可能である。
上述した方法におけるように、修正は、変位、移動値及び移動の時間長の間の対応する運動関係を参照して行われ、変更もここでは可能である。
生データ要素の検出時点として定義された時間とグループ或は集合の基準時点との間の差に関しての説明を参照し、それがここに適用される。しかしながらこれらとは対照的に、基準時点はここでの対象物と関連された各仮想対象物グループに対して個々別々に選択され、好ましくは、これは関連された生データ要素の測定時点と近接して存在する
仮想対象物グループとそれぞれ関連された基準時点は、なるべく仮想対象物グループの1つの仮想対象物と関連された1つの生データ要素の検出時点として定義された最も早い時間仮想対象物グループ内の1つの仮想対象物と関連する1つの生データ要素の検出時点として定義された最終時間との間に存在する。それは、修正変位の算定における過誤は移動データの迅速な変更で低減できるから、これによって修正の精度が増大するからである。これは加速された対象物或は対応する仮想対象物にとって特に重要であり、それは、それら移動データが対応する生データ要素と基準時点の実際の検出時の間に多量に変化し得るからである。特に好ましくは、仮想対象物グループと関連された少なくとも1つの基準時点はこの仮想対象物グループの仮想対象物と関連された生データ要素の検出時点であり、それは、これによって修正の精度が更に増大されるからである。
仮想対象物グループに対する修正データ要素は、特に好ましくは、この仮想対象物グループと関連された基準時点を含んで、それが引き続く対象物検出及び/或は対象物追跡に考慮され得るように為す。それ故に各仮想対象物グループは多かれ少なかれそれ自体、生データ要素の検出時点から基準時点の実際の検出時点までの時間差の「年齢」に達する。
対照的に、他の実施例に従った上述の方法において、生データ要素が修正されるにあたって参照される共通基準時間は修正データ要素全体と関連づけられる。それ故に、これら他の実施例における修正データ要素の統合集合は統合領域のスキャンと対応しているとして考慮され得る。対照的に最後に記述した実施例において、修正データ要素は仮想対象物グループと対応して提供され、それが仮想対象物グループと関係したスキャンとして云われるように考えられ得る。
監視区域のモデルを生成するための本発明に従った方法において、好適実施例の対象物認識及び/或は対象物追跡は、それ故に、それと関連された修正データ要素に基づき各仮想対象物グループに対して別々に実行され、その目的のために関連された基準時点は任意に考慮される。
対応する対象物認識及び/或は対象物追跡はこのプロセスにおいて仮想対象物グループ及び生データ要素の修正の形成後に直に、或は、全ての修正データ要素の提供後のみに行われ得て、修正データ要素が仮想対象物グループと関連される基礎となる情報は修正データ要素に含まれることが可能である。
そうした方法は移動センサ及び高速移動対象物にとって非常に良好な結果に至る。
対象物認識及び/或は対象物追跡が生データ要素から成る各集合に対して別々に使用される上記方法の上述した実施例は全てデータ処理装置上で実行され得る。しかしながら対象物認識及び/或は対象物追跡は、好ましくは、集合の生データ要素に基づき集合のこれら生データ要素を検出するセンサから成る評価ユニット内において実行され、他のステップは別のデータ処理装置内において実行される。それ故に、データ処理の一部は一方ではセンサへ転送される。他方では、本発明に従った方法と関連されて使用され得る特にレーザ・スキャナ等の数多くの既知センサは、標準としての適切な評価ユニットを有する。
好ましくは、本発明に従った方法はこうしたセンサのそれぞれの逐次スキャンを反復して実行され、新グループは、センサ中の1つと関連された生データ要素から成る少なくとも1つの集合を読み込んだ後に形成され、それら生データ要素は集合グループ内に先行して含まれセンサと関連された生データ要素から成る集合の生データ要素よりも後のスキャンで検出されたものである。この新グループは他方のセンサと関連された先行グループの生データ要素から成る集合と、生データ要素から成る少なくとも1つの新グループとを含む。次に、本発明に従った方法は生データ要素から成る複数の集合の新グループに対して実行され、先行する反復で獲得されたデータ、即ち再び算定されていないデータも使用され、それは再度の算定ではない。
複数のセンサが使用される場合、修正データ要素はより頻繁に獲得され、それが対象物認識及び/或は対象物追跡のより頻繁な実行を許容する。次いでこれは更により有利な条件で稼働するが、それは、統合スキャン或は仮想対象物と関係するスキャンのデータの比較的小さな一部のみが変更されるからであり、それはとりわけ対象物追跡全体を促進する。
本発明に従った方法は、好ましくは、複数のセンサの視野が部分的に重複している監視区域のモデル生成用の修正データ要素の提供に使用され、それは、このプロセスにおいて全センサの生データ要素の修正及び融合の仮想対象物融合の長所が特に発揮されるからである。
本発明に従った方法は、好ましくは、対応するプログラムを用いた対応するデータ処理プラント上で実行され得る。しかしながら特に対応するプログラムを具備する標準的なコンピュータが使用可能であるが、例えば高速ディジタル信号プロセッサも使用可能である。
好適実施例において、本方法は1つの評価ユニット上、或は、1つのセンサ若しくは複数のセンサ内に存する複数の評価装置にわたって−分散された−評価ユニット上で実行される。特にディジタル信号プロセッサ及びメモリ装置等のプロセッサを具備する評価ユニットを有するレーザ・スキャナの場合、評価ユニットの1つ或はそれ以上における方法全体の実行は有益である。次いで監視区域のモデル生成用の装置は、特にレーザ/スキャナ等の少なくとも2つのオプトエレクトロニクス・センサを含み、それらの視野が監視区域を含み且つそれらの内の少なくとも1つが本発明に従った方法を実行すると共に対応するデータの出力のために設計された評価ユニットと、レーザ・スキャナによって検出された生データ要素の評価装置或は1つ若しくはそれ以上のセンサ内における評価装置への送信のためのデータ・リンクとを有する。
本発明の更なる課題は、修正データ要素の提供のための本発明に従った方法、或は、プログラムがコンピュータ上で実行された際に監視区域のモデル生成のための本発明に従った方法を実行すべくプログラム・コード手段を具備するコンピュータ・プログラムである。
本発明の更なる課題は、修正データ要素の提供のための本発明に従った方法、及び/或は、コンピュータ・プログラム・プロダクトがコンピュータ上で実行された際に監視区域のモデル生成のための本発明に従った方法を実行するために、機械可読データ担体上に記憶されるプログラム・コード手段を具備するコンピュータ・プログラム・プロダクトである。
更に本発明は、特にレーザ・スキャナ等の視野が監視区域を含んでいる少なくとも2つのオプトエレクトロニクス・センサによる監視区域のモデル生成のための装置であり、修正データ要素提供のための本発明に従った方法或は監視区域のモデル生成のための本発明に従った方法を実行すべく設計されたデータ処理装置を具備すると共に、レーザ・スキャナによって検出された生データ要素のデータ処理装置への送信のためのデータ・リンクを具備する装置を含む。
本発明の更なる課題は、特にレーザ・スキャナ等の視野が監視区域を含んでいる少なくとも2つのオプトエレクトロニクス・センサを用いての監視区域のモデル生成のための装置であり、それらセンサ各々が対象物認識及び/或は対象物検出と対応する仮想対象物データの出力とのための評価装置を有し、上記装置が、修正データ要素提供のための本発明に従った方法或は監視区域のモデル生成のための本発明に従った方法を実行すべく設計されたデータ処理装置を具備すると共に、レーザ・スキャナによって検出された生データ要素と仮想対象物データとのデータ処理装置への送信のためのデータ・リンクを具備する。
高速のリアルタイムで使用可能なデータ・リンクが本発明に従った装置に好ましくは使用される。
以下、本発明の各種の好適実施例は図面を参照して例示的に説明される。
図1においては、オプトエレクトロニクス・センサとしてレーザ・スキャナを例にとって説明する。対象物の位置の検出のための2つのレーザ・スキャナ10及び12が車両14に保持されている。これらレーザ・スキャナ10及び12はデータ・リンク16及び18を介して(不図示)出力装置を有するデータ処理装置20と接続されている。
レーザ・スキャナ10及び12は監視区域26内で部分的に重複する視野22及び24としての円弧状扇形をそれぞれ有する。監視区域26は両視野22及び24を完全に含み得る。これら視野はより良好な図示のために非常に小さくなるように選択され、典型的には、レーザ・スキャナの範囲は非常により大きい。対象物28はこの監視区区域内に配置されている。ここで、「監視区域のモデル」について説明しておく。本発明における監視区域とは、センサ10、12でモニター(監視)された区域22、24、26であり、センサ10、12の視野に対応する。区域22,24,26に位置する車、歩行者、木などのような対象物28は、センサ10、12により検知される。「監視区域のモデル」とは、区域2 2,2 4,26で検知された全ての対象物28のモデルのことである。
レーザ・スキャナ10及び12はそれぞれ同一方法に従って動作する。レーザ・スキャナ10は、公知方法で、一定の速度で軌道を描いて回るレーザ・ビームを送信し、レーザ・ビームが対象物におけるある点によって反射されたか否かが軌道旋回中に平均角度αiを有する固定角度範囲内における時間τiでの一定時間間隔Δτで検出される。添え字iは、このプロセス中、1から視野における角度範囲の数まで走る。これら角度範囲の個々別々のもののみが示され、とりわけ、平均角度αiと関連された角度範囲のみが示されている。これら角度領域はより明瞭な図示のためにここでは誇張されて大きく示されている。この場合、レーザ・スキャナ10からの点の間隔又は隔たりdiはレーザ光の実行時間を参照して決定される。それ故にレーザ・スキャナ10は角度αiとこの角度で決定された間隔diとを検出し、それは対象物28の対象物点P用の複数の生データ要素としての極座標における対象物の位置である。レーザ・スキャナ10によって検出された生データ要素から成る集合M10は統合生データ要素(αk,dk)を含み、kは1とレーザ・スキャナ10によって検出された生データ要素の数との間の自然数である。それに対応してレーザ・スキャナ12は生データ要素(βl,el)を検出し、elは約βlの角度範囲内で検出された対象物点の間隔であり、lは1とレーザ・スキャナ12によって検出された生データ要素の数との間の自然数である。これら生データ要素はレーザ・スキャナ12と関連された生データ要素から成る集合(以下これを生データ集合と称する。)12を形成する。対象物点Pは図1において座標(βm,em)を有する。
レーザ・スキャナ10及び12はそれらの視野を逐次スキャンの形態でスキャンして、複数の生データ集合の時間シーケンスが各レーザ・スキャナに対して作り出される。
時間的に相互に関連された生データ要素から成る集合のグループは集合M10及びM12によって形成され、それら集合の一方に対するスキャンの開始が他方の集合に対するスキャンの期間以内に行われる。視野の逐次スキャンと生データ集合の対応する逐次出力とが意味することは、生データ要素から成る集合が生データ集合から成る2つの連続的なグループ内に含まれ得る。
データ処理装置20は、充分高速なプロセッサ、メインメモリ、並びに、データ・リンク16及び18に対する対応するインターフェースを具備する従来のパーソナルコンピュータであり得る。一般に、レーザ・スキャナ間の1つのデータ・リンクは、もしそれらが監視区域のモデルの準備を可能とする評価ユニットを有すれば充分である。例えば、対応してプログラムされたディジタル信号プロセッサを具備する評価ユニットが適合する。
環境モデルの準備のための図2に図示された第1方法において、修正はレーザ・スキャナ10及び12の移動に関して実行される。この目的のため、ステップ100で、レーザ・スキャナ10の生データ集合が先ず読み込まれ、ステップ102で共通のデカルト座標系へ変換される。レーザ・スキャナ10の座標系は共通座標系として使用されて、その生データ要素が既知の公式に従うだけの更なる変位無しにデカルト座標へ変換され得るように為す。
ステップ104において、レーザ・スキャナの一方によって出力される次の生データ集合は読み込まれ、ステップ100から開始して−、集合M12に対するスキャンの開始が集合M10に対するスキャン中に行われて、集合M12に対するスキャンが集合M10に対するスキャンよりも遅れて稼働するように為す。この方法の更なる行程において、生データ集合はこれら2つのレーザ・スキャナの一方から交替してそれぞれ読み込まれて、各レーザ・スキャナに対して最新の生データ集合が常に読み込まれるように為す。これら2つの集合はこのプロセスにおいて生データ集合から成るグループを形成する。スキャンの開始の時間は、それぞれ、レーザ・スキャナの対応する信号によって決定され、発生の時間はその発生に基づき記憶される。
ステップ106において、ステップ104で読み込まれた生データ集合の生データ要素の座標は先ずデカルト座標へ変換される。新しく読み込まれた集合の生データ要素の座標は、これはステップ100から開始されたM12である、集合がレーザ・スキャナ12と関連された場合、デカルト座標への変換後にレーザ・スキャナ10からレーザ・スキャナ12までの固定された相対的ベクトルRに従って変位され、それによって共通座標系における座標が生ずる。
ステップ108において、基準時点tFは固定され、例えば生データ集合と対応している後のスキャンの開始の時点である。
ステップ110において、レーザ・スキャナに対するそれぞれのベクトル速度は読み込まれる。レーザ・スキャナ10及び12の対応する速度v10或はv12は、これらレーザ・スキャナ10及び12の位置を考慮して、車両の(図1に示されていない)対応するセンサによってこのプロセスにおいて決定される。より単純な近似で、センサの位置を考慮すること無しに、センサの速度は車両速度によって与えることができる。これら速度は集合M10及びM12における生データ要素とそれぞれ関連されている。
次いでステップ112及び114は集合集合M10及びM12の各々における各生データ要素に対して実行される。
ステップ112において、生データ要素の検出の時点として定義された時間と基準時間との時間差が算定される。検出の時点として定義された時間は、スキャンの開始の時点、且つ生データ要素が検出される角度範囲の位置から生ずる。もし生データ要素が角度範囲αi或はβi内に検出されたならば、量i*Δτがスキャンの開始の時間に加えられる。
ステップ114において、生データ要素の座標は、次いで、ステップ112からの生データ要素の検出時点と基準時点との時間差と、生データ要素と関連されたベクトル速度10或はv12 との乗算(i・Δt・v 10 或はi・Δt・v 12 :但し、iは生データ要素、Δtは時間差)から生ずるベクトルに関して変位される。
ステップ116において、統合スキャンはこれら修正データ要素から形成され、これら修正データ要素に基づき対象物認識及び/或は対象物追跡がステップ118で実行され、対応するデータがステップ120で出力される。
その結果、動作は、従属する各種ステップを実行後にステップ100から開始し、先行する集合M10と置き換わる次の生データ集合M10となる次の生データ集合の読み込みを伴うステップ104で続行される。時間的により早くスキャンを開始する集合は変化していない集合M12である。
図3に示された本発明の第2の好適実施例に従った方法は、修正が対象物の移動に対して付加的に行われることを伴って、図2に従った第1の方法と類似して実行される。それ故に、この方法でも実行される各種ステップはより詳細に説明されない。
ステップ122及び124は、生データ集合が読み込まれて共通座標系へ変換されるステップ128及び103と共に、図2に従った方法のステップ100から106と対応する。
第1実施例に従った方法とは異なり、対象物認識及び/或は対象物追跡はステップ126及び132において生データ集合 10 或は読み込まれる次の生データ集合に対して実行され、認識された対象物の速度と仮想対象物への生データ要素関連性が運動データとして保存される。生データ要素によるそれぞれの場合で生データ要素と関連する仮想対象物速度は、この結果として生じている。例えば、当業者に既知の対応する方法は対象物認識及び/或は対象物追跡用に使用され得る。ステップ126及び132もステップ124及び130の前に実行され得て、そのプロセスで得られた仮想対象物の移動データに共通座標系への変換が必要とされる。
図2に従った方法のステップ108と対応するステップ134での基準時点の固定後、図2におけるステップ110と対応するステップ136でベクトル速度v10及びv12が読み込まれる。
ステップ138において、生データ要素の対応するベクトル速度は、生データ集合、或はそれを検出するレーザ・スキャナの対応する速度v10或はv12 と、対応する前記生データ要素と結び付けられている仮想対象物速度の加算によって各生データ集合で生データ要素ごとに決定される。
図2におけるステップ112と対応するステップ140において、生データ要素の検出の時点として定義された時間と基準時間との時間差が算定される。
ステップ142において、次いで生データ要素の座標は、ステップ140からの時間差によって、ステップ138における生データ要素の対応するベクトル速度の乗算から生ずるベクトルによって変位される。
図2におけるステップ116,118,120と対応するステップ144,146,148において、次いで統合スキャンは共通基準時点に基づき修正されたデータ要素で形成され、これに基づき、対象物認識及び/或は対象物追跡はステップ126及び122における対象物認識及び/或は対象物追跡とは独立して算定され、対応するデータが出力される。
次いでこの方法はステップ128で続行される。
図4に図示された本発明の第3実施例に従った方法では、図3における第2実施例に従った方法とは対照的に、対象物認識及び対象物追跡が各対象物に対するデータの集合後に別々に実行される。幾つかのステップが第2実施例に従った方法のようにこのプロセスにおいて実行されることで、ここではより詳細に記載されない。
図3でのステップ122,124,126,128,130,132と対応するステップ150,152,154,156,158,160において、生データ要素は読み込まれ、その座標が共通座標系に変換され、そして対象物認識及び/或は対象物追跡が各生データ集合に基づき算定される。
ステップ162において、同一対象物と対応しているとして認識されている仮想対象物を含む仮想対象物グループは、生データ要素から成る全集合内におけるステップ154及び160で認識された仮想対象物から、対象物認識及び/或は対象物追跡用の既知の方法を用いることによって形成される。
センサ或はレーザ・スキャナ10及び12のベクトル速度は、図2におけるステップ108と対応するステップ164で読み込まれる。
続くステップ166から180は全仮想対象物グループに対して実行される。
ステップ166において、仮想対象物と関連された生データ要素は2つの生データ集合M10及びM12における仮想対象物グループに対して検索される。
ステップ168において、検出時点として定義された生データ要素の時間に従って先ず検出された生データ要素の検出時点として定義された時間は、仮想対象物グループに対する基準時点として選択される。
ステップ170において、全体のベクトル速度は仮想対象物グループの1つの仮想対象物と結び付けられている生データ要素各々に対して決定され、生データ要素を検出したレーザ・スキャンの対応する速度とステップ154或は160での対象物認識及び/或は対象物追跡で算定された生データ要素の対応するベクトル速度との双方の加算によって算定される。
ステップ172において、次いで仮想対象物グループの仮想対象物と関連された生データ要素各々に対する前記時間差が図3におけるステップ140として算定され、ステップ174においてその座標は、全体のベクトル速度と時間差との積に従って変位される。
ステップ176において、このようにして修正された仮想対象物グループのデータ要素は、時間内のそれぞれの基準時点との関係を築いている一方で、仮想対象物グループと関連されたスキャンによって融合され、そしてステップ178において対象物認識及び/或は対象物追跡がこれに基づき実行されて、その結果がステップ180で出力される。
代替的には、ステップ166から180は各仮想対象物グループの形成後にそれぞれ実行される。
全ての仮想対象物グループを実行後、動作はステップ156で続行される。
要約すると、3つの実施例に従った上述の方法は、図2に図示された第1方法で修正がレーザ・スキャナの移動と待ち時間に関して行われるだけだが、第2実施例に従った方法では検出対象物の移動が修正に付加的に取り入れられる。これら2つの実施例において、対象物認識及び対象物追跡は修正後の修正データ要素全てに基づき行われる。第3実施例に従った方法では、実質的に同一の修正が第2実施例に従った方法のように実行され、即ちレーザ・スキャナの移動、対象物の移動、並びに、待ち時間に関して実行され、修正が為された基準時点が個々別々の対象物と関連され、個別の対象物認識及び対象物追跡が1つの対象物と対応する修正データ要素に対してそれぞれ実行される。
監視区域のモデル生成のための本発明に従った装置の概略平面図である。 本発明の好適な第1実施例に従った監視区域のモデル生成のための方法におけるフローチャートを示す概略構造図である。 本発明の好適な第2実施例に従った監視区域のモデル生成のための方法におけるフローチャートを示す概略構造図である。 本発明の好適な第3実施例に従った監視区域のモデル生成のための方法におけるフローチャートを示す概略構造図である。
符号の説明
10,12 レーザ・スキャナ
14 車両
16,18 データ・リンク
20 データ処理装置
22,24 視野
26 監視区域
28 対象物

Claims (19)

  1. 監視区域(26)は、特にレーザ・スキャナ等の少なくとも2つのオプトエレクトロニクス・センサ(10,12)の各視野(22,24)内に存在すると共に対象物点を含んでおり、
    前記監視区域(26)における対象物点の位置決定のためのモデル(以下、単に「監視区域(26)のモデル」という。)を生成する修正データ要素であり、前記監視区域(26)内における対象物点と対応している生データ要素の複数の集合に基づき検出された実際の対象物(28)の位置を検出するためにもたらされる修正データ要素を提供する方法であって、
    生データ要素からそれぞれが成る1つの集合が、前記センサ(10又は12)の内の1つによってその視野(22,24)のスキャニングで検出されると共に該センサと関連されており、
    前記センサ(10又は12)に対して特定の時間的関連性を具備する異なる他のセンサ(12又は10)による生データ要素からそれぞれが成る他の集合が、前記1つの集合とともに1グループを形成し、
    前記複数の集合の前記生データ要素が前記関連されたセンサ(10,12)によって検出された対象物点の座標であり、各センサ(10,12)の位置に対する座標を少なくとも含み、
    前記グループの生データ要素から成る前記複数の集合と対応している修正データ要素から成る複数の修正集合の形成のため、前記生データ要素に含まれる前記座標がデカルト座標へ変換され、前記センサ(10,12)の一方から他方までの固定された相対的ベクトルに従って変位され、前記グループの各集合毎に共通座標系に変換されることから成る方法。
  2. 修正集合の形成に及んで、生データ要素の座標が、それを検出する前記センサ(10,12)の実際の移動に従って或はそれに類似した移動に従って、そして各生データ要素の検出の時点として定義された時間と基準時点との間の差に従って、各集合毎に修正されることを特徴とする、請求項1に記載の方法。
  3. 前記集合の検出の時点として定義された時間が1集合の全生データ要素に対する生データ要素の検出の時点として使用されることを特徴とする、請求項2に記載の方法。
  4. 前記グループの生データ要素から成る各集合に対して、対象物認識及び/或は対象物追跡が対応する修正集合の形成前に前記集合の生データ要素に基づき実行され、生データ要素が各認識対象物と関連されており、前記対象物追跡で算定された生データ要素の移動に関連する移動データがこれら生データ要素の各々と関連されており、そして、前記修正集合の形成において、個々別々の前記集合に基づく前記対象物検出及び/或は対象物追跡の結果が修正のために使用されることを特徴とする、請求項1乃至3の内の何れか一項に記載の方法。
  5. 前記修正集合の形成において、前記生データ要素の座標が前記生データ要素の移動に関連する移動データに従うと共に、前記生データ要素の検出の時点として定義された時間と前記グループ或は集合の基準時点との間の差に従って各集合毎に修正されることを特徴とする、請求項4に記載の方法。
  6. 前記基準時点が前記グループの前記集合の内の1つの生データ要素の検出時点として定義された最も早い時間と前記グループの前記集合の内の1つの生データ要素の検出時点として定義された最終時間との間に存在していることを特徴する、請求項2乃至5の内の何れか一項に記載の方法。
  7. 修正データ要素から成る集合の形成の前或はそれに及んで、仮想対象物グループが形成され、それらが実際の対象物(28)と対応していると共に生データ要素から成る1集合に基づき作成されて、実際の対象物(28)と対応していると認識される仮想対象物を有し、
    実際の対象物(28)と関連された各仮想対象物グループに対して、各集合における関連された生データ要素が検索され、
    実際の対象物(28)と関連された各仮想対象物グループに対して、それと関連された基準時点が決定され、
    修正データ要素から成る集合の形成に及んで、各仮想対象物用に、前記グループの全集合におけるその仮想対象物と関連された生データ要素の座標は、これら生データ要素を検出する各センサ(10,12)の移動に従って修正され、及び/或は、これら生データ要素と関連され、前記対象物追跡で算定された前記移動データに従って修正され、そして、前記生データ要素の検出の時点と前記仮想対象物に対する基準時点として定義された時間との差に従って修正されることを特徴する、請求項4に記載の方法。
  8. 前記仮想対象物グループとそれぞれ関連された基準時点が、前記仮想対象物グループの仮想対象物と関連された生データ要素の(検出時点として定義された)最も早い時間と前記仮想対象物グループの仮想対象物と関連された生データ要素の(検出時間として定義された)最終時間との間に存在していることを特徴とする、請求項7に記載の方法。
  9. 前記対象物認識及び/或は対象物追跡が、前記集合の前記生データ要素を検出する前記センサ(10,12)から成る評価ユニットにおいて、1集合の生データ要素に基づき実行され、そして他のステップが別のデータ処理装置(20)において実行されることを特徴とする、請求項4乃至8の内の何れか一項に記載の方法。
  10. 対象物グループに対する前記修正データ要素がこの対象物グループと関連された基準時点を含むことを特徴とする、請求項7乃至9の内の何れか一項に記載の方法。
  11. 前記センサ(10、12)のそれぞれの逐次スキャンを反復的して実行され、前記センサ(10、12)の内の1つと関連された生データ要素から成る少なくとも1つの集合を読み込んだ後に新グループが形成され、それら生データ要素は前記センサと関連された生データ要素から成る集合のグループに含まれ、以前の生データ要素から成る集合の生データ要素よりも後のスキャンで検出されたものであり、前記新グループは他方のセンサと関連された先行グループの生データ要素から成る集合と、生データ要素から成る少なくとも1つの新集合とを含み、集合グループ内に先行して含まれ、
    生データ要素から成る複数の集合の新グループに対して引き続き実行され、
    先行する反復で獲得されたデータが使用されることを特徴とする請求項1乃至10の内の何れか一項に記載の方法。
  12. 前記モデルが前記センサ(10,12)の視野(22,24)が部分的に重複している監視区域のためにだけ作り出されることを特徴とする、請求項1乃至11の内の何れか一項に記載の方法。
  13. 検出対象物(28)の位置であり且つ対象物点を含む位置を決定すべく、特にレーザ・スキャナ等の少なくとも2つのオプトエレクロニクス・センサ(10,12)の視野(22,24)内に存在する監視区域(26)のモデル生成のための方法であって、
    修正データ要素の提供のための方法が請求項1乃至12の内の何れか一項に従って実行され、対象物認識及び/或は対象物追跡が全修正データ要素に基づき行われることから成る方法。
  14. 対象物認識及び/或は対象物追跡が各仮想対象物グループ毎に別々の修正データ要素に基づき実行されることを特徴とする、請求項13に記載の方法。
  15. センサ(10,12)から成る評価装置において完全に実行されることを特徴とする、前記請求項1乃至14の内の何れか一項に記載の方法。
  16. プログラムがコンピュータ上で実行される際、請求項1乃至5の内の何れか一項を実行するプログラム・コード手段を具備するコンピュータ・プログラム。
  17. コンピュータ・プログラム・プロダクトがコンピュータ上で実行される際、請求項1乃至15に記載の方法の内の何れか一項に記載の方法を実行すべく、機械可読データ担体に記憶されたプログラム・コード手段を具備するコンピュータ・プログラム・プロダクト。
  18. 監視区域(26)のモデル生成のための装置であって、
    前記監視区域を含む視野(22,24)を有する、特にレーザ・スキャナ等の少なくとも2つのオプトエレクトロニクス・センサ(10,12)と、
    請求項1乃至14に記載の方法の内の何れか一項に記載の方法を実行するように設計されたデータ処理装置(20)と、
    前記センサ(10)によって検出された生データ要素の前記データ処理装置(20)への転送のためのデータ・リンク(16,18)と、
    を備える装置。
  19. 監視区域(26)のモデル生成のための装置であって、
    前記監視区域を含む視野(22,24)を有する、特にレーザ・スキャナ等の少なくとも2つのオプトエレクトロニクス・センサ(10,12)であり、対象物認識及び/或は対象物追跡のため且つ対応する仮想対象物データの出力のための評価装置をそれぞれが有する少なくとも2つのオプトエレクトロニクス・センサ(10,12)と、
    請求項1乃至14に記載の方法の内の何れか一項に記載の方法を実行するように設計されたデータ処理装置(20)と、
    前記センサ(10,12)によって検出された生データ要素と仮想対象物データとの前記データ処理装置(20)への送信のためのデータ・リンク(16,18)と、
    を備える装置。
JP2003507583A 2001-06-15 2002-06-14 複数のオプトエレクトロニクス・センサのデータの修正方法 Expired - Fee Related JP4669661B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE10128954A DE10128954A1 (de) 2001-06-15 2001-06-15 Korrekturverfahren für Daten mehrerer optoelektronischer Sensoren
DE10132335A DE10132335A1 (de) 2001-07-04 2001-07-04 Verfahren und Vorrichtung zur Lokalisierung von Objekten im Raum
DE10148062A DE10148062A1 (de) 2001-09-28 2001-09-28 Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE10154861A DE10154861A1 (de) 2001-11-08 2001-11-08 Verfahren zur Bereitstellung von Bildinformationen
PCT/EP2002/006594 WO2003001241A1 (de) 2001-06-15 2002-06-14 Korrekturverfahren für daten mehrerer optoelektronischer sensoren

Publications (2)

Publication Number Publication Date
JP2004530902A JP2004530902A (ja) 2004-10-07
JP4669661B2 true JP4669661B2 (ja) 2011-04-13

Family

ID=27437982

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2003507583A Expired - Fee Related JP4669661B2 (ja) 2001-06-15 2002-06-14 複数のオプトエレクトロニクス・センサのデータの修正方法
JP2003505649A Withdrawn JP2004530144A (ja) 2001-06-15 2002-06-14 画像情報を提供する方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2003505649A Withdrawn JP2004530144A (ja) 2001-06-15 2002-06-14 画像情報を提供する方法

Country Status (6)

Country Link
US (1) US7570793B2 (ja)
EP (4) EP1267178B1 (ja)
JP (2) JP4669661B2 (ja)
AT (2) ATE409320T1 (ja)
DE (2) DE50212810D1 (ja)
WO (2) WO2003001241A1 (ja)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6124886A (en) 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US6278377B1 (en) 1999-08-25 2001-08-21 Donnelly Corporation Indicator for vehicle accessory
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
US6420975B1 (en) 1999-08-25 2002-07-16 Donnelly Corporation Interior rearview mirror sound processing system
WO2001064481A2 (en) 2000-03-02 2001-09-07 Donnelly Corporation Video mirror systems incorporating an accessory module
US7480149B2 (en) 2004-08-18 2009-01-20 Donnelly Corporation Accessory module for vehicle
US6396408B2 (en) 2000-03-31 2002-05-28 Donnelly Corporation Digital electrochromic circuit with a vehicle network
WO2003065084A1 (en) 2002-01-31 2003-08-07 Donnelly Corporation Vehicle accessory module
DE10312249A1 (de) * 2003-03-19 2004-09-30 Ibeo Automobile Sensor Gmbh Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE10312611A1 (de) * 2003-03-21 2004-09-30 Daimlerchrysler Ag Verfahren und Vorrichtung zum Erfassen eines Objekts im Umfeld eines Kraftfahrzeugs
DE10325709A1 (de) * 2003-06-06 2004-12-23 Valeo Schalter Und Sensoren Gmbh Vorrichtung und Verfahren zum Erkennen des Konturverlaufes eines Hindernisses
DE10336638A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
JP3941765B2 (ja) 2003-09-11 2007-07-04 トヨタ自動車株式会社 物体検出装置
US7047132B2 (en) * 2004-01-12 2006-05-16 Steven Jacobs Mobile vehicle sensor array
ES2429572T3 (es) 2004-12-01 2013-11-15 Zorg Industries (Hong Kong) Limited Sistema integrado de vehículos para la prevención de colisiones a baja velocidad
EP1827908B1 (en) 2004-12-15 2015-04-29 Magna Electronics Inc. An accessory module system for a vehicle window
USRE46672E1 (en) 2006-07-13 2018-01-16 Velodyne Lidar, Inc. High definition LiDAR system
DE102006057277A1 (de) * 2006-12-05 2008-06-12 Robert Bosch Gmbh Verfahren zum Betrieb eines Radarsystems bei möglicher Zielobjektverdeckung sowie Radarsystem zur Durchführung des Verfahrens
US8662397B2 (en) * 2007-09-27 2014-03-04 Symbol Technologies, Inc. Multiple camera imaging-based bar code reader
JP5136927B2 (ja) * 2007-10-09 2013-02-06 オプテックス株式会社 レーザエリアセンサ
US20100001075A1 (en) * 2008-07-07 2010-01-07 Symbol Technologies, Inc. Multi-imaging scanner for reading images
US8570374B2 (en) 2008-11-13 2013-10-29 Magna Electronics Inc. Camera for vehicle
US8415609B2 (en) * 2009-01-31 2013-04-09 Keyence Corporation Safety photoelectric switch
WO2011013284A1 (ja) * 2009-07-31 2011-02-03 本田技研工業株式会社 車両用物体検知装置及び車両用物体検知方法
DE202010012985U1 (de) 2010-11-25 2012-02-27 Sick Ag Sensoranordnung zur Objekterkennung
DE102010060942A1 (de) 2010-12-01 2012-06-06 Sick Ag Sensoranordnung zur Objekterkennung
RU2468382C1 (ru) * 2011-05-24 2012-11-27 Открытое Акционерное Общество "Производственное Объединение "Уральский Оптико-Механический Завод" Имени Э.С. Яламова" (Оао "По "Уомз") Способ формирования сигнала управления в следящей системе
US8885151B1 (en) 2012-09-04 2014-11-11 Google Inc. Condensing sensor data for transmission and processing
JP6019959B2 (ja) * 2012-09-06 2016-11-02 富士通株式会社 物体検出装置、物体検出プログラムおよび車両
US10557939B2 (en) 2015-10-19 2020-02-11 Luminar Technologies, Inc. Lidar system with improved signal-to-noise ratio in the presence of solar background noise
CN115480252A (zh) 2015-11-05 2022-12-16 路明亮有限责任公司 用于高分辨率深度映射的具有经改进扫描速度的激光雷达系统
EP3411660A4 (en) 2015-11-30 2019-11-27 Luminar Technologies, Inc. LIDAR SYSTEM WITH DISTRIBUTED LASER AND MULTIPLE SENSOR HEADS AND PULSED LASER FOR LIDAR SYSTEM
US10627490B2 (en) 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
JP7149256B2 (ja) 2016-03-19 2022-10-06 ベロダイン ライダー ユーエスエー,インコーポレイテッド Lidarに基づく3次元撮像のための統合された照射及び検出
US10429496B2 (en) 2016-05-27 2019-10-01 Analog Devices, Inc. Hybrid flash LIDAR system
WO2017210418A1 (en) 2016-06-01 2017-12-07 Velodyne Lidar, Inc. Multiple pixel scanning lidar
US10942257B2 (en) 2016-12-31 2021-03-09 Innovusion Ireland Limited 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices
US9905992B1 (en) 2017-03-16 2018-02-27 Luminar Technologies, Inc. Self-Raman laser for lidar system
US9810786B1 (en) 2017-03-16 2017-11-07 Luminar Technologies, Inc. Optical parametric oscillator for lidar system
US9810775B1 (en) 2017-03-16 2017-11-07 Luminar Technologies, Inc. Q-switched laser for LIDAR system
US9869754B1 (en) 2017-03-22 2018-01-16 Luminar Technologies, Inc. Scan patterns for lidar systems
US10121813B2 (en) 2017-03-28 2018-11-06 Luminar Technologies, Inc. Optical detector having a bandpass filter in a lidar system
US10267899B2 (en) 2017-03-28 2019-04-23 Luminar Technologies, Inc. Pulse timing based on angle of view
US10209359B2 (en) 2017-03-28 2019-02-19 Luminar Technologies, Inc. Adaptive pulse rate in a lidar system
US10061019B1 (en) 2017-03-28 2018-08-28 Luminar Technologies, Inc. Diffractive optical element in a lidar system to correct for backscan
US10139478B2 (en) 2017-03-28 2018-11-27 Luminar Technologies, Inc. Time varying gain in an optical detector operating in a lidar system
US10007001B1 (en) 2017-03-28 2018-06-26 Luminar Technologies, Inc. Active short-wave infrared four-dimensional camera
US10114111B2 (en) 2017-03-28 2018-10-30 Luminar Technologies, Inc. Method for dynamically controlling laser power
US10254388B2 (en) 2017-03-28 2019-04-09 Luminar Technologies, Inc. Dynamically varying laser output in a vehicle in view of weather conditions
US11119198B2 (en) 2017-03-28 2021-09-14 Luminar, Llc Increasing operational safety of a lidar system
US10545240B2 (en) 2017-03-28 2020-01-28 Luminar Technologies, Inc. LIDAR transmitter and detector system using pulse encoding to reduce range ambiguity
US10732281B2 (en) 2017-03-28 2020-08-04 Luminar Technologies, Inc. Lidar detector system having range walk compensation
US10254762B2 (en) 2017-03-29 2019-04-09 Luminar Technologies, Inc. Compensating for the vibration of the vehicle
US10976417B2 (en) 2017-03-29 2021-04-13 Luminar Holdco, Llc Using detectors with different gains in a lidar system
US10088559B1 (en) 2017-03-29 2018-10-02 Luminar Technologies, Inc. Controlling pulse timing to compensate for motor dynamics
US11002853B2 (en) 2017-03-29 2021-05-11 Luminar, Llc Ultrasonic vibrations on a window in a lidar system
US10969488B2 (en) 2017-03-29 2021-04-06 Luminar Holdco, Llc Dynamically scanning a field of regard using a limited number of output beams
US10983213B2 (en) 2017-03-29 2021-04-20 Luminar Holdco, Llc Non-uniform separation of detector array elements in a lidar system
US10191155B2 (en) 2017-03-29 2019-01-29 Luminar Technologies, Inc. Optical resolution in front of a vehicle
US10663595B2 (en) 2017-03-29 2020-05-26 Luminar Technologies, Inc. Synchronized multiple sensor head system for a vehicle
WO2018183715A1 (en) 2017-03-29 2018-10-04 Luminar Technologies, Inc. Method for controlling peak and average power through laser receiver
US10641874B2 (en) 2017-03-29 2020-05-05 Luminar Technologies, Inc. Sizing the field of view of a detector to improve operation of a lidar system
US10684360B2 (en) 2017-03-30 2020-06-16 Luminar Technologies, Inc. Protecting detector in a lidar system using off-axis illumination
US9989629B1 (en) 2017-03-30 2018-06-05 Luminar Technologies, Inc. Cross-talk mitigation using wavelength switching
US10295668B2 (en) 2017-03-30 2019-05-21 Luminar Technologies, Inc. Reducing the number of false detections in a lidar system
US10241198B2 (en) 2017-03-30 2019-03-26 Luminar Technologies, Inc. Lidar receiver calibration
US10401481B2 (en) 2017-03-30 2019-09-03 Luminar Technologies, Inc. Non-uniform beam power distribution for a laser operating in a vehicle
JP7290571B2 (ja) 2017-03-31 2023-06-13 ベロダイン ライダー ユーエスエー,インコーポレイテッド 統合化されたlidar照明出力制御
US20180284246A1 (en) 2017-03-31 2018-10-04 Luminar Technologies, Inc. Using Acoustic Signals to Modify Operation of a Lidar System
US11022688B2 (en) 2017-03-31 2021-06-01 Luminar, Llc Multi-eye lidar system
US10677897B2 (en) 2017-04-14 2020-06-09 Luminar Technologies, Inc. Combining lidar and camera data
CN115575928A (zh) 2017-05-08 2023-01-06 威力登激光雷达美国有限公司 Lidar数据获取与控制
DE102017118156A1 (de) 2017-08-09 2019-02-14 Valeo Schalter Und Sensoren Gmbh Verfahren zum Überwachen eines Umgebungsbereiches eines Kraftfahrzeugs, Sensorsteuergerät, Fahrerassistenzsystem sowie Kraftfahrzeug
US10211593B1 (en) 2017-10-18 2019-02-19 Luminar Technologies, Inc. Optical amplifier with multi-wavelength pumping
US10663585B2 (en) 2017-11-22 2020-05-26 Luminar Technologies, Inc. Manufacturing a balanced polygon mirror
US10451716B2 (en) 2017-11-22 2019-10-22 Luminar Technologies, Inc. Monitoring rotation of a mirror in a lidar system
US11294041B2 (en) * 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
US11493601B2 (en) 2017-12-22 2022-11-08 Innovusion, Inc. High density LIDAR scanning
WO2020013890A2 (en) 2018-02-23 2020-01-16 Innovusion Ireland Limited Multi-wavelength pulse steering in lidar systems
WO2019165294A1 (en) 2018-02-23 2019-08-29 Innovusion Ireland Limited 2-dimensional steering system for lidar systems
US10324170B1 (en) 2018-04-05 2019-06-18 Luminar Technologies, Inc. Multi-beam lidar system with polygon mirror
US11029406B2 (en) 2018-04-06 2021-06-08 Luminar, Llc Lidar system with AlInAsSb avalanche photodiode
FR3080922B1 (fr) * 2018-05-03 2020-09-18 Transdev Group Dispositif electronique et procede de detection d'un objet via un lidar a balayage, vehicule automobile autonome et programme d'ordinateur associes
DE102018110775A1 (de) * 2018-05-04 2019-11-07 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Ausrichtung eines optoelektronischen Sensors mittels Abtastpunkten eines Sensorbildes sowie optoelektronischer Sensor
US10348051B1 (en) 2018-05-18 2019-07-09 Luminar Technologies, Inc. Fiber-optic amplifier
US10591601B2 (en) 2018-07-10 2020-03-17 Luminar Technologies, Inc. Camera-gated lidar system
US10627516B2 (en) * 2018-07-19 2020-04-21 Luminar Technologies, Inc. Adjustable pulse characteristics for ground detection in lidar systems
US10551501B1 (en) 2018-08-09 2020-02-04 Luminar Technologies, Inc. Dual-mode lidar system
US10340651B1 (en) 2018-08-21 2019-07-02 Luminar Technologies, Inc. Lidar system with optical trigger
US11971507B2 (en) 2018-08-24 2024-04-30 Velodyne Lidar Usa, Inc. Systems and methods for mitigating optical crosstalk in a light ranging and detection system
US10712434B2 (en) 2018-09-18 2020-07-14 Velodyne Lidar, Inc. Multi-channel LIDAR illumination driver
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US12061263B2 (en) 2019-01-07 2024-08-13 Velodyne Lidar Usa, Inc. Systems and methods for a configurable sensor system
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
US11774561B2 (en) 2019-02-08 2023-10-03 Luminar Technologies, Inc. Amplifier input protection circuits
CN111745635B (zh) * 2019-03-28 2022-03-04 苏州科瓴精密机械科技有限公司 识别反光标方法、移动机器人定位方法及移动机器人系统
US10613203B1 (en) 2019-07-01 2020-04-07 Velodyne Lidar, Inc. Interference mitigation for light detection and ranging
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
JP2021148746A (ja) * 2020-03-23 2021-09-27 株式会社リコー 測距装置及び測距方法

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2021566A1 (de) 1970-05-02 1971-11-25 Ibm Deutschland Anordnung zur raeumlichen und zeitlichen Modulation eines Lichtstrahles
JPS5843009A (ja) * 1981-09-07 1983-03-12 Toyota Motor Corp 自動車速制御装置
DE3832720A1 (de) 1988-09-27 1990-03-29 Bosch Gmbh Robert Abstandsmesseinrichtung zur beruehrungslosen abstands- und winkelerkennung
DE3915631A1 (de) 1989-05-12 1990-11-15 Dornier Luftfahrt Navigationsverfahren
US5189619A (en) * 1989-09-05 1993-02-23 Toyota Jidosha Kabushiki Kaisha AI-based adaptive vehicle control system
US5128874A (en) 1990-01-02 1992-07-07 Honeywell Inc. Inertial navigation sensor integrated obstacle detection system
DE69124726T2 (de) 1990-10-25 1997-07-03 Mitsubishi Electric Corp Vorrichtung zur Abstandsdetektion für ein Kraftfahrzeug
FR2676284B1 (fr) * 1991-05-07 1994-12-02 Peugeot Procede de detection d'obstacles presents devant un vehicule automobile et dispositif pour la mise en óoeuvre d'un tel procede.
DE4119180A1 (de) 1991-06-11 1992-12-17 Merkel Peter Dr Verfahren und vorrichtung zur vermessung und dokumentation der geometrie, struktur- und materialbeschaffenheit von dreidimensionalen objekten, wie fassaden und raeume sowie deren waende, einrichtungen und installationen
DE4142702A1 (de) 1991-12-21 1993-06-24 Leuze Electronic Gmbh & Co Einrichtung zum abtasten dreidimensionaler objekte
US5756981A (en) * 1992-02-27 1998-05-26 Symbol Technologies, Inc. Optical scanner for reading and decoding one- and-two-dimensional symbologies at variable depths of field including memory efficient high speed image processing means and high accuracy image analysis means
DE4301538A1 (de) 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
DE4222642A1 (de) 1992-07-10 1994-01-13 Bodenseewerk Geraetetech Bilderfassende Sensoreinheit
US5275354A (en) * 1992-07-13 1994-01-04 Loral Vought Systems Corporation Guidance and targeting system
JP3232724B2 (ja) * 1992-12-08 2001-11-26 株式会社デンソー 車間距離制御装置
JP3263699B2 (ja) 1992-12-22 2002-03-04 三菱電機株式会社 走行環境監視装置
DE4320485B4 (de) 1993-06-21 2007-04-19 Eads Deutschland Gmbh Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera
JP3183598B2 (ja) * 1993-12-14 2001-07-09 三菱電機株式会社 障害物検知装置
US5635922A (en) * 1993-12-27 1997-06-03 Hyundai Electronics Industries Co., Ltd. Apparatus for and method of preventing car collision utilizing laser
JP3212218B2 (ja) 1994-05-26 2001-09-25 三菱電機株式会社 車両用障害物検出装置
JP2854805B2 (ja) * 1994-06-15 1999-02-10 富士通株式会社 物体認識方法および視覚装置
DE4434233A1 (de) 1994-09-24 1995-11-16 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten
JPH08122060A (ja) * 1994-10-21 1996-05-17 Mitsubishi Electric Corp 車両周辺監視システム
JP3498406B2 (ja) 1995-02-17 2004-02-16 マツダ株式会社 自動車の走行制御装置
DE19516324A1 (de) 1995-04-24 1996-10-31 Gos Ges Zur Foerderung Angewan Meßverfahren und Anordnung zur Messung der Lage-, Form- und Bewegungsparameter entfernter Objekte
JP3230642B2 (ja) * 1995-05-29 2001-11-19 ダイハツ工業株式会社 先行車検出装置
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US5717401A (en) * 1995-09-01 1998-02-10 Litton Systems, Inc. Active recognition system with optical signal processing
JP3336825B2 (ja) * 1995-09-25 2002-10-21 三菱自動車工業株式会社 障害物認識装置
DE19603267A1 (de) 1996-01-30 1997-07-31 Bosch Gmbh Robert Vorrichtung zur Abstands- und/oder Positionsbestimmung
DE59802284D1 (de) 1997-02-20 2002-01-17 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen eines Abstandes eines Hindernisses von einem Fahrzeug
DE19757840C1 (de) 1997-12-24 1999-09-30 Johann F Hipp Vorrichtung zur optischen Erfassung und Abstandermittlung von Objekten von einem Fahrzeug aus
US6175652B1 (en) * 1997-12-31 2001-01-16 Cognex Corporation Machine vision system for analyzing features based on multiple object images
US5966090A (en) * 1998-03-16 1999-10-12 Mcewan; Thomas E. Differential pulse radar motion sensor
DE19815149A1 (de) 1998-04-03 1999-10-07 Leuze Electronic Gmbh & Co Sensoranordnung
US5966678A (en) * 1998-05-18 1999-10-12 The United States Of America As Represented By The Secretary Of The Navy Method for filtering laser range data
US6055490A (en) * 1998-07-27 2000-04-25 Laser Technology, Inc. Apparatus and method for determining precision reflectivity of highway signs and other reflective objects utilizing an optical range finder instrument
JP2000075030A (ja) 1998-08-27 2000-03-14 Aisin Seiki Co Ltd スキャン型レーザーレーダ装置
WO2000013037A1 (fr) * 1998-08-31 2000-03-09 Osaka Gas Co., Ltd. Procede de recherche tridimensionnel, procede d'affichage de donnees de voxels tridimensionnelles, et dispositif de realisation de ces procedes
DE19910667A1 (de) 1999-03-11 2000-09-21 Volkswagen Ag Vorrichtung mit mindestens einem Lasersensor und Verfahren zum Betreiben eines Lasersensors
US6662649B1 (en) * 1999-03-19 2003-12-16 Simmons Sirvey Corporation Material level monitoring and reporting
DE19947766A1 (de) 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
DE10143504A1 (de) * 2001-09-05 2003-03-20 Sick Ag Überwachungsverfahren und optoelektronischer Sensor

Also Published As

Publication number Publication date
EP1395852A1 (de) 2004-03-10
DE50212663D1 (de) 2008-10-02
EP1267177A1 (de) 2002-12-18
US7570793B2 (en) 2009-08-04
JP2004530144A (ja) 2004-09-30
EP1267178A1 (de) 2002-12-18
EP1405100A1 (de) 2004-04-07
WO2003001241A1 (de) 2003-01-03
DE50212810D1 (de) 2008-11-06
WO2002103385A1 (de) 2002-12-27
ATE405853T1 (de) 2008-09-15
JP2004530902A (ja) 2004-10-07
EP1405100B1 (de) 2008-09-24
EP1267178B1 (de) 2008-08-20
ATE409320T1 (de) 2008-10-15
US20050034036A1 (en) 2005-02-10

Similar Documents

Publication Publication Date Title
JP4669661B2 (ja) 複数のオプトエレクトロニクス・センサのデータの修正方法
JP2020533601A (ja) 3d・lidar測定に基づく、多重解像度、同時位置特定、及びマッピング
CN107742304B (zh) 移动轨迹的确定方法及装置、移动机器人及存储介质
KR101632245B1 (ko) 보조 측정기의 공간 위치를 결정하기 위한 측정 장치
US11675080B2 (en) Method and apparatus for determining at least one spatial position and orientation of at least one object
JP2005050305A (ja) 車輌の対象物に対する衝突の確率を決定する方法及び機構
JP5316572B2 (ja) 物体認識装置
JP2004535586A (ja) 複数の車両センサの時間的同期のための方法
CN112668603A (zh) 产生识别传感器数据中的对象的识别模型用的训练数据的方法和设备、训练方法和操控方法
JP2003505682A (ja) 大きな物体の幾何学的形状を走査するシステム
CN116494255B (zh) 一种基于强化学习的空间机械臂路径规划系统
CN107680065A (zh) 辐射图像校正方法和校正装置及校正系统
JPH07120555A (ja) 車両用環境認識装置
CN111275087A (zh) 数据处理方法、装置、电子设备和机动车
CN114119465B (zh) 一种点云数据处理方法及装置
CN112914601B (zh) 一种机械臂的避障方法、装置、存储介质及超声设备
KR20240049643A (ko) 레이더 네트워크에서 각도 모호성들을 해결하기 위한 방법
JP5163088B2 (ja) 物体検出装置
CN207601853U (zh) 辐射图像校正系统
JP2017156177A (ja) 障害物検出装置および障害物検出方法
JPH05273341A (ja) 障害物検出装置
JP3541244B2 (ja) 水上/水中移動物体運動認識方法とその装置
JP2002341025A (ja) 目標追尾装置
JP7124760B2 (ja) 画像処理装置、及び画像処理方法
JP2001183120A (ja) 3次元入力方法及び3次元入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070606

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070613

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070705

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070803

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080916

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081121

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4669661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees