JP2022506736A - 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット - Google Patents

車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット Download PDF

Info

Publication number
JP2022506736A
JP2022506736A JP2021524307A JP2021524307A JP2022506736A JP 2022506736 A JP2022506736 A JP 2022506736A JP 2021524307 A JP2021524307 A JP 2021524307A JP 2021524307 A JP2021524307 A JP 2021524307A JP 2022506736 A JP2022506736 A JP 2022506736A
Authority
JP
Japan
Prior art keywords
camera
vehicle
processing unit
camera object
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021524307A
Other languages
English (en)
Other versions
JP7273956B2 (ja
Inventor
シュタイヤー・ザシャ
タンツマイスター・ゲオルク
Original Assignee
バイエリシエ・モトーレンウエルケ・アクチエンゲゼルシヤフト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイエリシエ・モトーレンウエルケ・アクチエンゲゼルシヤフト filed Critical バイエリシエ・モトーレンウエルケ・アクチエンゲゼルシヤフト
Publication of JP2022506736A publication Critical patent/JP2022506736A/ja
Application granted granted Critical
Publication of JP7273956B2 publication Critical patent/JP7273956B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】異なるタイプの周囲センサのセンサデータを信頼性をもって融合することが可能な方法及び対応する処理ユニットを提供する。【解決手段】車両のための処理ユニットは、-車両のカメラの画像データであって、基準点からの車両の周囲を示す画像データを算出するように、-画像データに基づき、車両の周囲でのカメラオブジェクト250を検出するように、-車両の距離感知式の周囲センサのセンサデータであって、車両の周囲での検出された点を示すセンサデータを算出するように、-カメラオブジェクト250を基準点に対する異なる距離へ変位させるように、-異なる距離について、センサデータの検出された点との各カメラオブジェクト250の重なり量の対応する数の値を算出するように、及び-重なり量の値の数に依存して、基準点からのカメラオブジェクト250のオブジェクト距離を算出するように設置されている。

Description

本発明は、車両が異なるタイプのセンサのセンサデータに基づいて周囲オブジェクトを検知し、及び/又は追跡することを可能とする方法及び対応する処理ユニットに関するものである。
典型的には、車両は、車両の周囲に関する異なるセンサデータを検出するように設置された複数の異なる周囲センサを含んでいる。例示的な周囲センサは、レーダセンサ、超音波センサ、ライダセンサ、画像センサあるいは画像カメラなどである。車両の1つ又は複数の周囲センサのセンサデータに基づいて、1つ又は複数の周囲オブジェクト(例えば1つ又は複数の他の車両)を車両の周囲において検出することが可能である。
典型的には、異なるタイプの周囲センサは、車両の周囲の検出に関してそれぞれ異なる利点を有している。例えば、画像カメラの画像データに基づいて、例えば、オブジェクトのタイプ(例えば車両、歩行者、自転車運転者、自動二輪車運転者など)のようなオブジェクトの属性、オブジェクトの色及び/又はオブジェクトの形状を精確に算出することが可能である。別の例示的な属性は、オブジェクトの構成要素(例えばテールランプ又はウインカ)の状態である。さらに、画像カメラの画像データに基づき、異なるオブジェクトを多くの場合比較的良好に互いに画定し、あるいはセグメント化すること(例えば互いに近傍に配置されているオブジェクト)が可能である。他方で、典型的には、車両に対するオブジェクトの距離は、画像カメラの画像データに基づいて精確には算出されることができない。レーダセンサ及び/又はライダ(light detection and ranging(光検知測距))センサのセンサデータにより、車両に対するオブジェクトの距離を精確に算出することが可能である。他方で、典型的には、レーダセンサ及び/又はライダセンサのセンサデータに基づいてオブジェクトの比較わずかな属性しか算出できない。場合によっては、ライダセンサのセンサデータによってオブジェクトのタイプを算出することが可能である。しかしながら、典型的には、オブジェクトの構成要素(例えばテールランプあるいはウインカ)の状態は、レーダセンサ及び/又はライダセンサのセンサデータに基づいて算出されることができない。
本明細書は、特に周囲オブジェクトに関する情報を精確に算出するために、複数の異なるタイプの周囲センサのセンサデータを信頼性をもって融合することが可能な方法及び対応する処理ユニットを提供するという技術的な課題に関するものである。
当該課題は、独立請求項によって解決される。有利な実施形態は、とりわけ従属請求項に記載されている。独立請求項に従属する請求項の追加的な特徴は、独立請求項の特徴なしに、又は独立請求項の特徴の一部との組合せにおいてのみでも、固有の、及び独立請求項の全ての特徴の組合せから独立した発明を形成することができ、当該発明は、独立請求項、分割出願又は後出願の対象に対して行われ得ることを指摘しておく。このことは、独立請求項の特徴のうち1つから独立した発明を形成し得る、明細書に記載された技術的な示唆についても同様に当てはまる。
一形態によれば、車両用、特に原動機付き車両用の処理ユニット(例えばマイクロプロセッサを有する制御装置)が説明される。処理ユニットは、車両の周囲での1つの又は複数の周囲オブジェクトを検出及び追跡するために用いられる。さらに、処理ユニットは、検出された1つ又は複数の周囲オブジェクトに依存して車両を少なくとも部分的に自動化して走行させるために用いられることが可能である。
車両は、車両の周囲に関する画像データを検出するように設置された1つ又は複数のカメラを含むことができる。画像データは、(対応する一連の時点についての)画像の時間的なシーケンスを含むことができる。さらに、車両は、車両の周囲に関するセンサデータを検出するように設置された(例えばレーダセンサ及び/又はライダセンサのような)1つ又は複数の距離感知式の周囲センサを含むことが可能である。ここで、所定の時点についてのセンサデータは、(それぞれ周囲センサに対する各点の距離に関する距離値を有する)複数の検出された点を示すことができる。
処理ユニットは、車両の少なくとも1つのカメラの画像データを算出するように設置されており、画像データは、基準点からの(例えばカメラからの)車両の周囲を示す。さらに、処理ユニットは、(例えば1つ又は複数の画像処理アルゴリズムを用いて)画像データに基づき車両の周囲における少なくとも1つのカメラオブジェクトを検出するように設置されている。例えば、画像データに基づき、オブジェクトの輪郭を検出することが可能である。さらに、画像データに基づき、場合によってはオブジェクトのタイプ(例えば車両、歩行者、自転車運転者など)を算出することが可能である。他方で、多くの場合、基準点に対するカメラオブジェクトの距離は、画像データに基づき、比較的不正確にしか特定されることができない。
処理ユニットは、更に、車両の少なくとも1つの距離感知式の周囲センサのセンサデータを算出するように設置されており、センサデータは、車両の周囲における複数の検出された点を示す。さらに、センサデータは、各検出された点について、特に基準点に対する相対的な点の距離を示すことができる。距離感知式の周囲センサのセンサデータ及び画像データは、時間的に同期していることが可能である(例えば同一の時点について検出されることができる)。
典型的には、カメラ及び周囲センサは、車両における異なる箇所に配置されている。この結果として、カメラの画像データ及び周囲センサのセンサデータは、それぞれ異なる座標系において提供されることが可能である。ここで、典型的には、カメラ及び周囲センサの座標系は、あらかじめ知られた変換(例えば回転及び/又は並進)を介して互いへ変換可能である。
処理ユニットは、カメラオブジェクトと、周囲センサのセンサデータとを共通の座標系において表すことが可能である(その結果、カメラオブジェクトも、センサデータも共通の基準点に関連付けられることが可能である)。このことは、特に、(あらかじめ知られた変換を用いて)周囲センサの座標系へのカメラオブジェクトの投影によって、又はカメラの座標系へのセンサデータの投影によって行うことが可能である。したがって、周囲オブジェクトの検知のための画像データ及びセンサデータの精確な処理が可能となり得る。
さらに、処理ユニットは、基準点に対する複数の異なる距離へカメラオブジェクトを変位させるように、あるいは基準点に対する複数の異なる距離へカメラオブジェクトを(相前後して)位置決めするように設置されることが可能である。ここで、基準点に対する径方向の距離を変更するため、で位置決めするために、カメラオブジェクトを特に基準点から出るビーム(線)に沿って変位させることが可能である。さらに、基準点に対する各距離に依存してカメラオブジェクトを縮尺設定(すなわち拡大又は縮小)することが可能である。特に、カメラオブジェクトが基準点へ向けて変位する場合には、カメラオブジェクトは縮小されることができる。他方で、カメラオブジェクトが基準点から離れるように変位する場合には、カメラオブジェクトは拡大されることができる。したがって、基準点に対するカメラオブジェクトの距離に関する異なる仮定を考慮に入れることが可能である。
処理ユニットは、画像データに基づいて(場合によっては画像データのみに基づいて)、基準点に対する推定される距離を算出するように設置されることが可能である。そして、カメラオブジェクトを複数の異なる距離へ変位させるために、カメラオブジェクトは、所定の距離範囲において、推定される距離だけ変位することが可能である。距離範囲は、例えば推定される距離を起点として、基準点へ向けて、及び/又は基準点から離れるように、推定される距離の20%だけ、30%だけ又はそれより大きな変位を規定することが可能である。そして、距離範囲内では、異なる距離(例えば20、30、50、100又はそれより大きな異なる(場合によっては等距離の)距離)を選択することが可能である。
さらに、処理ユニットは、複数の異なる距離について、センサデータの検出された点との(変位及び/又は縮尺設定された)各カメラオブジェクトの重なり量の対応する複数の値を算出するように設置されている。このとき、重なり量は、(それぞれ変位及び/又は縮尺設定された)各カメラオブジェクトが距離感知式の周囲センサのセンサデータの検出された点とどのくらい強く重なっているかを示すことができる。ここで、比較的強い重なりは、距離感知式の周囲センサのセンサデータの検出された点が(検出された点によって示される基準点に対する距離において)カメラオブジェクトに対応する周囲オブジェクトを示すことを示している。他方で、比較的弱い重なりは、カメラオブジェクトが位置決めされた距離においておそらく周囲オブジェクトが存在しないことを示す。
そのほか、処理ユニットは、重なり量の複数の値に依存して、基準点からのカメラオブジェクトのオブジェクト距離を算出するように設置されることが可能である。このとき、特に、複数の異なる距離から1つの距離をオブジェクト距離として選択することができ、当該オブジェクト距離については、重なり量の算出された値は、カメラオブジェクトとセンサデータの検出された点の間の特に大きな重なりを示す。特に、重なり量の最大値又は最小値に対応する距離をオブジェクト距離として選択することが可能である。そして、算出されるオブジェクト距離は、車両の周囲における周囲オブジェクトに関する情報の算出時に考慮されることが可能である。したがって、周囲オブジェクトの検出品質を効果的に向上させることが可能である。
オブジェクト距離の算出に代えて、又は加えて、カメラオブジェクトは、重なり量の複数の値に依存して、センサデータの検出された点の部分量に割り当てられることができるか、あるいは当該部分量に関連付けられることが可能である。そして、画像データに基づくオブジェクトに関する情報は、周囲オブジェクトの検知時に、距離感知式の周囲センサのセンサデータに基づき精確に考慮されることが可能である。したがって、周囲オブジェクトの検出品質を効果的に向上させることが可能である。
画像カメラの画像データと距離感知式の周囲センサのセンサデータの重ね合わせ時のカメラオブジェクトの距離の変更によって、画像カメラと距離感知式の周囲センサの間の誤ったキャリブレーション及び/又は画像データとセンサデータの間の時間的な同期時のエラーを信頼性をもって補整することが可能である。
処理ユニットは、カメラオブジェクトに対する基準点を中心とする角度範囲、特に方位角範囲及び/又は高さ角度範囲を算出するように設置されることが可能である。ここで、基準点から出る、角度範囲を限定するビームが、カメラオブジェクトの2つの異なる側で、任意にカメラオブジェクトの2つの異なる側での追加的な許容誤差バッファをもってカメラオブジェクトを(正確に)画定するように、角度範囲を算出することが可能である。したがって、カメラオブジェクトに対応し得る検出された点が探求される、車両の周囲の部分範囲を画定することが可能である。特に、1つ又は複数の角度範囲(すなわち方位角範囲及び/又は高さ角度範囲)によって規定される車両の周囲の部分範囲内(のみ)でカメラオブジェクトの変位を行うことが可能である。このとき、カメラオブジェクトが常に角度範囲あるいは角度範囲を画定するビーム内にとどまるように、カメラオブジェクトを(カメラオブジェクトの推定される距離から)変位させ、及び縮尺設定することが可能である。
したがって、カメラオブジェクトは、1つの角度範囲あるいは複数の角度範囲によって規定される車両の周囲の部分範囲内で、基準点から出るビームに沿って変位されることが可能である。そして、(変位及び/又は縮尺設定された)各カメラオブジェクトの重なり量の値を、1つの角度範囲あるいは複数の角度範囲によって規定される車両の周囲の部分範囲からのセンサデータの検出された点によって(特に当該点のみによって)算出することが可能である。したがって、オブジェクト距離の算出及び/又は距離感知式の周囲センサの検出された点へのカメラオブジェクトの割り当ての精度及び効率を向上させることが可能である。
方位角範囲は、例えば水平方向において、画像データに基づいて、及び/又はセンサデータに基づいて算出されることができる。対応して、高さ角度範囲は、垂直方向において、画像データに基づいて、及び/又はセンサデータに基づいて算出されることができる。方位角範囲及び高さ角度範囲を組み合わせて考慮することで、算出されるオブジェクト距離及び/又は距離感知式の周囲センサの検出された点へのカメラオブジェクトの割り当ての精度を更に向上させることが可能である。
カメラオブジェクトは、カメラオブジェクトが配置された、車両の周囲での複数のカメラ点を示すことができる。カメラ点は、例えば度数多角形によって(特に直方体によって)記述されることが可能である。そして、カメラオブジェクトの変位は、多数のカメラ点のうち少なくともいくつかの(特に基準点から出るビームに沿った)変位を含み得る。さらに、(カメラオブジェクトを拡大又は縮小するために)変位の範囲では、点を補足又は除去することが可能である。カメラオブジェクトの記述のための個々のカメラ点を考察することによって、カメラオブジェクトとセンサデータの検出された点の部分量との間の重なりの検出の精度を向上させることが可能である。
特に、カメラオブジェクトの記述のための個々のカメラ点の考慮時の重なり量の値の算出は、センサデータの検出された点と一致するカメラオブジェクトの多数のカメラ点の一部の算出を含むことができる。これに代えて、又はこれに加えて、重なり量の値の算出は、センサデータの検出される点に対するカメラオブジェクトの多数のカメラ点の距離(例えば平均距離)の算出を含むことができる。これに代えて、又はこれに加えて、重なり量の値の算出は、センサデータの検出される点とのカメラオブジェクトの多数のカメラ点の重なりの度合いの算出を含むことができる。したがって、カメラ点とセンサデータの検出された点との間の重なりを精確に算出することが可能である。
処理ユニットは、算出されたオブジェクト距離に依存して、複数の検出された点の部分量にカメラオブジェクトを割り当てるように設置されることが可能である。さらに、処理ユニットは、割り当てられたカメラオブジェクトを考慮して、センサデータに基づき車両の周囲の占有グリッド(英語では「Occupancy Grid」)を算出するように設置されることが可能である。ここで、占有グリッドは、車両の周囲の多数のセルについて、各セルが空いている(ひいては、場合によっては車両に対して走行可能である)かどうか、及び各セルがオブジェクトによって占められている(ひいては、車両との衝突に至り得る)かどうかについての各確率を示すことができる。占有グリッドの提供により、(連続した一連の時点において)周囲オブジェクトを精確に検出し、追跡することが可能である。したがって、少なくとも部分的に自動化された車両の走行を更に改善することが可能である。
したがって、処理ユニットは、センサデータに基づいて車両の周囲の占有グリッドを算出するように設置されることが可能である。さらに、処理ユニットは、基準点に対して算出されたオブジェクト距離でのカメラオブジェクトを考慮して、占有グリッドに基づき、カメラオブジェクトに対応する車両の周囲における周囲オブジェクトを検出するように設置されることが可能である。そして、画像データに基づき、周囲オブジェクトの1つ又は複数の属性、特に多数の異なるオブジェクトタイプのうち1つのオブジェクトタイプを信頼性をもって算出することが可能である。したがって、本明細書で説明する、画像データと距離感知式の周囲センサのセンサデータとの間の融合により、周囲オブジェクトについての広範な情報の信頼性のある算出が可能となる。
処理ユニットは、重なり量の多数の値に基づき、カメラオブジェクトが複数の検出された点の部分量に割り当てられることが可能か否かを特定するように設置されることが可能である。この目的のために、重なり量の値を重なり閾値と比較することができ、重なり閾値は、距離感知式の周囲センサのセンサデータにおいて認識可能なオブジェクトにカメラオブジェクトが対応すると考えることができるように、最大限あるいは最小限に存在する必要がある重なり量の最小値あるいは最大値を示す。重なり閾値は、あらかじめ(例えば実験的に)算出されることが可能である。これに代えて、又はこれに加えて、重なり閾値を機械学習によって自動化して算出する、すなわち学習することが可能である。
さらに、評価ユニットは、カメラオブジェクトが多数の検出された点の部分量に割り当てられることができない場合に、車両の周囲の占有グリッドの算出時にカメラオブジェクトを考慮しないように設置されている。他方で、評価ユニットは、カメラオブジェクトが多数の検出された点の部分量に割り当てられることができる場合に(特に当該場合にのみ)、算出されたオブジェクト距離に応じてセンサデータに基づき、車両の周囲の占有グリッドの算出時にカメラオブジェクトを考慮するように設置されることができる。したがって、オブジェクト検知の堅牢性及び信頼性を更に向上させることが可能である。
センサデータの複数の検出された点は、少なくとも1つの、あり得る非障害物点、特にあり得る路床点を含み得る。特に、距離感知式の周囲センサの検出された点は障害物点として分類されることができ、当該障害物点は、障害物を表す、車両の周囲に配置された周囲オブジェクトに(おそらく)属している。他方で、距離感知式の周囲センサの検出された点は非障害物点として分類されることができ、当該非障害物点は、周囲オブジェクトには(おそらく)属しておらず、ノイズ、路床又は(例えばトンネル又は橋梁のような)下方走行可能なオブジェクトと推定され得る。
あり得る非障害物点、特に路床点は、例えば、距離感知式の周囲センサのセンサデータにおける高さ情報に基づいて検出されることが可能である。あり得る非障害物点が車両の周囲における周囲オブジェクトにおそらく対応しないにもかかわらず、重なり量の値は、場合によってはあり得る非障害物点を考慮してなお算出されることが可能である。したがって、(あり得る非障害物点が初めから推定されないため、)周囲オブジェクトの検知品質を更に向上させることが可能である。
他方で、カメラオブジェクトが非障害物点に割り当てられなかった場合には、あり得る非障害物点は、占有グリッドの算出時に考慮されないままであってよい。さらに、カメラオブジェクトが非障害物点に割り当てられた場合には(特に当該場合にのみ)、あり得る非障害物点は、占有グリッドの算出時に考慮されることができる。したがって、周囲オブジェクトの検知の信頼性を更に向上させることが可能である。
上述のように、処理ユニットは、算出されたオブジェクト距離に依存して、及び/又は算出されたオブジェクト距離に依存する車両の周囲の占有グリッドに依存して、車両の少なくとも1つの車両機能、特に車両の少なくとも部分的に自動化された走行を実行するように設置されることが可能である。したがって、信頼性のある車両機能を効率的に提供することが可能である。
別の一態様によれば、車両の周囲でのオブジェクトに関する情報を算出する方法が記載される。方法は、車両のカメラの画像データの算出を含んでおり、画像データは、基準点からの車両の周囲を示す。そのほか、方法は、画像データに基づく、車両の周囲での少なくとも1つのカメラオブジェクトの検出を含んでいる。また、方法は、車両の距離感知式の周囲センサのセンサデータの検出を含んでいる。さらに、方法は、基準点に対する相対的に多数の異なる距離へのカメラオブジェクトの変位と、多数の異なる距離についてのセンサデータとの各カメラオブジェクトの重なり量の多数の値の算出とを含んでいる。そして、重なり量の複数の値に依存して、基準点からのカメラオブジェクトのオブジェクト距離を算出することが可能である。
別の一態様によれば、本明細書で記載される処理ユニットを含む(道路車両)原動機付き車両(特に自家用車又は貨物自動車又はバス)が記載される。
別の一態様によれば、ソフトウェア(SW)プログラムが記載される。ソフトウェアプログラムは、プロセッサにおいて(例えば車両の制御装置において)実行されるように、及びこれにより本明細書で記載される方法を実行するように設置されることが可能である。
別の一態様によれば、記憶媒体が記載される。記憶媒体は、プロセッサにおいて実行されるように、及びこれにより本明細書で記載される方法を実行するように設置されるソフトウェアプログラムを含むことが可能である。
本明細書に記載される方法、装置及びシステムは、単独でも、また本明細書に記載される他の方法、装置及びシステムとの組合せにおいても用いられることができることに留意すべきである。さらに、本明細書に記載される方法、装置及びシステムの各態様は、様々に互いに組み合わせられることが可能である。特に、請求項の特徴を様々に組み合わせることが可能である。
以下に、実施例に基づいて本発明を詳細に説明する。
複数の異なる周囲センサを有する例示的な車両を示す図である。 車両の周囲の例示的なグリッドを示す図である。 ライダを基礎とする占有グリッドを有するカメラオブジェクトの例示的な重なりを示す図である。 周囲オブジェクトに関する情報を算出する例示的な方法のフローチャートである。 距離感知式の周囲センサのセンサデータとのカメラオブジェクトの例示的な重なりを示す図である。
冒頭で述べたように、本明細書は、複数の周囲センサのセンサデータに基づいて少なくとも1つの周囲オブジェクトの検知及び追跡に関するものである。この関係において、図1には、センサデータを検出する1つ又は複数の周囲センサ111,112を有する車両100が示されている。車両100は、センサデータに基づいて車両100の周囲におけるオブジェクト150を検知するように設置された処理ユニット101を更に含んでいる。そして、検知された物体150は、(例えば車両100の部分自動化された、又は高度に自動化された走行のための)車両機能102において用いられることが可能である。
本明細書は、特に、車両100の周囲の整合的で多感覚的なモデル化に関するものである。ここで、局所的な周囲は、占有グリッドマップ(Occupancy Grid Map)あるいはグリッド200として推定あるいは図示されることが可能である(図2参照)。図2には、車両100の周囲の例示的なグリッド200が多数のグリッドセル又は略してセル201で示されている。グリッド200は、車両100の環境あるいは周囲を多数の二次元(2D)又は三次元(3D)のセル201へ分割することができる。ここで、二次元のセル201は、(例えば10cm、5cm、2cm、1cm又はそれより小さなエッジ長さを有する)長方形を有することができる。
車両100の処理ユニット101は、1つ又は複数のセル201(特に各セル201)についてのセンサデータに基づいて測定データを算出するように設置されることができ、測定データは、セル201が所定の時点tにおいて占められている(覆われている)か否かを示す。特に、測定データzcはセルc201について示すことが可能である。
=(m(SDz,t),m(Fz,t)),
で示されることができ、ここで、m({SD})は、セルc201がオブジェクト150(例えば静的なオブジェクト又は動的なオブジェクト)によって占められていることについての証拠(臨界値、棄却限界値)あるいは証拠量(臨界量、棄却限界量)であり、m(F)は、セルc201が空いており、したがってオブジェクト150によって占められていないことについての証拠である。セル201がオブジェクト150によって占められていることについての臨界値は、(特にデンプスター・シェーファー理論の意味合いで)セル201がオブジェクト150によって占められていることについてのオブジェクト確率とみなされることができる。
典型的には、所定の時点tでの時間的に隔離された測定に基づいて証拠あるいは証拠量m(SD)、m(f)のみを算出することができる。なぜなら、オブジェクトが静的なオブジェクト150によって占められているか、又は動的なオブジェクト150によって占められているか特定することができないためである。しかしながら、対応する一連の時点での(センサ111,112による)一連の測定後に、現在の時点tにおける占有グリッドMt200を提供することが可能であると仮定することができ、占有グリッドは、異なるセル201に対して、異なる仮定についての異なる証拠を示す。
={m(S),m(D),m(SD),m(F),m(FD)},
ここで、m(FDt)は、過去に占められていないセル201が時点tにおいて動的なオブジェクト150によって占められ得るという仮定についての証拠を示す。さらに、m(St)は、時点tにおいてセルc201が静的なオブジェクト150によって占められていることについての証拠あるいは証拠量を示す。そのほか、m(Dt)は、時点tにおいてセルc201が動的なオブジェクト150によって占められていることについての証拠あるいは証拠量を示す。占有グリッドMt200は、所定の時点tでのグリッド200のセル201の状況あるいは状態を記述する。
占有グリッド200は、例えば、1つ又は複数の周囲センサ111のセンサデータに基づいて算出されることができ、センサデータは、各周囲センサ111に対するオブジェクト150の距離に関して比較的高い精度を有している。したがって、各周囲センサ111に対する占有グリッド200の占められたセル201の距離は、検出されるべきオブジェクトについての基準距離とみなされることが可能である。距離の比較的精確な算出を伴う例示的な周囲センサ111は、ライダセンサ及び/又はレーダセンサである。
さらに、少なくとも1つの画像カメラ112のセンサデータは、周囲オブジェクトを検知するために用いられることができる。本明細書では、画像カメラ112のセンサデータは、画像データとも呼ばれる。処理ユニット101は、画像データに基づいて1つ又は複数のオブジェクト250を検知するように設置されている。このとき、本明細書では、画像データに基づいて検出されるオブジェクト250はカメラオブジェクトと呼ばれる。
したがって、距離感知(計測)式の周囲センサ111のセンサデータに基づいて第1の占有グリッド200を算出することができ、画像データに基づいて第2の占有グリッド200を算出することができ、これら第1及び第2の占有グリッドは、共通の、あるいは融合した占有グリッド200を算出するために重ね合わされることが可能である。カメラオブジェクト250の距離は画像データに基づいて比較的不正確にしか特定され得ないという事実により、両占有グリッド200の重ね合わせによって、オブジェクトが(異なる距離をもって)二重に検知されるか、又は場合によっては全く検知されないこととなり得る。したがって、異なるタイプの周囲センサ111,112のセンサデータに基づく占有グリッド200の重ね合わせは、周囲オブジェクトの比較的わずかな検知品質につながり得る。
当該問題は、データ融合のためにあらかじめ、距離感知式の周囲センサ111のセンサデータに基づき(例えばライダセンサデータ又はレーダセンサデータに基づき)算出される占有グリッド200のセル201への1つ又は複数の検知されるカメラオブジェクト250の割り当てが行われることで回避されることが可能である。図3には、距離感知式の周囲センサ111のセンサデータに基づいて算出される占有グリッド200へ転換あるいは変換された、例示的なカメラオブジェクト250が示されている。典型的には、画像データを検出するカメラ112及びセンサデータを検出する周囲センサ111は、車両100における異なる位置に配置されている。カメラ112及び周囲センサ111の異なる位置は既知であるため、あらかじめ(例えば6自由度、すなわち並進についての3自由度及び回転についての3自由度)変換を算出することができ、当該変換により、検知されるカメラオブジェクト250をカメラ112の座標系から距離感知式の周囲センサ111の座標系へ変換することが可能となる。
検知されるカメラオブジェクト250は、(所定の基準点305に対して相対的に)所定の方位角範囲301にわたって延在している。基準点305は、例えば、占有グリッド200を基礎とする座標系におけるセンサ111,112(例えばカメラ112及び/又は距離感知式の周囲センサ111)の位置に対応し得る。このとき、角度範囲301は、カメラオブジェクト250が位置するカメラ112の検出範囲の角度部分に対応し得る。場合によっては、角度範囲301は、カメラオブジェクト250の両側での所定の許容誤差バッファ303だけ拡張されることが可能である。
基準点305に対するカメラオブジェクト250の距離は、算出される角度範囲301内で変更されることができる(双方向矢印で示されている)。ここで、カメラオブジェクト250は、当該カメラオブジェクト250が(場合によっては両側の許容誤差バッファ303を考慮して)各距離において角度範囲301全体にわたって延在するように縮尺設定されることが可能である。
占有グリッド200のセルあるいは点201との(縮尺設定された)カメラオブジェクト250の重なりについての重なり量(重なり度合い)の値を各距離について算出することが可能である。(縮尺設定及び変位(パン)された)カメラオブジェクト250は、例えば占有グリッド200の各セル201について、セル201がカメラオブジェクト250の一部であることについての証拠量を示すことが可能である。さらに、占有グリッド200は、各セル201について、セル201が占められていることについての上記証拠量を示す。重なり量の値を算出するために、
-角度範囲201によって覆われるセル201について、セル201が(縮尺設定及び変位された)カメラオブジェクト250の一部であることについての証拠量とセル201が占められていることについての証拠量との積を算出することができ、
-積の平均絶対和又は平均二乗和を算出することができる。
したがって、カメラオブジェクト250の多数の異なる距離について、重なり量のそれぞれ1つの値を算出することが可能である。さらに、重なり量の値に基づいてカメラオブジェクト250のオブジェクト距離を算出することができ、当該オブジェクト距離では、(縮尺設定及び変位された)カメラオブジェクト250と占有グリッド200の間の特に良好な、特に最適な重なりが存在する。そして、当該縮尺設定及び変位されたカメラオブジェクト250は、占有グリッド200のセル201と融合されることができるとともに、周囲オブジェクトの検知時には考慮されることが可能である。したがって、周囲オブジェクトの検知品質を向上させることが可能である。
これに代えて、又はこれに補足して、(異なるセンサ111,112からのセンサデータに基づく第1のステップにおいてそれぞれ個別のグリッド200を導出し、その後、これをセルに基づき融合することに代えて)検出された1つ又は複数のカメラオブジェクト250を距離感知式の周囲センサ111(例えばレーザスキャナ)のセンサデータと直接融合することが可能である。そして、これにつづき、まず、場合によってはスキャングリッド200をあらかじめ融合された情報に基づいて導出することが可能である。
カメラオブジェクト250と距離感知式の周囲センサ100のセンサデータの間の融合あるいは関連付けは以下のように行われることが可能である:
-カメラオブジェクト250が、典型的には、カメラオブジェクト250の検出のための画像データを検出したカメラ112の座標系に対して相対的に記述される。そして、距離感知式の周囲センサ111(例えばライダセンサ)のセンサデータは、変換(並進及び/又は回転)によってカメラ112の3D座標系へ投影あるいは変換されることが可能である。これに代えて、上述のように、距離感知式の周囲センサ111の座標系へのカメラオブジェクト250の変換を行うことが可能である。
-そして、(場合によってはそれぞれカメラオブジェクト250の左右の加えられた許容誤差デルタあるいは許容誤差バッファ303を有する)カメラオブジェクト250によって描かれる方位角範囲301を算出することができる。
-さらに、方位角範囲301内にある距離感知式の周囲センサ111のセンサデータを抽出することが可能である。
-カメラオブジェクト250を、様々な距離値に設定することができるとともに、相応して縮尺設定することが可能である。各距離値について、品質関数の値(すなわち重なり量の値)を演算することができ、品質関数は、(縮尺設定及び変位された)カメラオブジェクト250がどのくらい良好に距離感知式の周囲センサ111のセンサデータに適合するかを示す。
-そして、カメラオブジェクト250は、距離感知式の周囲センサ111のセンサデータに基づいて検知される占められたセル201と関連付けられることができ、当該セルについて比較的良好なフィット(すなわち品質関数の比較的良好な値)が得られる。
1つ又は複数のカメラオブジェクト250が距離感知式の周囲センサ111のセンサデータに基づき算出された占有グリッド200の点あるいはセル201と関連付けられると、距離感知式の周囲センサ111の情報も、またカメラ112の情報も含む融合された占有グリッド200を導出することが可能である。
図5に図示されているように、距離感知式の周囲センサ111のセンサデータ500は、検出された多数の点501,504を示すことが可能である。このとき、点501,504は、周囲センサ111から出力されるセンサ信号(例えばレーザ信号又はレーダ信号)の反射がなされた周囲センサの検出範囲における箇所であり得る。したがって、周囲センサ111によって検出された点501,504には、オブジェクトが配置され得る。さらに、距離感知式の周囲センサ111のセンサデータは、高い確率で空いている範囲502を示す(なぜなら、センサ原点と第1の障害物検出部の間のこの範囲にオブジェクトが配置されていないため)。
そのほか、図5には例示的なカメラオブジェクト250が示されており、当該カメラオブジェクトは、各角度範囲301内で基準点305に対して相対的に距離を変更することで、及びセンサデータ500の検出された点で相応の縮尺設定をすることで関連付けられることができる。そして、1つ又は複数のカメラオブジェクト250との、距離感知式の周囲センサ111のセンサデータ500の検出された点501,504の関連付けに基づき、周囲オブジェクト550を検出することが可能である。このとき、距離感知式の周囲センサ111のセンサデータ500に基づいて、1つ又は複数の周囲オブジェクト550の空間的な位置を精確に算出することが可能である。さらに、画像データに基づき、周囲オブジェクト550の精確な分類(例えば異なるオブジェクトタイプ、例えば車両、歩行者、自転車運転者など)を行うことが可能である。そのほか、画像データに基づき、周囲オブジェクト550の(例えば色、形状などのような)別の属性を精確に算出することが可能である。そのほか、画像データに基づき、1つ又は複数の周囲オブジェクト550についての距離感知式の周囲センサ111のセンサデータ500の検出された点501,504の信頼性のあるクラスタ化を行うことが可能である。
図5に図示された融合されたセンサデータに基づき、融合された占有グリッド200を精確に算出することができ、当該占有グリッドは、個々のセル201の占有確率に加えて、1つ又は複数の異なる周囲オブジェクト550へのオブジェクト帰属性も示す。
距離感知式の周囲センサ111に基づいて検出された点501,504は、オブジェクト550における反射によって、又は路床における反射によって引き起こされ得る。したがって、検出された点501,504は、いかなるオブジェクト550にも割り当てられないあり得る路床点であり得る。オブジェクト点501と可能な路床点504の間の差異は、例えば、反射がなされる高さに基づいて算出されることが可能である。反射が路床から比較的低い高さにおいてのみなされる場合には、場合によっては、検出された点501,504はあり得る路床点504であると推定され得る。
基本的には、距離感知式の周囲センサ111の検出された点501,504は、異なるクラス、例えば雨、ノイズ、路床、(例えばトンネル又は橋梁のような)下方走行可能箇所などに分類されることができる。一方、当該クラスは、比較的粗く「障害物」及び「障害物でない」というクラスにまとめられることが可能である。本明細書で説明する、クラス「障害物でない」に基づく点の再確認は、(路床点504についてのみならず)クラス「障害物でない」の全ての点について行われることが可能である。それゆえ、路床点は、一般に非障害物点とみなされることができる。
オブジェクト点501及び路床点504への高さに基づく分類は、典型的にはエラーの影響を受ける。本明細書で説明する、距離感知式の周囲センサ111のセンサデータ500に基づく、検出された点501,504とのカメラオブジェクト250の関連付けにより、第1に、全ての検出された点501,504、特にあり得る路床点504として識別された点も、データ融合時に考慮されることが可能である。あり得る路床点504がカメラオブジェクト250と関連付けられると、これに基づき、点が路床点ではなくオブジェクト点であると推定されることが可能である。他方で、あり得る路床点がカメラオブジェクト250と関連付けられない場合には、あり得る路床点504が高い確率で路床に割り当てられ得る。したがって、周囲オブジェクト550の検知の品質を更に向上させることが可能である。
図4には、車両100の周囲での周囲オブジェクトに関する情報を算出する例示的な方法400のフローチャートが示されている。特に、方法400は、異なるセンサ111,112のセンサデータを融合し、オブジェクトの検出品質を向上させ、及び/又は検出されるオブジェクトについての拡張された情報を算出することに貢献することができる。さらに、方法400は、オブジェクトについての算出された情報に基づいて車両100を少なくとも部分的に自動化して走行させるために用いられることが可能である。方法400は、車両100の処理ユニット101によって実行されることができる。
方法400は、車両100のカメラ112(特に単眼カメラ(モノカメラ))の画像データの検出401を含んでいる。ここで、画像データは、基準点305からの車両100の周囲を示すことができる。基準点305は、例えばカメラ112のセンサ面に相当する。
そのほか、方法400は、画像データに基づく、車両100の周囲での少なくとも1つのカメラオブジェクト250の検出402を含んでいる。この目的のために、1つ又は複数の画像解析アルゴリズムを用いることができ、当該画像解析アルゴリズムは、例えば、画像データに基づき(例えば画像フレームの画像画素に基づき)、少なくとも1つのオブジェクトの輪郭を認識するように設置されており、本明細書では、画像データに基づき検出されるオブジェクトは、カメラオブジェクト250と呼ばれる。
画像データにより、周囲オブジェクト550の輪郭及び/又は形状を精確に算出することが可能である。さらに、典型的には、分類アルゴリズムに基づいて周囲オブジェクト550のオブジェクトタイプを画像データに基づき精確に算出することが可能である。他方で、基準点305に対する周囲オブジェクト550の距離は、多くの場合、画像データに基づいて比較的わずかな精度でしか算出することができない。
方法400は、車両100の距離感知式の周囲センサ111のセンサデータ500の算出403を更に含んでいる。ここで、距離感知式の周囲センサ111のセンサデータ500の算出403を、画像データの算出401及び少なくとも1つのカメラオブジェクト250の検出402と並行して行うことが可能である。特に、センサデータ500及び画像データは、同一の(走査)時点に関するものであり得る。
距離感知式の周囲センサ111は、測定点に対する距離を精確に算出することが可能なセンサであり得る。例示的な距離感知式の周囲センサ111は、レーダセンサ又はライダセンサである。距離感知式の周囲センサ111のセンサデータ500は、車両100の周囲での多数の検出された点501,504を示すことができる。このとき、検出された点501,504は、周囲センサ111から発出されるセンサ信号を反射する反射点であり得る。
さらに、方法400は、基準点305に対して相対的な多数の異なる距離へのカメラオブジェクト250の変位(パン)404を含んでいる。ここで、カメラオブジェクト250を基準点305に対して異なる(径方向の)距離で位置決めするために、カメラオブジェクト250は、基準点305から出るビームに沿って変位することが可能である。カメラオブジェクト250の変位404の範囲では、カメラオブジェクト250の縮尺設定も行われることが可能である。このとき、カメラオブジェクト250は、カメラオブジェクト250が基準点305へ近づくように変位する場合には縮小され、及び/又はカメラオブジェクト250が基準点305から離れるように変位する場合には拡大される。
そのほか、方法400は、多数の異なる距離についてのセンサデータ500の検出された点501,504との(変位された、及び/又は縮尺設定された)各カメラオブジェクト250の重なりについての重なり量の多数の値の算出405を含んでいる。
また、方法400は、重なり量の多数の値に依存した、基準点305からのカメラオブジェクト250のオブジェクト距離の算出406を含んでいる。このとき、オブジェクト距離は、重なり量が、センサデータ500の検出された点501,504とのカメラオブジェクト250の比較的最適な重なりを示す距離として、複数の異なる距離から選択されることが可能である。特に、オブジェクト距離は、重なり量が最大あるいは最小である距離として、多数の異なる距離から選択されることができる。
さらに、カメラオブジェクト250は、(算出されるオブジェクト距離に基づき)多数の検出された点501,504の部分量に割り当てられることが可能である。そして、当該割り当ては、占有グリッド200の算出時に考慮されることが可能である。このとき、占有グリッド200は、多数のセル201について、それぞれ、周囲オブジェクト550による各セル201の占有確率を示すことが可能である。占有グリッド200は、1つ又は複数の周囲オブジェクト550を信頼性をもって検出し、及び/又は追跡するために用いられることが可能である。そして、車両100は、1つ又は複数の周囲オブジェクト550に依存して、少なくとも部分的に自動化されてガイドされることが可能である。したがって、少なくとも部分的に自動化されて走行する車両100の信頼性及び安全性を向上させることができる。
方法400は、規則的に、特に周期的に(例えば10Hz、20Hz、25Hz又はそれを上回る周波数で)繰り返され得る。このとき、各時点では、それぞれ現在の画像データ及び/又はセンサデータ500を算出及び考慮することができる。方法400の繰り返しにより、車両100の走行中に信頼性をもって周囲オブジェクト500を検出及び追跡することが可能である。
本発明は、示された実施例に限定されているものではない。特に、明細書及び図面は、提案される方法、装置及びシステムの原理のみを説明するものとなっていることに留意すべきである。

Claims (16)

  1. 車両(100)のための処理ユニット(101)であって、処理ユニットは、
    -車両(100)のカメラ(112)の画像データであって、基準点(305)からの車両(100)の周囲を示す前記画像データを算出するように、
    -画像データに基づいて、車両(100)の周囲での少なくとも1つのカメラオブジェクト(250)を検出するように、
    -車両(100)の距離感知式の周囲センサ(111)のセンサデータ(500)であって、車両(100)の周囲での複数の検出された点(501,504)を示す前記センサデータ(500)を算出するように、
    -カメラオブジェクト(250)を基準点(305)に対する複数の異なる距離へ変位させるように、
    -複数の異なる距離について、センサデータ(500)の検出された点(501,504)との各カメラオブジェクト(250)の重なり量の対応する数の値を算出するように、及び
    -重なり量の値の数に依存して、基準点(305)からのカメラオブジェクト(250)のオブジェクト距離を算出するように
    設置されていることを特徴とする処理ユニット。
  2. 処理ユニット(101)が、
    -カメラオブジェクト(250)についての基準点(305)を中心とする角度範囲(301)、特に方位角範囲及び/又は高さ角度範囲を算出するように、
    -角度範囲(301)によって規定される、車両(100)の周囲の部分範囲内で、基準点(305)から出るビーム線に沿ってカメラオブジェクト(250)を変位させるように、及び
    -車両(100)の周囲の部分範囲に基づくセンサデータ(500)の検出された点(501,504)との、特にセンサデータ(500)の検出された点(501,504)のみとの各カメラオブジェクト(250)の重なり量の値を算出するように
    設置されていることを特徴とする請求項1に記載の処理ユニット(101)。
  3. 基準点(305)から出る、角度範囲(301)を限定するビームが、カメラオブジェクト(250)の2つの異なる側で、任意にカメラオブジェクト(250)の2つの異なる側での追加的な許容誤差バッファ(303)をもってカメラオブジェクト(250)を画定するように、角度範囲(301)が算出されることを特徴とする請求項2に記載の処理ユニット(101)。
  4. 処理ユニット(101)が、
    -カメラオブジェクト(250)についての基準点(305)を中心とする方位角範囲(301)及び高さ角度範囲を算出するように、
    -方位角範囲(301)及び高さ角度範囲によって規定される、車両(100)の周囲の部分範囲内で、基準点(305)から出るビームに沿ってカメラオブジェクト(250)を変位させるように、及び
    -車両(100)の周囲の部分範囲に基づくセンサデータ(500)の検出された点(501,504)との、特にセンサデータ(500)の検出された点(501,504)のみとの各カメラオブジェクト(250)の重なり量の値を算出するように
    設置されていることを特徴とする請求項2又は3に記載の処理ユニット(101)。
  5. 処理ユニット(101)が、基準点(305)に対する距離に依存してカメラオブジェクト(250)を縮尺設定するように設置されていることを特徴とする請求項1~4のいずれか1項に記載の処理ユニット(101)。
  6. 処理ユニット(101)が、
    -画像データに基づき、基準点(305)に対するカメラオブジェクト(250)の推定される距離を算出するように、及び
    -カメラオブジェクト(250)を複数の異なる距離へ変位させるために、推定される距離の周囲での距離範囲において、特に基準点(305)から出るビームに沿ってカメラオブジェクト(250)を変位させるように
    設置されていることを特徴とする請求項1~5のいずれか1項に記載の処理ユニット(101)。
  7. -カメラ(112)及び周囲センサ(111)が、車両(100)における異なる箇所に配置されており、
    -処理ユニット(101)が、カメラオブジェクト(250)と、周囲センサ(111)のセンサデータ(500)とを、特に
    -周囲センサ(111)の座標系へのカメラオブジェクト(250)の投影によって、又は
    -カメラ(112)の座標系へのセンサデータ(500)の投影によって、
    共通の座標系において表すように設置されている
    ことを特徴とする請求項1~6のいずれか1項に記載の処理ユニット(101)。
  8. -カメラオブジェクト(250)が、車両(100)の周囲での、カメラオブジェクト(250)が配置された複数のカメラ点を示し、及び
    -カメラオブジェクト(250)の変位が、複数のカメラ点のうち少なくともいくつかの変位、特に基準点(305)から出るビームに沿った変位を含んでいる
    ことを特徴とする請求項1~7のいずれか1項に記載の処理ユニット(101)。
  9. 重ね合わせ量の値の算出が、
    -センサデータ(500)の検出された点(501,504)と一致するカメラオブジェクト(250)の複数のカメラ点の一部を算出すること、及び/又は
    -センサデータ(500)の検出された点(501,504)に対するカメラオブジェクト(250)の複数のカメラ点の距離を算出すること、及び/又は
    -センサデータ(500)の検出された点(501,504)とのカメラオブジェクト(250)の複数のカメラ点の重なりの度合いを算出すること
    を含んでいることを特徴とする請求項8に記載の処理ユニット(101)。
  10. -複数の検出された点(501,504)が、車両(100)の周囲にはおそらく配置されていない周囲オブジェクト(550)を示す、あり得る少なくとも1つの非障害物点(504)を含んでおり、及び
    -あり得る非障害物点(504)を考慮して重なり量の値が算出されること
    を特徴とする請求項1~9のいずれか1項に記載の処理ユニット(101)。
  11. 処理ユニット(101)が、
    -算出されたオブジェクト距離に依存して、カメラオブジェクト(250)を複数の検出された点(501,504)の部分量に割り当てるように、及び
    -センサデータ(500)に基づき、割り当てられたカメラオブジェクト(250)を考慮して、車両(100)の周囲の占有グリッド(200)を算出するように
    設置されており、占有グリッド(200)は、車両(100)の周囲の複数のセル(201)について、各セル(201)が空いているかどうか、又は各セル(201)が物体(550)によって占められているかどうかについての確率を示すことを特徴とする請求項1~10のいずれか1項に記載の処理ユニット(101)。
  12. -非障害物点(504)にカメラオブジェクト(250)が割り当てられなかった場合には、あり得る非障害物点(504)が、占有グリッド(200)の算出時に考慮されないままであり、及び/又は
    -特に非障害物点(504)にカメラオブジェクト(250)が割り当てられた場合にのみ、あり得る非障害物点(504)が、占有グリッド(200)の算出時に考慮される
    ことを特徴とする請求項10を引用する請求項11に記載の処理ユニット(101)。
  13. 処理ユニット(101)が、
    -重なり量の複数の値に基づき、カメラオブジェクト(250)を複数の検出された点(501,504)の部分量に割り当てることができるか否かを特定するように、及び
    -カメラオブジェクト(250)を複数の検出された点(501,504)の部分量に割り当てることができないことが特定された場合に、センサデータ(500)に基づく車両(100)の周囲の占有グリッド(200)の算出時に、カメラオブジェクト(250)を考慮しないように、及び/又は
    -特にカメラオブジェクト(250)を複数の検出された点(501,504)の部分量に割り当てることができることが特定された場合にのみ、センサデータ(500)に基づく車両(100)の周囲の占有グリッド(200)の算出時に、算出されたオブジェクト間隔に応じててカメラオブジェクト(250)を考慮するように
    設置されていることを特徴とする請求項1~12のいずれか1項に記載の処理ユニット(101)。
  14. 処理ユニット(101)が、
    -センサデータ(500)に基づき車両(100)の周囲の占有グリッド(200)を算出するように、
    -占有グリッド(200)に基づき、基準点(305)に対する算出されたオブジェクト距離でのカメラオブジェクト(250)を考慮して、車両(100)の周囲での、カメラオブジェクト(250)に対応する周囲オブジェクト(550)を検出するように、及び
    -画像データに基づき、周囲オブジェクト(550)の1つ又は複数の属性、特に複数の異なるオブジェクトタイプのうち1つのオブジェクトタイプを算出するように
    設置されていることを特徴とする請求項1~13のいずれか1項に記載の処理ユニット(101)。
  15. 処理ユニット(101)が、算出されたオブジェクト距離に依存して、及び/又は算出されたオブジェクト距離に依存する車両(100)の周囲の占有グリッド(200)に依存して、車両(100)の少なくとも1つの車両機能、特に車両(100)の少なくとも部分的に自動化された走行を実行するように設置されていることを特徴とする請求項1~14のいずれか1項に記載の処理ユニット(101)。
  16. 車両(100)の周囲でのオブジェクトに関する情報を算出する方法(400)であって、方法(400)は、
    -車両(100)のカメラ(112)の画像データであって、基準点(305)からの車両(100)の周囲を示す画像データを算出すること(401)、
    -画像データに基づいて、車両(100)の周囲での少なくとも1つのカメラオブジェクト(250)を検出すること(402)、
    -車両(100)の距離感知式の周囲センサ(111)のセンサデータ(500)であって、車両(100)の周囲での複数の検出された点(501,504)を示すセンサデータ(500)を算出すること(403)、
    -カメラオブジェクト(250)を基準点(305)に対して相対的に複数の異なる距離へ変位させること(404)、
    -複数の異なる距離について、センサデータ(500)の検出された点(501,504)との各カメラオブジェクト(250)の重なり量の複数の値を算出すること(405)、及び
    -重なり量の値の複数の値に依存して、基準点(305)からのカメラオブジェクト(250)のオブジェクト距離を算出すること(406)
    を含むことを特徴とする方法。
JP2021524307A 2018-11-08 2019-07-12 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット Active JP7273956B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018127990.6 2018-11-08
DE102018127990.6A DE102018127990A1 (de) 2018-11-08 2018-11-08 Verfahren und Verarbeitungseinheit zur Ermittlung von Information in Bezug auf ein Objekt in einem Umfeld eines Fahrzeugs
PCT/DE2019/100650 WO2020094170A1 (de) 2018-11-08 2019-07-12 Verfahren und verarbeitungseinheit zur ermittlung von information in bezug auf ein objekt in einem umfeld eines fahrzeugs

Publications (2)

Publication Number Publication Date
JP2022506736A true JP2022506736A (ja) 2022-01-17
JP7273956B2 JP7273956B2 (ja) 2023-05-15

Family

ID=67514265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021524307A Active JP7273956B2 (ja) 2018-11-08 2019-07-12 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット

Country Status (7)

Country Link
US (1) US20210394761A1 (ja)
EP (1) EP3877776A1 (ja)
JP (1) JP7273956B2 (ja)
KR (1) KR102536037B1 (ja)
CN (1) CN112997093B (ja)
DE (1) DE102018127990A1 (ja)
WO (1) WO2020094170A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019120440A1 (de) * 2019-07-29 2021-02-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum automatisierten Erstellen von Objektmarkierungen für die Verwendung in einem Fahrassistenzsystem eines Fahrzeugs
EP3882813A1 (en) 2020-03-20 2021-09-22 Aptiv Technologies Limited Method for generating a dynamic occupancy grid
EP3905105A1 (en) * 2020-04-27 2021-11-03 Aptiv Technologies Limited Method for determining a collision free space
EP3905106A1 (en) 2020-04-27 2021-11-03 Aptiv Technologies Limited Method for determining a drivable area
US11994582B2 (en) * 2021-09-13 2024-05-28 Texas Instruments Incorporated Inverse radar sensor model and evidential grid mapping processors
US20230169781A1 (en) * 2021-11-30 2023-06-01 Texas Instruments Incorporated Free space detection and park-able free space detection for occupancy grids using sensor measurements

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6920242B1 (en) * 2002-06-26 2005-07-19 Ronald W. Moore Apparatus and method for point cloud assembly
JP2007004578A (ja) * 2005-06-24 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> 三次元形状取得方法、三次元形状取得装置、及びプログラムの記録媒体
JP2016042288A (ja) * 2014-08-18 2016-03-31 株式会社デンソー 物体認識装置
JP2016066181A (ja) * 2014-09-24 2016-04-28 株式会社デンソー 物体検出装置
CN106296801A (zh) * 2015-06-12 2017-01-04 联想(北京)有限公司 一种建立物体三维图像模型的方法及电子设备
US20170285161A1 (en) * 2016-03-30 2017-10-05 Delphi Technologies, Inc. Object Detection Using Radar And Vision Defined Image Detection Zone
US20180276793A1 (en) * 2017-03-23 2018-09-27 The Boeing Company Autonomous performance of an operation on an object using a generated dense 3d model of the object

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10227171B4 (de) * 2002-06-18 2019-09-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit abstandsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE10229334B4 (de) * 2002-06-29 2010-09-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung von Sensoren im Kraftfahrzeug mittels eines Kalibrierobjekts mit Triple-Spiegel als Bezugsmerkmal
DE10324895A1 (de) * 2003-05-30 2004-12-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Objektortung für Kraftfahrzeuge
JP5130959B2 (ja) * 2008-03-05 2013-01-30 日産自動車株式会社 車両周囲環境検出装置
KR101141874B1 (ko) * 2008-06-04 2012-05-08 주식회사 만도 위험 지역의 검출 장치, 방법 및 그를 이용한 보행자 검출장치
CN102303605A (zh) * 2011-06-30 2012-01-04 中国汽车技术研究中心 基于多传感器信息融合的碰撞及偏离预警装置及预警方法
US9429650B2 (en) * 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
US10721384B2 (en) * 2014-03-27 2020-07-21 Sony Corporation Camera with radar system
KR102131387B1 (ko) * 2014-12-09 2020-07-08 현대자동차주식회사 라이다의 멀티 레이어 데이터를 클러스터링하는 방법
US10133947B2 (en) * 2015-01-16 2018-11-20 Qualcomm Incorporated Object detection using location data and scale space representations of image data
DE102015201317A1 (de) * 2015-01-27 2016-07-28 Bayerische Motoren Werke Aktiengesellschaft Vermessen einer Abmessung auf einer Oberfläche
DE102015118874A1 (de) * 2015-11-04 2017-05-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Sensorsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und System zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs
DE102016009756A1 (de) * 2016-08-10 2018-02-15 Daimler Ag Verfahren zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs sowie Sensorsystem
US20180217603A1 (en) * 2017-01-31 2018-08-02 GM Global Technology Operations LLC Efficient situational awareness from perception streams in autonomous driving systems
US10885398B2 (en) * 2017-03-17 2021-01-05 Honda Motor Co., Ltd. Joint 3D object detection and orientation estimation via multimodal fusion
US20180306927A1 (en) * 2017-04-21 2018-10-25 GM Global Technology Operations LLC Method and apparatus for pulse repetition sequence with high processing gain
EP3438777B1 (en) * 2017-08-04 2022-05-11 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
DE102017217212A1 (de) * 2017-09-27 2019-03-28 Robert Bosch Gmbh Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs, und ein Fahrzeugsystem
US11768292B2 (en) * 2018-03-14 2023-09-26 Uatc, Llc Three-dimensional object detection
US10551207B2 (en) * 2018-06-18 2020-02-04 Nio Usa, Inc. Autonomous vehicle sensor data and map integration
IT201800006594A1 (it) * 2018-06-22 2019-12-22 "Procedimento per la mappatura dell’ambiente di un veicolo, corrispondenti sistema, veicolo e prodotto informatico"
CN112930554A (zh) * 2018-09-12 2021-06-08 丰田自动车欧洲公司 用于确定车辆环境的语义网格的电子设备、系统和方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6920242B1 (en) * 2002-06-26 2005-07-19 Ronald W. Moore Apparatus and method for point cloud assembly
JP2007004578A (ja) * 2005-06-24 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> 三次元形状取得方法、三次元形状取得装置、及びプログラムの記録媒体
JP2016042288A (ja) * 2014-08-18 2016-03-31 株式会社デンソー 物体認識装置
JP2016066181A (ja) * 2014-09-24 2016-04-28 株式会社デンソー 物体検出装置
CN106296801A (zh) * 2015-06-12 2017-01-04 联想(北京)有限公司 一种建立物体三维图像模型的方法及电子设备
US20170285161A1 (en) * 2016-03-30 2017-10-05 Delphi Technologies, Inc. Object Detection Using Radar And Vision Defined Image Detection Zone
US20180276793A1 (en) * 2017-03-23 2018-09-27 The Boeing Company Autonomous performance of an operation on an object using a generated dense 3d model of the object

Also Published As

Publication number Publication date
KR102536037B1 (ko) 2023-05-26
CN112997093A (zh) 2021-06-18
KR20210062672A (ko) 2021-05-31
CN112997093B (zh) 2024-06-11
EP3877776A1 (de) 2021-09-15
US20210394761A1 (en) 2021-12-23
WO2020094170A1 (de) 2020-05-14
JP7273956B2 (ja) 2023-05-15
DE102018127990A1 (de) 2020-05-14

Similar Documents

Publication Publication Date Title
JP2022506736A (ja) 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット
US10949684B2 (en) Vehicle image verification
CN109804270B (zh) 机动车和用于360°环境检测的方法
JP4118452B2 (ja) 物体認識装置
JP3349060B2 (ja) 車外監視装置
JP5145585B2 (ja) 物標検出装置
JP6550881B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP6440411B2 (ja) 物体検出装置
JP6747269B2 (ja) 物体認識装置
US11935250B2 (en) Method, device and computer-readable storage medium with instructions for processing sensor data
KR102604453B1 (ko) 레이더 데이터의 자동 라벨링 방법 및 시스템
JP2018092501A (ja) 車載用画像処理装置
JPH06266828A (ja) 車輌用車外監視装置
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
JP4937844B2 (ja) 歩行者検出装置
CN113008296A (zh) 用于通过在点云平面上融合传感器数据来检测汽车环境的方法和汽车控制单元
KR20230031344A (ko) 자동차를 둘러싼 영역 내 장애물을 검출하기 위한 시스템 및 방법
EP4082867A1 (en) Automatic camera inspection system
US11861914B2 (en) Object recognition method and object recognition device
CN112078580A (zh) 用于确定对象与行车带的重合度的方法,装置和存储介质
US11884303B2 (en) Apparatus and method for determining lane change of surrounding objects
JP6756507B2 (ja) 環境認識装置
WO2024042607A1 (ja) 外界認識装置及び外界認識方法
JP6014534B2 (ja) 車両用白線認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R150 Certificate of patent or registration of utility model

Ref document number: 7273956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150