JP2022506736A - 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット - Google Patents
車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット Download PDFInfo
- Publication number
- JP2022506736A JP2022506736A JP2021524307A JP2021524307A JP2022506736A JP 2022506736 A JP2022506736 A JP 2022506736A JP 2021524307 A JP2021524307 A JP 2021524307A JP 2021524307 A JP2021524307 A JP 2021524307A JP 2022506736 A JP2022506736 A JP 2022506736A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- vehicle
- processing unit
- camera object
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000002093 peripheral effect Effects 0.000 claims description 24
- 230000036961 partial effect Effects 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000006073 displacement reaction Methods 0.000 claims description 11
- 239000000872 buffer Substances 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 18
- 238000005259 measurement Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0881—Seat occupation; Driver or passenger presence
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
zc=(m(SDz,t),m(Fz,t)),
で示されることができ、ここで、m({SD})は、セルc201がオブジェクト150(例えば静的なオブジェクト又は動的なオブジェクト)によって占められていることについての証拠(臨界値、棄却限界値)あるいは証拠量(臨界量、棄却限界量)であり、m(F)は、セルc201が空いており、したがってオブジェクト150によって占められていないことについての証拠である。セル201がオブジェクト150によって占められていることについての臨界値は、(特にデンプスター・シェーファー理論の意味合いで)セル201がオブジェクト150によって占められていることについてのオブジェクト確率とみなされることができる。
Mt={m(St),m(Dt),m(SDt),m(Ft),m(FDt)},
ここで、m(FDt)は、過去に占められていないセル201が時点tにおいて動的なオブジェクト150によって占められ得るという仮定についての証拠を示す。さらに、m(St)は、時点tにおいてセルc201が静的なオブジェクト150によって占められていることについての証拠あるいは証拠量を示す。そのほか、m(Dt)は、時点tにおいてセルc201が動的なオブジェクト150によって占められていることについての証拠あるいは証拠量を示す。占有グリッドMt200は、所定の時点tでのグリッド200のセル201の状況あるいは状態を記述する。
-角度範囲201によって覆われるセル201について、セル201が(縮尺設定及び変位された)カメラオブジェクト250の一部であることについての証拠量とセル201が占められていることについての証拠量との積を算出することができ、
-積の平均絶対和又は平均二乗和を算出することができる。
-カメラオブジェクト250が、典型的には、カメラオブジェクト250の検出のための画像データを検出したカメラ112の座標系に対して相対的に記述される。そして、距離感知式の周囲センサ111(例えばライダセンサ)のセンサデータは、変換(並進及び/又は回転)によってカメラ112の3D座標系へ投影あるいは変換されることが可能である。これに代えて、上述のように、距離感知式の周囲センサ111の座標系へのカメラオブジェクト250の変換を行うことが可能である。
-そして、(場合によってはそれぞれカメラオブジェクト250の左右の加えられた許容誤差デルタあるいは許容誤差バッファ303を有する)カメラオブジェクト250によって描かれる方位角範囲301を算出することができる。
-さらに、方位角範囲301内にある距離感知式の周囲センサ111のセンサデータを抽出することが可能である。
-カメラオブジェクト250を、様々な距離値に設定することができるとともに、相応して縮尺設定することが可能である。各距離値について、品質関数の値(すなわち重なり量の値)を演算することができ、品質関数は、(縮尺設定及び変位された)カメラオブジェクト250がどのくらい良好に距離感知式の周囲センサ111のセンサデータに適合するかを示す。
-そして、カメラオブジェクト250は、距離感知式の周囲センサ111のセンサデータに基づいて検知される占められたセル201と関連付けられることができ、当該セルについて比較的良好なフィット(すなわち品質関数の比較的良好な値)が得られる。
Claims (16)
- 車両(100)のための処理ユニット(101)であって、処理ユニットは、
-車両(100)のカメラ(112)の画像データであって、基準点(305)からの車両(100)の周囲を示す前記画像データを算出するように、
-画像データに基づいて、車両(100)の周囲での少なくとも1つのカメラオブジェクト(250)を検出するように、
-車両(100)の距離感知式の周囲センサ(111)のセンサデータ(500)であって、車両(100)の周囲での複数の検出された点(501,504)を示す前記センサデータ(500)を算出するように、
-カメラオブジェクト(250)を基準点(305)に対する複数の異なる距離へ変位させるように、
-複数の異なる距離について、センサデータ(500)の検出された点(501,504)との各カメラオブジェクト(250)の重なり量の対応する数の値を算出するように、及び
-重なり量の値の数に依存して、基準点(305)からのカメラオブジェクト(250)のオブジェクト距離を算出するように
設置されていることを特徴とする処理ユニット。 - 処理ユニット(101)が、
-カメラオブジェクト(250)についての基準点(305)を中心とする角度範囲(301)、特に方位角範囲及び/又は高さ角度範囲を算出するように、
-角度範囲(301)によって規定される、車両(100)の周囲の部分範囲内で、基準点(305)から出るビーム線に沿ってカメラオブジェクト(250)を変位させるように、及び
-車両(100)の周囲の部分範囲に基づくセンサデータ(500)の検出された点(501,504)との、特にセンサデータ(500)の検出された点(501,504)のみとの各カメラオブジェクト(250)の重なり量の値を算出するように
設置されていることを特徴とする請求項1に記載の処理ユニット(101)。 - 基準点(305)から出る、角度範囲(301)を限定するビームが、カメラオブジェクト(250)の2つの異なる側で、任意にカメラオブジェクト(250)の2つの異なる側での追加的な許容誤差バッファ(303)をもってカメラオブジェクト(250)を画定するように、角度範囲(301)が算出されることを特徴とする請求項2に記載の処理ユニット(101)。
- 処理ユニット(101)が、
-カメラオブジェクト(250)についての基準点(305)を中心とする方位角範囲(301)及び高さ角度範囲を算出するように、
-方位角範囲(301)及び高さ角度範囲によって規定される、車両(100)の周囲の部分範囲内で、基準点(305)から出るビームに沿ってカメラオブジェクト(250)を変位させるように、及び
-車両(100)の周囲の部分範囲に基づくセンサデータ(500)の検出された点(501,504)との、特にセンサデータ(500)の検出された点(501,504)のみとの各カメラオブジェクト(250)の重なり量の値を算出するように
設置されていることを特徴とする請求項2又は3に記載の処理ユニット(101)。 - 処理ユニット(101)が、基準点(305)に対する距離に依存してカメラオブジェクト(250)を縮尺設定するように設置されていることを特徴とする請求項1~4のいずれか1項に記載の処理ユニット(101)。
- 処理ユニット(101)が、
-画像データに基づき、基準点(305)に対するカメラオブジェクト(250)の推定される距離を算出するように、及び
-カメラオブジェクト(250)を複数の異なる距離へ変位させるために、推定される距離の周囲での距離範囲において、特に基準点(305)から出るビームに沿ってカメラオブジェクト(250)を変位させるように
設置されていることを特徴とする請求項1~5のいずれか1項に記載の処理ユニット(101)。 - -カメラ(112)及び周囲センサ(111)が、車両(100)における異なる箇所に配置されており、
-処理ユニット(101)が、カメラオブジェクト(250)と、周囲センサ(111)のセンサデータ(500)とを、特に
-周囲センサ(111)の座標系へのカメラオブジェクト(250)の投影によって、又は
-カメラ(112)の座標系へのセンサデータ(500)の投影によって、
共通の座標系において表すように設置されている
ことを特徴とする請求項1~6のいずれか1項に記載の処理ユニット(101)。 - -カメラオブジェクト(250)が、車両(100)の周囲での、カメラオブジェクト(250)が配置された複数のカメラ点を示し、及び
-カメラオブジェクト(250)の変位が、複数のカメラ点のうち少なくともいくつかの変位、特に基準点(305)から出るビームに沿った変位を含んでいる
ことを特徴とする請求項1~7のいずれか1項に記載の処理ユニット(101)。 - 重ね合わせ量の値の算出が、
-センサデータ(500)の検出された点(501,504)と一致するカメラオブジェクト(250)の複数のカメラ点の一部を算出すること、及び/又は
-センサデータ(500)の検出された点(501,504)に対するカメラオブジェクト(250)の複数のカメラ点の距離を算出すること、及び/又は
-センサデータ(500)の検出された点(501,504)とのカメラオブジェクト(250)の複数のカメラ点の重なりの度合いを算出すること
を含んでいることを特徴とする請求項8に記載の処理ユニット(101)。 - -複数の検出された点(501,504)が、車両(100)の周囲にはおそらく配置されていない周囲オブジェクト(550)を示す、あり得る少なくとも1つの非障害物点(504)を含んでおり、及び
-あり得る非障害物点(504)を考慮して重なり量の値が算出されること
を特徴とする請求項1~9のいずれか1項に記載の処理ユニット(101)。 - 処理ユニット(101)が、
-算出されたオブジェクト距離に依存して、カメラオブジェクト(250)を複数の検出された点(501,504)の部分量に割り当てるように、及び
-センサデータ(500)に基づき、割り当てられたカメラオブジェクト(250)を考慮して、車両(100)の周囲の占有グリッド(200)を算出するように
設置されており、占有グリッド(200)は、車両(100)の周囲の複数のセル(201)について、各セル(201)が空いているかどうか、又は各セル(201)が物体(550)によって占められているかどうかについての確率を示すことを特徴とする請求項1~10のいずれか1項に記載の処理ユニット(101)。 - -非障害物点(504)にカメラオブジェクト(250)が割り当てられなかった場合には、あり得る非障害物点(504)が、占有グリッド(200)の算出時に考慮されないままであり、及び/又は
-特に非障害物点(504)にカメラオブジェクト(250)が割り当てられた場合にのみ、あり得る非障害物点(504)が、占有グリッド(200)の算出時に考慮される
ことを特徴とする請求項10を引用する請求項11に記載の処理ユニット(101)。 - 処理ユニット(101)が、
-重なり量の複数の値に基づき、カメラオブジェクト(250)を複数の検出された点(501,504)の部分量に割り当てることができるか否かを特定するように、及び
-カメラオブジェクト(250)を複数の検出された点(501,504)の部分量に割り当てることができないことが特定された場合に、センサデータ(500)に基づく車両(100)の周囲の占有グリッド(200)の算出時に、カメラオブジェクト(250)を考慮しないように、及び/又は
-特にカメラオブジェクト(250)を複数の検出された点(501,504)の部分量に割り当てることができることが特定された場合にのみ、センサデータ(500)に基づく車両(100)の周囲の占有グリッド(200)の算出時に、算出されたオブジェクト間隔に応じててカメラオブジェクト(250)を考慮するように
設置されていることを特徴とする請求項1~12のいずれか1項に記載の処理ユニット(101)。 - 処理ユニット(101)が、
-センサデータ(500)に基づき車両(100)の周囲の占有グリッド(200)を算出するように、
-占有グリッド(200)に基づき、基準点(305)に対する算出されたオブジェクト距離でのカメラオブジェクト(250)を考慮して、車両(100)の周囲での、カメラオブジェクト(250)に対応する周囲オブジェクト(550)を検出するように、及び
-画像データに基づき、周囲オブジェクト(550)の1つ又は複数の属性、特に複数の異なるオブジェクトタイプのうち1つのオブジェクトタイプを算出するように
設置されていることを特徴とする請求項1~13のいずれか1項に記載の処理ユニット(101)。 - 処理ユニット(101)が、算出されたオブジェクト距離に依存して、及び/又は算出されたオブジェクト距離に依存する車両(100)の周囲の占有グリッド(200)に依存して、車両(100)の少なくとも1つの車両機能、特に車両(100)の少なくとも部分的に自動化された走行を実行するように設置されていることを特徴とする請求項1~14のいずれか1項に記載の処理ユニット(101)。
- 車両(100)の周囲でのオブジェクトに関する情報を算出する方法(400)であって、方法(400)は、
-車両(100)のカメラ(112)の画像データであって、基準点(305)からの車両(100)の周囲を示す画像データを算出すること(401)、
-画像データに基づいて、車両(100)の周囲での少なくとも1つのカメラオブジェクト(250)を検出すること(402)、
-車両(100)の距離感知式の周囲センサ(111)のセンサデータ(500)であって、車両(100)の周囲での複数の検出された点(501,504)を示すセンサデータ(500)を算出すること(403)、
-カメラオブジェクト(250)を基準点(305)に対して相対的に複数の異なる距離へ変位させること(404)、
-複数の異なる距離について、センサデータ(500)の検出された点(501,504)との各カメラオブジェクト(250)の重なり量の複数の値を算出すること(405)、及び
-重なり量の値の複数の値に依存して、基準点(305)からのカメラオブジェクト(250)のオブジェクト距離を算出すること(406)
を含むことを特徴とする方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018127990.6 | 2018-11-08 | ||
DE102018127990.6A DE102018127990A1 (de) | 2018-11-08 | 2018-11-08 | Verfahren und Verarbeitungseinheit zur Ermittlung von Information in Bezug auf ein Objekt in einem Umfeld eines Fahrzeugs |
PCT/DE2019/100650 WO2020094170A1 (de) | 2018-11-08 | 2019-07-12 | Verfahren und verarbeitungseinheit zur ermittlung von information in bezug auf ein objekt in einem umfeld eines fahrzeugs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022506736A true JP2022506736A (ja) | 2022-01-17 |
JP7273956B2 JP7273956B2 (ja) | 2023-05-15 |
Family
ID=67514265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021524307A Active JP7273956B2 (ja) | 2018-11-08 | 2019-07-12 | 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210394761A1 (ja) |
EP (1) | EP3877776A1 (ja) |
JP (1) | JP7273956B2 (ja) |
KR (1) | KR102536037B1 (ja) |
CN (1) | CN112997093B (ja) |
DE (1) | DE102018127990A1 (ja) |
WO (1) | WO2020094170A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019120440A1 (de) * | 2019-07-29 | 2021-02-04 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zum automatisierten Erstellen von Objektmarkierungen für die Verwendung in einem Fahrassistenzsystem eines Fahrzeugs |
EP3882813A1 (en) | 2020-03-20 | 2021-09-22 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
EP3905105A1 (en) * | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a collision free space |
EP3905106A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a drivable area |
US11994582B2 (en) * | 2021-09-13 | 2024-05-28 | Texas Instruments Incorporated | Inverse radar sensor model and evidential grid mapping processors |
US20230169781A1 (en) * | 2021-11-30 | 2023-06-01 | Texas Instruments Incorporated | Free space detection and park-able free space detection for occupancy grids using sensor measurements |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6920242B1 (en) * | 2002-06-26 | 2005-07-19 | Ronald W. Moore | Apparatus and method for point cloud assembly |
JP2007004578A (ja) * | 2005-06-24 | 2007-01-11 | Nippon Telegr & Teleph Corp <Ntt> | 三次元形状取得方法、三次元形状取得装置、及びプログラムの記録媒体 |
JP2016042288A (ja) * | 2014-08-18 | 2016-03-31 | 株式会社デンソー | 物体認識装置 |
JP2016066181A (ja) * | 2014-09-24 | 2016-04-28 | 株式会社デンソー | 物体検出装置 |
CN106296801A (zh) * | 2015-06-12 | 2017-01-04 | 联想(北京)有限公司 | 一种建立物体三维图像模型的方法及电子设备 |
US20170285161A1 (en) * | 2016-03-30 | 2017-10-05 | Delphi Technologies, Inc. | Object Detection Using Radar And Vision Defined Image Detection Zone |
US20180276793A1 (en) * | 2017-03-23 | 2018-09-27 | The Boeing Company | Autonomous performance of an operation on an object using a generated dense 3d model of the object |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10227171B4 (de) * | 2002-06-18 | 2019-09-26 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit abstandsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds |
DE10229334B4 (de) * | 2002-06-29 | 2010-09-23 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung von Sensoren im Kraftfahrzeug mittels eines Kalibrierobjekts mit Triple-Spiegel als Bezugsmerkmal |
DE10324895A1 (de) * | 2003-05-30 | 2004-12-16 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Objektortung für Kraftfahrzeuge |
JP5130959B2 (ja) * | 2008-03-05 | 2013-01-30 | 日産自動車株式会社 | 車両周囲環境検出装置 |
KR101141874B1 (ko) * | 2008-06-04 | 2012-05-08 | 주식회사 만도 | 위험 지역의 검출 장치, 방법 및 그를 이용한 보행자 검출장치 |
CN102303605A (zh) * | 2011-06-30 | 2012-01-04 | 中国汽车技术研究中心 | 基于多传感器信息融合的碰撞及偏离预警装置及预警方法 |
US9429650B2 (en) * | 2012-08-01 | 2016-08-30 | Gm Global Technology Operations | Fusion of obstacle detection using radar and camera |
US10721384B2 (en) * | 2014-03-27 | 2020-07-21 | Sony Corporation | Camera with radar system |
KR102131387B1 (ko) * | 2014-12-09 | 2020-07-08 | 현대자동차주식회사 | 라이다의 멀티 레이어 데이터를 클러스터링하는 방법 |
US10133947B2 (en) * | 2015-01-16 | 2018-11-20 | Qualcomm Incorporated | Object detection using location data and scale space representations of image data |
DE102015201317A1 (de) * | 2015-01-27 | 2016-07-28 | Bayerische Motoren Werke Aktiengesellschaft | Vermessen einer Abmessung auf einer Oberfläche |
DE102015118874A1 (de) * | 2015-11-04 | 2017-05-04 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Betreiben eines Sensorsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und System zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs |
DE102016009756A1 (de) * | 2016-08-10 | 2018-02-15 | Daimler Ag | Verfahren zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs sowie Sensorsystem |
US20180217603A1 (en) * | 2017-01-31 | 2018-08-02 | GM Global Technology Operations LLC | Efficient situational awareness from perception streams in autonomous driving systems |
US10885398B2 (en) * | 2017-03-17 | 2021-01-05 | Honda Motor Co., Ltd. | Joint 3D object detection and orientation estimation via multimodal fusion |
US20180306927A1 (en) * | 2017-04-21 | 2018-10-25 | GM Global Technology Operations LLC | Method and apparatus for pulse repetition sequence with high processing gain |
EP3438777B1 (en) * | 2017-08-04 | 2022-05-11 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
DE102017217212A1 (de) * | 2017-09-27 | 2019-03-28 | Robert Bosch Gmbh | Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs, und ein Fahrzeugsystem |
US11768292B2 (en) * | 2018-03-14 | 2023-09-26 | Uatc, Llc | Three-dimensional object detection |
US10551207B2 (en) * | 2018-06-18 | 2020-02-04 | Nio Usa, Inc. | Autonomous vehicle sensor data and map integration |
IT201800006594A1 (it) * | 2018-06-22 | 2019-12-22 | "Procedimento per la mappatura dell’ambiente di un veicolo, corrispondenti sistema, veicolo e prodotto informatico" | |
CN112930554A (zh) * | 2018-09-12 | 2021-06-08 | 丰田自动车欧洲公司 | 用于确定车辆环境的语义网格的电子设备、系统和方法 |
-
2018
- 2018-11-08 DE DE102018127990.6A patent/DE102018127990A1/de active Pending
-
2019
- 2019-07-12 KR KR1020217011772A patent/KR102536037B1/ko active IP Right Grant
- 2019-07-12 CN CN201980073201.5A patent/CN112997093B/zh active Active
- 2019-07-12 JP JP2021524307A patent/JP7273956B2/ja active Active
- 2019-07-12 WO PCT/DE2019/100650 patent/WO2020094170A1/de unknown
- 2019-07-12 US US17/292,042 patent/US20210394761A1/en active Pending
- 2019-07-12 EP EP19748651.7A patent/EP3877776A1/de active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6920242B1 (en) * | 2002-06-26 | 2005-07-19 | Ronald W. Moore | Apparatus and method for point cloud assembly |
JP2007004578A (ja) * | 2005-06-24 | 2007-01-11 | Nippon Telegr & Teleph Corp <Ntt> | 三次元形状取得方法、三次元形状取得装置、及びプログラムの記録媒体 |
JP2016042288A (ja) * | 2014-08-18 | 2016-03-31 | 株式会社デンソー | 物体認識装置 |
JP2016066181A (ja) * | 2014-09-24 | 2016-04-28 | 株式会社デンソー | 物体検出装置 |
CN106296801A (zh) * | 2015-06-12 | 2017-01-04 | 联想(北京)有限公司 | 一种建立物体三维图像模型的方法及电子设备 |
US20170285161A1 (en) * | 2016-03-30 | 2017-10-05 | Delphi Technologies, Inc. | Object Detection Using Radar And Vision Defined Image Detection Zone |
US20180276793A1 (en) * | 2017-03-23 | 2018-09-27 | The Boeing Company | Autonomous performance of an operation on an object using a generated dense 3d model of the object |
Also Published As
Publication number | Publication date |
---|---|
KR102536037B1 (ko) | 2023-05-26 |
CN112997093A (zh) | 2021-06-18 |
KR20210062672A (ko) | 2021-05-31 |
CN112997093B (zh) | 2024-06-11 |
EP3877776A1 (de) | 2021-09-15 |
US20210394761A1 (en) | 2021-12-23 |
WO2020094170A1 (de) | 2020-05-14 |
JP7273956B2 (ja) | 2023-05-15 |
DE102018127990A1 (de) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022506736A (ja) | 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット | |
US10949684B2 (en) | Vehicle image verification | |
CN109804270B (zh) | 机动车和用于360°环境检测的方法 | |
JP4118452B2 (ja) | 物体認識装置 | |
JP3349060B2 (ja) | 車外監視装置 | |
JP5145585B2 (ja) | 物標検出装置 | |
JP6550881B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6440411B2 (ja) | 物体検出装置 | |
JP6747269B2 (ja) | 物体認識装置 | |
US11935250B2 (en) | Method, device and computer-readable storage medium with instructions for processing sensor data | |
KR102604453B1 (ko) | 레이더 데이터의 자동 라벨링 방법 및 시스템 | |
JP2018092501A (ja) | 車載用画像処理装置 | |
JPH06266828A (ja) | 車輌用車外監視装置 | |
US10748014B2 (en) | Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium | |
JP6687039B2 (ja) | 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム | |
JP4937844B2 (ja) | 歩行者検出装置 | |
CN113008296A (zh) | 用于通过在点云平面上融合传感器数据来检测汽车环境的方法和汽车控制单元 | |
KR20230031344A (ko) | 자동차를 둘러싼 영역 내 장애물을 검출하기 위한 시스템 및 방법 | |
EP4082867A1 (en) | Automatic camera inspection system | |
US11861914B2 (en) | Object recognition method and object recognition device | |
CN112078580A (zh) | 用于确定对象与行车带的重合度的方法,装置和存储介质 | |
US11884303B2 (en) | Apparatus and method for determining lane change of surrounding objects | |
JP6756507B2 (ja) | 環境認識装置 | |
WO2024042607A1 (ja) | 外界認識装置及び外界認識方法 | |
JP6014534B2 (ja) | 車両用白線認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7273956 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |