JP7418476B2 - 運転可能な領域情報を決定するための方法及び装置 - Google Patents
運転可能な領域情報を決定するための方法及び装置 Download PDFInfo
- Publication number
- JP7418476B2 JP7418476B2 JP2021575407A JP2021575407A JP7418476B2 JP 7418476 B2 JP7418476 B2 JP 7418476B2 JP 2021575407 A JP2021575407 A JP 2021575407A JP 2021575407 A JP2021575407 A JP 2021575407A JP 7418476 B2 JP7418476 B2 JP 7418476B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- region
- pixel
- interest
- drivable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 107
- 238000001514 detection method Methods 0.000 claims description 114
- 230000004927 fusion Effects 0.000 claims description 75
- 238000004590 computer program Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000002592 echocardiography Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
この出願は、2019年6月18日付で中国国家知的財産管理局に出願された"運転可能な領域情報を決定するための方法及び装置"と題する中国特許出願第201910525320.1号に基づく優先権を主張し、その内容は、その全体が参照により本明細書に組み込まれる。
この出願は、自動運転技術の分野に関し、特に、運転可能な領域情報を決定するための方法及び装置に関する。
第1の情報を取得するように構成される取得モジュール1201であって、第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像であり、取得モジュール1201は、さらに、第2の情報を取得するように構成され、第2の情報は、レーダ検出情報を含む、取得モジュールと、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定するように構成される決定モジュール1202と、を含むということを理解することが可能である。
第1の情報を受信するように構成される受信モジュール1301であって、第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像である、受信モジュール1301と、
第2の情報を生成するように構成される生成モジュール1302であって、第2の情報は、第1の情報に基づいて生成される初期の運転可能な領域のレーダ検出情報を含む、生成モジュール1302と、
第2の情報を送信するように構成される送信モジュール1303と、を含むということを理解することが可能である。
Claims (23)
- 運転可能な領域情報を決定するための装置によって実行される方法であって、前記装置は、カメラモジュール及び融合モジュールを含み、当該方法は、
前記カメラモジュールによって第1の情報を取得するステップであって、前記第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、前記少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像であり、
初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域に対応する少なくとも1つのピクセルに関する情報を含むか、又は、
前記初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域の境界情報によって示される、ステップと、
前記融合モジュールによって第2の情報を取得するステップであって、前記第2の情報は、レーダ検出情報を含む、ステップと、
前記融合モジュールによって、前記第1の情報及び前記第2の情報を融合することによって得られる結果に基づいて、前記初期の運転可能な領域の中に関心領域が存在するか否かを決定するステップであって、前記関心領域は、正確でない検出結果を有するとともに、前記第1の情報及び前記第2の情報を融合することによって得られる前記結果に基づいて決定される領域である、ステップと、
前記融合モジュールが、前記関心領域が存在するということを決定する場合に、
前記融合モジュールによって、前記第1の情報及び前記第2の情報に基づいて、第2の運転可能な領域情報及び前記関心領域の領域情報を取得するステップと、
前記融合モジュールによって、前記カメラモジュールから、前記関心領域の検出結果を取得するステップであって、前記関心領域の前記検出結果は、前記関心領域の中に障害物が存在するか否かを示す、ステップと、
前記融合モジュールによって、前記第2の運転可能な領域情報及び前記関心領域の前記検出結果に基づいて、第2の運転可能な領域のうちで車両が走行することが不可能である障害物領域以外の領域を第1の運転可能な領域として決定するステップであって、前記第1の運転可能な領域は、前記初期の運転可能な領域の中に存在する、ステップと、を含む、
方法。 - 前記境界情報は、前記初期の運転可能な領域の境界に対応するf個のピクセルに関する情報を含み、前記f個のピクセルに関する前記情報は、ピクセル座標系の中で、[(u1,h1),(u2,h2),(u3,h3),…,(ui,hi),…,(uf,hf)]として表され、ui、hiは、前記f個のピクセルのうちのi番目のピクセルの位置座標を示し、1≦i≦fであり、fは、1以上の整数である、請求項1に記載の方法。
- 前記境界情報は、前記初期の運転可能な領域の境界に対応するr個のピクセルに関する情報を含み、前記r個のピクセルに関する前記情報は、ピクセル座標系の中で、[step,(g1,k1),k2,k3,…,ki,…,kr]又は[step,(g1,k1),k2,k3,…,ki,…,kr,step_method]として表され、g1、k1は、前記境界情報の中の最初のピクセルの位置座標を示し、kiは、前記r個のピクセルのうちのi番目のピクセルの垂直座標を示し、1≦i≦rであり、前記i番目のピクセルの水平座標は、前記stepに基づいて取得され、前記stepは、前記i番目のピクセルの前記水平座標と(i+1)番目のピクセルの水平座標との間の間隔ステップを示し、前記i番目のピクセルの前記水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、前記i番目のピクセルの前記水平座標と前記(i+1)番目のピクセルの前記水平座標との間の前記間隔ステップと同じであり、前記step_methodは、すべての間隔ステップの間の接続関係を示し、rは、1以上の整数である、請求項1乃至2のうちのいずれか1項に記載の方法。
- 前記境界情報は、前記初期の運転可能な領域の境界に対応するs個のピクセルに関する情報を含み、前記s個のピクセルに関する前記情報は、ピクセル座標系の中で、[(p1,q1),(p2,q2),(p3,q3),…,(pi,qi),…,(ps,qs),step_method]として表され、pi、qiは、s個のピクセルのうちのi番目のピクセルの位置座標を示し、1≦i≦sであり、前記i番目のピクセルの水平座標と(i+1)番目のピクセルの水平座標との間に間隔ステップが存在し、前記i番目のピクセルの前記水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、前記i番目のピクセルの前記水平座標と前記(i+1)番目のピクセルの前記水平座標との間の前記間隔ステップとは異なり、前記step_methodは、すべての間隔ステップの間の接続関係を示し、sは、1以上の整数である、請求項1乃至3のうちのいずれか1項に記載の方法。
- 前記step_methodは、線形補間、2次補間、3次スプライン補間、又は形状保存の区分的な3次補間に設定される、請求項3乃至4のうちのいずれか1項に記載の方法。
- 前記レーダ検出情報は、前記初期の運転可能な領域の検出情報を含む、請求項1乃至5のうちのいずれか1項に記載の方法。
- 前記関心領域を検出する前記ステップは、
前記融合モジュールによって、前記関心領域に対応する画像情報を分類するステップを含む、請求項1に記載の方法。 - 前記関心領域の前記検出結果は、前記関心領域が、車両が走行することが可能である領域であるということ、又は、前記関心領域が、車両が走行することが不可能である障害物領域であるということを含む、請求項1乃至7のうちのいずれか1項に記載の方法。
- 前記融合モジュールによって関心領域が存在しないということを決定するステップと、
前記融合モジュールによって、前記第1の情報及び前記第2の情報に基づいて、第2の運転可能な領域情報を取得するステップであって、前記第2の運転可能な領域情報は、前記第1の運転可能な領域情報である、ステップと、を含む、請求項1乃至8のうちのいずれか1項に記載の方法。 - 前記レーダ検出情報は、位置座標情報を含むか、又は、
前記レーダ検出情報は、位置座標情報及び位置座標の共分散情報を含む、請求項1乃至9のうちのいずれか1項に記載の方法。 - 運転可能な領域情報を決定するための装置であって、
第1の情報を取得するように構成される取得モジュールであって、前記第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、前記少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像であり、
前記初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域に対応する少なくとも1つのピクセルに関する情報を含むか、又は、
前記初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域の境界情報によって示され、
前記取得モジュールは、さらに、第2の情報を取得するように構成され、前記第2の情報は、レーダ検出情報を含む、取得モジュールと、
前記第1の情報及び前記第2の情報を融合することによって得られる結果に基づいて、前記初期の運転可能な領域の中に関心領域が存在するか否かを決定するように構成される決定モジュールであって、前記関心領域は、正確でない検出結果を有するとともに、前記第1の情報及び前記第2の情報を融合することによって得られる前記結果に基づいて決定される領域である、決定モジュールと、を含み、
前記決定モジュールが、前記関心領域が存在するということを決定する場合に、前記決定モジュールは、さらに、
前記第1の情報及び前記第2の情報に基づいて、第2の運転可能な領域情報及び前記関心領域の領域情報を取得し、
前記カメラモジュールから、前記関心領域の検出結果を取得し、前記関心領域の前記検出結果は、前記関心領域の中に障害物が存在するか否かを示し、
前記第2の運転可能な領域情報及び前記関心領域の前記検出結果に基づいて、第2の運転可能な領域のうちで車両が走行することが不可能である障害物領域以外の領域を第1の運転可能な領域情報を決定する、ように構成され、前記第1の運転可能な領域は、前記初期の運転可能な領域の中に存在する、
装置。 - 前記境界情報は、前記初期の運転可能な領域の境界に対応するf個のピクセルに関する情報を含み、前記f個のピクセルに関する前記情報は、ピクセル座標系の中で、[(u1,h1),(u2,h2),(u3,h3),…,(ui,hi),…,(uf,hf)]として表され、ui、hiは、前記f個のピクセルのうちのi番目のピクセルの位置座標を示し、1≦i≦fであり、fは、1以上の整数である、請求項11に記載の装置。
- 前記境界情報は、前記初期の運転可能な領域の境界に対応するr個のピクセルに関する情報を含み、前記r個のピクセルに関する前記情報は、ピクセル座標系の中で、[step,(g1,k1),k2,k3,…,ki,…,kr]又は[step,(g1,k1),k2,k3,…,ki,…,kr,step_method]として表され、g1、k1は、前記境界情報の中の最初のピクセルの位置座標を示し、kiは、前記r個のピクセルのうちのi番目のピクセルの垂直座標を示し、1≦i≦rであり、前記i番目のピクセルの水平座標は、前記stepに基づいて取得され、前記stepは、前記i番目のピクセルの前記水平座標と(i+1)番目のピクセルの水平座標との間の間隔ステップを示し、前記i番目のピクセルの前記水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、前記i番目のピクセルの前記水平座標と前記(i+1)番目のピクセルの前記水平座標との間の前記間隔ステップと同じであり、前記step_methodは、すべての間隔ステップの間の接続関係を示し、rは、1以上の整数である、請求項11乃至12のうちのいずれか1項に記載の装置。
- 前記境界情報は、前記初期の運転可能な領域の境界に対応するs個のピクセルに関する情報を含み、前記s個のピクセルに関する前記情報は、ピクセル座標系の中で、[(p1,q1),(p2,q2),(p3,q3),…,(pi,qi),…,(ps,qs),step_method]として表され、pi、qiは、s個のピクセルのうちのi番目のピクセルの位置座標を示し、1≦i≦sであり、前記i番目のピクセルの水平座標と(i+1)番目のピクセルの水平座標との間に間隔ステップが存在し、前記i番目のピクセルの前記水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、前記i番目のピクセルの前記水平座標と前記(i+1)番目のピクセルの前記水平座標との間の前記間隔ステップとは異なり、前記step_methodは、すべての間隔ステップの間の接続関係を示し、sは、1以上の整数である、請求項11乃至13のうちのいずれか1項に記載の装置。
- 前記step_methodは、線形補間、2次補間、3次スプライン補間、又は形状保存の区分的な3次補間に設定される、請求項13乃至14のうちのいずれか1項に記載の装置。
- 前記レーダ検出情報は、前記初期の運転可能な領域の検出情報を含む、請求項11乃至15のうちのいずれか1項に記載の装置。
- 前記決定モジュールが、前記関心領域を検出するように構成されることは、
前記決定モジュールが、前記関心領域に対応する画像情報を分類するように構成されることを含む、請求項11に記載の装置。 - 前記関心領域の前記検出結果は、前記関心領域が、車両が走行することが可能である領域であるということ、又は、前記関心領域が、車両が走行することが不可能である障害物領域であるということを含む、請求項11乃至17のうちのいずれか1項に記載の装置。
- 前記決定モジュールは、さらに、関心領域が存在しないということを決定するように構成され、
前記取得モジュールは、さらに、前記第1の情報及び前記第2の情報に基づいて、第2の運転可能な領域情報を取得するように構成され、前記第2の運転可能な領域情報は、前記第1の運転可能な領域情報である、請求項11乃至16のうちのいずれか1項に記載の装置。 - 前記レーダ検出情報は、位置座標情報を含むか、又は、
前記レーダ検出情報は、位置座標情報及び位置座標の共分散情報を含む、請求項11乃至19のうちのいずれか1項に記載の装置。 - 装置であって、当該装置は、プロセッサを含み、前記プロセッサは、メモリに結合するように構成され、前記プロセッサは、前記メモリの中の命令を読み出し、前記命令にしたがって、請求項1乃至10のうちのいずれか1項に記載の方法を当該装置に実行させる、ように構成される、装置。
- コンピュータ記憶媒体であって、当該コンピュータ記憶媒体は、命令を含み、前記命令がコンピュータによって実行されるときに、請求項1乃至10のうちのいずれか1項に記載の方法を前記コンピュータに実行させる、コンピュータ記憶媒体。
- コンピュータプログラムであって、当該コンピュータプログラムがコンピュータによって実行されるときに、請求項1乃至10のうちのいずれか1項に記載の方法を前記コンピュータに実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910525320.1A CN112101069A (zh) | 2019-06-18 | 2019-06-18 | 确定行驶区域信息的方法及装置 |
CN201910525320.1 | 2019-06-18 | ||
PCT/CN2020/096755 WO2020253764A1 (zh) | 2019-06-18 | 2020-06-18 | 确定行驶区域信息的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022537557A JP2022537557A (ja) | 2022-08-26 |
JP7418476B2 true JP7418476B2 (ja) | 2024-01-19 |
Family
ID=73748616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021575407A Active JP7418476B2 (ja) | 2019-06-18 | 2020-06-18 | 運転可能な領域情報を決定するための方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11698459B2 (ja) |
EP (1) | EP3975042B1 (ja) |
JP (1) | JP7418476B2 (ja) |
CN (1) | CN112101069A (ja) |
WO (1) | WO2020253764A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210062144A (ko) * | 2019-11-20 | 2021-05-31 | 현대자동차주식회사 | 군집 주행 시 가상 차선 표시 장치 및 그 방법 |
EP4390453A1 (en) * | 2021-09-14 | 2024-06-26 | Huawei Technologies Co., Ltd. | Signal processing method and related apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004117071A (ja) | 2002-09-24 | 2004-04-15 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP2007272292A (ja) | 2006-03-30 | 2007-10-18 | Denso It Laboratory Inc | 影認識方法及び影境界抽出方法 |
JP2014006588A (ja) | 2012-06-21 | 2014-01-16 | Toyota Central R&D Labs Inc | 路面境界推定装置及びプログラム |
JP2018092604A (ja) | 2016-11-25 | 2018-06-14 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム |
WO2019026438A1 (ja) | 2017-08-03 | 2019-02-07 | 株式会社小糸製作所 | 車両用照明システム、車両システム及び車両 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8605947B2 (en) * | 2008-04-24 | 2013-12-10 | GM Global Technology Operations LLC | Method for detecting a clear path of travel for a vehicle enhanced by object detection |
US8634593B2 (en) * | 2008-04-24 | 2014-01-21 | GM Global Technology Operations LLC | Pixel-based texture-less clear path detection |
CN101975951B (zh) * | 2010-06-09 | 2013-03-20 | 北京理工大学 | 一种融合距离和图像信息的野外环境障碍检测方法 |
CN104331703A (zh) * | 2013-07-22 | 2015-02-04 | 博世汽车部件(苏州)有限公司 | 监测车辆行驶状态的方法及实现该方法的汽车导航设备 |
US9612123B1 (en) * | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
CN105667518B (zh) * | 2016-02-25 | 2018-07-24 | 福州华鹰重工机械有限公司 | 车道检测的方法及装置 |
US10145951B2 (en) * | 2016-03-30 | 2018-12-04 | Aptiv Technologies Limited | Object detection using radar and vision defined image detection zone |
CN106249239B (zh) * | 2016-08-23 | 2019-01-01 | 深圳市速腾聚创科技有限公司 | 目标检测方法及装置 |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
CN107161141B (zh) * | 2017-03-08 | 2023-05-23 | 深圳市速腾聚创科技有限公司 | 无人驾驶汽车系统及汽车 |
CN107202983B (zh) * | 2017-05-19 | 2020-11-13 | 深圳佑驾创新科技有限公司 | 基于图像识别和毫米波雷达融合的自动刹车方法和系统 |
CN107389084B (zh) * | 2017-06-09 | 2020-06-05 | 深圳市速腾聚创科技有限公司 | 行车路径规划方法及存储介质 |
CN107991671A (zh) * | 2017-11-23 | 2018-05-04 | 浙江东车智能科技有限公司 | 一种基于雷达数据和视频信号融合识别危险目标的方法 |
CN108297795A (zh) * | 2018-01-31 | 2018-07-20 | 成都华远科技有限公司 | 一种电动车的车道识别系统 |
KR20210022570A (ko) * | 2018-06-29 | 2021-03-03 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치 |
CN108960183B (zh) * | 2018-07-19 | 2020-06-02 | 北京航空航天大学 | 一种基于多传感器融合的弯道目标识别系统及方法 |
CN108957413A (zh) * | 2018-07-20 | 2018-12-07 | 重庆长安汽车股份有限公司 | 传感器目标定位准确度测试方法 |
CN109298415B (zh) * | 2018-11-20 | 2020-09-22 | 中车株洲电力机车有限公司 | 一种轨道和道路障碍物检测方法 |
CN109543600A (zh) * | 2018-11-21 | 2019-03-29 | 成都信息工程大学 | 一种实现可行驶区域检测方法及系统和应用 |
CN109829386B (zh) * | 2019-01-04 | 2020-12-11 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
CN109828571A (zh) * | 2019-02-18 | 2019-05-31 | 奇瑞汽车股份有限公司 | 基于v2x的自动驾驶车辆、方法和装置 |
CN109733284B (zh) * | 2019-02-19 | 2021-10-08 | 广州小鹏汽车科技有限公司 | 一种应用于车辆的安全泊车辅助预警方法及系统 |
-
2019
- 2019-06-18 CN CN201910525320.1A patent/CN112101069A/zh active Pending
-
2020
- 2020-06-18 WO PCT/CN2020/096755 patent/WO2020253764A1/zh unknown
- 2020-06-18 EP EP20825659.4A patent/EP3975042B1/en active Active
- 2020-06-18 JP JP2021575407A patent/JP7418476B2/ja active Active
-
2021
- 2021-12-17 US US17/644,920 patent/US11698459B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004117071A (ja) | 2002-09-24 | 2004-04-15 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP2007272292A (ja) | 2006-03-30 | 2007-10-18 | Denso It Laboratory Inc | 影認識方法及び影境界抽出方法 |
JP2014006588A (ja) | 2012-06-21 | 2014-01-16 | Toyota Central R&D Labs Inc | 路面境界推定装置及びプログラム |
JP2018092604A (ja) | 2016-11-25 | 2018-06-14 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム |
WO2019026438A1 (ja) | 2017-08-03 | 2019-02-07 | 株式会社小糸製作所 | 車両用照明システム、車両システム及び車両 |
Also Published As
Publication number | Publication date |
---|---|
JP2022537557A (ja) | 2022-08-26 |
US20220108552A1 (en) | 2022-04-07 |
EP3975042A4 (en) | 2022-08-17 |
US11698459B2 (en) | 2023-07-11 |
CN112101069A (zh) | 2020-12-18 |
WO2020253764A1 (zh) | 2020-12-24 |
EP3975042B1 (en) | 2024-01-03 |
EP3975042A1 (en) | 2022-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101829556B1 (ko) | 객체 움직임의 라이더 기반 분류 기법 | |
US20210350149A1 (en) | Lane detection method and apparatus,lane detection device,and movable platform | |
CN110794406B (zh) | 多源传感器数据融合系统和方法 | |
JP2008203992A (ja) | 検出装置および方法、並びに、プログラム | |
JP7418476B2 (ja) | 運転可能な領域情報を決定するための方法及び装置 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
WO2023207845A1 (zh) | 车位检测方法、装置、电子设备及机器可读存储介质 | |
CN115187941A (zh) | 目标检测定位方法、系统、设备及存储介质 | |
CN108629225B (zh) | 一种基于多幅子图与图像显著性分析的车辆检测方法 | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
CN114241448A (zh) | 障碍物航向角的获取方法、装置、电子设备及车辆 | |
CN117496515A (zh) | 点云数据标注方法、存储介质和电子设备 | |
CN114662600B (zh) | 一种车道线的检测方法、装置和存储介质 | |
Morales Rosales et al. | On-road obstacle detection video system for traffic accident prevention | |
JP2017116445A (ja) | 物体検出装置 | |
CN115359332A (zh) | 基于车路协同的数据融合方法、装置、电子设备及系统 | |
CN112835063B (zh) | 物体动静属性的确定方法、装置、设备及存储介质 | |
EP4260084A1 (en) | Radar perception | |
Hu | High-precision indoor robot dynamic obstacle detection with laser and camera | |
EP4099211A1 (en) | Method and device for training a machine learning algorithm | |
US20240077617A1 (en) | Perception for point clouds | |
US20230334692A1 (en) | Device and method for tracking an object | |
US20220402504A1 (en) | Methods and Systems for Generating Ground Truth Data | |
US20240230842A9 (en) | Method and apparatus of filtering dynamic objects in radar-based ego-emotion estimation | |
US20240134009A1 (en) | Method and apparatus of filtering dynamic objects in radar-based ego-emotion estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220308 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7418476 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |