JP7418476B2 - 運転可能な領域情報を決定するための方法及び装置 - Google Patents

運転可能な領域情報を決定するための方法及び装置 Download PDF

Info

Publication number
JP7418476B2
JP7418476B2 JP2021575407A JP2021575407A JP7418476B2 JP 7418476 B2 JP7418476 B2 JP 7418476B2 JP 2021575407 A JP2021575407 A JP 2021575407A JP 2021575407 A JP2021575407 A JP 2021575407A JP 7418476 B2 JP7418476 B2 JP 7418476B2
Authority
JP
Japan
Prior art keywords
information
region
pixel
interest
drivable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021575407A
Other languages
English (en)
Other versions
JP2022537557A (ja
Inventor
チー,チーンホワ
リュイ,コーァシーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2022537557A publication Critical patent/JP2022537557A/ja
Application granted granted Critical
Publication of JP7418476B2 publication Critical patent/JP7418476B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

[関連出願への相互参照]
この出願は、2019年6月18日付で中国国家知的財産管理局に出願された"運転可能な領域情報を決定するための方法及び装置"と題する中国特許出願第201910525320.1号に基づく優先権を主張し、その内容は、その全体が参照により本明細書に組み込まれる。
[技術分野]
この出願は、自動運転技術の分野に関し、特に、運転可能な領域情報を決定するための方法及び装置に関する。
車両の運転可能な領域は、その車両が位置している運転環境の中で、その車両が走行することが可能である領域である。その車両の運転可能な領域は、その車両が位置している運転環境の中の他の車両、歩行者、車両の運転可能ではない領域、及び道路における他の障害物領域等を避ける必要がある。
従来技術においては、カメラ装置を使用して、車両が位置している運転環境の中の検出されるべき領域の画像を撮影してもよく、そして、その次に、セマンティックセグメンテーションアルゴリズム又は畳み込みニューラルネットワーク(convolutional neural network, CNN)に基づくインスタンスセグメンテーションアルゴリズムを使用することによってその画像を識別して、その検出されるべき領域のうちの運転可能な領域を決定する。ところが、影又は障害物が存在する環境においては、カメラ装置は、光条件の影響を大きく受けるため、誤った判断が簡単に生起する。結果として、取得される運転可能な領域情報は正確ではない。加えて、レーザーレーダは、代替的に、検出されるべき領域にレーザーを送信するのに使用されてもよく、又は、車載型のレーダは、代替的に、検出されるべき領域に電磁波を送信するのに使用されてもよく、検出されるべき領域の中の障害物は、エコーを使用することによって決定される。したがって、検出されるべき領域のうちの運転可能な領域が決定される。ところが、レーザーレーダは、気候の影響を受けやすく、雨及び雪等の極端な気候の場合には、レーザーレーダの測定精度は低下する。結果として、取得される運転可能な領域情報は不正確である。車載型のレーダは、環境の中の雑音信号の影響を受けやすく、その雑音信号の振幅が検出しきい値を超えるときに、車載型のレーダは、障害物を誤って判断し、誤った警報を生起させ、又は、環境の中に複数の強い干渉の対象が存在するときに、車載型のレーダは、障害物の検知を誤る場合がある。結果として、取得される運転可能な領域情報は不正確である。
この出願の複数の実施形態は、運転可能な領域情報を決定するための方法及び装置を提供して、取得される運転可能な領域情報が不正確であるという問題を解決する。
第1の態様によれば、この出願のある1つの実施形態は、運転可能な領域情報を決定するための方法を提供する。その方法は、第1の情報を取得するステップであって、前記第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、前記少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像である、ステップと、第2の情報を取得するステップであって、前記第2の情報は、レーダ検出情報を含む、ステップと、前記第1の情報及び前記第2の情報に基づいて、第1の運転可能な領域情報を決定するステップと、を含む。
この実装においては、最初に、第1の情報を取得し、第1の情報は、画像に基づいて決定される初期の運転可能な領域に関する情報を含み、その次に、レーダ検出情報を含む第2の情報を取得し、そして、最後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定する。この実装によって提供される運転可能な領域情報を決定する方法にしたがって取得される第1の運転可能な領域情報は、画像情報及びレーダ検出情報を融合することによって取得され、高い精度を有し、例えば、カメラ装置が影又は障害物が存在する環境にあるとき、レーザーレーダが天候の影響を受けるとき、或いは、車載型のレーダが雑音信号の影響を受けるとき等、カメラ装置及びレーダ装置のうちのいずれか一方が実行する検出が、精密ではないときに、カメラ装置及びレーダ装置のうちの他方のものの検出情報を使用することによって、第1の運転可能な領域情報の精度を改善することが可能であり、車両走行の安全性を保証するということを理解することが可能である。
第1の態様に関して、第1の態様の第1の可能な実装において、前記レーダ検出情報は、前記初期の運転可能な領域の検出情報を含む。
この実装においては、レーダ検出情報の中に含まれる初期の運転可能な領域の検出情報は、第2の情報として決定される。続いて、レーダは、運転可能な領域情報を取得するための装置に、その初期の運転可能な領域の検出情報を送信しさえすればよく、それによって、データ伝送量は、比較的少なく、また、その後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定するときに、融合する必要があるデータの量は、比較的少なく、計算量は比較的少ない。したがって、運転可能な領域情報を決定する効率を改善することが可能である。
第1の態様に関して、第1の態様の第2の可能な実装において、当該方法は、前記第1の情報及び前記第2の情報に基づいて、関心領域が存在するか否かを決定するステップをさらに含む。
この実装においては、第1の運転可能な領域情報の精度は、さらに、関心領域が存在するか否かを決定することによって決定されてもよく、したがって、決定される第1の運転可能な領域情報の精度を保証する。
第1の態様に関して、第1の態様の第3の可能な実装において、当該方法は、関心領域が存在するということを決定するステップと、第2の運転可能な領域情報及び前記関心領域の領域情報を取得するステップと、前記関心領域の前記領域情報に基づいて、前記関心領域の検出結果を取得するステップと、前記第2の運転可能な領域情報及び前記関心領域の前記検出結果に基づいて、前記第1の運転可能な領域情報を決定するステップと、をさらに含む。
この実装においては、関心領域が存在するということを決定するときに、第1の情報及び第2の情報が融合された後に得られる情報を第2の運転可能な領域情報として決定し、関心領域の領域情報に基づいて、関心領域を検出して、関心領域の検出結果を取得し、最後に、第2の運転可能な領域情報及び関心領域の検出結果に基づいて、第1の運転可能な領域情報を決定し、それによって、決定される第1の運転可能な領域情報の精度は高くなり、その後、第1の運転可能な領域情報に基づいて車両が走行するときの安全性は高くなる。
第1の態様に関して、第1の態様の第4の可能な実装において、初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域に対応する少なくとも1つのピクセルに関する情報を含むか、又は、初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域の境界情報によって示される。
この実装においては、初期の運転可能な領域に関する情報は、その初期の運転可能な領域の境界情報を使用することによって示されてもよく、それによって、初期の運転可能な領域に関する情報を送信するときに、データ伝送量を減少させることが可能であるとともに、運転可能な領域情報を決定する効率を改善することが可能である。
第1の態様に関して、第1の態様の第5の可能な実装において、前記レーダ検出情報は、位置座標情報を含むか、又は、前記レーダ検出情報は、位置座標情報及び前記位置座標の共分散情報を含む。
この実装においては、レーダ検出情報は、位置座標に関する情報及び位置座標の共分散情報を含んでもよく、それによって、レーダが、運転可能な領域情報を取得するための装置にレーダ検出情報を送信した後に、運転可能な領域情報を取得するための装置は、レーダが検出する目標点をより正確に決定することが可能であり、したがって、後に決定される第1の運転可能な領域情報の精度を改善する。
第2の態様によれば、この出願のある1つの実施形態は、運転可能な領域情報を決定するための方法を提供する。その方法は、第1の情報を受信するステップであって、前記第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、前記少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像である、ステップと、第2の情報を生成するステップであって、前記第2の情報は、前記第1の情報に基づいて生成される前記初期の運転可能な領域のレーダ検出情報を含む、ステップと、前記第2の情報を送信するステップと、を含む。
この実装においては、最初に、第1の情報を受信し、その次に、第1の情報に基づいて、初期の運転可能な領域のレーダ検出情報を含む第2の情報を生成し、そして、最後に、運転可能な領域情報を取得するための装置に第2の情報を送信する。この実装によって提供される方法によれば、レーダは、運転可能な領域情報を取得するための装置に、初期の運転可能な領域のレーダ検出情報を送信しさえすればよく、それによって、データ伝送量は比較的少なくなり、その後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定するときに、融合する必要があるデータ量は、比較的少なくなり、計算量は、比較的小さくなるということを理解することが可能である。したがって、運転可能な領域情報を決定する効率を改善することが可能である。
第3の態様によれば、この出願のある1つの実施形態は、運転可能な領域情報を決定するための装置を提供する。その装置は、第1の情報を取得するように構成される取得モジュールであって、前記第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、前記少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像であり、前記取得モジュールは、さらに、第2の情報を取得するように構成され、前記第2の情報は、レーダ検出情報を含む、取得モジュールと、前記第1の情報及び前記第2の情報に基づいて、第1の運転可能な領域情報を決定するように構成される決定モジュールと、を含む。
この第1の実装によって提供される装置は、最初に、第1の情報を取得し、第1の情報は、画像に基づいて決定される初期の運転可能な領域に関する情報を含み、その次に、レーダ検出情報を含む第2の情報を取得し、そして、最後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定する。この実装によって提供される運転可能な領域情報を決定する装置にが取得する第1の運転可能な領域情報は、画像情報及びレーダ検出情報を融合することによって取得され、高い精度を有し、例えば、カメラ装置が影又は障害物が存在する環境にあるとき、レーザーレーダが天候の影響を受けるとき、或いは、車載型のレーダが雑音信号の影響を受けるとき等、カメラ装置及びレーダ装置のうちの一方が実行する検出が、精密ではないときに、カメラ装置及びレーダ装置のうちの他方のものの検出情報を使用することによって、第1の運転可能な領域情報の精度を改善することが可能であり、車両走行の安全性を保証するということを理解することが可能である。
第3の態様に関して、第3の態様の第1の可能な実装において、前記レーダ検出情報は、前記初期の運転可能な領域の検出情報を含む。
この実装によって提供される装置は、第2の情報として、初期の運転可能な領域の検出情報のうちでレーダ検出情報の中に含まれる検出情報を決定する。その後、レーダは、運転可能な領域情報を取得するための装置に、初期の運転可能な領域の検出情報を送信しさえすればよく、それによって、データ伝送量は、比較的少なくなり、その後に、第1の情報及び第2の情報に基づいて第1の運転可能な領域情報を決定するときに、融合する必要があるデータ量は比較的少なくなり、そして、計算量は比較的少なくなる。したがって、運転可能な領域情報を決定する効率を改善することが可能である。
第3の態様に関して、第3の態様の第2の可能な実装において、前記決定モジュールは、さらに、前記第1の情報及び前記第2の情報に基づいて、関心領域が存在するか否かを決定するように構成される。
この実装によって提供される装置は、関心領域が存在するか否かを決定することによって、第1の運転可能な領域情報の精度を決定してもよく、したがって、決定される第1の運転可能な領域情報の精度を保証する。
第3の態様に関して、第3の態様の第3の可能な実装において、前記決定モジュールは、さらに、関心領域が存在するということを決定するように構成され、前記取得モジュールは、さらに、第2の運転可能な領域情報及び前記関心領域の領域情報を取得するように構成され、前記取得モジュールは、さらに、前記関心領域の前記領域情報に基づいて、前記関心領域の検出結果を取得するように構成され、前記決定モジュールは、さらに、前記第2の運転可能な領域情報及び前記関心領域の前記検出結果に基づいて、前記第1の運転可能な領域情報を決定するように構成される。
関心領域が存在するということを決定するときに、この実装によって提供される装置は、第2の運転可能な領域情報として、第1の情報及び第2の情報を融合した後に得られる情報を決定し、関心領域の領域情報に基づいて、関心領域を検出して、関心領域の検出結果を取得し、そして、最後に、第2の運転可能な領域情報及び関心領域の検出結果に基づいて、第1の運転可能な領域情報を決定し、それによって、決定される第1の運転可能な領域情報の精度は高くなり、その後に、車両が第1の運転可能な領域情報に基づいて走行するときの安全性は高くなる。
第3の態様に関して、第3の態様の第4の可能な実装において、初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域に対応する少なくとも1つのピクセルに関する情報を含むか、又は、初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域の境界情報によって示される。
この実装によって提供される装置によれば、初期の運転可能な領域の境界情報を使用することによって、初期の運転可能な領域に関する情報を示してもよく、それによって、初期の運転可能な領域に関する情報を送信するときに、データ伝送量を減少させることが可能であるとともに、運転可能な領域情報を決定する効率を改善することが可能である。
第3の態様に関して、第3の態様の第5の可能な実装において、前記レーダ検出情報は、位置座標情報を含むか、又は、前記レーダ検出情報は、位置座標情報及び前記位置座標の共分散情報を含む。
この実装によって提供される装置によれば、レーダ検出情報は、位置座標に関する情報及び位置座標の共分散情報を含んでもよく、レーダが、運転可能な領域情報を取得する装置にレーダ検出情報を送信した後に、運転可能な領域情報を取得する装置は、レーダが検出する目標点をより正確に決定することが可能であり、したがって、その後に決定される第1の運転可能な領域情報の精度を改善する。
第4の態様によれば、この出願のある1つの実施形態は、運転可能な領域情報を決定するための装置を提供する。その装置は、第1の情報を受信するように構成される受信モジュールであって、前記第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、前記少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像である、受信モジュールと、第2の情報を生成するように構成される生成モジュールであって、前記第2の情報は、前記第1の情報に基づいて生成される前記初期の運転可能な領域のレーダ検出情報を含む、生成モジュールと、前記第2の情報を送信するように構成される送信モジュールと、を含む。
この実装によって提供される装置は、最初に、第1の情報を受信し、その次に、第1の情報に基づいて、初期の運転可能な領域のレーダ検出情報を含む第2の情報を生成し、そして、最後に、運転可能な領域情報を取得するための装置に第2の情報を送信する。この実装によって提供される装置によれば、レーダは、運転可能な領域情報を取得する装置に、初期の運転可能な領域のレーダ検出情報を送信しさえすればよく、それによって、データ伝送量は、比較的少なくなり、その後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定するときに、融合する必要があるデータ量は、比較的小さくなり、演算量は、比較的少なくなるということを理解することが可能である。したがって、運転可能な領域情報を決定する効率を改善することが可能である。
第5の態様によれば、この出願のある1つの実施形態は、装置を提供する。その装置は、プロセッサを含み、そのプロセッサは、メモリに結合するように構成され、そのプロセッサは、メモリの中の命令を読み取るように構成され、それによって、その装置は、それらの命令にしたがって、第1の態様、第2の態様、第1の態様の可能な実装、及び第2の態様の可能な実装のうちのいずれか1つにしたがった方法を実行する。
第6の態様によれば、この出願のある1つの実施形態は、コンピュータ記憶媒体を提供する。そのコンピュータ記憶媒体は、命令を格納し、それらの命令がコンピュータによって実行されるときに、そのコンピュータが、第1の態様、第2の態様、第1の態様の可能な実装、及び第2の態様の可能な実装のうちのいずれか1つにしたがった方法の複数のステップのうちの一部又はすべてを実行することを可能とする。
第7の態様によれば、この出願のある1つの実施形態は、コンピュータプログラム製品を提供する。コンピュータプログラム製品がコンピュータによって実行されるときに、そのコンピュータが、第1の態様、第2の態様、第1の態様の可能な実装、及び第2の態様の可能な実装のうちのいずれか1つにしたがった方法の複数のステップのうちの一部又はすべてを実行することを可能とする。
取得される運転可能な領域情報が正確ではないという問題を解決するために、この出願のそれらの複数の実施形態は、運転可能な領域情報を決定するための方法及び装置を提供する。この方法においては、最初に、第1の情報を取得し、その第1の情報は、画像に基づいて決定される初期の運転可能な領域に関する情報を含み、その次に、レーダ検出情報を含む第2の情報を取得し、そして、最後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定する。この出願によって提供される運転可能な領域情報を決定する方法にしたがって取得される第1の運転可能な領域情報は、画像情報及びレーダ検出情報を融合することによって取得され、高い精度を有し、また、例えば、カメラ装置が影又は障害物が存在する環境にあるとき、レーザーレーダが天候の影響を受けているとき、或いは、車載型のレーダが雑音信号の影響を受けているとき等、カメラ装置及びレーダ装置のうちの一方が実行する検出が正確ではないときに、カメラ装置及びレーダ装置のうちの他方の検出情報を使用することによって、第1の運転可能な領域情報の精度を改善することが可能であり、車両走行の安全性を保証する。
この出願にしたがった運転可能な領域情報を決定するためのシステムの実装の構成上のブロック図である。 この出願にしたがった運転可能な領域情報を決定するためのシステムの他の実装の構成上のブロック図である。 この出願にしたがった運転可能な領域情報を決定するための方法の実装の概略的なフローチャートである。 この出願にしたがって第1の情報を取得するための方法の実装の概略的なフローチャートである。 この出願にしたがって第1の情報を取得するための方法の他の実装の概略的なフローチャートである。 この出願にしたがって第1の情報を取得するための方法の他の実装の概略的なフローチャートである。 この出願にしたがって第2の情報を取得するための方法の実装の概略的なフローチャートである。 この出願にしたがって第2の情報を取得するための方法の他の実装の概略的なフローチャートである。 この出願にしたがって第2の情報を取得するための方法の他の実装の概略的なフローチャートである。 この出願にしたがって第2の情報を取得するための方法の他の実装の概略的なフローチャートである。 この出願にしたがって第2の情報を取得するための方法の他の実装の概略的なフローチャートである。 この出願にしたがって第1の情報及び第2の情報に基づいて第1の運転可能な領域情報を決定するための方法の実装の概略的なフローチャートである。 この出願にしたがって第1の情報及び第2の情報に基づいて第1の運転可能な領域情報を決定するための方法の他の実装の概略的なフローチャートである。 この出願にしたがって第1の情報及び第2の情報に基づいて第1の運転可能な領域情報を決定するための方法の他の実装の概略的なフローチャートである。 この出願にしたがって運転可能な領域情報を決定するための装置の実装の構成上のブロック図である。 この出願にしたがって運転可能な領域情報を決定するための装置の他の実装の構成上のブロック図である。
以下の記載は、複数の添付の図面を参照して、この出願の技術的解決方法を説明する。
最初に、この出願によって提供される運転可能な領域情報を決定するためのシステムを説明することとし、そのシステムの中で、この出願によって提供される運転可能な領域情報を決定するための方法を実装することが可能である。
図1は、この出願にしたがって運転可能な領域情報を決定するためのシステムの実装の構成上のブロック図である。図2は、この出願にしたがって運転可能な領域情報を決定するためのシステムの他の実装の構成上のブロック図である。図1又は図2を参照すると、システム100は、カメラモジュール10、レーダ20、及び融合モジュール30を含んでいてもよいということを理解することが可能である。少なくとも1つのカメラモジュール10が存在し、そのカメラモジュール10は、車両が位置している運転環境の画像を撮影し、そして、その撮影された画像に基づいて、初期の運転可能な領域に関する情報を決定するように構成されてもよい。レーダ20は、レーザーレーダ又は車載型のレーダであってもよく、車両が位置している運転環境においてレーザー又は電磁波を伝送し、そして、レーザー又は電磁波のエコーに基づいて、レーダ検出情報を生成するように構成されてもよい。融合モジュール30は、カメラモジュール10が決定する初期の運転可能な領域についての情報及びレーダ20が生成するレーダ検出情報を融合して、車両の運転可能な領域情報を取得するように構成されてもよく、それによって、車両が、その運転可能な領域情報に基づいて走行するときに、安全性は高くなる。融合モジュール30は、(図1に示されているように)個別に配置されてもよく、又は、(図2に示されているように)カメラモジュール10の中に配置されてもよい。
当業者は、図1又は図2に示されている運転可能な領域情報を決定するためのシステムの構成は、この出願における運転可能な領域情報を決定するためのシステムに対する限定を構成するものではないということを理解することが可能である。この出願における運転可能な領域情報を決定するためのシステムは、図に示されている構成要素よりも多くの構成要素又はより少ない構成要素を含んでもよく、或いは、それらの複数の構成要素のうちのいくつかを組み合わせてもよく、或いは、システムは、複数の異なる構成要素の配列を有してもよい。ハードウェア、ソフトウェア、又は、ソフトウェア及びハードウェアの組み合わせによって、図に示されているそれらの複数の構成要素を実装してもよい。
以下の記載は、この出願によって提供される運転可能な領域情報を決定するための方法の複数の実施形態を説明する。
図3は、この出願にしたがって運転可能な領域情報を決定するための方法の実装の概略的なフローチャートである。その方法は、個別に配置される融合モジュールによって実行されてもよく又は融合モジュールをその内部に備えるカメラモジュールによって実行されてもよい。図3を参照すると、その方法は、以下のステップを含むということを理解することが可能である。
ステップ101: 第1の情報を取得する。
第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像である。さらに、第1の情報の具体的な内容については、以降の実施形態の内容を参照すべきである。
第1の情報は、複数の実装にしたがって取得されてもよい。図3に示されている方法が、図4に示されているように、融合モジュールをその内部に備えるカメラモジュールによって実行されるときに、第1の情報を取得するステップは、以下の複数のステップにしたがって実装されてもよい。
ステップ201: カメラモジュールは、検出されるべき領域の画像を撮影する。
検出されるべき領域は、車両が位置していて運転可能な領域情報が決定されるべき運転環境の中に存在する検出領域である。言い換えると、車両が位置している運転環境の中で、運転可能な領域情報を決定する必要がある検出領域を、検出されるべき領域であると決定してもよい。例えば、車両の目前にある検出領域の中の運転可能な領域情報を決定する必要があるときに、その車両の目前にあるその検出領域を、検出されるべき領域であると決定してもよく、又は、車両の背後にある検出領域の中の運転可能な領域情報を決定する必要があるときに、その車両の背後にある検出領域を、検出されるべき領域であると決定してもよい。類推によって、その車両が位置している運転環境の中の他の検出領域の中の運転可能な領域情報を決定する必要があるときに、その検出領域は、検出されるべき領域であると決定されてもよい。本明細書の中では、複数の例を1つずつは記載しない。
検出されるべき領域の1つ又は複数の画像が存在してもよい。検出されるべき領域の複数の画像が存在する場合に、それらの複数の画像は、1つのカメラモジュールによって撮影されてもよく又は複数のカメラモジュールによって撮影されてもよい。
ステップ202: カメラモジュールは、画像を分類し及び識別して、検出されるべき領域の画像情報を取得する。
選択的に、カメラモジュールは、セマンティックセグメンテーションアルゴリズム又はCNNに基づくインスタンスセグメンテーションアルゴリズムを使用することによって、画像を分類し及び識別して、検出されるべき領域の画像情報を取得してもよい。検出されるべき領域の画像情報は、検出されるべき領域に対応するm個のピクセルに関する情報を含み、それらのm個のピクセルに関する情報は、ピクセル座標系の中で、[(a1,b1,c1),(a2,b2,c2),…,(ai,bi,ci),…,(am,bm,cm)]として表されてもよく、ai及びbiは、検出されるべき領域に対応するi番目のピクセルの位置座標を示し、ciは、i番目のピクセルのカテゴリを示し、mは、1以上の整数である。
検出されるべき領域の画像情報は、代替的に、車両座標系によって又はワールド座標系によって表現されるように変換されてもよいということに留意すべきである。
ステップ203: カメラモジュールは、画像情報に基づいて第1の情報を決定し、第1の情報は、初期の運転可能な領域に関する情報を含む。
検出されるべき領域の画像情報を取得した後に、カメラモジュールは、その画像情報の中の各々のピクセルに対応するカテゴリに基づいて、カテゴリが"運転可能な"であるピクセルのすべてに関する情報を、初期の運転可能な領域に関する情報であると決定し、それに対応して、カテゴリが"運転可能な"であるピクセルのすべてを含む領域を初期の運転可能な領域であると決定する。
初期の運転可能な領域に関する情報は、複数の方式によって表されてもよい。複数の例を以下に示す。
方式1: 初期の運転可能な領域に関する情報は、その初期の運転可能な領域に対応するn個のピクセルに関する情報を含み、それらのn個のピクセルに関する情報は、ピクセル座標系の中で、[(d1,e1),(d2,e2),…,(di,ei),…,(dn,en)]として表されてもよく、di及びeiは、初期の運転可能な領域に対応するi番目のピクセルの座標を示し、nは、1以上の整数であり、nは、m以下である。
方式2: 初期の運転可能な領域に関する情報は、その初期の運転可能な領域の境界情報を使用することによって表されてもよい。境界情報は、f個のピクセルに関する情報を含み、それらのf個のピクセルに関する情報は、ピクセル座標系の中で、[(u1,h1),(u2,h2),(u3,h3),…,(ui,hi),…,(uf,hf)]として表されてもよく、ui、hiは、境界情報の中のi番目のピクセルの位置座標を示し、fは、1以上の整数であり、fは、n以下である。
方式3: 初期の運転可能な領域に関する情報は、その初期の運転可能な領域の境界情報を使用することによって表されてもよい。その境界情報は、r個のピクセルに関する情報を含み、それらのr個のピクセルに関する情報は、ピクセル座標系の中で、[step,(g1,k1),k2,k3,…,ki,…,kr]又は[step,(g1,k1),k2,k3,…,ki,…,kr,method]として表されてもよく、g1、k1は、境界情報の中の最初のピクセルの位置座標を示し、kiは、境界情報の中のi番目のピクセルの垂直座標を示し、i番目のピクセルの水平座標は、stepに基づいて取得され、そのstepは、i番目のピクセルの水平座標と(i+1)番目のピクセルの水平座標との間の間隔ステップを示し、i番目のピクセルの水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、i番目のピクセルの水平座標と(i+1)番目のピクセルの水平座標との間の間隔ステップと同じであり、その方法は、すべての間隔ステップの間の接続関係を示し、rは、1以上の整数であり、rは、nよりも小さい。
方式4: 初期の運転可能な領域に関する情報は、その初期の運転可能な領域の境界情報を使用することによって表されてもよい。境界情報は、s個のピクセルに関する情報を含み、それらのs個のピクセルに関する情報は、ピクセル座標系の中で、[(p1,q1),(p2,q2),(p3,q3),…,(pi,qi),…,(ps,qs),method]と表されてもよく、pi、qiは、境界情報の中のi番目のピクセルの位置座標を示し、i番目のピクセルの水平座標と(i+1)番目のピクセルの水平座標との間に間隔ステップが存在し、i番目のピクセルの水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、i番目のピクセルの水平座標と(i+1)番目のピクセルの水平座標との間の間隔ステップとは異なり、その方法は、すべての間隔ステップの間の接続関係を示し、sは、1以上の整数であり、sは、nよりも小さい。
方式3又は方式4にしたがった方法は、複数の方式に設定されてもよい。例えば、その方法は、線形補間、2次補間、3次スプライン補間、又は形状保存の区分的な3次補間に設定されてもよい。
代替的に、車両座標系によって又はワールド座標系によって表されるように、初期の運転可能な領域に関する情報を変換してもよいということに留意すべきである。
図4に示されている方法を使用して、第1の情報を取得するときには、融合モジュールは、カメラモジュールの中に配置されているため、第1の情報は、融合モジュールによって直接的に取得され、それによって、データ伝送量を減少させるとともに、その後に、運転可能な領域情報を決定する効率を改善することが可能である。
図3に示されている方法が、図5に示されているように、個別に配置される融合モジュールによって実行されるときに、第1の情報を取得するステップは、代替的に、以下のステップにしたがって実装されてもよい。
ステップ301: カメラモジュールは、検出されるべき領域の画像を撮影する。
ステップ302: カメラモジュールは、画像を分類し及び識別して、検出されるべき領域の画像情報を取得する。
ステップ301及びステップ302の具体的な実装については、図4に示されている実施形態の中のステップ201及びステップ202を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ303: カメラモジュールは、融合モジュールに画像情報を送信する。
ステップ304: 融合モジュールは、カメラモジュールが送信する画像情報を受信する。
ステップ305: 融合モジュールは、画像情報に基づいて第1の情報を決定し、第1の情報は、初期の運転可能な領域に関する情報を含む。
ステップ305の具体的な実装については、図4に示されている実施形態の中のステップ203を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
図5に示されている方法を使用して、第1の情報を取得するときに、カメラモジュールの中のデータ計算量を減少させることが可能であるとともに、カメラモジュールのオーバーヘッドを減少させることが可能であり、それにより、カメラモジュールのリソースを節約することが可能である。
図3に示されている方法が、図6に示されているように、個別に配置される融合モジュールによって実行されるときに、第1の情報を取得するステップは、代替的に、以下のステップにしたがって実装されてもよい。
ステップ401: カメラモジュールは、検出されるべき領域の画像を撮影する。
ステップ402: カメラモジュールは、画像を分類し及び識別して、検出されるべき領域の画像情報を取得する。
ステップ403: カメラモジュールは、画像情報に基づいて第1の情報を決定し、第1の情報は、初期の運転可能な領域に関する情報を含む。
ステップ401乃至ステップ403の具体的な実装については、図4に示されている実施形態の中のステップ201乃至ステップ203を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ404: カメラモジュールは、融合モジュールに第1の情報を送信する。
カメラモジュールが融合モジュールに第1の情報を送信するときに、上記の方式2乃至方式4のうちのいずれかによって、第1の情報の中に含まれる初期の運転可能な領域に関する情報を表す場合には、データ伝送量を減少させることが可能であるとともに、その後に、運転可能な領域情報を決定する効率を改善することが可能である。
ステップ405: 融合モジュールは、カメラモジュールが送信する第1の情報を受信する。
図6に示されている方法を使用して、第1の情報を取得するときに、融合モジュールにおけるデータ計算量を減少させることが可能であるとともに、融合モジュールのオーバーヘッドを減少させることが可能であり、それにより、融合モジュールのリソースを節約することが可能である。
ステップ102: 第2の情報を取得する。
第2の情報は、レーダ検出情報を含む。さらに、第2の情報の具体的な内容については、以降の実施形態の内容を参照すべきである。
第2の情報は、複数の実装にしたがって取得されてもよい。図7に示されているように、第2の情報を取得するステップは、以下のステップにしたがって実装されてもよい。
ステップ501: レーダは、検出されるべき領域を検出して、第2の情報を取得し、第2の情報は、検出されるべき領域のレーダ検出情報を含む。
レーダは、レーザーレーダであってもよく又は車載型のレーダであってもよい。検出されるべき領域にレーザー又は電磁波を伝送した後に、レーダは、レーザー又は電磁波のエコーを使用することによって、検出されるべき領域のレーダ検出情報を取得してもよい。
検出されるべき領域のレーダ検出情報は、検出されるべき領域に対応するt個の目標点に関する情報を含み、それらのt個の目標点に関する情報は、車両座標系又はワールド座標系の中で、[(X1,Y1),(X2,Y2),…,(Xi,Yi),…,(Xt,Yt)]又は[(X1,Y1,R1),(X2,Y2,R2),…,(Xi,Yi,Ri),…,(Xt,Yt,Rt)]として表されてもよく、Xi及びYiは、検出されるべき領域に対応するi番目の目標点の位置座標情報を示し、Riは、i番目の目標点の位置座標の共分散情報を示し、tは、1以上の整数である。
ステップ502: レーダは、運転可能な領域情報を取得するための装置に、第2の情報を送信する。
ステップ503: 運転可能な領域情報を取得するための装置は、レーダが送信する第2の情報を受信する。
図3に示されている方法が、個別に配置される融合モジュールによって実行されるときに、図7に示されている実施形態においては、運転可能な領域情報を取得するための装置は、個別に配置される融合モジュールである。図3に示されている方法が、その内部に融合モジュールを備えるカメラモジュールによって実行されるときに、図7に示されている実施形態においては、運転可能な領域情報を取得するための装置は、その内部に融合モジュールを備えるカメラモジュールである。
図7に示されている方法を使用して、第2の情報を取得するときに、レーダにおけるデータ計算量を減少させることが可能であるとともに、レーダのオーバーヘッドを減少させることが可能であり、それにより、レーダのリソースを節約することが可能である。
図7に示されている実装を使用して、第2の情報を取得するときに、レーダは、運転可能な領域情報を取得するための装置に、検出されるべき領域のレーダ検出情報を送信する必要があり、その結果、データ伝送量は、比較的大きくなり、その後、第1の情報及び第2の情報に基づいて、運転可能な領域情報を決定するときに、融合する必要があるデータ量は、相対的に大きくなり、演算量は、相対的に大きくなる。したがって、運転可能な領域情報を決定する効率は、比較的低くなる。この問題を解決するために、図8A及び図8Bに示されているように、第2の情報を取得するステップは、代替的に、以下のステップにしたがって実装されてもよい。
ステップ601: カメラモジュールは、検出されるべき領域の画像を撮影する。
ステップ602: カメラモジュールは、画像を分類し及び識別して、検出されるべき領域の画像情報を取得する。
ステップ603: カメラモジュールは、画像情報に基づいて第1の情報を決定し、第1の情報は、初期の運転可能な領域に関する情報を含む。
ステップ601乃至ステップ603の具体的な実装形態については、図4に示されている実施形態の中のステップ201乃至ステップ203を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ604: カメラモジュールは、レーダに第1の情報を送信する。
カメラモジュールが、レーダに、初期の運転可能な領域に関する情報を含む第1の情報を送信するときに、車両座標系又はワールド座標系の中で表されるように、初期の運転可能な領域に関する情報を変換する必要がある。
ステップ605: レーダは、カメラモジュールが送信する第1の情報を受信する。
ステップ606: レーダは、検出されるべき領域を検出して、検出されるべき領域のレーダ検出情報を取得する。
ステップ606の具体的な実装については、図7に示されている実施形態の中のステップ501を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ607: レーダは、第1の情報に基づいて第2の情報を決定し、第2の情報は、レーダ検出情報の中に含まれる初期の運転可能な領域の検出情報である。
ステップ608: レーダは、運転可能な領域情報を取得するための装置に、第2の情報を送信する。
ステップ609: 運転可能な領域情報を取得するための装置は、レーダが送信する第2の情報を受信する。
図3に示されている方法が、個別に配置される融合モジュールによって実行されるときに、図8A及び図8Bに示されている実施形態においては、運転可能な領域情報を取得するための装置は、個別に配置される融合モジュールである。図3に示されている方法が、その内部に融合モジュールを備えるカメラモジュールによって実行されるときに、図8A及び図8Bに示されている実施形態においては、運転可能な領域情報を取得するための装置は、その内部に融合モジュールを備えるカメラモジュールである。
図8A及び図8Bに示されている実施形態においては、ステップ605及びステップ606の実行順序を変更してもよい。言い換えると、ステップ605は、ステップ606の前に実行されてもよく、又は、ステップ606は、ステップ605の前に実行されてもよい。このことは、この出願においては限定されない。
図8A及び図8Bに示されている方法を使用して、第2の情報を取得するときに、レーダは、運転可能な領域情報を取得するための装置に、初期の運転可能な領域の検出情報を送信しさえすればよく、それによって、データ伝送量は、比較的小さくなり、その後に、第1の情報及び第2の情報に基づいて運転可能な領域情報を決定するときに、融合する必要があるデータ量は、比較的小さくなり、計算量は、比較的小さくなる。したがって、運転可能な領域情報を決定する効率を改善することが可能である。
図9A及び図9Bに示されているように、第2の情報を取得するステップは、代替的に、以下のステップにしたがって実装されてもよい。
ステップ701: カメラモジュールは、検出されるべき領域の画像を撮影する。
ステップ702: カメラモジュールは、画像を分類し及び識別して、検出されるべき領域の画像情報を取得する。
ステップ703: カメラモジュールは、画像情報に基づいて第1の情報を決定し、第1の情報は、初期の運転可能な領域に関する情報を含む。
ステップ701乃至ステップ703の具体的な実装については、図4に示されている実施形態の中のステップ201乃至ステップ203を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ704: カメラモジュールは、レーダに第1の情報を送信する。
カメラモジュールが、レーダに初期の運転可能な領域に関する情報を含む第1の情報を送信するときに、車両座標系又はワールド座標系の中で表されるように、初期の運転可能な領域に関する情報を変換する必要がある。
ステップ705: レーダは、カメラモジュールが送信する第1の情報を受信する。
ステップ706: レーダは、第1の情報に基づいて、初期の運転可能な領域を検出して、第2の情報を取得し、第2の情報は、初期の運転可能な領域のレーダ検出情報を含む。
ステップ706の具体的な実装については、図7に示されている実施形態の中のステップ501を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ707: レーダは、運転可能な領域情報を取得するための装置に、第2の情報を送信する。
ステップ708: 運転可能な領域情報を取得するための装置は、レーダが送信する第2の情報を受信する。
図3に示されている方法が、個別に配置される融合モジュールによって実行されるときに、図9A及び図9Bに示されている実施形態においては、運転可能な領域情報を取得するための装置は、個別に配置される融合モジュールである。図3に示されている方法が、その内部に融合モジュールを備えるカメラモジュールによって実行されるときに、図9A及び図9Bに示されている実施形態においては、運転可能な領域情報を取得するための装置は、その内部に融合モジュールを備えるカメラモジュールである。
図9A及び図9Bに示されている方法を使用して、第2の情報を取得するときに、レーダは、運転可能な領域情報を取得するための装置に、初期の運転可能な領域の検出情報を送信しさえすればよく、それによって、データ伝送量は、比較的小さくなり、その後に、第1の情報及び第2の情報に基づいて運転可能な領域情報を決定するときに、融合する必要があるデータ量は、比較的小さくなり、計算量は、比較的小さくなる。したがって、運転可能な領域情報を決定する効率を改善することが可能である。
ステップ103: 第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定する。
図3に示されている方法が、個別に配置される融合モジュール又はその内部に融合モジュールを備えるカメラモジュールによって実行されるときに、第1の情報及び第2の情報に基づいて第1の運転可能な領域情報を決定するステップは、第1の情報及び第2の情報を融合し、そして、第1の情報及び第2の情報を融合した後に生成される情報を第1の運転可能な領域情報であると決定するという方式によって実装されてもよい。
第1の運転可能な領域情報の精度をさらに改善するために、第1の情報及び第2の情報に基づいて第1の運転可能な領域情報を決定するステップは、代替的に、以下の2つの方式によって実装されてもよい。
第1の方式の場合には、図3に示されている方法は、その内部に融合モジュールを備えるカメラモジュールによって実行され、図10に示されているように、第1の情報及び第2の情報に基づいて第1の運転可能な領域情報を決定するステップは、以下のステップにしたがって実装されてもよい。
ステップ801: 融合モジュールは、第1の情報及び第2の情報に基づいて、関心領域が存在するか否かを決定する。
融合モジュールは、例えば、ベイズアルゴリズム等の統計的融合アルゴリズムを使用することによって、第1の情報及び第2の情報を融合し、その融合の結果に基づいて、初期の運転可能な領域の中に、疑わしい検出結果を有する領域、すなわち、正確でない検出結果を有する領域が存在するか否かを決定する。この出願のこの実施形態においては、疑わしい検出結果を有する領域は、簡潔にするために、関心領域(region of interest, ROI)と称される。
ステップ802: 融合モジュールが、関心領域が存在しないということを決定する場合に、融合モジュールは、ステップ804を実行する。
ステップ803: 融合モジュールが、関心領域が存在するということを決定する場合に、融合モジュールは、ステップ805を実行する。
ステップ804: 融合モジュールは、第1の情報及び第2の情報を融合し、そして、第1の情報及び第2の情報を融合した後に得られる情報を、第1の運転可能な領域情報であると決定する。
ステップ805: 融合モジュールは、第1の情報及び第2の情報を融合し、そして、第1の情報及び第2の情報を融合した後に得られる情報を、第2の運転可能な領域情報であると決定する。
ステップ806: 融合モジュールは、関心領域の領域情報を決定する。
融合モジュールは、ステップ801において得られる融合の結果に基づいて、関心領域の領域情報を決定してもよい。
ステップ807: カメラモジュールは、融合モジュールが決定する関心領域の領域情報に基づいて、関心領域を検出して、関心領域の検出結果を取得する。
カメラモジュールは、関心領域の領域情報に基づいて、再度、検出されるべき領域の画像を分類し及び識別し、その分類及び識別の結果に基づいて、関心領域に対応するピクセルのカテゴリが、"運転可能な"であるか否かを決定し、そして、その関心領域が、車両が走行することが可能である領域であるか否かを決定する。
このことに基づいて、関心領域の検出結果は、その関心領域が、車両が走行することが可能である領域であるということ、又は、その関心領域が、車両が走行することが不可能である障害物領域であるということを含む。
選択的に、ステップ807を実行するときに、カメラモジュールは、セマンティックセグメンテーションアルゴリズム又はCNNに基づくインスタンスセグメンテーションアルゴリズムを使用することによって、検出されるべき領域の画像を分類し及び識別してもよく、或いは、例えば、サポートベクトルマシン(SVM)分類器又はAdaBoost分類器等の比較的単純な他の分類器を使用することによって、検出されるべき領域の画像を分類し及び識別してもよい。
ステップ808: 融合モジュールは、第2の運転可能な領域情報及び関心領域の検出結果に基づいて、第1の運転可能な領域情報を決定する。
関心領域の検出結果が、その関心領域が、車両が走行することが可能である領域であるということである場合に、融合モジュールは、第2の運転可能な領域情報を第1の運転可能な領域情報であると決定する。代替的に、関心領域の検出結果が、その関心領域が、車両が走行することが不可能である障害物領域であるということである場合に、融合モジュールは、その関心領域の領域情報以外の第2の運転可能な領域情報の中の情報を第1の運転可能な領域情報であると決定する。
図10に示されている方法を使用して、第1の運転可能な領域情報を決定するときに、第1の運転可能な領域情報を決定するステップは、より正確であり、そして、車両がその後に第1の運転可能な領域情報に基づいて走行するときに、安全性はより高くなる。
第2の方式の場合には、図3に示されている方法は、個別に配置される融合モジュールによって実行され、図11A及び図11Bに示されているように、第1の情報及び第2の情報に基づいて第1の運転可能な領域情報を決定するステップは、以下のステップにしたがって実装されてもよい。
ステップ901: 融合モジュールは、第1の情報及び第2の情報に基づいて、関心領域が存在するか否かを決定する。
ステップ901の具体的な実装については、図10に示されている実施形態のステップ801を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ902: 融合モジュールが、関心領域が存在しないということを決定する場合に、融合モジュールは、ステップ904を実行する。
ステップ903: 融合モジュールが、関心領域が存在するということを決定する場合に、融合モジュールは、ステップ905を実行する。
ステップ904: 融合モジュールは、第1の情報及び第2の情報を融合し、そして、第1の情報及び第2の情報を融合した後に得られる情報を第1の運転可能な領域情報であると決定する。
ステップ905: 融合モジュールは、第1の情報及び第2の情報を融合し、そして、第1の情報及び第2の情報を融合した後に得られる情報を第2の運転可能な領域情報であると決定する。
ステップ906: 融合モジュールは、関心領域の領域情報を決定する。
ステップ906の具体的な実装については、図10に示されている実施形態の中のステップ806を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ907: 融合モジュールは、カメラモジュールに関心領域の領域情報を送信する。
ステップ908: カメラモジュールは、融合モジュールが送信する関心領域の領域情報を受信する。
ステップ909: カメラモジュールは、関心領域の領域情報に基づいて関心領域を検出して、関心領域の検出結果を取得する。
ステップ909の具体的な実装については、図10に示されている実施形態の中のステップ807を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
ステップ910: カメラモジュールは、融合モジュールに関心領域の検出結果を送信する。
ステップ911: 融合モジュールは、カメラモジュールが送信する関心領域の検出結果を受信する。
ステップ912: 融合モジュールは、第2の運転可能な領域情報及び関心領域の検出結果に基づいて、第1の運転可能な領域情報を決定する。
ステップ912の具体的な実装については、図10に示されている実施形態の中のステップ808を参照すべきである。本明細書においては、詳細は繰り返しては説明されない。
図11A及び図11Bに示されている方法を使用して、第1の運転可能な領域情報を決定するときに、第1の運転可能な領域情報を決定するステップは、より正確であり、そして、車両がその後に第1の運転可能な領域情報に基づいて走行するときに、安全性はより高くなる。
この出願によって提供される運転可能な領域情報を決定するための方法によれば、最初に、第1の情報を取得し、その第1の情報は、画像に基づいて決定される初期の運転可能な領域に関する情報を含み、その次に、レーダ検出情報を含む第2の情報を取得し、そして、最後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定する。この出願によって提供される運転可能な領域情報を決定する方法にしたがって取得される第1の運転可能な領域情報は、画像情報及びレーダ検出情報を融合することによって取得され、高い精度を有し、また、例えば、カメラ装置が影又は障害物が存在する環境にあるとき、レーザーレーダが天候の影響を受けているとき、或いは、車載型のレーダが雑音信号の影響を受けているとき等、カメラ装置及びレーダ装置のうちの一方が実行する検出が正確ではないときに、カメラ装置及びレーダ装置のうちの他方の検出情報を使用することによって、第1の運転可能な領域情報の精度を改善することが可能であり、車両走行の安全性を保証する。
以下の記載は、上記の方法の実施形態に対応する装置の実施形態を説明する。
図12は、この出願にしたがって運転可能な領域情報を決定するための装置の実装の構成上のブロック図である。図12を参照すると、装置1200は、
第1の情報を取得するように構成される取得モジュール1201であって、第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像であり、取得モジュール1201は、さらに、第2の情報を取得するように構成され、第2の情報は、レーダ検出情報を含む、取得モジュールと、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定するように構成される決定モジュール1202と、を含むということを理解することが可能である。
この出願によって提供される装置は、最初に、第1の情報を取得し、その第1の情報は、画像に基づいて決定される初期の運転可能な領域に関する情報を含み、その次に、レーダ検出情報を含む第2の情報を取得し、そして、最後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定する。この出願によって提供される運転可能な領域情報を決定する方法によって取得される第1の運転可能な領域情報は、画像情報及びレーダ検出情報を融合することによって取得され、高い精度を有し、また、例えば、カメラ装置が影又は障害物が存在する環境にあるとき、レーザーレーダが天候の影響を受けているとき、或いは、車載型のレーダが雑音信号の影響を受けているとき等、カメラ装置及びレーダ装置のうちの一方が実行する検出が正確ではないときに、カメラ装置及びレーダ装置のうちの他方の検出情報を使用することによって、第1の運転可能な領域情報の精度を改善することが可能であり、車両走行の安全性を保証する。
選択的に、レーダ検出情報は、初期の運転可能な領域の検出情報を含む。
選択的に、決定モジュール1202は、さらに、第1の情報及び第2の情報に基づいて、関心領域が存在するか否かを決定するように構成される。
選択的に、決定モジュール1202は、さらに、関心領域が存在するということを決定するように構成され、取得モジュール1201は、さらに、第2の運転可能な領域情報及び関心領域の領域情報を取得するように構成され、取得モジュール1201は、さらに、関心領域の領域情報に基づいて、関心領域の検出結果を取得するように構成され、決定モジュール1202は、さらに、第2の運転可能な領域情報及び関心領域の検出結果に基づいて、第1の運転可能な領域情報を決定するように構成される。
選択的に、初期の運転可能な領域に関する情報は、初期の運転可能な領域に対応する少なくとも1つのピクセルに関する情報を含むか、又は、初期の運転可能な領域に関する情報は、初期の運転可能な領域の境界情報によって示される。
選択的に、レーダ検出情報は、位置座標情報を含むか、又は、レーダ検出情報は、位置座標情報及び位置座標の共分散情報を含む。
図12に示されている実施形態によって提供される装置1200は、個別に配置される融合モジュールであってもよく、又は、その内部に融合モジュールを備えるカメラモジュールであってもよい。装置1200は、図3に示されている実施形態によって提供される方法を実装するのに使用されてもよく、同じ有益な効果が達成される。
図13は、この出願にしたがって運転可能な領域情報を決定するための装置の他の実装の構成上のブロック図である。図13を参照すると、装置1300は、
第1の情報を受信するように構成される受信モジュール1301であって、第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像である、受信モジュール1301と、
第2の情報を生成するように構成される生成モジュール1302であって、第2の情報は、第1の情報に基づいて生成される初期の運転可能な領域のレーダ検出情報を含む、生成モジュール1302と、
第2の情報を送信するように構成される送信モジュール1303と、を含むということを理解することが可能である。
この実装によって提供される装置は、最初に、第1の情報を受信し、その次に、第1の情報に基づいて、初期の運転可能な領域のレーダ検出情報を含む第2の情報を生成し、そして、最後に、運転可能な領域情報を取得するための装置に第2の情報を送信する。この実装によって提供される装置によれば、レーダは、運転可能な領域情報を取得するための装置に、初期の運転可能な領域のレーダ検出情報を送信しさえすればよく、それによって、データ伝送量は、比較的小さくなり、その後に、第1の情報及び第2の情報に基づいて、第1の運転可能な領域情報を決定するときに、融合する必要があるデータ量は、比較的少なくなり、計算量は、比較的小さくなるということを理解することが可能である。したがって、運転可能な領域情報を決定する効率を改善することが可能である。
具体的な実装の際に、この出願の複数の実施形態は、さらに、コンピュータ記憶媒体を提供し、コンピュータ記憶媒体は、プログラムを格納してもよく、プログラムは、命令を含み、プログラムが実行されるときに、この出願によって提供される運転可能な領域情報を決定するための方法の複数のステップのうちの一部又はすべてを含んでもよい。コンピュータ記憶媒体は、磁気ディスク、光ディスク、読み取り専用メモリ(read-only memory, ROM)、又はランダムアクセスメモリ(random access memory, RAM)等であってもよい。
ソフトウェア、ハードウェア、ファームウェア、又はそれらのいずれかの組み合わせを使用することによって、上記の複数の実施形態のすべて又は一部を実装してもよい。ソフトウェアがそれらの複数の実施形態を実装するのに使用されるときに、コンピュータプログラム製品の形態で、それらの複数の実施形態を全体的に又は部分的に実装してもよい。コンピュータプログラム製品は、1つ又は複数のコンピュータ命令を含む。コンピュータ命令をコンピュータにロードしそしてコンピュータによって実行するときに、この出願にしたがった手順又は機能を完全に又は部分的に生成する。コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、又は他のプログラム可能な装置であってもよい。コンピュータ命令は、コンピュータ読み取り可能な記憶媒体の中に格納されてもよく、或いは、あるコンピュータ読み取り可能な記憶媒体から他のコンピュータ読み取り可能な記憶媒体に伝送されてもよい。例えば、(例えば、同軸ケーブル、光ファイバ、又はディジタル加入者線(DSL)等の)有線方式によって又は(例えば、赤外線、無線、又はマイクロ波等の)無線方式によって、一方のウェブサイト、コンピュータ、サーバ、又はデータセンターから他方のウェブサイト、コンピュータ、サーバ、又はデータセンターへと、それらの複数のコンピュータ命令を伝送してもよい。コンピュータ読み取り可能な記憶媒体は、コンピュータによってアクセス可能ないずれかの使用可能な媒体、或いは、1つ又は複数の使用可能な媒体を一体化したサーバ又はデータセンター等のデータ記憶デバイスであってもよい。使用可能な媒体は、(例えば、フロッピーディスク、ハードディスク、又は磁気テープ等の)磁気媒体、(例えば、DVD等の)光媒体、或いは、(例えば、ソリッドステートドライブ(solid state disk, SSD)等の)半導体媒体等であってもよい。
この出願のそれらの複数の実施形態において、ステップの実行順序は、ステップの機能及び内部論理に基づいて決定されるべきであり、ステップのシーケンス番号は、実行順序を意味せず、実施形態の実装プロセスに対する制限を構成しないということを理解すべきである。
加えて、この出願の説明の中で、特に明記する場合を除き、"複数の"は、2つ又はそれ以上を意味する。加えて、この出願のそれらの複数の実施形態における技術的解決方法を明確に説明するために、"第1の"及び"第2の"等の語は、この出願のそれらの複数の実施形態においては、基本的に同じ機能及び目的を有する同じ品目又は同様の品目を判別するのに使用される。当業者は、"第1の"及び"第2の"等の語が、数量又は実行順序を制限せず、また、"第1の"及び"第2の"等の語が、明確な差異を示すものではないということを理解することが可能である。
本明細書の中のすべての部分は、漸進的な方式によって説明されている。それらの複数の実施形態の中での同じ部分又は同様の部分については、これらの実施形態を参照すべきであり、各々の実施形態は、他の実施形態との差に焦点を当てている。特に、運転可能な領域情報を決定するための装置の複数の実施形態は、基本的に、方法の実施形態と同様であり、したがって、簡潔に説明される。複数の関連する部分については、複数の方法の実施形態の説明を参照すべきである。
この出願の複数の好ましい実施形態のうちのいくつかを説明してきたが、当業者は、基本的な発明の概念を知ると、これらの実施形態に変更及び修正を行うことが可能である。したがって、以下の特許請求の範囲は、この出願の範囲に属する好ましい実施形態及びすべての変更及び修正を対象とするものと解釈されることを意図している。
この出願の上記の実装は、この出願の保護の範囲を制限することを意図してはいない。

Claims (23)

  1. 運転可能な領域情報を決定するための装置によって実行される方法であって、前記装置は、カメラモジュール及び融合モジュールを含み、当該方法は、
    前記カメラモジュールによって第1の情報を取得するステップであって、前記第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、前記少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像であり、
    初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域に対応する少なくとも1つのピクセルに関する情報を含むか、又は、
    前記初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域の境界情報によって示される、ステップと、
    前記融合モジュールによって第2の情報を取得するステップであって、前記第2の情報は、レーダ検出情報を含む、ステップと、
    前記融合モジュールによって、前記第1の情報及び前記第2の情報を融合することによって得られる結果に基づいて、前記初期の運転可能な領域の中に関心領域が存在するか否かを決定するステップであって、前記関心領域は、正確でない検出結果を有するとともに、前記第1の情報及び前記第2の情報を融合することによって得られる前記結果に基づいて決定される領域である、ステップと、
    前記融合モジュールが、前記関心領域が存在するということを決定する場合に、
    前記融合モジュールによって、前記第1の情報及び前記第2の情報に基づいて、第2の運転可能な領域情報及び前記関心領域の領域情報を取得するステップと、
    前記融合モジュールによって、前記カメラモジュールから、前記関心領域の検出結果を取得するステップであって、前記関心領域の前記検出結果は、前記関心領域の中に障害物が存在するか否かを示す、ステップと、
    前記融合モジュールによって、前記第2の運転可能な領域情報及び前記関心領域の前記検出結果に基づいて、第2の運転可能な領域のうちで車両が走行することが不可能である障害物領域以外の領域を第1の運転可能な領域として決定するステップであって、前記第1の運転可能な領域は、前記初期の運転可能な領域の中に存在する、ステップと、を含む、
    方法。
  2. 前記境界情報は、前記初期の運転可能な領域の境界に対応するf個のピクセルに関する情報を含み、前記f個のピクセルに関する前記情報は、ピクセル座標系の中で、[(u1,h1),(u2,h2),(u3,h3),…,(ui,hi),…,(uf,hf)]として表され、ui、hiは、前記f個のピクセルのうちのi番目のピクセルの位置座標を示し、1≦i≦fであり、fは、1以上の整数である、請求項1に記載の方法。
  3. 前記境界情報は、前記初期の運転可能な領域の境界に対応するr個のピクセルに関する情報を含み、前記r個のピクセルに関する前記情報は、ピクセル座標系の中で、[step,(g1,k1),k2,k3,…,ki,…,kr]又は[step,(g1,k1),k2,k3,…,ki,…,kr,step_method]として表され、g1、k1は、前記境界情報の中の最初のピクセルの位置座標を示し、kiは、前記r個のピクセルのうちのi番目のピクセルの垂直座標を示し、1≦i≦rであり、前記i番目のピクセルの水平座標は、前記stepに基づいて取得され、前記stepは、前記i番目のピクセルの前記水平座標と(i+1)番目のピクセルの水平座標との間の間隔ステップを示し、前記i番目のピクセルの前記水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、前記i番目のピクセルの前記水平座標と前記(i+1)番目のピクセルの前記水平座標との間の前記間隔ステップと同じであり、前記step_methodは、すべての間隔ステップの間の接続関係を示し、rは、1以上の整数である、請求項1乃至2のうちのいずれか1項に記載の方法。
  4. 前記境界情報は、前記初期の運転可能な領域の境界に対応するs個のピクセルに関する情報を含み、前記s個のピクセルに関する前記情報は、ピクセル座標系の中で、[(p1,q1),(p2,q2),(p3,q3),…,(pi,qi),…,(ps,qs),step_method]として表され、pi、qiは、s個のピクセルのうちのi番目のピクセルの位置座標を示し、1≦i≦sであり、前記i番目のピクセルの水平座標と(i+1)番目のピクセルの水平座標との間に間隔ステップが存在し、前記i番目のピクセルの前記水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、前記i番目のピクセルの前記水平座標と前記(i+1)番目のピクセルの前記水平座標との間の前記間隔ステップとは異なり、前記step_methodは、すべての間隔ステップの間の接続関係を示し、sは、1以上の整数である、請求項1乃至3のうちのいずれか1項に記載の方法。
  5. 前記step_methodは、線形補間、2次補間、3次スプライン補間、又は形状保存の区分的な3次補間に設定される、請求項3乃至4のうちのいずれか1項に記載の方法。
  6. 前記レーダ検出情報は、前記初期の運転可能な領域の検出情報を含む、請求項1乃至5のうちのいずれか1項に記載の方法。
  7. 前記関心領域を検出する前記ステップは、
    前記融合モジュールによって、前記関心領域に対応する画像情報を分類するステップを含む、請求項1に記載の方法。
  8. 前記関心領域の前記検出結果は、前記関心領域が、車両が走行することが可能である領域であるということ、又は、前記関心領域が、車両が走行することが不可能である障害物領域であるということを含む、請求項1乃至7のうちのいずれか1項に記載の方法。
  9. 前記融合モジュールによって関心領域が存在しないということを決定するステップと、
    前記融合モジュールによって、前記第1の情報及び前記第2の情報に基づいて、第2の運転可能な領域情報を取得するステップであって、前記第2の運転可能な領域情報は、前記第1の運転可能な領域情報である、ステップと、を含む、請求項1乃至8のうちのいずれか1項に記載の方法。
  10. 前記レーダ検出情報は、位置座標情報を含むか、又は、
    前記レーダ検出情報は、位置座標情報及び位置座標の共分散情報を含む、請求項1乃至9のうちのいずれか1項に記載の方法。
  11. 運転可能な領域情報を決定するための装置であって、
    第1の情報を取得するように構成される取得モジュールであって、前記第1の情報は、少なくとも1つの画像に基づいて決定される初期の運転可能な領域に関する情報を含み、前記少なくとも1つの画像は、少なくとも1つのカメラモジュールからの画像であり、
    前記初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域に対応する少なくとも1つのピクセルに関する情報を含むか、又は、
    前記初期の運転可能な領域に関する前記情報は、前記初期の運転可能な領域の境界情報によって示され、
    前記取得モジュールは、さらに、第2の情報を取得するように構成され、前記第2の情報は、レーダ検出情報を含む、取得モジュールと、
    前記第1の情報及び前記第2の情報を融合することによって得られる結果に基づいて、前記初期の運転可能な領域の中に関心領域が存在するか否かを決定するように構成される決定モジュールであって、前記関心領域は、正確でない検出結果を有するとともに、前記第1の情報及び前記第2の情報を融合することによって得られる前記結果に基づいて決定される領域である、決定モジュールと、を含み、
    前記決定モジュールが、前記関心領域が存在するということを決定する場合に、前記決定モジュールは、さらに、
    前記第1の情報及び前記第2の情報に基づいて、第2の運転可能な領域情報及び前記関心領域の領域情報を取得し、
    前記カメラモジュールから、前記関心領域の検出結果を取得し、前記関心領域の前記検出結果は、前記関心領域の中に障害物が存在するか否かを示し、
    前記第2の運転可能な領域情報及び前記関心領域の前記検出結果に基づいて、第2の運転可能な領域のうちで車両が走行することが不可能である障害物領域以外の領域を第1の運転可能な領域情報を決定する、ように構成され、前記第1の運転可能な領域は、前記初期の運転可能な領域の中に存在する、
    装置。
  12. 前記境界情報は、前記初期の運転可能な領域の境界に対応するf個のピクセルに関する情報を含み、前記f個のピクセルに関する前記情報は、ピクセル座標系の中で、[(u1,h1),(u2,h2),(u3,h3),…,(ui,hi),…,(uf,hf)]として表され、ui、hiは、前記f個のピクセルのうちのi番目のピクセルの位置座標を示し、1≦i≦fであり、fは、1以上の整数である、請求項11に記載の装置。
  13. 前記境界情報は、前記初期の運転可能な領域の境界に対応するr個のピクセルに関する情報を含み、前記r個のピクセルに関する前記情報は、ピクセル座標系の中で、[step,(g1,k1),k2,k3,…,ki,…,kr]又は[step,(g1,k1),k2,k3,…,ki,…,kr,step_method]として表され、g1、k1は、前記境界情報の中の最初のピクセルの位置座標を示し、kiは、前記r個のピクセルのうちのi番目のピクセルの垂直座標を示し、1≦i≦rであり、前記i番目のピクセルの水平座標は、前記stepに基づいて取得され、前記stepは、前記i番目のピクセルの前記水平座標と(i+1)番目のピクセルの水平座標との間の間隔ステップを示し、前記i番目のピクセルの前記水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、前記i番目のピクセルの前記水平座標と前記(i+1)番目のピクセルの前記水平座標との間の前記間隔ステップと同じであり、前記step_methodは、すべての間隔ステップの間の接続関係を示し、rは、1以上の整数である、請求項11乃至12のうちのいずれか1項に記載の装置。
  14. 前記境界情報は、前記初期の運転可能な領域の境界に対応するs個のピクセルに関する情報を含み、前記s個のピクセルに関する前記情報は、ピクセル座標系の中で、[(p1,q1),(p2,q2),(p3,q3),…,(pi,qi),…,(ps,qs),step_method]として表され、pi、qiは、s個のピクセルのうちのi番目のピクセルの位置座標を示し、1≦i≦sであり、前記i番目のピクセルの水平座標と(i+1)番目のピクセルの水平座標との間に間隔ステップが存在し、前記i番目のピクセルの前記水平座標と(i-1)番目のピクセルの水平座標との間の間隔ステップは、前記i番目のピクセルの前記水平座標と前記(i+1)番目のピクセルの前記水平座標との間の前記間隔ステップとは異なり、前記step_methodは、すべての間隔ステップの間の接続関係を示し、sは、1以上の整数である、請求項11乃至13のうちのいずれか1項に記載の装置。
  15. 前記step_methodは、線形補間、2次補間、3次スプライン補間、又は形状保存の区分的な3次補間に設定される、請求項13乃至14のうちのいずれか1項に記載の装置。
  16. 前記レーダ検出情報は、前記初期の運転可能な領域の検出情報を含む、請求項11乃至15のうちのいずれか1項に記載の装置。
  17. 前記決定モジュールが、前記関心領域を検出するように構成されることは、
    前記決定モジュールが、前記関心領域に対応する画像情報を分類するように構成されることを含む、請求項11に記載の装置。
  18. 前記関心領域の前記検出結果は、前記関心領域が、車両が走行することが可能である領域であるということ、又は、前記関心領域が、車両が走行することが不可能である障害物領域であるということを含む、請求項11乃至17のうちのいずれか1項に記載の装置。
  19. 前記決定モジュールは、さらに、関心領域が存在しないということを決定するように構成され、
    前記取得モジュールは、さらに、前記第1の情報及び前記第2の情報に基づいて、第2の運転可能な領域情報を取得するように構成され、前記第2の運転可能な領域情報は、前記第1の運転可能な領域情報である、請求項11乃至16のうちのいずれか1項に記載の装置。
  20. 前記レーダ検出情報は、位置座標情報を含むか、又は、
    前記レーダ検出情報は、位置座標情報及び位置座標の共分散情報を含む、請求項11乃至19のうちのいずれか1項に記載の装置。
  21. 装置であって、当該装置は、プロセッサを含み、前記プロセッサは、メモリに結合するように構成され、前記プロセッサは、前記メモリの中の命令を読み出し、前記命令にしたがって、請求項1乃至10のうちのいずれか1項に記載の方法を当該装置に実行させる、ように構成される、装置。
  22. コンピュータ記憶媒体であって、当該コンピュータ記憶媒体は、命令を含み、前記命令がコンピュータによって実行されるときに、請求項1乃至10のうちのいずれか1項に記載の方法を前記コンピュータに実行させる、コンピュータ記憶媒体。
  23. コンピュータプログラムであって、当該コンピュータプログラムがコンピュータによって実行されるときに、請求項1乃至10のうちのいずれか1項に記載の方法を前記コンピュータに実行させる、コンピュータプログラム。
JP2021575407A 2019-06-18 2020-06-18 運転可能な領域情報を決定するための方法及び装置 Active JP7418476B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910525320.1A CN112101069A (zh) 2019-06-18 2019-06-18 确定行驶区域信息的方法及装置
CN201910525320.1 2019-06-18
PCT/CN2020/096755 WO2020253764A1 (zh) 2019-06-18 2020-06-18 确定行驶区域信息的方法及装置

Publications (2)

Publication Number Publication Date
JP2022537557A JP2022537557A (ja) 2022-08-26
JP7418476B2 true JP7418476B2 (ja) 2024-01-19

Family

ID=73748616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021575407A Active JP7418476B2 (ja) 2019-06-18 2020-06-18 運転可能な領域情報を決定するための方法及び装置

Country Status (5)

Country Link
US (1) US11698459B2 (ja)
EP (1) EP3975042B1 (ja)
JP (1) JP7418476B2 (ja)
CN (1) CN112101069A (ja)
WO (1) WO2020253764A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210062144A (ko) * 2019-11-20 2021-05-31 현대자동차주식회사 군집 주행 시 가상 차선 표시 장치 및 그 방법
EP4390453A1 (en) * 2021-09-14 2024-06-26 Huawei Technologies Co., Ltd. Signal processing method and related apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117071A (ja) 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP2007272292A (ja) 2006-03-30 2007-10-18 Denso It Laboratory Inc 影認識方法及び影境界抽出方法
JP2014006588A (ja) 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc 路面境界推定装置及びプログラム
JP2018092604A (ja) 2016-11-25 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
WO2019026438A1 (ja) 2017-08-03 2019-02-07 株式会社小糸製作所 車両用照明システム、車両システム及び車両

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8634593B2 (en) * 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
CN101975951B (zh) * 2010-06-09 2013-03-20 北京理工大学 一种融合距离和图像信息的野外环境障碍检测方法
CN104331703A (zh) * 2013-07-22 2015-02-04 博世汽车部件(苏州)有限公司 监测车辆行驶状态的方法及实现该方法的汽车导航设备
US9612123B1 (en) * 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
CN105667518B (zh) * 2016-02-25 2018-07-24 福州华鹰重工机械有限公司 车道检测的方法及装置
US10145951B2 (en) * 2016-03-30 2018-12-04 Aptiv Technologies Limited Object detection using radar and vision defined image detection zone
CN106249239B (zh) * 2016-08-23 2019-01-01 深圳市速腾聚创科技有限公司 目标检测方法及装置
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
CN107161141B (zh) * 2017-03-08 2023-05-23 深圳市速腾聚创科技有限公司 无人驾驶汽车系统及汽车
CN107202983B (zh) * 2017-05-19 2020-11-13 深圳佑驾创新科技有限公司 基于图像识别和毫米波雷达融合的自动刹车方法和系统
CN107389084B (zh) * 2017-06-09 2020-06-05 深圳市速腾聚创科技有限公司 行车路径规划方法及存储介质
CN107991671A (zh) * 2017-11-23 2018-05-04 浙江东车智能科技有限公司 一种基于雷达数据和视频信号融合识别危险目标的方法
CN108297795A (zh) * 2018-01-31 2018-07-20 成都华远科技有限公司 一种电动车的车道识别系统
KR20210022570A (ko) * 2018-06-29 2021-03-03 소니 세미컨덕터 솔루션즈 가부시키가이샤 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치
CN108960183B (zh) * 2018-07-19 2020-06-02 北京航空航天大学 一种基于多传感器融合的弯道目标识别系统及方法
CN108957413A (zh) * 2018-07-20 2018-12-07 重庆长安汽车股份有限公司 传感器目标定位准确度测试方法
CN109298415B (zh) * 2018-11-20 2020-09-22 中车株洲电力机车有限公司 一种轨道和道路障碍物检测方法
CN109543600A (zh) * 2018-11-21 2019-03-29 成都信息工程大学 一种实现可行驶区域检测方法及系统和应用
CN109829386B (zh) * 2019-01-04 2020-12-11 清华大学 基于多源信息融合的智能车辆可通行区域检测方法
CN109828571A (zh) * 2019-02-18 2019-05-31 奇瑞汽车股份有限公司 基于v2x的自动驾驶车辆、方法和装置
CN109733284B (zh) * 2019-02-19 2021-10-08 广州小鹏汽车科技有限公司 一种应用于车辆的安全泊车辅助预警方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117071A (ja) 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP2007272292A (ja) 2006-03-30 2007-10-18 Denso It Laboratory Inc 影認識方法及び影境界抽出方法
JP2014006588A (ja) 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc 路面境界推定装置及びプログラム
JP2018092604A (ja) 2016-11-25 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
WO2019026438A1 (ja) 2017-08-03 2019-02-07 株式会社小糸製作所 車両用照明システム、車両システム及び車両

Also Published As

Publication number Publication date
JP2022537557A (ja) 2022-08-26
US20220108552A1 (en) 2022-04-07
EP3975042A4 (en) 2022-08-17
US11698459B2 (en) 2023-07-11
CN112101069A (zh) 2020-12-18
WO2020253764A1 (zh) 2020-12-24
EP3975042B1 (en) 2024-01-03
EP3975042A1 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
KR101829556B1 (ko) 객체 움직임의 라이더 기반 분류 기법
US20210350149A1 (en) Lane detection method and apparatus,lane detection device,and movable platform
CN110794406B (zh) 多源传感器数据融合系统和方法
JP2008203992A (ja) 検出装置および方法、並びに、プログラム
JP7418476B2 (ja) 運転可能な領域情報を決定するための方法及び装置
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
WO2023207845A1 (zh) 车位检测方法、装置、电子设备及机器可读存储介质
CN115187941A (zh) 目标检测定位方法、系统、设备及存储介质
CN108629225B (zh) 一种基于多幅子图与图像显著性分析的车辆检测方法
US20220171975A1 (en) Method for Determining a Semantic Free Space
CN114241448A (zh) 障碍物航向角的获取方法、装置、电子设备及车辆
CN117496515A (zh) 点云数据标注方法、存储介质和电子设备
CN114662600B (zh) 一种车道线的检测方法、装置和存储介质
Morales Rosales et al. On-road obstacle detection video system for traffic accident prevention
JP2017116445A (ja) 物体検出装置
CN115359332A (zh) 基于车路协同的数据融合方法、装置、电子设备及系统
CN112835063B (zh) 物体动静属性的确定方法、装置、设备及存储介质
EP4260084A1 (en) Radar perception
Hu High-precision indoor robot dynamic obstacle detection with laser and camera
EP4099211A1 (en) Method and device for training a machine learning algorithm
US20240077617A1 (en) Perception for point clouds
US20230334692A1 (en) Device and method for tracking an object
US20220402504A1 (en) Methods and Systems for Generating Ground Truth Data
US20240230842A9 (en) Method and apparatus of filtering dynamic objects in radar-based ego-emotion estimation
US20240134009A1 (en) Method and apparatus of filtering dynamic objects in radar-based ego-emotion estimation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240109

R150 Certificate of patent or registration of utility model

Ref document number: 7418476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150