JP7274515B2 - センサーソリューション決定方法、装置、機器及び記憶媒体 - Google Patents

センサーソリューション決定方法、装置、機器及び記憶媒体 Download PDF

Info

Publication number
JP7274515B2
JP7274515B2 JP2021006472A JP2021006472A JP7274515B2 JP 7274515 B2 JP7274515 B2 JP 7274515B2 JP 2021006472 A JP2021006472 A JP 2021006472A JP 2021006472 A JP2021006472 A JP 2021006472A JP 7274515 B2 JP7274515 B2 JP 7274515B2
Authority
JP
Japan
Prior art keywords
simulation
sensor
sensor solution
scene
unmanned vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021006472A
Other languages
English (en)
Other versions
JP2021098506A (ja
Inventor
チョンチョン リ
チュン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021098506A publication Critical patent/JP2021098506A/ja
Application granted granted Critical
Publication of JP7274515B2 publication Critical patent/JP7274515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • G05D1/247
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2422/00Indexing codes relating to the special location or mounting of sensors

Description

本願は、無人車技術分野に関し、特に、センサーソリューション決定方法、装置、機器及び記憶媒体に関する。
無人車技術の急速な発展に伴い、無人車はますます広く普及され、応用されている。無人車の自動走行中、無人車に設置されたセンサーを利用してセンサーデータを採集する。無人車システムは、採集したセンサーデータに基づいて無人車の自動走行ソリューションを制定し、無人車の自動走行状況を分析する。そのため、無人車に設置されたセンサーの感知能力は、無人車の安全走行に影響を与える重要な要素である。
関連技術において、センサーの物理的パラメータに基づいて、異なるサイズの障害物が異なる距離で対応するセンサーデータを計算し、センサーデータに基づいてセンサーの検出距離を予測し、同時に、無人車の車種サイズに基づいて障害物の遮蔽状況を予測して、センサーソリューションを決定する。
しかしながら、センサーの物理的パラメータだけから設計されたセンサーソリューションは、感知能力が弱く、感知精度が低く、同時に、障害物サイズと無人車の車種サイズだけに基づいて予測されたセンサー検出距離の精度が悪く、無人車の安全運行に不利である。
本願の実施例は、1つのセンサーソリューション決定方法、装置、機器及び記憶媒体を提供し、既存のセンサーソリューションの設計方法に存在するセンサー感知能力が弱く、感知精度が低いという問題を解決するために使用される。
第1の態様において、本願は、センサーソリューション決定方法を提供し、前記方法は、
シミュレーション無人車とシミュレーションシーンを確立し、そのうち、前記シミュレーションシーンは、前記シミュレーション無人車のシミュレーション走行のために使用される、確立することと、
初期化パラメータに基づいて、第1のセンサーソリューションを決定し、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することと、
前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得ることと、を含む。
上記の技術的解決手段において、まず、シミュレーション無人車、シミュレーションシーン及びシミュレーションセンサーを確立し、初期化パラメータに基づいて第1のセンサーソリューションを決定し、次に、確立されたシミュレーション無人車、シミュレーションシーン及びシミュレーションセンサーに基づいて、シミュレーション実験を利用して第1のセンサーソリューションを補正し、これにより、無人車に適用されるセンサーソリューションを得る。当該方法は、センサーの物理的パラメータ、障害物の形態と運動特徴、無人車の車種サイズと外観、及び車両が走行する交通環境を充分に考慮して結合するので、決定された無人車に適用されるセンサーソリューションの感知能力がより強く、感知精度がより高く、無人車の安全運行をより良く確保することができる。
選択的に、前記シミュレーションシーンは、静的シミュレーションシーンを含み、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することは、
前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定すること、を含み、
前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得ることは、
前記第1のサブシミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記無人車に適用されるセンサーソリューションを得ること、を含む。
上記の技術的解決手段において、シミュレーション無人車が静的シミュレーション環境でシミュレーション走行を行って生成する第1のサブシミュレーションデータに基づいて、第1のセンサーソリューションを補正することは、無人車が実際に走行するとき経験する可能性のある静的シーンを充分に考慮したため、決定された無人車に適用されるセンサーソリューションは、無人車の実際走行過程のニーズにより適合する。
選択的に、前記シミュレーションシーンは、静的シミュレーションシーンと動的シミュレーションシーンを含み、前記動的シミュレーションシーンは、少なくとも1つの動的サブシミュレーションシーンを含み、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することは、
前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定すること、を含み、
前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得ることは、
前記第1のサブシミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、第2のセンサーソリューションを得ることと、
前記第2のセンサーソリューションに基づいて、前記シミュレーション無人車が少なくとも1つの動的サブシミュレーションシーンでシミュレーション走行を行って生成する少なくとも1つの第2のサブシミュレーションデータを決定することと、
前記少なくとも1つの第2のサブシミュレーションデータにおける第2のサブシミュレーションデータの各々に基づいて、前記第2のセンサーソリューションの第2の感知パラメータを決定し、前記第2の感知パラメータに基づいて、前記第2のセンサーソリューションを補正して、第3のセンサーソリューションを得、前記第3のセンサーソリューションを前記無人車に適用されるセンサーソリューションとして用いる。
上記の技術的解決手段において、シミュレーション無人車が動的サブシミュレーションシーンのそれぞれでシミュレーション走行を行って生成する少なくとも1つの第2のサブシミュレーションデータに基づいて、第2のセンサーソリューションを補正し、当該補正過程は、無人車が実際の走行過程で経験する可能性のあるさまざまな変化する動的シーンを全面的に考慮し、決定された無人車に適用されるセンサーソリューションの感知能力と感知精度は、無人車が実際の走行過程で経験する可能性のあるさまざまな変化するシーンにより適合し、無人車の安全運行をより良く確保することができる。
選択的に、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することは、
シミュレーションセンサーを確立し、前記第1のセンサーソリューションに基づいて、前記シミュレーションセンサーを前記シミュレーション無人車に設置することと、
前記シミュレーションセンサーが設置された前記シミュレーション無人車が、前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することと、を含む。
上記の技術的解決手段において、まず、シミュレーションセンサーを確立し、第1のセンサーソリューションに基づいて、シミュレーションセンサーをシミュレーション無人車に設置し、次に、シミュレーションセンサーが設置された前記シミュレーション無人車が、シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定し、当該ソリューションは、センサーの物理的パラメータ、障害物の形態と運動特徴、無人車の車種サイズと外観、及び車両が走行する交通環境を充分に考慮して結合するので、決定された無人車に適用されるセンサーソリューションの感知能力がより強く、感知精度がより高く、無人車の安全運行をより良く確保することができる。
選択的に、前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得ることは、
前記シミュレーションデータを予め設定されたセンサー感知アルゴリズムに入力して、前記シミュレーションデータによって表される第1の感知パラメータを得ることと、
前記第1の感知パラメータと予め設定されたセンサー感知能力要件に基づいて、前記第1のセンサーソリューションを補正して、前記無人車に適用されるセンサーソリューションを得ることと、を含む。
上記の技術的解決手段において、予め設定されたセンサー感知アルゴリズムを利用して、シミュレーションデータによって表される第1の感知パラメータを取得し、感知パラメータと予め設定されたセンサー感知能力要件に基づいて、第1のセンサーソリューションを補正し、ポイントクラウド感知アルゴリズムの引用により、ポイントクラウド感知結果の次元から感知パラメータを取得し、センサーデータから感知パラメータを推定することより科学的で、正確である。
選択的に、前記センサーは、ライダーとカメラを含む。
選択的に、前記センサーソリューションは、センサー型番、センサー個数、センサー設置位置のいずれか1つ又は複数を含む。
第2の態様において、本願は、1つのセンサーソリューション決定装置を提供し、前記装置は、
シミュレーション無人車とシミュレーションシーンを確立するために使用され、そのうち、前記シミュレーションシーンは、前記シミュレーション無人車のシミュレーション走行のために使用される、第1の処理ユニットと、
初期化パラメータに基づいて、第1のセンサーソリューションを決定し、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定するための第2の処理ユニットと、
前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得るための第3の処理ユニットと、を含む。
選択的に、前記シミュレーションシーンは、静的シミュレーションシーンを含み、第2の処理ユニットは、
前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定するための第1の処理サブユニットを含み、
第3の処理ユニットは、
前記第1のサブシミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記無人車に適用されるセンサーソリューションを得るための第2の処理サブユニットを含む。
選択的に、前記シミュレーションシーンは、静的シミュレーションシーンと動的シミュレーションシーンを含み、前記動的シミュレーションシーンは、少なくとも1つの動的サブシミュレーションシーンを含み、前記第2の処理ユニットは、
前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定するための第3の処理サブユニットを含み、
前記第3の処理ユニットは、
前記第1のサブシミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、第2のセンサーソリューションを得るための第4の処理サブユニットと、
前記第2のセンサーソリューションに基づいて、前記シミュレーション無人車が少なくとも1つの動的サブシミュレーションシーンでシミュレーション走行を行って生成する少なくとも1つの第2のサブシミュレーションデータを決定するための第5の処理サブユニットと、
前記少なくとも1つの第2のサブシミュレーションデータにおける第2のサブシミュレーションデータの各々に基づいて、前記第2のセンサーソリューションの第2の感知パラメータを決定し、前記第2の感知パラメータに基づいて、前記第2のセンサーソリューションを補正して第3のセンサーソリューションを得、前記第3のセンサーソリューションを前記無人車に適用されるセンサーソリューションとして用いるための第6の処理サブユニットと、を含む。
選択的に、第2の処理ユニットは、
シミュレーションセンサーを確立し、前記第1のセンサーソリューションに基づいて、前記シミュレーションセンサーを前記シミュレーション無人車に設置するための第7の処理サブユニットと、
前記シミュレーションセンサーが設置された前記シミュレーション無人車が、前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定するための第8の処理サブユニットと、を含む。
選択的に、第3の処理ユニットは、
前記シミュレーションデータを予め設定されたセンサー感知アルゴリズムに入力して、前記シミュレーションデータによって表される第1の感知パラメータを得るための第9の処理サブユニットと、
前記第1の感知パラメータと予め設定されたセンサー感知能力要件に基づいて、前記第1のセンサーソリューションを補正して、前記無人車に適用されるセンサーソリューションを得るための第10の処理サブユニットと、を含む。
選択的に、前記センサーは、ライダーとカメラを含む。
選択的に、前記センサーソリューションは、センサー型番、センサー個数、センサー設置位置のいずれか1つ又は複数を含む。
第3の態様において、本願は電子機器を提供し、前記電子機器は、
少なくとも1つのプロセッサ、及び
前記少なくとも1つのプロセッサと通信接続されるメモリを含み、そのうち、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが、第1の態様のいずれか1つに記載の方法を実行することができる。
第4の態様において、本願はコンピュータ命令を記憶する非一時的なコンピュータ可読記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに第1の態様のいずれか1つに記載の方法を実行させるために使用される。
第5の態様において、本願は、コンピュータプログラムを提供し、該コンピュータプログラムは、可読記憶媒体に記憶される。該電子機器の少なくとも1つのプロセッサは、該コンピュータプログラムを可読記憶媒体から読み取ることができ、該少なくとも1つのプロセッサは、コンピュータプログラムを実行することにより、電子機器は第1の態様の方法を実行する。
上記の出願の1つの実施例は、以下のような利点又は有益な効果を有する。本願は、シミュレーション無人車とシミュレーションシーンを確立し、そのうち、前記シミュレーションシーンは、前記シミュレーション無人車のシミュレーション走行のために使用され、初期化パラメータに基づいて、第1のセンサーソリューションを決定し、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定し、前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正し、無人車に適用されるセンサーソリューションを得る。本願の方法は、まず、シミュレーション無人車、シミュレーションシーン及びシミュレーションセンサーを確立し、初期化パラメータに基づいて第1のセンサーソリューションを決定し、次に、確立されたシミュレーション無人車、シミュレーションシーン及びシミュレーションセンサーに基づいて、シミュレーション実験を利用して第1のセンサーソリューションを補正し、それにより、無人車に適用されるセンサーソリューションを得る。当該方法は、センサーの物理的パラメータ、障害物サイズ及び無人車の車種サイズを充分に考慮して結合するので、決定された無人車に適用されるセンサーソリューションは、感知能力が強く、感知精度が高く、無人車の安全運行をよく確保することができる。
上記の選択可能な形態の他の効果は、具体的な実施例と併せて以下に説明する。
添付の図面は、本案をよりよく理解するために使用され、本願を限定するものではない。
本願の実施例によって提供されるセンサーソリューション決定方法のフローチャートである。 本願の実施例によって提供される、シミュレーションライダーが設置されたシミュレーション無人車の概略構成図である。 本願の実施例によって提供される、シミュレーションカメラが設置されたシミュレーション無人車の概略構成図である。 本願の実施例によって提供される他のセンサーソリューション決定方法のフローチャートである。 本願の実施例によって提供されるセンサーソリューション決定装置の概略構成図である。 本願の実施例によって提供される他のセンサーソリューション決定装置の概略構成図である。 本願の実施例によって提供されるセンサーソリューション決定機器の概略構成図である。
以下、添付図面を参照して本願の例示的な実施例を説明するが、本願の実施例の様々な詳細が理解を容易にするために含まれ、単なる例示的なものと考えられるべきである。したがって、当業者は、本願の範囲及び精神から逸脱することなく、本明細書に記載された実施例に様々な変更及び補正を加えることができることを理解するはずである。同様に、明確かつ簡潔にするために、以下の説明において、よく知られている機能及び構造の説明は省略されている。
本願に係る名詞の解釈:
ライダーは、レーザビームを発射してターゲットの位置、速度などの特徴量を探知するためのレーダーシステムである。
ポイントクラウドは、測定器を用いて得られたターゲット表面のポイントデータの集合であり、目標対象の空間分布と表面特性を表するために使用される。目標対象表面のサンプリング点各々の空間座標を取得した後に得られた点の集合は、ポイントクラウドを構成する。
本願の適用シーン:無人車技術の急速な発展に伴い、無人車がますます広く普及され、応用されている。無人車の自動走行過程中、無人車に設置されたセンサーを利用してセンサーデータを採集する。無人車システムは、採集したセンサーデータに基づいて無人車の自動走行ソリューションを制定し、無人車の自動走行状況を分析する。そのため、無人車に設置されたセンサーの感知能力は、無人車安全走行に影響を与える重要な要素である。関連技術において、センサーの物理的パラメータに基づいて、異なるサイズの障害物が異なる距離で対応するセンサーデータを計算し、センサーデータに基づいてセンサーの検出距離を予測し、同時に無人車の車種サイズに基づいて障害物の遮蔽状況を予測して、センサーソリューションを決定する。
しかしながら、センサーの物理的パラメータだけから設計されたセンサーソリューションは、感知能力が弱く、感知精度が低く、同時に、障害物サイズと無人車の車種サイズだけから予測されたセンサー検出距離は、精度が悪く、無人車の安全運行に不利である。
本願によって提供されるセンサーソリューション決定方法、装置、機器及び記憶媒体は、上記の技術的問題を解決することを目的とする。
図1は、本願の実施例によって提供されるセンサーソリューション決定方法であり、図1に示すように、当該方法は、以下のステップを含む。
ステップ101において、シミュレーション無人車とシミュレーションシーンを確立し、そのうち、シミュレーションシーンは、シミュレーション無人車のシミュレーション走行のために使用される。
本実施例において、具体的に、本実施例の実行主体は、端末機器又は端末機器に設置されたサーバ、又はコントローラ、又は他の本実施例を実行できる装置又は機器であり、本実施例では、実行主体が端末機器に設置されたアプリケーションプログラムであるものを例として説明する。
シミュレーション実験により、無人車の走行能力試験、ライダーソリューション最適化、カメラ配置を行うことは、通常の無人車実験手段であり、車両動力学シミュレーションモデルを提供することと車両運行シーンの可視化、センサーシミュレーションなどの一連の操作によって、無人車実験のシミュレーション処理を実現する。シミュレーション無人車を確立する方法は、実際の無人車の走行性能データを取得し、走行性能データに基づいて、実際の無人車に対応するシミュレーション無人車を確立することを含む。車両運行シーンの可視化方法によって、無人車のシミュレーション走行のシミュレーションシーンを確立し、シミュレーションシーンは、静的シミュレーションシーンと動的シミュレーションシーンを含み、静的シミュレーションシーンは、無人車のシミュレーション走行のときの環境情報からなる可視化シーン、例えば道路、家屋、常緑樹、バリケードなどの要素モデルからなる静的シーンであり、動的シミュレーションシーンは、無人車のシミュレーション走行のときの走行行為からなる可視化シーン、例えば直進道路での車両追従直進、直進道路での追い越し、直進道路での追い越され、交差点での曲がりなどの走行行為からなる可視化シーンである。シミュレーション無人車とシミュレーションシーンの確立は、既存のシミュレーションソフトウェアを用いて実現することができ、本願では繰り返さない。
ステップ102において、初期化パラメータに基づいて、第1のセンサーソリューションを決定し、第1のセンサーソリューションに基づいて、シミュレーション無人車がシミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定する。
本実施例において、具体的に、第1のセンサーソリューションは、センサーの型番、個数及び設置位置情報を含む。センサーソリューションの初期化パラメータに基づいて、第1のセンサーソリューションを決定し、初期化パラメータは、試験者のシミュレーション経験に基づいて、又は固定のシミュレーションフローに基づいて決定されたシミュレーションセンサーの設置パラメータとすることができる。シミュレーションセンサーを確立し、第1のセンサーソリューションで説明されるセンサーの型番、個数及び設置位置情報に基づいて、シミュレーションセンサーをシミュレーション無人車に設置する。シミュレーションセンサーの種類が異なるとき、第1のセンサーソリューションの具体的な内容は異なるかもしれない。
センサーは、ライダーとカメラを含む。センサーがライダーである場合、ライダーの無人車での設置位置は、無人車の周辺に設置されたライダーを含み、そのレーザビームが、通常8線より小さく、一般的なものは単線ライダーと四線ライダーであり、また、無人車の頂上に設置されたライダーを含み、そのレーザビームは、通常16線以上で、一般的なものは16/32/64線ライダーである。例示的に、図1aに示すように、初期化パラメータは、ライダーの型番がSで、個数が2つで、設置位置が無人車の進気グリル40cmの位置と無人車後部風防ガラスの位置であることを含む。
ライダーは、無人車システムのマルチセンサー融合の核心部品であり、L3及びそれ以上の無人車自動走行センサー解决ソリューションは、通常、環境に対する高精度な感知を実現するために、複数のライダーを備える必要がある。無人車のシミュレーション実験では、ライダー目標シミュレータを用いて、ライダーの機能と性能の半実物シミュレーションを行い、対応するシミュレーションライダーを得る。ハードウェア・イン・ザ・ループシステムを通じて、無人車自動走行の実際道路シーンのリアルなシミュレーションを通じて、ライダーの自動走行補助システムと高レベル知能走行システムにおける役割を検証する。
第1のライダーソリューションを決定した後、第1のライダーソリューションで説明されるライダーの型番、個数及び設置位置情報に基づいて、シミュレーションライダーをシミュレーション無人車に設置する。例示的に、図1aに示すように、2つの型番がSであるシミュレーションライダーをシミュレーション無人車の進気グリル40cmの位置と後部風防ガラスの位置に設置する。シミュレーションライダーの設置が完了した後、シミュレーション無人車を使ってシミュレーションシーンで自動走行を行い、シミュレーション無人車に設置されたシミュレーションライダーを使ってシミュレーションシーンをスキャンして、シミュレーションシーンに対応するポイントクラウドデータを得、即ちシミュレーションシーンに対応するシミュレーションポイントクラウドを取得する。例示的に、シミュレーション四線ライダーは、4つのレーザエミッタをポーリングし、ポーリング周期ごとに1フレームのシミュレーションポイントクラウドを得、4つのレーザエミッタに対応する4つのシミュレーションポイントクラウドは、面状情報を構成でき、面状情報から障害物の高度情報を得ることができる。シングルフレームのシミュレーションポイントクラウドに基づいて障害物の距離情報を得、マルチフレームのシミュレーションポイントクラウドの座標に基づいて、距離情報を微分処理すれば、障害物の速度情報を得ることができる。
センサーがカメラである場合、カメラの無人車での設置位置は、無人車の周辺及び無人車の頂上を含み、その主な貢献は、道路標識と位置、及び車道標記曲率などの視覚的手がかりの探査と解釈であり、それにより、車両が正しい車道で走行することを維持し、基本的な車道変更操作を完了する。例示的に、図1bに示すように、初期化パラメータは、カメラの型番がSで、個数が2つで、設置位置が無人車の前のヘッドライトの上と後ろのリバースライトの位置であることを含む。
カメラは、無人車システムのマルチセンサー感知システムの重要な部品であり、多くの早期警報、認識種類のautomatic data acquisition system、ADAS機能を実現するための基礎であり、多くのADAS機能の中で、視覚映像処理システムは、より基礎的であり、運転手にとって直感的であり、カメラは視覚映像処理システムの基礎であるため、車載カメラは、無人車運転に不可欠であり、車道逸脱警報(LDW)、前方衝突警報(FCW)、交通標識識別(TSR)、車道保持補助(LKA)、歩行者衝突警報(PCW)、パノラマパーキング(surround view parkingSVP)、運転者疲労警報などの多くの機能は、カメラによって実現でき、いくつかの機能は、カメラによってのみ実現でき、異なるADAS機能の要件に応じて、カメラの設置位置も同じではなく、カメラの設置位置に応じて、前視、横視、後視と内蔵の4つの部分に分けられてもよく、全部のADAS機能を実現するために、1台の無人車は、通常複数のカメラを設置する必要がある。無人車のシミュレーション実験では、カメラ目標シミュレータを用いてカメラの機能と性能の半実物シミュレーションを行い、対応するシミュレーションカメラを得る。ハードウェア・イン・ザ・ループシステムを通じて、無人車自動走行の実際道路シーンのリアルなシミュレーションを通じて、カメラの自動走行補助システムと高レベル知能走行システムにおける役割を検証する。
第1のカメラソリューションが決定された後、第1のカメラソリューションで説明されるカメラの型番、個数及び設置位置情報に基づいて、シミュレーションカメラをシミュレーション無人車に設置する。例示的に、図1bに示すように、2つの型番がSであるシミュレーションカメラを、シミュレーション無人車の前のヘッドライト位置と後ろのリバースライト位置に設置する。シミュレーションカメラの設置が完了した後、シミュレーション無人車を使ってシミュレーションシーンで自動走行を行い、シミュレーション無人車に設置されたカメラを使ってシミュレーションシーンをスキャンして、シミュレーションシーンに対応する図像を得、即ちシミュレーションシーンに対応するシミュレーション図像を取得する。
ステップ103において、シミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得る。
本実施例において、具体的に、シミュレーション無人車がシミュレーションシーンで自動走行を行って生成するシミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータは、検出範囲、検出安定性、検出精度、検出速度などの情報を含み、第1の感知パラメータは、第1のセンサーソリューションの感知能力の数値化表現である。シミュレーションデータを予め設定されたセンサー感知アルゴリズムに入力して、シミュレーションデータによって表される第1のセンサーソリューションの第1の感知パラメータを得る。予め設定されたセンサー感知能力要件に基づいて、第1のセンサーソリューションの第1の感知パラメータと合わせて、第1のセンサーソリューションを補正し、補正後の予め設定されたセンサー感知能力要件に適合するセンサーソリューションを得、補正後のセンサーソリューションは、無人車に適用されるセンサーソリューションである。予め設定されたセンサー感知能力要件は、予め設定されたセンサーソリューションの感知能力要件の数値化表現であり、具体的に、検出範囲、検出安定性、検出精度、検出速度などの複数のパラメータのプリセット要件値を含み、第1の感知パラメータと予め設定されたセンサー感知能力要件に対応する各パラメータ値との違いに基づいて、第1のセンサーソリューションを補正して、予め設定された要件を満たす無人車に適用されるセンサーソリューションを得る。
本実施例において、シミュレーション無人車とシミュレーションシーンを確立し、そのうち、シミュレーションシーンは、シミュレーション無人車のシミュレーション走行のために使用され、初期化パラメータに基づいて、第1のセンサーソリューションを決定し、第1のセンサーソリューションに基づいて、シミュレーション無人車がシミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定し、シミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得る。本実施例において、シミュレーション無人車、シミュレーションシーン及びシミュレーションセンサーを確立し、初期化パラメータに基づいて第1のセンサーソリューションを決定し、シミュレーション無人車走行によって得られたシミュレーションデータを取得し、シミュレーションデータによって表される第1の感知パラメータを決定し、第1の感知パラメータに基づいて第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得る。第1の感知パラメータが、第1のセンサーソリューション及びセンサーの物理的パラメータ、障害物のサイズと運動形態、無人車の車種サイズなどの要素によって決定され、第1の感知パラメータに基づいて第1のセンサーソリューションを補正し、センサーソリューションの補正過程が、センサーの物理的パラメータ、障害物のサイズと運動形態、無人車の車種サイズなどの要素の影響を充分に考慮するため、決定された無人車に適用されるセンサーソリューションの感知能力が強く、感知精度が高く、無人車の安全運行をよく確保することができる。
図2は、本願の実施例によって提供される他のセンサーソリューション決定方法であり、図1に基づいて、以下は図2に示す。
ステップ201において、シミュレーション無人車とシミュレーションシーンを確立し、そのうち、シミュレーションシーンは、シミュレーション無人車のシミュレーション走行のために使用され、初期化パラメータに基づいて、第1のセンサーソリューションを決定する。
ステップ201の方法と原理は、ステップ101とステップ102の方法と原理と類似又は同様であり、ステップ101とステップ102の記載を参照でき、本実施例では繰り返さない。
ステップ202において、第1のセンサーソリューションに基づいて、シミュレーション無人車が静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定し、第1のサブシミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正して第2のセンサーソリューションを得る。
本実施例において、具体的に、静的シミュレーションシーンは、無人車の走行するときの環境情報からなる可視化シーンであってもよく、例えば静的シミュレーションシーンは、道路、家屋、常緑樹、バリケードなどの要素モデルからなる可視化シーンを含む。第1のセンサーソリューションに基づいて、シミュレーションセンサーを無人車に設置し、シミュレーション無人車が静的シミュレーションシーンで自動走行するとき、シミュレーションセンサーは、静的シミュレーションシーンをスキャンして、第1のサブシミュレーションデータを得る。第1のサブシミュレーションデータは、第1のセンサーソリューションでのシミュレーションセンサーによって感知された静的シミュレーションシーンを反映するが、シミュレーションセンサーによって感知された静的シミュレーションシーンは、実際の静的シミュレーションシーンとは完全に一致しないので、第1のサブシミュレーションデータに基づいて第1のセンサーソリューションを補正して第2のセンサーソリューションを得る必要がある。
第1のセンサーソリューションに基づいて、シミュレーションセンサーをシミュレーション無人車に設置し、シミュレーション無人車を使って静的シミュレーションシーンでシミュレーション走行を行い、シミュレーション無人車のシミュレーション走行によって生成された第1のサブシミュレーションデータを、予め設定されたセンサー感知アルゴリズムに入力して、第1のサブシミュレーションデータによって表される第1の感知パラメータを得る。第1の感知パラメータは、第1のセンサーソリューションの感知能力の数値化表現であり、第1の感知パラメータは、検出範囲、検出安定性、検出精度、検出速度などの情報を含む。第1の感知パラメータと予め設定されたセンサー感知能力要件に基づいて、第1のセンサーソリューションを補正して第2のセンサーソリューションを得る。具体的に、第1の感知パラメータが予め設定されたセンサー感知能力要件を満たさないとき、センサーの個数、型番、設置位置などを調整して、調整された第2のセンサーソリューションを得る。
ライダーは、無人車感知システムの核心部品であり、ライダーソリューションは通常、複数のライダーに関連し、複数のライダーの設置ソリューションは、ライダー感知能力を决定する重要な要素であり、そして良好なライダー感知能力は、無人車安全走行を保障する重要な要素である。本実施例において、ライダーの初期化パラメータに基づいて第1のライダーソリューションを決定し、そのうち、初期化パラメータは、当業者の経験に基づいて決定されても良いし、分野内の理論知識、基本要求などに基づいて決定されても良い。
センサーがライダーである場合、シミュレーション無人車がシミュレーションシーンで走行して生成するセンサーデータは、ポイントクラウドデータであり、ポイントクラウドデータを取得する方法は、既存の方法を用いて実現することができ、本実施例では繰り返さない。シミュレーション無人車が静的シミュレーションシーンで走行して第1のサブシミュレーションポイントクラウドを生成し、第1のサブシミュレーションポイントクラウドを予め設定されたポイントクラウド感知アルゴリズムに入力して、第1のサブシミュレーションポイントクラウドによって表される第1の感知パラメータを得、第1の感知パラメータは、ライダーの検出範囲、検出安定性、検出精度、検出速度などの情報を記述する。第1の感知パラメータと予め設定されたライダー感知要件に基づいて、第1の感知パラメータが予め設定されたライダー感知要件を満たさないとき、第1のライダーソリューションを補正する。具体的に、ライダーの個数、型番、設置位置などを調整して、調整された第2のライダーソリューションを得る。
カメラは、同様に無人車感知システムの核心部品であり、センサーがカメラである場合、シミュレーション無人車がシミュレーションシーンで走行して生成するセンサーデータは、図像データである。シミュレーション無人車が静的シミュレーションシーンで走行して第1のサブシミュレーション図像を生成し、第1のサブシミュレーション図像を予め設定された図像感知アルゴリズムに入力して、第1のサブシミュレーション図像によって表される第1の感知パラメータを得、第1の感知パラメータと予め設定されたカメラ感知要件に基づいて、第1のカメラソリューションを補正して第2のカメラ感知ソリューションを得る。
説明を容易にするために、本実施例の第1のセンサーソリューションは、
Figure 0007274515000001
であると仮定し、そのうち、
Figure 0007274515000002
は、シミュレーションセンサーの型番パラメータを表し、
Figure 0007274515000003
は、シミュレーションセンサーの個数パラメータ表し、
Figure 0007274515000004
は、シミュレーションセンサーの設置位置パラメータを表し、
Figure 0007274515000005
は、シミュレーションシーンに対応する変数を表し、
Figure 0007274515000006
は、第1のセンサーソリューションの第1の感知パラメータを表す。
区別しやすいように、下記の説明において、
Figure 0007274515000007
を用いて第1のセンサーソリューションの第1の感知パラメータを表し、
Figure 0007274515000008
を用いて第2のセンサーソリューションの第2の感知パラメータを表す。前述分析によると、第1のサブシミュレーションデータによって表される感知パラメータは、第1の感知パラメータ
Figure 0007274515000009
であり、第2の感知パラメータ
Figure 0007274515000010
は、予め設定されたセンサー感知能力要件に基づいて決定される。第1のセンサーソリューション
Figure 0007274515000011
において、
Figure 0007274515000012
は、シミュレーションシーンに対応する変数を表し、決定されたシミュレーションシーンにとって、対応する変数は既知且つ不変であるため、
Figure 0007274515000013
における第1の感知パラメータ
Figure 0007274515000014
を第2の感知パラメータ
Figure 0007274515000015
に置き換え、単一要素制御実験を採用するだけで、第2のセンサーソリューションにおけるシミュレーションセンサーの型番パラメータ
Figure 0007274515000016
、シミュレーションセンサーの個数パラメータ
Figure 0007274515000017
及びシミュレーションセンサーの設置位置パラメータ
Figure 0007274515000018
を決定することができ、それにより、第2のセンサーソリューション
Figure 0007274515000019
を得る。そのうち、単一要素制御実験は、本領域の従来の実験手段であり、本実施例では繰り返さない。
センサーがライダー又はカメラである場合、第1の感知パラメータに基づいて第1のセンサーソリューションを調整して、第2のセンサーソリューションを得る過程及び原理は、上記の説明と同じであり、ここでは繰り返さない。
ステップ203において、第2のセンサーソリューションに基づいて、シミュレーション無人車が動的シミュレーションシーンでシミュレーション走行を行って生成する第2のサブシミュレーションデータを決定し、第2のサブシミュレーションデータに基づいて、第2のセンサーソリューションの第2の感知パラメータを決定し、第2の感知パラメータに基づいて、第2のセンサーソリューションを補正して、第3のセンサーソリューションを得、第3のセンサーソリューションを無人車に適用されるセンサーソリューションとして用いる。
本実施例において、具体的に、シミュレーション無人車が走行するシミュレーションシーンは、静的シミュレーションシーン以外にも、動的シミュレーションシーンを含み、動的シミュレーションシーンは、少なくとも1つの動的サブシミュレーションシーンを含み、動的サブシミュレーションシーンは、無人車が走行過程で経験する可能性のある様々な走行動的シーンであってもよく、例えば、直進車道での車両追従直進、直進車道での追い越し、直進車道での追い越され、交差点での直進又は交差点での曲がりなどの走行動的シーンであってもよい。
決定された無人車に適用されるセンサーソリューションは、様々なの動的サブシミュレーションシーンに適用される必要があるので、シミュレーション無人車が少なくとも1つの動的サブシミュレーションシーンでシミュレーション走行するときに生成する少なくとも1つの第2のサブシミュレーションデータを決定し、少なくとも1つの第2のサブシミュレーションデータにおける第2のサブシミュレーションデータの各々は、対応する動的サブシミュレーションシーンでの第2のセンサーソリューションの感知能力を表すことができる。少なくとも1つの第2のサブシミュレーションデータを予め設定されたセンサー感知アルゴリズムに入力して、第2のセンサーソリューションの第2の感知パラメータを得る。第2の感知パラメータは、少なくとも1つの第2のサブシミュレーションデータに基づいて演算して得られ、複数の動的サブシミュレーションシーンでの第2のセンサーソリューションの総合感知能力を反映し、具体的に、第2の感知パラメータは、第2のセンサーソリューションの総合感知能力の数値化表現である。第2の感知パラメータと予め設定されたセンサー感知能力要件との違いに基づいて、第2のセンサーソリューションにおけるセンサーの個数、型番及び設置位置を調整する。第2のセンサーソリューションは、決定されたシミュレーション無人車の静的シミュレーションシーンでのセンサーソリューションであり、シミュレーション無人車が動的シミュレーションシーンで走行して生成する第2のサブシミュレーションデータに基づいて、第2のセンサーソリューションを最適化し続け、動的シミュレーションシーンに適用される第3のセンサーソリューションを得る。
第2のサブシミュレーションデータは、第2のセンサーソリューションであるとき、シミュレーションセンサーによって感知された動的シミュレーションシーンを反映し、第2のサブシミュレーションデータを用いて第2のセンサーソリューションを補正して、第2のセンサーソリューションの感知能力を改善して、第3のセンサーソリューションを得る。第3のセンサーソリューションであるとき、シミュレーションセンサーによって感知される動的シミュレーションシーンが、実際の動的シミュレーションシーンとできるだけ一致させることができる。第2のセンサーソリューションを補正して第3のセンサーソリューションを得る方法と原理は、ステップ202における第1のセンサーソリューションを補正して第2のセンサー感知ソリューションを得る方法と原理と類似又は同様であり、ステップ202の関連する記載を参照してよく、本実施例では繰り返さない。
第3のセンサーソリューションは、実際の無人車に応用できるセンサーソリューションであり、第3のセンサーソリューションにおけるシミュレーション無人車に設置されたシミュレーションセンサーの型番、個数、設置位置は、実際の無人車に設置されるセンサーの型番、個数、設置位置である。シミュレーション無人車を利用してシミュレーションシーンで走行してシミュレーションデータを得、シミュレーションデータを利用してセンサーソリューションを補正し続け、最終的には実際の無人車に適用されるセンサーソリューションを得る。センサーソリューションの補正過程では、無人車の実際走行環境、センサーの物理的パラメータ、無人車のサイズと外観、障害物形態及び運動特徴などの様々な要素の影響を充分に考慮したので、センサーソリューションの補正コストを効果的に制御する上で、センサーソリューションの感知精度と感知能力を確保し、無人車の安全運行を確保することに役立つ。
本実施例において、シミュレーション無人車とシミュレーションシーンを確立し、そのうち、シミュレーションシーンは、シミュレーション無人車のシミュレーション走行のために使用され、初期化パラメータに基づいて、第1のセンサーソリューションを決定し、第1のセンサーソリューションに基づいて、シミュレーション無人車が静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定し、第1のサブシミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正して第2のセンサーソリューションを得、第2のセンサーソリューションに基づいて、シミュレーション無人車が動的シミュレーションシーンでシミュレーション走行を行って生成する第2のサブシミュレーションポイントクラウドを決定し、第2のサブシミュレーションポイントクラウドに基づいて、第2のセンサーソリューションの第2の感知パラメータを決定し、第2の感知パラメータに基づいて、第2のセンサーソリューションを補正して第3のセンサーソリューションを得、第3のセンサーソリューションを無人車に適用されるセンサーソリューションとして用いる。本実施例の方法において、シミュレーション実験を利用してセンサーソリューションを補正する過程で、静的シミュレーションシーンにおけるシミュレーションセンサーによって採集された第1のサブシミュレーションデータを利用して、第1のセンサーソリューションを補正し、動的シミュレーションシーンにおけるシミュレーションセンサーによって採集された第2のサブシミュレーションデータを利用して、第2のセンサーソリューションを補正する。無人車が実際の走行過程で経験する可能性のある様々な静的シーンと様々な動的シーンを充分に考慮し、決定された無人車に適用されるセンサーソリューションは、無人車の実際走行過程のニーズにより適合し、センサーソリューションの感知能力と感知精度は、無人車が実際の走行過程で経験する可能性のある多様なシーンにより適応し、そのため、当該方法で決定された無人車に適用されるセンサーソリューションは、無人車の安全運行を確保することに役立つ。センサーソリューションの感知パラメータが、センサーの物理的パラメータ、障害物サイズ、無人車サイズなどの要素によって影響されるので、感知パラメータに基づいてセンサーソリューションを補正し、決定されたセンサーソリューションの感知精度が高く、感知能力が強く、無人車の安全運行を確保することに役立つ。
図3は、本願の実施例によって提供されるセンサーソリューション決定装置の概略構成図であり、図3に示すように、当該装置は、
シミュレーション無人車とシミュレーションシーンを確立するために使用され、そのうち、シミュレーションシーンが、シミュレーション無人車のシミュレーション走行のために使用される、第1の処理ユニット1と、
初期化パラメータに基づいて、第1のセンサーソリューションを決定し、第1のセンサーソリューションに基づいて、シミュレーション無人車がシミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定するための第2の処理ユニット2と、
シミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得るための第3の処理ユニット3と、を含む。
本実施例において、シミュレーション無人車とシミュレーションシーンを確立し、そのうち、シミュレーションシーンは、シミュレーション無人車のシミュレーション走行のために使用され、初期化パラメータに基づいて、第1のセンサーソリューションを決定し、第1のセンサーソリューションに基づいて、シミュレーション無人車がシミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定し、シミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得る。本実施例において、シミュレーション無人車、シミュレーションシーン及びシミュレーションセンサーを確立し、初期化パラメータに基づいて第1のセンサーソリューションを決定し、シミュレーション無人車走行によって得られるシミュレーションデータを取得し、シミュレーションデータによって表される第1の感知パラメータを決定し、第1の感知パラメータに基づいて第1のセンサーソリューションを補正して、無人車に適用されるセンサーソリューションを得り、第1の感知パラメータは、第1のセンサーソリューションとセンサーの物理的パラメータ、障害物サイズと無人車の車種サイズによって決定されるので、第1の感知パラメータに基づいて第1のセンサーソリューションを補正し、センサーソリューションの補正過程は、センサーの物理的パラメータ、障害物サイズと無人車の車種サイズの影響を充分に考慮したので、決定された無人車に適用されるセンサーソリューションの感知能力が強く、感知精度が高く、無人車の安全運行をよく確保することができる。
図4は、本願の実施例によって提供される他のセンサーソリューション決定装置の概略構成図であり、図3に基づいて、図4に示すように、
シミュレーションシーンは、静的シミュレーションシーンを含み、第2の処理ユニット2は、
第1のセンサーソリューションに基づいて、シミュレーション無人車が静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定するための第1の処理サブユニット21を含み、
第3の処理ユニット3は、
第1のサブシミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正し、無人車に適用されるセンサーソリューションを得るための第2の処理サブユニット31を含む。
シミュレーションシーンは、静的シミュレーションシーンと動的シミュレーションシーンを含み、動的シミュレーションシーンは、少なくとも1つの動的サブシミュレーションシーンを含み、第2の処理ユニット2は、
第1のセンサーソリューションに基づいて、シミュレーション無人車が静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定するための第3の処理サブユニット22を含み、
第3の処理ユニット3は、
第1のサブシミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正して第2のセンサーソリューションを得るための第4の処理サブユニット32と、
第2のセンサーソリューションに基づいて、シミュレーション無人車が少なくとも1つの動的サブシミュレーションシーンでシミュレーション走行を行って生成する少なくとも1つの第2のサブシミュレーションデータを決定するための第5の処理サブユニット33と、
少なくとも1つの第2のサブシミュレーションデータにおける第2のサブシミュレーションデータの各々に基づいて、第2のセンサーソリューションの第2の感知パラメータを決定し、第2の感知パラメータに基づいて、第2のセンサーソリューションを補正して、第3のセンサーソリューションを得、第3のセンサーソリューションを無人車に適用されるセンサーソリューションとして用いるための第6の処理サブユニット34と、を含む。
第2の処理ユニット2は、
シミュレーションセンサーを確立し、第1のセンサーソリューションに基づいて、シミュレーションセンサーをシミュレーション無人車に設置するための第7の処理サブユニット23と、
シミュレーションセンサーが設置されたシミュレーション無人車が、シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定するための第8の処理サブユニット24と、を含む。
第3の処理ユニット3は、
シミュレーションデータを予め設定されたセンサー感知アルゴリズムに入力して、シミュレーションデータによって表される第1の感知パラメータを得るための第9の処理サブユニット35と、
第1の感知パラメータと予め設定されたセンサー感知能力要件に基づいて、第1のセンサーソリューションを補正して無人車に適用されるセンサーソリューションを得るための第10の処理サブユニット36と、を含む。
センサーは、ライダーとカメラを含む。
センサーソリューションは、センサー型番、センサー個数、センサー設置位置のいずれか1つ又は複数を含む。
本実施例において、シミュレーション無人車とシミュレーションシーンを確立し、そのうち、シミュレーションシーンは、シミュレーション無人車のシミュレーション走行のために使用され、初期化パラメータに基づいて、第1のセンサーソリューションを決定し、第1のセンサーソリューションに基づいて、シミュレーション無人車が静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定し、第1のサブシミュレーションデータに基づいて、第1のセンサーソリューションの第1の感知パラメータを決定し、第1の感知パラメータに基づいて、第1のセンサーソリューションを補正して第2のセンサーソリューションを得、第2のセンサーソリューションに基づいて、シミュレーション無人車が動的シミュレーションシーンでシミュレーション走行を行って生成する第2のサブシミュレーションポイントクラウドを決定し、第2のサブシミュレーションポイントクラウドに基づいて、第2のセンサーソリューションの第2の感知パラメータを決定し、第2の感知パラメータに基づいて、第2のセンサーソリューションを補正して、第3のセンサーソリューションを得、第3のセンサーソリューションを無人車に適用されるセンサーソリューションとして用いる。本実施例の方法において、シミュレーション実験を利用してセンサーソリューションを補正する過程で、静的シミュレーションシーンにおけるシミュレーションセンサーによって採集された第1のサブシミュレーションデータを利用して第1のセンサーソリューションを補正し、動的シミュレーションシーンにおけるシミュレーションセンサーによって採集された第2のサブシミュレーションデータを利用して、第2のセンサーソリューションを補正し、無人車が実際の走行過程で経験する可能性のある様々な静的シーンと各種動的シーンを充分に考慮し、決定された無人車に適用されるセンサーソリューションは、無人車の実際走行過程のニーズにより適合し、センサーソリューションの感知能力と感知精度は、無人車が実際の走行過程で経験する可能性のある多様なシーンにより適応し、そのため、当該方法で決定された無人車に適用されるセンサーソリューションは、無人車の安全運行を確保することに役立つ。センサーソリューションの感知パラメータが、センサーの物理的パラメータ、障害物サイズ、無人車サイズなどの要素によって影響されるので、感知パラメータに基づいてセンサーソリューションを補正し、決定されたセンサーソリューションの感知精度が高く、感知能力が強く、無人車の安全運行を確保することに役立つ。
本願の実施例に従って、本願は、電子機器と可読記憶媒体をさらに提供する。
図5に示すように、本願の実施例に係るセンサーソリューション決定方法を実行するための電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなど、さまざまな形式のデジタルコンピュータを表すことを意図している。電子機器は、パーソナルデジタル処理、セルラー電話、スマートフォン、ウェアラブル機器及び他の類似のコンピューティング装置など、さまざまな形式のモバイル装置を表してもよい。本明細書に示す部品、それらの接続及び関係、及びそれらの機能は、単なる例であり、本明細書で記載及び/又は要求される本願の実施を制限することを意図しない。
図5に示すように、当該電子機器は、1つ又は複数のプロセッサ501、メモリ502、及び高速インターフェース及び低速インターフェースを含む様々な部品を接続させるためのインターフェースを含む。様々な部品は、異なるバスを使用して相互に接続され、共通のマザーボードに取り付けられてもよいし、又は必要に応じて他の形態で取り付けられてもよい。プロセッサは、電子機器で実行される命令を処理することができ、前記命令は、グラフィカル・ユーザー・インターフェース(graphical user interface、GUI)のグラフィック情報を外部入力/出力装置(例えばインターフェースに結合された表示機器など)に表示するためのメモリ内又はメモリ上に記憶された命令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを、複数のメモリと共に使用してもよい。同様に、複数の電子機器を接続させて、各機器は、いくつかの必要な操作を提供してもよい(例えば、サーバアレイ、ブレードサーバのグループ、又はマルチプロセッサシステムとして)。図5では、1つのプロセッサ501を例に取る。
メモリ502は、本願によって提供される非一時的なコンピュータ読み取り可能な記憶媒体である。そのうち、前記メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶されることにより、前記少なくとも1つのプロセッサに本願によって提供されるセンサーソリューション決定方法を実行させる。本願の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータ命令が記憶され、当該コンピュータ命令は、コンピュータに本願によって提供されるセンサーソリューション決定方法を実行させるために使用される。
メモリ502は、非一時的なコンピュータ読み取り可能な記憶媒体として、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュール、例えば、本願の実施例におけるセンサーソリューション決定方法に対応するプログラム命令/モジュール(例えば、図3に示す取得ユニット1、第1の処理ユニット2及び第2の処理ユニット3)を記憶するために使用できる。プロセッサ501は、メモリ502に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの様々な機能応用及びデータ処理を実行し、即ち、上記方法の実施例におけるセンサーソリューション決定方法を実施する。
メモリ502には、プログラム記憶領域とデータ記憶領域を含んでもよく、そのうち、プログラム記憶領域は、操作システムと少なくとも1つの機能に必要な応用プログラムを記憶することができ、データ記憶領域は、センサーソリューションを決定する電子機器の使用に応じて作成されるデータなどを記憶することができる。なお、メモリ502は、高速ランダムアクセスメモリを含んでもよく、また、少なくとも1つの磁気メモリ、フラッシュメモリ、又は他の非一時的な固体メモリなどの非一時的なメモリを含んでもよい。いくつかの実施例では、メモリ502は、選択的に、プロセッサ501に対してリモートに設定されたメモリを含み、これらのリモートメモリは、ネットワークを介してセンサーソリューションを決定する電子機器に接続されてもよい。上記ネットワークの実例は、インターネット、企業イントラネット、ローカルネットワーク、モバイル通信ネットワーク、及びこれらの組み合わせを含むが、これらに限定されない。
センサーソリューション決定方法の電子機器は、入力装置503と出力装置504をさらに含んでもよい。プロセッサ501、メモリ502、入力装置503及び出力装置504は、バス又は他の形態で接続されてもよいが、図5では、バスによる接続を例とする。
入力装置503は、入力されたデジタル又はキャラクタ情報を受信し、及びセンサーソリューションを決定する電子機器のユーザ設定及び機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、指示棒、1つ又は複数のマウスボタン、トラックボール、操縦棒などの入力装置である。出力装置504は、表示機器、補助照明装置(例えば、発光ダイオード(LED))及び触覚フィードバック装置(例えば、振動モーター)などを含んでもよい。当該表示機器は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを含んでもよい。いくつかの実施形態では、表示機器はタッチスクリーンであってもよい。
本明細書で説明するシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実施されることができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含んでもよく、当該1つ又は複数コンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムで実行及び/又は解釈されでよく、当該プログラマブルプロセッサは、専用又は汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に送信することができる。
本発明の実施例において、本発明は、コンピュータプログラムを提供し、該コンピュータプログラムは、可読記憶媒体に記憶される。電子機器の少なくとも1つのプロセッサは、コンピュータプログラムを可読記憶媒体から読み取ることができ、少なくとも1つのプロセッサが、コンピュータプログラムを実行することにより、電子機器は上記いずれか1つの実施例による解決手段を実行する。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェア応用、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、ハイレベル手順及び/又はオブジェクト向けのプログラミング言語、及び/又はアセンブリ/機械言語を用いてこれらの計算プログラムを実施することができる。本明細書で使用されるように、「機械可読媒体」及び「コンピュータ可読媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブル論理装置(PLD))を指し、機械可読信号としての機械命令を受信する機械可読媒体を含む。「機械可読信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとの対話を提供するために、ここで説明されるシステム及び技術をコンピュータで実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)、及びユーザがコンピュータに入力を提供できるキーボード及びポインティングデバイス(例えば、マウス又はトラックボール)を有する。他の種類の装置は、さらにユーザとの対話を提供するために使用されてもよく、例えば、ユーザに提供されるフィードバックは、任意の形式の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力、音声入力、又は触覚入力を含む)を使用して、ユーザからの入力を受信することができる。
本明細書で説明するシステム及び技術は、バックグラウンド部品を含むコンピューティングシステム(例えば、データサーバとして)、又は中間部品を含むコンピューティングシステム(例えば、応用サーバ)、及び前端部品を含むコンピューティングシステム(例えば、グラフィカルユーザインターフェース又はWebブラウザを備えたユーザコンピュータ、ユーザは、当該グラフィカルユーザインターフェース又は当該Webブラウザを通じて本明細書で説明するシステム及び技術の実施形態と対話できる)、又はこのようなバックグラウンド部品、中間部品、又は前端部品の任意の組合せを含むコンピューティングシステムで実施されてもよい。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を通じて、システムの部品を相互に接続させてもよい。通信ネットワークの例は、ローカルネットワーク(LAN)、広域ネットワーク(WAN)及びインターネットを含む。
コンピュータシステムは、クライアント及びサーバを含んでもよい。通常、クライアント及びサーバは、互いに離れており、通信ネットワークを介して相互作用する。クライアントとサーバとの関係は、対応するコンピュータで実行し、互いにクライアント-サーバ関係を持つコンピュータプログラムによって生成される。
本願の実施例において、上記各実施例は相互参照および参考が可能であり、同じ又は類似のステップと名詞は、1つずつ繰り返さない。
理解すべきものとして、上記のさまざまな形式のプロセスを使用して、ステップの順序を変更、追加、又は削除することができる。例えば、本願に記載された各ステップは、本願に開示された技術の解決手段の所望の結果が達成され得る限り、並列、順次、又は異なる順序で実行されてもよく、本明細書はこれに対して限定しない。
上記の具体的な実施形態は、本願の保護範囲に対する制限を構成しない。当業者は、設計要件及び他の要素によって、様々な補正、組み合わせ、サブ組み合わせ、及び置換を行うことができることを理解すべきである。本願の精神と原則の範囲内で行われた補正、同等置換、及び改善などは、いずれも本願の保護範囲に含まれるものとする。

Claims (13)

  1. 実際の無人車の走行性能データを取得し、前記走行性能データに基づいて、前記実際の無人車に対応するシミュレーション無人車を構築し、車両運行シーンの可視化方法により、シミュレーションシーンを構築することであって、前記シミュレーションシーンは、前記シミュレーション無人車のシミュレーション走行のために使用される、構築することと、
    初期化パラメータに基づいて、第1のセンサーソリューションを決定し、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することであって、前記初期化パラメータは、シミュレーションセンサーのプリセット型番、プリセット個数、プリセット設置位置を含む、決定することと、
    前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得ることであって、前記第1の感知パラメータは、前記第1のセンサーソリューションの感知能力の数値化表現であり、前記センサーソリューションは、センサー型番、センサー個数、センサー設置位置のいずれか1つ又は複数を含む、得ることと、を含み、
    前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することは、
    前記シミュレーションセンサーを構築し、前記第1のセンサーソリューションに基づいて、前記シミュレーションセンサーを前記シミュレーション無人車に設置することと、
    前記シミュレーションセンサーが設置された前記シミュレーション無人車が、前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することと、を含む、端末機器によって実行される、センサーソリューション決定方法。
  2. 前記シミュレーションシーンは、静的シミュレーションシーンを含み、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することは、
    前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定することを含み、
    前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得ることは、
    前記第1のサブシミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得ることを含む、請求項1に記載のセンサーソリューション決定方法。
  3. 前記シミュレーションシーンは、静的シミュレーションシーンと動的シミュレーションシーンを含み、前記動的シミュレーションシーンは、少なくとも1つの動的サブシミュレーションシーンを含み、前記動的サブシミュレーションシーンは、無人車が走行過程で経験する走行動的シーンであり、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定することは、
    前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定することを含み、
    前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得ることは、
    前記第1のサブシミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して第2のセンサーソリューションを得ることと、
    前記第2のセンサーソリューションに基づいて、前記シミュレーション無人車が少なくとも1つの動的サブシミュレーションシーンでシミュレーション走行を行って生成する少なくとも1つの第2のサブシミュレーションデータを決定することと、
    前記少なくとも1つの第2のサブシミュレーションデータにおける第2のサブシミュレーションデータの各々に基づいて、前記第2のセンサーソリューションの第2の感知パラメータを決定し、前記第2の感知パラメータに基づいて、前記第2のセンサーソリューションを補正して、第3のセンサーソリューションを得、前記第3のセンサーソリューションを前記実際の無人車に適用されるセンサーソリューションとして用いることと、を含む、請求項1に記載のセンサーソリューション決定方法。
  4. 前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得ることは、
    前記シミュレーションデータを予め設定されたセンサー感知アルゴリズムに入力して、前記シミュレーションデータによって表される前記第1の感知パラメータを得ることと、
    前記第1の感知パラメータと予め設定されたセンサー感知能力要件に基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得ることと、を含み、前記予め設定されたセンサー感知能力要件は、予め設定されたセンサーソリューションの感知能力要件の数値化表現である、請求項1に記載のセンサーソリューション決定方法。
  5. センサーは、ライダーとカメラを含む、請求項1~4のいずれか1項に記載のセンサーソリューション決定方法。
  6. 実際の無人車の走行性能データを取得し、前記走行性能データに基づいて、前記実際の無人車に対応するシミュレーション無人車を構築し、車両運行シーンの可視化方法により、シミュレーションシーンを構築するために使用され、そのうち、前記シミュレーションシーンは、前記シミュレーション無人車のシミュレーション走行のために使用される、第1の処理ユニットと、
    初期化パラメータに基づいて、第1のセンサーソリューションを決定し、前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定するために使用され、そのうち、前記初期化パラメータは、シミュレーションセンサーのプリセット型番、プリセット個数、プリセット設置位置を含む、第2の処理ユニットと、
    前記シミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得るために使用され、そのうち、前記第1の感知パラメータは、前記第1のセンサーソリューションの感知能力の数値化表現であり、前記センサーソリューションは、センサー型番、センサー個数、センサー設置位置のいずれか1つ又は複数を含む、第3の処理ユニットと、を含み、
    前記第2の処理ユニットは、
    前記シミュレーションセンサーを構築し、前記第1のセンサーソリューションに基づいて、前記シミュレーションセンサーを前記シミュレーション無人車に設置するための第7の処理サブユニットと、
    前記シミュレーションセンサーが設置された前記シミュレーション無人車が、前記シミュレーションシーンでシミュレーション走行を行って生成するシミュレーションデータを決定するための第8の処理サブユニットと、を含む、センサーソリューション決定装置。
  7. 前記シミュレーションシーンは、静的シミュレーションシーンを含み、前記第2の処理ユニットは、
    前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定するための第1の処理サブユニットを含み、
    第3の処理ユニットは、
    前記第1のサブシミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得るための第2の処理サブユニットを含む、請求項6に記載のセンサーソリューション決定装置。
  8. 前記シミュレーションシーンは、静的シミュレーションシーンと動的シミュレーションシーンを含み、前記動的シミュレーションシーンは、少なくとも1つの動的サブシミュレーションシーンを含み、前記動的サブシミュレーションシーンは、無人車が走行過程で経験する走行動的シーンであり、前記第2の処理ユニットは、
    前記第1のセンサーソリューションに基づいて、前記シミュレーション無人車が前記静的シミュレーションシーンでシミュレーション走行を行って生成する第1のサブシミュレーションデータを決定するための第3の処理サブユニットを含み、
    前記第3の処理ユニットは、
    前記第1のサブシミュレーションデータに基づいて、前記第1のセンサーソリューションの第1の感知パラメータを決定し、前記第1の感知パラメータに基づいて、前記第1のセンサーソリューションを補正して第2のセンサーソリューションを得るための第4の処理サブユニットと、
    前記第2のセンサーソリューションに基づいて、前記シミュレーション無人車が少なくとも1つの動的サブシミュレーションシーンでシミュレーション走行を行って生成する少なくとも1つの第2のサブシミュレーションデータを決定するための第5の処理サブユニットと、
    前記少なくとも1つの第2のサブシミュレーションデータにおける第2のサブシミュレーションデータの各々に基づいて、前記第2のセンサーソリューションの第2の感知パラメータを決定し、前記第2の感知パラメータに基づいて、前記第2のセンサーソリューションを補正して第3のセンサーソリューションを得、前記第3のセンサーソリューションを前記実際の無人車に適用されるセンサーソリューションとして用いるための第6の処理サブユニットと、を含む、請求項6に記載のセンサーソリューション決定装置。
  9. 前記第3の処理ユニットは、
    前記シミュレーションデータを予め設定されたセンサー感知アルゴリズムに入力して、前記シミュレーションデータによって表される第1の感知パラメータを得るための第9の処理サブユニットと、
    前記第1の感知パラメータと予め設定されたセンサー感知能力要件に基づいて、前記第1のセンサーソリューションを補正して、前記実際の無人車に適用されるセンサーソリューションを得るための第10の処理サブユニット、を含み、前記予め設定されたセンサー感知能力要件は、予め設定されたセンサーソリューションの感知能力要件の数値化表現である、請求項6に記載のセンサーソリューション決定装置。
  10. センサーは、ライダーとカメラを含む、請求項6~9のいずれか1項に記載のセンサーソリューション決定装置。
  11. 少なくとも1つのプロセッサ、及び
    前記少なくとも1つのプロセッサと通信接続されるメモリを含み、そのうち、
    前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが請求項1~5のいずれか1項に記載のセンサーソリューション決定方法を実行する、電子機器。
  12. コンピュータ命令を記憶する非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令は、コンピュータに請求項1~5のいずれか1項に記載のセンサーソリューション決定方法を実行させるために使用される、コンピュータ可読記憶媒体。
  13. コンピュータプログラムであって、前記コンピュータプログラムは、プロセッサによって実行されるとき、請求項1~5のいずれか1項に記載のセンサーソリューション決定方法を実施する、コンピュータプログラム。
JP2021006472A 2020-01-20 2021-01-19 センサーソリューション決定方法、装置、機器及び記憶媒体 Active JP7274515B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010066495.3A CN111324945B (zh) 2020-01-20 2020-01-20 传感器方案确定方法、装置、设备及存储介质
CN202010066495.3 2020-01-20

Publications (2)

Publication Number Publication Date
JP2021098506A JP2021098506A (ja) 2021-07-01
JP7274515B2 true JP7274515B2 (ja) 2023-05-16

Family

ID=71173127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021006472A Active JP7274515B2 (ja) 2020-01-20 2021-01-19 センサーソリューション決定方法、装置、機器及び記憶媒体

Country Status (5)

Country Link
US (1) US11953605B2 (ja)
EP (1) EP3816663A3 (ja)
JP (1) JP7274515B2 (ja)
KR (1) KR20210038444A (ja)
CN (1) CN111324945B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111513B (zh) * 2021-04-13 2024-04-12 上海商汤临港智能科技有限公司 传感器配置方案确定方法、装置、计算机设备及存储介质
WO2023010540A1 (zh) * 2021-08-06 2023-02-09 深圳市大疆创新科技有限公司 激光雷达的扫描结果的验证方法、装置、设备及存储介质
CN113806862B (zh) * 2021-09-07 2022-08-30 北京三快在线科技有限公司 无人车仿真方法、装置、存储介质及电子设备
CN114419882B (zh) * 2021-12-30 2023-05-02 联通智网科技股份有限公司 感知系统布置参数优化方法、设备终端及存储介质
CN115616937B (zh) * 2022-12-02 2023-04-04 广汽埃安新能源汽车股份有限公司 自动驾驶仿真测试方法、装置、设备和计算机可读介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017079229A1 (en) 2015-11-04 2017-05-11 Zoox, Inc. Simulation system and methods for autonomous vehicles
WO2018071708A1 (en) 2016-10-14 2018-04-19 Zoox, Inc. Scenario description language for autonomous vehicle simulation
JP2018514042A (ja) 2015-04-24 2018-05-31 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation 自律車両シミュレーションシステム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004058703B4 (de) * 2004-09-27 2006-11-16 Daimlerchrysler Ag Anordnung und Verfahren zum Bestimmen einer Anordnung von Sensoren an einem Kraftfahrzeug
PL1788461T3 (pl) * 2005-11-22 2010-02-26 Multitel Asbl Urządzenie i sposób projektowania czujnikowego zespołu przeznaczonego dla bezpiecznego automatycznego systemu, automatyczny system, element programowy oraz nośnik odczytywany komputerowo
JP4861355B2 (ja) * 2008-02-13 2012-01-25 株式会社東芝 道路交通情報システム
JP6236448B2 (ja) * 2013-06-21 2017-11-22 株式会社日立製作所 センサ配置決定装置およびセンサ配置決定方法
US9671214B2 (en) * 2013-07-17 2017-06-06 Infineon Technologies Ag Discrete magnetic angle sensor device, a magnetic angle sensor arrangement, a method for generating an angle signal and a method for providing a sensor signal
CN103455663B (zh) * 2013-08-01 2016-09-07 上海汽车集团股份有限公司 新能源客车切氢切电安全系统的传感器布置方法
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
DE102015109169A1 (de) * 2015-06-10 2016-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Verbauposition einer Sensoreinheit, Kommunikationssystem und Kraftfahrzeug
US10496766B2 (en) 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
CN114643995A (zh) * 2015-11-04 2022-06-21 祖克斯有限公司 用于自主车辆的模拟系统和方法
US11157014B2 (en) * 2016-12-29 2021-10-26 Tesla, Inc. Multi-channel sensor simulation for autonomous control systems
US10401866B2 (en) 2017-05-03 2019-09-03 GM Global Technology Operations LLC Methods and systems for lidar point cloud anomalies
CN109032102B (zh) * 2017-06-09 2020-12-18 百度在线网络技术(北京)有限公司 无人驾驶车辆测试方法、装置、设备及存储介质
CN110799804A (zh) * 2017-06-30 2020-02-14 深圳市大疆创新科技有限公司 地图生成系统和方法
CN107436986A (zh) * 2017-08-07 2017-12-05 北京汽车研究总院有限公司 车辆主动安全系统的集成装置及仿真应用方法
CN107844858B (zh) * 2017-10-25 2021-11-02 驭势科技(北京)有限公司 一种用于智能驾驶场景确定定位特征及布局的方法与系统
US20190179979A1 (en) * 2017-12-13 2019-06-13 Uber Technologies, Inc. Simulated Sensor Testing
WO2019169604A1 (en) 2018-03-08 2019-09-12 Baidu.Com Times Technology (Beijing) Co., Ltd. Simulation-based method to evaluate perception requirement for autonomous driving vehicles
GB2573738A (en) * 2018-03-27 2019-11-20 Points Protector Ltd Driving monitoring
CN109515448B (zh) * 2018-12-12 2021-06-01 安徽江淮汽车集团股份有限公司 一种自动驾驶传感器布置方法和结构
CN109444350B (zh) * 2018-12-27 2021-09-24 中山大学 一种基于无人机的大气污染物监测传感器的布局方法
CN109709824A (zh) * 2018-12-29 2019-05-03 百度在线网络技术(北京)有限公司 在环仿真方法、平台及系统、服务器、计算机可读介质
WO2020163602A1 (en) * 2019-02-06 2020-08-13 Metamoto, Inc. Simulation and validation of autonomous vehicle system and components
CN109960857B (zh) 2019-02-28 2023-05-23 东软睿驰汽车技术(沈阳)有限公司 一种激光雷达的仿真方法、装置及仿真平台
CN110162089B (zh) * 2019-05-30 2020-11-03 北京三快在线科技有限公司 一种无人驾驶的仿真方法及装置
CN110412374B (zh) * 2019-07-24 2024-02-23 苏州瑞地测控技术有限公司 一种基于多传感器的adas hil测试系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018514042A (ja) 2015-04-24 2018-05-31 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation 自律車両シミュレーションシステム
WO2017079229A1 (en) 2015-11-04 2017-05-11 Zoox, Inc. Simulation system and methods for autonomous vehicles
WO2018071708A1 (en) 2016-10-14 2018-04-19 Zoox, Inc. Scenario description language for autonomous vehicle simulation

Also Published As

Publication number Publication date
EP3816663A2 (en) 2021-05-05
CN111324945A (zh) 2020-06-23
JP2021098506A (ja) 2021-07-01
US20210190961A1 (en) 2021-06-24
EP3816663A3 (en) 2021-07-14
KR20210038444A (ko) 2021-04-07
CN111324945B (zh) 2023-09-26
US11953605B2 (en) 2024-04-09

Similar Documents

Publication Publication Date Title
JP7274515B2 (ja) センサーソリューション決定方法、装置、機器及び記憶媒体
JP2021152906A (ja) 車両軌跡の予測方法、装置、機器及び記憶媒体
US11586218B2 (en) Method and apparatus for positioning vehicle, electronic device and storage medium
KR102559269B1 (ko) 실경 내비게이션 아이콘 표시 방법, 장치, 기기 및 매체
US11698262B2 (en) Method and apparatus for generating route planning model, and storage medium
CN111231950B (zh) 规划车辆变道路径的方法、装置、设备及可读存储介质
EP3862723A2 (en) Method and apparatus for detecting map quality
EP3893148A1 (en) Method and device for controlling vehicle, and vehicle
JP2021119507A (ja) 車線の決定方法、車線測位精度の評価方法、車線の決定装置、車線測位精度の評価装置、電子デバイス、コンピュータ可読記憶媒体、及びプログラム
CN113370911B (zh) 车载传感器的位姿调整方法、装置、设备和介质
CN110794844B (zh) 自动驾驶方法、装置、电子设备及可读存储介质
KR102498439B1 (ko) 차량용 카메라의 외부 파라미터 캘리브레이션 방법, 장치, 시스템 및 저장매체
CN111079079B (zh) 数据修正方法、装置、电子设备及计算机可读存储介质
JP7263308B2 (ja) 車両が位置する車線を決定する方法、装置、機器、および記憶媒体
CN116645649B (zh) 车辆位姿及尺寸估计方法、设备及存储介质
CN112131335B (zh) 车道级地图数据处理方法、装置、电子设备及存储介质
JP2021131397A (ja) 環状交差点のナビゲーション方法、装置、デバイス及び記憶媒体
EP3822850B1 (en) Method and apparatus for 3d modeling
CN116778458B (zh) 车位检测模型构建方法、车位检测方法、设备及存储介质
CN115657494A (zh) 虚拟对象仿真方法、装置、设备及存储介质
CN111753768A (zh) 表示障碍物形状的方法、装置、电子设备和存储介质
CN111252069A (zh) 车辆变道的方法及装置
CN117346801A (zh) 地图获取方法、装置及设备
CN117944713A (en) Automatic driving method, device, domain controller, medium, system and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R150 Certificate of patent or registration of utility model

Ref document number: 7274515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150