JP2023038164A - 障害物検出方法、装置、自動運転車両、機器、及び記憶媒体 - Google Patents

障害物検出方法、装置、自動運転車両、機器、及び記憶媒体 Download PDF

Info

Publication number
JP2023038164A
JP2023038164A JP2022122815A JP2022122815A JP2023038164A JP 2023038164 A JP2023038164 A JP 2023038164A JP 2022122815 A JP2022122815 A JP 2022122815A JP 2022122815 A JP2022122815 A JP 2022122815A JP 2023038164 A JP2023038164 A JP 2023038164A
Authority
JP
Japan
Prior art keywords
processing target
information
detection
obstacle
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022122815A
Other languages
English (en)
Inventor
ジャン、レイ
Lei Zhang
ヤン、カイ
Kai Yang
イン、チジュアン
Qijuan Yin
ジャン、ウジャオ
Wuzhao Zhang
ワン、シャオヤン
Xiaoyan Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Driving Technology Beijing Co Ltd
Original Assignee
Apollo Intelligent Driving Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Driving Technology Beijing Co Ltd filed Critical Apollo Intelligent Driving Technology Beijing Co Ltd
Publication of JP2023038164A publication Critical patent/JP2023038164A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】自動運転車両について、自動運転車両の走行安全を確保するために、障害物をタイムリー且つ効果的に検出する。【解決手段】障害物検出方法は、様々な障害物検出方式を使用して、車両の走行プロセス中の障害物に対して障害物検出を行って、障害物検出の複数の初期検出結果を取得するステップ101であって、複数の初期検出結果は様々な障害物検出方式に対応するステップと、複数の初期検出結果に対して融合処理を行って、融合結果を取得するステップ102と、融合結果に基づいて、障害物検出の最終検出結果を取得するステップ103と、を含む。【選択図】図1

Description

本開示は、コンピュータ技術の分野に関し、具体的には、自動運転、インテリジェント交通、モノのインターネット、深層学習などの技術分野に関し、特に、障害物検出方法、装置、車両、機器、及び記憶媒体に関する。
自動運転車両(Autonomous vehicles;Self-driving automobile)、無人運転車両、コンピュータ運転車両、または車輪付き移動ロボットは、コンピュータシステムを介して無人運転を実現するインテリジェント車両である。
多くのシナリオでは、例えば、自動運転車両について、自動運転車両の走行安全を確保するために、障害物をタイムリー且つ効果的に検出する必要がある。
関連技術では、通常、単一の障害物検出方式を使用して障害物検出を行う。
本開示は、障害物検出方法、装置、機器、及び記憶媒体を提供する。
本開示の一態様によれば、障害物検出方法を提供し、様々な障害物検出方式を使用して、車両の走行プロセス中の障害物に対して障害物検出を行って、前記障害物検出の複数の初期検出結果を取得するステップであって、前記複数の初期検出結果は前記様々な障害物検出方式に対応するステップと、前記複数の初期検出結果に対して融合処理を行って、融合結果を取得するステップと、前記融合結果に基づいて、前記障害物検出の最終検出結果を取得するステップと、を含む。
本開示の別の態様によれば、障害物検出装置を提供し、様々な障害物検出方式を使用して、車両の走行プロセス中の障害物に対して障害物検出を行って、前記障害物検出の複数の初期検出結果を取得するための検出モジュールであって、前記複数の初期検出結果は前記様々な障害物検出方式に対応する検出モジュールと、前記複数の初期検出結果に対して融合処理を行って、融合結果を取得するための融合モジュールと、前記融合結果に基づいて、前記障害物検出の最終検出結果を取得するための決定モジュールと、を含む。
本開示の別の態様によれば、電子機器を提供し、少なくとも一つのプロセッサと、前記少なくとも一つのプロセッサと通信接続されたメモリと、を含み、前記メモリに前記少なくとも一つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサが上記の態様のいずれか一つに記載の方法を実行させる。
本開示の別の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、上記の態様のいずれか一つに記載の方法を実行させる。
本開示の別の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される時に上記の態様のいずれか一つに記載の方法を実現する。
本開示の別の態様によれば、自動運転車両を提供し、上記の態様のいずれか一つに記載の電子機器を含む。
本開示の技術案によれば、障害物検出の精度を向上させることができる。
本明細書で説明された内容は、本開示の実施例のキーまたは重要な特徴を特定することを意図しておらず、本開示の範囲を制限するためにも使用されないことを理解されたい。本開示の他の特徴は、以下の明細書を通じて容易に理解できる。
図面は、本出願をより良く理解するためのものであり、本出願を限定しない。
本開示の第1の実施例による概略図である。 本開示の第2の実施例による概略図である。 本開示の第3の実施例による概略図である。 本開示の第4の実施例による概略図である。 本開示の実施例の障害物検出方法のいずれか1つの方法を実現するための電子機器の概略図である。
以下、図面に基づいて、本出願の例示のな実施例を説明する。理解を容易にするために、本出願の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本出願の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
関連技術では、通常、単一の障害物検出を使用して障害物検出を行う。例えば、レーザレーダーを使用して障害物検出を行い、レーザレーダーの障害物検出結果を最終の障害物検出結果とすることができ、または、自動運転車両上のカメラによって収集された画像を処理して、障害物検出結果を取得し、それを最終の障害物検出結果とすることもできる。
しかし、単一の障害物検出は、すべて検出が不正確であるという問題がある可能性がある。
図1は本開示の第1の実施例による概略図である。本実施例は障害物検出方法を提供し、前記方法は、以下のようなステップを含む。
101、様々な障害物検出方式を使用して、車両の走行プロセス中の障害物に対して障害物検出を行って、前記障害物検出の複数の初期検出結果を取得し、前記複数の初期検出結果は前記様々な障害物検出方式に対応する。
102、前記複数の初期検出結果に対して融合処理を行って、融合結果を取得する。
103、前記複数の障害物センサ間の相関度情報と、前記複数の障害物検出結果と、前記複数の障害物検出結果の精度に基づいて、最終的な検出結果を決定する。
その中、車両は、自動運転車両であってもよく、または、先進運転補助システム(Advanced Driving Assistance System、ADAS)を有する車両であってもよい。
様々な障害物検出方式は、距離測定に基づく障害物検出方式、及びコンピュータビジョンに基づく障害物検出方式などを含むことができる。
距離測定に基づく障害物検出方式は、車両上の距離測定検出装置を使用して実行することができ、距離測定検出装置は、例えば、レーザレーダー、及びミリ波レーダーなどを含む。
コンピュータビジョンに基づく障害物検出方式は、車両上のカメラを介して車両周囲の環境画像を収集し、次に、車両自体のプロセッサで環境画像に対して後続処理を行い、または、車両から環境画像をクラウドに送信し、クラウドによって環境画像に対して後続処理を行って、コンピュータビジョンに基づく障害物検出結果を取得することができる。
自動運転車両を例とし、様々な障害物検出方式は、距離測定に基づく障害物検出方式とコンピュータビジョンに基づく障害物検出方式を含み、レーザレーダーに基づいて距離測定すると仮定すると、図2に示すように、自動運転車両にはレーザレーダー、カメラなどが取付けていることができ、自動運転車両上のレーザレーダーを使用すると、1つの検出結果を取得することができ、自動運転車両上のカメラを使用すると、別の検出結果を取得することができる。区別するために、この時の検出結果は初期検出結果と呼ぶことができ、さらに、レーザレーダーによって取得された検出結果は、第1の初期検出結果と呼ぶことができ、カメラに基づいて取得された検出結果は、第2の初期検出結果と呼ぶことができる。
さらに、図2に示すように、複数の初期検出結果を取得した後、複数の初期検出結果を融合して、融合結果を取得し、次に、融合結果に基づいて最終検出結果を取得することができる。
いくつかの実施例では、前記複数の初期検出結果中の各初期検出結果は、障害物が存在するか否かを指示するために用いられ、前記複数の初期検出結果に対して融合処理を行って、融合結果を取得するステップは、前記複数の初期検出結果中の、障害物の存在を指示する初期検出結果を、処理対象検出結果として選択するステップと、前記処理対象検出結果の融合情報を取得するステップと、前記処理対象検出結果の融合情報に基づいて、前記融合結果を取得するステップと、を含む。
その中、初期検出結果は、1または0であってもよく、1は障害物が存在することを意味し、0は障害物が存在しないことを意味する。
3つの初期検出結果があり、第1の初期検出結果、第2の初期検出結果、及び第3の初期検出結果としてそれぞれ表しすると仮定し、第1の初期検出結果が1であり、第2の初期検出結果が1であり、第3の初期検出結果が0である場合、処理対象検出結果は、第1の初期検出結果と第2の初期検出結果である。
その後、第1の初期検出結果と第2の初期検出結果の融合情報を取得し、前記融合情報に基づいて融合結果を取得することができる。
複数の初期検出結果の中から障害物の存在を指示する初期検出結果を選択し、次に、選択された初期検出結果に対して後続処理を行うことにより、処理量を低減し、処理効率を向上させることができる。
いくつかの実施例では、前記処理対象検出結果は複数であり、前記処理対象検出結果の融合情報は、前記複数の処理対象検出結果中の各処理対象検出結果の精度情報と、前記複数の処理対象検出結果中の2つずつの処理対象検出結果間の相関度情報を含み、前記処理対象検出結果の融合情報を取得するステップは、予め確立された精度検出モデルを使用して、前記車両が存在する環境の環境情報に対して検出処理を行って、前記各処理対象検出結果の精度情報を取得するステップと、予め配置された配置ファイルから、前記2つずつの処理対象検出結果に対応する2つずつの障害物検出方式間の相関度情報を取得し、前記相関度情報を前記2つずつの処理対象検出結果間の相関度情報とするステップと、を含む。
その中、処理対象検出結果が第1の初期検出結果と第2の初期検出結果を含むと仮定すると、第1の初期検出結果の精度及び第2の初期検出結果の精度情報を取得することができ、また、第1の初期検出結果と第2の初期検出結果との間の相関度情報を取得し、上記の精度情報と相関度情報を融合情報とすることもできる。
その中、精度検出モデルを予め確立することができ、当該モデルは、多層パーセプトロン(Multi-Layer Perceptron、MLP)モデルであってもよく、当該モデルの入力は、自動運転車両に対応する環境情報であり、出力は、自動運転車両が有する様々な障害物検出方式における各種障害物検出方式に対応する精度情報である。
当該モデルは、履歴環境情報とそれに対応するラベル情報を使用してトレーニングした後に取得することができ、ラベル情報は、履歴環境情報に対応する各種障害物検出方式の精度情報を手動でラベリングした後に取得することができる。
自動運転車両に対応する環境情報は、天気状況(晴れ、雨、雪など)、光照射強度、雨量強度、雪量強度、霧強度、温度、車両速度、障害物速度、及び障害物との間の距離などを含むことができる。
上記の環境情報は、車両上のセンサを介して検出して取得することができ、または、車両がクラウドから取得することもできる。
様々な障害物検出方式がレーザレーダーとカメラにそれぞれ対応するのを例とし、精度検出モデルを使用して、現在の環境情報の下のレーザレーダーに対応する初期検出結果の精度と、カメラに対応する初期検出結果の精度を取得することができる。精度検出モデルをMLPモデルとするのを例とし、レーザレーダーに対応する初期検出結果の精度はPxで表し、カメラに対応する初期検出結果の精度はPyで表すと仮定すると、図3に示すように、MLPモデルは、環境情報を処理して、PxとPyを出力することができる。
また、クラウドまたは車両自体に配置ファイルを記憶することができる、配置ファイルに異なる障害物検出方式間の相関度情報を予め配置することができ、例えば、レーザレーダーに対応する検出方式とカメラに対応する検出方式との間の相関度情報を配置することができ、その後、当該相関度情報は、対応する初期検出結果間の相関度情報とすることができる。
上記の2つの障害物検出方式を例とし、よく多くの障害物検出方式について、類似の処理を実行できることが理解できる。例えば、3つの障害物検出方式について、具体的には、例えば、レーザレーダーに対応する障害物検出方式、ミリ波レーダーに対応する障害物検出方式、及びカメラに対応する障害物検出方式、この3つの障害物検出方式に対応する初期検出結果は、それぞれ第1の初期検出結果、第2の初期検出結果、及び第3の初期検出結果である。この3つの初期検出結果がすべて障害物の存在を示す場合、例えば、すべて1である場合、精度検出モデルを使用して、第1の初期検出結果の精度情報、第2の初期検出結果の精度情報、及び第3の初期検出結果の精度情報を取得することができる。また、配置ファイルには、レーザレーダーに対応する障害物検出方式とミリ波レーダーに対応する障害物検出方式との間の相関度情報、ミリ波レーダーに対応する障害物検出方式とカメラに対応する障害物検出方式との間の相関度情報、及びレーザレーダーに対応する障害物検出方式とカメラに対応する障害物検出方式との間の相関度情報を予め配置することができ、その後、上記の3つの精度情報と3つの相関度情報に基づいて融合処理を行って、融合結果を取得することができる。
精度検出モデルと配置ファイルを使用することによって、対応する精度情報と相関度情報を適応的に取得することができる。
いくつかの実施例では、前記処理対象検出結果は複数であり、前記処理対象検出結果の融合情報は、前記複数の処理対象検出結果中の各処理対象検出結果の精度情報、及び前記複数の処理対象検出結果中の2つの処理対象検出結果間の相関度情報を含み、前記処理対象検出結果の融合情報に基づいて、前記融合結果を取得するステップは、前記各処理対象検出結果の精度情報を大きい順にソートして、ソート後の精度情報を取得するステップと、予め設定された関数関係を使用して、前記ソート後の精度情報と、前記2つずつの処理対象検出結果間の相関度情報に基づいて、前記融合結果を取得するステップと、を含み、前記予め設定された関数関係は、前記融合結果と前記精度情報及び前記相関度情報との間の関係を示すために用いられる。
その中、前記精度情報は第1の部分の精度情報と第2の部分の精度情報に分けることができ、相関度情報は第1の部分と第2の部分との間の相関度情報である。前記予め設定された関数関係では、前記融合結果は、前記2つの精度情報のうちの1つの精度情報、前記2つの精度情報のうちのもう1つの精度情報、及び前記相関度情報の積と比例関係になる。
さらに、2つの処理対象検出結果について、上記の第1の部分と第2の部分は、1つの処理対象検出結果に分けることができる。3つ以上の処理対象検出結果について、第2の部分は1つの処理対象検出結果であってもよく、第1の部分は可変数の処理対象検出結果を含むことができ、初期値は1つの処理対象検出結果であり、その後徐々に増加することができる。
具体的には、2つの処理対象検出結果をそれぞれx、yで表し、対応する精度情報が大きい順にソートした後はPxとPyであり、2つの処理対象検出結果の相関度情報はRxyで表し、融合結果はPで表すと仮定すると、融合結果Pの計算公式は以下のようである。
P=1-(1-Px)*(1-Py*Rxy)。
その中、Px、Py、及びRxyは、すべて[0、1]間の値である。
2つの処理対象検出結果がそれぞれレーザレーダーに対応する初期検出結果、及びカメラに対応する初期検出結果であると仮定すると、レーザレーダーに対応する初期検出結果の精度情報が0.8であり、カメラに対応する初期検出結果の精度が0.9であり、予め配置された両者間の相関度情報が0.1である場合、上記の演算をへて、融合結果Pは以下のようになる。
P=1-(1-0.9)*(1-0.8*0.1)=0.972。
3つの処理対象検出結果を例とし、3つの処理対象検出結果がそれぞれx、y、zで表し、対応する精度情報が大きい順にソートした後はPx、Py、及びPzであり、3つの処理対象検出結果中の2つずつ間の相関度情報がRxy、Rxz、及びRyzで表し、融合結果がPで表すと仮定すると、融合結果Pの計算公式は以下のようである。
Pxy=1-(1-Px)*(1-Py*Rxy);
P=1-(1-Pxy)*(1-Pz*Rxyz)
その中、Rxyzは、RxzとRyzとの間の小さい値として選択する。
その中、Px、Py、Pz、Rxy、Rxz、及びRyzは、すべて[0、1]間の値である。
精度情報をソートし、ソート後の精度情報と相関度情報に基づいて融合結果の計算を行うことによって、融合結果の精度を向上させることができる。
いくつかの実施例では、前記融合結果に基づいて、前記障害物検出の最終検出結果を取得するステップは、前記融合情報が予め設定された閾値以上である場合、前記最終検出結果に障害物が存在すると決定するステップを含む。
上記の融合結果P=0.972を例とし、予め設定された閾値が0.5であると仮定し、0.972が0.5より大きいので、この時は障害物が存在する。
逆に、融合が予め設定された閾値より小さい場合、この時は障害物が存在しないと決定する。
融合情報と予め設定された閾値を比較することによって、最終的な検出結果を簡単かつ効率的に決定することができる。
さらに、自動運転車両は、障害物の最終検出結果に基づいて対応する操作を実行することができ、例えば、最終検出結果が障害物が存在する場合、ブレーキ操作を実行することができる。
本開示の実施例では、様々な障害物検出方式を使用して、複数の初期検出結果を取得し、前記初期検出結果に対して融合処理を行い、融合結果に基づいて障害物検出の最終検出結果を取得することによって、様々な障害物検出方式の融合を実現し、障害物検出の精度を向上させることができる。
図4は本開示の第4の実施例による概略図である。本実施例は障害物検出装置を提供する。図4に示すように、当該装置400は、検出モジュール401、融合モジュール402、及び決定モジュール403を含む。
検出モジュール401は、様々な障害物検出方式を使用して、車両の走行プロセス中の障害物に対して障害物検出を行って、前記障害物検出の複数の初期検出結果を取得するために用いられ、前記複数の初期検出結果は前記様々な障害物検出方式に対応し、融合モジュール402は、前記複数の初期検出結果に対して融合処理を行って、融合結果を取得するために用いられ、決定モジュール403は、前記融合結果に基づいて、前記障害物検出の最終検出結果を取得するために用いられる。
いくつかの実施例では、前記複数の初期検出結果中の各初期検出結果は、障害物が存在するか否かを指示するために用いられ、前記融合モジュール402は、具体的には、前記複数の初期検出結果中の、障害物の存在を指示する初期検出結果を、処理対象検出結果として選択し、前記処理対象検出結果の融合情報を取得し、前記処理対象検出結果の融合情報に基づいて、前記融合結果を取得するために用いられる。
いくつかの実施例では、前記処理対象検出結果は複数であり、前記処理対象検出結果の融合情報は、前記複数の処理対象検出結果中の各処理対象検出結果の精度情報と、前記複数の処理対象検出結果中の2つずつの処理対象検出結果間の相関度情報を含み、前記融合モジュール402は、さらに、具体的には、予め確立された精度検出モデルを使用して、前記車両が存在する環境の環境情報に対して検出処理を行って、前記各処理対象検出結果の精度情報を取得し、予め配置された配置ファイルから、前記2つずつの処理対象検出結果に対応する2つずつの障害物検出方式間の相関度情報を取得し、前記取得された相関度情報を前記2つずつの処理対象検出結果間の相関度情報とするために用いられる。
いくつかの実施例では、前記処理対象検出結果は複数であり、前記処理対象検出結果の融合情報は、前記複数の処理対象検出結果中の各処理対象検出結果の精度情報と、前記複数の処理対象検出結果中の2つずつの処理対象検出結果間の相関度情報を含み、前記融合モジュール402は、さらに、具体的には、前記各処理対象検出結果の精度情報を大きい順にソートして、ソート後の精度情報を取得し、予め設定された関数関係を使用して、前記ソート後の精度情報と、前記2つずつの処理対象検出結果間の相関度情報に基づいて、前記融合結果を取得するために用いられ、前記予め設定された関数関係は、前記融合結果と前記精度情報及び前記相関度情報との間の関係を示すために用いられる。
いくつかの実施例では、前記決定モジュール403は、具体的には、前記融合情報が予め設定された閾値以上である場合、前記最終検出結果に障害物が存在すると決定するために用いられる。
本開示の実施例では、様々な障害物検出方式を使用して、複数の初期検出結果を取得し、前記初期検出結果に対して融合処理を行い、融合結果に基づいて障害物検出の最終検出結果を取得することによって、様々な障害物検出方式の融合を実現し、障害物検出の精度を向上させることができる。
本開示の実施例では、異なる実施例の同じまたは類似内容は、互いに参照できることを理解することができる。
本開示の実施例における「第1」、「第2」などは、区別のためにのみ使用され、重要度の高低、タイミングの前後などを示さないことを理解されたい。
本開示の実施例によれば、本開示は、さらに、電子機器、読み取り可能な記憶媒体、およびコンピュータプログラム製品を提供する。
図5に示すように、本開示の実施例の例を実現するための電子機器500のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様の計算デバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
図5に示すように、電子機器500は計算ユニット501を含み、計算ユニット501は、読み取り専用メモリ(ROM)502に記憶されているコンピュータプログラムまたは記憶ユニット508からランダムアクセスメモリ(RAM)503にロードされたコンピュータプログラムに基づいて、様々な適切な動作と処理を実行することができる。RAM503には、電子機器500が動作するに必要な様々なプログラムとデータも記憶することができる。計算ユニット501、ROM502、およびRAM503は、バス504を介してお互いに接続される。入出力(I/O)インターフェース505もバス504に接続される。
電子機器500内の複数のコンポーネントは、I/Oインターフェース505に接続されており、キーボード、マウスなどの入力ユニット506と、様々なタイプのディスプレイ、スピーカなどの出力ユニット507と、ディスク、光ディスクなどの記憶ユニット508と、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット509と、を含む。通信ユニット509は、電子機器500が、インターネットなどのコンピュータネットワーク、および/または様々な電気通信ネットワークを介して他の機器と情報/データを交換することを可能にする。
計算ユニット501は、様々な処理と計算能力を備える汎用および/または専用の処理コンポーネントである。計算ユニット501のいくつかの例は、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)計算チップ、様々な機械学習モデルアルゴリズムを実行する計算ユニット、デジタル信号プロセッサ(DSP)、および任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット501は、障害物検出方法などの上記の様々な方法と処理を実行する。例えば、いくつかの実施例では、障害物検出方法は、記憶ユニット508などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。いくつかの実施例では、コンピュータプログラムの一部または全部は、ROM502および/または通信ユニット509を介して電子機器500にロードおよび/またはインストールされる。コンピュータプログラムがRAM503にロードされて計算ユニット501によって実行される場合、上記の障害物検出方法の一つまたは複数のステップを実行することができる。代替的に、他の実施例では、計算ユニット501は、他の任意の適切な方式(例えば、ファームウェアによって)を介して障害物検出方法を実行するように構成されることができる。
本開示の実施例によれば、本開示は、上記の図5に示す電子機器を含む自動運転車両をさらに提供する。
本明細書で説明されるシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施方式は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
本開示の方法を実施するためのプログラムコードは、一つまたは複数のプログラミング言語の任意の組み合わせを使用して作成することができる。これらのプログラムコードは、プログラムコードがプロセッサまたはコントローラによって実行される時にフローチャートおよび/またはブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、または他のプログラム可能なデータ処理装置のプロセッサまたはコントローラに提供することができる。プログラムコードは、完全に機械上で実行されたり、部分的に機械上で実行されたり、独立したソフトウェアパッケージとして部分的に機械上で実行され、部分的にリモート機械上実行されたり、または完全にリモート機械またはサーバ上で実行されたりすることができる。
本開示の文脈において、機械読み取り可能な媒体は、命令実行システム、装置、または機器の使用、または命令実行システム、装置または機器と組み合わせて使用するプログラムを含むか、または記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁気、赤外線、または半導体システム、装置または機器、または上記の内容の任意の適切な組み合わせを含むが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、一つまたは複数のワイヤに基づく電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM またはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記の内容の任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含む計算システム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含む計算システム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含む計算システム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含む計算システムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークと、を含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバは、クラウドサーバであってもよく、クラウド計算またはクラウドホストとも呼ばれ、クラウド計算サービスシステムの中の一つのホスト製品であり、従来の物理ホストとVPSサービス(「Virtual Private Server」、または「VPS」と略称する)に、存在する管理困難度が高く、業務拡張性が弱い欠陥を解決する。サーバは、分散システムのサーバであってもよく、またはブロックチェーンを組み合わせるサーバであってもよい。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記の具体的な実施方式は、本開示に対する保護範囲の制限を構成するものではない。当業者は、設計要求と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。

Claims (14)

  1. 障害物検出方法であって、
    様々な障害物検出方式を使用して、車両の走行プロセス中の障害物に対して障害物検出を行って、前記障害物検出の複数の初期検出結果を取得するステップであって、前記複数の初期検出結果は前記様々な障害物検出方式に対応する、ステップと、
    前記複数の初期検出結果に対して融合処理を行って、融合結果を取得するステップと、
    前記融合結果に基づいて、前記障害物検出の最終検出結果を取得するステップと、を含む、
    障害物検出方法。
  2. 前記複数の初期検出結果中の各初期検出結果は、障害物が存在するか否かを指示するために用いられ、
    前記複数の初期検出結果に対して融合処理を行って、融合結果を取得するステップは、
    前記複数の初期検出結果中の、障害物の存在を指示する初期検出結果を、処理対象検出結果として選択するステップと、
    前記処理対象検出結果の融合情報を取得するステップと、
    前記処理対象検出結果の融合情報に基づいて、前記融合結果を取得するステップと、を含む、
    請求項1に記載の障害物検出方法。
  3. 前記処理対象検出結果は複数であり、前記処理対象検出結果の融合情報は、複数の前記処理対象検出結果中の各処理対象検出結果の精度情報と、複数の前記処理対象検出結果中の2つずつの処理対象検出結果間の相関度情報を含み、
    前記処理対象検出結果の融合情報を取得するステップは、
    予め確立された精度検出モデルを使用して、前記車両が存在する環境の環境情報に対して検出処理を行って、前記各処理対象検出結果の精度情報を取得するステップと、
    予め配置された配置ファイルから、前記2つずつの処理対象検出結果に対応する2つずつの障害物検出方式間の相関度情報を取得し、前記取得された相関度情報を前記2つずつの処理対象検出結果間の相関度情報とするステップと、を含む、
    請求項2に記載の障害物検出方法。
  4. 前記処理対象検出結果は複数であり、前記処理対象検出結果の融合情報は、複数の前記処理対象検出結果中の各処理対象検出結果の精度情報と、複数の前記処理対象検出結果中の2つずつの処理対象検出結果間の相関度情報を含み、
    前記処理対象検出結果の融合情報に基づいて、前記融合結果を取得するステップは、
    前記各処理対象検出結果の精度情報を大きい順にソートして、ソート後の精度情報を取得するステップと、
    予め設定された関数関係を使用して、前記ソート後の精度情報と、前記2つずつの処理対象検出結果間の相関度情報に基づいて、前記融合結果を取得するステップと、を含み、前記予め設定された関数関係は、前記融合結果と前記精度情報及び前記相関度情報との間の関係を示すために用いられる、
    請求項2に記載の障害物検出方法。
  5. 前記融合結果に基づいて、前記障害物検出の最終検出結果を取得するステップは、
    前記融合情報が予め設定された閾値以上である場合、前記最終検出結果に障害物が存在すると決定するステップを含む、
    請求項2に記載の障害物検出方法。
  6. 障害物検出装置であって、
    様々な障害物検出方式を使用して、車両の走行プロセス中の障害物に対して障害物検出を行って、前記障害物検出の複数の初期検出結果を取得するための検出モジュールであって、前記複数の初期検出結果は前記様々な障害物検出方式に対応する検出モジュールと、
    前記複数の初期検出結果に対して融合処理を行って、融合結果を取得するための融合モジュールと、
    前記融合結果に基づいて、前記障害物検出の最終検出結果を取得するための決定モジュールと、を含む、
    障害物検出装置。
  7. 前記複数の初期検出結果中の各初期検出結果は、障害物が存在するか否かを指示するために用いられ、前記融合モジュールは、具体的には、
    前記複数の初期検出結果中の、障害物の存在を指示する初期検出結果を、処理対象検出結果として選択し、
    前記処理対象検出結果の融合情報を取得し、
    前記処理対象検出結果の融合情報に基づいて、前記融合結果を取得するために用いられる、
    請求項6に記載の障害物検出装置。
  8. 前記処理対象検出結果は複数であり、前記処理対象検出結果の融合情報は、複数の前記処理対象検出結果中の各処理対象検出結果の精度情報と、複数の前記処理対象検出結果中の2つずつの処理対象検出結果間の相関度情報を含み、前記融合モジュールは、さらに、具体的には、
    予め確立された精度検出モデルを使用して、前記車両が存在する環境の環境情報に対して検出処理を行って、前記各処理対象検出結果の精度情報を取得し、
    予め配置された配置ファイルから、前記2つずつの処理対象検出結果に対応する2つずつの障害物検出方式間の相関度情報を取得し、前記取得された相関度情報を前記2つずつの処理対象検出結果間の相関度情報とするために用いられる、
    請求項7に記載の障害物検出装置。
  9. 前記処理対象検出結果は複数であり、前記処理対象検出結果の融合情報は、複数の前記処理対象検出結果中の各処理対象検出結果の精度情報と、複数の前記処理対象検出結果中の2つずつの処理対象検出結果間の相関度情報を含み、前記融合モジュールは、さらに、具体的には、
    前記各処理対象検出結果の精度情報を大きい順にソートして、ソート後の精度情報を取得し、
    予め設定された関数関係を使用して、前記ソート後の精度情報と、前記2つずつの処理対象検出結果間の相関度情報に基づいて、前記融合結果を取得するために用いられ、前記予め設定された関数関係は、前記融合結果と前記精度情報及び前記相関度情報との間の関係を示すために用いられる、
    請求項7に記載の障害物検出装置。
  10. 前記決定モジュールは、具体的には、
    前記融合情報が予め設定された閾値以上である場合、前記最終検出結果に障害物が存在すると決定するために用いられる、
    請求項7~9のいずれか一つに記載の障害物検出装置。
  11. 電子機器であって、
    少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサに通信接続されたメモリと、を含み、
    前記メモリに前記少なくとも一つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサが請求項1~5のいずれかの一つに記載の障害物検出方法を実行する、
    電子機器。
  12. コンピュータ命令が記憶されているコンピュータで読み取り可能な非一時的な記憶媒体であって、
    前記コンピュータ命令は、前記コンピュータに請求項1~5のいずれかの一つに記載の障害物検出方法を実行させる、
    コンピュータ命令が記憶されているコンピュータで読み取り可能な非一時的な記憶媒体。
  13. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサによって実行される時に請求項1~5のいずれかの一つに記載の障害物検出方法を実現する、
    コンピュータプログラム。
  14. 自動運転車両であって、
    請求項11に記載の電子機器を含む、
    自動運転車両。
JP2022122815A 2021-09-06 2022-08-01 障害物検出方法、装置、自動運転車両、機器、及び記憶媒体 Pending JP2023038164A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111039230.5 2021-09-06
CN202111039230.5A CN113963327B (zh) 2021-09-06 2021-09-06 障碍物检测方法、装置、自动驾驶车辆、设备和存储介质

Publications (1)

Publication Number Publication Date
JP2023038164A true JP2023038164A (ja) 2023-03-16

Family

ID=79461160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022122815A Pending JP2023038164A (ja) 2021-09-06 2022-08-01 障害物検出方法、装置、自動運転車両、機器、及び記憶媒体

Country Status (5)

Country Link
US (1) US20230072632A1 (ja)
EP (1) EP4145408A1 (ja)
JP (1) JP2023038164A (ja)
KR (1) KR20230036960A (ja)
CN (1) CN113963327B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115690739B (zh) * 2022-10-31 2024-03-26 阿波罗智能技术(北京)有限公司 多传感器融合障碍物存在性检测方法和自动驾驶车辆
CN116228820B (zh) * 2023-05-05 2023-09-08 智道网联科技(北京)有限公司 一种障碍物检测方法、装置和电子设备、存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105372654B (zh) * 2015-12-14 2017-12-12 财团法人车辆研究测试中心 障碍物分类可靠度量化的方法
JP2017159801A (ja) * 2016-03-09 2017-09-14 パナソニックIpマネジメント株式会社 自動運転制御装置および自動運転システム
KR20180068578A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
CN106802668B (zh) * 2017-02-16 2020-11-17 上海交通大学 基于双目与超声波融合的无人机三维避撞方法及系统
CN108313088B (zh) * 2018-02-22 2020-08-25 中车长春轨道客车股份有限公司 一种非接触式轨道车辆障碍物检测系统
CN108482427A (zh) * 2018-02-22 2018-09-04 中车长春轨道客车股份有限公司 一种非接触式轨道车辆障碍物检测系统和安全控制方法
CN108764108A (zh) * 2018-05-22 2018-11-06 湖北省专用汽车研究院 一种基于贝叶斯统计决策的前车检测方法
CN109188460A (zh) * 2018-09-25 2019-01-11 北京华开领航科技有限责任公司 无人驾驶异物检测系统及方法
CN109270524B (zh) * 2018-10-19 2020-04-07 禾多科技(北京)有限公司 基于无人驾驶的多数据融合障碍物检测装置及其检测方法
CN109544990A (zh) * 2018-12-12 2019-03-29 惠州市德赛西威汽车电子股份有限公司 一种基于实时电子地图识别可用泊车位的方法及系统
CN110609570A (zh) * 2019-07-23 2019-12-24 中国南方电网有限责任公司超高压输电公司天生桥局 一种基于无人机的自主避障巡检方法
CN111273268B (zh) * 2020-01-19 2022-07-19 北京百度网讯科技有限公司 自动驾驶障碍物类型的识别方法、装置及电子设备
CN111198371A (zh) * 2020-03-03 2020-05-26 杭州中车数字科技有限公司 前视障碍物检测系统
CN111308461B (zh) * 2020-04-15 2024-05-07 长春大学 低速车用障碍物检测系统及检测方法、检测装置
CN111338383B (zh) * 2020-04-24 2023-10-13 北京泛化智能科技有限公司 基于gaas的自主飞行方法及系统、存储介质
CN111551938B (zh) * 2020-04-26 2022-08-30 北京踏歌智行科技有限公司 一种基于矿区环境的无人驾驶技术感知融合方法
JP2023525106A (ja) * 2020-05-11 2023-06-14 華為技術有限公司 車両走行可能領域検出方法、システム、及びそのシステムを使用する自律車両
CN111753765A (zh) * 2020-06-29 2020-10-09 北京百度网讯科技有限公司 感知设备的检测方法、装置、设备及存储介质
CN212322114U (zh) * 2020-07-06 2021-01-08 扬州大学 一种用于自动驾驶车辆的环境感知及道路环境裂纹检测系统
CN112113578A (zh) * 2020-09-23 2020-12-22 安徽工业大学 一种用于自动驾驶车辆的障碍物运动预测方法
CN112394726B (zh) * 2020-10-20 2023-08-04 自然资源部第一海洋研究所 一种基于证据理论的无人船障碍物融合检测方法
CN112330746A (zh) * 2020-11-27 2021-02-05 苏州感测通信息科技有限公司 一种基于tx2的移动底盘障碍物检测方法
CN112651359A (zh) * 2020-12-30 2021-04-13 深兰科技(上海)有限公司 障碍物检测方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
KR20230036960A (ko) 2023-03-15
EP4145408A1 (en) 2023-03-08
CN113963327B (zh) 2023-09-08
CN113963327A (zh) 2022-01-21
US20230072632A1 (en) 2023-03-09

Similar Documents

Publication Publication Date Title
CN113033537B (zh) 用于训练模型的方法、装置、设备、介质和程序产品
JP2023038164A (ja) 障害物検出方法、装置、自動運転車両、機器、及び記憶媒体
CN109870698B (zh) 一种超声波阵列障碍物检测结果处理方法及系统
CN113920307A (zh) 模型的训练方法、装置、设备、存储介质及图像检测方法
US20220035733A1 (en) Method and apparatus for checking automatic driving algorithm, related device and storage medium
CN109558854B (zh) 障碍物感知方法、装置、电子设备及存储介质
CN113859264B (zh) 车辆控制方法、装置、电子设备及存储介质
CN113591573A (zh) 多任务学习深度网络模型的训练及目标检测方法、装置
CN113377888A (zh) 训练目标检测模型和检测目标的方法
CN113947188A (zh) 目标检测网络的训练方法和车辆检测方法
CN109635868B (zh) 障碍物类别的确定方法、装置、电子设备及存储介质
CN114186007A (zh) 高精地图生成方法、装置、电子设备和存储介质
CN113325381A (zh) 用于处理数据的方法、装置、设备以及存储介质
CN114091515A (zh) 障碍物检测方法、装置、电子设备和存储介质
CN113177980A (zh) 用于自动驾驶的目标对象速度确定方法、装置及电子设备
CN114429631B (zh) 三维对象检测方法、装置、设备以及存储介质
CN115984791A (zh) 自动驾驶感知模型的生成方法、装置及电子设备
CN113762397B (zh) 检测模型训练、高精度地图更新方法、设备、介质及产品
CN113344121B (zh) 训练招牌分类模型和招牌分类的方法
CN114987494A (zh) 驾驶场景处理方法、装置及电子设备
CN114821190A (zh) 图像分类模型训练方法、图像分类方法、装置及设备
CN113963186A (zh) 目标检测模型的训练方法、目标检测方法及相关装置
CN113139542A (zh) 目标检测方法、装置、设备和计算机可读存储介质
CN112733879A (zh) 针对不同场景的模型蒸馏方法和装置
CN116168366B (zh) 点云数据生成方法、模型训练方法、目标检测方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213