JP6837520B2 - 無人運転車に基づく障害物の検出方法、装置、デバイス及び記憶媒体 - Google Patents

無人運転車に基づく障害物の検出方法、装置、デバイス及び記憶媒体 Download PDF

Info

Publication number
JP6837520B2
JP6837520B2 JP2019124251A JP2019124251A JP6837520B2 JP 6837520 B2 JP6837520 B2 JP 6837520B2 JP 2019124251 A JP2019124251 A JP 2019124251A JP 2019124251 A JP2019124251 A JP 2019124251A JP 6837520 B2 JP6837520 B2 JP 6837520B2
Authority
JP
Japan
Prior art keywords
straight line
grid
dimensional
value
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019124251A
Other languages
English (en)
Other versions
JP2019203900A (ja
Inventor
ジャン グオ、
ジャン グオ、
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2019203900A publication Critical patent/JP2019203900A/ja
Application granted granted Critical
Publication of JP6837520B2 publication Critical patent/JP6837520B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G06T3/06
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Processing (AREA)

Description

本願の実施例は、無人運転車の技術分野に関し、特に無人運転車に基づく、障害物の検出方法、装置、デバイス及び記憶媒体に関する。
インテリジェント技術の発展に伴い、無人運転車が開発され、そして適用されるようになっている。無人運転車を運転する過程において、無人運転車の周囲の障害物の方位を検出する必要がある。
従来技術では、ライダーを用いて、点群データを収集することができ、次に、点群データをフィッティング処理して外側の輪郭を取得したうえで、その外側の輪郭の最も長い辺で示される方向を無人運転車の方位とする。
しかしながら、従来技術における障害物の方位の確定方法では、フィッティング処理を採用する方法が不正確なので、その障害物の方位を正確的に確定することができない。
本願の実施例は、無人運転車に基づく障害物の検出方法、装置、デバイス及び記憶媒体を提供して、上記の解決手段では障害物の方位を正確的に確定できないという問題を解決するために使用される。
本願の第1の態様にて提供される無人運転車に基づく障害物の検出方法は、
検出デバイスにより収集した点群データを取得し、前記点群データは、前記検出デバイスが前記無人運転車の周囲の障害物を検出して得られたデータであるステップと、
前記点群データを二次元平面に投影して、複数のグリッドと、点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得するステップと、
前記二次元投影グリッド図に従って、複数本の直線を生成し、前記複数本の直線における各直線には、少なくとも1つの前記二次元データと、当該直線と前記複数本の直線における他の直線との関係を特徴付けているパラメータ情報とを備えているステップと、
前記障害物の方位情報を、前記複数本の直線における各直線の前記二次元データと前記パラメータ情報とに従って確定するステップと、を含む。
さらに、前記点群データを二次元平面に投影して、二次元投影グリッド図を取得するステップは、
前記点群データを二次元平面に投影し、前記二次元データを備えている二次元投影図を取得することと、
前記二次元投影図をグリッド化処理し、前記二次元投影グリッド図を取得することと、を含む。
さらに、前記二次元投影グリッド図に従って、複数本の直線を生成するステップは、
前記二次元投影グリッド図における各グリッドに対して、グリッドには前記二次元データを備えている場合、グリッドを第1値に指定することと、
前記二次元投影グリッド図における各グリッドに対して、グリッドには前記二次元データを備えていない場合、グリッドを第2値に指定することと、
前記第1値としたグリッドに従って、前記複数本の直線を生成することと、を含む。
さらに、前記二次元投影グリッド図における各グリッドに対して、グリッドには前記二次元データを備えている場合、グリッドを第1値に指定することは、
前記二次元投影グリッド図における各グリッドに対して、グリッドには前記二次元データを備えている場合、グリッドにおける二次元データの個数に従って、グリッドを第1値に指定し、前記二次元データの個数は前記第1値に比例すること含む。
さらに、前記第1値としたグリッドに従って、前記複数本の直線を生成する前記ステップは、
第1値とした少なくとも2つのグリッドを1本の直線として接続して、前記複数本の直線を生成することを含む。
さらに、前記第1値としたグリッドに従って、前記複数本の直線を生成する前記ステップは、
前記第1値としたグリッドに従って、前記二次元投影グリッド図にハフ線検出を行い、複数本の直線を取得することを含む。
さらに、前記障害物の方位情報を、前記複数本の直線における各直線の前記二次元データと前記パラメータ情報とに従って確定するステップは、
前記複数本の直線における各直線の前記二次元データ及び前記パラメータ情報に従って、各直線の方位信頼度値を確定することと、
最も高い方位信頼度値を備えている直線で示される方向情報を前記障害物の方位情報として確定することを含む。
さらに、前記複数本の直線における各直線の前記二次元データ及び前記パラメータ情報に従って、各直線の方位信頼度値を確定することは、
各直線と交差する交差線を確定し、各直線の前記パラメータ情報は、各直線と各直線に対応する各交差線との夾角及び交差点であることと、
各直線が備えているすべての夾角の夾角値に従って、各直線の夾角パラメータを確定することと、
各直線が備えているすべての交差点の位置情報に従って、各直線の位置パラメータを確定することと、
各直線での最初のグリッドと各直線での最後のグリッドとの間の距離を、各直線の距離パラメータとして確定することと、
各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータに従って、各直線の方位信頼度値を確定することと、を含む。
さらに、各直線が備えているすべての夾角の夾角値に従って、各直線の夾角パラメータを確定することは、
各直線が備えているすべての夾角の夾角値を重み付けして合計し、各直線の夾角パラメータを取得することを含む。
さらに、各直線が備えているすべての交差点の位置情報に従って、各直線の位置パラメータを確定することは、
各直線が備えているすべての交差点の位置情報を重み付けして合計し、各直線の位置パラメータを取得することを含む。
さらに、各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータに従って、各直線の方位信頼度値を確定する前記ステップは、
各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータを重み付けして合計し、各直線の方位信頼度値を取得することを含む。
本願の第3の態様にて提供される無人運転車に基づく障害物の検出装置は、
検出デバイスにより収集した点群データを取得するために用いられ、前記点群データは、前記検出デバイスが前記無人運転車の周囲の障害物を検出して得られたデータである取得ユニットと、
前記点群データを二次元平面に投影して、複数のグリッドと、前記点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得するための投影ユニットと、
前記二次元投影グリッド図に従って、複数本の直線を生成するために用いられ、前記複数本の直線における各直線は、少なくとも1つの二次元データと、直線と前記複数本の直線における他の直線との関係を特徴付けているパラメータ情報とを備えている生成ユニットと、
前記障害物の方位情報を、前記複数本の直線における各直線の前記二次元データと前記パラメータ情報とに従って確定するための確定ユニットとを含む。
さらに、前記投影ユニットは、
前記点群データを二次元平面に投影して、前記二次元データを備えている二次元投影グリッド図を取得するための投影モジュールと、
前記二次元投影図をグリッド化処理し、二次元投影グリッド図を取得するためのグリッド化モジュールと、を含む。
さらに、前記生成ユニットは、
前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えている場合、グリッドを第1値に指定するための第1処理モジュールと、
前記二次元投影グリッド図における各グリッドに対して、グリッドには前記二次元データを備えていない場合、グリッドを第2値に指定するための第2処理モジュールと、
前記第1値としたグリッドに従って、前記複数本の直線を生成するための生成モジュールとを含む。
さらに、前記第1処理モジュールは、具体的には、
前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えている場合、グリッドにおける二次元データの個数に従って、グリッドを第1値に指定するために用いられ、前記二次元データの個数は前記第1値に比例する。
さらに、前記生成モジュールは、具体的には、
第1値とした少なくとも2つのグリッドを1本の直線として接続して、前記複数本の直線を生成するために用いられる。
さらに、前記生成モジュールは、具体的には、
前記第1値としたグリッドに従って、前記二次元投影グリッド図にハフ線検出を行い、複数本の直線を取得するために用いられる。
さらに、前記確定ユニットは、
前記複数本の直線における各直線の前記二次元データ及び前記パラメータ情報に従って、各直線の方位信頼度値を確定するための第1確定モジュールと、
最も高い方位信頼度値を備えている直線で示される方向情報を障害物の方位情報として確定するための第2確定モジュールと、を含む。
さらに、前記第1確定モジュールは、
各直線と交差する交差線を確定するために用いられ、各直線の前記パラメータ情報は、各直線と各直線に対応する各交差線との夾角及び交差点である第1確定サブモジュールと、
各直線が備えているすべての夾角の夾角値に従って、各直線の夾角パラメータを確定するための第2確定サブモジュールと、
各直線が備えているすべての交差点の位置情報に従って、各直線の位置パラメータを確定するための第3確定サブモジュールと、
各直線での最初のグリッドと各直線での最後のグリッドとの間の距離を、各直線の距離パラメータとして確定するための第4確定サブモジュールと、
各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータに従って、各直線の方位信頼度値を確定するための第5確定サブモジュールと、を含む。
さらに、前記第2確定サブモジュールは、具体的には、
各直線が備えているすべての夾角の夾角値を重み付けして合計し、各直線の夾角パラメータを取得するために用いられる。
さらに、前記第3確定サブモジュールは、具体的には、
各直線が備えているすべての交差点の位置情報を重み付けして合計し、各直線の位置パラメータを取得するために用いられる。
さらに、前記第5確定サブモジュールは、具体的には、
各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータを重み付けして合計し、各直線の方位信頼度値を取得するために用いられる。
本願の第3の態様にて提供される制御デバイスは、送信機、受信機、メモリ及びプロセッサを含み、
前記メモリはコンピュータ命令を記憶するために用いられ、前記プロセッサは、前記メモリに記憶された前記コンピュータ命令を実行して、第1の態様のいずれかの実施形態による無人運転車に基づく障害物の検出方法を実現するために用いられる。
本願の第4の態様にて提供される記憶媒体は、読み取り可能な記憶媒体と前記読み取り可能な記憶媒体に記憶されたコンピュータ命令とを含み、前記コンピュータ命令は、第1の態様のいずれかの実施形態による無人運転車に基づく障害物の検出方法を実現するために用いられることを特徴とする。
本願の本実施例に提供される無人運転車に基づく障害物の検出方法、装置、デバイス及び記憶媒体は、検出デバイスにより収集した点群データを取得し、点群データは、検出デバイスが無人運転車の周囲の障害物を検出して得られたデータであり、点群データを二次元平面に投影して、複数のグリッドと点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得し、二次元投影グリッド図に従って、複数本の直線を生成し、そのうち、複数本の直線における各直線は、少なくとも1つの二次元データと、当該直線と複数本の直線における他の直線との関係を特徴付けているパラメータ情報とを有し、障害物の方位情報を、複数本の直線における各直線の二次元データとパラメータ情報とに従って確定することにより、障害物の方位確定方法が提供され、その方法が、障害物の点群データに従って二次元投影グリッド図を取得し、二次元投影グリッド図から得られた直線に従って障害物の方位情報を計算し、無人運転車の周囲の障害物の方位を正確的に確定することができ、更に無人運転車が障害物を回避するのを助けることができる。
本願の実施例または従来技術における技術的手段をより明確に説明するために、以下、実施例または従来技術の説明に用いる図面を簡単に説明し、当然ながら、後述する図面は本願のいくつかの実施例に過ぎず、当業者であれば、創造的な労力を行わなくても、これらの図面に基づき他の図面を得ることができる。
本願の実施例による無人運転車に基づく障害物の検出方法のフローチャートである。 本願の実施例による他の無人運転車に基づく障害物の検出方法のフローチャートである。 本願の実施例による他の無人運転車に基づく障害物の検出方法における二次元投影グリッド図の概略図である。 本願の実施例による他の無人運転車に基づく障害物の検出方法における直線の概略図である。 本願の実施例による無人運転車に基づく障害物の検出装置の構造概略図である。 本願の実施例による他の無人運転車に基づく障害物の検出装置の構造概略図である。 本願の実施例による制御デバイスの構造概略図である。
本願の実施例の目的、技術的手段及び利点をより明確にするために、以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明確、かつ完全に説明するが、当然ながら、説明される実施例は、本願のすべての実施例ではなく、その一部に過ぎない。本願の実施例に基づき、当業者が創造的な労力を要さずに想到しうる他のすべての実施例は、いずれも本願の保護範囲に属するものである。
従来技術では、ライダーを用いて、点群データを収集することができ、次に、点群データをフィッティング処理して外側の輪郭を取得したうえで、その外側の輪郭の最も長い辺で示される方向を、自動運転車とも呼ばれている無人運転車の方位とする。
しかしながら、従来技術において障害物の方位の確定方法では、フィッティング処理を採用する手段が不正確なので、その障害物の方位を正確的に確定することができない。
上記の問題に対して、本願が無人運転車に基づく障害物の検出方法、装置、デバイス及び記憶媒体を提供して、無人運転車の周囲の障害物の方位を正確的に確定することができ、更に無人運転車が障害物を回避するのを助けることができる。以下、幾つかの具体的な実施例を通して、本解決手段を詳しく説明する。
図1は、本願の実施例による無人運転車に基づく障害物の検出方法のフローチャートである。図1に示されるように、当該解決手段の実行主体が無人運転車のコントローラ、無人運転車における自動運転システムの制御デバイスなどであり、当該無人運転車に基づく障害物の検出方法はS101〜S103を含む。
S101では、検出デバイスにより収集した点群データを取得し、点群データは、検出デバイスが無人運転車の周囲の障害物を検出して得られたデータである。
本ステップにおいて、具体的に、本実施例は無人運転車のコントローラを実行主体として説明する。
無人運転車にはライダーや他のレーダーなどのデバイスであってよい検出デバイスが設けられる。検出デバイスは、無人運転車の周囲の障害物を検出して点群データを取得する。無人運転車のコントローラは、検出デバイスによって収集された点群データを取得することができる。
そのうち、点群データは三次元データであり、点群データの所在する三次元座標系は障害物を原点とする三次元座標系である。
S102では、点群データを二次元平面に投影して、複数のグリッドと、点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得する。
本ステップにおいて、具体的に、無人運転車のコントローラが得られた点群データを1つの二次元平面に投影して、それにより、点群データを二次元データとして投影し、上記の二次元データを備えている二次元投影グリッド図を得る。二次元投影グリッド図が複数のグリッドに分割されるが、グリッドの分割形態について特に制限しない。
S103では、二次元投影グリッド図に従って、複数本の直線を生成し、そのうち、複数本の直線における各直線には、少なくとも1つの二次元データと、当該直線と複数本の直線における他の直線との関係を特徴付けているパラメータ情報とを備えている。
本ステップにおいて、具体的に、二次元投影グリッド図は複数のグリッドを備えて、グリッドには二次元データを有するので、無人運転車のコントローラは、二次元投影グリッド図での二次元データに従って、複数本の直線を生成することができる。
複数本の直線が生成されて、直線を互いに交差することができるので、各直線は他の直線と位置関係及び接続関係を有する。各直線と他の直線との位置関係及び接続関係は、各直線のパラメータ情報を構成する。
S104では、障害物の方位情報を、複数本の直線における各直線の二次元データとパラメータ情報とに従って確定する。
本ステップにおいて、具体的に、無人運転車のコントローラは、各直線の二次元データ及びパラメータ情報に従って計算して、これによって障害物の方位情報を確定することができる。
例えば、各直線の二次元データとパラメータ情報とに従って、重み付け計算を行い、障害物の方位情報を得る。或いは、分類器によって、各直線の二次元データ及びパラメータ情報を計算し、障害物の方位情報を得る。
本実施例では、検出デバイスにより収集した点群データを取得し、点群データは、検出デバイスが無人運転車の周囲の障害物を検出して得られたデータであり、点群データを二次元平面に投影して、複数のグリッドと点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得し、二次元投影グリッド図に従って、複数本の直線を生成し、そのうち、複数本の直線における各直線は、少なくとも1つの二次元データと、当該直線と複数本の直線における他の直線との関係を特徴付けているパラメータ情報とを有し、障害物の方位情報を、複数本の直線における各直線の二次元データとパラメータ情報とに従って確定することにより、障害物の方位確定方法が提供され、その方法が、障害物の点群データに従って二次元投影グリッド図を取得し、二次元投影グリッド図から得られた直線に従って障害物の方位情報を計算し、無人運転車の周囲の障害物の方位を正確的に確定することができ、更に無人運転車が障害物を回避するのを助けることができる。
図2は、本願の実施例による他の無人運転車に基づく障害物の検出方法のフローチャートである。図2に示されるように、当該解決手段の実行主体が無人運転車のコントローラ、無人運転車における自動運転システムの制御デバイスなどであり、当該無人運転車に基づく障害物の検出方法はS201〜S203を含む。
S201では、検出デバイスにより収集した点群データを取得し、点群データは、検出デバイスが無人運転車の周囲の障害物を検出して得られたデータである。
本ステップにおいて、具体的には、本実施例は無人運転車のコントローラを実行主体として説明する。
本ステップは、図1のステップ101を参照することができるので、詳細な説明を省略する。
S202では、点群データを二次元平面に投影して、二次元データを備えている二次元投影図を取得する。
本ステップにおいて、具体的に、無人運転車のコントローラが点群データを二次元平面に投影して、二次元投影図を取得し、そのうち、二次元投影図には、一般的に浮動小数点データである、点群データを投影して得られたデータである二次元データを含む。
S203では、二次元投影図をグリッド化処理して、複数のグリッドと、点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得する。
本ステップにおいて、具体的には、無人運転車のコントローラが二次元投影図をグリッド化処理して、グリッド化した二次元投影図、つまり二次元投影グリッド図を取得する。
図3は、本願の実施例による他の無人運転車に基づく障害物の検出方法における二次元投影グリッド図の概略図である。図3に示されるように、二次元投影グリッド図には、複数のグリッドと、二次元投影グリッド図のグリッドに配置される二次元データとを備え、そのうち、あるグリッドには1つ以上の二次元データがある。
S204では、二次元投影グリッド図における各グリッドに対して、グリッドが二次元データを備えている場合、グリッドを第1値に指定する。
そのうち、ステップ204は、具体的には、二次元投影グリッド図における各グリッドに対して、グリッドが二次元データを備えている場合、グリッドにおける二次元データの個数に従って、グリッドを第1値に指定し、そのうち、二次元データの個数は第1値に比例することを含む。
本ステップにおいては、具体的には、無人運転車のコントローラは、二次元投影グリッド図における各グリッドが二次元データを備えているか否かを判定し、グリッドが二次元データを備えている場合、当該グリッドを第1値に指定する。
具体的には、二次元投影グリッド図における各グリッドが複数の二次元データを備えている場合、グリッドにおける二次元データの個数に従って、グリッドを第1値に指定する。そのうち、二次元データの個数が多いほど、第1値が大きくなり、第1値は0より大きくてN以下である。
S205では、二次元投影グリッド図における各グリッドに対して、グリッドが二次元データを備えていない場合、グリッドを第2値に指定する。
本ステップにおいては、具体的には、二次元投影グリッド図におけるグリッドが二次元データを備えていない場合、無人運転車のコントローラは当該グリッドを第2値に指定する。第1値と第2値は値が異なる。
例えば、二次元投影グリッド図のグリッドが二次元データを備えている場合、無人運転車のコントローラはグリッドに値1を指定する。二次元投影グリッド図のグリッドが二次元データを備えていない場合、無人運転車のコントローラはグリッドに値0を指定する。
別の例として、二次元投影グリッド図のグリッドが二次元データを備えている場合、グリッドの二次元データの個数が1であれば、グリッドに値1を指定し、グリッドの二次元データの個数が2であれば、グリッドに値2を指定し、グリッドの二次元データの個数が3であれば、グリッドに値3を指定し、これによって類推する。二次元投影グリッド図のグリッドが二次元データを備えていない場合、当該グリッドに値0を指定する。
S206では、第1値としたグリッドに従って、複数本の直線を生成する。
そのうち、複数本の直線における各直線には、少なくとも1つの二次元データと、当該直線と複数本の直線における他の直線との関係を特徴付けているパラメータ情報とを有する。
そのうち、ステップ206は以下の数種の実施形態を含む。
ステップ206の第1実施形態において、第1値とした少なくとも2つのグリッドを1本の直線として接続して、複数本の直線を生成する。
ステップ206の第2実施形態において、第1値としたグリッドに従って、二次元投影グリッド図にハフ線検出を行い、複数本の直線を取得する。
本ステップにおいては、具体的に、無人運転車のコントローラは、第1値としたグリッドに従って複数本の直線を生成する。
具体的には、2つの点は1本の直線を構成するので、第1値としたグリッドを2つ毎に直線として接続できる。各直線には少なくとも2つのグリッドを備え、これから分かるように、各直線は少なくとも2つの二次元データを有する。或いは、第1値としたグリッドのみに従って、直線を生成し、直線を生成する過程では、二次元投影グリッド図でハフ線検出を行い、複数本の直線を取得することができる。
例えば、図4は、本願の実施例による他の無人運転車に基づく障害物の検出方法における直線の概略図である。図4に示されるように、5本の直線を生成した。
S207では、複数本の直線における各直線の二次元データ及びパラメータ情報に従って、各直線の方位信頼度値を確定する。
そのうち、ステップS207は具体的にステップ2071〜2075を含む。
S2071では、各直線と交差する交差線を確定し、そのうち、各直線のパラメータ情報は、各直線と各直線に対応する各交差線との夾角及び交差点である。
S2072では、各直線が備えているすべての夾角の夾角値に従って、各直線の夾角パラメータを確定する。
S2073では、各直線が備えているすべての交差点の位置情報に従って、各直線の位置パラメータを確定する。
S2074では、各直線での最初のグリッドと各直線での最後のグリッドとの間の距離を、各直線の距離パラメータとして確定する。
S2075では、各直線での二次元データの個数、夾角パラメータ、位置パラメータ及び距離パラメータに従って、各直線の方位信頼度値を確定する。
本ステップにおいて、具体的には、複数本の直線が生成されるので、各直線には少なくとも2つの二次元データを有し、直線間は交差することができ、これにより各直線と他の直線とは位置関係及び接続関係を持ち、各直線と他の直線との位置関係及び接続関係は、各直線のパラメータ情報を構成し、それにより、各直線に対して、無人運転車のコントローラは、各直線の二次元データ及びパラメータ情報に従って、各直線の方位信頼度値を確定することができる。
具体的には、各直線に対して、無人運転車のコントローラは当該直線と交差する全ての交差線を確定する。直線と各交差線との間には交差点、及び夾角を有する。
各直線に対して、無人運転車のコントローラは、当該直線と各交差線との夾角の夾角値に従って、夾角パラメータを確定する。具体的には、各直線に対して、無人運転車のコントローラは、当該直線と各交差線とのすべての夾角の夾角値を重み付けして合計し、各直線の夾角パラメータを取得する。
無人運転車のコントローラは、直線毎に、当該直線と交差する各直線との交差点の位置情報に従って、位置パラメータを確定する。例えば、当該位置情報は、二次元投影図における交差点の位置である。具体的には、各直線に対して、無人運転車のコントローラは、当該直線と各交差線とのすべての交差点の位置情報を重み付けして合計し、各直線の位置パラメータを取得する。
各直線について、直線の方向に沿って少なくとも2つのグリッド、つまり直線の一方の端の最初のグリッド、及び直線のもう一方の端の直線の最後のグリッドがある。無人運転車のコントローラは、最初のグリッドと最後のグリッドとの間の距離を計算し、各直線の距離パラメータを取得する。或いは、各直線について、直線の方向に沿って少なくとも2つの二次元データ、つまり直線の一方の端の最初の二次元データ及び直線のもう一方の端の直線の最後の二次元データがある。無人運転車のコントローラは、最初の2次元データと最後の2次元データとの間の距離を計算して各直線の距離パラメータを取得する。
各直線に少なくとも2つの二次元データを有する。そして、無人運転車のコントローラは、各直線に対して、直線での二次元データの個数、夾角パラメータ、位置パラメータ及び距離パラメータに従って、直線の方位信頼度値を計算する。具体的には、各直線に対して、無人運転車のコントローラは、直線での二次元データの個数、夾角パラメータ、位置パラメータ及び距離パラメータを重み付けして合計し、直線の方位信頼度値を取得する。
例えば、各直線の方位信頼度値は
Figure 0006837520
S208では、最も高い方位信頼度値を備えている直線で示される方向情報を障害物の方位情報として確定する。
本ステップにおいて、具体的には、無人運転車のコントローラは、各直線の方位信頼度値に従って、最も高い方位信頼度値を備えている直線で示される方向を障害物の方位情報として確定する。そのうち、直線が2つの方向を有し、どちらでも障害物の方位として使用できる。
本実施例では、点群データを取得し、点群データを二次元平面に投影して、二次元データを含む二次元投影図を取得し、二次元投影図をグリッド化処理して、グリッド化した二次元投影図を取得し、各グリッドでの二次元データに基づいて、当該グリッドを第1値又は第2値に指定した後、第1値としたグリッドに従って、複数本の直線を生成し、各直線に対して、夾角パラメータ、位置パラメータ及び距離パラメータを確定し、各直線での二次元データの個数、夾角パラメータ、位置パラメータ及び距離パラメータに従って、各直線の方位信頼度値を確定し、最も高い方位信頼度値を備えている直線で示される方向を障害物の方位として確定し、これにより、障害物の方位確定方法を提供し、障害物の点群データに従って、二次元投影グリッド図を取得し、二次元投影グリッド図から得られた直線に従って、障害物の方位情報を計算し、無人運転車の周囲の障害物の方位を正確的に確定することができ、更に無人運転車が障害物を回避するのを助けることができる。
図5は、本願の実施例による無人運転車に基づく障害物の検出装置の構造概略図である。図5に示されるように、本実施例が提供する無人運転車に基づく障害物の検出装置は、
検出デバイスにより収集した点群データを取得するために用いられ、点群データは、検出デバイスが無人運転車の周囲の障害物を検出して得られたデータである取得ユニット51と、
点群データを二次元平面に投影して、複数のグリッドと、点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得するための投影ユニット52と、
二次元投影グリッド図に従って、複数本の直線を生成するために用いられ、複数本の直線における各直線は、少なくとも1つの二次元データと、当該直線と複数本の直線における他の直線との関係を特徴付けているパラメータ情報とを備えている生成ユニット53と、
障害物の方位情報を、複数本の直線における各直線の二次元データとパラメータ情報とに従って確定するための確定ユニット54と、を含む。
本実施例に提供される無人運転車に基づく障害物の検出装置は、前述の実施例のいずれかによる無人運転車に基づく障害物の検出方法を実現するための技術的解決手段と同じであり、それらの実現原理が類似しているので、詳細な説明を省略する。
本実施例では、検出デバイスにより収集した点群データを取得し、前記点群データは、前記検出デバイスが前記無人運転車の周囲の障害物を検出して得られたデータであり、点群データを二次元平面に投影して、複数のグリッドと点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得し、二次元投影グリッド図に従って、複数本の直線を生成し、そのうち、複数本の直線における各直線には、少なくとも1つの二次元データと、当該直線と複数本の直線における他の直線との関係を特徴付けているパラメータ情報とを有し、障害物の方位情報を、複数本の直線における各直線の二次元データとパラメータ情報とに従って確定する。これにより、無人運転車に基づく障害物の方位確定方法が提供され、その方法は、障害物の点群データに従って二次元投影グリッド図を取得し、二次元投影グリッド図から得られた直線に従って障害物の方位情報を計算し、無人運転車の周囲の障害物の方位を正確的に確定することができ、更に無人運転車が障害物を回避するのを助けることができる。
図6は、本願の実施例による他の無人運転車に基づく障害物の検出装置の構造概略図である。図5に示される実施例にさらに、図6に示すように、本実施例による無人運転車に基づく障害物の検出装置は、
投影ユニット52は、
点群データを二次元平面に投影して、二次元データを備えている二次元投影図を取得するための投影モジュール521と、
二次元投影図をグリッド化処理し、二次元投影グリッド図を取得するためのグリッド化モジュール522と、を含む。
生成ユニット53は、
二次元投影グリッド図における各グリッドに対して、グリッドが二次元データを備えている場合、グリッドを第1値に指定するための第1処理モジュール531と、
二次元投影グリッド図における各グリッドに対して、グリッドが二次元データを備えていない場合、グリッドを第2値に指定するための第2処理モジュール532と、
第1値としたグリッドに従って、複数本の直線を生成するための生成モジュール533と、を含む。
第1処理モジュール531は、具体的には、二次元投影グリッド図における各グリッドに対して、グリッドが二次元データを備えている場合、グリッドにおける二次元データの個数に従って、グリッドを第1値に指定するために用いられ、そのうち、二次元データの個数は第1値に比例する。
生成モジュール533は、具体的には、第1値とした少なくとも2つのグリッドを1本の直線として接続して、複数本の直線を生成するために用いられ、又は、生成モジュール533は、具体的には、第1値としたグリッドに従って、二次元投影グリッド図にハフ線検出を行い、複数本の直線を取得するために用いられる。
確定ユニット54は、
複数本の直線における各直線の二次元データ及びパラメータ情報に従って、各直線の方位信頼度値を確定するための第1確定モジュール541と、
最も高い方位信頼度値を備えている直線で示される方向情報を障害物の方位情報として確定するための第2確定モジュール542と、を含む。
第1確定モジュール541は、
各直線と交差する交差線を確定するために用いられ、各直線のパラメータ情報は、各直線と各直線に対応する各交差線との夾角及び交差点である第1確定サブモジュール5411と、
各直線が備えているすべての夾角の夾角値に従って、各直線の夾角パラメータを確定するための第2確定サブモジュール5412と、
各直線が備えているすべての交差点の位置情報に従って、各直線の位置パラメータを確定するための第3確定サブモジュール5413と、
各直線での最初のグリッドと各直線での最後のグリッドとの間の距離を、各直線の距離パラメータとして確定するための第4確定サブモジュール5414と、
各直線での二次元データの個数、夾角パラメータ、位置パラメータ及び距離パラメータに従って、各直線の方位信頼度値を確定するための第5確定サブモジュール5415と、を含む。
第2確定サブモジュール5412は、具体的には、各直線が備えているすべての夾角の夾角値を重み付けして合計し、各直線の夾角パラメータを取得するために用いられる。
第3確定サブモジュール5413は、各直線が備えているすべての交差点の位置情報を重み付けして合計し、各直線の位置パラメータを取得するために用いられる。
第5確定サブモジュール5415は、具体的には、各直線での二次元データの個数、夾角パラメータ、位置パラメータ及び距離パラメータを重み付けして合計し、各直線の方位信頼度値を取得するために用いられる。
本実施例に提供される無人運転車に基づく障害物の検出装置は、前述の実施例のいずれかによる無人運転車に基づく障害物の検出方法を実現するための技術的解決手段と同じであり、それらの実現原理は類似しているので、詳細な説明を省略する。
本実施例では、点群データを取得し、点群データを二次元平面に投影して、二次元データを含む二次元投影図を取得し、二次元投影図をグリッド化処理して、グリッド化した二次元投影図を取得し、各グリッドでの二次元データに基づいて、当該グリッドを第1値又は第2値に指定した後、第1値としたグリッドに従って、複数本の直線を生成し、各直線に対して、夾角パラメータ、位置パラメータ及び距離パラメータを確定し、各直線での二次元データの個数、夾角パラメータ、位置パラメータ及び距離パラメータに従って、各直線の方位信頼度値を確定し、最も高い方位信頼度値を備えている直線で示される方向を障害物の方位として確定し、これにより、障害物の方位確定方法を提供し、障害物の点群データに従って、二次元投影グリッド図を取得し、二次元投影グリッド図から得られた直線に従って、障害物の方位情報を計算し、無人運転車の周囲の障害物の方位を正確的に確定することができ、更に無人運転車が障害物を回避するのを助けることができる。
図7は、本願の実施例による制御デバイスの構造の概略図であり、図7に示されるように、当該制御デバイスは、送信機71、受信機72、メモリ73及びプロセッサ74を含む。
メモリ73はコンピュータ命令を記憶するために用いられ、プロセッサ74は、メモリ73に記憶されたコンピュータ命令を実行して、前述の実施例によるいずれかの実現手段の無人運転車に基づく障害物の検出方法の技術的解決手段を実現するために用いられる。
本願は、記憶媒体をさらに提供する。前記記憶媒体は、読み取り可能な記憶媒体と読み取り可能な記憶媒体に記憶されたコンピュータ命令とを含み、コンピュータ命令は、前述の例によるいずれかの実現手段の無人運転車に基づく障害物の検出方法の技術的解決手段を実現するために用いられることを特徴とする。
上述した制御デバイスの具体的な実施には、プロセッサ74は、中央処理ユニット(英語:Central Processing Unit、略称CPU)であってもよく、または他の汎用プロセッサ、デジタルシグナルプロセッサ(英語:Digital Signal Processor、略称DSP)、特定用途向け集積回路(英語:Application Specific Integrated Circuits、略称ASIC)などであってもよいことを理解すべきである。汎用プロセッサは、マイクロプロセッサ、または任意の一般的なプロセッサなどであってもよい。本願の実施例に開示された方法のステップは、ハードウェアプロセッサによって実行完成されるか、またはプロセッサでのハードウェア及びソフトウェアモジュールの組み合わせによって実行完成されると直接表現されることができる。
当業者に自明なように、上記各方法の実施例のすべてまたは一部のステップは、プログラムにより関連するハードウェアを命令して完了させることができる。上記プログラムはコンピュータ読み取り可能な記憶媒体に記憶できる。該プログラムが実行されると、上記各方法の実施例を含むステップが実行される。上記記憶媒体は、リードオンリーメモリ(英語:Read−Only Memory、略称ROM)、RAM、フラッシュメモリ、磁気ディスク(magnetic disk)、フロッピーディスク(floppy disk)、光ディスク(optical disc)及びそれらの任意の組み合わせを含む。
なお、以上の各実施例は本願の技術的解決手段を説明するものであり、それを制限するものではなく、前述の各実施例を参照しながら本願を詳細に説明したが、当業者に自明なように、前述の各実施例に記載の技術的解決手段を変更したり、またはその一部または全部の技術的特徴に対して同等置換を行ったりすることができ、これらの変更または置換は、対応する技術的解決手段の本質を本願の各実施例の技術的解決手段の範囲から離脱させるものではない。

Claims (24)

  1. 無人運転車に基づく障害物の検出方法であって、
    検出デバイスにより収集した点群データを取得し、前記点群データは、前記検出デバイスが前記無人運転車の周囲の障害物を検出して得られたデータであるステップと、
    前記点群データを二次元平面に投影して、複数のグリッドと、点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得するステップと、
    前記二次元投影グリッド図に従って、複数本の直線を生成し、前記複数本の直線における各直線に少なくとも1つの前記二次元データ備えているステップと、
    前記障害物の方位情報を、前記複数本の直線における各直線の前記二次元データと、当該直線と前記複数本の直線における他の直線との関係を特徴付けているパラメータ情報とに従って確定するステップと、
    を含むことを特徴とする無人運転車に基づく障害物の検出方法。
  2. 前記点群データを二次元平面に投影して、二次元投影グリッド図を取得するステップは、
    前記点群データを二次元平面に投影し、前記二次元データを備えている二次元投影図を取得することと、
    前記二次元投影図をグリッド化処理し、前記二次元投影グリッド図を取得することと、
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記二次元投影グリッド図に従って、複数本の直線を生成するステップは、
    前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えている場合、グリッドを第1値に指定することと、
    前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えていない場合、グリッドを第2値に指定することと、
    前記第1値としたグリッドに従って、前記複数本の直線を生成することと、
    を含むことを特徴とする請求項1に記載の方法。
  4. 前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えている場合、グリッドを第1値に指定することは、
    前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えている場合、グリッドにおける二次元データの個数に従って、グリッドを第1値に指定し、前記二次元データの個数は前記第1値に比例すること、
    を含むことを特徴とする請求項3に記載の方法。
  5. 前記第1値としたグリッドに従って、前記複数本の直線を生成することは、
    第1値とした少なくとも2つのグリッドを1本の直線として接続して、前記複数本の直線を生成すること、
    を含むことを特徴とする請求項3に記載の方法。
  6. 前記第1値としたグリッドに従って、前記複数本の直線を生成することは、
    前記第1値としたグリッドに従って、前記二次元投影グリッド図にハフ線検出を行い、複数本の直線を取得すること、
    を含むことを特徴とする請求項3に記載の方法。
  7. 前記障害物の方位情報を、前記複数本の直線における各直線の前記二次元データと前記パラメータ情報とに従って確定するステップは、
    前記複数本の直線における各直線の前記二次元データ及び前記パラメータ情報に従って、各直線の方位信頼度値を確定することと、
    最も高い方位信頼度値を備えている直線で示される方向情報を前記障害物の方位情報として確定することと、
    を含むことを特徴とする請求項1〜6のいずれか1項に記載の方法。
  8. 前記複数本の直線における各直線の前記二次元データ及び前記パラメータ情報に従って、各直線の方位信頼度値を確定することは、
    各直線と交差する交差線を確定し、各直線の前記パラメータ情報は、各直線と各直線に対応する各交差線との夾角及び交差点であることと、
    各直線が備えているすべての夾角の夾角値に従って、各直線の夾角パラメータを確定することと、
    各直線が備えているすべての交差点の位置情報に従って、各直線の位置パラメータを確定することと、
    各直線での最初のグリッドと各直線での最後のグリッドとの間の距離を、各直線の距離パラメータとして確定することと、
    各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータに従って、各直線の方位信頼度値を確定することと、
    を含むことを特徴とする請求項7に記載の方法。
  9. 各直線が備えているすべての夾角の夾角値に従って、各直線の夾角パラメータを確定することは、
    各直線が備えているすべての夾角の夾角値を重み付けして合計し、各直線の夾角パラメータを取得すること、
    を含むことを特徴とする請求項8に記載の方法。
  10. 各直線のすべての交差点の位置情報に従って、各直線の位置パラメータを確定することは、
    各直線が備えているすべての交差点の位置情報を重み付けして合計し、各直線の位置パラメータを取得すること、
    を含むことを特徴とする請求項8に記載の方法。
  11. 各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータに従って、各直線の方位信頼度値を確定することは、
    各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータを重み付けして合計し、各直線の方位信頼度値を取得すること、
    を含むことを特徴とする請求項8に記載の方法。
  12. 無人運転車に基づく障害物の検出装置であって、
    検出デバイスにより収集した点群データを取得するために用いられ、前記点群データは、前記検出デバイスが前記無人運転車の周囲の障害物を検出して得られたデータである取得ユニットと、
    前記点群データを二次元平面に投影して、複数のグリッドと、前記点群データを投影して得られたデータである二次元データとを備えている二次元投影グリッド図を取得するための投影ユニットと、
    前記二次元投影グリッド図に従って、複数本の直線を生成するために用いられ、前記複数本の直線における各直線、少なくとも1つの前記二次元データ備えているための生成ユニットと、
    前記障害物の方位情報を、前記複数本の直線における各直線の前記二次元データと、当該直線と前記複数本の直線における他の直線との関係を特徴付けているパラメータ情報とに従って確定するための確定ユニットと、
    を含むことを特徴とする無人運転車に基づく障害物の検出装置。
  13. 前記投影ユニットは、
    前記点群データを二次元平面に投影して、前記二次元データを備えている二次元投影図を取得するための投影モジュールと、
    前記二次元投影図をグリッド化処理し、前記二次元投影グリッド図を取得するためのグリッド化モジュールと、
    を含むことを特徴とする請求項12に記載の装置。
  14. 前記生成ユニットは、
    前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えている場合、グリッドを第1値に指定するための第1処理モジュールと、
    前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えていない場合、グリッドを第2値に指定するための第2処理モジュールと、
    前記第1値としたグリッドに従って、前記複数本の直線を生成するための生成モジュールと、
    を含むことを特徴とする請求項12に記載の装置。
  15. 前記第1処理モジュールは、具体的には、
    前記二次元投影グリッド図における各グリッドに対して、グリッドが前記二次元データを備えている場合、グリッドにおける二次元データの個数に従って、グリッドを第1値に指定するために用いられ、二次元データの個数は前記第1値に比例することを特徴とする請求項14に記載の装置。
  16. 前記生成モジュールは、具体的には、
    第1値とした少なくとも2つのグリッドを1本の直線として接続して、前記複数本の直線を生成するために用いられることを特徴とする請求項14に記載の装置。
  17. 前記生成モジュールは、具体的には、
    前記第1値としたグリッドに従って、前記二次元投影グリッド図にハフ線検出を行い、複数本の直線を取得するために用いられることを特徴とする請求項14に記載の装置。
  18. 前記確定ユニットは、
    前記複数本の直線における各直線の前記二次元データ及び前記パラメータ情報に従って、各直線の方位信頼度値を確定するための第1確定モジュールと、
    最も高い方位信頼度値を備えている直線で示される方向情報を障害物の方位情報として確定するための第2確定モジュールと、
    を含むことを特徴とする請求項12〜17のいずれか1項に記載の装置。
  19. 前記第1確定モジュールは、
    各直線と交差する交差線を確定するために用いられ、各直線の前記パラメータ情報は、各直線と各直線に対応する各交差線との夾角及び交差点である第1確定サブモジュールと、
    各直線が備えているすべての夾角の夾角値に従って、各直線の夾角パラメータを確定するための第2確定サブモジュールと、
    各直線が備えているすべての交差点の位置情報に従って、各直線の位置パラメータを確定するための第3確定サブモジュールと、
    各直線での最初のグリッドと各直線での最後のグリッドとの間の距離を、各直線の距離パラメータとして確定するための第4確定サブモジュールと、
    各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータに従って、各直線の方位信頼度値を確定するための第5確定サブモジュールと、
    を含むことを特徴とする請求項18に記載の装置。
  20. 前記第2確定サブモジュールは、具体的には、
    各直線が備えているすべての夾角の夾角値を重み付けして合計し、各直線の夾角パラメータを取得するために用いられることを特徴とする請求項19に記載の装置。
  21. 前記第3確定サブモジュールは、具体的には、
    各直線が備えているすべての交差点の位置情報を重み付けして合計し、各直線の位置パラメータを取得するために用いられることを特徴とする請求項19に記載の装置。
  22. 前記第5確定サブモジュールは、具体的には、
    各直線での二次元データの個数、前記夾角パラメータ、前記位置パラメータ及び前記距離パラメータを重み付けして合計し、各直線の方位信頼度値を取得するために用いられることを特徴とする請求項19に記載の装置。
  23. 制御デバイスであって、
    送信機、受信機、メモリ及びプロセッサを含み、
    前記メモリはコンピュータ命令を記憶するために用いられ、前記プロセッサは、メモリに記憶されたコンピュータ命令を実行して、請求項1〜11のいずれか1項に記載の無人運転車に基づく障害物の検出方法を実現するために用いられる、
    ことを特徴とする制御デバイス。
  24. 記憶媒体であって、
    読み取り可能な記憶媒体と読み取り可能な記憶媒体に記憶されたコンピュータ命令とを含み、前記コンピュータ命令は、請求項1〜11のいずれか1項に記載の無人運転車に基づく障害物の検出方法を実現するために用いられる、
    ことを特徴とする記憶媒体。
JP2019124251A 2018-09-07 2019-07-03 無人運転車に基づく障害物の検出方法、装置、デバイス及び記憶媒体 Active JP6837520B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811044542.3A CN109446886B (zh) 2018-09-07 2018-09-07 基于无人车的障碍物检测方法、装置、设备以及存储介质
CN201811044542.3 2018-09-07

Publications (2)

Publication Number Publication Date
JP2019203900A JP2019203900A (ja) 2019-11-28
JP6837520B2 true JP6837520B2 (ja) 2021-03-03

Family

ID=65532927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019124251A Active JP6837520B2 (ja) 2018-09-07 2019-07-03 無人運転車に基づく障害物の検出方法、装置、デバイス及び記憶媒体

Country Status (4)

Country Link
US (1) US11043002B2 (ja)
EP (1) EP3543743A3 (ja)
JP (1) JP6837520B2 (ja)
CN (2) CN111860295B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860295B (zh) * 2018-09-07 2023-08-25 百度在线网络技术(北京)有限公司 基于无人车的障碍物检测方法、装置、设备以及存储介质
CN111316289A (zh) * 2019-04-10 2020-06-19 深圳市大疆创新科技有限公司 目标物体的拟合方法、点云传感器和移动平台
CN110799989A (zh) * 2019-04-20 2020-02-14 深圳市大疆创新科技有限公司 一种障碍物检测方法、设备、可移动平台及存储介质
CN110426714B (zh) * 2019-07-15 2021-05-07 北京智行者科技有限公司 一种障碍物识别方法
CN112241165A (zh) * 2019-07-16 2021-01-19 北京京东尚科信息技术有限公司 用于控制无人设备的方法和装置
CN111259829B (zh) * 2020-01-19 2023-10-20 北京小马慧行科技有限公司 点云数据的处理方法和装置、存储介质及处理器
CN111310663A (zh) * 2020-02-17 2020-06-19 北京三快在线科技有限公司 道路栅栏检测方法、装置、设备及存储介质
CN111402308B (zh) * 2020-03-17 2023-08-04 阿波罗智能技术(北京)有限公司 障碍物速度的确定方法、装置、设备和介质
CN111537990B (zh) * 2020-04-27 2022-02-22 西安象德信息技术有限公司 一种车道的标定方法、装置以及电子设备
CN112543859B (zh) * 2020-10-28 2022-07-15 华为技术有限公司 定位方法、装置、电子设备和存储介质
CN112767447A (zh) * 2021-01-25 2021-05-07 电子科技大学 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60169983A (ja) * 1984-02-15 1985-09-03 Yamatake Honeywell Co Ltd 二次元形状物体の形状識別方法およびそのエツジにおけるノイズ除去方法
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
JP4328692B2 (ja) * 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
US8060271B2 (en) * 2008-06-06 2011-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Detecting principal directions of unknown environments
CN101549683B (zh) * 2009-04-23 2011-09-28 上海交通大学 自动识别道路深坑与障碍物的车辆智能方法
CN102034104B (zh) * 2010-12-10 2013-04-03 中国人民解放军国防科学技术大学 三维点云中基于随机采样一致性的特征线检测方法
US8736463B1 (en) * 2012-01-30 2014-05-27 Google Inc. Object bounding box estimation
DE102012005074A1 (de) * 2012-03-13 2013-09-19 Gm Global Technology Operations, Llc Fahrerassistenzsystem
US9014903B1 (en) * 2012-05-22 2015-04-21 Google Inc. Determination of object heading based on point cloud
US9933264B2 (en) * 2015-04-06 2018-04-03 Hrl Laboratories, Llc System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation
CN104850834A (zh) * 2015-05-11 2015-08-19 中国科学院合肥物质科学研究院 基于三维激光雷达的道路边界检测方法
CN105046235B (zh) * 2015-08-03 2018-09-07 百度在线网络技术(北京)有限公司 车道线的识别建模方法和装置、识别方法和装置
CN105223583B (zh) * 2015-09-10 2017-06-13 清华大学 一种基于三维激光雷达的目标车辆航向角计算方法
CN106560835B (zh) * 2015-09-30 2019-05-24 高德软件有限公司 一种路牌识别方法及装置
JP6695016B2 (ja) * 2015-10-19 2020-05-20 田中 成典 道路特徴決定装置
CN105667518B (zh) * 2016-02-25 2018-07-24 福州华鹰重工机械有限公司 车道检测的方法及装置
CN106780748A (zh) * 2016-11-29 2017-05-31 北京航空航天大学 一种基于网格关联的四叉树索引点云排序方法
WO2018101631A2 (ko) * 2016-11-30 2018-06-07 (주)유진로봇 청소 로봇, 청소 로봇에 구비되는 청소 기능 제어 장치, 및 청소 로봇에 구비되는 다채널 라이더 기반 장애물 검출 장치
CN106951847B (zh) * 2017-03-13 2020-09-29 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、设备及存储介质
CN107729856B (zh) * 2017-10-26 2019-08-23 海信集团有限公司 一种障碍物检测方法及装置
CN107885224A (zh) * 2017-11-06 2018-04-06 北京韦加无人机科技股份有限公司 基于三目立体视觉的无人机避障方法
US10671862B2 (en) * 2018-01-30 2020-06-02 Wipro Limited Method and system for detecting obstacles by autonomous vehicles in real-time
CN111860295B (zh) * 2018-09-07 2023-08-25 百度在线网络技术(北京)有限公司 基于无人车的障碍物检测方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN109446886B (zh) 2020-08-25
CN111860295B (zh) 2023-08-25
CN109446886A (zh) 2019-03-08
JP2019203900A (ja) 2019-11-28
CN111860295A (zh) 2020-10-30
US20190340781A1 (en) 2019-11-07
US11043002B2 (en) 2021-06-22
EP3543743A2 (en) 2019-09-25
EP3543743A3 (en) 2020-03-11

Similar Documents

Publication Publication Date Title
JP6837520B2 (ja) 無人運転車に基づく障害物の検出方法、装置、デバイス及び記憶媒体
JP6830139B2 (ja) 3次元データの生成方法、3次元データの生成装置、コンピュータ機器及びコンピュータ読み取り可能な記憶媒体
US10863166B2 (en) Method and apparatus for generating three-dimensional (3D) road model
EP3517997B1 (en) Method and system for detecting obstacles by autonomous vehicles in real-time
EP3614307A1 (en) Autonomous vehicle based position detection method and apparatus, device and medium
CN109635816B (zh) 车道线生成方法、装置、设备以及存储介质
JP2018194562A (ja) 道路境界検出方法及び装置
CN112739983B (zh) 校正点云数据的方法和相关装置
US11719799B2 (en) Method for determining a collision free space
CN113569958B (zh) 激光点云数据聚类方法、装置、设备及介质
JP6610466B2 (ja) 車両制御システム
CN114754761A (zh) 高精地图车道线的优化方法、装置及电子设备、存储介质
CN115326051A (zh) 一种基于动态场景的定位方法、装置、机器人及介质
WO2021016806A1 (zh) 高精度地图定位方法、系统、平台及计算机可读存储介质
CN111413701A (zh) 一种障碍物距离的确定方法、装置、车载设备及存储介质
CN112150550B (zh) 一种融合定位方法及装置
JP2015141580A (ja) 移動装置
CN110414458A (zh) 基于平面标签和模板匹配的定位方法及装置
CN111781606A (zh) 一种新型激光雷达和超声波雷达融合的小型化实现方法
CN111220943A (zh) 定位方法、定位系统、计算机可读存储介质及车辆
CN113048978A (zh) 移动机器人重定位方法及移动机器人
CN113643359A (zh) 一种目标对象定位方法、装置、设备及存储介质
WO2020021596A1 (ja) 車両位置推定装置および車両位置推定方法
CN112241675A (zh) 物体检测模型训练方法及装置
CN117315035B (zh) 一种车辆朝向的处理方法、装置以及处理设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200923

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210209

R150 Certificate of patent or registration of utility model

Ref document number: 6837520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250