JP2021101370A - モデリングルートの検証方法、装置、無人車両及び記憶媒体 - Google Patents

モデリングルートの検証方法、装置、無人車両及び記憶媒体 Download PDF

Info

Publication number
JP2021101370A
JP2021101370A JP2021050581A JP2021050581A JP2021101370A JP 2021101370 A JP2021101370 A JP 2021101370A JP 2021050581 A JP2021050581 A JP 2021050581A JP 2021050581 A JP2021050581 A JP 2021050581A JP 2021101370 A JP2021101370 A JP 2021101370A
Authority
JP
Japan
Prior art keywords
feature points
road section
target road
modeling
modeling route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021050581A
Other languages
English (en)
Other versions
JP7212709B2 (ja
Inventor
ヨンシャン ヤン、
Yongshan Yan
ヨンシャン ヤン、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021101370A publication Critical patent/JP2021101370A/ja
Application granted granted Critical
Publication of JP7212709B2 publication Critical patent/JP7212709B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され運転体験が改善されるモデリングルートの検証方法を提供する。【解決手段】ターゲット道路区間のフィルタリング閾値を取得するステップであって、フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連するステップと、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得るステップを含む。【選択図】図2

Description

本願は、データ処理技術分野におけるコンピュータビジョンや高度道路交通技術に関し、特に、モデリングルートの検証方法、装置、無人車両及び記憶媒体に関する。
自動車技術の発展に伴い、スマートカーは、自分で収集された画像に基づいて三次元マップを構築することができる。
従来の技術において、自動車側がルートモデリングを完了した後に、モデリングによって得られたルートに対して可用性を検証する必要もある。検証方式は、一般的に、車両がモデリングルートにしたがって実際に運転し、これにより、該ルートが利用可能であるかどうかを判断する。
しかし、上記の検証方式は、効率が低く、ルートが利用不可能である場合、運転者に迷惑をかけるようになる。
本開示は、モデリングルートの検証方法、装置、無人車両及び記憶媒体を提供する。
第1の態様では、本開示の実施例は、モデリングルートの検証方法を提供し、方法は、
ターゲット道路区間のフィルタリング閾値を取得するステップであって、フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連するステップと、
フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得るステップと、を含む。
本実施例において、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
第2の態様では、本開示の実施例は、モデリングルートの検証装置を提供し、装置は、
ターゲット道路区間のフィルタリング閾値を取得するための取得モジュールであって、フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連す取得モジュールと、
フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得るための検証モジュールと、を含む。
本実施例において、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
第3の態様では、本開示は、無人車両を提供し、プロセッサとメモリを含み、メモリには、プロセッサによって実行可能な命令が記憶されており、プロセッサは、実行可能な命令を実行することにより、第1の態様のいずれか1項に記載のモデリングルートの検証方法を実行するように構成されている。
第4の態様、本開示は、コンピュータ可読記憶媒体を提供し、その中にコンピュータプログラムが記憶されており、該プログラムがプロセッサによって実行されたとき、第1の態様のいずれか1項に記載のモデリングルートの検証方法を実現する。
第5の態様では、本開示の実施例は、プログラム製品を提供し、プログラム製品は、コンピュータプログラムを含み、コンピュータプログラムが可読記憶媒体に記憶されており、サーバの少なくとも1つのプロセッサは、可読記憶媒体からコンピュータプログラムを読み取ることができ、少なくとも1つのプロセッサはコンピュータプログラムを実行し、サーバは、第1の態様のいずれかに記載のモデリングルートの検証方法を実行するようになる。
第6の態様では、本開示は、モデリングルートの検証方法を提供し、方法は、
ターゲット道路区間のフィルタリング閾値を取得するステップと、
フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得るステップと、を含む。
第7の態様では、本開示は、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータ可読記憶媒体に記憶され、電子機器の少なくとも1つのプロセッサは、前記コンピュータ可読記憶媒体から前記コンピュータプログラムを読み取ることができ、前記少なくとも1つのプロセッサは、前記コンピュータプログラムを実行することによって、前記電子機器に第1の態様のいずれかに記載のモデリングルートの検証方法を実行させる。
本実施例において、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
図面は、本解決手段をよりよく理解するために使用されるものであり、本願に対する限定を構成しない。
本開示の実施例の一適用シナリオの概略図である。 本開示の第1の実施例による概略図である。 本開示の第2の実施例による概略図である。 本開示の第3の実施例による概略図である。 本開示の第4の実施例による概略図である。 本開示の実施例を実現するための無人車両のブロック図である。
以下、本願の示範的な実施例を図面に合わせて説明する。理解に寄与するための本願の実施例の様々な詳細が含まれるが、これらは、示範的なものにすぎないと考えられるべきである。よって、当業者は、ここに記述した実施例に対する様々な変更や修正が可能であり、本願の範囲や趣旨から逸脱しないと認識すべきである。同様に、明確且つ簡潔のため、以下の記述では、周知の機能及び構造に関する説明を省略する。
本開示の明細書と請求項の範囲及び上記の図面における用語「第1」、「第2」、「第3」、「第4」など(あれば)は、類似の対象を区別するためのものであり、必ずしも特定の順序又はシーケンスを説明するために使用される必要はない。ここに記述した本開示の実施例は、例えば、ここで図示又は記述するもの以外の順序で実施することができるように、このように使用されるデータは、適切な場合に交換できると理解すべきである。また、用語「含む」及び「有する」およびそれらの任意の変形は、非排他的包含をカバーすることを意図し、例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品、又はデバイスは、必ずしも明確に列記されたステップ又はユニットに限定される必要がなく、明確に列記されていない又はこれらのプロセス、方法、製品、又はデバイスに固有したその他のステップ又はユニットを含んでもよい。
以下、本開示の技術的解決手段を具体的な実施例を通じて詳細に説明する。以下のいくつかの具体的な実施例は、組み合わせることができ、同様又は類似の概念又はプロセスは、一部の実施例において繰り返して説明しない場合もある。
自動車技術の発展に伴い、スマートカーは、自分で収集された画像に基づいて三次元マップを構築することができる。従来の技術において、自動車側がルートモデリングを完了した後に、モデリングによって得られたルートに対して可用性を検証する必要もある。検証方式は、一般的に、車両がモデリングルートにしたがって実際に運転し、これにより、該ルートが利用可能であるかどうかを判断する。しかし、上記の検証方式は、効率が低く、ルートが利用不可能である場合、運転者に迷惑をかけるようになる。
上記の技術的課題に対し、本開示は、モデリングルートの検証方法、装置、無人車両及び記憶媒体を提供することを主旨とし、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上する。本開示に係る方法は、運転シミュレーションシステム搭載の無人車両などに適用することができる。
図1は、本開示の実施例の一適用シナリオの概略図であり、図1に示すように、車両10があるルートモデリングが実行されていない領域を走行し、車両10には、画像プロセッサと各種のセンサー(例えば、前方広角カメラ、超音波センサーなど)が搭載されていると仮定する。車両10は、走行中に、前方広角カメラを利用してビデオ画像を収集することができ、該ビデオ画像には、道路情報が含まれている。広角カメラによって収集されたビデオ画像が画像プロセッサに伝送され、画像プロセッサにロードされた画像処理ソフトウェアにより、ビデオ画像の特徴点を抽出し、2D特徴点を得る。そして、画像プロセッサは、同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングし、これにより、2D特徴点を3D特徴点に変換することができる。最後に、モデリングアルゴリズムに基づいて、3D特徴点により、ターゲット道路区間のモデリングルートを構築する。上記の適用シナリオでは、車両10は、自身のセンサーによって道路情報が含まれたビデオ画像を収集し、そして、ビデオ画像から抽出された3D特徴点によってモデリングルートを構築する。しかしながら、車両によって生成されたモデリングルートは、まず、使用する前に可用性を検証する必要があるため、モデリングルートの検証問題に関する場合がある。
例示的に、車両によって生成されたモデリングルートの全体を複数のターゲット道路区間に分割し、そして、ターゲット道路区間ごとに可用性を検証しもよい。選択的に、まずターゲット道路区間当たりのフィルタリング閾値を取得し、そして、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得る。ターゲット道路区間は、いずれも検証に合格したとき、車両によって生成されたモデリングルートは、使用できる。
本開示に係るモデリングルートの検証方法、装置、無人車両及び記憶媒体は、データ処理技術におけるコンピュータビジョン、高度道路交通技術分野に関し、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証し、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
図2は、本開示の第1の実施例による概略図であり、図2に示すように、本実施例における方法は、以下のステップを含むことができ、
S101、ターゲット道路区間のフィルタリング閾値を取得し、
S102、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得る。
本実施例における方法は、データ処理技術分野における自動運転技術分野、例えば、ルートモデリング、自動運転制御などに適用することができる。ターゲット道路区間のフィルタリング閾値を取得した後に、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
例示的に、ステップS101で、ターゲット道路区間に対して画像を複数回収集し、そして、毎回収集された画像に基づいて画像の特徴点を統計することにより、異なる次元を表徴するフィルタリング閾値を得ることができる。例えば、ターゲット道路区間に対して画像をN回収集し、N個の画像セットを得て、Nが1より大きい自然数である。画像セットにおける2D特徴点を3D特徴点に変換し、N個の画像セットに対応する各パラメータインジケータをそれぞれ統計し、パラメータインジケータは、2D特徴点の数、2D特徴点を3D特徴点に変換する変換率、カメラの中心との距離がプリセット閾値より小さい3D特徴点の数を含む。N個の画像セットのうち各パラメータインジケータの最小値をターゲット道路区間のフィルタリング閾値とする。フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連する。
例示的に、N個の画像セットにおける画像に対してそれぞれ特徴点の抽出を行い、2D特徴点を得て、各画像セットのうち同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングし、成功にマッチングされた2D特徴点を3D特徴点に変換することができる。
説明する必要があるものとして、本実施例は、2D特徴点を3D特徴点に変換する具体的な方法について限定されず、従来の二次元特徴を三次元特徴に変換するアルゴリズムは、いずれも本実施例に適用することができる。
例示的に、車両は、道路区間を走行するとき、カメラによって道路区間のビデオ画像を収集することができる。そして、収集されたビデオ画像に対して特徴点の抽出を行い、2D特徴点を得ることができる。2つ以上のカメラによって撮られた画像の2D特徴点をマッチングし、マッチされた2D特徴点セットを得る。最後に、2D特徴点セットを3D特徴点に変換する。同一の道路区間に対して、画像収集と特徴点の抽出を複数回行い、毎回収集された2D特徴点の数、2Dから3D点までの変換率、付近の3D特徴点の数を取得し、上記の3つのインジケータの最小値をフィルタリング閾値として統計することができる。例えば、画像特徴点の抽出時に、2D特徴点の数を統計する。そして、特徴点の変換時に、2Dから3D点までの変換率及び3D点の数を統計する。3D点が少なすぎると、カメラpose計算エラーが大きくなることを直接引き起こす。最後に、3D点の分布を統計し、即ち、付近の3D点の数(カメラの中心との距離が30mより小さい3D点が付近の3D点であると定義される)をそれぞれ統計する。付近の3D点は、エラーが小さいと、モデリングの正確さを確保することができる。同一の道路区間に対しては、複数回収集することができ、対応的に、周りごとにデータを1回収集する。そして、各周りのデータのすべての画像フレームのうち、上記の3つの次元インジケータの最小値をそれぞれ統計し、比較分析によって、フィルタリング閾値を設定する。
本実施例において、ターゲット道路区間に対して画像をN回収集することにより、N個の画像セットを得て、そして、N個の画像セットから抽出された2D特徴点、2D特徴点を3D特徴点に変換する変換率、カメラ中心との距離がプリセット閾値より小さい3D特徴点の数をそれぞれ統計し、道路区間の画像収集効果を表徴するための3つのインジケータを得る。N個の画像セットの3つのインジケータに対して最小値を求めることにより、対応する3つのフィルタリング閾値を得る。これにより、複数回の収集結果に基づき、信頼性が高いフィルタリング閾値を統計し、その後のモデリングルートの可用性を判別する結果をより正確にさせることができる。
例示的に、2D特徴点を3D特徴点に変換する変換率の計算式は、
K=U/Vであり、
Kは、2D特徴点を3D特徴点に変換する変換率を表し、Uは、2D特徴点の数を表し、Vは、3D特徴点の数を表す。
本実施例において、2D特徴点を3D特徴点に変換する変換率は、特徴点変換の効率を反映している。3D点が少なすぎると、カメラpose計算エラーが大きくなることを直接引き起こす。よって、2D特徴点を3D特徴点に変換する変換率により、ターゲット道路区間によって収集された画像の特徴点の有効性を表徴することができる。2D特徴点を3D特徴点に変換する変換率が高ければ高いほど、画像の収集品質も高いことを示し、これにより、モデリングルートのモデリング効果を客観的に評価するために使用できる。
例示的に、ステップS102で、モデリングルートの各パラメータインジケータを取得することができ、モデリングルートの各パラメータインジケータは、いずれも対応するフィルタリング閾値より大きい場合、モデリングルート検証に合格したと決定する。
例示的に、フィルタリング閾値によってモデリングルートが利用可能であるかどうかを判断することができ、モデリングルートの2D特徴点の数、2D特徴点を3D特徴点に変換する変換率、カメラ中心との距離がプリセット閾値より小さい3D特徴点の数などのパラメータインジケータは、いずれもフィルタリング閾値より大きいと、モデリングルート検証に合格した。
本実施例において、モデリングルートの各パラメータインジケータに対応するフィルタリング閾値を利用し、モデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
例示的に、ステップS102の後に、モデリングルートの検証結果が検証に合格であると指示する場合、モデリングルートをローカルメモリに記憶する、及び/又は、クラウドにアップロードする。
本実施例において、検証に合格した後に、モデリングルートは、ローカルメモリに記憶されることができ、車両自動運転のために使用される。同時に、モデリングルートをクラウドにアップロードし、モデリングルートの共有を実現することもできる。これにより、ユーザが自主的にナビゲーションルートを構築でき、ナビゲーションマップルートの作成効率を向上させ、より多くのユーザが他のユーザによって作成されたモデリングルートを共有できるようにする。
例示的に、ステップS102の後に、モデリングルートの検証結果が検証に不合格であると指示する場合、モデリングルートが利用不可能であるように提示する。
本実施例において、モデリングルートの検証結果が検証に不合格であると指示する場合、モデリングルートが利用不可能であることをユーザに提示し、これにより、ユーザが間違ったまたは品質が悪いナビゲーションルートを使用することを回避する。また、即時にモデリングルートを再構築するようにユーザに提示することにより、ユーザは、使用性に適合したモデリングルートを作成することができる。
本実施例において、ターゲット道路区間のフィルタリング閾値を取得し、フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連し、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証することにより、検証結果を得ることができる。これにより、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
図3は、本開示の第2の実施例による概略図であり、図3に示すように、本実施例における方法は、以下のステップを含むことができる。
S201、ターゲット道路区間に対応するモデリングルートを構築する。
本実施例において、車両は、ターゲット道路区間を走行するとき、車両に搭載されたカメラによってターゲット道路区間の画像を収集し、そして、該画像に対して特徴抽出を行い、3D特徴点を得て、最後に3D特徴点により、ターゲット道路区間に対応するモデリングルートを構築することができる。従来のナビゲーションルート作成方法に比べて、上記の方式は、車の所有者によって自発的に完了することができ、これにより、ナビゲーションルートの作成効率を向上させ、ルートの作成がパーソナライズされ、ユーザのカスタマイズされたニーズを満たすことができる。
例示的に、ステップS201で、異なるカメラにより、ターゲット道路区間に対して画像収集を行い、収集された画像に対して特徴点の抽出を行い、2D特徴点を得て、同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングし、成功にマッチングされた2D特徴点を3D特徴点に変換し、3D特徴点により、ターゲット道路区間のモデリングルートを構築することができる。
本実施例において、車両には各種のセンサー、例えば、前方広角カメラ、超音波センサーなどが搭載されるため、前方広角カメラを用いてビデオ画像を収集することができる。そして、画像特徴点の抽出アルゴリズムにより、収集された画像に対して特徴点の抽出を行い、2D特徴点を得る。そして、同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングし、成功にマッチングされた2D特徴点を3D特徴点に変換し、最後に、3D特徴点を利用し、ターゲット道路区間のモデリングルートを構築する。このような方法において、車両自身のセンサーを直接利用してターゲット道路区間に対する画像収集を完了し、そして、画像に基づいて特徴点の抽出を行い、三次元マップルートを作成するために使用できる3D特徴点を得ることができ、従来の他のナビゲーションマップルート作成方法に比べて、収集デバイスに対する要求が低く、ほぼすべての車両には、ルート作成機能を備えることができ、これにより、マップルートの作成効率を効果的に向上させることができる。
説明する必要があるものとして、本実施例は、画像特徴点の抽出アルゴリズムについて限定されず、従来の画像特徴点の抽出アルゴリズムは、すべて本願に適用することができる。
そして、同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングし、これにより、2D特徴点を3D特徴点に変換することができる。最後に、モデリングアルゴリズムに基づいて、3D特徴点により、ターゲット道路区間のモデリングルートを構築する。
S202、ターゲット道路区間のフィルタリング閾値を取得する。
S203、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得る。
本実施例において、ステップS202〜ステップS203の具体的な実現プロセスと技術的原理について、図2に示すような方法においてステップS101〜ステップS102における関連記述を参照する。ここで繰り返して説明しない。
本実施例において、ターゲット道路区間のフィルタリング閾値を取得し、フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連し、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得ることにより、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
なお、本実施例において、また、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証する前に、ターゲット道路区間に対応するモデリングルートを構築することにより、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
図4は、本開示の第3の実施例による概略図であり、図4に示すように、本実施例における装置は、また、
ターゲット道路区間のフィルタリング閾値を取得するための取得モジュール31であって、フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連する取得モジュール31と、
フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得るための検証モジュール32と、を含むことができる。
一可能な設計において、取得モジュール31は、具体的に、
ターゲット道路区間に対して画像をN回収集し、N個の画像セットを得て、Nが1より大きい自然数であり、
N個の画像セットにおける画像に対してそれぞれ特徴点の抽出を行い、2D特徴点を得て、
画像セットにおける2D特徴点を3D特徴点に変換し、
N個の画像セットに対応する各パラメータインジケータをそれぞれ統計し、パラメータインジケータは、2D特徴点の数、2D特徴点を3D特徴点に変換する変換率、カメラ中心との距離がプリセット閾値より小さい3D特徴点の数を含み、
N個の画像セットのうち各パラメータインジケータの最小値をターゲット道路区間のフィルタリング閾値とするために使用される。
一可能な設計において、画像セットにおける2D特徴点を3D特徴点に変換するステップは、N個の画像セットにおける画像に対してそれぞれ特徴点の抽出を行い、2D特徴点を得るステップと、各画像セットのうち同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングするステップと、成功にマッチングされた2D特徴点を3D特徴点に変換するステップと、を含む。
一可能な設計において、2D特徴点を3D特徴点に変換する変換率の計算式は、
K=U/Vであり、
Kは、2D特徴点を3D特徴点に変換する変換率を表し、Uは、2D特徴点の数を表し、Vは、3D特徴点の数を表す。
一可能な設計において、検証モジュール32は、具体的に、
モデリングルートの各パラメータインジケータを取得し、
モデリングルートの各パラメータインジケータは、いずれも対応するフィルタリング閾値より大きい場合、モデリングルート検証に合格したと決定するために使用される。
本実施例のモデリングルートの検証装置は、図2に示すような方法における技術的解決手段を実行することができ、その具体的な実現プロセスと技術的原理について、図2に示すような方法における関連記述を参照でき、ここで繰り返して説明しない。
本実施例において、ターゲット道路区間のフィルタリング閾値を取得し、フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連し、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得ることにより、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
図5は、本開示の第4の実施例による概略図であり、図5に示すように、本実施例における装置は、図4に示すような装置に基づき、さらに、
ターゲット道路区間に対応するモデリングルートを構築するためのモデリングモジュール33を含むことができる。
一可能な設計において、モデリングモジュール33は、具体的に、
異なるカメラにより、ターゲット道路区間に対して画像収集を行い、
収集された画像に対して特徴点の抽出を行い、2D特徴点を得て、
同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングし、
成功にマッチングされた2D特徴点を3D特徴点に変換し、
3D特徴点により、ターゲット道路区間のモデリングルートを構築するために使用される。
一可能な設計において、さらに、検証結果が検証に合格であると指示するとき、モデリングルートをローカルメモリに記憶する、及び/又は、クラウドにアップロードするための発布モジュール34を含む。
一可能な設計において、さらに、検証結果が検証に不合格であると指示するとき、モデリングルートが利用不可能であるように提示するための提示モジュール35を含む。
本実施例のモデリングルートの検証装置は、図2、図3に示すような方法における技術的解決手段を実行することができ、その具体的な実現プロセスと技術的原理について、図2、図3に示すような方法における関連記述を参照でき、ここで繰り返して説明しない。
本実施例において、ターゲット道路区間のフィルタリング閾値を取得し、フィルタリング閾値がターゲット道路区間に対応する画像特徴点に関連し、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証し、検証結果を得ることにより、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
なお、本実施例において、また、フィルタリング閾値によってターゲット道路区間に対応するモデリングルートを検証する前に、ターゲット道路区間に対応するモデリングルートを構築することにより、直接にフィルタリング閾値を用いてモデリングルートの可用性を検証することができ、モデリングルートを検証するために手動で車両を運転する必要がなく、検証効率が効果的に向上し、車両が利用不可能なモデリングルートにしたがって走行することが回避され、運転体験が改善される。
図6は、本開示の実施例を実現するための無人車両のブロック図であり、図6に示すように、本開示の実施例による図6の無人車両のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及びその他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを意図している。電子機器は、例えば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書に示されるコンポーネント、それらの接続や関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本願の実現を制限する意図したものではない。
図6に示すように、該無人車両は、1つ又は複数のプロセッサ501、メモリ502、及び各コンポーネントを連結するためのインタフェースを含み、該インタフェースは、高速インタフェースと低速インタフェースとを含む。個々のコンポーネントは、異なるバスを使用して互いに接続され、パブリックメインボードにインストールされるか、又は、必要に応じて他の方式でインストールされることができる。プロセッサは、電子機器内で実行される命令を処理することができ、外部の入力/出力装置(インタフェースにカップリングされたディスプレイデバイスなど)でグラフィカルユーザーインターフェース(GUI)のグラフィクス情報がディスプレイされるための、メモリ内又はメモリ上に記憶されている命令まで含まれている。他の実施形態において、必要に応じて、複数のプロセッサ及び/又は複数のバスを複数のメモリと一緒に使用してもよい。同様に、複数の電子機器に接続し、個々の機器により、一部の必要な操作を提供(例えば、サーバアレイ、ブレードサーバのグループ、または、マルチプロセッサシステムとする)してもよい。図6には、1つのプロセッサ501を例とする。
メモリ502は、本開示に係る非一時的なコンピュータ可読記憶媒体である。前記メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記少なくとも1つのプロセッサが本開示に係る図6の無人車両のモデリングルートの検証方法を実行するようにする。本開示の非一時的なコンピュータ可読記憶媒体は、コンピュータ命令を記憶しており、該コンピュータ命令は、コンピュータが本開示に係る図6のモデリングルートの検証方法を実行するためのものである。
メモリ502は、非一時的なコンピュータ可読記憶媒体として、本開示の実施例における図6のモデリングルートの検証方法に対応するプログラム命令/モジュールなどの非一時的なソフトウェアプログラム、非一時的なコンピュータによる実行可能なプログラムおよびモジュールを記憶するために使用できる。プロセッサ501は、メモリ502に記憶された非一時的なソフトウェアプログラム、命令およびモジュールを実行することにより、サーバの様々な機能アプリケーションおよびデータ処理を実行し、即ち、上記の方法の実施例における図6の無人車両のモデリングルートの検証方法を実現する。
メモリ502は、プログラム記憶エリアとデータ記憶エリアとを含むことができ、プログラム記憶エリアは、操作システム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶エリアは、図6の無人車両の使用によって作成されるデータなどを記憶することができる。また、メモリ502は、高速ランダムアクセスメモリを含むことができ、また、少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の非一時的なソリッドステートストレージデバイスなどの非一時的なメモリを含むこともできる。いくつかの実施例において、メモリ502は、プロセッサ501に対して遠隔に設置されているメモリを選択的に含むことができ、それらの遠隔メモリは、ネットワークを介し、図6の無人車両に接続されることができる。上記のネットワークの実例は、インターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせを含むが、これらに限定されない。
本開示の実施例によれば、本開示はコンピュータプログラムをさらに提供し、前記コンピュータプログラムは、コンピュータ可読記憶媒体に記憶され、電子機器の少なくとも1つのプロセッサは、前記コンピュータ可読記憶媒体から前記コンピュータプログラムを読み取ることができ、前記少なくとも1つのプロセッサは、前記コンピュータプログラムを実行することによって、前記電子機器に上記いずれかの実施例による手段を実行させる。
図6の無人車両は、さらに、入力装置503及び出力装置504を含むことができる。プロセッサ501、メモリ502、入力装置503及び出力装置504は、バス又はその他の方式によって接続されてもよく、図6では、バスによって接続される方式を例とする。
入力装置503は、入力された数字又はキャラクタ情報を受信し、図6の無人車両のユーザ設定、および機能制御に関連する鍵信号の入力を生成することができ、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インディケータロッド、1つ又は複数のマウスボタン、トラックボール、操縦ハンドルなどの入力装置が挙げられる。出力装置504は、ディスプレイデバイス、補助照明装置(LEDなど)や触感フィードバック装置(振動モータなど)などを含むことができる。該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイやプラズマディスプレイを含むことができるが、それらに限定されない。いくつかの実施形態では、ディスプレイデバイスはタッチスクリーンであってもよい。
ここに記載のシステムや技術的様々な実施形態は、デジタル電子回路、集積回路システム、ASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現されてよい。それらの様々な実施形態は、1つ又は複数のコンピュータプログラムに実施される形態を含むことができ、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムで実行及び/又は解釈されることができ、該プログラマブルプロセッサは、専用または汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置から、データと命令を受信し、そして、データと命令を該記憶システム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置に伝送することができる。
これらコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、または、コードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、これらのコンピュータプログラムをアドバンスプロセス及び/又はオブジェクト指向型プログラミング言語、及び/又はアセンブリ言語/機械言語を利用して実施することができる。例えば、本明細書に使用される用語「機械可読媒体」や「コンピュータ可読媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、デバイス、及び/又は装置(磁気ディスク、光ディスク、メモリ、プログラマブルロジック装置(PLD)など)のを指し、機械可読信号としての機械命令を受信するための機械可読媒体を含む。用語「機械可読信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここに記載のシステムや技術をコンピュータで実施することができ、該コンピュータは、ユーザへ情報をディスプレイするためのディスプレイ装置(CRT(陰極線管)またはLCD(液晶ディスプレイ)モニターなど)、及びキーボードとポインティングデバイス(マウス又はトラックボールなど)があり、ユーザは、該キーボードや該ポインティングデバイスを通じ、入力をコンピュータに提供することができる。その他の種類の装置は、ユーザとのインタラクションを提供するために使用されることができ、例えば、ユーザに提供されるフィードバックは、任意の形の感覚フィードバック(視覚フィードバック、聴覚フィードバック、または触感フィードバックなど)であってもよく、ユーザからの入力を任意の形(音入力、音声入力又は触感入力を含む)で受信することができる。
ここに記載のシステムや技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインターフェース又はWEBブラウザーを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインターフェース又は当該WEBブラウザーを介して本明細書に説明したシステム及び技術の実施形態とインタラクションすることができる)、又はこのようなバックエンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントを含む任意の組み合わせコンピューティングシステム中で実施できる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介してシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及びインターネットを含む。
コンピューティングシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、通常、互いに遠く離れており、通信ネットワークを介して互いにインタラクションするのが一般的である。クライアントとサーバの関係は、対応するコンピュータで実行され、且つ互いにクライアント−サーバの関係を持つコンピュータプログラムによって生成される。
なお、上記の様々な形態のフローを使用して、ステップを並べ替えたり、追加したり、削除したりすることができる。例えば、本願に記載の各ステップは、本願に開示されている技術案が所望の結果を達成できる限り、並行に実施されてもよいし、順次実施されてもよいし、異なる順序で実施されてもよく、本明細書では、それについて限定しない。
上記の具体的な実施形態は、本願の特許保護範囲に対する制限を構成するものではない。当業者にとって明らかなように、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブ組み合わせ、及び置換を行うことができる。本願の精神と原則の範囲内で行われる修正、同等の置換、及び改良であれば、本願の特許保護範囲に含まれるべきである。

Claims (22)

  1. モデリングルートの検証方法であって、前記方法は、
    ターゲット道路区間のフィルタリング閾値を取得するステップであって、前記フィルタリング閾値が前記ターゲット道路区間に対応する画像特徴点に関連するステップと、
    前記フィルタリング閾値によって前記ターゲット道路区間に対応するモデリングルートを検証し、検証結果を得るステップと、を含む、モデリングルートの検証方法。
  2. ターゲット道路区間のフィルタリング閾値を取得するステップは、
    前記ターゲット道路区間に対して画像をN回収集し、N個の画像セットを得るステップであって、Nが1より大きい自然数であるステップと、
    前記画像セットにおける2D特徴点を3D特徴点に変換するステップと、
    N個の画像セットに対応する各パラメータインジケータをそれぞれ統計するステップであって、前記パラメータインジケータは、2D特徴点の数、2D特徴点を3D特徴点に変換する変換率、カメラ中心との距離がプリセット閾値より小さい3D特徴点の数を含むステップと、
    N個の画像セットのうち各パラメータインジケータの最小値を前記ターゲット道路区間のフィルタリング閾値とするステップと、を含む、請求項1に記載の検証方法。
  3. 前記画像セットにおける2D特徴点を3D特徴点に変換するステップは、
    N個の前記画像セットにおける画像に対してそれぞれ特徴点の抽出を行い、2D特徴点を得るステップと、
    各画像セットのうち同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングするステップと、
    成功にマッチングされた2D特徴点を3D特徴点に変換するステップと、を含む、請求項2に記載の検証方法。
  4. 前記2D特徴点を3D特徴点に変換する変換率の計算式は、
    K=U/Vであり、
    Kは、2D特徴点を3D特徴点に変換する変換率を表し、Uは、2D特徴点の数を表し、Vは、3D特徴点の数を表す、請求項2に記載の検証方法。
  5. 前記フィルタリング閾値によって前記ターゲット道路区間に対応するモデリングルートを検証する前に、また、
    前記ターゲット道路区間に対応するモデリングルートを構築するステップを含む、請求項1に記載の検証方法。
  6. 前記ターゲット道路区間に対応するモデリングルートを構築するステップは、
    異なるカメラにより、前記ターゲット道路区間に対して画像収集を行うステップと、
    収集された画像に対して特徴点の抽出を行い、2D特徴点を得るステップと、
    同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングするステップと、
    成功にマッチングされた2D特徴点を3D特徴点に変換するステップと、
    前記3D特徴点により、前記ターゲット道路区間のモデリングルートを構築するステップと、を含む、請求項5に記載の検証方法。
  7. 前記フィルタリング閾値によって前記ターゲット道路区間に対応するモデリングルートを検証するステップは、
    前記モデリングルートの各パラメータインジケータを取得するステップと、
    前記モデリングルートの各パラメータインジケータは、いずれも対応するフィルタリング閾値より大きい場合、前記モデリングルート検証に合格したと決定するステップと、を含む、請求項1〜請求項6のいずれか1項に記載の検証方法。
  8. 前記検証結果が合格である場合、前記モデリングルートをローカルメモリに記憶する、及び/又は、クラウドにアップロードするステップをさらに含む、請求項1〜請求項6のいずれか1項に記載の検証方法。
  9. 前記検証結果が不合格である場合、前記モデリングルートが利用不可能であるように提示するステップをさらに含む、請求項1〜請求項6のいずれか1項に記載の検証方法。
  10. モデリングルートの検証装置であって、前記装置は、
    ターゲット道路区間のフィルタリング閾値を取得するための取得モジュールであって、前記フィルタリング閾値が前記ターゲット道路区間に対応する画像特徴点に関連する取得モジュールと、
    前記フィルタリング閾値によって前記ターゲット道路区間に対応するモデリングルートを検証し、検証結果を得るための検証モジュールと、を含む、モデリングルートの検証装置。
  11. 前記取得モジュールは、具体的に、
    前記ターゲット道路区間に対して画像をN回収集し、N個の画像セットを得て、Nが1より大きい自然数であり、
    前記N個の画像セットにおける画像に対してそれぞれ特徴点の抽出を行い、2D特徴点を得て、
    前記画像セットにおける2D特徴点を3D特徴点に変換し、
    N個の画像セットに対応する各パラメータインジケータをそれぞれ統計し、前記パラメータインジケータは、2D特徴点の数、2D特徴点を3D特徴点に変換する変換率、カメラ中心との距離がプリセット閾値より小さい3D特徴点の数を含み、
    N個の画像セットのうち各パラメータインジケータの最小値を前記ターゲット道路区間のフィルタリング閾値とするために使用される請求項10に記載の検証装置。
  12. 前記画像セットにおける2D特徴点を3D特徴点に変換するステップは、
    N個の前記画像セットにおける画像に対してそれぞれ特徴点の抽出を行い、2D特徴点を得るステップと、
    各画像セットのうち同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングするステップと、
    成功にマッチングされた2D特徴点を3D特徴点に変換するステップと、を含む、請求項11に記載の検証装置。
  13. 前記2D特徴点を3D特徴点に変換する変換率の計算式は、
    K=U/Vであり、
    Kは、2D特徴点を3D特徴点に変換する変換率を表し、Uは、2D特徴点の数を表し、Vは、3D特徴点の数を表す、請求項11に記載の検証装置。
  14. 前記ターゲット道路区間に対応するモデリングルートを構築するためのモデリングモジュールをさらに含む、請求項10に記載の検証装置。
  15. 前記モデリングモジュールは、具体的に、
    異なるカメラにより、前記ターゲット道路区間に対して画像収集を行い、
    収集された画像に対して特徴点の抽出を行い、2D特徴点を得て、
    同一の時点で異なるカメラによって撮られた画像に対応する2D特徴点をマッチングし、
    成功にマッチングされた2D特徴点を3D特徴点に変換し、
    前記3D特徴点により、前記ターゲット道路区間のモデリングルートを構築するために使用される、請求項14に記載の検証装置。
  16. 前記検証モジュールは、具体的に、
    前記モデリングルートの各パラメータインジケータを取得し、
    前記モデリングルートの各パラメータインジケータは、いずれも対応するフィルタリング閾値より大きい場合、前記モデリングルート検証に合格したと決定するために使用される、請求項10〜請求項15のいずれか1項に記載の検証装置。
  17. 前記検証結果が合格であるとき、前記モデリングルートをローカルメモリに記憶する、及び/又は、クラウドにアップロードするための発布モジュールをさらに含む、請求項10〜請求項15のいずれか1項に記載の検証装置。
  18. 前記検証結果が不合格であるとき、前記モデリングルートが利用不可能であるように提示するための提示モジュールをさらに含む、請求項10〜請求項15のいずれか1項に記載の検証装置。
  19. 無人車両であって、
    少なくとも1つのプロセッサ、および
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリを含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサは、請求項1〜請求項9のいずれか1項に記載の方法を実行させることができる、無人車両。
  20. コンピュータ命令が記憶された非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令は、コンピュータに請求項1〜請求項9のいずれか1項に記載の方法を実行させるためのものである、非一時的なコンピュータ可読記憶媒体。
  21. モデリングルートの検証方法であって、前記方法は、
    ターゲット道路区間のフィルタリング閾値を取得するステップと、
    前記フィルタリング閾値によって前記ターゲット道路区間に対応するモデリングルートを検証し、検証結果を得るステップと、を含む、モデリングルートの検証方法。
  22. コンピュータプログラムであって、前記コンピュータプログラムはプロセッサで実行されるとき、コンピュータに請求項1〜請求項9のいずれか1項に記載の方法を実行させる、コンピュータプログラム。


JP2021050581A 2020-06-09 2021-03-24 モデリングルートの検証方法、装置、無人車両及び記憶媒体 Active JP7212709B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010518104.7 2020-06-09
CN202010518104.7A CN111695489B (zh) 2020-06-09 2020-06-09 建模路线的验证方法、装置、无人车及存储介质

Publications (2)

Publication Number Publication Date
JP2021101370A true JP2021101370A (ja) 2021-07-08
JP7212709B2 JP7212709B2 (ja) 2023-01-25

Family

ID=72479932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021050581A Active JP7212709B2 (ja) 2020-06-09 2021-03-24 モデリングルートの検証方法、装置、無人車両及び記憶媒体

Country Status (5)

Country Link
US (1) US11619498B2 (ja)
EP (1) EP3842757B1 (ja)
JP (1) JP7212709B2 (ja)
KR (1) KR102524988B1 (ja)
CN (1) CN111695489B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116798030B (zh) * 2023-08-28 2023-11-14 中国建筑第六工程局有限公司 曲面观光雷达高塔验收方法、系统、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215057A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景マッチング用参照データ生成システム及び位置測位システム
WO2012172870A1 (ja) * 2011-06-14 2012-12-20 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP2018533721A (ja) * 2015-08-03 2018-11-15 トムトム グローバル コンテント ベスローテン フエンノートシャップ ローカライゼーション基準データを生成及び使用する方法及びシステム
JP2020042024A (ja) * 2018-09-06 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド レーザレーダの内部パラメータ精度検証方法とその装置、機器及び媒体

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101664582B1 (ko) * 2014-11-12 2016-10-10 현대자동차주식회사 자율주행차량의 주행경로 생성장치 및 방법
CN106323301B (zh) * 2015-06-29 2020-05-12 北京四维图新科技股份有限公司 一种道路情报的获取方法及装置
CN106796728A (zh) * 2016-11-16 2017-05-31 深圳市大疆创新科技有限公司 生成三维点云的方法、装置、计算机系统和移动设备
DE102016222782A1 (de) * 2016-11-18 2018-05-24 Audi Ag Autonomes Steuern eines Kraftfahrzeugs anhand von Spurdaten; Kraftfahrzeug
WO2018125939A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation
CN111542860A (zh) * 2016-12-30 2020-08-14 迪普迈普有限公司 用于自主车辆的高清地图的标志和车道创建
CN109510851B (zh) * 2017-09-15 2022-01-04 华为技术有限公司 地图数据的构建方法和设备
KR102434580B1 (ko) 2017-11-09 2022-08-22 삼성전자주식회사 가상 경로를 디스플레이하는 방법 및 장치
US11501105B2 (en) * 2018-03-02 2022-11-15 Zoox, Inc. Automatic creation and updating of maps
US11675359B2 (en) * 2018-06-13 2023-06-13 Nvidia Corporation Path detection for autonomous machines using deep neural networks
CN108961146B (zh) * 2018-07-19 2023-07-21 深圳地平线机器人科技有限公司 渲染感知地图的方法和装置
CN110375764A (zh) * 2019-07-16 2019-10-25 中国第一汽车股份有限公司 变道提示方法、系统、车辆及存储介质
CN110426046B (zh) * 2019-08-21 2023-11-24 西京学院 一种无人机自主着陆跑道区域障碍物判断与跟踪方法
CN110505463A (zh) 2019-08-23 2019-11-26 上海亦我信息技术有限公司 基于拍照的实时自动3d建模方法
CN111160132B (zh) * 2019-12-12 2022-08-19 苏州智加科技有限公司 障碍物所在车道的确定方法、装置、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215057A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景マッチング用参照データ生成システム及び位置測位システム
WO2012172870A1 (ja) * 2011-06-14 2012-12-20 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP2018533721A (ja) * 2015-08-03 2018-11-15 トムトム グローバル コンテント ベスローテン フエンノートシャップ ローカライゼーション基準データを生成及び使用する方法及びシステム
JP2020042024A (ja) * 2018-09-06 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド レーザレーダの内部パラメータ精度検証方法とその装置、機器及び媒体

Also Published As

Publication number Publication date
KR102524988B1 (ko) 2023-04-21
CN111695489B (zh) 2023-08-11
KR20210038451A (ko) 2021-04-07
EP3842757A3 (en) 2021-09-29
CN111695489A (zh) 2020-09-22
US11619498B2 (en) 2023-04-04
EP3842757B1 (en) 2022-09-28
US20210207964A1 (en) 2021-07-08
EP3842757A2 (en) 2021-06-30
JP7212709B2 (ja) 2023-01-25

Similar Documents

Publication Publication Date Title
JP6745328B2 (ja) 点群データを復旧するための方法及び装置
JP2021119507A (ja) 車線の決定方法、車線測位精度の評価方法、車線の決定装置、車線測位精度の評価装置、電子デバイス、コンピュータ可読記憶媒体、及びプログラム
JP7204823B2 (ja) 車両制御方法、車両制御装置及び車両
JP7273129B2 (ja) 車線検出方法、装置、電子機器、記憶媒体及び車両
CN111739005B (zh) 图像检测方法、装置、电子设备及存储介质
JP7242738B2 (ja) 点群を更新するための方法、点群を更新するための装置、電子機器、非一時的コンピュータ可読記憶媒体及びコンピュータプログラム
CN110675635B (zh) 相机外参的获取方法、装置、电子设备及存储介质
WO2019095735A1 (zh) 用于车辆的信息输出方法和装置
JP7393374B2 (ja) 画像を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
JP2022050311A (ja) 車両の車線変更を検出するための方法、装置、電子機器、記憶媒体、路側機、クラウド制御プラットフォーム、及びコンピュータプログラム
CN114429528A (zh) 图像处理方法、装置、设备、计算机程序及存储介质
CN115860102B (zh) 一种自动驾驶感知模型的预训练方法、装置、设备和介质
CN113592015B (zh) 定位以及训练特征匹配网络的方法和装置
CN111597287A (zh) 地图生成方法、装置及设备
CN111291681A (zh) 车道线变化信息的检测方法、装置及设备
JP2021101370A (ja) モデリングルートの検証方法、装置、無人車両及び記憶媒体
CN115866229B (zh) 多视角图像的视角转换方法、装置、设备和介质
CN114674328B (zh) 地图生成方法、装置、电子设备、存储介质、及车辆
EP4180836A1 (en) System and method for ultrasonic sensor enhancement using lidar point cloud
CN115082690B (zh) 目标识别方法、目标识别模型训练方法及装置
CN116664997A (zh) 一种感知融合系统、电子设备和存储介质
CN113269168B (zh) 障碍物数据处理方法、装置、电子设备和计算机可读介质
CN115002196A (zh) 一种数据处理方法、装置、车端采集设备
CN110120075B (zh) 用于处理信息的方法和装置
CN113762397A (zh) 检测模型训练、高精度地图更新方法、设备、介质及产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230113

R150 Certificate of patent or registration of utility model

Ref document number: 7212709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150