JP2022509302A - 地図生成方法、運転制御方法、装置、電子機器及びシステム - Google Patents
地図生成方法、運転制御方法、装置、電子機器及びシステム Download PDFInfo
- Publication number
- JP2022509302A JP2022509302A JP2021531066A JP2021531066A JP2022509302A JP 2022509302 A JP2022509302 A JP 2022509302A JP 2021531066 A JP2021531066 A JP 2021531066A JP 2021531066 A JP2021531066 A JP 2021531066A JP 2022509302 A JP2022509302 A JP 2022509302A
- Authority
- JP
- Japan
- Prior art keywords
- information
- point cloud
- coordinate system
- area
- road element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
地図生成方法、運転制御方法、装置、電子機器及びシステムであって、前記地図生成方法は、車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、上記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得すること(S101)と、上記画像情報に対して、セマンティックセグメンテーション処理を行い、上記領域における道路要素の第1セマンティック情報を得ることであって、該第1セマンティック情報は、上記道路要素の二次元位置情報及び属性情報を含む、こと(S102)と、上記領域における道路要素の第1セマンティック情報と上記領域のポイントクラウド情報に対してマッチング処理を行い、上記領域における道路要素の第2セマンティック情報を得ることであって、該第2セマンティック情報は、上記道路要素の三次元位置情報及び属性情報を含む、こと(S103)と、上記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新すること(S104)と、を含む。
【選択図】図1
【選択図】図1
Description
(関連出願の相互参照)
本願は、2019年6月10日に提出された出願番号が201910496345.3である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、2019年6月10日に提出された出願番号が201910496345.3である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願の実施例は、インテリジェント運転技術に関し、特に地図生成方法、運転制御方法、装置、電子機器及びシステムに関する。
インテリジェント運転分野において、高精度地図は、重要な役割を果たし、インテリジェント運転分野における不可欠な存在である。車両向けの地図は一般的には、高精度地図と呼ばれ、これは、人間向けの地図(ナビゲーション地図)と異なる。高精度地図は、豊かなセマンティック情報及び走行補助情報を含む。例えば、高精度地図において、道路だけでなく、道路の道路標識線の情報も描画することができ、例えば、道路標識線の位置及びタイプなども描画することができる。上記高精度地図によれば、車両の測位、運転制御などを実現することができる。
本願の実施例は、地図生成方法、運転制御方法、装置、電子機器及びシステムを提供する。
第1態様によれば、本願の実施例は、地図生成方法を提供する。前記方法は、
車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得することと、
前記画像情報に対して、セマンティックセグメンテーション処理を行い、前記領域における道路要素の第1セマンティック情報を得ることであって、前記第1セマンティック情報は、前記道路要素の二次元位置情報及び属性情報を含む、ことと、
前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得ることであって、前記第2セマンティック情報は、前記道路要素の三次元位置情報及び属性情報を含む、ことと、
前記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新することと、を含む。
車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得することと、
前記画像情報に対して、セマンティックセグメンテーション処理を行い、前記領域における道路要素の第1セマンティック情報を得ることであって、前記第1セマンティック情報は、前記道路要素の二次元位置情報及び属性情報を含む、ことと、
前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得ることであって、前記第2セマンティック情報は、前記道路要素の三次元位置情報及び属性情報を含む、ことと、
前記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新することと、を含む。
第2態様によれば、本願の実施例は、地図生成装置を提供する。前記装置は、
車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得するように構成される収集モジュールと、
前記画像情報に対して、セマンティックセグメンテーション処理を行い、前記領域における道路要素の第1セマンティック情報を得るように構成されるセグメンテーションモジュールであって、前記第1セマンティック情報は、前記道路要素の二次元位置情報及び属性情報を含む、セグメンテーションモジュールと、
前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得るように構成されるマッチングモジュールであって、前記第2セマンティック情報は、前記道路要素の三次元位置情報及び属性情報を含む、マッチングモジュールと、
前記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新するように構成される生成モジュールと、を備える。
車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得するように構成される収集モジュールと、
前記画像情報に対して、セマンティックセグメンテーション処理を行い、前記領域における道路要素の第1セマンティック情報を得るように構成されるセグメンテーションモジュールであって、前記第1セマンティック情報は、前記道路要素の二次元位置情報及び属性情報を含む、セグメンテーションモジュールと、
前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得るように構成されるマッチングモジュールであって、前記第2セマンティック情報は、前記道路要素の三次元位置情報及び属性情報を含む、マッチングモジュールと、
前記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新するように構成される生成モジュールと、を備える。
第3態様によれば、本願の実施例は、運転制御方法を提供する。前記方法は、
運転制御装置が、車両の所在する道路環境の少なくとも一部領域の地図情報を取得することであって、地図情報は、上記第1態様に記載の地図生成方法で得られたものである、ことと、
前記運転制御装置が前記地図情報に基づいて車両に対してインテリジェント運転制御を行うことと、を含む。
運転制御装置が、車両の所在する道路環境の少なくとも一部領域の地図情報を取得することであって、地図情報は、上記第1態様に記載の地図生成方法で得られたものである、ことと、
前記運転制御装置が前記地図情報に基づいて車両に対してインテリジェント運転制御を行うことと、を含む。
第4態様によれば、本願の実施例は、運転制御装置を提供する。前記装置は、
車両の所在する道路環境の少なくとも一部領域の地図情報を取得するように構成される取得モジュールであって、地図情報は、上記第1態様に記載の地図生成方法で得られたものである、取得モジュールと、
前記地図情報に基づいて車両に対してインテリジェント運転制御を行うように構成される運転制御モジュールと、を備える。
車両の所在する道路環境の少なくとも一部領域の地図情報を取得するように構成される取得モジュールであって、地図情報は、上記第1態様に記載の地図生成方法で得られたものである、取得モジュールと、
前記地図情報に基づいて車両に対してインテリジェント運転制御を行うように構成される運転制御モジュールと、を備える。
第5態様によれば、本願の実施例は、電子機器を提供する。前記電子機器は、
プログラム命令を記憶するように構成されるメモリと、
前記メモリにおけるプログラム命令を呼び出して実行し、上記第1態様に記載の方法のステップを実行するように構成されるプロセッサと、を備える。
プログラム命令を記憶するように構成されるメモリと、
前記メモリにおけるプログラム命令を呼び出して実行し、上記第1態様に記載の方法のステップを実行するように構成されるプロセッサと、を備える。
第6態様によれば、本願の実施例は、インテリジェント運転システムを提供する。前記システムは、通信接続されるセンサと、上記第5態様に記載の電子機器と、上記第4態様に記載の運転制御装置と、を備え、前記センサは、車両の所在する道路環境の少なくとも一部領域の画像情報及びポイントクラウド情報を収集するように構成される。
第7態様によれば、本願の実施例は、可読記憶媒体を提供する。前記可読記憶媒体に、コンピュータプログラムが記憶されており、前記コンピュータプログラムは、上記第1態様に記載の方法のステップを実行するように構成され、又は、前記コンピュータプログラムは、上記第3態様に記載の方法のステップを実行するように構成される。
本願の実施例で提供される地図生成方法、運転制御方法、装置、電子機器及びシステムは、車載カメラにより、道路環境の少なくとも一部領域の画像情報を取得し、画像情報に対してセマンティックセグメンテーション処理を行い、領域における道路要素の二次元情報及び属性情報を得る。それと同時に、車載レーダーセンサにより、領域のポイントクラウド情報を同期して取得する。更に、第1セマンティック情報とポイントクラウド情報に対してマッチング処理を行うことで、領域における道路要素の三次元位置情報及び属性情報を得ることができる。上記プロセスにおいて、車載カメラ及び車載レーダーセンサは、車両に設けられる異なるタイプのセンサとして同期して動作し、異なるタイプのセンサにより収集された情報に基づいてマッチング処理を行うことで、領域の地図を直接生成することができるか又は領域の地図を更新することができ、地図生成又は更新プロセスにおける手動操作を減少させることができ、ひいては省略することができる。これにより、地図の自動化程度を高くし、高精度地図の構築効率を大幅に向上させる。また、第1セマンティック情報とポイントクラウド情報とに対してマッチングを行うことで、道路要素を表す各情報を効果的にフュージョンすることができ、地図における道路要素の精度を大幅に向上させることができる。
本願の実施例又は従来技術における技術的解決手段をより明確に説明するために、以下、実施例又は従来技術の記述に必要な図面を簡単に説明する。勿論、下記図面は、本願の幾つかの実施例であり、当業者は、これらの図面に基づいて、創造的な労力なしに他の図面を得ることもできる。
本願の目的、技術的解決手段及び利点をより明確にするために、以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明瞭かつ完全に説明する。勿論、記述される実施例は、全ての実施例ではなく、ただ本願の一部の実施例である。本発明における実施例に基づいて、当業者が創造的な労力なしに得られる他の実施例の全ては、本発明の保護範囲に含まれる。
図1は、本願の実施例による地図構築方法を示す第1フローチャートである。該方法の実行主体は、データのコンピューティング能力を有する電子機器であってもよい。図1に示すように、該方法は以下を含む。
S101において、車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得する。
本願の実施例で生成される地図は、車両向けの地図であり、即ち、高精度地図である。本願の実施例は、高精度地図を生成するシーン又は高精度地図における一部領域を更新するシーンに適用可能である。1つの領域の高精度地図を生成するか又は高精度地図の少なくとも一部領域を更新する前に、まず、車両を、該領域で走行するようにし、車両における複数のセンサにより、該領域内の情報をそれぞれ同期して収集し、各センサにより収集された情報を処理し、該領域の地図を得る。ここで、車両の運転方式は、手動運転方式であってもよく、無人運転方式であってもよく、本願の実施例は、これを具体的に限定しない。例えば、都市の地図を構築する前に、車両を、該都市の各道路で走行するようにし、走行過程において、車載カメラ(車載撮像ヘッドと呼ばれてもよい)により、車両前方の路面及び周辺の建築物などの画像情報を収集し、車載レーダーセンサにより、車両周囲環境のポイントクラウド情報を収集する。上記画像情報及びポイントクラウド情報に基づいて、下記ステップにおける処理を行うことで、車両の所在する道路環境における少なくとも一部領域の地図を生成又は更新することができる。選択的に、車両走行過程において、車両における全地球測位システム(Global Positioning System:GPS)又は慣性計測ユニット(Inertial Measurement Unit:IMU)により、各時刻における車両の位置姿勢情報を取得し、位置姿勢情報に基づいて、ポイントクラウド情報の選別を行うこともできる。位置姿勢情報に基づいて、ポイントクラウド情報の選別を行うことは、下記実施例において説明する。
上記過程において、車載カメラ、車載レーダーセンサ、GPS、IMU等は、車両に設けられる異なるタイプのセンサであり、これらのセンサは、同期して動作する。ここで、本願の実施例における異なるセンサの同期は、ハードウェア機器によりデータ収集を同時にトリガすることで実現可能である。また、ソフトウェア方法で、各センサにより収集されたデータに対して時間的アライメントを行うことで実現可能である。本願の実施例は、これを限定しない。
本実施例において、各センサはいずれも一定の周期に従って情報を収集し、各センサが各周期で収集する情報は時間的にアライメントされる。例示的には、車載カメラは、時刻Aで1フレームの車両前方の画像情報を収集すると、車載レーダーセンサは、時刻Aで1フレームの画像情報に対応するポイントクラウドデータを収集する。GPS及びIMUはそれぞれ、時刻Aで車両の位置姿勢情報を取得する。各センサにより情報を同期して収集することで、地図の構築又は更新に用いられる画像情報、ポイントクラウド情報を時間的に同期させ、つまり、収集されたものが同一の対象の情報であることを確保し、更に、後続のマッチング処理結果の正確性を保証する。
また、上記過程において、車載カメラ、車載レーダーセンサ、GPS、IMU等のセンサを互いに協働して地図生成又は更新を遂行する。各センサにとって、それぞれの性能限界が存在し得る。性能限界は、検出範囲の制限、感知不備、先験的情報不備などを含むが、これらに限定されない。ここで、検出範囲の制限は、センサによる周囲環境の検出は、固定の範囲を有することである。例示的に、長距離ミリ波レーダーの探測距離は、1メートル(m)-280mであり、赤外センサの探測距離は、0.2m-120mである。感知不備は、センサが使用上の環境条件を有することである。例示的に、高解像度カメラは、画像における物体を検出することができ、狭視野のカメラは、遠距離の物体を検出することができる。先験的情報は、事前収集可能な、短期間内で変わらない情報である。先験的情報不備は、センサにより先験的情報を収集することができないことである。例示的に、センサは、車両が現在、高速道路に位置するかどうかを感知することができない。各センサがそれぞれの性能限界を有することに鑑み、本願の実施例において、各センサを協働し、各センサにより同時収集された情報を取得することで、タイプが異なる情報を収集し、これらのタイプが異なる情報に基づいて、地図を生成又は更新する。これにより、単一のセンサの性能限界による情報収集不足などの問題を大幅に減少させることができ、ひいては解消することができる。
S102において、上記画像情報に対してセマンティックセグメンテーション処理を行い、上記領域における道路要素の第1セマンティック情報を得て、該第1セマンティック情報は、上記道路要素の二次元位置情報及び属性情報を含む。
選択的に、上記道路要素は、道路環境にある全ての対象であってもよい。例示的に、道路要素は、道路標示線、交通信号灯、交通標識、バリケード、道路の両側の街灯、道路の両側の木、道路の両側の建築物などであってもよい。ここで、道路標示線は、区画線、停止線、クロス車線、右左折線などであってもよい。本願の実施例は、道路要素の具体的な形態を限定しない。
車載カメラにより収集された画像情報に対してセマンティックセグメンテーション処理を行うことで、収集された領域における路面要素の第1セマンティック情報を得ることができる。第1セマンティック情報は、路面要素の二次元位置情報及び属性情報を含む。
ここで、二次元位置情報は、例えば、道路要素の各点の二次元座標値などを含んでもよい。
選択的に、上記第1セマンティック情報における属性情報は、道路要素の属性を表すするためのものである。異なる道路要素に対して、上記第1セマンティック情報における属性情報は、異なる意味をしてもよい。例えば、道路要素が区画線である場合、上記属性情報は、異なる次元における区画線のタイプである。例えば、線形次元における実線、破線であり、色次元における白色、黄色などである。また例えば、道路要素が停止線である場合、上記属性情報は、停止線に対応する固定値であってもよい。本願の実施例は、上記属性情報を具体的に限定しない。
選択的に、車載レーダーセンサはまず、オリジナルの三次元ポイントクラウド情報を収取し、更に、ポイントクラウド情報を収集する時の車両の位置姿勢情報に基づいて選別などの処理を行い、上記ポイントクラウド情報を得ることができる。
上記第1セマンティック情報及びポイントクラウド情報を如何に得るかは、下記実施例において詳しく説明する。
S103において、上記領域における道路要素の第1セマンティック情報と上記領域のポイントクラウド情報に対してマッチング処理を行い、上記領域における道路要素の第2セマンティック情報を得て、該第2セマンティック情報は、上記道路要素の三次元位置情報及び属性情報を含む。
上記第1セマンティック情報に、道路要素の二次元位置情報が含まれ、上記ポイントクラウド情報は、空間における1つの点の三次元位置情報を表すことができ、それに道路要素の三次元位置情報が含まれる。本ステップにおいて、道路要素の第1セマンティック情報とポイントクラウド情報に対してマッチング処理を行うことで、道路要素の三次元位置情報及び属性情報を得ることができる。これにより得られた地図における道路要素は、三次元位置情報及び属性情報を有するようになる。地図における道路要素の精度を大幅に向上させる。
S104において、上記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新する。
上述したように、本願の実施例は、高精度地図を生成するシーンだけでなく、高精度地図における一部領域を更新するシーンにも適用可能である。
上記生成シーンにおいて、前記ステップにより、1つの領域の道路要素の第2セマンティック情報を得た後、該第2セマンティック情報に含まれる三次元位置情報に基づいて該領域の地図を構築することができる。該領域の地図において、該領域における路面要素の三次元位置情報を詳しくマーキングすることができ、同時に、路面要素の属性情報を詳しくマーキングすることもできる。
上記更新シーンにおいて、既存の地図における1つの領域の道路要素を上記ステップで得られた道路要素と比較し、さらに、該領域における元の道路要素を、上記三次元位置情報及び属性情報を含む道路要素に置き換えることができる。
本実施例において、車載カメラにより、道路環境の少なくとも一部領域の画像情報を取得し、画像情報に対してセマンティックセグメンテーション処理を行い、領域における道路要素の二次元情報及び属性情報を得る。それと同時に、車載レーダーセンサにより、領域のポイントクラウド情報を同期して取得する。更に、第1セマンティック情報とポイントクラウド情報に対してマッチング処理を行うことで、領域における道路要素の三次元位置情報及び属性情報を得ることができる。上記プロセスにおいて、車載カメラ及び車載レーダーセンサは、車両に設けられる異なるタイプのセンサとして同期して動作し、異なるタイプのセンサにより収集された情報に基づいてマッチング処理を行うことで、領域の地図を直接生成することができるか又は領域の地図を更新することができ、地図生成又は更新プロセスにおける手動操作を減少させることができ、ひいては省略することができる。従って、本実施例の方法は、構築される地図の自動化程度を高くし、高精度地図の構築効率を大幅に向上させる。また、第1セマンティック情報とポイントクラウド情報とに対してマッチングを行うことで、道路要素を表す各情報を効果的にフュージョンすることができ、地図における道路要素の精度を大幅に向上させることができる。
選択可能な実施形態において、下記方式で、上記第1セマンティック情報とポイントクラウド情報に対してマッチング処理を行うことができる。
図2は、本願の実施例による地図構築方法を示す第2フローチャートである。図2に示すように、上記ステップS103の選択可能な実施プロセスは以下を含む。
S201において、上記ポイントクラウド情報に対して、三次元座標系から二次元座標系への座標系変換を行い、上記第1セマンティック情報の所在する座標系における上記ポイントクラウド情報のポイントクラウド二次元情報を得る。
選択的に、車載レーダーセンサにより収集されたオリジナルポイントクラウド情報は、レーダー座標系におけるデータである。収集されたポイントクラウド情報に基づいて選別処理を行い、ポイントクラウド情報を得る前に、まず、北東下(North East Down:NED)座標系におけるデータを得ることができる。つまり、選択的に、上記ポイントクラウド情報は、NED座標系におけるポイントクラウド情報であってもよく、ここで、NED座標系は、北軸、東軸及び下軸を含み、北軸は、北向き、東軸は、東向き、下軸は、鉛直下向きである。
選択的に、上記第1セマンティック情報は、車載カメラにより収集されたビデオを処理することで得られたものである場合、車載カメラにより収集されたデータは、画素座標系でデータである。ここで、画素座標系は、画像座標系と呼ばれてもよく、画素座標系は、車載カメラにより収集された画像の左上隅を原点とした二次元座標系である。
選択的に、上記ポイントクラウド情報は、上記NED座標系におけるデータであり、上記第1セマンティック情報は、画素座標系における座標である場合、上記ポイントクラウド情報をNED座標系から画素座標系に変換し、上記ポイントクラウド情報の画素座標系におけるポイントクラウド二次元情報を得ることができる。該プロセスにより、ポイントクラウド情報をNED座標系から画素座標系へ投影することを実現させる。
ここで、下記いずれか1つの方式で、上記ポイントクラウド情報をNED座標系から画素座標系に変換することができる。
第1方式において、まず、ポイントクラウド情報をNED座標系からIMU座標系に変換し、ポイントクラウド情報の該IMU座標系における情報を得る。次に、IMU座標系とカメラ座標系との回平行移動行列に基づいて、ポイントクラウド情報のIMU座標系における情報をカメラ座標系に変換し、ポイントクラウド情報のカメラ座標系における情報を得る。更に、カメラのパラメータ行列に基づいて、ポイントクラウド情報のカメラ座標系における情報を画素座標系に変換し、ポイントクラウド情報の画素座標系におけるポイントクラウド二次元情報を得る。
第2方式において、まず、ポイントクラウド情報をNED座標系からレーダー座標系に変換し、ポイントクラウド情報のレーダー座標系における情報を得る。次に、レーダー座標系とカメラ座標系との回平行移動行列に基づいて、ポイントクラウド情報のレーダー座標系における情報をカメラ座標系に変換し、ポイントクラウド情報のカメラ座標系における情報を得る。更に、カメラのパラメータ行列に基づいて、ポイントクラウド情報のカメラ座標系における情報を画素座標系に変換し、ポイントクラウド情報の画素座標系における情報を得る。
上記2つの方式に記載のカメラ座標系は、上記車載カメラの焦点中心を原点として、光軸をZ軸して形成される座標系である。上記第2方式に記載のカメラのパラメータ行列は、上記車載カメラのパラメータ行列である。
上記ポイントクラウド情報がNED座標系における情報であり、第1セマンティック情報が画素座標系における情報である場合以外に、本願の実施例において、ポイントクラウド情報は、他の三次元座標系における情報であってもよく、第1セマンティック情報は、他の二次元座標系における情報であってもよい。座標系の変換により、ポイントクラウド情報を第1セマンティック情報の所在する座標系に投影することもできる。
S202において、上記ポイントクラウド二次元情報と上記道路要素の二次元位置情報に対してマッチング処理を行い、上記領域の地図における上記道路要素の第2セマンティック情報を得る。
ポイントクラウド情報を第1セマンティック情報の所在する座標系におけるポイントクラウド二次元情報に投影した後、ポイントクラウド二次元情報と第1セマンティック情報における二次元位置情報は、同一の座標系に位置するようになり、従って、同一の座標系で、ポイントクラウド二次元情報と第1セマンティック情報における二次元情報に対してマッチング処理を行い、道路要素の第2セマンティック情報を得ることができる。
本実施例において、ポイントクラウド情報に対して座標変換を行うことで、ポイントクラウド情報を第1セマンティック情報の座標系に投影し、更に、同一の座標系で、ポイントクラウド二次元情報と第1セマンティック情報における二次元位置情報に対してマッチング処理を行うことで、ポイントクラウド情報及び第1セマンティック情報における二次元位置情報のマッチング結果の正確性を大幅に向上させる。
選択可能な実施形態として、下記方式で、上記ポイントクラウド二次元情報と第1セマンティック情報における二次元位置情報に対してマッチング処理を行うことができる。
図3は、本願の実施例による地図構築方法を示す第3フローチャートである。図3に示すように、上記ステップS202において、ポイントクラウド二次元情報と第1セマンティック情報における二次元位置情報に対してマッチング処理を行うための選択可能な方式は以下を含む。
S301において、前記道路要素の二次元位置情報に基づいて、前記ポイントクラウド二次元情報における各画素点が前記道路要素に属するかどうかを決定する。
上述したように、道路要素の第1セマンティック情報は、車載カメラにより収集された画像に対して処理を行うことで得られるものである。処理時、特定の方式で、画像における1フレーム又は複数フレームの画像を選択し、各フレームの画像に対して、画像のセマンティックセグメンテーション処理により、画像から道路要素を区分することができる。区分できた道路要素を得た後、画像における各画素点が道路要素に属するかどうかを知ることができる。道路要素に属する各画素点は、いずれも特定の二次元位置情報を有する。該二次元位置情報は、二次元座標値であってもよい。
更に、本ステップにおいて、ポイントクラウド二次元情報において、各画素点も特定の二次元位置情報を有する。選択的に、画素ずつポイントクラウド二次元情報における各画素点をトラバースし、各画素点が道路要素における1つの画素点であるかどうかを判定する。道路要素における1つの画素点であれば、該ポイントクラウド二次元情報における画素点が道路要素における1つの画素点であると判定することができる。
例示的に、ポイントクラウド二次元情報に1つの画素点(x1,y1)が含まれると仮定すると、該画素点に対して、該ポイントクラウド二次元情報に対応する、車載カメラにより収集された1フレームの画像において、画素点(x1,y1)が道路要素における1つの画素点であるかどうかを判定する。道路要素における1つの画素点であれば、ポイントクラウド二次元情報における画素点(x1,y1)が上記道路要素に属すると決定することができる。
なお、本願の実施例において、マッチング処理を行う道路要素の第1セマンティック情報及びポイントクラウド情報は同一の物理的位置に対する情報であり、例えばいずれも、都市における1つの特定の道路を表す情報である。従って、選択可能な実施形態として、各センサは、データを同時に収集し、収集されたデータにタイムスタンプ情報を追加することができる。各センサにより収集されたデータに対して処理を行う場合、処理結果に、該タイムスタンプ情報を保留することができる。更に、本願の実施例においてマッチングを行う場合、タイムスタンプが同じであるポイントクラウド情報及び第1セマンティック情報を選択して上記マッチング処理を行うことができる。例えば、上記例において、ポイントクラウド二次元情報に対応する、車載カメラにより収集された1フレームの画像は、ポイントクラウド二次元情報が属するポイントクラウド情報のタイムスタンプと同じである1フレームの画像であってもよい。
S302において、上記ポイントクラウド二次元情報における第1画素点が上記道路要素に属することに応答して、該第1画素点の上記ポイントクラウド情報における三次元位置情報及び上記第1画素点の上記第1セマンティック情報における属性情報を取得し、上記第1画素点の三次元位置情報及び属性情報を得る。
ここで、上記第1画素点は、上記ポイントクラウド二次元情報におけるいずれか1つの画素点であってもよい。該第1画素点は、ポイントクラウド情報の所在する三次元座標系から第1セマンティック情報の所在する二次元座標系に投影した後に得られた1つの画素点である。従って、該第1画素点は、三次元座標系における1つの三次元位置情報に一意的に対応してもよい。従って、該第1画素点が上記道路要素に属すると決定した場合、該第1画素点の三次元位置情報及び属性情報を同時に得ることができる。該処理プロセッサを実行した後、地図中の道路要素における各点は、三次元位置情報だけでなく、属性情報も有する。これにより、高精度地図における道路要素の情報を得る。
本実施例において、まず、道路要素の二次元位置情報に基づいて、ポイントクラウド二次元情報における各画素点が道路要素に属するかどうかを決定し、更に、1つの画素点が道路要素に属する場合、地図における該点の三次元位置情報及び属性情報を同時に得ることができる。これにより、高精度地図における道路要素の情報を得る。
具体的な実施過程において、車載レーダーセンサは、複数の時刻でデータを収集し、しかも1つの収集時刻で、車両周囲環境における様々のポイントクラウド情報を収集し得る。例えば、前方路面のポイントクラウド情報、周囲の木のポイントクラウド情報、家屋のポイントクラウド情報などを収集する。本願の実施例において、第1セマンティック情報に対応する時刻におけるポイントクラウド情報を得て前記方法でマッチング処理を実行すればよい。従って、選択可能な実施形態として、上記領域の画像情報及びポイントクラウド情報を取得する時に、車載ナビゲーションシステムにより前記車両の位置姿勢情報を取得し、車両の位置姿勢情報に基づいて、前記車載レーダーセンサにより収集されたポイントクラウド情報で構成されるポイントクラウド集合から、上記領域のポイントクラウド情報を選別することができる。
具体的には、上述したように、車両のセンサが情報を収集する各時刻で、車両はいずれも特定の位置姿勢を有する。上述したように、車載カメラと車載レーダーセンサが情報を収集すると同時に、GPS、IMUなどのセンサにより、車両の位置姿勢を取得することができる。本実施例において、第1セマンティック情報における二次元位置情報に対応するタイムスタンプを基準として、該タイムスタンプに対応する時刻における車両の位置姿勢を検索する。車両の位置姿勢により、該時刻における車両の向きを知ることができる。更に、ポイントクラウド集合のみから、該向きの車両前方の所定範囲内のポイントクラウド情報を選択することができる。該所定の範囲は例えば、所定のサイズの矩形枠であってもよい。所定範囲内に、例えば、車両前方の路面のポイントクラウド情報を含んでもよい。
ここで、上記ポイントクラウド情報集合は、車載レーダーセンサにより収集された大量のポイントクラウド情報を処理した後に形成されたポイントクラウド情報の集合であってもよい。該集合におけるポイントクラウド情報は、複数の領域における路面のポイントクラウド情報に加えて、複数の領域における車両周囲の木、家屋、高架橋などの環境のポイントクラウド情報を更に含んでもよい。
本実施例において、車両位置姿勢に基づいてポイントクラウド情報に対して選別を行う。後続のマッチング処理において、選別されたポイントクラウド情報のみを用いてマッチングを行う。これにより、マッチング処理時の処理時間を大幅に短縮し、無効なマッチング処理プロセスを避け、マッチング処理の効率を大幅に向上させることができる。
選択可能な実施形態として、上記事前記憶されたポイントクラウド情報集合から、前記領域のポイントクラウド情報を選別する前に、複数の領域に対応する走行可能領域の情報に基づいて、車載レーダーセンサにより収集された複数の領域のポイントクラウド情報に対して選別及び組み合わせを行い、上記ポイントクラウド情報集合を得ることもできる。
ここで、上記走行可能領域の情報は、ポイントクラウド情報と同一の時刻で収集された画像に対してセグメンテーション処理を行うことで得られる。選択的に、収集された画像情報に対して、走行可能領域の検出を行い、領域内の走行可能領域の情報を得ることができる。車載レーダーセンサにより収集された複数の領域のポイントクラウド情報は、走行可能領域のポイントクラウド情報を含むだけでなく、走行可能領域周囲の木、家屋、高架橋などの環境のポイントクラウド情報を含み得る。ポイントクラウド情報集合を得る前に、まず、車載レーダーセンサにより収集された各領域のポイントクラウド情報から各領域内の走行可能領域のポイントクラウド情報を選別する。これらのポイントクラウド情報のみを保存してポイントクラウド情報集合を構成する。後続でマッチング処理を行う場合、走行可能領域のポイントクラウド情報のみと第1セマンティック情報に対してマッチングを行う。これにより、無効なマッチング処理を避け、マッチング処理の効率を大幅に向上させることができる。
以下、走行可能領域の情報に基づいて、ポイントクラウド情報に対して選別及び組み合わせを行うプロセスを説明する。
図4は、本願の実施例による地図構築方法を示す第4フローチャートである。図4に示すように、走行可能領域の情報に基づいてポイントクラウド情報に対して選別及び組み合わせを行うプロセスは、以下を含む。
S401において、収集された各領域の画像情報に対して、走行可能領域の検出を行い、各領域内の走行可能領域の情報を得る。
各領域内の走行可能領域の位置を得ると同時に、車載レーダーセンサにより収集された全てのポイントクラウド情報及び各時刻における車両の位置姿勢情報を更に取得する。
ここで、車載レーダーセンサにより収集された全てのポイントクラウド情報は、車載レーダーセンサにより複数の時刻で収集されたポイントクラウド情報である。各時刻で、カメラは、1フレームの画像を収集する。車載レーダーセンサは、対応するポイントクラウド情報を収集し、GPS又はIMUは、車両の位置姿勢情報を取得する。
ここで、複数の時刻で収集された情報は、複数の領域の情報を含む。
S402において、車載レーダーセンサにより収集された各領域のポイントクラウド情報から、各領域内の走行可能領域のポイントクラウド情報を選別する。
選択的に、各領域内の走行可能領域の情報を得た上で、画像と同一の時刻で収集されたポイントクラウド情報に対して座標変換を行うことで、ポイントクラウド情報を画像が所在する座標系に投影し、どのポイントクラウド情報を投影した二次元の点が走行可能領域における点であるかを判定し、更に、走行可能領域における二次元の点に対応するポイントクラウド情報のみを残す。上記ステップS103のマッチング処理を行い、地図における高精度道路要素を生成又は更新する場合、走行可能領域以外の情報に関わらない。従って、本ステップにおいて、走行可能領域でポイントクラウド情報を選別し、走行可能領域に対応するポイントクラウド情報のみを保留する。このような処理により、後続のマッチング処理において完全かつ正確な道路要素の三次元位置情報を取得できることを確保する上で、ポイントクラウド情報の保存量を最大限減少させることができる。また、マッチング処理時に、無効な処理プロセスを減少させ、マッチング処理の効率を大幅に向上させることができる。
複数フレームの画像に対してそれぞれ上記処理を行った後、複数の領域の走行可能領域のポイントクラウド情報を得ることができる。
S403において、各領域内の走行可能領域のポイントクラウド情報に対して組み合わせを行い、上記ポイントクラウド情報集合を得る。
選択的に、上記ステップS402-S403において、画像フレームでフレームごとに選別及び保存を行うことができる。1フレームの画像に対応する領域の走行可能領域の情報を得るたびに、該画像を収集した時刻で収集されたポイントクラウド情報に対して選別を行い、該時刻の対応する領域のポイントクラウド情報を得る。更に、該時刻の車両の位置姿勢に基づいて、得られた該ポイントクラウド情報を、レーダー座標系からNED座標系に変換する。更に、該変換されたポイントクラウド情報に対してインデックスを生成して記憶する。次の時刻の対応する領域の次のポイントクラウド情報を得た後、該次のポイントクラウド情報に対してインデックスを生成して記憶する。複数の領域のポイントクラウド情報を記憶してから得られたものは、ポイントクラウド情報集合である。ここで、2つの連続した領域のインデックスは、連続してもよい。これにより、ポイントクラウド情報を記憶する時にポイントクラウド情報の組み合わせを実現し、更に、全ての領域のポイントクラウド情報を得る。これらのポイントクラウド情報から、ポイントクラウド情報集合になる。
上記ステップS401-S403に記載の選択可能な方式において、ポイントクラウド情報集合を生成する場合、ポイントクラウド情報に対して、まず、走行可能領域で選別を行う。これにより、記憶されたポイントクラウド情報集合におけるポイントクラウド情報は、走行可能領域のみを表すポイントクラウド情報である。これにより、マッチングを行う場合、ポイントクラウド情報の保存量を減少させ、マッチング処理の効率を向上させることができる。
もう1つの選択可能な実施形態において、ポイントクラウド情報集合を生成する時、走行可能領域で選別を行うことなく、上記ステップS401を実行した後、全てのポイントクラウド情報に対して直接的に座標変換を行い、インデックスに基づいて保存することができる。この方式で、ポイントクラウド情報集合におけるポイントクラウド情報は、走行可能領域の情報だけでなく、走行可能領域以外の情報を表すこともでき、例えば、車両周囲の木、家屋、高架橋などの環境を表すこともできる。該方式によれば、上記ステップS101で収集されたポイントクラウド情報は、上記2つの情報を表すことができる。更に上記ステップS202において、該ポイントクラウド情報の変換により得られたポイントクラウド二次元情報と道路要素の二次元位置情報に対してマッチング処理を行う場合、下記プロセスに従って処理を行うことができる。
前記画像情報に対して、走行可能領域の検出を行い、前記領域内の走行可能領域の情報を得る。上記ポイントクラウド二次元情報における第2画素点が領域内の走行可能領域における画素点であるかどうかを判定する。前記ポイントクラウド二次元情報における第2画素点が領域内の走行可能領域における画素点であることに応答して、該第2画素点及び道路要素の二次元位置情報に対してマッチング処理を行い、上記領域の地図における道路要素の第2セマンティック情報を得る。
ここで、上記第2画素点は、ポイントクラウド二次元情報におけるいずれか1つの画素点であってもよい。
第2画素点が領域内の走行可能領域における画素点であるかどうかを判定する場合、第2画素点の座標が走行可能領域内にあるかどうかを直接的に判定することができる。第2画素点の座標が走行可能領域内にあれば、第2画素点が走行可能領域における画素点であると決定することができる。更に、ポイントクラウド二次元情報における走行可能領域内に属する画素点のみと道路要素の二次元位置情報に対してマッチング処理を行い、領域における道路要素の三次元位置情報及び属性情報を決定する。
該方式において、ポイントクラウドに対して処理を行い、ポイントクラウド情報集合を得る場合、ポイントクラウド情報集合におけるポイントクラウド情報は、走行可能領域及び車両周囲環境における他の物体の情報を含む。マッチング処理を行う場合、ポイントクラウド情報のポイントクラウド二次元情報に対して、走行可能領域で選別を行うことができる。このような方式において、完全なポイントクラウド情報を保存したため、路面の走行可能領域以外の情報により処理を行うシーンにおいて、該方式により有効な処理を行い、正確な処理結果を得ることができる。
該選択可能な方式において、走行可能領域の情報は、該領域に対応する1フレームの画像に対して画像のセマンティックセグメンテーションを行うことで得られる。該領域に対応する1フレームの画像の画像セマンティック分類結果に、上記第1セマンティック情報である、道路要素の二次元情報及び属性情報が含まれてもよく、同時に、走行可能領域の情報が含まれてもよい。
以下、画像のセマンティックセグメンテーションを行い、上記第1セマンティック情報及び走行可能領域の情報を得るプロセスを説明する。
図5は、本願の実施例による地図構築方法を示す第5フローチャートである。図5に示すように、画像から、上記第1セマンティック情報及び走行可能領域の情報を得るプロセスは以下を含む。
S501において、車載カメラにより収集された画像に対してフレーム分割処理を行い、複数フレームの画像を得る。
S502において、各フレームの画像に対してそれぞれセマンティックセグメンテーション処理を行い、道路要素の分類結果、道路要素の属性情報及び走行可能領域の分類結果を得る。
ここで、道路要素の分類結果は、1フレームの画像における各画素点が道路要素に属するかどうかを含む。道路要素の属性情報は、道路要素に属する画素点の属性情報を含む。例えば、道路要素が区画線である場合、1つの道路要素の画素点の属性情報は、色及び/又は線形などの情報を含んでもよく、例えば、白色実線などを含む。走行可能領域の分類結果は、1フレームの画像における各画素点が走行可能領域に属するかどうかを含む。
選択可能な方式として、ニューラルネットワークに基づいて、セマンティックセグメンテーション処理を行うことができる。該ニューラルネットワークは例えば、畳み込みニューラルネットワーク、非畳み込み多層ニューラルネットワークなどであってもよい。
上記ニューラルネットワークは、該当する要素に対してセグメンテーション処理を行う能力を持つ。該ニューラルネットワークを用いてセマンティックセグメンテーション処理を行う前に、該当する要素アノテーション情報を含む訓練サンプル画像集合を予め使用し、教師あり方式又は半教師あり方式で、該ニューラルネットワークを訓練することができる。
S503において、上記道路要素の分類結果に対してクラスタリング処理を行い、各フレームの画像における各道路要素の情報を得る。
得られた各道路要素の情報は、道路要素における各画素点の二次元位置情報及び属性情報を含む。
S504において、上記道路要素における各画素点の二次元位置情報、属性情報及び画像における走行可能領域の情報を保存する。
上記情報を得た後、これらの情報に基づいて、前記実施例における前記プロセスを実行することができる。
前記プロセスにより、領域における道路要素の三次元位置情報及び属性情報を得た後、領域の地図を生成するか又は地図における領域に対応する部分を更新する場合、まず、下記少なくとも1つの方式を実行し、得られた情報に対して後処理を行い、更に後処理された道路要素の第2セマンティック情報を用いて、地図を生成するか又は地図における領域に対応する部分を更新することができる。
第1方式において、上記道路要素に対応する所定特徴情報に基づいて、領域の地図における道路要素に対して選別を行い、選別された道路要素を得る。
ここで、上記所定特徴情報は、道路要素に固有の特徴である。前記プロセスにより、道路要素の三次元位置情報及び属性情報を得た後、道路要素の三次元位置情報及び/又は属性情報が道路要素の所定の特徴に合致するかどうかを判定することができる。合致しないと、地図から、該道路要素を削除することができる。該処理プロセスにより、誤った道路要素を除去し、地図の正確性を更に向上させることができる。
第2方式において、上記三次元位置情報で表される道路要素における点に対してフィッティング処理を行い、線パラメータで表される道路要素を得る。
前記処理により得られた道路要素は、大量の点で表されてもよい。各点はいずれも三次元位置情報及び属性情報を有する。該方式において、これらの点に対してフィッティングを行うことで、線パラメータで表される道路要素を得ることができる。ここで、該線パラメータは、線の方程式、線の起点位置及び線の終点位置を含んでもよい。また、同一の道路要素に属する点の属性情報は同じであり、フィッティングにより得られた道路要素の属性情報は、フィッティング前に各点のうちのいずれか1つの点の属性情報であってもよい。該処理を行った後、複数の線パラメータのみにより、地図における高精度道路要素を表すことができる。これにより、道路要素の保存量を大幅に減少させる。地図を用いて運転制御などの操作を行う場合、操作効率を大幅に向上させることもできる。
第3方式において、上記道路要素に対してサンプリング処理を行い、サンプリングされた道路要素を得る。
前記方法で得られた道路要素において、道路要素を構成する点の数は膨大である。例えば、処理速度に求められる条件が高いシーンのような幾つかのシーンにおいて、道路要素に対してサンプリングを行うことができる。サンプリング後、道路要素の精度がシーンの要件を満たすことを確保すると同時に、道路要素の点の数を大幅に減少させることができる。地図を用いて運転制御などの操作を行う場合、操作処理の速度を大幅に向上させることができる。
具体的な実施プロセスにおいて、上記方式のうちの1つを選択してもよく、上記方式のうちの複数を同時に選択してもよい。つまり、上記方式を組み合わせて実行することができる。本願の実施例は、これを具体的に限定しない。
幾つかのシーンにおいて、本願の実施例の方式で得られた地図と他の方式で得られた地図をフュージョンして使用する必要がある。異なる方式で得られた地図が基づく座標系は異なることがある。例えば、本願の実施例において、ポイントクラウド情報は、NED座標系における情報であると、得られた地図における道路要素の三次元位置情報は、NED座標系における位置情報であり、もう1つの地図があり、その位置情報が世界測地系-84(World Geodetic System-84:WGS84)における情報である場合、2つの地図を直接的にフュージョンして使用することができない。従って、選択的に、前記プロセスにより得られた三次元位置情報をNED座標系からもう1つの地図に対応するターゲット座標系に変換し、ターゲット座標系における三次元位置情報の位置情報を得ることができる。該処理を行った後、異なる地図のフュージョン利用を実現することができる。
図6は、本願の実施例による地図生成装置のモジュール構造を示す第1図である。図6に示すように、該装置は、
車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得するように構成される収集モジュール601と、
前記画像情報に対して、セマンティックセグメンテーション処理を行い、前記領域における道路要素の第1セマンティック情報を得るように構成されるセグメンテーションモジュール602であって、前記第1セマンティック情報は、前記道路要素の二次元位置情報及び属性情報を含む、セグメンテーションモジュール602と、
前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得るように構成されるマッチングモジュール603であって、前記第2セマンティック情報は、前記道路要素の三次元位置情報及び属性情報を含む、マッチングモジュール603と、
前記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新するように構成される生成モジュール604と、を備える。
車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得するように構成される収集モジュール601と、
前記画像情報に対して、セマンティックセグメンテーション処理を行い、前記領域における道路要素の第1セマンティック情報を得るように構成されるセグメンテーションモジュール602であって、前記第1セマンティック情報は、前記道路要素の二次元位置情報及び属性情報を含む、セグメンテーションモジュール602と、
前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得るように構成されるマッチングモジュール603であって、前記第2セマンティック情報は、前記道路要素の三次元位置情報及び属性情報を含む、マッチングモジュール603と、
前記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新するように構成される生成モジュール604と、を備える。
該装置は、前記方法の実施例を実現させるように構成され、前記原理及び技術的効果は類似しており、ここで、詳細な説明を省略する。
図7は、本願の実施例による地図生成装置のモジュール構造を示す第2図である。図7に示すように、マッチングモジュール603は、
前記ポイントクラウド情報に対して、三次元座標系から二次元座標系への座標系変換を行い、前記二次元位置情報の所在する座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得るように構成される変換ユニット6031と、
前記ポイントクラウド二次元情報と前記道路要素の二次元位置情報に対してマッチング処理を行い、前記領域における前記道路要素の第2セマンティック情報を得るように構成されるマッチングユニット6032と、を備える。
前記ポイントクラウド情報に対して、三次元座標系から二次元座標系への座標系変換を行い、前記二次元位置情報の所在する座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得るように構成される変換ユニット6031と、
前記ポイントクラウド二次元情報と前記道路要素の二次元位置情報に対してマッチング処理を行い、前記領域における前記道路要素の第2セマンティック情報を得るように構成されるマッチングユニット6032と、を備える。
もう1つの実施例において、マッチングユニット6032は、前記道路要素の二次元位置情報に基づいて、前記ポイントクラウド二次元情報における各画素点が前記道路要素に属するかどうかを決定し、前記ポイントクラウド二次元情報における第1画素点が前記道路要素に属することに応答して、前記第1画素点の前記ポイントクラウド情報における三次元位置情報及び前記第1画素点の前記第1セマンティック情報における属性情報を取得し、前記第1画素点の三次元位置情報及び属性情報を得るように構成され、前記第1画素点は、前記ポイントクラウド情報におけるいずれか1つの画素点である。
もう1つの実施例において、変換ユニット6031は、前記ポイントクラウド情報を、北東下座標系から画素座標系に変換し、前記画素座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得るように構成され、前記二次元位置情報は、前記画素座標系における情報である。
もう1つの実施例において、変換ユニット6031は、前記ポイントクラウド情報を、北東下座標系から慣性計測ユニット座標系に変換し、前記ポイントクラウド情報の前記慣性計測ユニット座標系における情報を得て、前記慣性計測ユニット座標系とカメラ座標系との回平行移動行列に基づいて、前記ポイントクラウド情報の前記慣性計測ユニット座標系における情報を前記カメラ座標系に変換し、前記ポイントクラウド情報の前記カメラ座標系における情報を得て、カメラのパラメータ行列に基づいて、前記ポイントクラウド情報の前記カメラ座標系における情報を前記画素座標系に変換し、前記画素座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得るように構成される。
もう1つの実施例において、変換ユニット6031は、前記ポイントクラウド情報を北東下座標系からレーダー座標系に変換し、前記ポイントクラウド情報の前記レーダー座標系における情報を得て、前記レーダー座標系とカメラ座標系との回平行移動行列に基づいて、前記ポイントクラウド情報の前記レーダー座標系における情報を前記カメラ座標系に変換し、前記ポイントクラウド情報の前記カメラ座標系における情報を得て、カメラのパラメータ行列に基づいて、前記ポイントクラウド情報の前記カメラ座標系における情報を前記画素座標系に変換し、前記ポイントクラウド情報の前記画素座標系における情報を得るように構成される。
もう1つの実施例において、マッチングユニット6032は、前記画像情報に対して、走行可能領域の検出を行い、前記領域内の走行可能領域の情報を得て、前記ポイントクラウド二次元情報における第2画素点が前記領域内の走行可能領域における画素点であることに応答して、前記第2画素点及び前記道路要素の二次元位置情報に対してマッチング処理を行い、前記領域の地図における前記道路要素の第2セマンティック情報を得るように構成され、前記第2画素点は、前記ポイントクラウド二次元情報におけるいずれか1つの画素点である。
図8は、本願の実施例による地図生成装置のモジュール構造を示す第3図でる。図8に示すように、前記装置は、
前記領域の前記画像情報及び前記ポイントクラウド情報を収集すると同時に、車載ナビゲーションシステムにより、前記車両の位置姿勢情報を取得するように構成される取得モジュール605と、
車両の位置姿勢に基づいて、車載レーダーセンサにより収集されたポイントクラウド情報からなるポイントクラウド情報集合から前記領域のポイントクラウド情報を選別するように構成される第1選別モジュール606とを更に備える。
前記領域の前記画像情報及び前記ポイントクラウド情報を収集すると同時に、車載ナビゲーションシステムにより、前記車両の位置姿勢情報を取得するように構成される取得モジュール605と、
車両の位置姿勢に基づいて、車載レーダーセンサにより収集されたポイントクラウド情報からなるポイントクラウド情報集合から前記領域のポイントクラウド情報を選別するように構成される第1選別モジュール606とを更に備える。
図9は、本願の実施例による地図生成装置のモジュール構造を示す第4図である。図9に示すように、前記装置は、
収集された各領域の画像情報に対して、走行可能領域の検出を行い、各領域内の走行可能領域の情報を得るように構成される検出モジュール607と、
車載レーダーセンサにより収集された各領域のポイントクラウド情報から、各領域内の走行可能領域のポイントクラウド情報を選別するように構成される第2選別モジュール608と、
各領域内の走行可能領域のポイントクラウド情報に対して組み合わせを行い、前記ポイントクラウド情報集合を得るように構成される組み合わせモジュール609と、を更に備える。
収集された各領域の画像情報に対して、走行可能領域の検出を行い、各領域内の走行可能領域の情報を得るように構成される検出モジュール607と、
車載レーダーセンサにより収集された各領域のポイントクラウド情報から、各領域内の走行可能領域のポイントクラウド情報を選別するように構成される第2選別モジュール608と、
各領域内の走行可能領域のポイントクラウド情報に対して組み合わせを行い、前記ポイントクラウド情報集合を得るように構成される組み合わせモジュール609と、を更に備える。
もう1つの実施例において、前記車載ナビゲーションシステムは、全地球測位システム及び/又は慣性計測ユニットを含む。
図10は、本願の実施例による地図生成装置のモジュール構造を示す第5図である。図10に示すように、生成モジュール604は、
前記道路要素に対応する所定特徴情報に基づいて、前記領域の地図における前記道路要素に対して選別を行い、選別された道路要素を得るという方式、前記三次元位置情報で表される前記道路要素における点に対してフィッティング処理を行い、線パラメータで表される前記道路要素を得るという方式、前記道路要素に対してサンプリング処理を行い、サンプリングされた前記道路要素を得るという方式、前記三次元情報を前記北東下座標系からターゲット座標系に変換し、前記ターゲット座標系における前記三次元位置情報の位置情報を得るという方式、のうちの1つ又は複数の方式を用いて、道路要素を処理するように構成される処理ユニット6041と、
処理により得られた前記道路要素の第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新するように構成される生成ユニット6042と、を備える。
前記道路要素に対応する所定特徴情報に基づいて、前記領域の地図における前記道路要素に対して選別を行い、選別された道路要素を得るという方式、前記三次元位置情報で表される前記道路要素における点に対してフィッティング処理を行い、線パラメータで表される前記道路要素を得るという方式、前記道路要素に対してサンプリング処理を行い、サンプリングされた前記道路要素を得るという方式、前記三次元情報を前記北東下座標系からターゲット座標系に変換し、前記ターゲット座標系における前記三次元位置情報の位置情報を得るという方式、のうちの1つ又は複数の方式を用いて、道路要素を処理するように構成される処理ユニット6041と、
処理により得られた前記道路要素の第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新するように構成される生成ユニット6042と、を備える。
上記装置の各モジュールの分割は、ただロジック機能の分割であり、実際に実現する時は全て又は一部が1つの物理エンティティに集積されてもよく、物理的に別個のものであってもよいことに留意されたい。また、これらのモジュールは全て、処理素子によりソフトウェアを呼び出すという形態で実現してもよく、ハードウェアの形態で実現してもよい。また、一部のモジュールは、処理素子によりソフトウェアを呼び出すという形態で実現してもよく、一部のモジュールは、ハードウェアの形態で実現してもよい。例えば、決定モジュールは、単独で設置された処理素子であってもよく、上記装置の1つのチップに集積されて実現してもよい。また、プログラムコードの形態で、上記装置のメモリに記憶され、上記装置の1つの処理素子により上記決定モジュールの機能を呼び出して実行することもできる。他のモジュールの実現は、これと類似する。また、これらのモジュールの全て又は一部は、集積されてもよく、独立して実現してもよい。ここで記載の処理素子は、信号処理能力を持つ集積回路であってもよい。実現プロセスにおいて、上記方法の各ステップ及び各モジュールは、プロセッサ素子におけるハードウェアの集積論理回路又はソフトウェア形態の命令により完了されてもよい。
例えば、上記これらのモジュールは、上記方法を実行するように構成される1つ又は複数の集積回路であってもよい。例えば、1つ又は複数の特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、又は、1つ又は複数のマイクロプロセッサ(Digital Signal Processor:DSP)、又は、1つ又は複数のフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)等であってもよい。また例えば、上記1つのモジュールは、処理素子によりプログラムコードを呼び出すという形態で実現する時、該処理素子は、例えば中央演算処理装置(Central Processing Unit:CPU)のような汎用プロセッサ又はプログラムコードを呼び出すことができる他のプロセッサであってもよい。また例えば、これらのモジュールは、集積されて、システムオンチップ(System-On-a-Chip:SOC)の形態で実現してもよい。
上記実施例において、ソフトウェア、ハードウェア、ファームウェア又はその任意の組み合わせにより全体的又は部分的に実現可能である。ソフトウェアで実現する時、コンピュータプログラム製品の形態で全体的又は部分的に実現可能である。前記コンピュータプログラム製品は、1つ又は複数のコンピュータ命令を含む。コンピュータに前記コンピュータプログラム命令をロードして実行する場合、本願の実施例に記載のプロセス又は機能を全体的にまたは部分的に発生する。前記コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、又は他のプログラマブルデバイスであってもよい。前記コンピュータ命令は、コンピュータ可読記憶媒体に記憶されてもよく、又は、1つのコンピュータ可読記憶媒体からもう1つのコンピュータ可読記憶媒体に伝送されてもよい。例えば、前記コンピュータ命令を、1つのウェブサイト、コンピュータ、サーバ又はデータセンタから、有線(例えば、同軸ケーブル、光ファイバー、デジタル加入者回線(Digital Subscriber Line:DSL))又は無線(例えば、赤外、無線、マイクロウェーブ等)の方式で、もう1つのウェブサイト、コンピュータ、サーバ又はデータセンタに伝送することができる。前記コンピュータ可読記憶媒体は、コンピュータによってアクセスされ得る任意の利用可能な媒体であってもよく、又は、1つ又は複数の利用可能な媒体で集積されたサーバ、データセンタなどのデータ記憶装置であってもよい。前記利用可能ば媒体は、磁気媒体(例えば、フレキシブルディスク、ハードディスク、磁気ディスク)、光媒体(例えば、DVD)、又は半導体媒体(例えば、ソリッドステートディスク(Solid State Disk:SSD))等であってもよい。
図11は、本願の実施例による電子機器の構造を示す概略図である。図11に示すように、該電子機器1100は、プロセッサ111と、メモリ112と、通信インタフェース113と、システムバス114と、を備え、前記メモリ112と前記通信インタフェース113は、前記システムバス114を介して前記プロセッサ111に接続され、相互間の通信を行うことができる。前記メモリ112は、コンピュータ命令を記憶するように構成され、前記通信インタフェース113は、他の機器と通信するように構成され、前記プロセッサ111は、前記コンピュータプログラムを実行する時、上記図1から図5のいずれか1つに示す実施例の解決手段を実現させる。
該図11に言及したシステムバスは、ペリフェラルコンポーネントインターコネクト(Peripheral Component Interconnect:PCI)バス又は拡張業界標準アーキテクチャ(Extended Industry Standard Architecture:EISA)バスなどであってもよい。前記システムバスは、アドレスバス、データバス、制御バスなどに分けられてもよい。図示の便宜上、図面において1本の太線のみで表されるが、1本のバス又は1つのタイプのバスのみがあることを表しない。通信インタフェースは、データベースアクセス装置と他の機器(例えば、クライアント、読み書きライブラリ及び読出し専用ライブラリ)との通信を実現させるために用いられる。メモリは、ランダムアクセスメモリ(Random Access Memory:RAM)を含んでもよく、例えば少なくとも1つの磁気ディスクメモリのような不揮発性メモリ(Non-Volatile Memory)を含んでもよい。
上記プロセッサは、中央演算装置(Central Processing Unit:CPU)、ネットワークプロセッサ(Network Processor:NP)等を含む汎用プロセッサであってもよい。デジタル信号プロセッサ(Digital Signal Processor:DSP)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array:FPGA)又は他のプログラマブルロジックデバイス、ディスクリートゲート又はトランジスタロジックデバイス、ディスクリートハードウェアコンポーネントであってもよい。
図12は、本願の実施利例による運転制御方法を示すフローチャートである。上記実施例を基に、本願の実施例は、運転制御方法を更に提供する。前記方法は以下を含む。
S1201において、運転制御装置が、車両の所在する道路環境の少なくとも一部領域の地図情報を取得し、地図情報は、本願の実施例で提供される地図生成方法で得られたものである。
S1202において、運転制御装置が前記地図情報に基づいて車両に対してインテリジェント運転制御を行う。
本実施例の実行主体は、運転制御装置である。本実施例の運転制御装置は、上記実施例に記載の電子機器と同一の機器に位置してもよく、それぞれ異なる機器に配置されてもよい。本実施例の運転制御装置と上記電子機器と間で、通信接続が確立される。
ここで、地図情報は、上記実施例の方法で得られたものであり、具体的なプロセスは、上記実施例の説明を参照する。ここで、詳細な説明を省略する。
具体的には、電子機器は、上記地図生成方法を実行し、車両の所在する道路環境の少なくとも一部領域の地図情報を得て、車両の所在する道路環境の少なくとも一部領域の地図情報を出力する。運転制御装置は、車両の所在する道路環境の少なくとも一部領域の位置情報を取得し、車両の所在する道路環境の少なくとも一部領域の地図情報に基づいて、車両に対してインテリジェント運転制御を行う。
本実施例のインテリジェント運転は、運転支援、自動運転、運転支援と自動運転との間の運転モード切り替えのうちの少なくとも1つを含む。
上記インテリジェント運転制御は、制動、走行速度変更、走行方向変更、車線保持、ランプ状態変更、運転モード切り替えなどのうちの少なくとも1つを含んでもよい。ここで、運転モード切り替えは、運転支援と自動運転との間の切り替えであってもよい。例えば、運転支援を自動運転に切り替える。
本実施例で提供される運転制御方法において、運転制御装置は、車両の所在する道路環境の少なくとも一部領域の地図情報を取得し、車両の所在する道路環境の少なくとも一部領域の地図情報に基づいて、インテリジェント運転制御を行うことで、インテリジェント運転の安全性及び確実性を更に向上させる。
図13は、本願の実施例による運転制御装置の構造を示す概略図である。上記実施例を基に、本願の実施例の運転制御装置1300は、
車両の所在する道路環境の少なくとも一部領域の地図情報を取得するように構成される取得モジュール1301であって、地図情報は、上記第1態様に記載の地図生成方法で得られたものである、取得モジュール1301と、
前記地図情報に基づいて車両に対してインテリジェント運転制御を行うように構成される運転制御モジュール1302と、を備える。
車両の所在する道路環境の少なくとも一部領域の地図情報を取得するように構成される取得モジュール1301であって、地図情報は、上記第1態様に記載の地図生成方法で得られたものである、取得モジュール1301と、
前記地図情報に基づいて車両に対してインテリジェント運転制御を行うように構成される運転制御モジュール1302と、を備える。
本願の実施例の運転制御装置は、上記方法の実施例の技術的解決手段を実行するように構成される。その実現原理及び技術的効果は類似しており、ここで、詳細な説明を省略する。
図14は、本願の実施例によるインテリジェント運転システムを示す概略図である。図14に示すように、本実施例のインテリジェント運転システム1400は、通信接続されるセンサ1401と、電子機器1100と、運転制御装置1300と、を備え、前記電子機器1100は、図11に示すとおりであり、運転制御装置1300は、図13に示すとおりである。
ここで、センサ1401は、車載カメラ、車載レーダーセンサ、GPS、IMUなどのセンサを含んでもよい。
具体的には、図14に示すように、実際に使用する時、センサ1401は、車両の所在する道路環境の少なくとも一部領域の画像情報、ポイントクラウド情報、車両の位置姿勢情報を収集し、これらの情報を電子機器1100に送信する。電子機器1100は、これらの情報を受信した後、上記地図生成方法に基づいて、地図を生成するか又は地図の領域に対応する部分を更新する。続いて、電子機器1100は、生成された地図又は更新された地図を運転制御装置1300に送信する。運転制御装置1300は、生成された地図又は更新された地図に基づいて、車両に対してインテリジェント運転制御を行う。
選択的に、本願の実施例は、コンピュータ可読記憶媒体を更に提供する。前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサにより実行される時、上記図1から図5のうちのいずれか1つに示す実施例の方法を実現させ、又は、前記コンピュータプログラムがプロセッサにより実行される時、上記図12に示す実施例の方法を実現させる。
選択的に、本願の実施例は、命令を実行するチップを更に提供する。前記チップは、上記図1から図5のうちのいずれか1つに示す実施例の方法を実行するように構成され、又は、前記チップは、上記図12に示す実施例の方法を実行するように構成される。
本願の実施例は、プログラム製品を更に提供する。前記プログラム製品は、コンピュータプログラムを含み、前記コンピュータプログラムは、記憶媒体に記憶され、少なくとも1つのプロセッサは、前記記憶媒体から前記コンピュータプログラムを読み取ることができ、前記少なくとも1つのプロセッサは、前記コンピュータプログラムを実行する時、上記図1から図5のうちいずれか1つに示す実施例の方法を実現することができ、又は、前記少なくとも1つのプロセッサは、前記コンピュータプログラムを実行する時、上記図12に示す実施例の方法を実現することができる。
本願の実施例において、「少なくとも1つ」は、1つ又は複数を表し、「複数」は、2つ以上を表す。「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。ここで、A、Bは、奇数又は偶数であってもよい。文字「/」は一般的には、前後関連対象が「又は」という関係であることを示す。式において、文字「/」前後関連対象が「除算」という関係であることを示す。「以下少なくとも一項(個)」又はそのと類似した表現は、これらの項の任意の組み合わせを表し、奇数項(個)又は偶数項(個)の任意の組み合わせを含む。例えば、a、b、又はcのうちの少なくとも一項(個)は、a、b、c、a-b、a-c、b-c又はa-b-cを表すことができ、ここで、a、b、cは、1つであってもよく、複数個であってもよい。
本願の実施例に係わる種々の数字番号は単に説明を容易にするために区別するためのものに過ぎず、本願の実施例の範囲を限定するものではないことは、理解されるべきである。
本願の実施例において、各ステップの番号の大きさは、実行順番を意味するものではなく、各ステップの具体的な実行順番はその機能及び考えられる内在的論理により決まり、本願の実施例の実施プロセスを限定するものではないことは、理解されるべきである。
最後に説明しておきたいこととして、上記各実施例は本願の技術的解決手段を説明するためのものに過ぎず、本願の技術的解決手段を限定するものではない。上述した各実施例を参照しながら本発明を詳しく説明したが、依然として前記各実施例に記載の技術的解決手段を修正し、又はその一部又は全てのの技術的特徴に対して均等物による置換を行うことができ、これらの修正や置換によって、対応する技術的解決手段の本質が本願の各実施例の技術的解決手段の範囲から逸脱することはないことが、当業者であれば、理解すべきである。
Claims (27)
- 地図生成方法であって、
車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得することと、
前記画像情報に対して、セマンティックセグメンテーション処理を行い、前記領域における道路要素の第1セマンティック情報を得ることであって、前記第1セマンティック情報は、前記道路要素の二次元位置情報及び属性情報を含む、ことと、
前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得ることであって、前記第2セマンティック情報は、前記道路要素の三次元位置情報及び属性情報を含む、ことと、
前記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新することと、を含む、地図生成方法。 - 前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得ることは、
前記ポイントクラウド情報に対して、三次元座標系から二次元座標系への座標系変換を行い、前記二次元位置情報の所在する座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得ることと、
前記ポイントクラウド二次元情報と前記道路要素の二次元位置情報に対してマッチング処理を行い、前記領域における前記道路要素の第2セマンティック情報を得ることと、を含むことを特徴とする
請求項1に記載の方法。 - 前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得ることは、
前記道路要素の二次元位置情報に基づいて、前記ポイントクラウド二次元情報における各画素点が前記道路要素に属するかどうかを決定することと、
前記ポイントクラウド二次元情報における第1画素点が前記道路要素に属することに応答して、前記第1画素点の前記ポイントクラウド情報における三次元位置情報及び前記第1画素点の前記第1セマンティック情報における属性情報を取得し、前記第1画素点の三次元位置情報及び属性情報を得ることであって、前記第1画素点は、前記ポイントクラウド情報におけるいずれか1つの画素点である、ことと、を含むことを特徴とする
請求項2に記載の方法。 - 前記ポイントクラウド情報に対して、三次元座標系から二次元座標系への座標系変換を行い、前記二次元位置情報の所在する座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得ることは、
前記ポイントクラウド情報を、北東下座標系から画素座標系に変換し、前記画素座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得ることであって、前記二次元位置情報は、前記画素座標系における情報である、ことを含むことを特徴とする
請求項2又は3に記載の方法。 - 前記ポイントクラウド情報を、北東下座標系から画素座標系に変換することは、
前記ポイントクラウド情報を、北東下座標系から慣性計測ユニット座標系に変換し、前記ポイントクラウド情報の前記慣性計測ユニット座標系における情報を得ることと、
前記慣性計測ユニット座標系とカメラ座標系との回平行移動行列に基づいて、前記ポイントクラウド情報の前記慣性計測ユニット座標系における情報を前記カメラ座標系に変換し、前記ポイントクラウド情報の前記カメラ座標系における情報を得ることと、
カメラのパラメータ行列に基づいて、前記ポイントクラウド情報の前記カメラ座標系における情報を前記画素座標系に変換し、前記画素座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得ることと、を含むことを特徴とする
請求項4に記載の方法。 - 前記ポイントクラウド情報を、北東下座標系から画素座標系に変換することは、
前記ポイントクラウド情報を北東下座標系からレーダー座標系に変換し、前記ポイントクラウド情報の前記レーダー座標系における情報を得ることと、
前記レーダー座標系とカメラ座標系との回平行移動行列に基づいて、前記ポイントクラウド情報の前記レーダー座標系における情報を前記カメラ座標系に変換し、前記ポイントクラウド情報の前記カメラ座標系における情報を得ることと、
カメラのパラメータ行列に基づいて、前記ポイントクラウド情報の前記カメラ座標系における情報を前記画素座標系に変換し、前記ポイントクラウド情報の前記画素座標系における情報を得ることと、を含むことを特徴とする
請求項4に記載の方法。 - 前記ポイントクラウド二次元情報と前記道路要素の二次元位置情報に対してマッチング処理を行い、前記領域における前記道路要素の第2セマンティック情報を得ることは、
前記画像情報に対して、走行可能領域の検出を行い、前記領域内の走行可能領域の情報を得ることと、
前記ポイントクラウド二次元情報における第2画素点が前記領域内の走行可能領域における画素点であることに応答して、前記第2画素点及び前記道路要素の二次元位置情報に対してマッチング処理を行い、前記領域の地図における前記道路要素の第2セマンティック情報を得ることであって、前記第2画素点は、前記ポイントクラウド二次元情報におけるいずれか1つの画素点である、ことと、を含むことを特徴とする
請求項2-6のいずれか一項に記載の方法。 - 前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行う前に、
前記領域の前記画像情報及び前記ポイントクラウド情報を収集すると同時に、車載ナビゲーションシステムにより、前記車両の位置姿勢情報を取得することと、
車両の位置姿勢に基づいて、前記車載レーダーセンサにより収集されたポイントクラウド情報からなるポイントクラウド情報集合から前記領域のポイントクラウド情報を選別することと、を更に含むことを特徴とする
請求項1-6のいずれか一項に記載の方法。 - 収集されたポイントクラウド情報からなるポイントクラウド情報集合から前記領域のポイントクラウド情報を選別する前に、
収集された各領域の画像情報に対して、走行可能領域の検出を行い、各領域内の走行可能領域の情報を得ることと、
前記車載レーダーセンサにより収集された各領域のポイントクラウド情報から、各領域内の走行可能領域のポイントクラウド情報を選別することと、
各領域内の走行可能領域のポイントクラウド情報に対して組み合わせを行い、前記ポイントクラウド情報集合を得ることと、を更に含むことを特徴とする
請求項8に記載の方法。 - 前記車載ナビゲーションシステムは、全地球測位システム及び/又は慣性計測ユニットを含むことを特徴とする
請求項8又は9に記載の方法。 - 前記第2セマンティック情報に基づいて地図を生成するか又は地図の前記領域に対応する部分を更新することは、
前記道路要素に対応する所定特徴情報に基づいて、前記領域の地図における前記道路要素に対して選別を行い、選別された道路要素を得るという方式、
前記三次元位置情報で表される前記道路要素における点に対してフィッティング処理を行い、線パラメータで表される前記道路要素を得るという方式、
前記道路要素に対してサンプリング処理を行い、サンプリングされた前記道路要素を得るという方式、
前記三次元情報を前記北東下座標系からターゲット座標系に変換し、前記ターゲット座標系における前記三次元位置情報の位置情報を得るという方式、
のうちの1つ又は複数を用いて、前記道路要素を処理することと、
処理により得られた前記道路要素の第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新することと、を含むことを特徴とする
請求項1-10のいずれか一項に記載の方法。 - 地図生成装置であって、
車載カメラにより、車両の所在する道路環境の少なくとも一部領域の画像情報を取得し、車載レーダーセンサにより、前記車両の所在する道路環境の少なくとも一部領域のポイントクラウド情報を対応的に同期して取得するように構成される収集モジュールと、
前記画像情報に対して、セマンティックセグメンテーション処理を行い、前記領域における道路要素の第1セマンティック情報を得るように構成されるセグメンテーションモジュールであって、前記第1セマンティック情報は、前記道路要素の二次元位置情報及び属性情報を含む、セグメンテーションモジュールと、
前記領域における道路要素の第1セマンティック情報と前記領域のポイントクラウド情報に対してマッチング処理を行い、前記領域における道路要素の第2セマンティック情報を得るように構成されるマッチングモジュールであって、前記第2セマンティック情報は、前記道路要素の三次元位置情報及び属性情報を含む、マッチングモジュールと、
前記第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新するように構成される生成モジュールと、を備える、地図生成装置。 - 前記マッチングモジュールは、
前記ポイントクラウド情報に対して、三次元座標系から二次元座標系への座標系変換を行い、前記二次元位置情報の所在する座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得るように構成される変換ユニットと、
前記ポイントクラウド二次元情報と前記道路要素の二次元位置情報に対してマッチング処理を行い、前記領域における前記道路要素の第2セマンティック情報を得るように構成されるマッチングユニット、を備えることを特徴とする
請求項12に記載の装置。 - 前記マッチングユニットは、前記道路要素の二次元位置情報に基づいて、前記ポイントクラウド二次元情報における各画素点が前記道路要素に属するかどうかを決定し、前記ポイントクラウド二次元情報における第1画素点が前記道路要素に属することに応答して、前記第1画素点の前記ポイントクラウド情報における三次元位置情報及び前記第1画素点の前記第1セマンティック情報における属性情報を取得し、前記第1画素点の三次元位置情報及び属性情報を得るように構成され、前記第1画素点は、前記ポイントクラウド情報におけるいずれか1つの画素点であることを特徴とする
請求項13に記載の装置。 - 前記変換ユニットは、前記ポイントクラウド情報を、北東下座標系から画素座標系に変換し、前記画素座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得るように構成され、前記二次元位置情報は、前記画素座標系における情報であることを特徴とする
請求項13又は14に記載の装置。 - 前記変換ユニットは、前記ポイントクラウド情報を、北東下座標系から慣性計測ユニット座標系に変換し、前記ポイントクラウド情報の前記慣性計測ユニット座標系における情報を得て、前記慣性計測ユニット座標系とカメラ座標系との回平行移動行列に基づいて、前記ポイントクラウド情報の前記慣性計測ユニット座標系における情報を前記カメラ座標系に変換し、前記ポイントクラウド情報の前記カメラ座標系における情報を得て、カメラのパラメータ行列に基づいて、前記ポイントクラウド情報の前記カメラ座標系における情報を前記画素座標系に変換し、前記画素座標系における前記ポイントクラウド情報のポイントクラウド二次元情報を得るように構成されることを特徴とする
請求項15に記載の装置。 - 前記変換ユニットは、前記ポイントクラウド情報を北東下座標系からレーダー座標系に変換し、前記ポイントクラウド情報の前記レーダー座標系における情報を得て、前記レーダー座標系とカメラ座標系との回平行移動行列に基づいて、前記ポイントクラウド情報の前記レーダー座標系における情報を前記カメラ座標系に変換し、前記ポイントクラウド情報の前記カメラ座標系における情報を得て、カメラのパラメータ行列に基づいて、前記ポイントクラウド情報の前記カメラ座標系における情報を前記画素座標系に変換し、前記ポイントクラウド情報の前記画素座標系における情報を得るように構成されることを特徴とする
請求項15に記載の装置。 - 前記マッチングユニットは、前記画像情報に対して、走行可能領域の検出を行い、前記領域内の走行可能領域の情報を得て、前記ポイントクラウド二次元情報における第2画素点が前記領域内の走行可能領域における画素点であることに応答して、前記第2画素点及び前記道路要素の二次元位置情報に対してマッチング処理を行い、前記領域の地図における前記道路要素の第2セマンティック情報を得るように構成され、前記第2画素点は、前記ポイントクラウド二次元情報におけるいずれか1つの画素点であることを特徴とする
請求項13-17のいずれか一項に記載の装置。 - 前記装置は、
前記領域の前記画像情報及び前記ポイントクラウド情報を収集すると同時に、車載ナビゲーションシステムにより、前記車両の位置姿勢情報を取得するように構成される取得モジュールと、
車両の位置姿勢に基づいて、前記車載レーダーセンサにより収集されたポイントクラウド情報からなるポイントクラウド情報集合から前記領域のポイントクラウド情報を選別するように構成される第1選別モジュールとを更に備えることを特徴とする
請求項12-17のいずれか一項に記載の装置。 - 前記装置は、
収集された各領域の画像情報に対して、走行可能領域の検出を行い、各領域内の走行可能領域の情報を得るように構成される検出モジュールと、
前記車載レーダーセンサにより収集された各領域のポイントクラウド情報から、各領域内の走行可能領域のポイントクラウド情報を選別するように構成される第2選別モジュールと、
各領域内の走行可能領域のポイントクラウド情報に対して組み合わせを行い、前記ポイントクラウド情報集合を得るように構成される組み合わせモジュールと、を更に備えることを特徴とする
請求項19に記載の装置。 - 前記車載ナビゲーションシステムは、全地球測位システム及び/又は慣性計測ユニットを含むことを特徴とする
請求項20に記載の装置。 - 前記生成モジュールは、
前記道路要素に対応する所定特徴情報に基づいて、前記領域の地図における前記道路要素に対して選別を行い、選別された道路要素を得るという方式、
前記三次元位置情報で表される前記道路要素における点に対してフィッティング処理を行い、線パラメータで表される前記道路要素を得るという方式、
前記道路要素に対してサンプリング処理を行い、サンプリングされた前記道路要素を得るという方式、
前記三次元情報を前記北東下座標系からターゲット座標系に変換し、前記ターゲット座標系における前記三次元位置情報の位置情報を得るという方式、
のうちの1つ又は複数の方式を用いて、道路要素を処理するように構成される処理ユニットと、
処理により得られた前記道路要素の第2セマンティック情報に基づいて、地図を生成するか又は地図の前記領域に対応する部分を更新するように構成される生成ユニットと、を備えることを特徴とする
請求項12-21のいずれか一項に記載の装置。 - 運転制御方法であって、
運転制御装置は、車両の所在する道路環境の少なくとも一部領域の地図情報を取得することであって、地図情報は、請求項1-11のいずれか一項に記載の地図生成方法で得られたものである、ことと、
前記運転制御装置は、前記地図情報に基づいて車両に対してインテリジェント運転制御を行うことと、を含む、運転制御方法。 - 運転制御装置であって、
車両の所在する道路環境の少なくとも一部領域の地図情報を取得するように構成される取得モジュールであって、地図情報は、請求項1-11のいずれか一項に記載の地図生成方法で得られたものである、取得モジュールと、
前記地図情報に基づいて車両に対してインテリジェント運転制御を行うように構成される運転制御モジュールと、を備える、運転制御装置。 - 電子機器であって、
プログラム命令を記憶するように構成されるメモリと、
前記メモリにおけるプログラム命令を呼び出して実行し、請求項1-11のいずれか一項に記載の方法のステップを実行するように構成されるプロセッサと、を備える、電子機器。 - インテリジェント運転システムであって、通信接続されるセンサと、請求項25に記載の電子機器と、請求項24に記載の運転制御装置と、を備え、前記センサは、車両の所在する道路環境の少なくとも一部領域の画像情報及びポイントクラウド情報を収集するように構成される、インテリジェント運転制御システム。
- コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体に、コンピュータプログラムが記憶されており、前記コンピュータプログラムは、プロセッサに実行される時に、請求項1-11のいずれか一項に記載の方法のステップを実行するように構成され、又は、前記コンピュータプログラムは、プロセッサに実行される時に、請求項23に記載の方法のステップを実行するように構成される、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910496345.3A CN112069856A (zh) | 2019-06-10 | 2019-06-10 | 地图生成方法、驾驶控制方法、装置、电子设备及系统 |
CN201910496345.3 | 2019-06-10 | ||
PCT/CN2020/075083 WO2020248614A1 (zh) | 2019-06-10 | 2020-02-13 | 地图生成方法、驾驶控制方法、装置、电子设备及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022509302A true JP2022509302A (ja) | 2022-01-20 |
Family
ID=73658193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021531066A Pending JP2022509302A (ja) | 2019-06-10 | 2020-02-13 | 地図生成方法、運転制御方法、装置、電子機器及びシステム |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022509302A (ja) |
KR (1) | KR20210082204A (ja) |
CN (1) | CN112069856A (ja) |
WO (1) | WO2020248614A1 (ja) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112667837A (zh) * | 2019-10-16 | 2021-04-16 | 上海商汤临港智能科技有限公司 | 图像数据自动标注方法及装置 |
CN112764004B (zh) * | 2020-12-22 | 2024-05-03 | 中国第一汽车股份有限公司 | 一种点云处理方法、装置、设备及存储介质 |
CN114760330B (zh) * | 2020-12-28 | 2024-04-12 | 华为技术有限公司 | 用于车联网的数据传输方法、装置、存储介质和系统 |
CN112633722B (zh) * | 2020-12-29 | 2024-01-12 | 交通运输部公路科学研究所 | 车载道路安全风险评估系统及方法 |
CN112907760B (zh) * | 2021-02-09 | 2023-03-24 | 浙江商汤科技开发有限公司 | 三维对象的标注方法及装置、工具、电子设备和存储介质 |
CN112862881B (zh) * | 2021-02-24 | 2023-02-07 | 清华大学 | 基于众包多车摄像头数据的道路地图构建与融合的方法 |
CN112802126A (zh) * | 2021-02-26 | 2021-05-14 | 上海商汤临港智能科技有限公司 | 一种标定方法、装置、计算机设备和存储介质 |
CN112967398B (zh) * | 2021-03-01 | 2023-07-25 | 北京奇艺世纪科技有限公司 | 一种三维数据重建方法、装置及电子设备 |
CN112966059B (zh) * | 2021-03-02 | 2023-11-24 | 北京百度网讯科技有限公司 | 针对定位数据的数据处理方法、装置、电子设备和介质 |
JP2022137534A (ja) * | 2021-03-09 | 2022-09-22 | 本田技研工業株式会社 | 地図生成装置および車両位置認識装置 |
CN112960000A (zh) * | 2021-03-15 | 2021-06-15 | 新石器慧义知行智驰(北京)科技有限公司 | 高精地图更新方法、装置、电子设备和存储介质 |
CN113066009B (zh) * | 2021-03-24 | 2023-08-25 | 北京斯年智驾科技有限公司 | 港口高精度地图集的构建方法、装置、系统和存储介质 |
CN112907746A (zh) * | 2021-03-25 | 2021-06-04 | 上海商汤临港智能科技有限公司 | 电子地图的生成方法、装置、电子设备及存储介质 |
CN113189610A (zh) * | 2021-04-28 | 2021-07-30 | 中国科学技术大学 | 地图增强的自动驾驶多目标追踪方法和相关设备 |
CN113421327A (zh) * | 2021-05-24 | 2021-09-21 | 郭宝宇 | 一种三维模型的构建方法、构建装置以及电子设备 |
CN113191323A (zh) * | 2021-05-24 | 2021-07-30 | 上海商汤临港智能科技有限公司 | 一种语义元素处理的方法、装置、电子设备及存储介质 |
CN113034566B (zh) * | 2021-05-28 | 2021-09-24 | 湖北亿咖通科技有限公司 | 高精度地图构建方法、装置、电子设备及存储介质 |
CN113340314B (zh) * | 2021-06-01 | 2022-06-21 | 苏州天准科技股份有限公司 | 局部代价地图的生成方法、存储介质和智能无人巡检车 |
CN113343858B (zh) * | 2021-06-10 | 2024-03-12 | 广州海格通信集团股份有限公司 | 路网地理位置识别方法、装置、电子设备及存储介质 |
CN113420805B (zh) * | 2021-06-21 | 2022-11-29 | 车路通科技(成都)有限公司 | 视频和雷达的动态轨迹图像融合方法、装置、设备及介质 |
CN113435392A (zh) * | 2021-07-09 | 2021-09-24 | 阿波罗智能技术(北京)有限公司 | 应用于自动泊车的车辆定位方法、装置及车辆 |
CN113701770A (zh) * | 2021-07-16 | 2021-11-26 | 西安电子科技大学 | 一种高精地图生成方法及系统 |
US11608084B1 (en) * | 2021-08-27 | 2023-03-21 | Motional Ad Llc | Navigation with drivable area detection |
CN113822932B (zh) * | 2021-08-30 | 2023-08-18 | 亿咖通(湖北)技术有限公司 | 设备定位方法、装置、非易失性存储介质及处理器 |
CN113836251A (zh) * | 2021-09-17 | 2021-12-24 | 中国第一汽车股份有限公司 | 一种认知地图构建方法、装置、设备及介质 |
CN113762413B (zh) * | 2021-09-30 | 2023-12-26 | 智道网联科技(北京)有限公司 | 点云数据与图像数据融合方法及存储介质 |
CN114111813A (zh) * | 2021-10-18 | 2022-03-01 | 阿波罗智能技术(北京)有限公司 | 高精地图元素更新方法、装置、电子设备及存储介质 |
CN114120631B (zh) * | 2021-10-28 | 2023-03-24 | 新奇点智能科技集团有限公司 | 构建动态高精度地图的方法、装置及交通云控平台 |
CN114111758A (zh) * | 2021-11-01 | 2022-03-01 | 广州小鹏自动驾驶科技有限公司 | 一种地图数据的处理方法和装置 |
CN114061564B (zh) * | 2021-11-01 | 2022-12-13 | 广州小鹏自动驾驶科技有限公司 | 一种地图数据的处理方法和装置 |
CN114088082B (zh) * | 2021-11-01 | 2024-04-16 | 广州小鹏自动驾驶科技有限公司 | 一种地图数据的处理方法和装置 |
CN114141010A (zh) * | 2021-11-08 | 2022-03-04 | 南京交通职业技术学院 | 一种基于云平台数据的共享式交通控制方法 |
CN114185613A (zh) * | 2021-11-30 | 2022-03-15 | 广州景骐科技有限公司 | 一种语义地图分块方法、装置、交通工具及存储介质 |
CN114494267B (zh) * | 2021-11-30 | 2022-11-04 | 北京国网富达科技发展有限责任公司 | 一种变电站和电缆隧道场景语义构建系统和方法 |
CN114445415A (zh) * | 2021-12-14 | 2022-05-06 | 中国科学院深圳先进技术研究院 | 可行驶区域的分割方法以及相关装置 |
CN114356078B (zh) * | 2021-12-15 | 2024-03-19 | 之江实验室 | 一种基于注视目标的人物意图检测方法、装置及电子设备 |
CN114494618B (zh) * | 2021-12-30 | 2023-05-16 | 广州小鹏自动驾驶科技有限公司 | 地图的生成方法、装置、电子设备及存储介质 |
CN114526721A (zh) * | 2021-12-31 | 2022-05-24 | 易图通科技(北京)有限公司 | 地图对齐处理方法、装置及可读存储介质 |
CN114413881B (zh) * | 2022-01-07 | 2023-09-01 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
CN114374723A (zh) * | 2022-01-17 | 2022-04-19 | 长春师范大学 | 一种计算机控制的智能监控系统 |
CN114425774B (zh) * | 2022-01-21 | 2023-11-03 | 深圳优地科技有限公司 | 机器人行走道路的识别方法、识别设备以及存储介质 |
CN114440856A (zh) * | 2022-01-21 | 2022-05-06 | 北京地平线信息技术有限公司 | 一种构建语义地图的方法及装置 |
CN114581287B (zh) * | 2022-02-18 | 2023-02-07 | 高德软件有限公司 | 数据处理方法以及装置 |
CN114581621A (zh) * | 2022-03-07 | 2022-06-03 | 北京百度网讯科技有限公司 | 地图数据处理方法、装置、电子设备和介质 |
CN114620055B (zh) * | 2022-03-15 | 2022-11-25 | 阿波罗智能技术(北京)有限公司 | 道路数据处理方法、装置、电子设备及自动驾驶车辆 |
CN114782342B (zh) * | 2022-04-12 | 2024-02-09 | 北京瓦特曼智能科技有限公司 | 城市硬件设施缺陷的检测方法及装置 |
CN114511600A (zh) * | 2022-04-20 | 2022-05-17 | 北京中科慧眼科技有限公司 | 基于点云配准的位姿计算方法和系统 |
CN114754779B (zh) * | 2022-04-27 | 2023-02-14 | 镁佳(北京)科技有限公司 | 一种定位与建图方法、装置及电子设备 |
CN115290104A (zh) * | 2022-07-14 | 2022-11-04 | 襄阳达安汽车检测中心有限公司 | 仿真地图生成方法、装置、设备及可读存储介质 |
CN115527028A (zh) * | 2022-08-16 | 2022-12-27 | 北京百度网讯科技有限公司 | 地图数据处理方法及装置 |
CN115435773B (zh) * | 2022-09-05 | 2024-04-05 | 北京远见知行科技有限公司 | 室内停车场高精度地图采集装置 |
CN115523929B (zh) * | 2022-09-20 | 2023-05-12 | 北京四维远见信息技术有限公司 | 一种基于slam的车载组合导航方法、装置、设备及介质 |
CN115861561B (zh) * | 2023-02-24 | 2023-05-30 | 航天宏图信息技术股份有限公司 | 一种基于语义约束的等高线生成方法和装置 |
CN116295463A (zh) * | 2023-02-27 | 2023-06-23 | 北京辉羲智能科技有限公司 | 一种导航地图元素的自动标注方法 |
CN116030212B (zh) * | 2023-03-28 | 2023-06-02 | 北京集度科技有限公司 | 一种建图方法、设备、车辆及存储介质 |
CN116027375B (zh) * | 2023-03-29 | 2023-07-14 | 智道网联科技(北京)有限公司 | 自动驾驶车辆的定位方法、装置及电子设备、存储介质 |
CN116821854B (zh) * | 2023-08-30 | 2023-12-08 | 腾讯科技(深圳)有限公司 | 一种目标投影的匹配融合方法及相关装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180058861A1 (en) * | 2016-08-26 | 2018-03-01 | Here Global B.V. | Automatic localization geometry detection |
WO2018104563A2 (en) * | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
US20180307924A1 (en) * | 2016-09-13 | 2018-10-25 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for acquiring traffic sign information |
CN109117718A (zh) * | 2018-07-02 | 2019-01-01 | 东南大学 | 一种面向道路场景的三维语义地图构建和存储方法 |
US20190163990A1 (en) * | 2017-11-27 | 2019-05-30 | TuSimple | System and method for large-scale lane marking detection using multimodal sensor data |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9910441B2 (en) * | 2015-11-04 | 2018-03-06 | Zoox, Inc. | Adaptive autonomous vehicle planner logic |
CN109064506B (zh) * | 2018-07-04 | 2020-03-13 | 百度在线网络技术(北京)有限公司 | 高精度地图生成方法、装置及存储介质 |
CN109410301A (zh) * | 2018-10-16 | 2019-03-01 | 张亮 | 面向无人驾驶汽车的高精度语义地图制作方法 |
CN109461211B (zh) * | 2018-11-12 | 2021-01-26 | 南京人工智能高等研究院有限公司 | 基于视觉点云的语义矢量地图构建方法、装置和电子设备 |
CN109829386B (zh) * | 2019-01-04 | 2020-12-11 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
-
2019
- 2019-06-10 CN CN201910496345.3A patent/CN112069856A/zh active Pending
-
2020
- 2020-02-13 KR KR1020217015319A patent/KR20210082204A/ko not_active Application Discontinuation
- 2020-02-13 JP JP2021531066A patent/JP2022509302A/ja active Pending
- 2020-02-13 WO PCT/CN2020/075083 patent/WO2020248614A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180058861A1 (en) * | 2016-08-26 | 2018-03-01 | Here Global B.V. | Automatic localization geometry detection |
US20180307924A1 (en) * | 2016-09-13 | 2018-10-25 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for acquiring traffic sign information |
WO2018104563A2 (en) * | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
US20190163990A1 (en) * | 2017-11-27 | 2019-05-30 | TuSimple | System and method for large-scale lane marking detection using multimodal sensor data |
CN109117718A (zh) * | 2018-07-02 | 2019-01-01 | 东南大学 | 一种面向道路场景的三维语义地图构建和存储方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020248614A1 (zh) | 2020-12-17 |
KR20210082204A (ko) | 2021-07-02 |
CN112069856A (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022509302A (ja) | 地図生成方法、運転制御方法、装置、電子機器及びシステム | |
KR102145109B1 (ko) | 지도 생성 및 운동 객체 위치 결정 방법 및 장치 | |
JP6812404B2 (ja) | 点群データを融合させるための方法、装置、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム | |
CN109461211B (zh) | 基于视觉点云的语义矢量地图构建方法、装置和电子设备 | |
EP3505869B1 (en) | Method, apparatus, and computer readable storage medium for updating electronic map | |
KR102314228B1 (ko) | 지도 구축 방법, 장치, 기기 및 판독가능 저장 매체 | |
WO2021073656A1 (zh) | 图像数据自动标注方法及装置 | |
CN111121754A (zh) | 移动机器人定位导航方法、装置、移动机器人及存储介质 | |
WO2021051344A1 (zh) | 高精度地图中车道线的确定方法和装置 | |
JP6950832B2 (ja) | 位置座標推定装置、位置座標推定方法およびプログラム | |
CN111582189A (zh) | 交通信号灯识别方法、装置、车载控制终端及机动车 | |
WO2020156923A2 (en) | Map and method for creating a map | |
CN113160327A (zh) | 一种点云补全的实现方法和系统 | |
Zhou et al. | Developing and testing robust autonomy: The university of sydney campus data set | |
CN115164918B (zh) | 语义点云地图构建方法、装置及电子设备 | |
CN114639085A (zh) | 交通信号灯识别方法、装置、计算机设备和存储介质 | |
CN116997771A (zh) | 车辆及其定位方法、装置、设备、计算机可读存储介质 | |
US20220197893A1 (en) | Aerial vehicle and edge device collaboration for visual positioning image database management and updating | |
CN113378605A (zh) | 多源信息融合方法及装置、电子设备和存储介质 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
WO2023283929A1 (zh) | 双目相机外参标定的方法及装置 | |
CN112880692B (zh) | 地图数据标注方法及装置、存储介质 | |
EP4361565A2 (en) | Method, device, system and computer-readable storage medium for vehicle positioning | |
CN113822932B (zh) | 设备定位方法、装置、非易失性存储介质及处理器 | |
CN111461982B (zh) | 用于拼接点云的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210528 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230307 |