JP7351487B2 - トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム - Google Patents

トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム Download PDF

Info

Publication number
JP7351487B2
JP7351487B2 JP2021502925A JP2021502925A JP7351487B2 JP 7351487 B2 JP7351487 B2 JP 7351487B2 JP 2021502925 A JP2021502925 A JP 2021502925A JP 2021502925 A JP2021502925 A JP 2021502925A JP 7351487 B2 JP7351487 B2 JP 7351487B2
Authority
JP
Japan
Prior art keywords
scene
image
decision
action
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021502925A
Other languages
English (en)
Other versions
JP2021531462A (ja
Inventor
イェンリー リ,
シャオファン スン,
ガイワン フェ,
ジンファ ツァイ,
Original Assignee
ベイジン ジンドン 360 ディグリー イー―コマース カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン ジンドン 360 ディグリー イー―コマース カンパニー リミテッド filed Critical ベイジン ジンドン 360 ディグリー イー―コマース カンパニー リミテッド
Publication of JP2021531462A publication Critical patent/JP2021531462A/ja
Application granted granted Critical
Publication of JP7351487B2 publication Critical patent/JP7351487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本公開はコンピュータ技術分野に関し、特に、トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステムに関する。
従来の自動運転技術の多くは高精度マップに依存してインテリジェントナビゲーションを行うが、高精度マップを取得するプロセスは時間も労力もかかり、そのメンテナンス及び更新も絶えず必要となる。従来技術において、街頭風景シーンの地図なしインテリジェントナビゲーションに対して、DeepMind研究者は深層強化学習に基づく方法を提案している。
上記地図なしインテリジェントナビゲーション方法において、その行為は5種類の意思決定(回転-67.5度、-22.5度、22.5度、67.5度及び前進)しかなく、行動意思決定が単一すぎて、リアルな運転に十分に対応できない。次に、当該方法は完全に画像に依存してインテリジェントナビゲーションを行うが、画像は光線の影響を受けるため、夜景等の弱光下でセルフナビゲーションを行うことが難しい。この他、当該方法の報酬は一つの距離目標位置の函数により定義され、一般的に言えば、良いナビゲーションエンジンは走行時間、走行距離及び違反状況等、多くの面の制約を受けると考えられるため、当該方法は多指標におけるリアルナビゲーションモデルをトレーニングし難い。最後に、当該方法は如何なる地図も必要とせず、これは状態空間のサンプリング数を大いに拡大させ、最適化プロセスを容易に収斂できず、トレーニングには時間と労力がかかる。
以上に鑑み、本公開実施形態は、多指標のナビゲーションモデルに基づくとともに、構築されたトポロジーマップに基づき、走行可能なエリアビューを特定し、地図なし方式に比べ、GPS拘束下でリアルタイムナビゲーションの正確性を高めるが、完全にGPSに依存することなくナビゲーションのロバスト性を高めることができる、トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステムを提供する。
上記目的を実現するために、本公開実施形態の一つの方面に基づき、トポロジーマップに基づくインテリジェントナビゲーション方法を提供する。
本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法は、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定し、少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得し、前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定することを含む。
任意選択的に、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するステップは、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、前記トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークすることを含む。
任意選択的に、シーンデータを取得するステップは、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、シーン解析図を得られるように、前記シーン画像を意味解析することを含む。
任意選択的に、前記シーンデータはさらにレーザポイントクラウドデータを含み、前記シーンデータを取得するステップはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うことを含む。
任意選択的に、前記ナビゲーションモデルは深層強化学習トレーニングにより取得され、および、前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するステップは、画像分類畳み込みネットワークにより上記サンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び前時刻報酬を第一層リカレントニューラルネットワークにインポートし、前記第一層リカレントニューラルネットワークの出力と前時刻行為を、第二層リカレントニューラルネットワークにインポートし、前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うことを含む。
任意選択的に、前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含み、
全結合型ネットワークにより行為意思決定に対して予測を行うステップは、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定することを含む。
上記目的を実現するために、本公開実施形態のもう一つの方面に基づき、トポロジーマップに基づくインテリジェントナビゲーションのシステムを提供する。
本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションのシステムは、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するための走行可能なエリアビュー特定モジュールと、
少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得するためのシーンデータ取得モジュールと、
前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するための意思決定確定モジュールと、を含む。
任意選択的に、前記走行可能なエリアビュー特定モジュールはさらに、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、前記トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークするためのものである。
任意選択的に、前記シーンデータ取得モジュールはさらに、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、シーン解析図を得られるように、前記シーン画像を意味解析するためのものである。
任意選択的に、前記シーンデータ取得モジュールはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うためのものであり、前記シーンデータはさらにレーザポイントクラウドデータを含む。
任意選択的に、前記意思決定確定モジュールはさらに、画像分類畳み込みネットワークにより上記サンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び前時刻報酬を第一層リカレントニューラルネットワークにインポートし、前記第一層リカレントニューラルネットワークの出力と前時刻行為を、第二層リカレントニューラルネットワークにインポートし、前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うためのものであり、前記ナビゲーションモデルは深層強化学習トレーニングにより取得される。
任意選択的に、前記意思決定確定モジュールはさらに、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定するものであり、前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含む。
上記目的を実現するために、本公開実施形態のもう一つの方面に基づき、電子機器を提供する。
本公開実施形態の電子機器は、一つの又は複数のプロセッサと、一つの又は複数のプログラムを記憶するための記憶装置と、を含み、前記一つの又は複数のプログラムが前記一つの又は複数のプロセッサにより実行されるとき、前記一つの又は複数のプロセッサが上記のいずれかのトポロジーマップに基づくインテリジェントナビゲーションの方法を実現する。
上記目的を実現するために、本公開実施形態のもう一つの方面に基づき、プロセッサにより実行される時に上記のいずれかのトポロジーマップに基づくインテリジェントナビゲーションの方法を実現することを特徴とするコンピュータプログラムが記憶されたコンピュータ読み取り可能な媒体を提供する。
上記発明における一つの実施形態は以下の長所又は有益な效果を有する:車両走行前に、トポロジーマップに基づき、ルートプランニングを完成させて、走行可能なルートを取得できる。車両走行中、当該トポロジーマップ及び特定した走行可能なルートに基づき、GPS信号(トポロジーマップは一つの一系列のGPS地点により作成される)により、車両に対して概略的に位置決めして、走行可能なエリアを取得し、その後、深層ニューラルネットワークにより局部緻密ナビゲーションを行うことができる。地図なし方式に比べ、本公開実施形態は、GPS拘束下でリアルタイムナビゲーションの正確性を高めることができ、且つナビゲーションモデルの多指標により、本公開実施形態は、完全にGPSに依存することなくナビゲーションのロバスト性を高めることができる。
上記非慣用的な選択可能な方式により具備する更なる效果について以下に発明を実施するための形態と合わせて説明する。
図面は本公開をより理解しやすくするためものであり、本公開を限定するものではない。
図1は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の主要なフロー概略図である。 図2は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の走行可能なエリアの概略図である。 図3は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の採集したシーン画像の概略図である。 図4は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のシーン深度マップの概略図である。 図5は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のシーン解析図の概略図である。 図6は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のレーザポイントクラウドデータの概略図である。 図7は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の深層ニューラルネットワーク構造の概略図である。 図8は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションのシステムの主要なモジュールの概略図である。 図9は本公開実施形態を応用できる例示的なシステムアーキテクチャ図である。 図10は本公開実施形態の端末装置又はサーバを実現するために適用されるコンピュータシステムの構造概略図である。
以下に図面と合わせて本公開の模範的な実施形態について説明する。そのうち、理解しやすいように本公開実施形態の各細部を含むが、これは模範的に示すためだけのものであると理解されるべきである。よって、当業者は本公開の範囲及び精神を逸脱しない限り、ここで説明される実施形態に対して各種の変更や修正を行うことができると理解されるべきである。同様に、明確かつ簡潔にするために、以下の説明において公知の機能及び構造についての説明は省略される。
図1は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の主要なフロー概略図であり、図2は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の走行可能なエリアの概略図である。
図1に示されるように、本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法は主に以下を含む:
ステップS101:構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定する。トポロジーマップはノード及びエッジから構成され、そのうち、ノードはGPS位置であり、エッジは2つのGPS位置で作成される縁である。トポロジーマップは、一系列の核心的GPS地点により作成される走行可能なルートマップであり、その取得方法は低廉であり、高精度マップの作成コストがかからない。具体的に、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、範囲画像内の走行可能なエリアをマークする。
トポロジーマップにおいて走行軌跡点を中心として幅拡張を行う。例えば左右それぞれ2メートルの走行可能なエリアに拡張する、図2参照。現在のGPS位置で走行車接線方向に切り取り、例えば50メートル×50メートルに切り取り、拡縮比を1画素/0.1メートルの500×500画像とし、走行可能なエリアを255とマークし、他のエリアを0とすることによって、走行可能なエリアビューを取得する。そのうち、走行軌跡は一系列GPS位置により作成される車両走行ルートであり、走行車接線は各走行車位置の接線であり、隣接する2つの走行車点を繋げてなる、と定義することができる。
ステップS102:少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得する。具体的に、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、シーン画像のシーン深度を解析し、シーン解析図を得られるように、シーン画像を意味解析する。
図3は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の採集したシーン画像の概略図であり、図4は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のシーン深度マップの概略図であり、図5は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のシーン解析図の概略図であり、図6は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法のレーザポイントクラウドデータの概略図である。上記図3~6において、写真の色は表示しない。
シーン画像は、ビデオ画像も含み、車載カメラにより環境をリアルタイムに採集して取得され、図3に示されるように、R/G/Bの三チャネル(赤、緑、青の三つのチャネル)を含む。チャネル層中の画素色は一組の原色の輝度値から構成され、チャネルは実際、選択エリアのマッピングであると理解することができる。
シーン深度マップは、カラービデオ画像に対する深度解析であり、図4に示されるように、各画素の相対深さをマークし、一つのチャネルD(ビューの差)を含み、シーン深度解析方法を用いて予めトレーニングする方式により取得できる。そのうち、シーン深度は焦点前後の鮮明範囲のことであり、シーン深度が大きいほど、画像全体は遠景から近景になるにつれ鮮明になり、シーン深度が浅いほど、合焦主体が鮮明になり、前景及び背景がぼけることによって主体がさらに突出される。シーン深度に影響する要素は主に焦点距離、絞り及び撮影距離である。焦点距離が長いほど、絞りは大きく、撮影距離が近いほど、シーン深度は浅い。逆に、焦点距離が短いほど、絞りは小さく、撮影距離が遠いほど、シーン深度は大きい。
シーン解析図は、カラービデオ画像に対する意味解析であり、図5に示されるように、各画素が樹木、道路、歩行者または車両等に属することをマークし、一つのチャネルL(ラベルLabel)を含み、意味シーン解析方法例を用いて予めトレーニングする方式により取得できる。
シーンデータはさらにレーザポイントクラウドデータを含み、レーザポイントクラウドデータについて、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、レーザーレーダーポイントに対して正規化処理を行う。図6に示されるように、原レーザーレーダーポイントは、三チャネル座標X/Y/Z及び一つの強度I(反射強度Intensity)チャネルを含み、さらに、ポイントクラウド解析方法により各ポイントの類別をマークし、最終的に一つのX/Y/Z/I/L五チャネルポイントクラウドを取得する。そのうち、レーザーレーダーから獲得したレーザポイントクラウドにおいて、ポイントクラウドの各々ポイントは、いずれも一つの反射強度属性を有し、異なる媒体が光線を吸収する能力を意味する。ラベルLabelは離散化数値である。取得したX/Y/Z、Iチャネル及びLチャネルの単位は統一されていないため、正規化プロセスを行う必要がある。よって、最終的に一つのX/Y/Z/I/L五チャネルポイントクラウドを取得した後、それに対して正規化を行う。具体的なステップはX/Y/Z/I/Lそれぞれが対応の平均値を差し引き、切断した後、切断値で割る、即ちf(x)=max(min((x-T1)、T2)、 -T2)/T2、但し、平均値T1及び切断値T2は経験設計値である。
ステップS103:走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定する。そのうち、ナビゲーションモデルは深層強化学習トレーニングにより取得される。具体的に、画像分類畳み込みネットワークにより上記サンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び前時刻報酬を第一層リカレントニューラルネットワークにインポートし、第一層リカレントニューラルネットワークの出力と前時刻行為を、第二層リカレントニューラルネットワークにインポートし、第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行う。そのうち、目標位置GPSは入力情報であり、つまり目的地を提供する。
行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含み、および、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し。予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定する。そのうち、偏向角速度は連続値であり、単位時間内の回転角度である。走行方向は離散値であり、車両前進、停止または後退方向を含む。偏向方向は離散値であり、車両左折、右折または無ターンを含む。
インテリジェントナビゲーションは、環境状態を入力とする深層ニューラルネットワークにおいて行為予測を行い、絶え間なく探索し、報酬を取得することにより、ネットワークパラメータを繰り返し更新する。本公開実施形態において、A3C(Asynchronous advantage actor-critic) 最適方策を採用し、深層ニューラルネットワークパラメータを最適化する。A3C最適方策は、報酬を累積することにより行為意思決定函数(actor)及び価値函数(critic)のネットワークパラメータを繰り返し更新する。図7は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションの方法の深層ニューラルネットワーク構造の概略図である。
入力状態は外界環境が提供する観測データであり、インテリジェントナビゲーションの行為意思決定を教える。本発明実施形態において、入力状態はカラービデオ画像(ImW1*ImH1*3、ImW1及びImH1は画像サイズ)、当該カラービデオ画像のシーン解析図(ImW1*ImH1*1)及びシーン深度マップ(ImW1*ImH1*1)、レーザポイントクラウドデータ(N*5、Nはポイントクラウド数)、及び走行可能なエリアビュー(ImW2*ImH2*1、ImW2及びImH2はビューサイズ)を含む。複数の手がかりを組み合わせた入力状態は方法のロバスト性を高めるのに有効である。
行為意思決定は車両の行為を制御し、各時刻における原動機付き車両の運動パラメータは進行方向、偏向方向、進行速度及び偏向角速度を含む。同様に、本公開実施形態において、行為意思決定を
Figure 0007351487000001

と定義し、但し、θは深層ニューラルネットワークモデルパラメータを意味し、ηは進行速度(いくつかの部に離散され、例えば240部、1キロメートル/時-->240キロメートル/時)であり、
Figure 0007351487000002

は偏向角速度(いくつかの部に離散され、例えば90部、1度/秒-->90度/秒)であり、Dは進行方向{-1:後退、0:停止、1:前進}であり、Cは偏向方向{-1:左折、0:無ターン、1:右折}である。これに対応して、深層ニューラルネットワークモデルは意思決定行動の各部分に対して独立して予測し、各部分の中の各1部に属する確率を計算することによって、最大確率の行為の組み合わせを選び取る。
図7に示されるように、深層強化学習は深層ニューラルネットワークにより行為意思決定を予測し、そのうち、データ層及びネットワーク層を含む。入力はシーン画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ、走行可能なエリアビュー、目標方位及び前時刻報酬を含み、出力は行為意思決定及び状態価値を含む。そのうち、目標方位は現在のGPS位置と目標GPSの差であり、本公開実施形態では経度緯度のみ考慮するため、一つの1*2次元データとなる。
まず、シーン画像、シーン解析図、シーン深度マップを一つの5チャネル画像(R/G/B/L/D)用画像分類畳み込みネットワーク(例えばVGG16、ResNet101又はInception V3)にカスケード接続し、特徴抽出を行い、一つの1*4096次元の特徴を出力する。レーザポイントクラウドデータは一つの5チャネルデータ(X/Y/Z/I/L)の点集合であり、ポイントクラウド分類畳み込みネットワークにより特徴を抽出し、一つの1*256の特徴を出力する。走行可能なエリアビューは一つの1チャネル画像であり、同様に、画像分類畳み込みネットワーク(例えばVGG16、ResNet101又はInception V3)により特徴を抽出し、一つの1*256的特徴を出力する。次に、畳み込み特徴、目標方位及び前時刻報酬をカスケード接続し、第一層リカレントニューラルネットワークLSTMにインポートし、さらにリカレントニューラルネットワークの出力1*256特徴及び前時刻行為1*4をカスケード接続し、第二層リカレントニューラルネットワークLSTMにインポートし、最終的に一つの256次元の特徴を取得する。各行為意思決定及び行為価値に対して独立して予測を行うために、全結合型ネットワークにより、この5つの部分(走行速度、回転角速度、走行方向、回転方向及び行為価値)に対して独立して予測を行う。
本公開実施形態において、多指標を組み合わせて報酬ルールを実行し、そのうち、目的地基準到達、段階的基準到達、走行可能エリア拘束走行時間、走行距離、交通違反及び安定運転判定を含む。具体的には以下のとおり:
1)目的地基準到達:目的地まで走行したら、報酬を与える、例えば報酬1000得点とする。
2)段階的基準到達:走行ルート上で固定距離に基づき一系列の段階的基準到達の位置を設定し、一つ前の基準到達位置から現在の基準到達位置まで走行したら、報酬を与える。例えば、1キロメートル毎に一つの段階的基準到達位置を設定し、一つ前の基準到達位置から当該基準到達位置まで走行したら、報酬200得点とする。
3)走行可能エリア拘束:トポロジーマップに対して一つの走行可能エリアを幅拡張し、車両が走行可能エリアを外れていないか否か、間隔をあけて検出し、外れていないなら、報酬を与え、もし外れていたら懲罰を行う。例えば50メートル毎に一回の検出を行い、走行可能エリアを離れたら、懲罰-1減点とし、もし離れなかったらで、報酬1得点とする。
4)走行時間:一つの予測走行時間を設定し、目的地に到達した時、リアル走行時間を測定し、予測走行時間を超えていたら、懲罰を行い、超えていないなら、報酬を行う。例えば、予測走行時間が100分であり、リアル走行時間が80分だった場合、報酬(100-80)=20得点とし、リアル運行時間が120分だった場合、懲罰(100-120)=-20減点とする。
5)走行距離:一つの予測走行距離を設定し、目的地に到達した時、リアル走行距離を測定し、予測走行距離を超えていたら、懲罰を行い、もし超えていないなら報酬を行う。例えば、予測走行距離が60キロメートルであり、リアル走行距離が40キロメートルであった場合、報酬(60-40)=20得点とし、リアル走行距離が80キロメートルであった場合、懲罰(60-80)=-20減点とする。
6)交通違反賞罰:
a)衝突発生:外的物体と衝突したら、懲罰を行い、そのうち外的物体として、歩行者、車両、樹木、縁石等を含むが、これらに限られない、例えば懲罰-1000減点とする。
b)交通信号機賞罰:交通信号機にあたった場合、信号遵守行為には報酬を行い、信号違反行為には懲罰を行う。例えば、赤信号を無視したら懲罰-500減点とし、赤信号で停止したら報酬200得点とする。
c)前方車両との距離:一つの前方車両との最小距離を設定し、一定時間をあけてリアルな前方車両との距離を検出し、当該距離閾値未満であれば、懲罰を行う。例えば、前方車両との最小距離を10メートルと設定し、1分毎に1回、前方車両との距離を検出し、検出された距離が10メートル未満の場合、懲罰-5減点とする。
d)速度超過の賞罰:現在の道路区間の速度閾値に基づき、一定時間をあけて走行速度を検出し、当該速度閾値を超えていたら、懲罰を行う。例えば、現在の道路区間の速度閾値が60キロメートル/時であり、1分毎に1回、車両速度を検出し、検出された車速が60キロメートル/時を超えていたら、懲罰-5減点とする。
7)安定運転賞罰:2つの加速度及び角度加速度閾値を設定し、一定時間をあけて車両の加速度及び角度加速度を検出し、当該閾値を超えていたら懲罰を行う。例えば、安定加速度閾値を5メートル/秒^2に設定し、角加速度閾値を2度/秒^2に設定し、10分毎に1回、車両加速度及び角加速度を検出し、閾値を超えていたら、懲罰-1減点とし、もし超えていないなら、報酬1得点とする。
同時に、上記賞罰状況に対して一つの重み付け値を設定することができ、最後に累計された賞罰はこれら賞罰の重み付けの和であるため、異なる重み付け値を設定することにより、ある指標に偏ったナビゲーション結果をトレーニングすることができる。例えば、走行時間の重み付け値を大きくすると、トレーニングされたインテリジェントナビゲーション方法は比較的早い速度で目的地に到達させる。
本公開実施形態は、深層強化学習に基づくトポロジーマップにおける街頭風景インテリジェントナビゲーション方法を提供する。まず、車両走行前に、トポロジーマップに基づき、ルートプランニングを完成させて走行可能なルートを取得できる。車両走行中、当該トポロジーマップ及び特定した走行可能なルートに基づき、GPS信号により、車両に対して概略的に位置決めして、走行可能なエリアを取得し、その後、深層ニューラルネットワークにより局部緻密ナビゲーションを行うことができる。地図なし方式に比べ、本公開実施形態は、GPS拘束下でリアルタイムナビゲーションの正確性を高めることができ、且つナビゲーションモデルの多指標により、本公開実施形態は、完全にGPSに依存することなくナビゲーションのロバスト性を高めることができる。
局部緻密ナビゲーションにおいて、本公開実施形態は新しい深層ニューラルネットワークを提供することにより、車両の意思決定を制御し、そして行為、状態及び報酬の三方面から機能改善を行う。そのうち、行為(action)は離散空間における走行速度、偏向角速度、走行方向及び偏向方向であり、これは、車両の意思決定制御をよりリアルにシミュレーションする。状態(state)データソースはシーンのビデオ画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ及び走行可能なエリアビューを含み、マルチデータソースによりビゲーションエンジンのシーン適応力を高めることができる。多指標拘束において行為報酬(rewards)を定義し、そのうち、走行時間、走行距離、交通違反状況及び段階的基準到達等を含み、報酬に重み付けすることにより異なる指標における自適応ナビゲーションを実現する。以上をまとめ、本公開実施形態は比較的少ない代価により、ロバスト性を高め、提供される深層ニューラルネットワーク及び意思決定も、より一層リアルな運転に近づく。
図8は本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションのシステムの主要なモジュールの概略図である。図8に示されるように、本公開実施形態のトポロジーマップに基づくインテリジェントナビゲーションのシステム800は、走行可能なエリアビュー特定モジュール801、シーンデータ取得モジュール802及び意思決定確定モジュール803を含む。
走行可能なエリアビュー特定モジュール801は、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するためのものである。走行可能なエリアビュー特定モジュールはさらに、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、範囲画像内の走行可能なエリアをマークするためのものである。
シーンデータ取得モジュール802は、少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得するためのものである。シーンデータ取得モジュールはさらに、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、シーン画像のシーン深度を解析し、シーン解析図を得られるように、シーン画像を意味解析するためのものである。シーンデータ取得モジュールはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、レーザーレーダーポイントに対して正規化処理を行うためのものであり、シーンデータはさらにレーザポイントクラウドデータを含む。
意思決定確定モジュール803は、走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するためのものである。意思決定確定モジュールはさらに、画像分類畳み込みネットワークにより上記サンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び前時刻報酬を第一層リカレントニューラルネットワークにインポートし、第一層リカレントニューラルネットワークの出力と前時刻行為を、第二層リカレントニューラルネットワークにインポートし、第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うためのものであり、ナビゲーションモデルは深層強化学習トレーニングにより取得される。
意思決定確定モジュールはさらに、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定するためのものであり。行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含む。
深層強化学習は深層ニューラルネットワークにより行為意思決定を予測し、そのうち、データ層及びネットワーク層を含む。入力はシーン画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ、走行可能なエリアビュー、目標方位及び前時刻報酬を含み、出力は行為意思決定及び状態価値を含む。本公開実施形態において、シーン画像、シーン解析図、シーン深度マップを一つの5チャネル画像(R/G/B/L/D)用画像分類畳み込みネットワークにカスケード接続し、特徴抽出を行い、一つの1*4096次元の特徴を出力する。レーザポイントクラウドデータは一つの5チャネルデータ(X/Y/Z/I/L)の点集合であり、ポイントクラウド分類畳み込みネットワークにより特徴を抽出し、一つの1*256の特徴を出力する。走行可能なエリアビューは一つの1チャネル画像であり、同様に、画像分類畳み込みネットワークにより特徴を抽出し、一つの1*256の特徴を出力する。次に、畳み込み特徴、目標方位及び前時刻報酬をカスケード接続し、第一層リカレントニューラルネットワークLSTMにインポートし、さらにリカレントニューラルネットワークの出力1*256特徴及び前時刻行為1*4をカスケード接続し、第二層リカレントニューラルネットワークLSTMにインポートし、最終的に一つの256次元の特徴を取得する。各行為意思決定及び行為価値に対して独立して予測を行うために、全結合型ネットワークにより、この5つの部分(走行速度、回転角速度、走行方向、回転方向及び行為価値)に対して独立して予測を行う。また、多指標を組み合わせて報酬ルールを行い、そのうち、目的地基準到達、段階的基準到達、走行可能エリア拘束走行時間、走行距離、交通違反及び安定運転判定を含む。
本公開実施形態は、深層強化学習に基づくトポロジーマップにおける街頭風景インテリジェントナビゲーション方法を提供する。まず、車両走行前に、トポロジーマップに基づき、ルートプランニングを完成させて走行可能なルートを取得できる。車両走行中、当該トポロジーマップ及び特定した走行可能なルートに基づき、GPS信号により、車両に対して概略的に位置決めして、走行可能なエリアを取得し、その後、深層ニューラルネットワークにより局部緻密ナビゲーションを行うことができる。地図なし方式に比べ、本公開実施形態は、GPS拘束下でリアルタイムナビゲーションの正確性を高めることができ、且つナビゲーションモデルの多指標により、本公開実施形態は、完全にGPSに依存することなくナビゲーションのロバスト性を高めることができる。
局部緻密ナビゲーションにおいて、本公開実施形態は新しい深層ニューラルネットワークを提供することにより、車両の意思決定を制御し、そして行為、状態及び報酬の三方面から機能改善を行う。そのうち、行為(action)は離散空間における走行速度、偏向角速度、走行方向及び偏向方向であり、これは、車両の意思決定制御をよりリアルにシミュレーションする。状態(state)データソースはシーンのビデオ画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ及び走行可能なエリアビューを含み、マルチデータソースによりナビゲーションエンジンのシーン適応力を高めることができる。多指標拘束において行為報酬(rewards)を定義し、そのうち、走行時間、走行距離、交通違反状況及び段階的基準到達等を含み、報酬に重み付けることにより異なる指標における自適応ナビゲーションを実現する。以上をまとめ、本公開実施形態は比較的少ない代価により、ロバスト性を高め、提供される深層ニューラルネットワーク及び意思決定もより一層リアルな運転に近づく。
図9は本公開実施形態を応用できるトポロジーマップに基づくインテリジェントナビゲーションの方法又はトポロジーマップに基づくインテリジェントナビゲーションのシステム的例示的システムアーキテクチャ900を示す。
図9に示されるように、システムアーキテクチャ900は、端末装置901、902、903、ネットワーク904及びサーバ905を含むことができる。ネットワーク904は端末装置901、902、903及びサーバ905の間に通信リンクを提供する媒体として用いられる。ネットワーク904は各種の接続タイプ、例えば有線、無線通信リンクまたは光ファイバーケーブル等を含むことができる。
ユーザは、端末装置901、902、903を利用してネットワーク904によりサーバ905とインタラクティブして、情報等を受信又は送信できる。端末装置901、902、903に各種通信クライアント端末アプリケーションをインストールでき、例えばショッピング系アプリケーション、ウェブブラウザアプリケーション、検索系アプリケーション、インスタントメッセージツール、メールボックスクライアント端末、ソーシャルプラットフォームソフトウエア等(一部の例として)をインストールできる。
端末装置901、902、903は表示モニターを備え、且つウェブブラウザをサポートする各種電子機器とすることができ、スマートフォン、タブレットPC、ラップトップコンピュータ及びデスクトップコンピュータ等を含むが、これらに限られない。
サーバ905は各種サービスを提供するサーバとすることができ、例えばユーザ利用端末装置901、902、903で閲覧するショッピング系ウェブサイトに対してサポートを提供するバックグラウンド管理サーバ(一部の例として)とすることができる。バックグラウンド管理サーバは、受信した製品情報調査要求等のデータに対して分析等の処理を行い、処理結果を端末装置にフィードバックできる。
説明すべきは、本公開実施形態で提供するトポロジーマップに基づくインテリジェントナビゲーションの方法は一般的にサーバ905により実行され、これに対応して、トポロジーマップに基づくインテリジェントナビゲーションのシステムは一般的にサーバ905に設けられる。
図9における端末装置、ネットワーク及びサーバの数は単なる概略的なものであり、実現要求に基づき、任意の数の端末装置、ネットワーク及びサーバを有することができる、と理解されるべきである。
以下、図10を参照し、これは本公開実施形態の端末装置を実現するために適用されるコンピュータシステム1000の構造概略図を示すものである。図10に示される端末装置は単に一つの例にすぎず、本公開実施形態の機能及び使用範囲に対して如何なる限定も加えるものではない。
図10に示されるように、コンピュータシステム1000は中央処理ユニット(CPU)1001を含み、これはリードオンリーメモリ(ROM)1002に記憶されたプログラムまたは記憶部分1008からランダムアクセスメモリ(RAM)1003にロードされたプログラムに基づき、各種適切な動作及び処理を実行することができる。RAM 1003にはさらに、システム1000の操作に必要な各種プログラム及びデータが記憶される。CPU 1001、ROM 1002およびRAM 1003はバス1004により互いに接続される。入力/出力(I/O)インタフェース1005もバス1004に接続される。
キーボード、マウス等を含む入力部分1006と、例えば陰極線管(CRT)、液晶ディスプレイ(LCD)等およびスピーカ等を含む出力部分1007と、ハードディスク等を含む記憶部分1008と、例えばLANカード、モデム等のネットワークインタフェースカードを含む通信部分1009がI/Oインタフェース1005に接続される。通信部分1009は例えばインターネットのネットワークを介して通信処理を実行する。ドライバ1010も必要に基づきI/Oインタフェース1005に接続される。リムーバブルメディア1011、例えば磁気ディスク、光ディスク、磁気光ディスク、半導体メモリ等は、そこから読み出されたコンピュータプログラムが必要に基づき記憶部分1008にインストールされるように、必要に基づきドライバ1010にインストールされる。
特に、本公開で開示される実施形態に基づき、上文の参考フローチャートの説明過程はコンピュータソフトウエアプログラムとして実現される。例えば、本公開で開示される実施形態は、コンピュータプログラム製品を含み、これはコンピュータ読み取り可能な媒体にロードされたコンピュータプログラムを含み、当該コンピュータプログラムはフローチャートに示される方法を実行するためのプログラムコードを含む。このような実施形態において、当該コンピュータプログラムは通信部分1009によりネットワークからダウンロード及びインストールされる、及び/又はリムーバブルメディア1011がインストールされることができる。当該コンピュータプログラムが中央処理ユニット(CPU)1001により実行される時、本公開のシステムで限定される上記機能が実行される。
説明すべきは、本公開に示されるコンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体またはコンピュータ読み取り可能な記憶媒体または上記両者の任意の組み合わせとすることができる。コンピュータ読み取り可能な記憶媒体は例えば、電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、または以上の任意の組み合わせとすることができるが、これらに限られない。コンピュータ読み取り可能な記憶媒体のより具体的な例としては、一つの又は複数の導線を有する電気接続、ポータブルコンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、書き換え可能なリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクト磁気ディスクリードオンリーメモリ(CD-ROM)、光記憶装置、磁気記憶装置、または上記の任意の適切な組み合わせを含むことができるが、これらに限られない。本公開において、コンピュータ読み取り可能な記憶媒体は、プログラムを含む又は記憶する如何なる有形媒体とすることができ、当該プログラムはコマンド実行システム、装置またはデバイスにより使用される、またはそれと組み合わせて使用することができる。また、本公開において、コンピュータ読み取り可能な信号媒体は、ベースバンドに、または搬送波の一部分として伝播するデータ信号に含まれることができ、その中にコンピュータ読み取り可能なプログラムコードをロードできる。この種の伝播するデータ信号は複数種類の形式を採用することができ、電磁気信号、光信号又は上記の任意の適切な組み合わせを含むことができるが、これらに限られない。コンピュータ読み取り可能な信号媒体はさらに、コンピュータ読み取り可能な記憶媒体以外の如何なるコンピュータ読み取り可能な媒体を含むことができ、当該コンピュータ読み取り可能な媒体は、コマンド実行システム、装置またはデバイスにより使用されるための、またはそれと組み合わせて使用されるためのプログラムを送信、伝播または伝送することができる。コンピュータ読み取り可能な媒体に含まれるプログラムコードは如何なる適切な媒体により伝送することができ、無線、電線、光ケーブル、RFなど、または上記の任意の適切な組み合わせを含むが、これらに限られない。
図面におけるフローチャート及びブロック図は、本公開の各種実施形態のシステム、方法及びコンピュータプログラム製品に基づき実現可能なアーキテクチャ、機能及び操作を示す。この点において、フローチャート又はブロック図中の各ブロックは一つのモジュール、プログラムセクション、又はコードの一部分を表すことができ、上記モジュール、プログラムセクション、又はコードの一部分は一つの又は複数の、所定の論理機能を実現するための実行可能なコマンドを含む。また、注意すべきは、一部の代替的な実現様態において、ブロックに注記される機能は図面の注記と異なる順番で生じてもよい。例えば、2つの連続して表示されるブロックは実際、基本的に並行して実行することができ、場合によっては反対の順番で実行してもよく、これは関連する機能に基づいて定めることができる。また、注意すべきは、ブロック図又はフローチャート中の各ブロック、およびブロック図又はフローチャート中のブロックの組み合わせは、所定の機能又は操作を実行するための専用の、ハードウエアに基づくシステムにより実現されることができ、または専用ハードウエアとコンピュータコマンドの組み合わせにより実現されることもできる。
本公開実施形態で説明された関連のモジュールは、ソフトウエアにより実現することも、ハードウエアにより実現することもできる。説明したモジュールは、プロセッサに設けることもでき、例えば、プロセッサは、走行可能なエリアビュー取得特定モジュール、シーンデータ取得モジュール及び意思決定特定モジュールを含むと記載することができる。そのうち、これらモジュールの名称はある場合において、当該モジュール自身に対する限定にはならず、例えば、走行可能なエリアビュー特定モジュールは“構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するモジュール”と記載されてもよい。
別の方面として、本公開はさらに、コンピュータ読み取り可能な媒体を提供し、当該コンピュータ読み取り可能な媒体は、上記実施形態において説明される設備に含まれるものとすることも、単独で存在して当該設備に取り付けられていないものとすることもできる。上記コンピュータ読み取り可能な媒体には、一つのまたは複数のプログラムがロードされ、上記一つのまたは複数のプログラムが一つの当該設備により実行される時、当該設備は、構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定し、少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得し、走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定する、ことを含む。
本公開実施形態は、深層強化学習に基づくトポロジーマップにおける街頭風景インテリジェントナビゲーション方法を提供する。まず、車両走行前に、トポロジーマップに基づき、ルートプランニングを完成させて走行可能なルートを取得できる。車両走行中、当該トポロジーマップ及び特定した走行可能なルートに基づき、GPS信号により、車両に対して概略的に位置決めして、走行可能なエリアを取得し、その後、深層ニューラルネットワークにより局部緻密ナビゲーションを行うことができる。地図なし方式に比べ、本公開実施形態は、GPS拘束下でリアルタイムナビゲーションの正確性を高めることができ、且つナビゲーションモデルの多指標により、本公開実施形態は、完全にGPSに依存せずにナビゲーションのロバスト性を高めることができる。
局部緻密ナビゲーションにおいて、本公開実施形態は新しい深層ニューラルネットワークを提供することにより、車両意思決定を制御し、そして行為、状態及び報酬の三方面から機能改善を行う。そのうち、行為(action)は離散空間における走行速度、偏向角速度、走行方向及び偏向方向であり、これは、車両の意思決定制御をよりリアルにシミュレーションする。状態(state)データソースはシーンのビデオ画像、シーン解析図、シーン深度マップ、レーザポイントクラウドデータ及び走行可能なエリアビューを含み、マルチデータソースによりナビゲーションエンジンのシーン適応力を高めることができる。多指標拘束において行為報酬(rewards)を定義し、そのうち、走行時間、走行距離、交通違反状況及び段階的基準到達等を含み、報酬に重み付けすることにより異なる指標における自適応ナビゲーションを実現する。以上をまとめ、本公開実施形態は比較的少ない代価により、ロバスト性を高め、提供される深層ニューラルネットワーク及び意思決定も、より一層リアルな運転に近づく。
上記発明を実施するための形態は本公開の保護範囲に対して限定するものではない。設計要求及び他の要素によって決まり、各種様々な修正、組み合わせ、サブの組み合わせ及び替代案を有することができることは当業者にとって明らかである。本公開の精神及び原則のもとに行われる如何なる修正、均等の差し替え及び改良等はいずれも本公開の保護範囲内に含まれると理解される。

Claims (14)

  1. プロセッサを含むコンピュータが、
    構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定することと
    少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得することであって、前記シーン画像は、カメラにより取得された画像であり、前記シーン深度マップは、前記シーン画像の深度解析により取得された各画素の相対深さを含み、前記シーン解析図は、前記シーン画像の意味解析により取得された各画素が属するものを示す情報を含む、取得することと
    前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定することと
    を含み、
    前記行為意思決定を特定するステップは、
    画像分類畳み込みネットワークにより、前記エリアビュー及び前記シーンデータを含むサンプルデータに対して特徴抽出を行い、
    抽出した特徴、目標位置及び現時刻の前の時刻における行為に対して取得された報酬である前時刻報酬を第一層リカレントニューラルネットワークにインポートし、
    前記第一層リカレントニューラルネットワークの出力と現時刻の前の時刻における行為である前時刻行為を、第二層リカレントニューラルネットワークにインポートし、
    前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うこと、を含む、
    ことを特徴とするトポロジーマップに基づくインテリジェントナビゲーションの方法。
  2. 構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するステップは、前記コンピュータが、
    プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、
    前記トポロジーマップにおいて現在地情報から範囲画像を特定し、
    走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークすることを含む、
    ことを特徴とする請求項1に記載の方法。
  3. シーンデータを取得するステップは、前記コンピュータが、
    車載カメラによりシーン画像をリアルタイムに採集し、
    シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、
    シーン解析図を得られるように、前記シーン画像を意味解析することを含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記シーンデータはさらにレーザポイントクラウドデータを含み、
    前記シーンデータを取得するステップはさらに、前記コンピュータが、
    車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、
    レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うことを含む、
    ことを特徴とする請求項3に記載の方法。
  5. 前記ナビゲーションモデルは深層強化学習トレーニングにより取得される、
    ことを特徴とする請求項1に記載の方法。
  6. 前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含み、
    全結合型ネットワークにより行為意思決定に対して予測を行うステップは、前記コンピュータが、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定することを含む、
    ことを特徴とする請求項5に記載の方法。
  7. 構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するための走行可能なエリアビュー特定モジュールと、
    少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得するためのシーンデータ取得モジュールであって、前記シーン画像は、カメラにより取得された画像であり、前記シーン深度マップは、前記シーン画像の深度解析により取得された各画素の相対深さを含み、前記シーン解析図は、前記シーン画像の意味解析により取得された各画素が属するものを示す情報を含む、シーンデータ取得モジュールと、
    前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するための意思決定確定モジュールと、を含み、
    前記意思決定確定モジュールはさらに、画像分類畳み込みネットワークにより前記エリアビュー及び前記シーンデータを含むサンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び現時刻の前の時刻における行為に対して取得された報酬である前時刻報酬を第一層リカレントニューラルネットワークにインポートし、前記第一層リカレントニューラルネットワークの出力と現時刻の前の時刻における行為である前時刻行為を、第二層リカレントニューラルネットワークにインポートし、前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うためのものである、
    ことを特徴とするトポロジーマップに基づくインテリジェントナビゲーションのシステム。
  8. 前記走行可能なエリアビュー特定モジュールはさらに、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、前記トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークするためのものである、
    ことを特徴とする請求項7に記載のシステム。
  9. 前記シーンデータ取得モジュールはさらに、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、シーン解析図を得られるように、前記シーン画像を意味解析するためのものである、
    ことを特徴とする請求項7に記載のシステム。
  10. 前記シーンデータ取得モジュールはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うためのものであり、
    前記シーンデータはさらにレーザポイントクラウドデータを含む、
    ことを特徴とする請求項9に記載のシステム。
  11. 前記ナビゲーションモデルは深層強化学習トレーニングにより取得される、
    ことを特徴とする請求項7に記載のシステム。
  12. 前記意思決定確定モジュールはさらに、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定するためのものであり、
    前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含む、
    ことを特徴とする請求項11に記載のシステム。
  13. 一つの又は複数のプロセッサと、
    一つの又は複数のプログラムを記憶するための記憶装置と
    を含み、
    前記一つの又は複数のプログラムが前記一つの又は複数のプロセッサにより実行されるとき、前記一つの又は複数のプロセッサが請求項1~6のいずれか一項に記載の方法を実現する、
    ことを特徴とする電子機器。
  14. プロセッサにより実行される時に請求項1~6のいずれか一項に記載の方法を実現することを特徴とするコンピュータプログラムが記憶されたコンピュータ読み取り可能な媒体。

JP2021502925A 2018-08-17 2019-08-09 トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム Active JP7351487B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810942528.9 2018-08-17
CN201810942528.9A CN110376594B (zh) 2018-08-17 2018-08-17 一种基于拓扑图的智能导航的方法和系统
PCT/CN2019/099972 WO2020034903A1 (zh) 2018-08-17 2019-08-09 一种基于拓扑图的智能导航的方法和系统

Publications (2)

Publication Number Publication Date
JP2021531462A JP2021531462A (ja) 2021-11-18
JP7351487B2 true JP7351487B2 (ja) 2023-09-27

Family

ID=68243888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502925A Active JP7351487B2 (ja) 2018-08-17 2019-08-09 トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム

Country Status (4)

Country Link
US (1) US20210302585A1 (ja)
JP (1) JP7351487B2 (ja)
CN (1) CN110376594B (ja)
WO (1) WO2020034903A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111141300A (zh) * 2019-12-18 2020-05-12 南京理工大学 基于深度强化学习的智能移动平台无地图自主导航方法
CN113705272A (zh) * 2020-05-20 2021-11-26 华为技术有限公司 可行驶区域检测方法、装置、设备及存储介质
US20210396522A1 (en) * 2020-06-17 2021-12-23 Microsoft Technology Licensing, Llc Pedestrian dead reckoning using map constraining features
CN111537980B (zh) * 2020-07-08 2020-11-27 深圳市速腾聚创科技有限公司 激光雷达参数调整方法、装置及激光雷达
CN112611383B (zh) * 2020-11-30 2024-03-26 吉林建筑大学 视力障碍者的参观路线导航方法及装置
CN112484733B (zh) * 2020-12-04 2022-10-25 东南大学 一种基于拓扑图的强化学习室内导航方法
CN112828883B (zh) * 2020-12-25 2022-07-01 香港中文大学深圳研究院 一种未知环境下的机器人环境探索方法及系统
CN112818243B (zh) * 2021-02-23 2024-04-30 北京梧桐车联科技有限责任公司 导航路线的推荐方法、装置、设备及存储介质
CN113284240B (zh) * 2021-06-18 2022-05-31 深圳市商汤科技有限公司 地图构建方法及装置、电子设备和存储介质
CN113724384A (zh) * 2021-07-30 2021-11-30 深圳市普渡科技有限公司 机器人拓扑地图生成系统、方法、计算机设备及存储介质
CN113723882A (zh) * 2021-08-26 2021-11-30 拉扎斯网络科技(上海)有限公司 中继柜选址方法、订单配送方法、装置及电子设备
CN113743794B (zh) * 2021-09-07 2023-10-27 浙江柯工智能系统有限公司 一种基于agv的智能工厂管理系统
CN114283343B (zh) * 2021-12-20 2023-09-26 北京百度网讯科技有限公司 基于遥感卫星图像的地图更新方法、训练方法和设备
CN114245346A (zh) * 2021-12-23 2022-03-25 云控智行科技有限公司 一种基于云控平台的分布式协同决策方法、装置以及设备
CN114396949B (zh) * 2022-01-18 2023-11-10 重庆邮电大学 一种基于ddpg的移动机器人无先验地图导航决策方法
CN114526738B (zh) * 2022-01-25 2023-06-16 中国科学院深圳先进技术研究院 一种基于深度强化学习的移动机器人视觉导航方法及装置
CN114201997B (zh) * 2022-02-17 2022-06-14 深圳依时货拉拉科技有限公司 路口转向识别方法、装置、设备及存储介质
CN114511682B (zh) * 2022-04-19 2022-07-15 清华大学 一种基于激光雷达的三维场景重建方法、装置及电子设备
CN115048015B (zh) * 2022-05-27 2023-09-05 北京宾理信息科技有限公司 基于高精地图的自动驾驶仿真场景搭建方法和系统
CN115617034B (zh) * 2022-09-01 2024-06-14 清华大学 多智能体的环境探索方法、装置、电子设备及存储介质
CN115164906B (zh) * 2022-09-02 2022-11-15 深圳鹏行智能研究有限公司 定位方法、机器人和计算机可读存储介质
CN116499471B (zh) * 2023-06-30 2023-09-12 华南理工大学 一种基于开放场景地图的视觉语言导航方法、装置及介质
CN116562172B (zh) * 2023-07-07 2023-09-15 中国人民解放军国防科技大学 面向时空叙事的地理场景时间推演方法、装置和设备
CN117948976B (zh) * 2024-01-04 2024-09-06 中山大学·深圳 一种基于图采样与聚合的无人平台导航方法
CN118533182B (zh) * 2024-07-25 2024-09-17 山东鸿泽自动化技术有限公司 一种搬运机器人视觉智能导航方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018024286A (ja) 2016-08-08 2018-02-15 日立オートモティブシステムズ株式会社 自動運転装置
JP2018067234A (ja) 2016-10-21 2018-04-26 株式会社創発システム研究所 自動車自動運転支援システム。
JP2018112989A (ja) 2017-01-13 2018-07-19 本田技研工業株式会社 運転補助装置及び運転補助方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5803392B2 (ja) * 2011-08-01 2015-11-04 株式会社豊田中央研究所 自律移動装置
CN105313782B (zh) * 2014-07-28 2018-01-23 现代摩比斯株式会社 车辆行驶辅助系统及其方法
CN104570771A (zh) * 2015-01-06 2015-04-29 哈尔滨理工大学 基于场景-拓扑的自主定位方法的巡检机器人
CN104898660B (zh) * 2015-03-27 2017-10-03 中国科学技术大学 一种提高机器人路径规划效率的室内地图构建方法
CN104834308A (zh) * 2015-04-10 2015-08-12 浙江工业大学 满足复杂需求的最优巡回控制方法
US10137896B2 (en) * 2016-12-30 2018-11-27 Baidu Usa Llc Method and system for operating autonomous driving vehicles using graph-based lane change guide
US10545029B2 (en) * 2016-12-30 2020-01-28 DeepMap Inc. Lane network construction using high definition maps for autonomous vehicles
US20180202810A1 (en) * 2017-01-17 2018-07-19 International Business Machines Corporation Navigation using an image of a topological map
CN107226087B (zh) * 2017-05-26 2019-03-26 西安电子科技大学 一种结构化道路自动驾驶运输车及控制方法
CN107179082B (zh) * 2017-07-07 2020-06-12 上海阅面网络科技有限公司 基于拓扑地图和度量地图融合的自主探索方法和导航方法
CN107609602A (zh) * 2017-09-28 2018-01-19 吉林大学 一种基于卷积神经网络的驾驶场景分类方法
CN108196535B (zh) * 2017-12-12 2021-09-07 清华大学苏州汽车研究院(吴江) 基于增强学习和多传感器融合的自动驾驶系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018024286A (ja) 2016-08-08 2018-02-15 日立オートモティブシステムズ株式会社 自動運転装置
JP2018067234A (ja) 2016-10-21 2018-04-26 株式会社創発システム研究所 自動車自動運転支援システム。
JP2018112989A (ja) 2017-01-13 2018-07-19 本田技研工業株式会社 運転補助装置及び運転補助方法

Also Published As

Publication number Publication date
WO2020034903A1 (zh) 2020-02-20
JP2021531462A (ja) 2021-11-18
CN110376594A (zh) 2019-10-25
US20210302585A1 (en) 2021-09-30
CN110376594B (zh) 2022-02-01

Similar Documents

Publication Publication Date Title
JP7351487B2 (ja) トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム
CN109520744B (zh) 自动驾驶车辆的驾驶性能测试方法和装置
US20190004517A1 (en) Method and apparatus for generating automatic driving strategy
CN110796856B (zh) 车辆变道意图预测方法及变道意图预测网络的训练方法
CN109598066B (zh) 预测模块的效果评估方法、装置、设备和存储介质
CN108216229B (zh) 交通工具、道路线检测和驾驶控制方法及装置
CN113642633B (zh) 用于对驾驶场景数据进行分类的方法、装置、设备和介质
CN110562258B (zh) 一种车辆自动换道决策的方法、车载设备和存储介质
CN110782120B (zh) 一种交通流模型的评测方法、系统、设备及介质
KR102539942B1 (ko) 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN110325935A (zh) 用于自动驾驶车辆的路径规划的基于驾驶场景的车道引导线
JP2021157833A (ja) 道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム製品
CN113743469B (zh) 一种融合多源数据及综合多维指标的自动驾驶决策方法
CN104875740B (zh) 用于管理跟随空间的方法、主车辆以及跟随空间管理单元
CN115540896A (zh) 路径规划方法、装置、电子设备和计算机可读介质
CN112249009B (zh) 车速控制方法、装置、系统及电子设备
CN114120650B (zh) 用于生成测试结果的方法、装置
WO2021237768A1 (zh) 一种基于数据驱动的实现预测模型自动化迭代的系统
CN112883236B (zh) 一种地图更新方法、装置、电子设备及存储介质
CN114518122A (zh) 行车导航方法、装置、计算机设备、存储介质和计算机程序产品
CN116261649A (zh) 一种车辆行驶意图预测方法、装置、终端及存储介质
CN115285148B (zh) 自动驾驶车速规划方法、装置、电子设备和存储介质
KR20210151716A (ko) 차량 네비게이션을 위한 방법, 장치, 기기, 시스템 및 클라우드 제어 플랫폼
WO2023088486A1 (zh) 车道线提取方法、装置、车辆及存储介质
CN114596704A (zh) 交通事件处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210119

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20210120

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7351487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150