JP7351487B2 - トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム - Google Patents
トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム Download PDFInfo
- Publication number
- JP7351487B2 JP7351487B2 JP2021502925A JP2021502925A JP7351487B2 JP 7351487 B2 JP7351487 B2 JP 7351487B2 JP 2021502925 A JP2021502925 A JP 2021502925A JP 2021502925 A JP2021502925 A JP 2021502925A JP 7351487 B2 JP7351487 B2 JP 7351487B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- image
- decision
- action
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 62
- 230000009471 action Effects 0.000 claims description 73
- 238000010586 diagram Methods 0.000 claims description 51
- 238000013528 artificial neural network Methods 0.000 claims description 47
- 238000004458 analytical method Methods 0.000 claims description 39
- 230000000306 recurrent effect Effects 0.000 claims description 30
- 230000002787 reinforcement Effects 0.000 claims description 12
- 230000003542 behavioural effect Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 8
- 238000012790 confirmation Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008676 import Effects 0.000 description 7
- 241001143500 Aceraceae Species 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- DGLFSNZWRYADFC-UHFFFAOYSA-N chembl2334586 Chemical group C1CCC2=CN=C(N)N=C2C2=C1NC1=CC=C(C#CC(C)(O)C)C=C12 DGLFSNZWRYADFC-UHFFFAOYSA-N 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- Optics & Photonics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
全結合型ネットワークにより行為意思決定に対して予測を行うステップは、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定することを含む。
少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得するためのシーンデータ取得モジュールと、
前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するための意思決定確定モジュールと、を含む。
ステップS101:構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定する。トポロジーマップはノード及びエッジから構成され、そのうち、ノードはGPS位置であり、エッジは2つのGPS位置で作成される縁である。トポロジーマップは、一系列の核心的GPS地点により作成される走行可能なルートマップであり、その取得方法は低廉であり、高精度マップの作成コストがかからない。具体的に、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、範囲画像内の走行可能なエリアをマークする。
と定義し、但し、θは深層ニューラルネットワークモデルパラメータを意味し、ηtは進行速度(いくつかの部に離散され、例えば240部、1キロメートル/時-->240キロメートル/時)であり、
は偏向角速度(いくつかの部に離散され、例えば90部、1度/秒-->90度/秒)であり、Dtは進行方向{-1:後退、0:停止、1:前進}であり、Ctは偏向方向{-1:左折、0:無ターン、1:右折}である。これに対応して、深層ニューラルネットワークモデルは意思決定行動の各部分に対して独立して予測し、各部分の中の各1部に属する確率を計算することによって、最大確率の行為の組み合わせを選び取る。
1)目的地基準到達:目的地まで走行したら、報酬を与える、例えば報酬1000得点とする。
2)段階的基準到達:走行ルート上で固定距離に基づき一系列の段階的基準到達の位置を設定し、一つ前の基準到達位置から現在の基準到達位置まで走行したら、報酬を与える。例えば、1キロメートル毎に一つの段階的基準到達位置を設定し、一つ前の基準到達位置から当該基準到達位置まで走行したら、報酬200得点とする。
3)走行可能エリア拘束:トポロジーマップに対して一つの走行可能エリアを幅拡張し、車両が走行可能エリアを外れていないか否か、間隔をあけて検出し、外れていないなら、報酬を与え、もし外れていたら懲罰を行う。例えば50メートル毎に一回の検出を行い、走行可能エリアを離れたら、懲罰-1減点とし、もし離れなかったらで、報酬1得点とする。
4)走行時間:一つの予測走行時間を設定し、目的地に到達した時、リアル走行時間を測定し、予測走行時間を超えていたら、懲罰を行い、超えていないなら、報酬を行う。例えば、予測走行時間が100分であり、リアル走行時間が80分だった場合、報酬(100-80)=20得点とし、リアル運行時間が120分だった場合、懲罰(100-120)=-20減点とする。
5)走行距離:一つの予測走行距離を設定し、目的地に到達した時、リアル走行距離を測定し、予測走行距離を超えていたら、懲罰を行い、もし超えていないなら報酬を行う。例えば、予測走行距離が60キロメートルであり、リアル走行距離が40キロメートルであった場合、報酬(60-40)=20得点とし、リアル走行距離が80キロメートルであった場合、懲罰(60-80)=-20減点とする。
6)交通違反賞罰:
a)衝突発生:外的物体と衝突したら、懲罰を行い、そのうち外的物体として、歩行者、車両、樹木、縁石等を含むが、これらに限られない、例えば懲罰-1000減点とする。
b)交通信号機賞罰:交通信号機にあたった場合、信号遵守行為には報酬を行い、信号違反行為には懲罰を行う。例えば、赤信号を無視したら懲罰-500減点とし、赤信号で停止したら報酬200得点とする。
c)前方車両との距離:一つの前方車両との最小距離を設定し、一定時間をあけてリアルな前方車両との距離を検出し、当該距離閾値未満であれば、懲罰を行う。例えば、前方車両との最小距離を10メートルと設定し、1分毎に1回、前方車両との距離を検出し、検出された距離が10メートル未満の場合、懲罰-5減点とする。
d)速度超過の賞罰:現在の道路区間の速度閾値に基づき、一定時間をあけて走行速度を検出し、当該速度閾値を超えていたら、懲罰を行う。例えば、現在の道路区間の速度閾値が60キロメートル/時であり、1分毎に1回、車両速度を検出し、検出された車速が60キロメートル/時を超えていたら、懲罰-5減点とする。
7)安定運転賞罰:2つの加速度及び角度加速度閾値を設定し、一定時間をあけて車両の加速度及び角度加速度を検出し、当該閾値を超えていたら懲罰を行う。例えば、安定加速度閾値を5メートル/秒^2に設定し、角加速度閾値を2度/秒^2に設定し、10分毎に1回、車両加速度及び角加速度を検出し、閾値を超えていたら、懲罰-1減点とし、もし超えていないなら、報酬1得点とする。
同時に、上記賞罰状況に対して一つの重み付け値を設定することができ、最後に累計された賞罰はこれら賞罰の重み付けの和であるため、異なる重み付け値を設定することにより、ある指標に偏ったナビゲーション結果をトレーニングすることができる。例えば、走行時間の重み付け値を大きくすると、トレーニングされたインテリジェントナビゲーション方法は比較的早い速度で目的地に到達させる。
Claims (14)
- プロセッサを含むコンピュータが、
構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定することと、
少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得することであって、前記シーン画像は、カメラにより取得された画像であり、前記シーン深度マップは、前記シーン画像の深度解析により取得された各画素の相対深さを含み、前記シーン解析図は、前記シーン画像の意味解析により取得された各画素が属するものを示す情報を含む、取得することと、
前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定することと、
を含み、
前記行為意思決定を特定するステップは、
画像分類畳み込みネットワークにより、前記エリアビュー及び前記シーンデータを含むサンプルデータに対して特徴抽出を行い、
抽出した特徴、目標位置及び現時刻の前の時刻における行為に対して取得された報酬である前時刻報酬を第一層リカレントニューラルネットワークにインポートし、
前記第一層リカレントニューラルネットワークの出力と現時刻の前の時刻における行為である前時刻行為とを、第二層リカレントニューラルネットワークにインポートし、
前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うこと、を含む、
ことを特徴とするトポロジーマップに基づくインテリジェントナビゲーションの方法。 - 構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するステップは、前記コンピュータが、
プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、
前記トポロジーマップにおいて現在地情報から範囲画像を特定し、
走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークすることを含む、
ことを特徴とする請求項1に記載の方法。 - シーンデータを取得するステップは、前記コンピュータが、
車載カメラによりシーン画像をリアルタイムに採集し、
シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、
シーン解析図を得られるように、前記シーン画像を意味解析することを含む、
ことを特徴とする請求項1に記載の方法。 - 前記シーンデータはさらにレーザポイントクラウドデータを含み、
前記シーンデータを取得するステップはさらに、前記コンピュータが、
車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、
レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うことを含む、
ことを特徴とする請求項3に記載の方法。 - 前記ナビゲーションモデルは深層強化学習トレーニングにより取得される、
ことを特徴とする請求項1に記載の方法。 - 前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含み、
全結合型ネットワークにより行為意思決定に対して予測を行うステップは、前記コンピュータが、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定することを含む、
ことを特徴とする請求項5に記載の方法。 - 構築されたトポロジーマップに基づき、現在地情報から走行可能なエリアビューを特定するための走行可能なエリアビュー特定モジュールと、
少なくともシーン画像、シーン深度マップ及びシーン解析図を含むシーンデータを取得するためのシーンデータ取得モジュールであって、前記シーン画像は、カメラにより取得された画像であり、前記シーン深度マップは、前記シーン画像の深度解析により取得された各画素の相対深さを含み、前記シーン解析図は、前記シーン画像の意味解析により取得された各画素が属するものを示す情報を含む、シーンデータ取得モジュールと、
前記走行可能なエリアビュー、シーンデータ及びナビゲーションモデルに基づき、行為意思決定を特定するための意思決定確定モジュールと、を含み、
前記意思決定確定モジュールはさらに、画像分類畳み込みネットワークにより前記エリアビュー及び前記シーンデータを含むサンプルデータに対して特徴抽出を行い、抽出した特徴、目標位置及び現時刻の前の時刻における行為に対して取得された報酬である前時刻報酬を第一層リカレントニューラルネットワークにインポートし、前記第一層リカレントニューラルネットワークの出力と現時刻の前の時刻における行為である前時刻行為とを、第二層リカレントニューラルネットワークにインポートし、前記第二層リカレントニューラルネットワークの出力に基づき、全結合型ネットワークにより行為意思決定に対して予測を行うためのものである、
ことを特徴とするトポロジーマップに基づくインテリジェントナビゲーションのシステム。 - 前記走行可能なエリアビュー特定モジュールはさらに、プリセットされた幅拡張ルールにより、走行可能なエリアを得られるように、トポロジーマップにおいて走行軌跡点を中心として幅拡張を行い、前記トポロジーマップにおいて現在地情報から範囲画像を特定し、走行可能なエリアビューを得られるように、前記範囲画像内の走行可能なエリアをマークするためのものである、
ことを特徴とする請求項7に記載のシステム。 - 前記シーンデータ取得モジュールはさらに、車載カメラによりシーン画像をリアルタイムに採集し、シーン深度マップを得られるように、前記シーン画像のシーン深度を解析し、シーン解析図を得られるように、前記シーン画像を意味解析するためのものである、
ことを特徴とする請求項7に記載のシステム。 - 前記シーンデータ取得モジュールはさらに、車載レーザーレーダーによりレーザーレーダーポイントをリアルタイムに採集し、レーザポイントクラウドデータを得られるように、前記レーザーレーダーポイントに対して正規化処理を行うためのものであり、
前記シーンデータはさらにレーザポイントクラウドデータを含む、
ことを特徴とする請求項9に記載のシステム。 - 前記ナビゲーションモデルは深層強化学習トレーニングにより取得される、
ことを特徴とする請求項7に記載のシステム。 - 前記意思決定確定モジュールはさらに、行為意思決定の走行速度、偏向角速度、走行方向及び偏向方向に対してそれぞれ予測を行い、対応の予測確率を取得し、予測確率が最大である行為の組み合わせを、予測された行為意思決定として特定するためのものであり、
前記行為意思決定は少なくとも走行速度、偏向角速度、走行方向及び偏向方向を含む、
ことを特徴とする請求項11に記載のシステム。 - 一つの又は複数のプロセッサと、
一つの又は複数のプログラムを記憶するための記憶装置と
を含み、
前記一つの又は複数のプログラムが前記一つの又は複数のプロセッサにより実行されるとき、前記一つの又は複数のプロセッサが請求項1~6のいずれか一項に記載の方法を実現する、
ことを特徴とする電子機器。 - プロセッサにより実行される時に請求項1~6のいずれか一項に記載の方法を実現することを特徴とするコンピュータプログラムが記憶されたコンピュータ読み取り可能な媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810942528.9 | 2018-08-17 | ||
CN201810942528.9A CN110376594B (zh) | 2018-08-17 | 2018-08-17 | 一种基于拓扑图的智能导航的方法和系统 |
PCT/CN2019/099972 WO2020034903A1 (zh) | 2018-08-17 | 2019-08-09 | 一种基于拓扑图的智能导航的方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021531462A JP2021531462A (ja) | 2021-11-18 |
JP7351487B2 true JP7351487B2 (ja) | 2023-09-27 |
Family
ID=68243888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021502925A Active JP7351487B2 (ja) | 2018-08-17 | 2019-08-09 | トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210302585A1 (ja) |
JP (1) | JP7351487B2 (ja) |
CN (1) | CN110376594B (ja) |
WO (1) | WO2020034903A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111141300A (zh) * | 2019-12-18 | 2020-05-12 | 南京理工大学 | 基于深度强化学习的智能移动平台无地图自主导航方法 |
CN113705272A (zh) * | 2020-05-20 | 2021-11-26 | 华为技术有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
US20210396522A1 (en) * | 2020-06-17 | 2021-12-23 | Microsoft Technology Licensing, Llc | Pedestrian dead reckoning using map constraining features |
CN111537980B (zh) * | 2020-07-08 | 2020-11-27 | 深圳市速腾聚创科技有限公司 | 激光雷达参数调整方法、装置及激光雷达 |
CN112611383B (zh) * | 2020-11-30 | 2024-03-26 | 吉林建筑大学 | 视力障碍者的参观路线导航方法及装置 |
CN112484733B (zh) * | 2020-12-04 | 2022-10-25 | 东南大学 | 一种基于拓扑图的强化学习室内导航方法 |
CN112828883B (zh) * | 2020-12-25 | 2022-07-01 | 香港中文大学深圳研究院 | 一种未知环境下的机器人环境探索方法及系统 |
CN112818243B (zh) * | 2021-02-23 | 2024-04-30 | 北京梧桐车联科技有限责任公司 | 导航路线的推荐方法、装置、设备及存储介质 |
CN113284240B (zh) * | 2021-06-18 | 2022-05-31 | 深圳市商汤科技有限公司 | 地图构建方法及装置、电子设备和存储介质 |
CN113724384A (zh) * | 2021-07-30 | 2021-11-30 | 深圳市普渡科技有限公司 | 机器人拓扑地图生成系统、方法、计算机设备及存储介质 |
CN113723882A (zh) * | 2021-08-26 | 2021-11-30 | 拉扎斯网络科技(上海)有限公司 | 中继柜选址方法、订单配送方法、装置及电子设备 |
CN113743794B (zh) * | 2021-09-07 | 2023-10-27 | 浙江柯工智能系统有限公司 | 一种基于agv的智能工厂管理系统 |
CN114283343B (zh) * | 2021-12-20 | 2023-09-26 | 北京百度网讯科技有限公司 | 基于遥感卫星图像的地图更新方法、训练方法和设备 |
CN114245346A (zh) * | 2021-12-23 | 2022-03-25 | 云控智行科技有限公司 | 一种基于云控平台的分布式协同决策方法、装置以及设备 |
CN114396949B (zh) * | 2022-01-18 | 2023-11-10 | 重庆邮电大学 | 一种基于ddpg的移动机器人无先验地图导航决策方法 |
CN114526738B (zh) * | 2022-01-25 | 2023-06-16 | 中国科学院深圳先进技术研究院 | 一种基于深度强化学习的移动机器人视觉导航方法及装置 |
CN114201997B (zh) * | 2022-02-17 | 2022-06-14 | 深圳依时货拉拉科技有限公司 | 路口转向识别方法、装置、设备及存储介质 |
CN114511682B (zh) * | 2022-04-19 | 2022-07-15 | 清华大学 | 一种基于激光雷达的三维场景重建方法、装置及电子设备 |
CN115048015B (zh) * | 2022-05-27 | 2023-09-05 | 北京宾理信息科技有限公司 | 基于高精地图的自动驾驶仿真场景搭建方法和系统 |
CN115617034B (zh) * | 2022-09-01 | 2024-06-14 | 清华大学 | 多智能体的环境探索方法、装置、电子设备及存储介质 |
CN115164906B (zh) * | 2022-09-02 | 2022-11-15 | 深圳鹏行智能研究有限公司 | 定位方法、机器人和计算机可读存储介质 |
CN116499471B (zh) * | 2023-06-30 | 2023-09-12 | 华南理工大学 | 一种基于开放场景地图的视觉语言导航方法、装置及介质 |
CN116562172B (zh) * | 2023-07-07 | 2023-09-15 | 中国人民解放军国防科技大学 | 面向时空叙事的地理场景时间推演方法、装置和设备 |
CN117948976B (zh) * | 2024-01-04 | 2024-09-06 | 中山大学·深圳 | 一种基于图采样与聚合的无人平台导航方法 |
CN118533182B (zh) * | 2024-07-25 | 2024-09-17 | 山东鸿泽自动化技术有限公司 | 一种搬运机器人视觉智能导航方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018024286A (ja) | 2016-08-08 | 2018-02-15 | 日立オートモティブシステムズ株式会社 | 自動運転装置 |
JP2018067234A (ja) | 2016-10-21 | 2018-04-26 | 株式会社創発システム研究所 | 自動車自動運転支援システム。 |
JP2018112989A (ja) | 2017-01-13 | 2018-07-19 | 本田技研工業株式会社 | 運転補助装置及び運転補助方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5803392B2 (ja) * | 2011-08-01 | 2015-11-04 | 株式会社豊田中央研究所 | 自律移動装置 |
CN105313782B (zh) * | 2014-07-28 | 2018-01-23 | 现代摩比斯株式会社 | 车辆行驶辅助系统及其方法 |
CN104570771A (zh) * | 2015-01-06 | 2015-04-29 | 哈尔滨理工大学 | 基于场景-拓扑的自主定位方法的巡检机器人 |
CN104898660B (zh) * | 2015-03-27 | 2017-10-03 | 中国科学技术大学 | 一种提高机器人路径规划效率的室内地图构建方法 |
CN104834308A (zh) * | 2015-04-10 | 2015-08-12 | 浙江工业大学 | 满足复杂需求的最优巡回控制方法 |
US10137896B2 (en) * | 2016-12-30 | 2018-11-27 | Baidu Usa Llc | Method and system for operating autonomous driving vehicles using graph-based lane change guide |
US10545029B2 (en) * | 2016-12-30 | 2020-01-28 | DeepMap Inc. | Lane network construction using high definition maps for autonomous vehicles |
US20180202810A1 (en) * | 2017-01-17 | 2018-07-19 | International Business Machines Corporation | Navigation using an image of a topological map |
CN107226087B (zh) * | 2017-05-26 | 2019-03-26 | 西安电子科技大学 | 一种结构化道路自动驾驶运输车及控制方法 |
CN107179082B (zh) * | 2017-07-07 | 2020-06-12 | 上海阅面网络科技有限公司 | 基于拓扑地图和度量地图融合的自主探索方法和导航方法 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN108196535B (zh) * | 2017-12-12 | 2021-09-07 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
-
2018
- 2018-08-17 CN CN201810942528.9A patent/CN110376594B/zh active Active
-
2019
- 2019-08-09 JP JP2021502925A patent/JP7351487B2/ja active Active
- 2019-08-09 WO PCT/CN2019/099972 patent/WO2020034903A1/zh active Application Filing
- 2019-08-09 US US17/264,223 patent/US20210302585A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018024286A (ja) | 2016-08-08 | 2018-02-15 | 日立オートモティブシステムズ株式会社 | 自動運転装置 |
JP2018067234A (ja) | 2016-10-21 | 2018-04-26 | 株式会社創発システム研究所 | 自動車自動運転支援システム。 |
JP2018112989A (ja) | 2017-01-13 | 2018-07-19 | 本田技研工業株式会社 | 運転補助装置及び運転補助方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020034903A1 (zh) | 2020-02-20 |
JP2021531462A (ja) | 2021-11-18 |
CN110376594A (zh) | 2019-10-25 |
US20210302585A1 (en) | 2021-09-30 |
CN110376594B (zh) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7351487B2 (ja) | トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム | |
CN109520744B (zh) | 自动驾驶车辆的驾驶性能测试方法和装置 | |
US20190004517A1 (en) | Method and apparatus for generating automatic driving strategy | |
CN110796856B (zh) | 车辆变道意图预测方法及变道意图预测网络的训练方法 | |
CN109598066B (zh) | 预测模块的效果评估方法、装置、设备和存储介质 | |
CN108216229B (zh) | 交通工具、道路线检测和驾驶控制方法及装置 | |
CN113642633B (zh) | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 | |
CN110562258B (zh) | 一种车辆自动换道决策的方法、车载设备和存储介质 | |
CN110782120B (zh) | 一种交通流模型的评测方法、系统、设备及介质 | |
KR102539942B1 (ko) | 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN110325935A (zh) | 用于自动驾驶车辆的路径规划的基于驾驶场景的车道引导线 | |
JP2021157833A (ja) | 道路状況予測方法、道路状況予測モデルを確立する方法及びその対応装置、電子機器、記録媒体並びにコンピュータプログラム製品 | |
CN113743469B (zh) | 一种融合多源数据及综合多维指标的自动驾驶决策方法 | |
CN104875740B (zh) | 用于管理跟随空间的方法、主车辆以及跟随空间管理单元 | |
CN115540896A (zh) | 路径规划方法、装置、电子设备和计算机可读介质 | |
CN112249009B (zh) | 车速控制方法、装置、系统及电子设备 | |
CN114120650B (zh) | 用于生成测试结果的方法、装置 | |
WO2021237768A1 (zh) | 一种基于数据驱动的实现预测模型自动化迭代的系统 | |
CN112883236B (zh) | 一种地图更新方法、装置、电子设备及存储介质 | |
CN114518122A (zh) | 行车导航方法、装置、计算机设备、存储介质和计算机程序产品 | |
CN116261649A (zh) | 一种车辆行驶意图预测方法、装置、终端及存储介质 | |
CN115285148B (zh) | 自动驾驶车速规划方法、装置、电子设备和存储介质 | |
KR20210151716A (ko) | 차량 네비게이션을 위한 방법, 장치, 기기, 시스템 및 클라우드 제어 플랫폼 | |
WO2023088486A1 (zh) | 车道线提取方法、装置、车辆及存储介质 | |
CN114596704A (zh) | 交通事件处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210119 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20210120 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7351487 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |