CN110287941A - 一种基于概念学习的透彻感知与动态理解方法 - Google Patents

一种基于概念学习的透彻感知与动态理解方法 Download PDF

Info

Publication number
CN110287941A
CN110287941A CN201910594481.6A CN201910594481A CN110287941A CN 110287941 A CN110287941 A CN 110287941A CN 201910594481 A CN201910594481 A CN 201910594481A CN 110287941 A CN110287941 A CN 110287941A
Authority
CN
China
Prior art keywords
scene
robot
dynamic
model
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910594481.6A
Other languages
English (en)
Other versions
CN110287941B (zh
Inventor
金晶
刘劼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201910594481.6A priority Critical patent/CN110287941B/zh
Publication of CN110287941A publication Critical patent/CN110287941A/zh
Application granted granted Critical
Publication of CN110287941B publication Critical patent/CN110287941B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明提出一种基于概念学习的透彻感知与动态理解方法,本发明以深度学习为基础的场景分析与信息挖掘是目前信息科学的前沿领域,已成功应用于各类场景的分割、分类及识别中,并取得了大量优秀成果;在特征提取的基础上,基于贝叶斯网络的静态推理已在图像诊断或理解中得到应用,这为自动提取场景多源多模态特征并在概念框架下进行推理提供了可行性。在此基础上,同时基于机器人协同动态推理与感知耦合,可有效解决大空间复杂场景的动态感知与深度理解问题,在准确性方面远高于使用单一深度神经网络及静态推理的性能。

Description

一种基于概念学习的透彻感知与动态理解方法
技术领域
本发明属于图像理解技术领域,特别是涉及一种基于概念学习的透彻感知与动态理解方法。
背景技术
在世界各地,地震、台风、海啸以及恐怖活动等突发性灾难事故频发,集群机器人在解决应急搜救问题上具有重大优势。
机器人应用的技术瓶颈是如何针对大范围复杂动态场景,完成无人操控下的环境感知、深度理解与精准操控。
目前国内外对于环境理解的研究有两个方向:一是三维全景场景理解,以单帧点云作为输入,结合小范围上下文模板关系可完成对小场景的理解。但是该方法面对大空间范围的全景场景理解,所需模板复杂度将指数级扩大,导致无法应用。二是针对静态图片进行事件识别,通过融合静态图片的多个浅层特征,结合机器学习分类算法进行事件检测。而现有研究未能在大范围复杂动态场景下,建立物体、行为、事件之间的深度理解框架。
总结目前的技术现状:系统利用多种传感器感知环境,通过信息处理完成特征提取以及基本语义的理解。但无法在大范围复杂动态场景下建立物体、行为、事件之间的深度理解关系,无法实现真正意义下的智能无人操控。基于此,提出一种基于概念学习框架的透彻感知与动态理解方法。
发明内容
本发明目的是为了解决现有技术中的问题,提出了一种基于概念学习的透彻感知与动态理解方法;本发明的目的在于建立一种透彻协同感知机制,形成大范围场景高级语义理解框架,建立复杂场景动态知识图谱,提供场景快速推理方法。
本发明是通过以下技术方案实现的,本发明提出一种基于概念学习的透彻感知与动态理解方法,所述方法包括以下步骤:
步骤一:基于深度学习与时序贝叶斯迭代训练构建大范围“场景-目标-行为”的静-动态概念关系模型,所述静-动态概念关系模型能够透彻反映场景属性、人物行为和事件关联的抽象关系,全面掌控大范围复杂场景动态;
步骤二:基于贝叶斯网络的概率图模型推理及场景深度理解技术,结合训练好的静-动态概念关系模型和环境上下文,预测目标行为状态;
步骤三:按照集群机器人任务为指引,以静-动态概念关系模型推理置信度最高为原则,设计机器人分布式协同策略,通过优化传感器配置实现对场景目标与态势的透彻感知与深度理解;
步骤四:按照任务执行指令为指引,驱动机器人对执行任务完成精准操控。
进一步地,所述步骤一具体为:
步骤1.1、对集群机器人采集的场景RGB-D图像进行拼接,并将拼接后的场景分解为一定空间尺度的场景信息,所述尺度的设定由场景所含信息量、场景延迟时间和计算复杂度来决定;
步骤1.2、利用深度学习训练静态场景模型,提取场景中包含的语义概念及从属于该语义概念的结构和属性,建立“场景-目标”的静态概念模型;
步骤1.3、将语义概念作为贝叶斯网络节点,语义概念之间的相互关系作为网络的有向边,用条件概率表达关系强度,加入时间维度信息,利用时序贝叶斯迭代对场景中语义间的动态关系进行描述,建立“目标-行为”的动态关系模型;
步骤1.4、基于信息论将静态概念模型与动态关系模型进行统一。
进一步地,所述步骤二具体为:
步骤2.1、在集群机器人实时运行中,每一个机器人获取一帧场景RGB-D数据,并从中提取语义概念及状态、属性信息;
步骤2.2、利用训练好的“场景-目标-行为”静-动态概念关系模型,基于贝叶斯网络的概率图模型对当前场景语义概念进行推理,完成目标在当前场景中的深度理解,即对目标行为状态进行预测。
进一步地,所述步骤二还包括:若集群机器人场景获取有交叠,需根据机器人所处位置及预测结果进行投票,得到集群机器人一致的预测结论。
进一步地,所述步骤三具体为:
步骤3.1、将集群机器人任务作为指令,并将指令分解为环境感知指令和任务执行指令,将环境感知指令与理解出的场景目标行为状态进行对比,计算环境感知指令与场景理解的相似度;
步骤3.2、如果相似度达到一致,则执行步骤四;如果相似度不一致,则结合当前集群机器人的位置、姿态和方位信息,以静-动态概念关系模型推理置信度最高为原则,综合考虑机器人的资源条件约束,设计机器人分布式协同策略,使机器人对目标进行透彻感知;
步骤3.3、按照机器人分布式协同策略,控制机器人按照规划的路径进行移动,从而产生新的场景信息,重复步骤二,直到环境感知指令与理解出的场景相似度达到一致要求。
进一步地,所述资源条件约束包括电池电量、移动能力和感知能力。
本发明的有益效果为:本发明以深度学习为基础的场景分析与信息挖掘是目前信息科学的前沿领域,已成功应用于各类场景的分割、分类及识别中,并取得了大量优秀成果;在特征提取的基础上,基于贝叶斯网络的静态推理已在图像诊断或理解中得到应用,这为自动提取场景多源多模态特征并在概念框架下进行推理提供了可行性。在此基础上,同时基于机器人协同动态推理与感知耦合,可有效解决大空间复杂场景的动态感知与深度理解问题,在准确性方面远高于使用单一深度神经网络及静态推理的性能。
附图说明
图1为本发明所述基于概念学习的透彻感知与动态理解方法结构图;
图2为步骤一具体流程图;
图3为步骤二具体流程图;
图4为步骤三和四具体流程图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明根据面向机器人大范围复杂场景下精确感知与精准操控任务需求,充分考虑集群机器人平台传感器的感知、推理与协同能力差异,研究机器人复杂空间环境下的透彻感知和目标深度理解方法。通过场景结构化分解技术、最佳视角投影与跟踪技术、注意力机制下的深度学习技术,解决大范围场景下的高级语义概念及属性提取难题。基于时序贝叶斯网络、经验知识图谱构建场景中人物行为、事件动态关联关系,利用变分近似推理算法解决复杂场景下的动态推理问题。基于认知期望、环境态势及上下文信息,以模型推理置信度最高为准则设计机器人协同优化策略,驱动机器人对关心场景及目标进行更细粒度的透彻感知,实现深度理解,辅助优化目标定位与识别质量。
结合图1,本发明提出一种基于概念学习的透彻感知与动态理解方法,所述方法包括以下步骤:
步骤一:基于深度学习与时序贝叶斯迭代训练构建大范围“场景-目标-行为”的静-动态概念关系模型,所述静-动态概念关系模型能够透彻反映场景属性、人物行为和事件关联的抽象关系,全面掌控大范围复杂场景动态;
结合图2,所述步骤一具体为:
步骤1.1、对集群机器人采集的场景RGB-D图像进行拼接,并将拼接后的场景分解为一定空间尺度的场景信息,所述尺度的设定由场景所含信息量、场景延迟时间和计算复杂度来决定;
步骤1.2、利用深度学习训练静态场景模型,提取场景中包含的语义概念及从属于该语义概念的结构和属性,建立“场景-目标”的静态概念模型;
步骤1.3、将语义概念作为贝叶斯网络节点,语义概念之间的相互关系作为网络的有向边,用条件概率表达关系强度,加入时间维度信息,综合考虑时间维度和空间维度概念和属性的变化信息,利用时序贝叶斯迭代对场景中语义间的动态关系进行描述,建立“目标-行为”的动态关系模型;
步骤1.4、基于信息论将静态概念模型与动态关系模型进行统一。
步骤二:基于贝叶斯网络的概率图模型推理及场景深度理解技术,结合训练好的静-动态概念关系模型和环境上下文,预测目标行为状态;
结合图3,所述步骤二具体为:
步骤2.1、在集群机器人实时运行中,每一个机器人获取一帧场景RGB-D数据,并从中提取语义概念及状态、属性信息;
步骤2.2、利用训练好的“场景-目标-行为”静-动态概念关系模型,基于贝叶斯网络的概率图模型对当前场景语义概念进行推理,完成目标在当前场景中的深度理解,即对目标行为状态进行预测。
所述步骤二还包括:若集群机器人场景获取有交叠,需根据机器人所处位置及预测结果进行投票,得到集群机器人一致的预测结论。
步骤三:按照集群机器人任务为指引,以静-动态概念关系模型推理置信度最高为原则,设计机器人分布式协同策略,通过优化传感器配置实现对场景目标与态势的透彻感知与深度理解;
结合图4,所述步骤三具体为:
步骤3.1、将集群机器人任务作为指令,按数据或音频形式接收遥控指令,经过自然语言处理解译当前任务,并将指令分解为环境感知指令和任务执行指令,将环境感知指令与理解出的场景目标行为状态进行对比,计算环境感知指令与场景理解的相似度;
步骤3.2、如果相似度达到一致,则执行步骤四;如果相似度不一致,则结合当前集群机器人的位置、姿态和方位信息,以静-动态概念关系模型推理置信度最高为原则,综合考虑机器人资源条件约束,根据置信度最大原则设计机器人分布式协同策略,使机器人对目标进行透彻感知;所述资源条件约束包括电池电量、移动能力和感知能力。
步骤3.3、按照机器人分布式协同策略,控制机器人按照规划的路径进行移动,从而产生新的场景信息,重复步骤二,直到环境感知指令与理解出的场景相似度达到一致要求。
步骤四:按照任务执行指令为指引,驱动机器人对执行任务完成精准操控。
以上对本发明所提供的一种基于概念学习的透彻感知与动态理解方法,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (6)

1.一种基于概念学习的透彻感知与动态理解方法,其特征在于:所述方法包括以下步骤:
步骤一:基于深度学习与时序贝叶斯迭代训练构建大范围“场景-目标-行为”的静-动态概念关系模型,所述静-动态概念关系模型能够透彻反映场景属性、人物行为和事件关联的抽象关系,全面掌控大范围复杂场景动态;
步骤二:基于贝叶斯网络的概率图模型推理及场景深度理解技术,结合训练好的静-动态概念关系模型和环境上下文,预测目标行为状态;
步骤三:按照集群机器人任务为指引,以静-动态概念关系模型推理置信度最高为原则,设计机器人分布式协同策略,通过优化传感器配置实现对场景目标与态势的透彻感知与深度理解;
步骤四:按照任务执行指令为指引,驱动机器人对执行任务完成精准操控。
2.根据权利要求1所述的方法,其特征在于:所述步骤一具体为:
步骤1.1、对集群机器人采集的场景RGB-D图像进行拼接,并将拼接后的场景分解为一定空间尺度的场景信息,所述尺度的设定由场景所含信息量、场景延迟时间和计算复杂度来决定;
步骤1.2、利用深度学习训练静态场景模型,提取场景中包含的语义概念及从属于该语义概念的结构和属性,建立“场景-目标”的静态概念模型;
步骤1.3、将语义概念作为贝叶斯网络节点,语义概念之间的相互关系作为网络的有向边,用条件概率表达关系强度,加入时间维度信息,利用时序贝叶斯迭代对场景中语义间的动态关系进行描述,建立“目标-行为”的动态关系模型;
步骤1.4、基于信息论将静态概念模型与动态关系模型进行统一。
3.根据权利要求2所述的方法,其特征在于:所述步骤二具体为:
步骤2.1、在集群机器人实时运行中,每一个机器人获取一帧场景RGB-D数据,并从中提取语义概念及状态、属性信息;
步骤2.2、利用训练好的“场景-目标-行为”静-动态概念关系模型,基于贝叶斯网络的概率图模型对当前场景语义概念进行推理,完成目标在当前场景中的深度理解,即对目标行为状态进行预测。
4.根据权利要求3所述的方法,其特征在于:所述步骤二还包括:若集群机器人场景获取有交叠,需根据机器人所处位置及预测结果进行投票,得到集群机器人一致的预测结论。
5.根据权利要求3所述的方法,其特征在于:所述步骤三具体为:
步骤3.1、将集群机器人任务作为指令,并将指令分解为环境感知指令和任务执行指令,将环境感知指令与理解出的场景目标行为状态进行对比,计算环境感知指令与场景理解的相似度;
步骤3.2、如果相似度达到一致,则执行步骤四;如果相似度不一致,则结合当前集群机器人的位置、姿态和方位信息,以静-动态概念关系模型推理置信度最高为原则,综合考虑机器人资源条件约束,设计机器人分布式协同策略,使机器人对目标进行透彻感知;
步骤3.3、按照机器人分布式协同策略,控制机器人按照规划的路径进行移动,从而产生新的场景信息,重复步骤二,直到环境感知指令与理解出的场景相似度达到一致要求。
6.根据权利要求5所述的方法,其特征在于:所述资源条件约束包括电池电量、移动能力和感知能力。
CN201910594481.6A 2019-07-03 2019-07-03 一种基于概念学习的透彻感知与动态理解方法 Active CN110287941B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910594481.6A CN110287941B (zh) 2019-07-03 2019-07-03 一种基于概念学习的透彻感知与动态理解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910594481.6A CN110287941B (zh) 2019-07-03 2019-07-03 一种基于概念学习的透彻感知与动态理解方法

Publications (2)

Publication Number Publication Date
CN110287941A true CN110287941A (zh) 2019-09-27
CN110287941B CN110287941B (zh) 2022-12-27

Family

ID=68021861

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910594481.6A Active CN110287941B (zh) 2019-07-03 2019-07-03 一种基于概念学习的透彻感知与动态理解方法

Country Status (1)

Country Link
CN (1) CN110287941B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126195A (zh) * 2019-12-10 2020-05-08 郑州轻工业大学 基于场景属性驱动和时空域显著性的异常行为分析方法
CN111553166A (zh) * 2020-04-05 2020-08-18 温州大学 基于场景认知计算的在线学习者动态模型预测方法
CN111814948A (zh) * 2020-06-18 2020-10-23 浙江大华技术股份有限公司 神经网络的运行方法及运行设备、计算机可读存储介质
CN112116305A (zh) * 2020-06-17 2020-12-22 中国电力科学研究院有限公司 一种用于机器学习的电网概率可视化模型构建方法和系统
CN114022872A (zh) * 2021-09-24 2022-02-08 中国海洋大学 基于动态神经网络的多种类农作物叶病识别方法
CN114139550A (zh) * 2022-02-08 2022-03-04 中国电子科技集团公司第五十四研究所 一种基于活动语义文本消息的态势智能认知方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104599275A (zh) * 2015-01-27 2015-05-06 浙江大学 基于概率图模型的非参数化的rgb-d场景理解方法
US20160154631A1 (en) * 2013-07-12 2016-06-02 Bryant G. CRUSE Method and system for machine comprehension
CN107240118A (zh) * 2017-05-19 2017-10-10 成都信息工程大学 一种基于rgb颜色直方图的判别式跟踪方法
US20180232471A1 (en) * 2017-02-16 2018-08-16 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for acoustic classification and optimization for multi-modal rendering of real-world scenes
CN109218440A (zh) * 2018-10-12 2019-01-15 上海拟态数据技术有限公司 一种场景化的拟态web服务器异构执行体动态调度方法
US20190079739A1 (en) * 2016-01-11 2019-03-14 New Sapience, Inc. Method and system for machine comprehension

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160154631A1 (en) * 2013-07-12 2016-06-02 Bryant G. CRUSE Method and system for machine comprehension
CN104599275A (zh) * 2015-01-27 2015-05-06 浙江大学 基于概率图模型的非参数化的rgb-d场景理解方法
US20190079739A1 (en) * 2016-01-11 2019-03-14 New Sapience, Inc. Method and system for machine comprehension
US20180232471A1 (en) * 2017-02-16 2018-08-16 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for acoustic classification and optimization for multi-modal rendering of real-world scenes
CN107240118A (zh) * 2017-05-19 2017-10-10 成都信息工程大学 一种基于rgb颜色直方图的判别式跟踪方法
CN109218440A (zh) * 2018-10-12 2019-01-15 上海拟态数据技术有限公司 一种场景化的拟态web服务器异构执行体动态调度方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
薛建儒等: "视感知激励――多视觉线索集成的贝叶斯方法与应用", 《科学通报》 *
郭强等: "基于深度谱卷积神经网络的高效视觉目标跟踪算法", 《红外与激光工程》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126195A (zh) * 2019-12-10 2020-05-08 郑州轻工业大学 基于场景属性驱动和时空域显著性的异常行为分析方法
CN111126195B (zh) * 2019-12-10 2023-03-14 郑州轻工业大学 基于场景属性驱动和时空域显著性的异常行为分析方法
CN111553166A (zh) * 2020-04-05 2020-08-18 温州大学 基于场景认知计算的在线学习者动态模型预测方法
CN111553166B (zh) * 2020-04-05 2023-05-26 温州大学 基于场景认知计算的在线学习者动态模型预测方法
CN112116305A (zh) * 2020-06-17 2020-12-22 中国电力科学研究院有限公司 一种用于机器学习的电网概率可视化模型构建方法和系统
CN111814948A (zh) * 2020-06-18 2020-10-23 浙江大华技术股份有限公司 神经网络的运行方法及运行设备、计算机可读存储介质
CN114022872A (zh) * 2021-09-24 2022-02-08 中国海洋大学 基于动态神经网络的多种类农作物叶病识别方法
CN114022872B (zh) * 2021-09-24 2024-05-10 中国海洋大学 基于动态神经网络的多种类农作物叶病识别方法
CN114139550A (zh) * 2022-02-08 2022-03-04 中国电子科技集团公司第五十四研究所 一种基于活动语义文本消息的态势智能认知方法
CN114139550B (zh) * 2022-02-08 2022-05-06 中国电子科技集团公司第五十四研究所 一种基于活动语义文本消息的态势智能认知方法

Also Published As

Publication number Publication date
CN110287941B (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
CN110287941A (zh) 一种基于概念学习的透彻感知与动态理解方法
Boudjit et al. Human detection based on deep learning YOLO-v2 for real-time UAV applications
Gao et al. Robust real-time hand detection and localization for space human–robot interaction based on deep learning
Zheng et al. Improved multi-agent deep deterministic policy gradient for path planning-based crowd simulation
Geraldes et al. UAV-based situational awareness system using deep learning
Dentler et al. Collision avoidance effects on the mobility of a UAV swarm using chaotic ant colony with model predictive control
US11100646B2 (en) Future semantic segmentation prediction using 3D structure
Vaddi Efficient object detection model for real-time UAV applications
Zhang et al. SmartCaveDrone: 3D cave mapping using UAVs as robotic co-archaeologists
DE102019122760A1 (de) Selbstfahrende mobile roboter, die mensch-roboter-interaktionen verwenden
CN113284144B (zh) 一种基于无人机的隧道检测方法及装置
Naveed et al. Deep introspective SLAM: Deep reinforcement learning based approach to avoid tracking failure in visual SLAM
Andersson et al. WARA-PS: a research arena for public safety demonstrations and autonomous collaborative rescue robotics experimentation
Paredes-Vallés et al. Fully neuromorphic vision and control for autonomous drone flight
Nguyen et al. Web-based object detection and sound feedback system for visually impaired people
Hassan et al. Predicting humans future motion trajectories in video streams using generative adversarial network
US20240160929A1 (en) Device for training and managing a visual scene graph model and control method thereof
CN111008622B (zh) 一种图像对象检测方法、装置以及计算机可读存储介质
Summers-Stay et al. Joint navigation in commander/robot teams: Dialog & task performance when vision is bandwidth-limited
CN116152747A (zh) 一种基于外观辨识和动作建模的人类行为意图识别方法
Afif et al. Indoor objects detection system implementation using multi-graphic processing units
Ryad et al. Using path planning algorithms and digital twin simulators to collect synthetic training dataset for drone autonomous navigation
Aburaya et al. Review of vision-based reinforcement learning for drone navigation
Cao et al. Drone for Intelligent Traffic Monitoring: Current Status and Future Trends
Donzia et al. Implementation of Autoware Application to real-world Services Based Adaptive Big Data Management System for Autonomous Driving

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant