CN113706725A - 一种基于unity ML插件的可移动环境的实现方法 - Google Patents
一种基于unity ML插件的可移动环境的实现方法 Download PDFInfo
- Publication number
- CN113706725A CN113706725A CN202111008520.3A CN202111008520A CN113706725A CN 113706725 A CN113706725 A CN 113706725A CN 202111008520 A CN202111008520 A CN 202111008520A CN 113706725 A CN113706725 A CN 113706725A
- Authority
- CN
- China
- Prior art keywords
- training
- vehicle
- scene
- movable
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 210000004556 brain Anatomy 0.000 claims abstract description 4
- 238000004088 simulation Methods 0.000 abstract description 3
- 238000010801 machine learning Methods 0.000 abstract description 2
- 230000002787 reinforcement Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Architecture (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于unity ML插件的可移动环境的实现方法,包括:步骤1,利用Unity3D开发组件搭建车辆测试的可移动训练场景,并利用Vehicle Tools资源包导入训练场景内的动态物体,并为动态物体设置运动状态;步骤2,在可移动训练场景内创建智能体,作为目标训练车辆;为目标训练车辆创建虚拟传感器;步骤3,构建训练模型,并利用可移动训练场景对目标训练车辆进行训练,得到训练好的模型文件;步骤4,将训练好的模型文件导入unity工程,TensorFlowSharp读取模型文件,并用于Brain车辆对象,由此实现特定场景的自动移动。本发明基于AI框架tensorflow,基于ML插件进行强化学习或其他机器学习,实现模拟周边可移动环境,训练得到有一定自主智能的环境物体。
Description
技术领域
本发明属于汽车技术领域,具体涉及一种基于unity ML插件的可移动环境的实现方法。
背景技术
目前在一些需要3D展示的项目活动中,例如城市规划,房地产虚拟楼盘等,经常需要实现一些周边路车辆等的移动,以提高展示的真实感和代入感。传统的方法是在场景中设置好周边物体移动的路径,然后通过配置随机选择路径,随机生成不同车辆,随机设置速度方向等方法,实现较为真实的周边环境。但这样的方法随机性太小,往往能轻易看出物体沿某些特定轨迹移动;同时在遇到堵塞等情况时,物体仍旧沿着事先设定的轨迹移动,无法自然的模拟特殊情况,往往导致真实性欠佳。
发明内容
发明目的:针对以上问题,本发明提出一种基于unity ML插件的可移动环境的实现方法。
技术方案:为实现本发明的目的,本发明所采用的技术方案是:一种基于unity ML插件的可移动环境的实现方法,具体包括如下步骤:
步骤1,利用Unity3D开发组件搭建车辆测试的可移动训练场景,并利用VehicleTools资源包导入训练场景内的动态物体,并为动态物体设置各自对应的运动状态;
步骤2,在可移动训练场景内创建智能体,作为目标训练车辆;为目标训练车辆创建虚拟传感器,包括位置传感器和障碍物传感器;
步骤3,构建训练模型,并利用可移动训练场景对目标训练车辆进行训练,得到训练好的模型文件;
步骤4,将训练好的模型文件导入unity工程,TensorFlowSharp读取模型文件,并用于Brain车辆对象,由此实现特定场景的自动移动。
进一步地,步骤1所述可移动训练场景包括但不限于交通道路、交通标线、路边围栏和绿化带。
进一步地,步骤2所述位置传感器,具体采用unity object的transform变量,用于实现目标训练车辆在训练场景中的定位;
所述障碍物传感器,具体通过为目标训练车辆设置一个同步移动的包围盒实现的,用于感知训练场景中的动态物体及障碍物。
进一步地,所述步骤3的具体过程如下:
步骤3.1,构建训练模型,并为训练模型设置训练周期、训练次数、训练参数以及奖惩反馈,所述训练参数包括目标训练车辆的油门、刹车和方向盘角度;
步骤3.2,训练初始化:将目标训练车辆随机放置在训练场景的任一位置;
步骤3.3,利用可移动训练场景对目标训练车辆进行训练,包括:
目标训练车辆每进行一个动作,则记录该动作所对应的奖惩反馈,由此获得当前训练周期的奖惩反馈之和;
判断当前训练周期的奖惩反馈之和是否小于预先设定的阈值;
若当前训练周期的奖惩反馈之和小于预设的奖惩反馈阈值,则对训练参数进行调整,并对目标训练车辆进行下一训练周期的训练;
否则,继续利用可移动训练场景对目标训练车辆进行下一训练周期的训练,直至达到训练次数;
步骤3.4,统计奖惩反馈之和不小于预先设定的阈值的训练周期的数量,并判断是否符合预设的训练阈值;若符合,则训练完成,得到训练好的模型文件;否则返回步骤3.2重新对目标训练车辆进行训练。
有益效果:相比于现有技术,本发明技术方案具有以下有益技术效果:
本发明所述一种基于unity ML插件的可移动环境的实现方法,基于ML插件实现了模拟周边可移动环境,底层基于目前比较流行的AI框架tensorflow,使用强化学习,模仿学习,神经进化或其他机器学习方法,训练需要模拟的物体,从而实现更真实更自然的有一定自主智能的环境物体。
附图说明
图1是一种实施例下本发明所述方法的流程图;
图2是一种实施例下本发明方法搭建的车辆测试的可移动训练场景图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
本发明所述的一种基于unity ML插件的可移动环境的实现方法,参考图1,具体包括如下步骤:
步骤1,参考图2,搭建训练场景,具体包括:
利用unity官方资源商店提供的免费Windridge City资源包,搭建出包括道路,车道线,路边栏等元素模型的组合布置,他方车辆通过Vehicle Tools资源包导入。
步骤2,创建智能体,包括:
智能体就是车辆,需要创建虚拟传感器:位置传感器,障碍物传感器。位置传感器直接采用unity object的transform变量,用于实现车辆在虚拟地图中的定位,障碍物传感器通过在车辆周边设置一个同步移动的包围盒来实现,其他车辆进入包围盒就会被当前车辆感知到。
步骤3,训练模型,包括:
训练参数主要包括车辆的油门,刹车和方向盘角度,行人的速度和转角。
奖惩值体现在训练过程中,发生碰撞,偏离道路,就给与比较大的惩罚值。正常运行时间作为奖励值,运行的越久,奖励越大。
步骤4,将训练好的模型文件导入unity工程,TensorFlowSharp会读取模型文件,并作用于Brain车辆对象,在城市场景里自动移动。
对于运行效果不佳的场景,通过unity editor扩展编写的场景导出插件,可以一键导出场景里所有元素的位置,时间等信息,然后作为初始场景参数传入步骤3,有针对性的进行训练,提高训练结果的可用性。
Claims (4)
1.一种基于unity ML插件的可移动环境的实现方法,其特征在于,具体包括如下步骤:
步骤1,利用Unity3D开发组件搭建车辆测试的可移动训练场景,并利用Vehicle Tools资源包导入训练场景内的动态物体,为动态物体设置各自对应的运动状态;
步骤2,在可移动训练场景内创建智能体,作为目标训练车辆;为目标训练车辆创建虚拟传感器,包括位置传感器和障碍物传感器;
步骤3,构建训练模型,并利用可移动训练场景对目标训练车辆进行训练,得到训练好的模型文件;
步骤4,将训练好的模型文件导入unity工程,TensorFlowSharp读取模型文件,并用于Brain车辆对象,由此实现特定场景的自动移动。
2.根据权利要求1所述的一种基于unity ML插件的可移动环境的实现方法,其特征在于,步骤1所述可移动训练场景包括但不限于交通道路、交通标线、路边围栏和绿化带。
3.根据权利要求1所述的一种基于unity ML插件的可移动环境的实现方法,其特征在于,步骤2所述位置传感器,具体采用unity object的transform变量,用于实现目标训练车辆在训练场景中的定位;
所述障碍物传感器,具体通过为目标训练车辆设置一个同步移动的包围盒实现,用于感知训练场景中的动态物体及障碍物。
4.根据权利要求1所述的一种基于unity ML插件的可移动环境的实现方法,其特征在于,所述步骤3的具体过程如下:
步骤3.1,构建训练模型,并为训练模型设置训练周期、训练次数、训练参数以及奖惩反馈,所述训练参数包括目标训练车辆的油门、刹车和方向盘角度;
步骤3.2,训练初始化:将目标训练车辆随机放置在训练场景的任一位置;
步骤3.3,利用可移动训练场景对目标训练车辆进行训练,包括:
目标训练车辆每进行一个动作,则记录该动作所对应的奖惩反馈,由此获得当前训练周期的奖惩反馈之和;
判断当前训练周期的奖惩反馈之和是否小于预先设定的阈值;
若当前训练周期的奖惩反馈之和小于预设的奖惩反馈阈值,则对训练参数进行调整,并对目标训练车辆进行下一训练周期的训练;
否则,继续利用可移动训练场景对目标训练车辆进行下一训练周期的训练,直至达到训练次数;
步骤3.4,统计奖惩反馈之和不小于预先设定的阈值的训练周期的数量,并判断是否符合预设的训练阈值;若符合,则训练完成,得到训练好的模型文件;否则返回步骤3.2重新对目标训练车辆进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111008520.3A CN113706725A (zh) | 2021-08-31 | 2021-08-31 | 一种基于unity ML插件的可移动环境的实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111008520.3A CN113706725A (zh) | 2021-08-31 | 2021-08-31 | 一种基于unity ML插件的可移动环境的实现方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113706725A true CN113706725A (zh) | 2021-11-26 |
Family
ID=78657346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111008520.3A Pending CN113706725A (zh) | 2021-08-31 | 2021-08-31 | 一种基于unity ML插件的可移动环境的实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113706725A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108984275A (zh) * | 2018-08-27 | 2018-12-11 | 洛阳中科龙网创新科技有限公司 | 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法 |
CN111124119A (zh) * | 2019-12-19 | 2020-05-08 | 天津大学 | 基于虚拟现实技术的建筑模型呈现与交互方法 |
CN111582495A (zh) * | 2020-04-22 | 2020-08-25 | 北京航空航天大学 | 基于优胜劣汰的深度强化学习策略网络存储方法及设备 |
CN112906126A (zh) * | 2021-01-15 | 2021-06-04 | 北京航空航天大学 | 基于深度强化学习的车辆硬件在环仿真训练系统及方法 |
-
2021
- 2021-08-31 CN CN202111008520.3A patent/CN113706725A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108984275A (zh) * | 2018-08-27 | 2018-12-11 | 洛阳中科龙网创新科技有限公司 | 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法 |
CN111124119A (zh) * | 2019-12-19 | 2020-05-08 | 天津大学 | 基于虚拟现实技术的建筑模型呈现与交互方法 |
CN111582495A (zh) * | 2020-04-22 | 2020-08-25 | 北京航空航天大学 | 基于优胜劣汰的深度强化学习策略网络存储方法及设备 |
CN112906126A (zh) * | 2021-01-15 | 2021-06-04 | 北京航空航天大学 | 基于深度强化学习的车辆硬件在环仿真训练系统及方法 |
Non-Patent Citations (2)
Title |
---|
孙长银;穆朝絮;: "多智能体深度强化学习的若干关键科学问题", 自动化学报, no. 07 * |
李月;郭仁拥;陈亮;李劲东;: "穿越瓶颈的双向行人流微观建模及仿真", 系统仿真学报, no. 04 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dosovitskiy et al. | CARLA: An open urban driving simulator | |
US11755396B2 (en) | Generating autonomous vehicle simulation data from logged data | |
Martinez et al. | Beyond grand theft auto V for training, testing and enhancing deep learning in self driving cars | |
US20190129831A1 (en) | Autonomous Vehicle Simulation Testing Systems and Methods | |
CN105045649B (zh) | 一种智能汽车仿真方法及装置 | |
CN108319259A (zh) | 一种测试系统及测试方法 | |
US20190042679A1 (en) | Method for virtual tests for an autonomous vehicle | |
CN108860139B (zh) | 一种基于深度增强学习的自动泊车轨迹规划方法 | |
JP3902543B2 (ja) | 道路交通シミュレーション装置 | |
CN107506830A (zh) | 面向智能汽车规划决策模块的人工智能训练平台 | |
CN106599767A (zh) | 虚拟环境中的车道边界检测数据生成 | |
CN102982703B (zh) | 一种汽车驾驶仿真器与虚拟交通环境仿真系统的交互方法 | |
CN109887372A (zh) | 驾驶培训模拟方法、电子设备及存储介质 | |
CN201142163Y (zh) | 一种公路交通流模型仿真装置 | |
CN104504170A (zh) | 车辆动画仿真方法及系统 | |
CN106777747A (zh) | 一种三维交通仿真模拟系统 | |
Hossain et al. | Autonomous-driving vehicle learning environments using unity real-time engine and end-to-end CNN approach | |
Guvenc et al. | Simulation Environment for Safety Assessment of CEAV Deployment in Linden | |
Hong et al. | System configuration of Human-in-the-loop Simulation for Level 3 Autonomous Vehicle using IPG CarMaker | |
JP2024513666A (ja) | ログデータに基づいたシミュレートされた環境でのオブジェクトのインスタンス化 | |
CN113706725A (zh) | 一种基于unity ML插件的可移动环境的实现方法 | |
Zofka et al. | Simulation framework for the development of autonomous small scale vehicles | |
Zhou et al. | A survey on autonomous driving system simulators | |
Zhao et al. | Fluids: A first-order local urban intersection driving simulator | |
JPH06324621A (ja) | 乗物シミュレーション装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |