CN111046710A - 一种导入sdl模型的图像抽出的方法 - Google Patents

一种导入sdl模型的图像抽出的方法 Download PDF

Info

Publication number
CN111046710A
CN111046710A CN201811212126.XA CN201811212126A CN111046710A CN 111046710 A CN111046710 A CN 111046710A CN 201811212126 A CN201811212126 A CN 201811212126A CN 111046710 A CN111046710 A CN 111046710A
Authority
CN
China
Prior art keywords
probability
image
value
lane line
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811212126.XA
Other languages
English (en)
Inventor
顾泽苍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201811212126.XA priority Critical patent/CN111046710A/zh
Priority to JP2019204291A priority patent/JP2020061155A/ja
Priority to US16/598,314 priority patent/US11354915B2/en
Publication of CN111046710A publication Critical patent/CN111046710A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Abstract

本发明涉及信息处理领域中的一种导入SDL模型的图像抽出的方法,其特征在于:在计算机数据上,针对目标数据人为的进行复数次标注。复数次被标注的将要抽出的目标数据,通过机器学习得到构成目标数据的各个参数的最大的概率值,最大概率的尺度。按照上述所得到的最大的概率值,或最大概率的尺度的范围,就可从样本计算机数据中得到目标数据。本方法的实施效果是:可以从一个图像中任意地抽出所需要的图像,可排除影响图像识别结果的背景图像的干扰,可提高图像处理的效果,有益于提高图像识别的精度,是颠覆传统的二值化的新的图像处理算法。

Description

一种导入SDL模型的图像抽出的方法
【技术领域】
本发明属于人工智能领域中的一种导入SDL模型的图像抽出的方法。
【背景技术】
自动驾驶汽车是人工智能的主战场,但是遗憾的是针对自动驾驶汽车的控制问题应用的专用的机器学习的研究成果甚少,至今仍没有引起广泛的注意。
日本著名的丰田公司发表了“驾驶指向推定装置”的专利(专利文献1),该专利提出根据汽车自动驾驶过程中,针对突发的情况,即使驾驶员没有反映的情况下,通过人工智能的逆传递神经网络的机器学习算法,自动的选择驾驶状态,以避免行车事故的发生等。
2016年10月9日日本NHK由解说委员室山哲也所讲解的“如何跨越自动驾驶的壁垒”(非专利文献1)。在这个专题上,室山哲也提出了在自动驾驶系统中目前还解决不了的几个问题:
人机判断冲突疑难:今年2月在谷歌进行自动驾驶的实验,当谷歌车右拐时,前面有一沙堆的障碍物,谷歌车急向右车道闪去,正好这时右车道后面来了一辆大巴,大巴的驾驶员认为谷歌车会迅速刹车,没想到会往右车道躲闪,因此出现了撞车的严重事故。
车距选择的人机感觉融合的疑难:按某公司的调查,路上遇到自动驾驶汽车时,有41%的驾驶员是认为离这辆自动驾驶汽车越远越好,但是也有人认为跟着固定距离比较好,或认为接近一点好,还有人抱有好奇心要追上前面的自动驾驶汽车。这是作为自动驾驶汽车如何解决人机感觉融合问题,以及如何选择最接近于人的驾驶问题,这成为了复杂的自动控制疑难。
人机权限转让问题:在人机操作的转换阶段,人机之间的意识是不能传递的。例如在紧急情况下,需由自动驾驶马上切换到人工驾驶的瞬间,自动驾驶当时所选的应急方案与人工驾驶不同,容易造成事故,或贻误时机。
Trolley问题:在遇到紧急时刻,如何使牺牲者的数量降至最少?这是有名的Trolley问题,既涉及复杂的伦理疑难,也是技术难点。在机器学习的自动驾驶理论中,目前尚没有人提出过有价值的解决方案。
2018年3月Uber自动驾驶汽车出现了撞人事件,暴露了在自动驾驶汽车的开发中如何解决安全行使与舒适行使的矛盾,以及解决判定障碍物时的阀值设定问题。(非专利文献2)
路侧里程已经绕地球一圈,被寄望于颠覆世界,即将投入商业运营的Google无人车,现在(2018年8月)在家门口又暴露连转弯都有问题。(非专利文献3)
由日立大岛弘安发表的“用模糊预测控制实现列车自动驾驶”的论文(非专利文献4),该论文提出通过模糊推论的规则库可以实现列车的自动驾驶。
由筑波大学安信诚二发表的“采用预测模糊控制的列车自动驾驶系统”(非专利文献5),提出传统的PID调节虽然可以准确的控制列车自动驾驶的走行,但圆滑的行走是自动驾驶的关键,也是乘者感到舒适的关键。以及自动驾驶的核心问题是一个需要考虑安全性,走行速度,车站间的走行时间,舒适感,消耗电力,以及停止精度的多目的控制问题。
【专利文献】
【专利文献1】(特开2008-225923)
【非专利文献1】http://www.nhk.or.jp/kaisetsu-blog/100/255089.html
【非专利文献2】http://www.sohu.com/a/225962192_100083734
【非专利文献3】
https://baijiahao.baidu.com/s?id=1610113338436012375&wfr=spider&for=pc
【非专利文献4】
https://www.jstage.jst.go.jp/article/ieejeiss1987/109/5/109_5_337/_pdf
【非专利文献5】
http://ttt.akiba.coocan.jp/yasunobu/edu/intconthtms/text/Sic07a_trainATO.pdf#search=%27予見ファヅィ一制御列車自動運転システム%27
上述(专利文献1),采用人工智能的神经网络算法,但是,神经网络算法中主要是通过“训练”将目标函数的信息承载在海量的加权值和阀值的数据集上,加权值W,与阀值T在学习的过程中,要想得到最佳的解,需要采用穷举法将所有的状态都要进行测试,所要组合的总次数是{(W×T)n}×P,这里n为一层的神经网络的节点数,P为神经网络的层数,如此高指数的计算复杂度使计算量庞大,所需要的硬件开销巨大,属于大模型解决小任务的问题。再有作为补救的措施深度学习所采用的针对学习效果的损失函数所引用的概率梯度下降法简称SGD,所得到的训练值也只是一个局部最佳解,因此不可避免的会出现“黑箱”问题,再有神经网络的模型中的阀值属于人为定义,同人的大脑的神经网络的机理毫无关系,脑神经的刺激信号的机理丝毫不能在传统的神经网络模型中体现,人的头脑根据神经元的神经信号所产生的兴奋程度不同进行不同的判断的机理在目前的神经网络的模型中也不能体现等等,传统的神经网络模型不能普遍的推广应用。如今进入深度学习的阶段,同传统的神经网络相比只增加了隐藏层的数量,这更加使计算的复杂度加大,传统神经网络的致命的黑箱问题得不到解决,应用于自动驾驶汽车中一定会存在着安全隐患,应用的前景很难期待。
上述(非专利文献1)所提出的“人机判断冲突疑难”,“车距选择的人机感觉融合的疑难”,“人机权限转让问题”以及“Trolley问题”应该成为人工智能自动驾驶汽车中必须要解决的问题,应成为人工智能的核心问题,然而目前却没有引起广泛的重视。
上述(非专利文献2)与(非专利文献3)暴露了Google以及大多数的国际著名车厂采用传统的控制方法,在将近10年的自动驾驶汽车的开发中,始终停滞不前,这里面由于自动驾驶汽车的复杂度非常高以致出现了控制领域的NP问题。如果不绕开这个NP问题,自动驾驶汽车永远也不会有进展。
上述(非专利文献4)主要解决的是列车的自动驾驶问题,所提出的利用模糊推论的规则库实现列车的自动驾驶,庞大的知识库的建立需要投入大规模的人工构建规则库的作业,而且只能解决两三个以内的目标函数,在汽车自动驾驶中的应用比较困难。
上述(非专利文献5)虽然提出了多目的的模糊控制,也是因为所采用的模糊控制在对应较多的目标函数的控制上比较勉强,因此仍然停留在针对每一个具体的目标函数的单独控制。特别是在自动驾驶汽车中的人机感觉的融合及安全性、节能、舒适等目标函数,多目标的同时控制,由于不同的目标函数不在同一空间,无法找到一个共同的最佳化的控制点,即使映射到同一空间,不同的目标函数用传统的方法不可能得到一个共同的最佳交点,为此,必须寻找多目的最佳控制之间的冗余,真正实现多目的的最佳的控制,因此,需要解决多目的控制的机器学习模型的建立。
【发明内容】
本发明的第一个目的是:提出一个复合模型的更加强大的自动机器学习模型,提高机器学习的算力,从而实现无训练也可实现机器学习的图像逼近。
本发明的第二个目的是:让自动驾驶汽车可以向优良驾驶员学习人的高超的驾驶技巧,提高自动驾驶汽车的控制水平,可降低自动驾驶汽车控制的复杂度,绕开传统的自动驾驶汽车控制上出现的NP问题。
本发明的第三个目的是:提出一种机器决断机模型,可实现针对复杂的路况的“意识决定”,可以果断地对自动驾驶汽车提出最佳化的状态指令,自动驾驶汽车按照状态指令调用“机智获得”数据。
本发明的第四个目的是:提出一种适于自动驾驶汽车的多目的最佳控制机器学习模型以及系统装置,可将安全驾驶,快速到达,舒适乘车,节约能耗等多目的的目标函数进行最佳的机器学习模型的控制。
本发明的第五个目的是:提出一种导入SDL模型的图像抽出的方法,可开创一种新的机器学习图像处理的途径,以提高图像处理以及图像识别的精度。
本发明的第六个目的是:提出一种可跨越欧几里的空间与概率空间的距离的计算方法,该距离公式满足非负性,非退化性,对称性以及三角不等式的距离尺度的条件。
本发明的第七个目的是:提出一种可跨越欧几里的空间与概率空间的模糊事件概率测度的计算方法,可解决概率分布交织的数据之间的分类问题,可以让微观的不确定的信息,不安定的信息通过宏观的积分产生确定的以及稳定的有价值的信息,可实现意想不到的应用效果。
为实现上述至少一种目的,本发明提出如下技术方案:
一种导入SDL模型的图像抽出的方法,是由特征向量生成部分,与图像抽出部分构成的,其特征是:
(1)特征向量生成部分:以希望抽出图像的各个颜色的灰度值为主复数个特征值;上述特征向量对应着希望抽出图像的各个颜色的灰度值;针对不同的图像,对特征向量的各个特征值进行的复数次的训练;得到特征向量中的各个特征值的最大概率值;最大概率空间;最大概率分布;将结果进行数据库的登录;
(2)图像抽出部分:针对样本图像数据,按上述方法求出特征向量;计算样本图像的特征向量与数据库登录的各个特征向量的距离,找出距离最小的学习后的特征向量中的希望抽出图像的各个颜色的灰度值。
而且,所述距离是指:包括在欧几里德空间,概率空间中至少一种空间的距离尺度。
而且,所述最大概率值,为概率尺度自组织的机器学习的迭代结果。
而且,所述最大概率空间,为概率尺度自组织的机器学习的迭代结果所得到的最大概率尺度所围成的空间。
而且,所述最大的概率分布,为概率尺度自组织的机器学习的迭代结果所得到的最大概率值与最大概率尺度构成的。
而且所述希望抽出图像的各个颜色的灰度值为主特征值是指:建立希望抽出图像的各个颜色的灰度值与其他图像的颜色灰度值的区别;或车道线的某一颜色的灰度与背景图像最大灰度的比值;或车道线的某一颜色的灰度与背景图像最小灰度的比值;或通过对抗学习找出车道线颜色的灰度,与不是车道线的最为接近的小于车道线灰度值的最大概率值,以及与不是车道线的最为接近的大于车道线灰度值的最大概率值,让车道线在这两个值之间进行对抗学习,找到车道线与这两个数值之差的概率分布。
本发明提出的一种导入SDL模型的图像抽出的方法,本方法的实施效果是:可以从一个图像中任意地抽出所需要的图像,可排除影响图像识别结果的背景图像的干扰,可提高图像处理的效果,有益于提高图像识别的精度,是颠覆传统的二值化的新的图像处理算法。
附图说明
图1通过自动机器学习实现道路车线的逼近方法示意图
图2是通过自动机器学习实现道路车线的逼近的流程图
图3是穿越包括概率空间在内的不同空间的距离的定义示意图
图4是车道线环境整体特征抽出流程图
图5是用获得最大概率灰度值的计算流程图
图6是车道线环境图像特征机器学习流程图
图7是车道线图像抽出流程图
图8是用自动机器学习进行的车道线逼近的效果图
图9是导入SDL模型的车道线图像抽出的效果图
图10是求解最大概率的导数值的方法示意图
图11是将图像进行边缘化处理的效果图
图12是“意识决定”定式化隶属函数的四种特性曲线
图13是自动驾驶“意识决定”的定式化模型
图14是机器决断机构成示意图
图15是自动驾驶汽车的过程控制的“机智获得”的示意图
图16是自动驾驶过程中可能遇到的情况示意图
图17是“机智获得”与“意识决定”的融合方法示意图
符号说明
300是在边缘图像上车线位置附近的离散点阵
301是位于车线位置附近的离散点阵的中心线
302与303是在中心线301的两边的直线
301是一个涵盖概率空间的一个欧几里德空间
302是概率分布320的中心点
303是概率分布320的第一个概率分布值的刻度
304是概率分布320的第二个概率分布值的刻度
305是概率分布320的第三个概率分布值的刻度
306是概率分布320的第一个概率分布的刻度的所属领域
307是概率分布320的第二个概率分布的刻度的所属领域
308是概率分布320的第三个概率分布的刻度的所属领域
309是欧几里德空间一个点
310是概率分布330的中心点
311是概率分布330的第一个概率分布值的刻度
312是概率分布330的第二个概率分布值的刻度
313是概率分布330的第三个概率分布值的刻度
314是概率分布330的第一个概率分布的刻度的所属领域
315是概率分布330的第二个概率分布的刻度的所属领域
316是概率分布330的第三个概率分布的刻度的所属领域
320与330是概率空间
具体实施方式
以下结合附图对本发明实施例做进一步详述,但本发明所述的实施例是说明性的,而不是限定性的。
图1是通过自动机器学习实现道路车线的逼近方法示意图。
本申请所提出的SDL(Super Deep Learning)模型,是指由复数个概率尺度自组织机器学习模型,或复数个自动机器学习模型,以及使用可以统一欧几里的空间与概率空间的距离公式,或使用可以统一欧几里的空间与概率空间的模糊事件概率测度公式中的全部或一部分模型所构成的人工智能系统。
如图1(a)所示:这是类似上述概率尺度自组织的定义的无监督机器学习模型,其迭代方法是:在给定的空间中,利用给定的尺度,经过必然产生一个新的空间,新的空间又可以产生一个新的尺度,这样经过若干次的迭代,必然可以得到一个收敛于这个尺度的空间。例如,这个尺度是最大概率的尺度,那么经过若干次的迭代,必然可以得到一个最大概率的空间,最大概率的尺度,以及最大概率的分布。
如图1(b)所示:这是一个复合模型的更加强大的自动机器学习模型,具体原理是:在给定的一个空间,基于一种最佳化的尺度,或最大信息量的尺度,或最大概率的尺度,经过迭代必然产生一个最佳化,或最大信息量,最大密度,或最大概率的空间,在这个新的空间里,加入一个函数逼近模型,使函数逼近的效果比上一个空间的逼近程度更高,在新的空间里,又产生一个新的最佳化的尺度,或最大信息量的尺度,或最大概率的尺度,通过迭代,又产生一个新的最佳化,或最大信息量,最大密度,或最大概率的空间,这样利用函数逼近模型不断的在行的空间里进行函数最佳逼近,使函数逼近的效果更好,经过若干次的迭代,使函数逼近的效果达到最佳状态,这种复合模型的机器学习可以做到不用训练就可达到最佳的函数逼近效果,因此可以称为自动机器学习。
上述所述一种最佳化的尺度是指:包括分形、或者是模拟生物在自然环境下的遗传和进化的遗传操作、或者是最大模糊值、或者是最大密度值、或者是最大近似值、或者是最大类似关系值中的一种。
或者是针对非概率空间也可引伸到欧几里德空间的距离(Euclidean Distance)尺度、或者是曼哈顿距离(Manhattan Distance)尺度、或者是切比雪夫距离(ChebyshevDistance)尺度、或者是闵可夫斯基(Minkowski Distance)尺度、或者是马氏距离(Mahalanobis Distance)尺度、或者是夹角余弦(Cosine)尺度、或者是统一欧几里的空间与概率空间的距离尺度、或者是统一欧几里的空间与概率空间的模糊事件概率测度中的一种。
或者是也可引伸到杰卡德相似系数(Jaccardsimilarity Coefficient)尺度、或者是汉明距离(Hamming Distance)尺度中的一种。
上述最大信息量是指:最大信息墒。
上述最大概率的尺度是指:包括基于正态分布、或者是多变量正态分布、或者是对数正态分布指数分布、或者是t分布、或者是F分布、或者是X2分布、或者是二项分布、或者是负的二项分布、或者是多项分布、或者是泊松分布、或者是爱尔朗分布(ErlangDistribution)、或者是超几何分布,或者是几何分布、或者是通信量分布、或者是韦伯分布(Weibull Distribution)、或者是三角分布、或者是贝塔分布(Bete Distribution)、或者是伽马分布(Gamma Distribution)中的一种最大概率值。
上述进行函数逼近的模型可以是线性回归逼近,最佳平方逼近,最小二乘逼近,切比雪夫多项式逼近,样条函数逼近,插值多项式逼近,三角多项式逼近,有理逼近,帕德逼近等等。
如图1(c)是用自动学习实现的车道线逼近的示意图。
如图1(c)所示:(300)是自动驾驶汽车的车道线图像,车道线图像是由离散点阵组成的一条斜线,(301)是位于车线位置附近的离散点阵的中心线,这条线在初始状态时是逼近函数根据初始给定的空间得到的。在给定的空间里必然存在一个尺度,使这个尺度以内的点阵最接近车道线的逼近线(301),将尺度以内的点阵保留,尺度以外的点阵剔除,可以产生一个新的空间。这里,这个尺度是概率分布的方差,也可以是(302)与(301)围成的区域的点阵密度,或(303)与(301)围成的区域的点阵密度,也可以是(302)与(301)围成的区域的点阵的二维概率分布,或(303)与(301)围成的区域的点阵的二维概率分布。
在用密度作为尺度时,(302)与(301)围成的区域的点阵密度,或(303)与(301)围成的区域的点阵密度在增加时可以减少(302)与(301)的间距,或减少(303)与(301)的间距,反之,(302)与(301)围成的区域的点阵密度,或(303)与(301)围成的区域的点阵密度在减少时可以增加(302)与(301)的间距,或增加(303)与(301)的间距。
在用二维概率分布的最大概率分布值作为尺度时;应采用矩形区域的二维概率分布。
图2是通过自动机器学习实现道路车线的逼近的流程图。
如图1,图2所示:采用自动机器学习进行车线识别的处理步骤如下:
S1是初始化步骤:车道线的识别是针对自动驾驶汽车的环境图像所变换成的二值图像,或从自动驾驶汽车的环境图像中通过机器学习把车道线图像抽出,再进行二值化处理的图像。
在初始化过程中主要给出车线所存在的大略的初始范围,初始的迭代范围可以先给出相当于一半左右图像的范围,在初始范围内一定至少包含一部处理分车道线图像就可。在给定的范围内,设灰度值为256的点阵的位置为xij,yij(i=1,2,…,n,j=1,2,…,m),这里i为第i次迭代的结果,j为点阵的顺序,点阵顺序与处理结果无关。
S2是求中心线步骤:在S1初始化步骤中产生出的车线所存在的范围内,或是迭代过程中得到的范围,通过如下公式求出中心线(301)。
设第i次给定的范围内的点阵集合Pi(i=1,2,…,n)以及属于这个集合的m个点阵pij∈Pi(i=1,2,…,n,j=1,2,…,m),每一个点阵pij的坐标位置为xij,yij(i=1,2,…,n,j=1,2,…,m),再进行如下计算:
【公式1】
Figure BSA0000172210150000081
【公式2】
Figure BSA0000172210150000082
【公式3】
Figure BSA0000172210150000083
【公式4】
ai=yi′-bixi
【公式5】
yi=ai+bixi
利用这些公式就可以得到一个距离给定的范围内的点阵集合Pi,以及属于这个集合所有点阵pij∈Pi之间最接近直线(301)的点阵。
S3是求点阵到中心线的距离步骤:针对给定的范围i内的点阵集合Pi,以及属于这个集合所有点阵pij∈Pi(i=1,2,…,n,j=1,2,…,m),与S2得出的一条直线所形成的距离,具体计算方法如下:
【公式6】
Figure BSA0000172210150000091
通过判断dij的正负可以知道给定区域中的像素是线性回归直线的那个方向的像素,分类后再对负的符号距离取正值。
S4是求迭代尺度步骤:即求解给定的第i范围内所有的点阵到中心线的距离的方差
Figure BSA0000172210150000092
以及平均值di′。
【公式7】
Figure BSA0000172210150000093
【公式8】
Figure BSA0000172210150000094
S5是求新的空间步骤,即以S4求解出的采用迭代公式的Si尺度为基准,进行新的空间的获得,考虑公式7,与公式8是一维概率分布,会出现函数逼近的失真问题,这里也可以用由线性回归直线(301)与公式8的Si尺度(302)或(303)两边所围成区域的点阵的密度作为生成新的空间的迭代尺度,当密度增加时,就减少(302)与(301)或(303)与(301)之间的间距,反之就增加(302)与(301)或(303)与(301)之间的间距。
另外的方法是直接用二维矩形概率分布公式计算迭代尺度的计算,从而产生新的迭代空间。
S6是判别迭代是否完成步骤:“否”就跳到S2继续进行迭代处理,“是”就进入S8的迭代结束的处理步骤。判断的依据是:用迭代次数是否达到最大迭代次数?或迭代是否达到最佳逼近的结果?“是”就转结束迭代处理步骤,否则就跳到S2继续进行迭代处理。
S7是结束步骤。
经过这样的迭代处理,就可以得到车线的位置,起到车线识别的作用。
图3是穿越包括概率空间在内的不同空间的距离的定义示意图。
如图3所示:(301)是一个涵盖概率空间的一个欧几里德空间。在欧几里德空间中有两个概率空间(320)以及(330)。(302)是概率分布(320)的中心点。(303)是概率分布(320)的第一个概率分布值的刻度,(304)是概率分布(320)的第二个概率分布值的刻度,(305)是概率分布(320)的第三个概率分布值的刻度。另外,(306)是概率分布(320)的第一个概率分布的刻度的所属领域,302与303之间的尺度的刻度间距为D1j (320),在这个领域中的概率分布值为p1j (320)。(307)是概率分布(320)的第二个概率分布的刻度的所属领域,303与304之间的尺度的刻度间距为D2j (320),在这个领域中的概率分布值为p2j (320)。(308)是概率分布(320)的第三个概率分布的刻度的所属领域,304与305之间的尺度的刻度间距为D3j (320),在这个领域中的概率分布值为p3j (320)
同样,(310)是概率分布(330)的中心点。(311)是概率分布(330)的第一个概率分布值的刻度,(312)是概率分布(330)的第二个概率分布值的刻度,(313)是概率分布(330)的第三个概率分布值的刻度。另外,(314)是概率分布(330)的第一个概率分布的刻度的所属领域,310与311之间的尺度的刻度间距为D1j (330),在这个领域中的概率分布值为p1j (330)。(315)是概率分布(330)的第二个概率分布的刻度的所属领域,311与312之间的尺度的刻度间距为D2j (330),在这个领域中的概率分布值为p2j (330)。(316)是概率分布(330)的第三个概率分布的刻度的所属领域,312与313之间的尺度的刻度间距为D3j (330),在这个领域中的概率分布值为p3j (330)
再有,设概率空间(320)以及(330)的概率分布中心为(302)以及(310)为两个数据集合的要素wj∈W和vj∈V。再设在概率分布中心(302)以及(310)连接一条直线,在直线的中间有任意一点rj∈R,求任意一点rj∈R是属于概率空间(320),还是概率空间(330)。
再设,mj (wj)是rj∈R与概率分布中心wj∈W之间概率分布刻度的数量,mj (vj)是rj∈R与概率分布中心vj∈V之间概率分布刻度的数量。例如,图3中,mi (wj)=3,pij (wj)=pij (520)、pij (vj)=pij (530)[i=1,2,…,(mj (wj)=mj (vj))]。
则概率空间(330)的集合V与概率空间(320)的集合W之间,可以统一欧几里德空间与概率空间的距离G(V,W)可由下式算出。
【公式9】
Figure BSA0000172210150000101
Figure BSA0000172210150000102
Figure BSA0000172210150000103
Figure BSA0000172210150000111
这里
Figure BSA0000172210150000112
另外
Figure BSA0000172210150000113
上式成立的依据是:由概率空间的集合V到概率空间的集合的W的距离,可以在集合V与集合W之间引进一点集合R,用集合R到概率空间集合V的距离,加上用集合R到概率空间集合W的距离,这时不管概率空间330与概率空间320是否是同时发生的概率,概率空间的集合V到概率空间的集合的W的距离都成立,而且满足距离尺度的对称性,以及三角不等式。
上式中,(Δj (vj)j (wj))是在概率空间320与330中,由于概率分布为“1”的区域中的概率空间的距离应为“0”,因此是欧几里德距离与概率空间的距离之间的误差值,消除这两个误差值,就可以得到概率空间320与330的严格的可以统一欧几里德空间与概率空间的距离。
总结图3所提出的一种可以统一欧几里德空间与概率空间的距离的获得方法,其特征是在欧几里德空间中至少存在这一个概率空间,在穿越概率空间的一个区域时,该区间的概率距离与所经过的区域的概率值有关。
上述欧几里德空间可以延伸到:包括曼哈顿空间(Manhattan Space);切比雪夫空间(Chebyshev Space);闵可夫斯基空(Minkowski Space);马氏空间(MahalanobisSpace);夹角余弦空间(Cosine Space)中的一种。
上述公式(9)可统一欧几里德空间与概率空间的距离,并满足如下距离条件;
(1)非负性:
Figure BSA0000172210150000117
(2)非退化性:d(w,v)=0,则w=v;
(3)对称性:
Figure BSA0000172210150000118
(4)三角不等式:
Figure BSA0000172210150000119
在公式9的可以统一欧几里德空间与概率空间的距离,并且具备距离尺度的所有条件的基础上,还可以引出如下的一个更加严密的模糊事件概率测度的尺度公式。
如上所述,在考虑rj∈R与概率空间(330)的概率分布值的中心值vj∈V之间的模糊事件概率测度时,假如rj∈R正好在概率空间(330)的概率分布中的某一个领域中,可设在这个领域中的概率分布值为pfj (vj),另外偶然概率空间(320)的概率分布值的中心值wj∈W正好也处在概率空间(330)的概率分布中的某一个领域中,可设在这个领域中的概率分布值为pfj (wj),这相当于两个概率分布几乎重合在一起。
由公式9可得,集合R属于集合V的模糊事件概率测度的公式可由如下公式得出:
【公式10】
Figure BSA0000172210150000121
Figure BSA0000172210150000122
Figure BSA0000172210150000123
这里,
Figure BSA0000172210150000124
Figure BSA0000172210150000125
另外,
βj (vj)=(1+pfj (vj))
αj=(1+phj (vj)+phj (wj))
参照上述公式9以及公式10,Dij (wj)以及Dij (vj)、pij (wj)以及pij (vj)、mj (wj)以及mj (vj)、pfj (vj)以及pfj (wj)、phj (vj)以及phj (wj)都是可以计算出的,集合R属于集合W的模糊事件概率测度公式可由下式算出。
【公式11】
Figure BSA0000172210150000131
Figure BSA0000172210150000132
Figure BSA0000172210150000133
这里,
Figure BSA0000172210150000134
Figure BSA0000172210150000135
另外,
βj (wj)=(1+pfj (wj))
αj=(1+phj (vj)+phj (wj))
最后,根据公式10与公式11,超深度对抗学习的结果,可以有如下公式获得:
【公式12】
F=(F(W)/F(V))
由公式12可得,任意集合R在两个概率分布中间,可以获得最佳的分类。同公式9相同,公式10以及公式11同样满足距离尺度的所有条件。
上述公式12的对抗学习还可以如下公式13那样从微观开始对抗。
【公式13】
Figure BSA0000172210150000136
Figure BSA0000172210150000137
Figure BSA0000172210150000141
这里,
Figure BSA0000172210150000142
Figure BSA0000172210150000143
另外,
βj (wj)=(1+pfj (wj))
βj (vj)=(1+pfj (vj))
公式13就是一种公式化的对抗学习模型,可以把微观上的不确定的空间信息,以及随机性的概率信息经过对抗再进行积分,可以在宏观上产生一个确定性的,稳定的有价值的信息,这就是模糊事件概率测度的对抗学习的优越性。
上述模糊事件概率测度的隶属函数的公式只是一个例子,为任意的可将目标函数按照人为给定的一定规则构成结果为0-1的模糊数值的公式的构成,或者是考虑了模糊信息与概率信息的公式构成,或者是考虑了空间信息与概率信息的公式构成都将属于本发明的范围之内。
图4是车道线环境整体特征抽出流程图。
如图4所示:由车道线环境整体特征学习程序,读取到的车道线环境整体RGB图像,或将RGB图像转换成Lab图像,通过如下的7个步骤就可得到车道线环境整体特征。车道线环境整体图像主要是表示环境特征,比如白天,夜晚,阴天,晴天,路面照明好的时候,路面照明坏的时候等等特征。
S1是读取RGB图像步骤:在这一步骤中,将读取到的车道线环境整体RGB图像,或将RGB图像转换成Lab图像,为了防止图像亮度影响识别的精度,去掉亮度,只使用+a,-a,+b,-b四个颜色。
S2是选择一个颜色图像步骤:在R色,G色以及B色三个颜色,或者是Lab颜色的+a色,-a色,+b色,-b色四个颜色中选择一个颜色进行处理。
S3是最大概率灰度值计算步骤:在这一步骤里调用“最大概率灰度值计算”子程序,求给定的颜色图像的最大概率的最大灰度特征值。
S4是图像灰度反转步骤:考虑针对一个颜色的车道线环境整体图像抽出两个特征值,最大灰度值特征值,以及最小灰度值特征值,R色,G色以及B色图像可以抽出6个特征值,或者+a色,-a色,+b色,-b色四个颜色8个特征值。
S5是最大概率灰度值计算步骤:与第三步骤S3相同,在这一步骤里同样调用“最大概率灰度值计算”子程序,求给定的颜色图像的最大概率的最小灰度特征值。
S6是特征抽出完成的判断步骤:R色,G色以及B色,或者Lab颜色的+a色,-a色,+b色,-b色四个颜色中一个图像分别的最大概率的最大灰度值与最大概率的最小灰度值的两个图像特征是否完全抽出了?没有完全抽出再选中另一个颜色的图像进行处理,则跳转第二步骤S3、2,是完全抽出就转入下一步骤。
S7是返回步骤:返回主程序。
上述最大概率灰度值计算是通过如下方法实施的。
图5是用获得最大概率灰度值的计算流程图。
如图5所示:给定的颜色图像的最大概率灰度值计算是通过如下5个步骤完成的。
S1是初始化步骤:在这个步骤里先设定最大迭代次数MN,一般可选购5-10次,再设迭代进展常数v,主要用于判断迭代是否还有效果。
S2是求灰度值的平均与方差步骤:
设a图像是n×m像素aij,(i=1,2,...,n,j=1,2,...m),第k次迭代的a图像的平均灰度值g(k)为:
【公式14】
Figure BSA0000172210150000151
a图像的灰度值的概率分布的分散为:
【公式15】
Figure BSA0000172210150000152
S3是自组织处理步骤:以g(k)为中心,以S2(k)为两个边界,既最大概率尺度,把符合边界的像素保留,边界以外的像素剔除,构成了新的像素集合,既新的最大概率空间。
S4是迭代完成判断步骤:用迭代次数回与最大次数相减即(MN-k)=0?,或|S2(k+1)-S2(k)|≤v?“是“则迭代完成,跳至第五步骤S5,“否”则跳转第二步骤S2继续迭代处理。
S5迭代返回步骤:返回主程序。
这里,为能把车道线图像抽出还要提供一个车道线局部特征抽出方法,这是针对给定的车道线的标注范围对车道线图像的灰度图像的特征值进行抽出,以及车道线与车道线背景的灰度差的特征值进行抽出。
仿照上述车道线环境整体特征抽出方法,先用图5的最大概率灰度值的机器学习方法,分别求出车道线像素集合中的R色,G色,以及B色图像,或+a色,-a色,+b色,-b色图像分别的最大概率灰度值,以及非车道线的R色,G色,以及B色图像分别的最大概率灰度值,分别得出6个最大概率灰度值,,或+a色,-a色,+b色,-b色图像分别得出8个最大概率灰度值,用车道线的RGB三个颜色的最大概率灰度值分别减去所对应颜色的非车道线的RGB三个颜色的最大概率灰度值,或用车道线的+a色,-a色,+b色,-b色四个颜色的最大概率灰度值分别减去所对应颜色的非车道线的+a色,-a色,+b色,-b色四个颜色的最大概率灰度值,注意这里要对结果取绝对值,就可得到RGB三个颜色的3个车道线差值的特征值,以及车道线本身的RGB三个颜色的最大概率灰度值的3个特征值,加上6个车道线环境整体特征,共有12个可以反映车道线图像的特征值构成的特征向量,或+a色,-a色,+b色,-b色四个颜色的4个车道线差值的特征值,两条车线就是8个车道线差值的特征值,以及车道线本身的+a色,-a色,+b色,-b色四个颜色的最大概率灰度值的4个特征值,两条车线就是8个车道线差值的特征值,加上6个车道线环境整体特征,共有22个可以反映车道线图像的特征值构成的特征向量。
具体车道线图像抽出是通过两个步骤进行的,一个车道线标注学习步骤,在这个步骤通过机器学习向人学习“什么是车道线图像”?通过机器学习产生一个可以表达车道线图像特征的保存在数据库中的特征向量查询数据。这里所采用的数据标注技术,是将标注后的数据进行机器学习,得到标注数据的概率分布,因此只需要小数据的数据标注就可实现传统深度学习所必须的大数据标注的效果。
车道线图像抽出的另一个步骤是利用在线读取到的车道线环境图像,经过上述方法求出22个样本特征值,将22个样本特征值与保存在数据库中的特征查询数据,进行可以统一欧几里德空间与概率空间距离的计算,从中找到距离最接近的一个特征向量中的车道线灰度值,作为样本图像的车道线灰度值,将RGB三个图像的灰度值抽出,或+a色,-a色,+b色,-b色四个图像的灰度值抽出,就可以得到一个车道线图像了。
图6是车道线环境图像特征机器学习流程图。
如图6所示:车道线环境整体图像特征学习由如下的九个步骤完成。
S1是初始化步骤:设定学习次数,针对一种车道线环境整体图像进行一次学习。设学习次数为g次。
S2是读取被学习的视频图像步骤:读取需要学习的视频图像。
S3是功能转换步骤:进行车道线环境图像特征机器学习功能,与车道线识别功能的及时切换处理。可以使人工直接就可以在自动驾驶时进行车道线标注的工作。
S4是车道线标注判断步骤:判断视频图像是否有被标注迹象,有就转下一步骤S5,无就返回S2步骤继续读取视频图像。
S5车道线图像特征抽出步骤:在这一步首先要调用上面的“环境整体图像特征抽出”子程序,同时按照被标注的位置,进行上述车道线局部特征抽出,得到12个特征值所组成的一个特征向量。
S6机器学习数据登录步骤:将上述“环境整体图像特征抽出”子程序得到的环境整体图像特征抽出值登录,以及车道线局部特征值共12个特征值组成的特征向量进行数据库登录。
S7判断学习是否完成步骤:判断g次的机器学习是否已经全部完成,如果“是”转下一步骤,如果“否”跳转第二步骤S2
S8机器学习数据处理步骤:在这个步骤中,要将同一个车道线图像,所进行的g次的学习,将分别由12个特征值所组成的g个特征向量,通过机器学习,得到12个最大概率值的一个最大概率特征向量,以及12个最大概率尺度,再根据统计学的概率分布特性,由最大概率值,与最大概率尺度构成了车道线图像的最大概率分布信息。
S9结束步骤:程序处理完成。
图7是车道线图像抽出流程图。
如图7所示:车道线图像抽出可按以下步骤求出:
S1初始化步骤:概率尺度,最小距离的2倍方差,该值是最小距离所对应的记录中的值。
S2读取样本图像步骤:读取车道线环境图像视频中的一幅图像。
S3求特征值步骤:针对样本图像的RGB三色图像分别求出背景图像的6个特征值,车道线差值特征包括左右车道12个特征,共18个特征。注意要按RGB三个颜色分别对应学习后的特征值数据,或针对样本图像的Lab色图像分别求出背景图像的8个特征值,车道线差值特征包括左右车道16个特征,共24个特征。
S4计算样本特征值距离步骤:
设不同状态下的车道线环境图像为Fz(z=1,2,…,g),每一个图像Fz可产生h个特征,就可由h×g个机器学习的最大概率特征值数据:Lij∈Lj(i=1,2,…,h,j=1,2,…,g),以及最大概率尺度数据Mij∈Mj(i=1,2,…,h,j=1,2,…,g),即:
【公式16】
Figure BSA0000172210150000181
【公式17】
以及
Figure BSA0000172210150000182
已知样本特征数据Sj∈S(j=1,2,…,h)为:
(S1,S1,…,Sh)
样本特征数据Sj∈S(j=1,2,…,h)与第i个登录后的机器学习的数据Li的距离为:
【公式18】
Figure BSA0000172210150000183
这里
Figure BSA0000172210150000184
上式,Mij是第i个特征向量的第j个特征值的最大概率尺度,在最大概率值Lij与最大概率尺度Mij之间所构成的最大概率空间的概率距离为“0”,可看作是欧几里的空间与概率空间之间的距离误差,减去这个误差就可以得到,公式17的统一欧几里德空间与概率空加距离的简化公式。
S5最小距离计算步骤:针对公式16的g个最大概率特征向量,以及公式17的g个最大概率尺度特征向量,所计算出的公式18的样本特征向量之间可得出h个距离:
G(1),G(2),…,G(h)
求出最小的距离min G(i)
S6是车道线抽出步骤:上述第i个特征向量所对应的车道线图像的RGB三个颜色的最大概率灰度值,或Lab颜色的四个颜色的最大概率灰度值,将作为车道线图像的的灰度值将车道线抽出。
S7是结束步骤:程序处理结束。
图8是用自动机器学习进行的车道线逼近的效果图。
如图8所示:(a)是自动机器学习逼近车道线的迭代过程,可以清楚的看到,比上一次的迭代车道线被进一步的逼近。(b)是车道线识别结果,可以清楚的看到是一个最佳的逼近车道线。
图9是导入SDL模型的车道线图像抽出的效果图。
如图9所示;导入SDL模型的车道线图像抽出的效果,比起传统的二值化图像,车道线被非常清晰的抽出,周围没有任何的干扰图像,这样在车道线识别上必然会比传统的方法识别的精度要高。
为了防止车道线图像的抽出尽可能减少车道线图像的学习次数,可以将车道线的各个颜色与背景图像的各个颜色建立联系,比如车道线的某一颜色的灰度与背景图像最大灰度的比值,或车道线的某一颜色的灰度与背景图像最小灰度的比值。
或者用通过对抗学习找出车道线颜色的灰度,与不是车道线的最为接近的小于车道线灰度值的最大概率值,以及与不是车道线的最为接近的大于车道线灰度值的最大概率值,让车道线在这两个值之间进行对抗学习,找到车道线与这两个数值之差的概率分布,以及车道线与相邻图像(例如车道线是在道路上的,两边图像是道路图像,一般灰度值比较低的特点),得到车道线抽出的特征向量,从而作为车道线抽出的依据。
上述导入SDL模型的图像抽出的方法是由特征向量生成部分,与图像抽出部分构成的。
特征向量生成部分:以希望抽出图像的各个颜色的灰度值为主特征值;或建立希望抽出图像的各个颜色的灰度值与其他图像的颜色灰度值的区别的复数个特征值;上述特征向量对应着希望抽出图像的各个颜色的灰度值;针对不同的图像,对特征向量的各个特征值进行的复数次的训练;得到特征向量中的各个特征值的最大概率值;最大概率空间;最大概率分布;将结果进行数据库的登录。
图像抽出部分:针对样本图像数据,按上述方法求出特征向量;计算样本图像的特征向量与数据库登录的各个特征向量的可以统一欧几里德空间与概率空间的距离尺度。找出距离最小的学习后的特征向量中的希望抽出图像的各个颜色的灰度值。
上述最大概率空间,如图5所示;为概率尺度自组织的机器学习的迭代结果所得到的最大概率尺度既S2(k)所围成的空间,既以最大概率g(k)为中心,以最大概率尺度S2(k)所围成的空间。所述最大的概率分布,可参照公式18为概率尺度自组织的机器学习的迭代结果所得到的最大概率值g(k)与最大概率尺度S2(k)构成的。
下面本发明再提出边缘图像处理方法。
在自动驾驶汽车中光学识别环境图像需要用双目摄像头,为了快速的读取双目摄像头的视频数据,一般采用FPGA芯片来实现,然而,FPGA只能从二值图像开始处理,另外,为了高精度并且高速度的对汽车环境图像进行识别,需要将双目摄像头读取的视频图像的二值化图像变换成边缘图像,这里提出一个高精度的边缘图像的变换方法。
首先对图像进行一阶导数的计算方法:
设二维图像的函数表达式为F(x,y),对图像求一阶导数的方法如下:
【公式19】
Figure BSA0000172210150000201
Figure BSA0000172210150000202
对图像求二阶导数的方法如下:
【公式20】
Figure BSA0000172210150000203
Figure BSA0000172210150000204
【公式21】
Figure BSA0000172210150000205
Figure BSA0000172210150000206
对图像求导的机器学习导入的方法。对图像求导会引起强烈的噪声的出现,为了抑制噪声,传统上有Prewitt算法,以及Sobel算法,这里引进概率尺度自组织的机器学习算法,可从复数个像素的导数中求解中间的一个像素的最大概率的导数值的方法。
图10是求解最大概率的导数值的方法示意图
如图10所示:以像素F(x,y)为中心,分别求解5*5像素矩阵的25个像素的一阶导数值,用图5所示的概率尺度自组织的机器学习在25个导数值中求解最大概率值,将这个最大概率导数值作为中心点F(x,y)的正式导数值。整个图像的导数值是按照每一点的水平以及垂直的平移最终将整个图像的一阶导数计算完毕。
对上述用最大概率自组织模型求出的一阶导数值的最大概率值,对于小于“一阶导数值的最大概率值”的像素置“0”,保留大于“一阶导数值的最大概率值”的置“256”,就可以得到边缘图像的结果,或者将最大概率自组织模型求出一阶导数值的最大概率尺度以内的最大概率空间所属的像素置“256”,其他的像素置“0”。
在这个结果上还可以仿照上面的求导方法再做一次求解5*5共25个图像像素的一阶导数,以获得二阶导数的结果。求解二阶导数还可以按照上面的公式(20)和(21)直接进行,图像像素分别进行二阶导数的计算后,二阶导数的各个灰度值,再用图5所示的最大概率自组织模型求出二阶导数值的灰度值的最大概率值,即小于二阶导数值的灰度值的最大概率值的像素置“0”灰度,其他置“256”,或者同上,将最大概率自组织模型求出二阶导数值的灰度值的最大概率值的最大概率尺度以内的最大概率空间所属的像素置“256”,其他的像素置“0”。就可以得到二阶导数的边缘图像。
图11是将图像进行边缘化处理的效果图。
从图11上可以看出采用概率尺度自组织的机器学习进行边缘化处理效果显著。
为了把“意识决定”定式化,这里引进隶属函数(Membership Function)。
图12是“意识决定”定式化隶属函数的四种特性曲线。
如(a)所示:自变量值越小,隶属函数MF值就越大,反之,自变量值越大,隶属函数MF值就越小。例如自动驾驶汽车的速度距离安全速度越近,自变量就越小MF值就越大,表示自动驾驶汽车越安全,反之自动驾驶汽车就越危险。利用这样的定式就可以简单的把自动驾驶汽车的状态描述下来了。这里,T为危险状态的阀值。
如图12(b)所示:自变量值越大,隶属函数MF值就越大,反之,自变量值越小,隶属函数MF值就越小。例如自动驾驶汽车与在一个车道线上同行的汽车的间距越大,自变量就越大MF值就越大,表示自动驾驶汽车越安全,反之自动驾驶汽车就越危险。利用这样的定式就可以简单的根据自动驾驶汽车与同行车的间距把自动驾驶汽车的驾驶状态描述下来了。这里,T为危险状态的阀值。
如图12(c)所示:是一个把附近车道线的同行汽车,由前到后根据车间距离所反映的自动驾驶“意识决定”的函数。最初,当自动驾驶汽车前方的附近车道线上存在同行车,自动驾驶汽车与同行车越远,MF值就越大,自动驾驶汽车就越安全。可是,由于自动驾驶的车速大于同行车的车速,两辆车逐渐接近,当达到T1状态时,自动驾驶汽车就进入了危险状态。自动驾驶汽车继续超越通行车,当达到T2时自动驾驶汽车就脱离了危险状态,离着越远MF值就越大,自动驾驶汽车就越安全。
如图12(d)所示:给定一个最佳值,当自变量由一个高于这个值,逐渐趋近这个值,这时MF值也逐渐接近最大值范围,当自变量由最大值逐渐变小时,这时MF值逐渐变小。例如自动驾驶汽车的速度由高于安全值,逐渐接近安全值时,MF值由小变大,当小于T1阀值时自动驾驶汽车接近安全状态。当自动驾驶汽车的速度低于安全值范围时,自动驾驶与安全值相比速度越低自动驾驶汽车就越危险。
因为安全状态与危险状态的变化过程是一个指数的比例变化,因此要求隶属函数应该是一个非线性的函数。
图13是自动驾驶“意识决定”的定式化模型。
如图13所示:自动驾驶汽车C1在直线的车道上行驶,会在前面遇到同行车C2,设C1的位置p1与同行车C2的位置p2之间相隔距离为d0。同样在左侧车道上的前方也会遇到同行车C2’,设C1的位置p1与同行车C2’的位置p2’之间相隔距离为d0’。另外,在右侧车道上的前方也会遇到同行车C2”,设C1的位置p1与同行车C2”的位置p2”之间相隔距离为d0”。
再设,a1的区域是对于自动驾驶汽车C1所处的危险区域,是绝对不能准许的,作为任何一个自律分散系统的每一个控制单元,遇到这种情况都要自律的采取措施,不惜紧急制动来排除这个危险状态,
再设,a2的区域是对于自动驾驶汽车C1所处的第二危险区域,在这个区域中可以通过紧急刹车就可以排除危险的区域。a3的区域是对于自动驾驶汽车C1所处的第三危险区域,在这个区域中自动驾驶汽车不得已可以进入这个区域,在这个区域中不可变道,但是需要尽快的避开这个区域。
设自动驾驶汽车C1的速度为S1,同行车C2,C2’或C2”的速度为S2,S2’或S2”,自动驾驶汽车C1与同行车C2,C2’或C2”的初始距离为d0,d0’或d0”。则自动驾驶汽车C1与同行车C2,C2’或C2”的动态距离为:
【公式22】
d=[d0-(s1-s2)t]
则,有关车间距离的动态隶属函数的公式如下:
【公式23】
Figure BSA0000172210150000221
有了这个公式,自动驾驶汽车在直线行走过程中的所有的意识决定就可以用公式23反映出来了,这比通过规则的堆积进行意识决定的描述要简化得多。
再进一步,同行车在远离a3区域时,出现交通事故的概率为0,但是在a1区域中,如果同行车是同车线的前面车,出现交通事故的概率就是0.62,在a2区域中,如果同行车是同车线的前面车,出现交通事故的概率就是0.34,在a3区域中,如果同行车是同车线的前面车,出现交通事故的概率就是0.04。
设同行车的存在,出现交通事故的概率值为PWD,则考虑概率信息的有关车间距离的模糊事件概率测度WDF的公式如下:
【公式24】
Figure BSA0000172210150000231
这样,自动驾驶汽车在行驶过程中的一种状态,被一个公式动态的进行了描述,从而可以得到符合“意识决定”的行驶,把很多种的路况归纳为一个公式,这就起到化简系统控制的复杂度的作用。
在自动驾驶汽车的具体控制的时候,还需要引入模糊推论。模糊推论的格式如下:
如果自动驾驶汽车C1的车速小于低于最佳速度值OS,AND自动驾驶汽车C1与同行车C2的间距WD小于阀值T,AND右车道对于同行车C2”的WD”值是大于等于阀值T,则,自动驾驶汽车可以向右车道改变车线。
【公式25】
Figure BSA0000172210150000232
同样,如果自动驾驶汽车C1的车速低于最佳速度值0S,AND自动驾驶汽车C1与同行车C2的间距WD小于阀值T,AND左车道对于同行车C2’的WD’值是大于等于100,则,自动驾驶汽车可以向左车道改变车线。
模糊推论还可以表示为:如果自动驾驶汽车C1与同车道线前面的同行车C2的间距WD,接近a3危险区,自动驾驶汽车C1与同车道线后面的同行车C3的间距WD,也接近a3危险区,左车道对于同行车C2’的WD’值是大于等于阀值T,则,自动驾驶汽车可以向左车道改变车线,或者,右车道对于同行车C2”的WD”值是大于等于阀值T,则,自动驾驶汽车可以向右车道改变车线。
上述虽然是类似知识库的控制方法,但是由于每一个条件对应的是一个隶属函数,每一个公式可以涵盖很多种的路况,因此可以大大压缩规则的数量。
自动驾驶汽车主要体现两种“意识决定”,上面介绍的是根据交通规则,将自动驾驶过程用隶属函数进行描述,在通过模糊推论,将驾驶过程周围复杂的路况作产生的关系,让“意识决定”根据复杂的路况关系构成一种对自动驾驶的控制所能果断地提出最佳的状态指令。
本申请还提出利用对抗学习进行“意识决定”的控制。这里设自动驾驶汽车C1需要提速向前开接近前面的同行车的模糊事件概率测度FPf,远离前面同行车的模糊事件概率测度FP-f,需要减速接近后面的同行车的模糊事件概率测度FPb,相反远离后面同行车的模糊事件概率测度FP-b
再有设C1需要向左车道变换车道的模糊事件概率测度FP1,以及不能向左车道变换车道的模糊事件概率测度FP-1,同样,C1需要向右车道变换车道的模糊事件概率测度FPr,以及不能向右车道变换车道的模糊事件概率测度FP-r
这里参照图13,自动驾驶汽车C1需要提速向前开接近前面的同行车的模糊事件概率测度FPf值取决于距离前面的同行车的车间距离的模糊事件概率测度WDF(公式);自动驾驶汽车C1的车速s1低于所要求的车速Ss;后面同行车的距离过于接近最近距离DS13,以及在一定时间内始终处于接近状态。
【公式26】
Figure BSA0000172210150000241
这里,ω71~ω75是各个要素的权重,需要通过实际来选取。另外,远离前面同行车的模糊事件概率测度FP-f=1-FPf
下面参照图13,再对需要减速接近后面的同行车的模糊事件概率测度FPb进行定式。FPb值取决于自动驾驶汽车C1与前面的同行车的车间距离DS12太近,需要拉开距离,自动驾驶汽车C1的车速s1高于所要求的车速Ss,后面同行车C3的速度变慢低于所要求的车速Ss
【公式27】
Figure BSA0000172210150000242
这里,ω81~ω86是各个要素的权重,需要通过实际来选取。另外,自动驾驶汽车C1远离后面同行车的模糊事件概率测度FP-b=1-FPb
现在再参照图13,将对C1需要向左车道变换车道的模糊事件概率测度FP1进行定式。FP1值取决于自动驾驶汽车C1与左面的同行车C2’有一定的车间距离WDF2‘,自动驾驶汽车C1的车速s1低于所要求的车速Ss,而且自动驾驶汽车C1与前方同行车C2的间距[d0-(s1-s2)T]太近,而且自动驾驶汽车C1与右车道的同行车C2”的距离[d0-(s1-s2”)T]也过近;再有FP1值取决于自动驾驶汽车C1与左面的同行车C2’有一定的车间距离,与前方同行车C2的间距[d0-(s1-s2)T]太近,同时与后方同行车C3的间距[d0-(s1-s3)T]也太近。
【公式28】
Figure BSA0000172210150000251
这里,ω91~ω102是各个要素的权重,需要通过实际来选取。另外,不能转向左面车道的模糊事件概率测度FP-1=1-FP1
最后,在设C1需要向右车道变换车道的模糊事件概率测度FPr的定式。FPr值取决于自动驾驶汽车C1与右面的同行车C2”有一定的车间距离,自动驾驶汽车C1的车速s1低于所要求的车速Ss,而且自动驾驶汽车C1与前方同行车C2的间距太近;再有FP1值取决于自动驾驶汽车C1与右面的同行车C2”有一定的车间距离,与前方同行车C2的间距太近,同时与后方同行车C3的间距也太近。
【公式29】
Figure BSA0000172210150000252
这里,ω111~ω120是各个要素的权重,需要通过实际来选取。另外,不能转向右面车道的模糊事件概率测度FP-r=1-FPr
公式13~38实际上是描述了自动驾驶汽车在直线车道上行驶的动态的安全驾驶状态,随着前后车速的变化,以及走行的距离,各种状态会发生变化。本申请提出通过对抗学习决定自动驾驶汽车C1是朝前加速行驶接近前面的同行车,还是减速行驶接近后面同行车C,还是向左车道换道行驶,还是向右车道换道行驶。
图14是机器决断机构成示意图。
这里提出机器决断机,如图14所示;用机器决断机构成“意识决定”的方法。在直行车道上,在复杂的通行车之间的关系中,决定自动驾驶汽车是超前加速,还是减速接近后面的车,还是向左变换车道,还是向右变换车道,需要一个在线性的,果断而且最佳的判断,为此引进机器决断机来进行“意识决定”的处理。
如图14所示:设自动驾驶汽车C1超前加速行驶与FPf的值有关,同时也与不朝后减速接近的模糊时间概率值FP-b,不向左车道变道的模糊时间概率值FP-1以及不向右车道变道的模糊时间概率值FP-r的值有关,当(FPf+FP-b+FP-1+FP-r)≥(FPb+FP-f+FP-1+FP-r)时,令自动驾驶汽车C1朝前加速行驶的模糊概率测度FPf’为“1”,那么自动驾驶汽车C1朝后减速行驶的模糊概率测度FPb’为:
【公式30】
Figure BSA0000172210150000261
这样就可以把正负两个方向的信息全都利用起来了,是一个正负两个方向的强对抗学习的结果,可以实现最佳化的,精准的,最为果断的决策,这里就产生了“机器决断机”的概念。
同理,当(FPf+FP-b+FP-1+FP-r)<(FPb+FP-f+FP-1+FP-r)时,令自动驾驶汽车C1朝后减速行驶的模糊概率测度FPb’为“1”,那么自动驾驶汽车C1朝前加速行驶的模糊概率测度FPf’为:
【公式31】
Figure BSA0000172210150000262
因为,从交通管理规则上就明确汽车不要经常变道,因此自动驾驶汽车C1是否向左车道变道,不仅取决于自动驾驶汽车C1与左车道线同行车之间的模糊事件概率测度的关系,也同直线车道,以及右车道同行车之间的关系。仿照上述的定式方法,当(FP1+FP-f+FP-b+FP-r)≥(FPf+FPb+FP-1+FPr)时,令自动驾驶汽车C1朝左车道变道的模糊概率测度FP1’为“1”,那么自动驾驶汽车C1不朝左车道变道的模糊概率测度FP-1’为:
【公式32】
Figure BSA0000172210150000263
同样的方法,自动驾驶汽车C1是否向右车道变道,仿照上述的定式方法,当(FPr+FP-f+FP-b+FP-1)≥(FPf+FPb+FP-r+FP1)时,令自动驾驶汽车C1朝右车道变道的模糊概率测度FPr’为“1”,那么自动驾驶汽车C1不朝右车道变道的模糊概率测度FP-r’为:
【公式33】
Figure BSA0000172210150000271
公式30~33对自动驾驶汽车在直线的道路上行驶,由于函数FPb,FPf,FP1,FPr的表达式中都含速度变量,因此可以看成是一个以时间τ为自变量的函数,既FPb(τ),FPf(τ),FP1(τ),FPr(τ),由此机器判断机的模型FPf’,FPb’FP1’FPr’也可构成对时间自变量的函数公式:
自动驾驶汽车C1朝前加速行驶的模糊概率测度函数公式FPf’(τ)为:
【公式34】
Figure BSA0000172210150000272
那么自动驾驶汽车C1朝后减速行驶的模糊概率测度函数公式FPb’(τ)为:
【公式35】
Figure BSA0000172210150000273
那么自动驾驶汽车C1朝左车道变道的模糊概率测度函数公式FP1’(τ)为:
【公式36】
Figure BSA0000172210150000274
那么自动驾驶汽车C1朝右车道变道的模糊概率测度函数公式FPr’(τ)为:
【公式37】
Figure BSA0000172210150000275
这样就可预测在自动驾驶的哪一段是安全的行使区域,哪一段开始会出现危险,所以这是一个自动驾驶动态的过程控制的“意识决定”的模型。
上述“意识决定”的模型可以预测将要行走的状况,调用“机智获得”的数据,构成了一种相互和谐的控制过程,也符合生物神经的感知层,判断层,以及执行层的三元机理。
自动驾驶“意识决定”模型是依照安全驾驶规则构成的,是依据自动驾驶汽车与周围的同行车建立动态的模糊事件概率测度关系;或模糊关系;或概率关系建立起来的,以及通过隶属函数吸收了交通规则,危险预测规则,危险避让规则构成的,并且利用了正负两个方向的模糊事件概率测度,或模糊关系,或概率关系的对抗的结果实现的。
上述“意识决定”模型,是将自动驾驶汽车在行驶过程中分割成若干个不同路况的机器判断机。
下面,面对本申请所提出的自动驾驶系统的控制特点,首先就要考虑如何绕开自动驾驶在控制上的复杂的NP问题,传统的控制方法针对每一个控制点都要设定阀值来控制。那么至少几十种路况,每一个路况又要进行几十个控制点的调节,这就是一个典型的组合理论中的NP问题,是图灵机不可能解决的难题。
为解決自动驾汽车驶在复杂的控制上的NP问题,本申请提出用机器同人学习的方法绕开自动驾驶在复杂的控制上的NP问题,机器同人学习产生各种自动驾驶的知识,机器从人那里实现了“机智获得”,机器产生了“智慧”,自动驾驶汽车就可以实现最为接近人的“机智获得”的控制结果,这就使自动驾驶汽车的复杂度得到了极大的化简,从而使自动驾驶汽车的控制摆脱了复杂的NP问题的困扰,可希望实现图灵测试效果的自动驾驶汽车系统。
图15是自动驾驶的过程控制的“机智获得”的示意图。
如图15所示:首先行驶距离(DD),初速度(IV),目标速度(TS)以及目前的行走的距离(行驶过程中的监控点的位置)Dis等属于检索项目,控制项目有方向盘角度(Sw),油门大小(Tv),刹闸状况(BS),行车方向(P/N),转弯控制(Tc),转弯灯(Tl),控制间隔(Ci),路况种类(RC)等条件。
概率尺度自组织机器学习DL1负责将复数个自动驾驶汽车的训练数据中求出最大概率值,输入到感知层(P1)的节点上,连接在感知层与神经层(P2)的概率尺度自组织机器学习DL1负责
将复数次的训练数据进行最大概率分布的求解,以及剔除不正确的训练数据,以及识别并建立新的训练数据的处理。当计算数据通过可以统一欧几里德空间以及概率空间的距离公式(10),以及不同空间的模糊事件概率测度公式(11)的计算超出一定范围时,将被放入待观察存储空间,如果之后的训练也有一些与该数据相似的训练结果,可以将这些数据通过概率尺度自组织的机器学习,构成新的“机智获得”结果,否则该数据将被剔除。
EPD是供数据检索所设立的存储空间,按照“意识获得”的状态指令,检索EPD数据库的内容,将控制项目的数据取出控制自动驾驶汽车的行使。具体检索方法是:通过可以统一欧几里德空间以及概率空间的距离公式(10),以及不同空间的模糊事件概率测度公式(11),计算“意识获得”的状态指令所需的行使要求与EPD数据库中的数据的概率分布之间的距离,或模糊事件概率测度,得出最为接近的自动驾驶的过程控制中的机器学习“机智获得”的数据库,使用控制项的各个数据就可对自动驾驶汽车进行控制。除此之外还要有通过陀螺仪对自动驾驶的姿态的控制,定位的控制,车道线的控制等等。
自动驾驶的“机智获得”就是解决机器同入学习驾驶技巧的问题,可以使复杂的自动驾驶的控制简化,因此需要事前大量的训练自动驾驶汽车系统,以使“机智获得”具有足够的知识,来面对各种各样的驾驶状态。
自动驾驶构成“机智获得”数据的获取方法是;通过“意识决定”单元获取某一个与同行车之间关系,或路况所给出的一个状态指令。“机智获得”单元接收上述一个状态指令后,将人在训练自动驾驶汽车上所产生的包括:方向盘信息,油门信息,刹闸信息,挂挡信息,转弯指示灯信息在内的至少一种信息登录,构成“机智获得”数据库。
上述“意识决定”获取某一个与通行车之间关系是指:包括模糊事件概率测度关系,模糊关系,概率关系,车间距离关系中至少一种。
上述“机智获得”的数据是在同一个“意识决定”的指令,经过复数次的训练所获的复数个数据,经过概率尺度自组织机器学习求出训练数据的最大概率值;训练数据的最大概率空间;训练数据的最大概率分布。
这里,训练数据的最大概率值作为“机智获得”单元的控制值,训练数据的最大概率空间,作为判别训练质量,实行对训练结果的取舍的依据,以及建立新的“机智获得”数据的依据。训练数据的最大概率分布作为自动驾驶在控制上的冗余,以及建立样本数据与登录的具有概率分布性质的数据检索的必要条件。
自动驾驶导入”机智获得“模型的控制方法是;通过“意识决定”获取某一个与通行车之间关系,或路况的一个状态指令,在获取上述一个状态指令后,调用与该状态指令所对应的“机智获得”数据,按照“机智获得”数据控制自动驾驶汽车行使。
上述“意识决定”获取某一个与通行车之间关系是指:包括模糊事件概率测度关系,模糊关系,概率关系,车间距离关系中至少一种。
上述调用与该状态所对应的“机智获得”数据是指:将“意识决定”所给出的指令的条件,同“机智获得”数据库中的各个数据间,用统一欧几里的空间与概率空间的距离公式,或模糊事件概率测度公式进行计算,找出距离,或测度最小的“机智获得”数据作为控制数据。
用人间工学所提出的“舒适乘车”的原则;在控制自动驾驶的加速;或减速上不超过±x[m/s2],或者不超过y[m/s3]的加速度避免给人一些不舒适的乘车感觉;做到“舒适乘车”的效果。
自动驾驶的控制的实现绝不是仅仅的调用“机智获得”数据,根据自律分散控制理论,自动驾驶的控制具有独立的控制能力,在一种路况下会随机的出现各种偶然事件,要求在“机智获得”功能单元里也要具备掌握自动驾驶汽车感知层的各种信息,在脱离“意识决定”功能单元下也能自主的进行一定范围,一定条件下的自动驾驶汽车的行使。
“机智获得”数据是按照自动驾驶汽车在行走过程中根据陀螺仪所测定的间距,进行连续控制的,在训练时是按照这个间距进行数据采集实现“机智获得”的,在自动驾驶汽车的行走过程也是按照这个间距读取“机智获得”数据进行相应参数的控制。
自动驾驶汽车的控制并不只是简单的读取“机智获得”数据,按照“机智获得”数据进行控制的,作为一个自律分散的控制系统,自动驾驶汽车在执行读取到的“机智获得”数据,并按照“机智获得”数据进行必要的控制的同时,还要接受来自感知层的信息,可以根据突然事件的发生,或根据突然事件放生的可能性自主的判断各种事件出现的可能性,并给予相应的处理。
图16是自动驾驶过程中可能遇到的情况示意图。
图16的(a)是自动驾驶汽车C1将要经过在右车道上,刚停下的公共汽车C2,在公共汽车的前部是自动驾驶汽车看不到的盲区,作为自动驾驶汽车的控制单元就要考虑万一从公共汽车前面跑出来乘客,就要能够紧急停车。
图16的(b)是自动驾驶汽车C1将要经过一个没有信号灯的十字路口,在十字路口左面的另一条道路上也有一辆同行车C2在向十字路口驶来,同行车C2所处的位置对于自动驾驶汽车来说是盲区,作为自动驾驶汽车C1就要考虑万一同行车C2在向十字路口探头就有可能出现交通事故,因此自动驾驶汽车C1就要保证即使出现了同行车C2在向十字路口探头也可以避免交通事故。
可是在自动驾驶汽车行驶过程中,类似这些有可能出现交通事故的地方有很多,处理不好会出现行驶过程中极为不舒适的情况,如何让自动驾驶汽车既要考虑意识决定,又要能够舒适乘车,因为乘客从公共汽车前面跑出来的概率很小,所以就要根据自动驾驶汽车与公共汽车的距离,当前车速以及接近公共汽车前端时,即便有乘客出来也可以紧急刹车,以保证不出事故,以及最佳的舒适乘车等调用“机智获得”中人教给机器是如何行驶的。
解决这一问题的方法是:首先在初始速度,目标速度,行驶距离,终点速度等各种行驶条件的机器学习,让人把如何满足“安全规则”同时如何“舒适乘车”;如何在满足“安全规则”;以及如何舒适乘车同时可以实现“快速到达”。这些都是通过人教给机器,形成大量的“机智获得”的数据,并让“机智获得”的数据所要行驶的曲线,与“意识决定”所预测的行驶曲线相融和。
这里再提出一种可以将优良驾驶教练员的驾驶技巧通过机器学习的“机智获得”教给自动驾驶汽车,并可通过上述的“意识决定”所下达的状态指令,圆滑的进行自动驾驶汽车的“舒适乘车”,以及解决自动驾驶汽车所面临的复杂的NP控制问题。
在解决各种驾驶过程中的复杂度,这里提出了通过机器学习,让机器同人学习各种驾驶技巧,以及如何面对各个“意识决定”的状态指令,圆滑的将一个一个驾驶状态变成“行驶流”,也是要依赖于机器同人的学习。在这样的指导思想下,实现“安全行驶”,“舒适乘车”以及“快速到达”,“节省能耗”等的多目的控制。
图17是“机智获得”与“意识决定”的融合方法示意图。
本申请提出“机智获得”、“意识决定”、“舒适乘车”,以及“快速到达”四个目标函数的融合,首先靠“机智获得”,在进行人机学习的时候,就尽可能让学习后的数据具有“舒适乘车”,以及“快速到达”的特点,并且在各种行使装况下都进行人机学习,让优良驾驶员的高超的驾驶技巧,可以让乘车者享受“舒适乘车”的快乐,将这些驾驶技巧教给了自动驾驶汽车,就可如图17所示:在正常情况下自动驾驶汽车按照“机智获得”的数据MLD1行驶的,当自动驾驶汽车C1在进入同行车C2区域时,“意识决定”提出要超过同行车C2区域,根据给定的超越同行车C2区域的时间,以及所需要的速度,即在自动驾驶汽车C1在t时刻,由“意识决定”调用更高速度的“机智获得”的数据MLD2,在需要注意“舒适乘车”,“意识决定”会提早调用数据MLD2,使车速变化缓慢的提升。
针对“舒适乘车”的目标函数,可以按照人间共学所提出的实现“舒适乘车”,主要在自动驾驶汽车的加速以及减速上超过±7[m/s2],或约有10[m/s3]的加速度的震动都会给人一些不舒适的乘车感觉。避免上述在加速以及减速过程中所出现的不适宜“舒适乘车”的问题出现,就可以做到“舒适乘车”的效果。
本申请提出“机智获得”“意识决定”,“舒适乘车”,以及“快速到达”四个目标函数的融合,的第二个方法是:用上述人间共学所提出的“舒适乘车”的原则,对“机智获得”数据,以及“意识决定”数据进行修正,使“机智获得”“意识决定”的数据符合“舒适乘车”的要求。
本申请提出“机智获得”“意识决定”,“舒适乘车”,以及“快速到达”四个目标函数的融合,的第三个方法是:在“机智获得”所得到的驾驶曲线,以及“意识决定”所得到的驾驶曲线,以及“舒适乘车”所得到的驾驶曲线上,通过最小二乘法,进行三个曲线的最佳逼近,让自动驾驶汽车在函数逼近后的曲线上进行行驶。或通过图5所示的最大概率自组织无监督机器学习,计算三个曲线的各个离散点的最大概率值,让自动驾驶汽车在最大概率值所连成的曲线上进行行驶。还可以用样条函数进行磨光处理。依赖于“机智获得”“意识决定”,“舒适乘车”,以及“快速到达”四个目标函数的仿照图14的对抗学习也可以获得。
对抗学习的概念是,当现场得到的数据例如,速度、加速度、与快速目的到达的概率分布接近,而从能耗、安全行驶的概率分布的距离偏远,这时就按照有利于负的方向进行调解。反之,加速度,与快速目的到达的概率分布的距离偏远,而从能耗、安全行驶的概率分布的距离偏近,这时就按照有利于正的方向进行调解,从而实现对抗学习的多目的控制。使自动驾驶的汽车处于最佳的控制状态。
这里总结上述“意识决定”与“机智获得”提出具体的自动驾驶汽车的训练方法。
一个行驶状态,可以同时控制油门加速,减速,控制方向盘使自动驾驶汽车拐弯,控制刹闸使其减速或停止,控制换挡使汽车前进或后退,控制拐弯方向指示等。一个行驶状态在没接到决策层改变行驶状态,或遇到突发状态,将一直保持不变的行驶状态,如一个状态完成,可以根据“意识决定”单元的状态指令进入下一个行驶状态。
这里,提出将优良驾驶员在驾驶汽车时,根据自动驾驶汽车内部搭载的“意识决定”功能单元所接收到的自动驾驶汽车周围同行车的状态信息,例如自动驾驶汽车与各个同行车之间距离,各个同行车的车速等等,所构成的“意识决定”的路况信息,在各个不同的路况下,把优良驾驶员所控制油门加速,减速的数据,控制方向盘使自动驾驶汽车拐弯数据,控制刹闸使其减速或停止数据,控制换挡使汽车前进或后退数据,控制拐弯方向指示数据等存入数据库,用“意识决定”的路况信息,将优良驾驶员连续的自动驾驶汽车的训练,自动的分割成各个路况,在每一个路况下,获取优良驾驶员所控制油门加速,减速的数据,控制方向盘使自动驾驶汽车拐弯数据,控制刹闸使其减速或停止数据,控制换挡使汽车前进或后退数据,控制拐弯方向指示数据等,将这些数据构成对自动驾驶汽车控制的“机智获得”数据,这样就可自动的对自动驾驶汽车进行训练,使自动驾驶汽车获得人教给的知识,从而产生机器的智慧。自动驾驶汽车就可以同人一样具有一定的驾驶水平,可以使自动驾驶汽车控制的复杂度降低,绕开自动驾驶汽车中的控制由于过于复杂而出现的NP问题。
自动驾驶汽车的控制方法,反过来自动驾驶汽车通过优良驾驶员的训练,取得了在各种路况下的控制数据实现了“机智获得”,因此,就可以根据“意识决定”单元根据各种路况所发出的状态指令,调出所对应的“机智获得”数据,控制自动驾驶汽车的行使。
上述所提供的隶属函数的定义方法根据本发明的思路还可以用各种各样的方式进行定义,但是在自动驾驶汽车领域的应用,采用模糊数学的理论解决自动驾驶汽车的控制均属于本发明的范围之内。
再有,在进行机器学习的方式上还可以有各种各样的构成,但是,在自动驾驶中把自动驾驶汽车的行走过程用机器学习把优良驾驶员的驾驶训练的相关数据记录下,构成的“机智获得”并作为自动驾驶汽车针对各种路况所进行的控制数据,均属于本发明的范围之内。
还有,通过安全规则所构成的“意识决定”也可以有各种各样的构成,凡是采用模糊数学的理论,均属于本发明的范围之内。

Claims (6)

1.一种导入SDL模型的图像抽出的方法,是由特征向量生成部分,与图像抽出部分构成的,其特征是:
(1)特征向量生成部分:以希望抽出图像的各个颜色的灰度值为主复数个特征值;上述特征向量对应着希望抽出图像的各个颜色的灰度值;针对不同的图像,对特征向量的各个特征值进行的复数次的训练;得到特征向量中的各个特征值的最大概率值;最大概率空间;最大概率分布;将结果进行数据库的登录;
(2)图像抽出部分:针对样本图像数据,按上述方法求出特征向量;计算样本图像的特征向量与数据库登录的各个特征向量的距离,找出距离最小的学习后的特征向量中的希望抽出图像的各个颜色的灰度值。
2.根据权利要求1所述的一种导入SDL模型的图像抽出的方法,其特征在于:所述距离是指:包括在欧几里德空间,概率空间中至少一种空间的距离尺度。
3.根据权利要求1所述的一种导入SDL模型的图像抽出的方法,其特征在于:所述最大概率值,为概率尺度自组织的机器学习的迭代结果。
4.根据权利要求1所述的一种导入SDL模型的图像抽出的方法,其特征在于:所述最大概率空间,为概率尺度自组织的机器学习的迭代结果所得到的最大概率尺度所围成的空间。
5.根据权利要求1所述的一种导入SDL模型的图像抽出的方法,其特征在于:所述最大的概率分布,为概率尺度自组织的机器学习的迭代结果所得到的最大概率值与最大概率尺度构成的。
6.根据权利要求1所述的一种导入SDL模型的图像抽出的方法,其特征在于:所述希望抽出图像的各个颜色的灰度值为主特征值是指:建立希望抽出图像的各个颜色的灰度值与其他图像的颜色灰度值的区别;或车道线的某一颜色的灰度与背景图像最大灰度的比值;或车道线的某一颜色的灰度与背景图像最小灰度的比值;或通过对抗学习找出车道线颜色的灰度,与不是车道线的最为接近的小于车道线灰度值的最大概率值,以及与不是车道线的最为接近的大于车道线灰度值的最大概率值,让车道线在这两个值之间进行对抗学习,找到车道线与这两个数值之差的概率分布。
CN201811212126.XA 2018-10-11 2018-10-11 一种导入sdl模型的图像抽出的方法 Pending CN111046710A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201811212126.XA CN111046710A (zh) 2018-10-11 2018-10-11 一种导入sdl模型的图像抽出的方法
JP2019204291A JP2020061155A (ja) 2018-10-11 2019-09-27 Sdlモデルの導入した画像の抽出方法
US16/598,314 US11354915B2 (en) 2018-10-11 2019-10-10 Image extraction method importing into SDL model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811212126.XA CN111046710A (zh) 2018-10-11 2018-10-11 一种导入sdl模型的图像抽出的方法

Publications (1)

Publication Number Publication Date
CN111046710A true CN111046710A (zh) 2020-04-21

Family

ID=70220093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811212126.XA Pending CN111046710A (zh) 2018-10-11 2018-10-11 一种导入sdl模型的图像抽出的方法

Country Status (3)

Country Link
US (1) US11354915B2 (zh)
JP (1) JP2020061155A (zh)
CN (1) CN111046710A (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667466B (zh) * 2020-05-26 2023-04-18 湖北工业大学 一种带钢表面质量缺陷多分类的多目标优化特征选择方法
CN113771830B (zh) * 2020-12-18 2024-02-06 北京京东乾石科技有限公司 一种车辆控制方法和装置
CN116456098A (zh) * 2022-01-05 2023-07-18 南宁富联富桂精密工业有限公司 视频压缩方法、终端及计算机可读存储介质
CN115588131B (zh) * 2022-09-30 2024-02-06 北京瑞莱智慧科技有限公司 模型鲁棒性检测方法、相关装置及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4770869B2 (ja) * 2001-01-30 2011-09-14 日本電気株式会社 ロボット装置、照合環境判定方法、及び照合環境判定プログラム
US7912628B2 (en) * 2006-03-03 2011-03-22 Inrix, Inc. Determining road traffic conditions using data from multiple data sources
JP2008217706A (ja) * 2007-03-07 2008-09-18 Tokyo Institute Of Technology ラベリング装置、ラベリング方法及びプログラム
US7853432B2 (en) * 2007-10-02 2010-12-14 The Regents Of The University Of Michigan Method and apparatus for clustering and visualization of multicolor cytometry data
JP5822411B2 (ja) * 2013-08-12 2015-11-24 株式会社アポロジャパン 画像情報のコード変換装置、画像情報のコード変換方法、画像コードを用いた画像関連情報提供システム、画像情報のコード変換プログラム、及びそのプログラムを記録した記録媒体
CN108073978A (zh) * 2016-11-14 2018-05-25 顾泽苍 一种人工智能超深度学习模型的构成方法
CN108510057A (zh) * 2017-02-27 2018-09-07 顾泽苍 一种超深度对抗学习的神经网络模型的构成方法
US10803378B2 (en) * 2017-03-15 2020-10-13 Samsung Electronics Co., Ltd System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions
US10783611B2 (en) * 2018-01-02 2020-09-22 Google Llc Frame-recurrent video super-resolution

Also Published As

Publication number Publication date
JP2020061155A (ja) 2020-04-16
US11354915B2 (en) 2022-06-07
US20200226391A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
CN111045422A (zh) 一种自动驾驶导入“机智获得”模型的控制方法
Bachute et al. Autonomous driving architectures: insights of machine learning and deep learning algorithms
CN110796856B (zh) 车辆变道意图预测方法及变道意图预测网络的训练方法
Li et al. Humanlike driving: Empirical decision-making system for autonomous vehicles
CN111046710A (zh) 一种导入sdl模型的图像抽出的方法
JP2022539245A (ja) アクションデータに基づくトップダウンシーンの予測
WO2022206942A1 (zh) 一种基于行车安全风险场的激光雷达点云动态分割及融合方法
CN107272687A (zh) 一种自动驾驶公交车辆的驾驶行为决策系统
CN111038521A (zh) 一种自动驾驶“意识决定”模型的构成方法
CN114030485B (zh) 一种考虑附着系数的自动驾驶汽车类人换道决策规划方法
CN115662166B (zh) 一种自动驾驶数据处理方法及自动驾驶交通系统
Chen Multimedia for autonomous driving
CN114932918A (zh) 一种智能网联车在各种路况下行驶的行为决策方法及系统
CN111046897A (zh) 一种跨越不同空间的模糊事件概率测度的定义方法
Gao et al. Discretionary cut-in driving behavior risk assessment based on naturalistic driving data
Ming Exploration of the intelligent control system of autonomous vehicles based on edge computing
CN111126612A (zh) 一种自动机器学习的构成方法
Zhao et al. Improving Autonomous Vehicle Visual Perception by Fusing Human Gaze and Machine Vision
CN114120246B (zh) 一种基于复杂环境的前方车辆检测算法
CN109543497A (zh) 一种适于自动驾驶的多目的控制机器学习模型的构建方法
CN111047004A (zh) 一种跨越不同空间的距离的定义方法
CN115451987A (zh) 一种自动驾驶汽车的路径规划学习方法
YU et al. Vehicle Intelligent Driving Technology
CN113625718A (zh) 车辆的行驶路径规划方法
Lv et al. A lane-changing decision-making model of bus entering considering bus priority based on GRU neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination