CN111147825A - 无人驾驶零售车及其招手即停控制方法 - Google Patents
无人驾驶零售车及其招手即停控制方法 Download PDFInfo
- Publication number
- CN111147825A CN111147825A CN202010041183.7A CN202010041183A CN111147825A CN 111147825 A CN111147825 A CN 111147825A CN 202010041183 A CN202010041183 A CN 202010041183A CN 111147825 A CN111147825 A CN 111147825A
- Authority
- CN
- China
- Prior art keywords
- retail vehicle
- picture
- unmanned retail
- database
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种无人驾驶零售车及其招手即停控制方法。无人驾驶零售车招手即停控制方法,包括:数据库生成步骤:获取无人驾驶零售车周围各类事物的图片数据并搭建基于图片数据的数据库;行人动作捕捉步骤:获取行人的动作画面,并对动作画面进行预处理;控制步骤:将动作画面与数据库内的数据进行比较,如果数据库判别动作画面内的行人正在进行招手动作,则控制无人驾驶零售车向目标行人驾驶;如果数据库判别动作画面内的行人进行的是非招手动作,则无人驾驶零售车不做任何动作。本发明能够替代人工作业完成招手即停的动作,可以带给行人很好的体验感,能够准确地识别路边行人是否朝向无人驾驶零售车招手,大大降低人员的劳动强度。
Description
技术领域
本发明涉及交通车辆技术领域,具体而言,涉及一种无人驾驶零售车及其招手即停控制方法。
背景技术
近年来,无人驾驶车辆备受关注,被视为建设智慧城市、提升城市服务水平的重要部署。随着物联网技术和人工智能技术的发展,许多传统行业都迎来变革的机遇,汽车行业作为传统行业也将面临变革的机会。无人驾驶是汽车发展的终极方向,利用先进的自动化与智能化技术,赋予汽车感知、判断与决策能力,既可解放驾驶员的时间从而减少驾驶员的疲劳,也可提高道路使用效率、最大程度减少因为人为疏忽造成的交通事故的几率及降低能源消耗,在保障人们财产与人身安全的同时,也给交通的管理带来了方便。可以预见,无人驾驶将会越来越多地出现在人们的生活中,真正地将科技应用于生活,为人们的生活提供便利。
无人驾驶是汽车行业向着智能化和互联化转型的大势所趋,现在许多景区都配置有固定摊位有人或无人的售卖点,但是这种固定售卖点,和售卖点周围的景区风格相比略显突兀,也会破坏景区整体的设计布局,并且占用空间。而移动的售卖车既能解决景区游客的消费需求,又能解约用地,但是驾驶售卖车的人工成本依然存在,并且人工作业,会产生不可避免的错误,景区的无人驾驶零售车就能解决以上问题。
在无人驾驶汽车方面技术难题是如何提高汽车的视觉能力,如何将人类的视觉能力复制于电脑系统。有人驾驶的零售车,在驾驶路途中,有购买意愿的游客通常都会招手示意,驾驶员看见之后,开到游客面前,进行售卖。无人驾驶零售车如果配置一套招手即停系统,用以代替人工作业完成这一动作,就可以带给游客很好的体验感,也将带来商业盈利。
发明内容
本发明的主要目的在于提供一种无人驾驶零售车及其招手即停控制方法,能够实现无人驾驶零售车的招手即停功能。
为了实现上述目的,根据本发明的一个方面,提供了一种无人驾驶零售车招手即停控制方法,包括:数据库生成步骤:获取无人驾驶零售车周围各类事物的图片数据并搭建基于所述图片数据的数据库;行人动作捕捉步骤:获取行人的动作画面,并对所述动作画面进行预处理;控制步骤:将所述动作画面与所述数据库内的数据进行比较,如果所述数据库判别所述动作画面内的行人正在进行招手动作,则控制所述无人驾驶零售车向目标行人驾驶;如果所述数据库判别所述动作画面内的行人进行的是非招手动作,则所述无人驾驶零售车不做任何动作。
进一步地,所述数据库生成步骤包括:获取无人驾驶零售车周围各类事物的图片数据并将所述图片数据转换成矩阵;使用TensorFlow作为深度学习框架,采用ReLU激活函数,搭建基于所述图片数据集的卷积神经网络;利用YOLO目标检测算法进行训练,得到所述图片数据的数据库。
进一步地,所述获取无人驾驶零售车周围各类事物的图片数据并将所述图片数据转换成矩阵的步骤还包括:对所述图片数据的不同数据窗口数据和共享的数据窗口权重做内积,即特征提取,得到所述矩阵。
进一步地,搭建基于所述图片数据集的卷积神经网络的步骤包括:使用TensorFlow作为深度学习框架,采用ReLU激活函数,连接所有的所述特征,把最终得到的所述矩阵转化成一个一维的向量,形成所述卷积神经网络。
进一步地,在所述行人动作捕捉步骤中,利用YOLO算法加载所述动作画面,将捕捉到的所述动作画面进行分类完成所述预处理。
进一步地,利用高清摄像头捕捉所述动作画面。
根据本发明的另一方面,提供了一种无人驾驶零售车,所述无人驾驶零售车用于实现上述的无人驾驶零售车招手即停控制方法,所述无人驾驶零售车包括:数据存储模块,所述数据存储模块用于存储所述数据库;高清摄像头,所述高清摄像头安装在所述无人驾驶零售车的顶部;控制模块,所述控制模块与所述数据存储模块和所述摄像头通讯连接。
进一步地,所述摄像头为两个,两个所述摄像头分别设置在所述无人驾驶零售车的前面和侧面。
应用本发明的技术方案,实际使用时,高清摄像头将行人的动作画面与数据存储模块中数据库内的数据进行比较,如果数据库判别动作画面内的行人正在进行招手动作,则控制模块控制无人驾驶零售车向目标行人驾驶;如果数据库判别动作画面内的行人进行的是非招手动作,则控制模块控制无人驾驶零售车不做任何动作。
本发明的无人驾驶零售车能够替代人工作业完成招手即停的动作,可以带给行人很好的体验感,能够准确地识别路边行人是否朝向无人驾驶零售车招手,大大降低人员的劳动强度。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照图,对本发明作进一步详细的说明。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1示意性示出了本发明的无人驾驶零售车招手即停控制方法的流程图;
图2示意性示出了本发明的无人驾驶零售车的主视图;
图3示意性示出了本发明的无人驾驶零售车的侧视图。
其中,上述附图包括以下附图标记:
10、车身;11、高清摄像头。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请所提供的几个实施例中,所描述的系统实施例仅仅是示意性的,例如所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
参见图2至图3所示,根据本发明的实施例,提供了一种无人驾驶零售车。
本实施例中的无人机驾驶零售车包括车身10、数据存储模块(图中未示出)、高清摄像头11以及控制模块(图中未示出)。
其中,高清摄像头11安装在无人驾驶零售车的车身10顶部,便于对无人驾驶零售车周围的行人的动作画面进行捕捉,数据存储模块用于存储无人驾驶零售车前期制定的数据库;控制模块与数据存储模块和高清摄像头11通讯连接。
实际使用时,高清摄像头11将行人的动作画面与数据存储模块中数据库内的数据进行比较,如果数据库判别动作画面内的行人正在进行招手动作,则控制模块控制无人驾驶零售车向目标行人驾驶;如果数据库判别动作画面内的行人进行的是非招手动作,则控制模块控制无人驾驶零售车不做任何动作。
本发明的无人驾驶零售车能够替代人工作业完成招手即停的动作,可以带给行人很好的体验感,能够准确地识别路边行人是否朝向无人驾驶零售车招手,大大降低人员的劳动强度。
优选地,本实施例中的高清摄像头11为两个,两个高清摄像头11中的一个设置在无人驾驶零售车的车身10的前面,便于对无人驾驶零售车的前方行人的动作画面进行捕捉。两个高清摄像头11中的另一个设置在无人驾驶零售车的车身10的侧面,便于对无人驾驶零售车侧面行人的动作画面进行拍摄和捕捉。
通过本发明中的两个高清摄像头11的作用,便于对无人驾驶零售车周围的行人进行多方位拍摄,能够有效提高行人的体验感。
本实施例中的无人驾驶零售车尤其适用于景区适用,当然,本发明中的无人零售车还可以适用在医院等公共场合。
根据本发明的另一方面,提供了一种无人驾驶零售车招手即停控制方法,该无人驾驶零售车招手即停控制方法应用在上述实施例中的无人驾驶零售车中。
参见图1至图3所示,本实施例中的无人驾驶零售车招手即停控制方法三个步骤,即数据库生成步骤、行人动作捕捉步骤以及控制步骤。
其中,数据库生成步骤的目的在于:获取无人驾驶零售车周围各类事物的图片数据并搭建基于图片数据的数据库;行人动作捕捉步骤的目的在于:获取行人的动作画面,并对动作画面进行预处理;控制步骤的目的在于:将动作画面与数据库内的数据进行比较,如果数据库判别动作画面内的行人正在进行招手动作,则控制无人驾驶零售车向目标行人驾驶;如果数据库判别动作画面内的行人进行的是非招手动作,则无人驾驶零售车不做任何动作。
通过本发明的无人驾驶零售车招手即停控制方法能够替代人工作业完成招手即停的动作,可以带给行人很好的体验感,能够准确地识别路边行人是否朝向无人驾驶零售车招手,大大降低人员的劳动强度。
具体来说,本实施例中的数据库生成步骤包括:
获取无人驾驶零售车周围各类事物的图片数据并将图片数据转换成矩阵;使用TensorFlow作为深度学习框架,采用ReLU激活函数,搭建基于图片数据集的卷积神经网络;利用YOLO目标检测算法进行训练,得到图片数据的数据库。
所述YOLO目标检测算法为一种新的目标检测方法,将目标检测任务看作目标区域预测和类别预测的回归问题,采用单个神经网络直接预测物品边界和类别概率,实现端到端的物品检测,在实现快速检测的同时还能够达到较高的准确率。YOLO采用一个CNN网络来实现检测,是单管道策略,其训练与预测都是end-to-end,所以YOLO算法比较简洁且速度快。由于YOLO是对整张图片做卷积,所以其在检测目标有更大的视野,不容易对背景误判,能够提高本实施例中的无人驾驶零售车招手即停控制方法的控制精度。
进一步地,获取无人驾驶零售车周围的图片数据并将图片数据转换成矩阵的步骤还包括:对图片数据的不同数据窗口数据和共享的数据窗口权重做内积,即特征提取,得到二位特征图,即上述的矩阵。在这个过程中,对二维特征图进行压缩,一方面使特征图变小,简化网络计算复杂度,一方面进行特征压缩,提取主要特征。
进一步地,搭建基于图片数据集的卷积神经网络的步骤包括:使用TensorFlow作为深度学习框架,采用ReLU激活函数,连接所有的特征,把最终得到的矩阵转化成一个一维的向量,将输出值统一存储,形成卷积神经网络。最后利用YOLO目标检测算法进行训练,得到无人驾驶零售车周围各类事物的图片的权重文件,即上述的数据库。
建立数据库的过程中,可以尽可能多地拍摄无人驾驶零售车环境中各类事物的图片进行数据库的建立,提高本实施例中的无人驾驶零售车招手即停控制方法的控制精度。
优选地,在行人动作捕捉步骤中,利用YOLO算法加载动作画面,将捕捉到的动作画面进行分类完成预处理,便于提高本实施例中的无人驾驶零售车招手即停控制方法的控制精度。
从以上的描述中,可以看出,本发明上述的实施例实现了如下技术效果:
本发明是以通过计算机视觉方式,对数据集进行训练,可以准确快速地识别出在零售车范围内招手,需要无人驾驶零售车的游客。
本发明通过算法来计算零售车当前区域内是否有人招手,主要是通过计算机视觉的方式,利用大量的人的招手的动作制作图片数据集,将目标检测任务看作目标区域预测和类别预测的回归问题,采用单个神经网络直接预测物品边界和类别概率,然后将制作好的图片数据集放入卷积神经网络中进行训练,形成系统图片数据。数据库可以区分出游客是否在招手,需要零售车。如果游客在招手,系统会做出提示,示意零售车向目标游客驾驶。如果用户没有招手,控制模块控制无人驾驶零售车不做任何处理;可以带给行人很好的体验感,能够准确地识别路边行人是否朝向无人驾驶零售车招手,大大降低人员的劳动强度。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
为了便于描述,在这里可以使用空间相对术语,如“在……之上”、“在……上方”、“在……上表面”、“上面的”等,用来描述如在图中所示的一个器件或特征与其他器件或特征的空间位置关系。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其他器件或构造之下”。因而,示例性术语“在……上方”可以包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位(旋转90度或处于其他方位),并且对这里所使用的空间相对描述作出相应解释。
在本发明的描述中,需要理解的是,方位词如“前、后、上、下、左、右”、“横向、竖向、垂直、水平”和“顶、底”等所指示的方位或位置关系通常是基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,在未作相反说明的情况下,这些方位词并不指示和暗示所指的装置或元件必须具有特定的方位或者以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制;方位词“内、外”是指相对于各部件本身的轮廓的内外。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种无人驾驶零售车招手即停控制方法,其特征在于,包括:
数据库生成步骤:获取无人驾驶零售车周围各类事物的图片数据并搭建基于所述图片数据的数据库;
行人动作捕捉步骤:获取行人的动作画面,并对所述动作画面进行预处理;
控制步骤:将所述动作画面与所述数据库内的数据进行比较,如果所述数据库判别所述动作画面内的行人正在进行招手动作,则控制所述无人驾驶零售车向目标行人驾驶;如果所述数据库判别所述动作画面内的行人进行的是非招手动作,则所述无人驾驶零售车不做任何动作。
2.根据权利要求1所述的无人驾驶零售车招手即停控制方法,其特征在于,所述数据库生成步骤包括:
获取无人驾驶零售车周围各类事物的图片数据并将所述图片数据转换成矩阵;
使用TensorFlow作为深度学习框架,采用ReLU激活函数,搭建基于所述图片数据集的卷积神经网络;
利用YOLO目标检测算法进行训练,得到所述图片数据的数据库。
3.根据权利要求2所述的无人驾驶零售车招手即停控制方法,其特征在于,所述获取无人驾驶零售车周围各类事物的图片数据并将所述图片数据转换成矩阵的步骤还包括:对所述图片数据的不同数据窗口数据和共享的数据窗口权重做内积,即特征提取,得到所述矩阵。
4.根据权利要求3所述的无人驾驶零售车招手即停控制方法,其特征在于,搭建基于所述图片数据集的卷积神经网络的步骤包括:使用TensorFlow作为深度学习框架,采用ReLU激活函数,连接所有的所述特征,把最终得到的所述矩阵转化成一个一维的向量,形成所述卷积神经网络。
5.根据权利要求1所述的无人驾驶零售车招手即停控制方法,其特征在于,在所述行人动作捕捉步骤中,利用YOLO算法加载所述动作画面,将捕捉到的所述动作画面进行分类完成所述预处理。
6.根据权利要求1至5中任一项所述的无人驾驶零售车招手即停控制方法,其特征在于,利用高清摄像头(11)捕捉所述动作画面。
7.一种无人驾驶零售车,其特征在于,所述无人驾驶零售车用于实现权利要求1至6中任一项所述的无人驾驶零售车招手即停控制方法,所述无人驾驶零售车包括:
数据存储模块,所述数据存储模块用于存储所述数据库;
高清摄像头(11),所述高清摄像头(11)安装在所述无人驾驶零售车的顶部;
控制模块,所述控制模块与所述数据存储模块和所述摄像头通讯连接。
8.根据权利要求7所述的无人驾驶零售车,其特征在于,所述摄像头为两个,两个所述摄像头分别设置在所述无人驾驶零售车的前面和侧面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010041183.7A CN111147825A (zh) | 2020-01-15 | 2020-01-15 | 无人驾驶零售车及其招手即停控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010041183.7A CN111147825A (zh) | 2020-01-15 | 2020-01-15 | 无人驾驶零售车及其招手即停控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111147825A true CN111147825A (zh) | 2020-05-12 |
Family
ID=70525127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010041183.7A Pending CN111147825A (zh) | 2020-01-15 | 2020-01-15 | 无人驾驶零售车及其招手即停控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111147825A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107284332A (zh) * | 2017-06-30 | 2017-10-24 | 味俪仕机械贸易(上海)有限公司 | 一种无人驾驶自助售卖车 |
CN107527435A (zh) * | 2017-08-14 | 2017-12-29 | 苏州马尔萨斯文化传媒有限公司 | 一种人口密集区自驱型自动化一体式无人冷饮售卖车 |
CN108335731A (zh) * | 2018-02-09 | 2018-07-27 | 辽宁工程技术大学 | 一种基于计算机视觉的病人饮食推荐方法 |
CN108717798A (zh) * | 2018-07-16 | 2018-10-30 | 辽宁工程技术大学 | 一种基于物联网模式的智能公交系统 |
CN109643494A (zh) * | 2017-04-14 | 2019-04-16 | 松下电器(美国)知识产权公司 | 自动驾驶车辆、自动驾驶车辆的停车方法以及程序 |
US20190351802A1 (en) * | 2018-05-16 | 2019-11-21 | Maury D. Cole | Dispensary vehicles |
-
2020
- 2020-01-15 CN CN202010041183.7A patent/CN111147825A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109643494A (zh) * | 2017-04-14 | 2019-04-16 | 松下电器(美国)知识产权公司 | 自动驾驶车辆、自动驾驶车辆的停车方法以及程序 |
CN107284332A (zh) * | 2017-06-30 | 2017-10-24 | 味俪仕机械贸易(上海)有限公司 | 一种无人驾驶自助售卖车 |
CN107527435A (zh) * | 2017-08-14 | 2017-12-29 | 苏州马尔萨斯文化传媒有限公司 | 一种人口密集区自驱型自动化一体式无人冷饮售卖车 |
CN108335731A (zh) * | 2018-02-09 | 2018-07-27 | 辽宁工程技术大学 | 一种基于计算机视觉的病人饮食推荐方法 |
US20190351802A1 (en) * | 2018-05-16 | 2019-11-21 | Maury D. Cole | Dispensary vehicles |
CN108717798A (zh) * | 2018-07-16 | 2018-10-30 | 辽宁工程技术大学 | 一种基于物联网模式的智能公交系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fang et al. | An automatic road sign recognition system based on a computational model of human recognition processing | |
US20220343138A1 (en) | Analysis of objects of interest in sensor data using deep neural networks | |
DE102020113280A1 (de) | Automatische erzeugung von grundwahrheitsdaten zum trainieren oder umzutrainieren eines oder mehrerer modelle für maschinelles lernen | |
CN111368972B (zh) | 一种卷积层量化方法及其装置 | |
CN108491827B (zh) | 一种车辆检测方法、装置及存储介质 | |
KR102481817B1 (ko) | 전달 학습을 통한 운전자의 시선 응시영역 추정 방법 | |
CN110119726A (zh) | 一种基于YOLOv3模型的车辆品牌多角度识别方法 | |
CN116452937A (zh) | 基于动态卷积与注意力机制的多模态特征目标检测方法 | |
CN115512251A (zh) | 基于双分支渐进式特征增强的无人机低照度目标跟踪方法 | |
JP2020528616A (ja) | 画像処理方法およびシステム、記憶媒体およびコンピューティングデバイス | |
Mishra et al. | Sensing accident-prone features in urban scenes for proactive driving and accident prevention | |
WO2024179446A1 (zh) | 一种图像处理方法以及相关设备 | |
Mannion | Vulnerable road user detection: state-of-the-art and open challenges | |
Park et al. | Driver activity analysis for intelligent vehicles: issues and development framework | |
CN113065637B (zh) | 一种感知网络及数据处理方法 | |
CN110533688A (zh) | 改进型的目标跟踪方法、装置及计算机可读存储介质 | |
Ponnaganti et al. | Deep learning for lidar-based autonomous vehicles in smart cities | |
CN111147825A (zh) | 无人驾驶零售车及其招手即停控制方法 | |
JP2019106149A (ja) | 情報処理装置、情報処理プログラム、及び、情報処理方法 | |
Shaotran et al. | GLADAS: Gesture learning for advanced driver assistance systems | |
KR20200123507A (ko) | 교사-학생 프레임워크 기반의 소프트 타겟 학습방법을 이용한 보행자 포즈 방향 추정 방법 및 시스템 | |
CN112926274A (zh) | 一种利用卷积神经网络模拟城市交通系统的方法及装置 | |
CN111931680A (zh) | 一种基于多尺度的车辆重识别方法及系统 | |
Lei | Object Detection for Perceptually-Degraded Environments | |
Baqaeen et al. | Cost Effective Smart Parking System on Campus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200512 |