CN106960473A - 一种行为感知系统及方法 - Google Patents
一种行为感知系统及方法 Download PDFInfo
- Publication number
- CN106960473A CN106960473A CN201710186263.XA CN201710186263A CN106960473A CN 106960473 A CN106960473 A CN 106960473A CN 201710186263 A CN201710186263 A CN 201710186263A CN 106960473 A CN106960473 A CN 106960473A
- Authority
- CN
- China
- Prior art keywords
- behavior
- scene
- module
- passenger
- virtual field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Abstract
本发明公开一种行为感知系统及方法,所述系统包括:场景生成与渲染模块,用于构建城市轨道交通的虚拟现场;场景呈现模块,与所述场景生成与渲染模块相连,用于乘客通过所述场景呈现模块体验所述虚拟现场的虚拟情境;行为感知模块,与所述场景呈现模块相连,用于感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数。本发明通过设置所述场景生成与渲染模块和场景呈现模块,分别用于构建生成城市轨道交通虚拟现场和显示虚拟现场,无需将该装置带到现场就能多次模拟不同情况下乘客在虚拟场景内的运动过程,分析乘客运动过程中的真实行为参数,存储乘客的真实行为参数,为城市轨道交通系统的应急预案的评估和完善提供参考。
Description
技术领域
本发明涉及交通技术领域,特别是涉及一种行为感知系统及方法。
背景技术
随着社会经济的飞速发展,生活节奏的加快,人们都会选择交通便利的交通工具上下班,从而导致交通场所人流量增加迅速。当交通场所发生紧急情况时,由于缺乏乘客行为参数,因此很难实现对城市轨道交通系统的应急预案设计。
传统有面向现场布置装置进行人体识别的,但未见其推广应用。还有基于传感器进行数据采集,但此种方法需要在乘客身上安装大量设备,采集准备过程繁琐,成本高昂。
目前,所有的行为感知装置均为实地探测感知,若想探测人们在对某一特定场景或某一特定事件的真实反应,需要将感知装置带到场景现场或事件发生现场,再对被探测者进行行为感知。但在现实中,由于某些事件发生的几率非常小,且发生的后果是不可接受的,对真实处在此类事件中人们的行为进行感知显然是不现实的。特别是城市轨道交通系统中发生火灾时,不可能提供实验场景,其成果难以反映乘客应急反应、应急行为的真实情况,而无法获得具有较高可信的结果。
针对上述问题,如何解决上述问题的缺陷,是目前交通系统领域急需解决的问题。
发明内容
本发明的目的是提供一种行为感知系统及方法,以实现多次采集并存储乘客行为参数。
为实现上述目的,本发明提供了一种行为感知系统,所述系统包括:
场景生成与渲染模块,用于构建城市轨道交通的虚拟现场;
场景呈现模块,与所述场景生成与渲染模块相连,用于乘客通过所述场景呈现模块体验所述虚拟现场的虚拟情境;
行为感知模块,与所述场景呈现模块相连,用于感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数。
可选的,所述系统还包括:
行为动作控制模块,与所述场景呈现模块对应设置,用于控制所述虚拟情境中虚拟人物行为动作。
可选的,所述行为动作控制模块包括:无线手柄。
可选的,所述场景呈现模块包括:
虚拟现实头盔,用于乘客体验所述虚拟现场的虚拟情境。
可选的,所述行为感知模块包括:
行为位移感知单元,用于感知乘客位置、移动方向;
行为心理感知单元,用于感知乘客的心理动作、面部表情。
可选的,所述行为位移感知单元具体包括:
多个激光传感器,分别对角设置在支架上,用于发射激光束;
多个光敏传感器,分别设置在所述场景呈现模块上,用于接收各所述激光传感器发射的所述激光束;
计算机,与多个所述光敏传感器连接,用于根据所述光敏传感器接收的所述激光束采用激光定位技术确定乘客位置、移动方向。
可选的,所述行为心理感知单元具体包括:
Kinect传感器,对应乘客设置,用于采用红外感知技术和骨骼识别技术感知乘客的心理动作、面部表情,并将所述乘客的心理动作、面部表情发送至计算机。
本发明还提供一种行为感知方法,所述方法包括:
构建城市轨道交通的虚拟现场;
将所述虚拟现场发送至虚拟现实头盔以使乘客体验所述虚拟现场的虚拟情境;
感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数。
可选的,所述感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数具体包括:
感知乘客的位置、移动方向;
感知乘客的心理动作、面部表情。
可选的,所述感知乘客的位置、移动方向具体步骤包括:
获取光敏传感器接收的激光束;
根据所述光敏传感器接收的所述激光束采用激光定位技术确定乘客位置、移动方向。
根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明提供一种行为感知系统及方法,该系统通过设置所述场景生成与渲染模块和场景呈现模块,分别用于构建生成城市轨道交通虚拟现场和显示虚拟现场,无需将该装置带到现场就能多次模拟不同情况下乘客在虚拟场景内的运动过程,分析乘客运动过程中的真实行为参数,存储乘客的真实行为参数,为城市轨道交通系统的应急预案的评估和完善提供参考。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例行为感知系统模块结构图;
图2为本发明实施例行为感知系统主视图;
图3为本发明实施例行为感知系统左视图;
图4为本发明实施例行为感知系统俯视图;
图5为本发明实施例行为感知方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种乘客行为感知系统和方法,以实现多次采集并存储乘客行为感知参数。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例行为感知系统模块结构图;图2为本发明实施例行为感知系统主视图;图3为本发明实施例行为感知系统左视图;图4为本发明实施例行为感知系统俯视图。由图1-图4可知,基于VR技术设置的行为感知系统必须设置在某一空间区域内,所述空间区域的大小可根据需求进行设置。
行为感知系统包括:场景生成与渲染模块1、场景呈现模块2、行为感知模块3和行为动作控制模块4。
所述场景生成与渲染模块1,用于构建城市轨道交通的虚拟现场。
所述场景呈现模块2与所述场景生成与渲染模块1相连,用于乘客通过所述场景呈现模块体验所述虚拟现场的虚拟情境;所述场景呈现模块包括虚拟现实头盔6,所述虚拟现实头盔6用于乘客体验所述虚拟现场的虚拟情境。
所述行为感知模块3与所述场景呈现模块2相连,用于感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数;所述行为感知模块3包括:行为位移感知单元和行为心理感知单元;所述行为位移感知单元具体包括:多个激光传感器5、多个光敏传感器和计算机9;多个所述激光传感器5分别对角设置支架上,用于发射激光束;多个所述光敏传感器分别设置在所述场景呈现模块2上,用于接收各所述激光传感器5发射的所述激光束;所述计算机9与多个所述光敏传感器连接,用于根据所述光敏传感器接收的所述激光束采用激光定位技术确定乘客位置、移动方向。所述行为心理感知单元包括:Kinect传感器8,对应乘客设置,用于采用红外感知技术和骨骼识别技术感知乘客的心理动作、面部表情,并将所述乘客的心理动作、面部表情发送至计算机9。
行为动作控制模块4与所述场景呈现模块2对应设置,用于控制所述虚拟情境中虚拟人物行为动作;所述行为动作控制模块4包括:无线手柄7。
所述行为感知系统内的所述激光传感器5和Kinect传感器8的数量根据空间大小需求而定,所述虚拟现实头盔6和所述无线手柄7的数量根据乘客人数而定,各个装置之间的距离根据实际空间大小进行设定。
本发明采用激光定位技术避免了基于图像处理技术的复杂度高、设备成本高、运算速度慢、较易受自然光影响等劣势的同时,实现高精度、高反应速度的室内定位。
具体举例:
本发明以4.5*4.5*3(m3)的空间区域为例进行分析。在所述行为感知系统内设置有:1个虚拟现实头盔6、2个无线手柄7、2个激光定位器5、1个Kinect传感器8、1台计算机9、1张电脑桌11等。为了保证设备的运行效果,2个激光定位器5需要以对角形式进行架设,支架的高度为2m左右,并要求其视角能覆盖用户的所述虚拟现实头盔6和所述无线手柄7的活动范围。所述Kinect传感器8架设在计算机9上,所述计算机9放置在电脑桌11上,为了能够覆盖到用户的全身,一般与乘客保持1.5-2.5m的距离。
图5为本发明实施例行为感知方法流程图,详见图5,行为感知方法具体包括:
步骤100:构建城市轨道交通的虚拟现场。
步骤200:将所述虚拟现场发送至虚拟现实头盔以使乘客体验所述虚拟现场的虚拟情境。
步骤300:感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数。
所述步骤300具体包括以下步骤:
步骤3001:感知乘客的位置、移动方向。
步骤3002:感知乘客的心理动作、面部表情。
所述步骤3001具体步骤包括:
获取光敏传感器接收的激光束。
判断接收的所述激光束是否为有效激光束,若是,则对有效激光束进行数据预算;若否,则忽略该激光束。
数据运算后输出坐标。
所述步骤3002具体步骤包括:
(1)个体识别
1)、整体深度图分割处理
考虑到在复杂背景和有其他乘客干扰的情况下,采用基于深度阈值的分割来分离个体和环境,使用直方图分割提取场景最前面的目标以分割前景与背景,用灰度来表征距离,无限远取白色,无限近取黑色,通过设定阈值来将图像二值化,即可分割出前景目标,而且分割效果好,在一定程度上,还可以实现在不同光照和复杂背景情况下对乘客个体以及肢体部位的快速提取。
2)、人体深度图平滑去噪
基于Kinect传感器8获取的深度图像边缘性很强,深度差大于3~4mm即被认为具有不同的深度。在降噪的过程中,不仅要保留这些边缘信息,而且要求滤波算法能够达到实时性。发明采用双边滤波法(非线性滤波方法),可以结合图像的空间邻近度和像素值相似度的一种折衷处理,同时考虑空域信息和灰度相似性,达到保边去噪的目的,具有简单、非迭代、局部的特点。
3)、个体分离与识别
通过对基于Kinect传感器8获得的深度图进行处理之后,就可以在复杂环境条件下分离出较为清晰的个体。
(2)微观动作识别
1)、部位提取与动作跟踪
通过Kinect传感器8对肢体关键节点(例如手掌、肘、膝盖等)实现准确、实时地定位跟踪。例如在实验开始阶段,通过识别预备手势来检测到人手,运动手部的速度不能过快或过慢并具有一定的运动幅度,Kinect传感器8通过一段时间的追踪观察,得到手掌中心每帧的灰度图。
2)、平滑去噪与信息处理
由于Kinect传感器8采用激光散斑技术,因而获取的深度信息常常包含很大的噪声,这对于后续的数据处理和实验会产生不小的影响,因此在预处理阶段需要对深度图像进行噪声的滤波操作,发明采用非线性滤波方法中的双边滤波法可以得到较为准确数据;
3)、轨迹刻画与动作识别
设计一个理想的识别系统能从连续的输入信号中提取有效部分,并且在一定的时空可变性的范围内成功识别。为减少系统的运算量,提高处理速度,我们采用一种简单可行的方法将肢体动作转换为空间的运动轨迹来进行识别。设定了一个随机数种子,随机产生50~100的整数,并且每4帧取1个手掌重心的中心坐标(X,Y,Z)作为手势信号输入,计算相邻手掌重心的中心坐标的正弦值,量化成8个观察状态,可得到观察序列,然后将得到的长度变化的观察手势序列输入HMM模型设置参数,进而识别乘客动作。
(3)微观表情识别
1)、面部检测与骨骼追踪
面部检测与追踪,对三维面部进行了归一化处理和PCS校正,采用Kinect传感器8的骨骼追踪功能,选取头部节点对图像中的面部进行检测。并根据头部节点的移动实现面部的追踪;
2)、特征提取与数据转换
为了采集乘客表情变化,需要对面部特征的提取(例如鼻尖等部位)。首先基于Zernike矩的脸部轮廓提取,利用7×7尺寸的Zernike算子提取脸部轮廓得到二值边缘图像,获取面部数据序列,提取面部特征点在坐标系中的位置作为个体识别的数据库,进而转换为面部特征器官的数据序列;
3)、坐标匹配与模型识别
为了判断出对方的情感状态,首先针对不同面部类型,结合FACS设计SVM分类器进行表情分类,在表情的分类的基础上构建表情模式库。然后通过Kinect传感器8获取的面部特征器官的数据序列,实时动态监视坐标数据变化对应表情模式,实现面部表情的追踪。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种行为感知系统,其特征在于,所述系统包括:
场景生成与渲染模块,用于构建城市轨道交通的虚拟现场;
场景呈现模块,与所述场景生成与渲染模块相连,用于乘客通过所述场景呈现模块体验所述虚拟现场的虚拟情境;
行为感知模块,与所述场景呈现模块相连,用于感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数。
2.根据权利要求1所述的行为感知系统,其特征在于,所述系统还包括:
行为动作控制模块,与所述场景呈现模块对应设置,用于控制所述虚拟情境中虚拟人物行为动作。
3.根据权利要求2所述的行为感知系统,其特征在于,所述行为动作控制模块包括:无线手柄。
4.根据权利要求1所述的行为感知系统,其特征在于,所述场景呈现模块包括:
虚拟现实头盔,用于乘客体验所述虚拟现场的虚拟情境。
5.根据权利要求1所述的行为感知系统,其特征在于,所述行为感知模块包括:
行为位移感知单元,用于感知乘客位置、移动方向;
行为心理感知单元,用于感知乘客的心理动作、面部表情。
6.根据权利要求5所述的行为感知系统,其特征在于,所述行为位移感知单元具体包括:
多个激光传感器,分别对角设置在支架上,用于发射激光束;
多个光敏传感器,分别设置在所述场景呈现模块上,用于接收各所述激光传感器发射的所述激光束;
计算机,与多个所述光敏传感器连接,用于根据所述光敏传感器接收的所述激光束采用激光定位技术确定乘客位置、移动方向。
7.根据权利要求6所述的行为感知系统,其特征在于,所述行为心理感知单元具体包括:
Kinect传感器,对应乘客设置,用于采用红外感知技术和骨骼识别技术感知乘客的心理动作、面部表情,并将所述乘客的心理动作、面部表情发送至计算机。
8.一种行为感知方法,其特征在于,所述方法应用于权利要求1至权利要求7任一项所述的行为感知系统,所述方法包括下述步骤:
构建城市轨道交通的虚拟现场;
将所述虚拟现场发送至虚拟现实头盔以使乘客体验所述虚拟现场的虚拟情境;
感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数。
9.根据权利要求8所述的行为感知方法,其特征在于,所述感知乘客体验所述虚拟现场的虚拟情境时真实的行为参数具体包括:
感知乘客的位置、移动方向;
感知乘客的心理动作、面部表情。
10.根据权利要求9所述的行为感知方法,其特征在于,所述感知乘客的位置、移动方向具体步骤包括:
获取光敏传感器接收的激光束;
根据所述光敏传感器接收的所述激光束采用激光定位技术确定乘客位置、移动方向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710186263.XA CN106960473B (zh) | 2017-03-27 | 2017-03-27 | 一种行为感知系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710186263.XA CN106960473B (zh) | 2017-03-27 | 2017-03-27 | 一种行为感知系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106960473A true CN106960473A (zh) | 2017-07-18 |
CN106960473B CN106960473B (zh) | 2019-12-10 |
Family
ID=59471462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710186263.XA Active CN106960473B (zh) | 2017-03-27 | 2017-03-27 | 一种行为感知系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106960473B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107483583A (zh) * | 2017-08-17 | 2017-12-15 | 王勤志 | 服务体验感知数据采集和服务优化方法 |
CN108416255A (zh) * | 2018-01-18 | 2018-08-17 | 珠海金山网络游戏科技有限公司 | 基于三维动画中角色实时面部表情动画捕捉的系统和方法 |
CN108710858A (zh) * | 2018-05-22 | 2018-10-26 | 中国计量大学 | 一种基于表情识别的城市幸福指数动态热力图生成方法 |
CN109117799A (zh) * | 2018-08-20 | 2019-01-01 | 吉林大学 | 一种niosh提举方程评估方法 |
CN109389631A (zh) * | 2018-09-05 | 2019-02-26 | 深圳奥比中光科技有限公司 | 深度计算系统与方法 |
CN112003999A (zh) * | 2020-09-15 | 2020-11-27 | 东北大学 | 基于Unity 3D的三维虚拟现实合成算法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101187990A (zh) * | 2007-12-14 | 2008-05-28 | 华南理工大学 | 一种会话机器人系统 |
CN101266646A (zh) * | 2008-04-25 | 2008-09-17 | 重庆大学 | 融合小波分析与矩特征的人耳图像识别方法 |
CN105460223A (zh) * | 2015-12-08 | 2016-04-06 | 中国人民解放军空军空降兵学院 | 跳伞模拟训练系统及其模拟训练方法 |
US20160129346A1 (en) * | 2013-06-09 | 2016-05-12 | Sony Computer Entertainment Inc. | Head Mounted Display |
CN106485780A (zh) * | 2016-09-23 | 2017-03-08 | 青海中水数易信息科技有限责任公司 | 基于虚拟现实技术实现建筑信息模型体验的方法 |
CN106485978A (zh) * | 2016-12-26 | 2017-03-08 | 中国建筑第八工程局有限公司 | 基于虚拟现实技术的安全体验教育方法 |
CN106507092A (zh) * | 2016-11-29 | 2017-03-15 | 歌尔科技有限公司 | 摄像装置及其图像处理方法、虚拟现实设备 |
CN106526850A (zh) * | 2016-09-26 | 2017-03-22 | 罗松涛 | 一种基于vr操作的化工实验设备的构建方法 |
-
2017
- 2017-03-27 CN CN201710186263.XA patent/CN106960473B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101187990A (zh) * | 2007-12-14 | 2008-05-28 | 华南理工大学 | 一种会话机器人系统 |
CN101266646A (zh) * | 2008-04-25 | 2008-09-17 | 重庆大学 | 融合小波分析与矩特征的人耳图像识别方法 |
US20160129346A1 (en) * | 2013-06-09 | 2016-05-12 | Sony Computer Entertainment Inc. | Head Mounted Display |
CN105460223A (zh) * | 2015-12-08 | 2016-04-06 | 中国人民解放军空军空降兵学院 | 跳伞模拟训练系统及其模拟训练方法 |
CN106485780A (zh) * | 2016-09-23 | 2017-03-08 | 青海中水数易信息科技有限责任公司 | 基于虚拟现实技术实现建筑信息模型体验的方法 |
CN106526850A (zh) * | 2016-09-26 | 2017-03-22 | 罗松涛 | 一种基于vr操作的化工实验设备的构建方法 |
CN106507092A (zh) * | 2016-11-29 | 2017-03-15 | 歌尔科技有限公司 | 摄像装置及其图像处理方法、虚拟现实设备 |
CN106485978A (zh) * | 2016-12-26 | 2017-03-08 | 中国建筑第八工程局有限公司 | 基于虚拟现实技术的安全体验教育方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107483583A (zh) * | 2017-08-17 | 2017-12-15 | 王勤志 | 服务体验感知数据采集和服务优化方法 |
CN107483583B (zh) * | 2017-08-17 | 2020-12-22 | 王勤志 | 服务体验感知数据采集和服务优化方法 |
CN108416255A (zh) * | 2018-01-18 | 2018-08-17 | 珠海金山网络游戏科技有限公司 | 基于三维动画中角色实时面部表情动画捕捉的系统和方法 |
CN108416255B (zh) * | 2018-01-18 | 2021-02-02 | 珠海金山网络游戏科技有限公司 | 基于三维动画中角色实时面部表情动画捕捉的系统和方法 |
CN108710858A (zh) * | 2018-05-22 | 2018-10-26 | 中国计量大学 | 一种基于表情识别的城市幸福指数动态热力图生成方法 |
CN108710858B (zh) * | 2018-05-22 | 2021-07-06 | 中国计量大学 | 一种基于表情识别的城市幸福指数动态热力图生成方法 |
CN109117799A (zh) * | 2018-08-20 | 2019-01-01 | 吉林大学 | 一种niosh提举方程评估方法 |
CN109117799B (zh) * | 2018-08-20 | 2019-07-12 | 吉林大学 | 一种基于niosh提举方程的评估方法 |
CN109389631A (zh) * | 2018-09-05 | 2019-02-26 | 深圳奥比中光科技有限公司 | 深度计算系统与方法 |
CN112003999A (zh) * | 2020-09-15 | 2020-11-27 | 东北大学 | 基于Unity 3D的三维虚拟现实合成算法 |
Also Published As
Publication number | Publication date |
---|---|
CN106960473B (zh) | 2019-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106960473A (zh) | 一种行为感知系统及方法 | |
US11455565B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
US11487988B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
US20180081053A1 (en) | Video to radar | |
Varma et al. | Real time detection of speed hump/bump and distance estimation with deep learning using GPU and ZED stereo camera | |
CN112965081B (zh) | 基于融合行人信息的特征地图的模仿学习社交导航方法 | |
CN108725440A (zh) | 前向碰撞控制方法和装置、电子设备、程序和介质 | |
CN106503653A (zh) | 区域标注方法、装置和电子设备 | |
CN106919908B (zh) | 障碍物识别方法及装置、计算机设备及可读介质 | |
CN102968643B (zh) | 一种基于李群论的多模态情感识别方法 | |
CN110598637B (zh) | 一种基于视觉及深度学习的无人驾驶系统及方法 | |
CN104598915A (zh) | 一种手势识别方法与装置 | |
CN109636924A (zh) | 基于现实路况信息三维建模的车载多模式增强现实系统 | |
CN104378582A (zh) | 一种基于ptz摄像机巡航的智能视频分析系统及方法 | |
CN103105924B (zh) | 人机交互方法和装置 | |
CN106033601A (zh) | 检测异常情形的方法和装置 | |
CN105046206A (zh) | 基于视频中运动先验信息的行人检测方法及装置 | |
CN108846336B (zh) | 目标检测方法、装置及计算机可读存储介质 | |
Dib et al. | A review on negative road anomaly detection methods | |
CN108830225A (zh) | 太赫兹图像中目标物体的检测方法、装置、设备及介质 | |
CN107944382A (zh) | 目标跟踪方法、装置及电子设备 | |
KR20210050081A (ko) | 객체 인식 방법 및 이를 수행하는 객체 인식 장치 | |
CN112766069A (zh) | 基于深度学习的车辆违停检测方法、装置及电子设备 | |
WO2018052714A2 (en) | Video to radar | |
CN112861725A (zh) | 一种导航提示方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20170718 Assignee: BEIJING ZHILIAN YOODAO SCIENCE AND TECHNOLOGY CO.,LTD. Assignor: Beijing Jiaotong University Contract record no.: X2022990000182 Denomination of invention: A behavior perception system and method Granted publication date: 20191210 License type: Common License Record date: 20220329 |