CN109643497A - 通过增强现实和共享数据增强的安全性 - Google Patents
通过增强现实和共享数据增强的安全性 Download PDFInfo
- Publication number
- CN109643497A CN109643497A CN201780053310.1A CN201780053310A CN109643497A CN 109643497 A CN109643497 A CN 109643497A CN 201780053310 A CN201780053310 A CN 201780053310A CN 109643497 A CN109643497 A CN 109643497A
- Authority
- CN
- China
- Prior art keywords
- visual field
- data
- vehicles
- vehicle
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title abstract description 19
- 230000000007 visual effect Effects 0.000 claims abstract description 283
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000005516 engineering process Methods 0.000 claims description 25
- 238000004891 communication Methods 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 13
- 230000001052 transient effect Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims 1
- 230000002708 enhancing effect Effects 0.000 abstract description 33
- 230000000903 blocking effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 239000013589 supplement Substances 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 238000013524 data verification Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013481 data capture Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/052—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/07—Controlling traffic signals
- G08G1/08—Controlling traffic signals according to detected number or speed of vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/163—Decentralised systems, e.g. inter-vehicle communication involving continuous checking
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/164—Centralised systems, e.g. external to vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Traffic Control Systems (AREA)
Abstract
公开了用于通过增强现实和共享数据来增强交通安全性的系统和方法。一种示例方法包括识别至少部分阻挡与第一交通工具相关联的第一用户的第一视野的第二交通工具;并且从第二交通工具获得第二视野数据。第二视野数据描述与第二交通工具相关联的第二用户的第二视野,并且第二视野包括在第一视野中被第二交通工具阻挡的额外视野。在一些实现方式中,该方法包括在与第一交通工具相关联的第一显示器上呈现第二视野。在其他实现方式中,例如在第一交通工具是无人驾驶车辆的情况下,该方法包括向第一交通工具提供识别第二视野的电子信号。
Description
相关申请的交叉引用
本申请是2016年6月30日递交的美国专利申请15/198,861号的接续案并要求其优先权,这里通过引用将该美国专利申请完全并入。
技术领域
本公开概括而言涉及增强交通安全性,具体而言涉及通过增强现实和共享数据来增强交通安全性。
背景技术
在汽车上实现了各种安全性特征来使得驾驶员更知晓其周围环境。例如,超速报警可用于提醒驾驶员他们正超过指定的速度限制。在另一示例中,后视相机可使得驾驶员能够在倒入停车位时查看其后方有什么。
相机或其他数据捕捉设备受到其检测能力的限制,这可降低其有效性,例如当它们的视野被阻挡时,即使是局部阻挡。当车辆被若干个其他车辆同时包围时问题恶化了,这限制了驾驶员对驾驶员旁边或前方的车辆的视野。例如,当停在路口,左侧和右侧都有车时,驾驶员可能难以看出(或者通过相机查看)是否有汽车正以高速率进入路口并且有可能会闯红灯。
因此需要一种设备、系统和方法,其向车辆乘员提供被其他车辆或物体阻挡的视野。
附图说明
图1是图示出用于通过增强现实和共享数据增强交通安全性的系统的实施例的示意图。
图2是图示出用于通过增强现实和共享数据增强交通安全性的方法的实施例的示意图。
图3是图示出用于通过增强现实和共享数据增强交通安全性的方法的实施例的示意图。
图4是图示出用于通过增强现实和共享数据增强交通安全性的方法的实施例的示意图。
图5是图示出用于通过增强现实和共享数据增强交通安全性的系统的实施例的示意图。
图6是图示出用于通过增强现实和共享数据增强交通安全性的方法的实施例的流程图。
图7是图示出计算系统的实施例的示意图。
图8是图示出用户设备的实施例的示意图。
通过参考接下来的详细描述最好地理解本公开的实施例及其优点。应当领会到,相似的附图标记被用于标识一幅或多幅附图中图示的相似元素,其中的展示是为了图示本公开的实施例,而不是为了对其进行限制。
具体实施方式
本公开提供了用于通过增强现实和共享数据来增强交通安全性的系统和方法。例如,汽车越来越多地在前方或侧面(这对于离开停车库可能是有帮助的)配备有相机。利用这些相机捕捉的数据(包括视觉的和可听的)(在本公开中也称为视野数据)可用于判定汽车是否正从侧面或其他方面靠近;还可以与附近汽车共享视野数据,附近汽车的视野可能被阻挡或者因其他原因不能从附近汽车的传感器直接获得。可利用增强现实技术将视野数据显示给附近车辆中的驾驶员,例如通过将(由视野数据识别的)相机视野投影到附近车辆的前挡风玻璃上,以使得该车辆中的驾驶员可感觉好像她能够透视正阻挡其视野的汽车那样。
视野数据可包括由一个或多个车辆捕捉的未被接收者或目标驾驶员/车辆听到的声音。例如,目标驾驶员/车辆听到可能会有益的尖叫、鸣笛、刺耳的轮胎声或其他声音可被传递给目标驾驶员/车辆。这些声音可能是从车辆外部或车辆内捕捉的。例如,当车辆相机包括麦克风时,该相机不仅可捕捉图像或视频,而且可捕捉声音。一个驾驶员可听到的声音可能不是另一个驾驶员可听到的,例如由于声音屏障的存在或者距离。因此,在一些实现方式中,声音数据可被一个车辆传递到另一车辆,以使得另一车辆的驾驶员(他否则可能不能听到该声音)可被提醒该声音。
视野数据也可包括其他车辆的驾驶员可能无法获得的车辆内视野(例如,驾驶员在汽车内的运动)。例如,车辆内的相机或声音检测设备可捕捉制动、驾驶员通过移动其手臂跨过乘客的身体来约束乘客的运动、方向盘的突然迂回或转向或者可提醒目标驾驶员/车辆即将来临的事件的其他动作。例如,在看到一名警员正站在路口中间指挥交通之后,驾驶员可对其乘客说:“喂,可能有事故。我们减速吧”并且做出腿部运动来刹车。这个车辆内交谈和运动可能是对该警员的视野被阻挡的其他车辆的乘员无法获得的(例如,无法听到或看到)。因此,在一些实现方式中,与该交谈和腿部运动相对应的声音和运动数据(在适当的用户许可的情况下)可被传递到另一车辆,以使得另一车辆的驾驶员可被提醒如下事实:一名警员正站在路口中间,指挥交通。
在涉及无人驾驶车的实现方式中,视野数据可用于生成用于控制无人驾驶车的指令。例如,当另一汽车被识别为正闯红灯超速进入路口时,无人驾驶车可被指示维持制动并且不进入路口,直到超速车已停下或离开了路口为止。
如果多辆汽车可以提供视野数据,则额外的数据可用于确保“提供者”汽车之一没有对数据作假。也可以从路灯上配备的相机获得数据,其中这些路灯可具有数字证书以帮助信任数据为真实的。这些技术例如可使得在路口当其他汽车可能在闯红灯时驾驶更安全。
本公开中描述的系统和方法可提供多种技术优点。首先,由一个车辆捕捉的视野数据可用于使另一车辆受益,即使当视野数据对于该另一车辆而言不是直接可得(例如由于其视野被阻挡)时也是如此。
其次,在车辆以对等(peer-to-peer,P2P)方式共享数据的实现方式中,在车辆之间共享相机视野可不要求与远程服务器通信,而与远程服务器通信的成本可能是令人望而生畏的(例如,尤其是当使用蜂窝数据时)。
第三,已经被交通雷达或街道相机收集的交通数据不仅可用于监控交通拥堵,而且也可用于向个体驾驶员提供潜在交通危险的增强视野的新用途。
现在联系附图描述实现方式的额外细节。
图1是图示出用于通过增强现实和共享数据增强交通安全性的系统100的实施例的示意图。系统100可包括或实现多个服务器和/或软件组件,它们操作以执行本公开中提供的各种技术。
如图1中所示,系统100可包括多个车辆(例如,108、108B和108C)、服务器系统106、交通控制设备110和街道设备112,它们通过对等网络(例如,Wi-Fi网络或蓝牙网络)、通信网络104或者其组合通信。在本公开中,车辆是运送人或货物的移动机器。示例车辆可以是马车、自行车、机动车辆(例如摩托车、小汽车、卡车或公共汽车)、轨道车辆(火车或有轨电车)、船只(轮船或小船)、飞行器(例如,无人机或飞机)以及宇宙飞船。在一个实施例中,多个车辆108的每一者配备有设备102(或者与设备102通信连接)。
在一个实施例中,安装在车辆108上的设备102利用相机120(或者任何其他成像或视频记录设备,包括声音捕捉设备)收集视野数据(一般包括图像/视觉和/或音频数据)并且与其他车辆(例如,车辆108B和无人机108C)共享视野数据。设备102也可从(1)另一车辆(例如,车辆108B和无人机108C)、(2)交通控制设备110或(3)街道设备112获得视野数据。设备102可(1)在车辆108的挡风玻璃上显示与(例如由车辆108或由车辆108自身收集的)视野数据相对应的视野(或者在音频数据的情况下,通过车辆108的扬声器设备输出),或者(2)生成控制车辆108的指令(例如,当车辆108在没有驾驶员的情况下操作时或者在半自动模式(例如巡航控制模式)中操作时)。
在一些实施例中,设备102可包括一个或多个相机120、视野处理模块122、发送模块128、指令模块130和显示器132。
在一些实施例中,设备102与安装在车辆108上或车辆108B上的一个或多个相机120(例如,前置相机、侧面相机或后置相机)通信连接。相机可捕捉其视野内的物体的图像或声音或记录其视野内的物体的视频(其中“视野”在本文中指的是使得数据捕捉设备能够捕捉图像、声音或其他内容的距离、朝向和/或位置)。在一些实施例中,设备102与安装在另一车辆上的相机通信连接,例如通过定向Wi-Fi连接或蓝牙连接(例如低功耗蓝牙(Bluetooth Low Energy,BLE)连接)。
在一些实施例中,视野处理模块122验证并分析由相机捕捉的视野数据(例如,图像或视频)。在一些实施例中,对视野数据的验证包括判定视野数据124是否被用正确的数字证书签名。在一些实施例中,对视野数据的验证包括将由邻近车辆提供的视野数据(和相应的视野)与由不同来源提供的视野数据相比较,其中不同来源例如是另一邻近车辆、交通控制设备110或街道设备112。这些视野验证技术可减少视野作假,例如当一设备正将虚假视野数据引入到系统100中时。
在一些实施例中,基于由视野处理模块122提供的视野验证和分析,设备102判定:(1)是否生成控制车辆的指令,(2)是否在显示器132上显示相应的视野,或者(3)是否与另一车辆共享视野数据。
例如,如果由交通控制设备110收集的视野数据识别某一物体(例如另一汽车)正以高速率移动进入路口——尽管交通控制设备110正向从该方向来的车辆显示停车信号,那么指令模块130可在车辆108上施行制动或者维持制动以防止车辆108进入该路口。
在另一示例中,如果由车辆108收集的视野数据识别出某一物体(例如行人)正沿着人行横道移动,则指令模块可在车辆108B的前挡风玻璃的中间偏左部分呈现该物体的图像,以使得车辆108B的驾驶员意识到行人正进入她的移动路径。
在一些实施例中,设备102与一个或多个显示器132通信连接。在一些实施例中,显示器包括车辆的玻璃的一部分,例如前挡风玻璃、后挡风玻璃、后视镜和侧镜。在其他实施例中,显示器包括安装在车辆108的仪表盘上的GPS设备的屏幕、车内触摸屏或者存在于车辆108中的用户的智能电话。
在一些实现方式中,通信网络104将一个或多个设备102与彼此并且与集群系统106互连。在一些实现方式中,通信网络104可选地包括因特网、一个或多个局域网(localarea network,LAN)、一个或多个广域网(wide area network,WAN)、其他类型的网络或者这种网络的组合。
图2是图示出用于通过增强现实和共享数据增强交通安全性的方法200的实施例的示意图。设备102例如当根据本公开中描述的技术来编程时可执行方法200。
车辆202在车辆208后方;车辆202和208两者可能都在移动(例如在本地街道上移动)或者已停下(例如停在路口处)。
如图2中所示,由于其与彼此的相对位置,车辆202的前视野的一部分被车辆208阻挡。车辆208可获得的交叉车流的视野因此可能是车辆202(或者操作其的驾驶员)不可获得的。
例如,第三车辆210可能正从交叉方向朝着车辆202和208移动。对于第三车辆210的移动的视野(例如,从车辆202的驾驶员的视角来看)可能被车辆208阻挡,从而对于车辆202(或车辆202的驾驶员)不可得。
在此情形中,向车辆202提供对于车辆210的移动的视野因此可能是技术上有利的。如图2中所示,识别车辆210的时刻的图像212(例如,车辆202的实际图像或者表示车辆202的图标)被呈现在车辆202的挡风玻璃上。通过这些方式,可以使车辆202的驾驶员知晓车辆210的交叉移动(虽然这样的直接视野被阻挡),并且相应地操作。
图3是图示出用于通过增强现实和共享数据增强交通安全性的方法300的实施例的示意图。设备102例如当根据本公开中描述的技术来编程时可执行方法300。
如图3中所示,车辆302和304可能已停下或者正低于预定速度(例如,10英里每小时)移动。车辆302在车辆304前方;结果,车辆302的后视野的一部分被车辆304阻挡。
由于该阻挡,对于来自车辆304后方的车流的视野可能至少部分是车辆302不可得的(虽然对于车辆304而言仍是可得的)。例如,如果第三车辆306正从后方朝着车辆302和304移动。对于第三车辆306的移动的视野可能被车辆304阻挡,从而对于车辆302而言不可得。
在此情形中,向车辆302提供对于车辆306的移动的至少部分视野因此可能是技术上有利的。如图3中所示,不仅指示出车辆306的存在而且指示出其当前位置和移动方向或速度的图像308被显示在车辆302的后视镜上。通过这些方式,可以使车辆302的驾驶员知晓车辆306从后方方向的移动,并相应地操作。
图4是图示出用于通过增强现实和共享数据增强交通安全性的方法400的实施例的示意图。设备102例如当根据本公开中描述的技术来编程时可执行方法400。
如图4中所示,车辆404在车辆402左侧;结果,车辆402的左视野被车辆404部分阻挡。
第三车辆406可能在交叉方向上从左侧朝着车辆402和404移动。然而,由于由车辆404引起的阻挡,对于第三车辆406的移动的视野可能是车辆402不可得的。
在此情形中,向车辆402提供对于第三车辆406的交叉方向移动的视野因此可能是技术上有利的。如图4中所示,示出车辆406的移动时刻的图像408被显示在车辆402的左视镜上。结果,可以使车辆402的驾驶员知晓车辆406的交叉移动,并且相应地操作。
利用本公开中描述的增强视野技术,车辆被阻挡的视野可被其他车辆可获得和收集的视野所补充。一个或多个补充视野可被呈现在车辆的相同或不同显示组件上。例如,参考图3-4描述的技术可实现在同一车辆上,以使得补充后视野可被呈现在车辆的后视镜上并且补充左视野可被呈现在车辆的左侧镜上。注意,在一些实施例中,补充视野被呈现在与在被阻挡视野中捕捉的车辆到来的方向相对应的车辆内显示位置处。
在图3所示的示例中,因为车辆306来自车辆302后方,所以(车辆306的)补充视野被显示在车辆302的后视镜(而不是左视镜)上。在图4所示的示例中,因为车辆406来自车辆402的左交叉方向,所以(车辆406的)补充视野被显示在车辆402的左视镜(而不是右或后视镜)上。
在与被阻挡视野中的车辆到来的方向相对应的车辆内位置处呈现补充视野可帮助驾驶员更直观地理解被阻挡视野中的车辆的移动(方向和速度),减轻驾驶员快速处理利用本公开中描述的技术提供的增强视野的认知负担并且使得与其他方式可能实现的相比驾驶员能够更迅速地反应。
图5是图示出用于通过增强现实和共享数据增强交通安全性的系统500的实施例的示意图。系统500——其可以是图1中所示的系统100——可包括或实现多个服务器和/或软件组件,它们操作以执行本公开中提供的各种技术。
如图5中所示,车辆502和车辆504都停在了路口处。车辆502的左视野被车辆504部分阻挡,因为车辆504比车辆502停得离路口更近。利用填充有直线的图案示出被阻挡视野503的一部分。
由于被阻挡视野503,车辆502不具有对于正向北方进入路口的车辆506的完全视野。在不知道车辆506正进入路口的情况下,如果车辆502在车辆506离开路口之前进入路口,则事故可发生。
与之对照,停得离路口更近并且没有任何阻碍视野的物体的车辆504具有对于车辆506的无阻碍视野505。利用填充有交叉线的图案示出视野505的一部分。如图5中所示,车辆506在视野505中是可见的。在一些实施例中,在确定了其对于路口的视野被阻碍后,车辆502向靠近路口的车辆(例如,车辆504和510)请求视野数据,以便车辆502可利用附近车辆的视野(例如,视野505和507)增强(例如,补充)其自己的视野503。如图5中所示,利用填充有瓦片线的图案图示视野507的一部分。
在一些实施例中,车辆502向多个来源(例如,车辆504、506和510,以及交通灯508)请求视野数据以获得对于路口的更完整视野。
可实现各种视野提供者认证和视野验证技术以确保增强视野是准确的,这可防止车辆的驾驶员被不利地影响。例如,作假的或者因其他原因不准确的视野可被传达给车辆的驾驶员,使得车辆在不需要停下的情形中停下。当停车时,另一个人于是可尝试抢劫或以其他方式伤害驾驶员。
在一些实施例中,视野提供者在其视野被接受之前被认证。视野提供者认证技术之一包括基于数字证书的认证。数字证书可被附加到视野提供者(例如,车辆、街道设备和交通控制设备)与一个或多个视野接收者共享的视野数据。视野接收者(例如,具有被阻碍视野的车辆、街道设备和交通控制设备)可基于数字证书验证视野提供者是他声称的那个人。
例如,交通灯508可将其自己的数字证书附加到其与车辆502、504、506和510共享的路口的图像;并且车辆502可使用该数字证书来验证被声称由交通灯508提供的视野数据确实是由交通灯508提供的。
在一些实施例中,通过P2P通信网络(而不是客户端-服务器通信网络)在多个车辆之间共享视野数据。例如,由车辆504的一个或多个侧面相机或前置相机收集的视野数据可被无线地(例如,通过蓝牙或Wi-Fi连接)发送到车辆502或者与车辆504在预定接近度(例如,30英尺)内的任何其他车辆。对共享视野数据施加接近度要求可减少潜在的驾驶员困惑并且保护用户隐私,因为附近车辆对于获得相同位置(例如,相同路口)的增强视野更有可能具有合法兴趣。在对照的示例中,离图5中示出的路口有数英里远的车辆对于请求或接收与该路口有关的视野数据的兴趣或合法性可能更低。
接近度要求可利用软件包或硬件结构来实施。例如,设备102的发送模块128可利用短程通信协议(例如,蓝牙协议)来发送视野数据,以使得与设备102相距预定范围(例如,20英尺远)的车辆不能连接到设备102并与设备102通信。又例如,发送模块128可使用电路控制组件来调整其生成的信号的强度,以便只有附近(例如,3英尺内的)车辆可检测到这些信号。
在一些实施例中,实现数据验证技术来减少数据作假。数据验证技术之一涉及车辆到车辆(vehicle-to-vehicle,V2V)验证。一个车辆提供的一组视野数据在被发送或提供来呈现给用户之前可例如被对照由另一车辆收集的另一组视野数据进行验证。
继续图5中所示的示例,在将视野505提供给车辆502之前,安装在车辆504上的设备102可对照视野507验证视野505。如图5中所示,视野507(车辆510的左后视野)也示出车辆506正进入路口。这里,视野505和507可被视为已验证视野(这可比未验证车辆具有更高的可靠性评级),因为它们通过都示出车辆506正进入路口而相互印证。已验证视野可通过P2P网络被从“提供者”车辆发送到“接收者”车辆并且在没有进一步认证或验证的情况下被呈现给用户。
另一种数据验证技术涉及车辆到街道设备验证。由一个车辆提供的一组视野数据可对照由配备有成像设备(例如,视频相机)或物体检测设备(例如,声纳设备、雷达设备或激光设备)的街道设备提供的另一组视野数据进行验证。
例如,在将视野505提供给车辆502之前,系统500可对照由交通灯508提供的雷达结果509(这在本公开中也被认为是视野数据)验证视野505。交通灯508可配备有雷达枪,该雷达枪可检测路口内的物体的存在和移动(例如,方向、角度和速度)。如图5中所示,雷达结果509指示出某个物体正以高速率向着北方移动到路口中。因为视野505和雷达结果509都指示出某个物体正以相对高的速度向北方进入路口,所以视野505可被视为已验证视野并且雷达结果509可被视为已验证结果。
在一些实现方式中,在验证视野数据之后,系统500将已验证视野数据提供给其相应视野已被(至少部分)阻挡的车辆。例如,系统500可将描述视野505的视野数据发送给车辆502,以使得车辆502可具有视野503和视野505的组合,增强其对于路口的视野。
图6是图示出用于通过增强现实和共享数据增强交通安全性的方法的实施例的流程图。设备102例如当根据本公开中描述的技术来编程时可执行方法600。
在一些实施例中,方法600包括识别(602)至少部分阻挡与第一交通工具相关联的第一用户的第一视野的第二交通工具。
在一些实施例中,车辆可基于相机输入判定车辆的用户(例如,驾驶员或乘客)的视野被外来物体(例如,另一车辆或街道分割物)阻挡。
例如,如果相机视野的多于70%包括相同颜色(例如,黑色、酒红色、黄色、红色或者任何其他已知的汽车油漆颜色),则设备102可判定另一车辆已阻挡了相机的视野。在另一示例中,如果在相机视野中示出的物体具有与已知车辆部分(例如,轮胎、轮缘、前车盖或门把手)相对应的形状、大小或热特性(例如,热反射)并且物体占据了相机视野的多于50%,则设备102可判定另一车辆阻挡了相机的视野。
在一些实施例中,基于对相机的视野已被另一车辆阻挡的判定,设备102可判定车辆驾驶员的视野也被该另一车辆阻挡。在一些实施例中,可做出此判定是因为车辆相机的观看角度和范围可与车辆驾驶员的基本重叠。例如,安装在轿车的前保险杠上的相机可基本上覆盖轿车驾驶员的相同观看角度和范围;安装在SUV的后挡风玻璃的中央的相机可基本上覆盖SUV驾驶员的相同(或者更大)观看角度和范围。
在一些实施例中,方法600包括从第二交通工具获得(604)第二视野数据。例如,当车辆的视野被判定为被另一车辆阻挡时,安装在车辆上的设备102可与(阻挡视野的)另一车辆通信并且从另一车辆获得相机数据。例如,如图5中所示,当车辆502的左前视野(例如,视野503)被车辆504部分阻挡时,车辆502向车辆504请求(示出视野505的)视野数据。
在一些实施例中,第二视野数据描述(606)与第二交通工具相关联的第二用户的第二视野并且第二视野包括在第一视野中被第二交通工具阻挡的额外视野。例如,如图5中所示,视野505对于车辆504的驾驶员而言是可得的,但对于车辆502的驾驶员而言是不可得的。视野505因此包括在视野503中被阻挡的额外视野。
在一些实施例中,方法600还包括在与第一交通工具相关联的第一显示器上呈现(608)第二视野。例如,视野505可被呈现在车辆502的左侧镜上或者车辆502的前挡风玻璃的左侧。
如参考至少图1和图5说明的,可提供视野数据验证特征。例如,在一些实施例中,方法600包括从街道设备获得验证数据,其中验证数据描述第二视野;根据验证数据验证第二视野;并且响应于该验证,在与第一交通工具相关联的第一显示器上呈现第二视野。
例如,可对照交通灯508的视野(或雷达检测结果)509验证视野505。图像识别或物体检测技术可用于视野验证目的。例如,一个或多个图像识别技术可用于识别在表示视野505的图像中显示的物体之一为轿车(车辆505)。表示视野507的图像可被类似地识别以判定其是否包括汽车(视野505)。在一些实施例中,如果两个图像都被识别为包括相似形状的物体(视野505),则设备可判定视野505和507已被(对照彼此)验证为准确的。
又例如,与使用识别图像中显示的物体相结合,设备102可应用移动检测技术(例如,使用基于雷达或基于激光的物体检测设备)来识别物体是否以超过阈值速度(例如,指定的速度限制)在移动。如果图像被识别为包括向北行进的轿车并且雷达结果也显示物体正以大约35英里每小时向北移动,则设备102可判定视野505已被(对照雷达结果)验证为准确的。
在一些实施例中,街道设备可以是交通控制设备(例如,交通灯、基于雷达或基于激光的速度检测器)或者照明设备(例如,配备有相机的路灯)。
在一些实施例中,当另一附近车辆没有遵循交通规则时,增强视野被自动提供给视野被阻挡的车辆,引起该车辆的一个或多个乘员的安全性关注。
因此,在一些实施例中,街道设备是交通控制设备,并且方法600还可包括:确定由交通控制设备示出的交通控制信号;判定存在于第二视野中的第二物体没有遵循交通控制信号;并且响应于判定存在于第二视野中的第二物体没有遵循交通控制信号,在与第一交通工具相关联的第一显示器上呈现第二视野。
例如,在图5中所示的路口处,配备有相机的交通灯和速度雷达可判定面朝向北车流的当前信号是停车信号(例如,红灯),并且某个物体(例如,车辆506)正朝着路口以60英里每小时向北移动,没有任何可检测到的速度降低或减速。基于这些判定,安装在车辆502上的设备102可判定该物体是将要无视停车信号的另一车辆,这造成了车辆502的驾驶员可能需要被提醒的一个交通危险。设备102可获得超速物体(车辆506)的图像并且将该图像呈现在车辆502的前挡风玻璃的中央,带有红色的感叹号,以通知车辆502的驾驶员潜在的交通危险。
与上文描述的数据验证技术类似,在一些实施例中,评级技术可用于在将视野提供给另一车辆或者将视野呈现给车辆用户之前指示并判定视野是否可靠。换言之,在一些实现方式中,不可靠的视野不被提供给车辆用户,即使其可增强用户的当前(被阻挡)视野。
方法600因此还可包括,获得与第二视野数据相关联的评级数据;并且根据评级数据判定是否将第二视野呈现在第一显示器上。
例如,基于诸如过去视野数据提供的可靠性、与车辆相关联的用户的可信性(例如,信誉可信度)之类的因素,车辆收集的视野数据可被评级。对于评级而言,与车辆相关联的用户例如可包括车辆的注册所有者,其智能电话通过蓝牙连接与车辆的娱乐系统相连接的用户,其GPS移动与车辆的一致的用户,以及正通过车辆的蜂窝呼叫系统进行电话呼叫的用户。另外,在一些实现方式中,如果用户曾经欺骗过系统,则系统可在预定时间段中(例如,2年)认为由该用户的车辆提供的视野数据是不可靠的。在一些实施例中,服务器系统108维护评级数据库并且更新评级数据库中识别的用户或车辆的可靠性评级。
在一些实施例中,当系统以预定的确定水平判定交通危险存在时,自动提供增强视野。方法600因此还可包括:判定与存在于第二视野中的第二物体相关联的行进速度大于预定速度;并且响应于该判定,在与第一交通工具相关联的第一显示器上呈现第二视野。
例如,一个车辆的被阻挡视野在如下情况下被用从另一车辆获得的无阻挡视野增强:当无阻挡视野包括超过预定速度(例如,75英里每小时)或者超过指定速度限制行进、或者违反交通信号移动或者以其他方式违反交通规则(例如,在学校区域不高于25英里每小时)移动的汽车时。
在一些实施例中,当车辆以相对低的速度移动或者已停下时,增强视野被提供给车辆驾驶员,以例如减少潜在的驾驶员分心或困惑。方法600因此可在没有用户输入的情况下响应于判定第一交通工具正低于预定速度移动而被执行。
例如,设备102可基于蜂窝塔三角测量或GPS技术或者基于速度计读数获得车辆的速度;当车辆以低于10英里每小时行进或者已停在某个路口处或者某个交通控制设备(例如,停车标志、停车线或者人行横道)附近时提供增强视野。
在一些实施例中,也可利用图像或物体识别技术检测交通控制设备的存在。例如,OCR技术可被应用到由车辆的前右相机捕捉的图像以识别出该图像是否包括具有单词“停车”的标志,这意味着车辆靠近停车标志。类似地,图像分析技术(例如,颜色或像素分析)可被应用到由车辆的前中相机捕捉的图像以识别出该图像是否包括白色直线(指示停车线)或者类似人行横道的白色图案,这表明车辆已停在人行横道后。
在一些实施例中,在判定驾驶员的视野的一部分例如由于另一车辆或任何其他物体(例如,交通障碍)或状况(例如,死角)的存在被阻挡时,自动向车辆驾驶员提供增强现实视野。
方法600因此可在没有用户输入的情况下响应于判定第二交通工具正阻挡第一视野而被执行。换言之,车辆用户不需要手动激活设备102以获得增强视野;当设备102检测到其相机视野之一已被阻挡时,增强视野(当可得时)被呈现在例如车辆前挡风玻璃上。这些技术是技术上有利的,因为进入弯道行驶的车辆可很快进入盲区,并且在此情形中自动提供关于这些盲区的增强视野可帮助驾驶员减少交通事故。
在一些实施例中,利用对等(P2P)通信信道,例如蓝牙连接或定向Wi-Fi连接,在车辆之间传送视野数据。除了以上参考图5说明的用户隐私原因以外,P2P通信也是技术上有利的,因为它减少了依赖于服务器之间和通过服务器的通信的需要。在一些实施例中,为了降低功率消耗,例如,根据(请求增强视野的车辆的)请求激活蓝牙连接。也可基于请求和提供视野数据的车辆的相对位置来选择和调整定向Wi-Fi路由器的信号方向。
本公开中描述的增强视野技术也可应用到无人驾驶车辆。在一些实施例中,取代在显示设备上呈现增强视野,设备102可以生成(610)控制信号来根据增强视野控制无人驾驶车的操作。例如,如果增强视野包括从等待进入路口的无人驾驶车辆的交叉方向到来的超速车辆,则设备102可生成制动信号以在无人驾驶车辆上施行并维持制动以允许无人驾驶车辆在超速车辆已停车或者离开了路口之后进入路口。
因此,在涉及无人驾驶车的一些实施例中,设备102可包括非暂态存储器;以及一个或多个硬件处理器,该一个或多个硬件处理器耦合到非暂态存储器并且被配置为执行来自非暂态存储器的指令以使得系统执行操作,包括:识别至少部分阻挡与第一交通工具相关联的第一用户的第一视野的第二交通工具;并且从第二交通工具获得第二视野数据。第二视野数据描述与第二交通工具相关联的第二用户的第二视野,并且第二视野包括在第一视野中被第二交通工具阻挡的额外视野。在一些实现方式中,操作还包括向第一交通工具提供识别第二视野的电子信号。
图7是图示出计算系统700的实施例的示意图,该计算系统700可以是图1中所示的服务器系统106。系统700在一些实现方式中包括一个或多个处理单元CPU 702(也称为硬件处理器)、一个或多个网络接口704、存储器706和用于互连这些组件的一个或多个通信总线708。通信总线708可选地包括互连系统组件并且控制系统组件之间的通信的电路(有时称为芯片集)。存储器706通常包括高速随机访问存储器,例如DRAM、SRAM、DDR ROM或其他随机访问固态存储器设备;并且可选地包括非易失性存储器,例如一个或多个磁盘存储设备、光盘存储设备、闪存设备或其他非易失性固态存储设备。存储器706可选地包括位于(一个或多个)CPU 702远程的一个或多个存储设备。存储器706或者存储器706内的(一个或多个)非易失性存储器设备包括非暂态计算机可读存储介质。在一些实现方式中,存储器706或者非暂态计算机可读存储介质存储以下程序、模块和数据结构,或者其子集:
·操作系统710,其包括用于处理各种基本系统服务和用于执行硬件相关任务的过程;
·网络通信模块(或指令)712,用于经由一个或多个网络接口704将系统700与其他设备(例如,安装在不同车辆108上的不同设备102)相连接;
·可选地,视野处理模块122,用于分析和验证由车辆或街道设备收集的视野数据(例如,图像、视频或雷达结果);
·可选地,发送模块128,用于将(例如经验证的)视野数据从一个车辆无线地发送到另一车辆;
·存储在系统700上的数据714,这可包括:
·视野数据库716,用于存储一个或多个增强视野718,这些增强视野718是根据一个或多个个体视野(例如,720-1、720-2和720-3)生成的。
在一些实现方式中,以上识别的元素中的一个或多个被存储在一个或多个先前提及的存储器设备中,并且对应于用于执行以上描述的功能的指令集合。以上识别的模块或程序(例如,指令集合)不需要被实现为单独的软件程序、过程或模块,从而这些模块的各种子集在各种实现方式中可被组合或以其他方式被重布置。在一些实现方式中,存储器706可选地存储以上识别的模块和数据结构的子集。此外,存储器706可存储以上没有描述的额外的模块和数据结构。
图8是图示出设备800的实施例的示意图,该设备800可以是图1中所示的设备102。设备800在一些实现方式中包括一个或多个处理单元CPU 802(也称为硬件处理器)、一个或多个网络接口804、用户界面805、存储器808和用于互连这些组件的一个或多个通信总线808。通信总线808可选地包括互连系统组件并且控制系统组件之间的通信的电路(有时称为芯片集)。存储器808通常包括高速随机访问存储器,例如DRAM、SRAM、DDR ROM或其他随机访问固态存储器设备;并且可选地包括非易失性存储器,例如一个或多个磁盘存储设备、光盘存储设备、闪存设备或其他非易失性固态存储设备。存储器808可选地包括位于(一个或多个)CPU 802远程的一个或多个存储设备。存储器808或者存储器808内的(一个或多个)非易失性存储器设备包括非暂态计算机可读存储介质。在一些实现方式中,存储器808或者非暂态计算机可读存储介质存储以下程序、模块和数据结构,或者其子集:
·操作系统810,其包括用于处理各种基本系统服务和用于执行硬件相关任务的过程;
·网络通信模块(或指令)812,用于经由一个或多个网络接口804(有线或无线)或经由通信网络104(图1)将设备800与其他设备(例如,车辆108B和108C中的类似设备)以及与服务器系统106相连接;
·视野处理模块122,用于分析和验证由车辆或街道设备收集的视野数据(例如,图像、视频或雷达检测结果);
·发送模块128,用于将(例如经验证的)视野数据从一个车辆无线地发送到另一车辆或者发送到服务器系统106;
·指令模块130,用于在车辆内显示位置呈现增强视野并且用于根据视野数据生成控制指令以控制车辆(例如,无人驾驶车)的操作;
·存储在设备800上的数据814,这可包括:
·描述视野的视野数据124,这包括:
■从其获得视野数据124的来源816-1;
■识别从其收集视野数据124的来源816-1的数字证书818-1;以及
■指示视野数据124的可靠性的评级820-1;以及
·描述与由视野数据124描述的视野的至少一部分重叠的另一视野的验证数据126,这包括:
■从其获得验证数据126的来源816-2;
■识别从其收集验证数据126的来源816-2的数字证书818-2;以及
■指示验证数据126的可靠性的评级820-2。
设备800还可包括用于提供设备800的位置信息的位置确定组件(例如,全球定位系统(Global Positioning System,GPS)设备和蜂窝塔三角测量设备)。在一些实施例中,设备800的位置被用于确定安装设备800的车辆的位置(例如,哪个路口、街道或公路)。
在一些实现方式中,以上识别的元素中的一个或多个被存储在一个或多个先前提及的存储器设备中,并且对应于用于执行以上描述的功能的指令集合。以上识别的模块或程序(例如,指令集合)不需要被实现为单独的软件程序、过程或模块,从而这些模块的各种子集在各种实现方式中可被组合或以其他方式被重布置。在一些实现方式中,存储器808可选地存储以上识别的模块和数据结构的子集。此外,存储器808可存储以上没有描述的额外的模块和数据结构。
虽然图7和图8分别示出了“计算系统700”和“设备800”,但图7和图8更打算作为对可存在于计算机系统中的各种特征的功能性描述,而不是本文描述的实现方式的结构示意。在实践中,如本领域普通技术人员认识到的,分开示出的项目可被组合,并且一些项目可被分离。
在适用时,本公开提供的各种实施例可利用硬件、软件或者硬件和软件的组合来实现。另外,在适用时,本文记载的各种硬件组件和/或软件组件可被组合成包括软件、硬件和/或两者的复合组件,而不脱离本公开的范围。在适用时,本文记载的各种硬件组件和/或软件组件可被分离成包括软件、硬件和/或两者的子组件,而不脱离本公开的范围。此外,在适用时,设想了软件组件可被实现为硬件组件,反之亦然。
根据本公开,软件,例如程序代码和/或数据,可被存储在一个或多个计算机可读介质上。还设想到了本文识别的软件可利用联网的和/或没有联网的一个或多个通用或专用计算机和/或计算机系统来实现。在适用时,本文描述的各种步骤的排序可被改变、被组合成复合步骤和/或被分离成子步骤以提供本文描述的特征。
前述公开并不打算将本公开限制到公开的确切形式或者特定使用领域。因此,设想到了对本公开的各种替换实施例和/或修改,无论是本文明确描述的还是暗示的,根据本公开都是可能的。例如,以上实施例专注于商家和用户;然而,用户或消费者可向包括慈善团体和个人在内的任何类型的接收者付款或者以其他方式与其交互。付款不一定要涉及购买,而可以是贷款、慈善捐款、礼物等等。从而,本文使用的商家也可包括慈善团体、个人以及从用户接收付款的任何其他实体或人。在这样描述了本公开的实施例后,本领域普通技术人员将会认识到在不脱离本公开的范围的情况下可做出形式和细节上的改变。从而,本公开仅受权利要求限制。
Claims (20)
1.一种设备,包括:
非暂态存储器;以及
一个或多个硬件处理器,该一个或多个硬件处理器耦合到所述非暂态存储器并且被配置为执行来自所述非暂态存储器的指令以使得所述设备执行操作,所述操作包括:
识别至少部分阻挡与第一交通工具相关联的第一用户的第一视野的第二交通工具;
从所述第二交通工具获得第二视野数据,其中,所述第二视野数据对应于与所述第二交通工具相关联的第二用户的第二视野,并且其中,所述第二视野包括在所述第一视野中被所述第二交通工具阻挡的额外视野;并且
在与所述第一交通工具相关联的第一显示器上呈现所述第二视野。
2.如权利要求1所述的设备,其中,所述操作还包括:
从街道设备获得验证数据,其中,所述验证数据描述所述第二视野;
根据所述验证数据验证所述第二视野;并且
响应于所述验证,在与所述第一交通工具相关联的所述第一显示器上呈现所述第二视野。
3.如权利要求2所述的设备,其中,所述街道设备包括以下之一:交通控制设备,或者照明设备。
4.如权利要求3所述的设备,其中,所述街道设备是交通控制设备,并且所述操作还包括:
确定由所述交通控制设备示出的交通控制信号;并且
判定存在于所述第二视野中的第二物体没有遵循所述交通控制信号;并且
响应于判定存在于所述第二视野中的所述第二物体没有遵循所述交通控制信号,在与所述第一交通工具相关联的所述第一显示器上呈现所述第二视野。
5.如权利要求1所述的设备,其中,所述操作还包括:
获得与所述第二视野数据相关联的评级数据;并且
根据所述评级数据判定是否在所述第一显示器上呈现所述第二视野。
6.如权利要求1所述的设备,其中,所述操作还包括:
判定与存在于所述第二视野中的第二物体相关联的行进速度超过预定速度;并且
响应于所述判定,在与所述第一交通工具相关联的所述第一显示器上呈现所述第二视野。
7.如权利要求1所述的设备,其中,所述操作是在没有用户输入的情况下响应于判定所述第一交通工具正低于预定速度移动而被执行的。
8.如权利要求1所述的设备,其中,所述操作是在没有用户输入的情况下响应于判定所述第二交通工具正阻挡所述第一视野而被执行的。
9.如权利要求1所述的设备,其中,所述第二视野数据是通过所述第一交通工具和所述第二交通工具之间的定向Wi-Fi或蓝牙通信信道从所述第二交通工具获得的。
10.如权利要求1所述的设备,其中,所述第二视野数据包括由安装在所述第二交通工具上的相机捕捉的音频数据和图像数据。
11.一种方法,包括:
识别至少部分阻挡与第一交通工具相关联的第一用户的第一视野的第二交通工具;
从所述第二交通工具获得第二视野数据,其中,所述第二视野数据描述与所述第二交通工具相关联的第二用户的第二视野,并且其中,所述第二视野包括在所述第一视野中被所述第二交通工具阻挡的额外视野;并且
向所述第一交通工具提供识别所述第二视野的电子信号。
12.如权利要求11所述的方法,其中,所述第一交通工具是无人驾驶车辆。
13.如权利要求11所述的方法,还包括:
从街道设备获得验证数据,其中所述验证数据描述所述第二视野;
根据所述验证数据验证所述第二视野;并且
响应于所述验证,在与所述第一交通工具相关联的所述第一显示器上呈现所述第二视野。
14.如权利要求13所述的方法,其中,所述街道设备包括以下之一:交通控制设备,以及照明设备。
15.一种设备,包括:
非暂态存储器;以及
一个或多个硬件处理器,该一个或多个硬件处理器耦合到所述非暂态存储器并且被配置为执行来自所述非暂态存储器的指令以使得所述设备执行操作,所述操作包括:
识别至少部分阻挡与第一交通工具相关联的第一用户的第一视野的第二交通工具;
从所述第二交通工具获得第二视野数据,其中,所述第二视野数据对应于与所述第二交通工具相关联的第二用户的第二视野,并且其中,所述第二视野包括在所述第一视野中被所述第二交通工具阻挡的额外视野;
从第三来源获得验证数据,其中所述验证视野数据与所述第二视野的至少一部分重叠;
根据所述验证数据验证所述第二视野数据;
响应于所述验证,判定所述第二视野数据是准确的;并且
在与所述第一交通工具相关联的第一显示器上呈现所述第二视野。
16.如权利要求15所述的设备,其中,根据所述验证数据验证所述第二视野数据包括:
向所述第二视野数据中包括的第二图像并且向所述验证数据中包括的验证图像应用图像识别技术;
判定所述第二图像包括第二物体;
判定所述验证图像也包括所述第二物体;并且
判定所述第二视野数据为准确的。
17.如权利要求15所述的设备,其中,根据所述验证数据验证所述第二视野数据包括:
(A)向所述第二视野数据中包括的第二图像应用物体识别技术;
基于所述应用(A),判定所述第二图像包括物体;
(B)向所述验证数据应用物体检测技术;
基于所述应用(B),判定物体存在于所述第二视野中;并且
判定所述第二视野数据为准确的。
18.如权利要求15所述的设备,其中,根据所述验证数据验证所述第二视野数据包括:
(A)向所述第二视野数据中包括的第二图像应用物体识别技术;
基于所述应用(A),判定所述第二图像包括物体;
向所述验证数据应用声音分析技术;
识别所述验证数据中的车辆声音;并且
响应于所述识别,判定所述第二视野数据为准确的。
19.如权利要求15所述的设备,其中,所述第三来源包括以下之一:交通控制设备,照明设备,或者交通速度测量设备。
20.如权利要求15所述的设备,其中,所述验证数据包括以下之一:车辆声音,人类声音,交通声音,交通设备声音,或者移动声音。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/198,861 US10088676B2 (en) | 2016-06-30 | 2016-06-30 | Enhanced safety through augmented reality and shared data |
US15/198,861 | 2016-06-30 | ||
PCT/US2017/040127 WO2018005878A1 (en) | 2016-06-30 | 2017-06-29 | Ehanced safety through augmented reality and shared data |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109643497A true CN109643497A (zh) | 2019-04-16 |
CN109643497B CN109643497B (zh) | 2022-04-15 |
Family
ID=60786518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780053310.1A Active CN109643497B (zh) | 2016-06-30 | 2017-06-29 | 通过增强现实和共享数据增强的安全性 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10088676B2 (zh) |
EP (1) | EP3479367A4 (zh) |
CN (1) | CN109643497B (zh) |
AU (1) | AU2017286887A1 (zh) |
WO (1) | WO2018005878A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112184920A (zh) * | 2020-10-12 | 2021-01-05 | 中国联合网络通信集团有限公司 | 基于ar的滑雪盲区显示方法、装置及存储介质 |
CN113139420A (zh) * | 2020-01-16 | 2021-07-20 | 本田技研工业株式会社 | 显示控制装置、显示控制装置的控制方法、移动体以及记录介质 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10460600B2 (en) | 2016-01-11 | 2019-10-29 | NetraDyne, Inc. | Driver behavior monitoring |
US10553122B1 (en) * | 2016-03-22 | 2020-02-04 | Amazon Technologies, Inc. | Unmanned aerial vehicle data collection for routing |
EP3491358A4 (en) | 2016-07-31 | 2019-07-31 | Netradyne, Inc. | DETERMINING THE CAUSES OF TRANSPORT EVENTS AND PROMOTING GOOD DRIVING BEHAVIOR |
WO2019068042A1 (en) | 2017-09-29 | 2019-04-04 | Netradyne Inc. | MULTIPLE EXPOSURE EVENT DETERMINATION |
WO2019075341A1 (en) | 2017-10-12 | 2019-04-18 | Netradyne Inc. | DETECTION OF DRIVING ACTIONS THAT MITIGATE RISK |
JP6908723B2 (ja) * | 2017-11-28 | 2021-07-28 | 本田技研工業株式会社 | 車両、および情報処理装置 |
DE102018207658B4 (de) * | 2018-05-16 | 2019-12-19 | Zf Friedrichshafen Ag | Verfahren zum Verarbeiten von Sensordaten, Anordnung zur Verarbeitung von Sensordaten, Anordnung zum Verarbeiten einer Anfrage eines Ego-Fahrzeugs für ein weiteres Fahrzeug, Rechner zum Verarbeiten von Sensordaten sowie Rechner zum Verarbeiten einer Anfrage eines Ego-Fahrzeugs für ein weiteres Fahrzeug |
US10757551B2 (en) * | 2018-10-17 | 2020-08-25 | Ford Global Technologies, Llc | Vehicle-to-infrastructure (V2I) messaging system |
US10970899B2 (en) * | 2018-10-23 | 2021-04-06 | International Business Machines Corporation | Augmented reality display for a vehicle |
US10616734B1 (en) * | 2018-11-20 | 2020-04-07 | T-Mobile Usa, Inc. | Unmanned aerial vehicle assisted V2X |
US11373400B1 (en) | 2019-03-18 | 2022-06-28 | Express Scripts Strategic Development, Inc. | Methods and systems for image processing to present data in augmented reality |
CN109835253A (zh) * | 2019-03-19 | 2019-06-04 | 安徽中科美络信息技术有限公司 | 一种行车盲区道路危险源提示方法及系统 |
US10970902B2 (en) * | 2019-03-26 | 2021-04-06 | At&T Intellectual Property I, L.P. | Allocating and extrapolating data for augmented reality for 6G or other next generation network |
JP7463146B2 (ja) * | 2020-03-17 | 2024-04-08 | 本田技研工業株式会社 | 移動体監視システム、及び移動体監視方法 |
CN112652176B (zh) * | 2020-12-09 | 2022-05-10 | 东风汽车集团有限公司 | 基于相邻车辆运动状态的预警方法、系统及车辆 |
CN112634611B (zh) * | 2020-12-15 | 2022-06-21 | 阿波罗智联(北京)科技有限公司 | 用于识别路况的方法、装置、设备以及存储介质 |
CN113370993A (zh) * | 2021-06-11 | 2021-09-10 | 北京汽车研究总院有限公司 | 车辆自动驾驶的控制方法和车辆自动驾驶的控制系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1902670A (zh) * | 2004-07-26 | 2007-01-24 | 松下电器产业株式会社 | 用于显示车辆外部图像的设备 |
US20070021915A1 (en) * | 1997-10-22 | 2007-01-25 | Intelligent Technologies International, Inc. | Collision Avoidance Methods and Systems |
US20090110239A1 (en) * | 2007-10-30 | 2009-04-30 | Navteq North America, Llc | System and method for revealing occluded objects in an image dataset |
US20090140881A1 (en) * | 2007-09-14 | 2009-06-04 | Denso Corporation | Vehicle-use visual field assistance system in which information dispatch apparatus transmits images of blind spots to vehicles |
US20100214085A1 (en) * | 2009-02-25 | 2010-08-26 | Southwest Research Institute | Cooperative sensor-sharing vehicle traffic safety system |
US20150145995A1 (en) * | 2013-11-22 | 2015-05-28 | At&T Intellectual Property I, L.P. | Enhanced view for connected cars |
WO2015123791A1 (en) * | 2014-02-18 | 2015-08-27 | Empire Technology Development Llc | Composite image generation to remove obscuring objects |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4332612C2 (de) * | 1992-09-25 | 1996-02-22 | Yazaki Corp | Außenansichts-Überwachungsverfahren für Kraftfahrzeuge |
US5892461A (en) * | 1997-09-24 | 1999-04-06 | Dokko; Joong-Hoon | Traffic condition displaying system |
US6100819A (en) * | 1999-08-12 | 2000-08-08 | Mark White | Vehicular traffic signalization method and apparatus for automatically documenting traffic light violations and protecting non-violating drivers |
US7734050B2 (en) | 2006-03-27 | 2010-06-08 | Nissan Technical Center North America, Inc. | Digital certificate pool |
JP4848893B2 (ja) * | 2006-08-29 | 2011-12-28 | 株式会社デンソー | 交差点情報提供システム及び運転支援システム |
US9043483B2 (en) | 2008-03-17 | 2015-05-26 | International Business Machines Corporation | View selection in a vehicle-to-vehicle network |
US8345098B2 (en) | 2008-03-17 | 2013-01-01 | International Business Machines Corporation | Displayed view modification in a vehicle-to-vehicle network |
JP5328979B2 (ja) * | 2009-05-12 | 2013-10-30 | トヨタ自動車株式会社 | 物体認識方法、物体認識装置、自律移動ロボット |
US20110153116A1 (en) * | 2009-12-21 | 2011-06-23 | At&T Intellectual Property I, Lp | Determining a status of adherence to a traffic regulation |
US20140063196A1 (en) * | 2011-04-22 | 2014-03-06 | Isaac S. Daniel | Comprehensive and intelligent system for managing traffic and emergency services |
US8493198B1 (en) * | 2012-07-11 | 2013-07-23 | Google Inc. | Vehicle and mobile device traffic hazard warning techniques |
US9292743B1 (en) * | 2013-03-14 | 2016-03-22 | Puretech Systems, Inc. | Background modeling for fixed, mobile, and step- and-stare video camera surveillance |
CN107077810A (zh) * | 2014-07-24 | 2017-08-18 | 柯蒂斯·M·布鲁巴克 | 用于在移动广告、媒体及通信平台上产生群聚效应的系统、方法和设备 |
-
2016
- 2016-06-30 US US15/198,861 patent/US10088676B2/en active Active
-
2017
- 2017-06-29 CN CN201780053310.1A patent/CN109643497B/zh active Active
- 2017-06-29 EP EP17821302.1A patent/EP3479367A4/en not_active Withdrawn
- 2017-06-29 WO PCT/US2017/040127 patent/WO2018005878A1/en unknown
- 2017-06-29 AU AU2017286887A patent/AU2017286887A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070021915A1 (en) * | 1997-10-22 | 2007-01-25 | Intelligent Technologies International, Inc. | Collision Avoidance Methods and Systems |
CN1902670A (zh) * | 2004-07-26 | 2007-01-24 | 松下电器产业株式会社 | 用于显示车辆外部图像的设备 |
US20090140881A1 (en) * | 2007-09-14 | 2009-06-04 | Denso Corporation | Vehicle-use visual field assistance system in which information dispatch apparatus transmits images of blind spots to vehicles |
US20090110239A1 (en) * | 2007-10-30 | 2009-04-30 | Navteq North America, Llc | System and method for revealing occluded objects in an image dataset |
US20100214085A1 (en) * | 2009-02-25 | 2010-08-26 | Southwest Research Institute | Cooperative sensor-sharing vehicle traffic safety system |
US20150145995A1 (en) * | 2013-11-22 | 2015-05-28 | At&T Intellectual Property I, L.P. | Enhanced view for connected cars |
WO2015123791A1 (en) * | 2014-02-18 | 2015-08-27 | Empire Technology Development Llc | Composite image generation to remove obscuring objects |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139420A (zh) * | 2020-01-16 | 2021-07-20 | 本田技研工业株式会社 | 显示控制装置、显示控制装置的控制方法、移动体以及记录介质 |
CN112184920A (zh) * | 2020-10-12 | 2021-01-05 | 中国联合网络通信集团有限公司 | 基于ar的滑雪盲区显示方法、装置及存储介质 |
CN112184920B (zh) * | 2020-10-12 | 2023-06-06 | 中国联合网络通信集团有限公司 | 基于ar的滑雪盲区显示方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3479367A1 (en) | 2019-05-08 |
AU2017286887A1 (en) | 2019-02-21 |
EP3479367A4 (en) | 2020-03-04 |
WO2018005878A1 (en) | 2018-01-04 |
US20180003965A1 (en) | 2018-01-04 |
US10088676B2 (en) | 2018-10-02 |
CN109643497B (zh) | 2022-04-15 |
WO2018005878A9 (en) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109643497A (zh) | 通过增强现实和共享数据增强的安全性 | |
US10196068B2 (en) | Convenience apparatus for vehicle and vehicle | |
KR101979694B1 (ko) | 차량에 구비된 차량 제어 장치 및 그의 제어방법 | |
US10296083B2 (en) | Driver assistance apparatus and method for controlling the same | |
KR101982774B1 (ko) | 자율 주행 차량 | |
US10459455B2 (en) | Vehicle control apparatus and vehicle including the same | |
KR101750178B1 (ko) | 차량 외부 알람방법, 이를 실행하는 차량 운전 보조장치 및 이를 포함하는 차량 | |
WO2016186039A1 (ja) | 自動車周辺情報表示システム | |
KR101979269B1 (ko) | 자율 주행 차량 및 자율 주행 차량의 동작 방법 | |
KR20180132922A (ko) | 차량용 디스플레이 장치 및 차량 | |
KR101934731B1 (ko) | 차량용 통신 장치 및 차량 | |
US20190276044A1 (en) | User interface apparatus for vehicle and vehicle including the same | |
KR101843538B1 (ko) | 차량 운전 보조장치 및 이의 차량 운전 보조방법 | |
KR102035135B1 (ko) | 차량 사고 정보 제공 시스템 | |
KR101908422B1 (ko) | 차량에 구비된 차량 제어 장치 및 그의 제어 방법 | |
KR20190065043A (ko) | 차량의 운행 시스템 | |
KR20190016375A (ko) | 차량용 사이드 미러 및 차량 | |
KR102089955B1 (ko) | 차량에 구비된 차량용 로봇 및 차량용 로봇의 제어방법 | |
KR20180085585A (ko) | 차량에 구비된 차량 제어 장치 및 그의 제어방법 | |
US20210323469A1 (en) | Vehicular around view image providing apparatus and vehicle | |
KR101916428B1 (ko) | 차량용 디스플레이 장치 | |
KR20220115696A (ko) | 자율주행 차량의 보행자 광고 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |