CN113316115A - 与支持v2x的装置进行语音和/或手势通信的系统和方法 - Google Patents
与支持v2x的装置进行语音和/或手势通信的系统和方法 Download PDFInfo
- Publication number
- CN113316115A CN113316115A CN202110192419.1A CN202110192419A CN113316115A CN 113316115 A CN113316115 A CN 113316115A CN 202110192419 A CN202110192419 A CN 202110192419A CN 113316115 A CN113316115 A CN 113316115A
- Authority
- CN
- China
- Prior art keywords
- user
- message
- vehicle
- communication module
- drone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000004891 communication Methods 0.000 title claims abstract description 179
- 238000000034 method Methods 0.000 title claims description 92
- 238000012545 processing Methods 0.000 claims abstract description 66
- 230000000007 visual effect Effects 0.000 claims description 54
- 230000033001 locomotion Effects 0.000 claims description 20
- 230000005540 biological transmission Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 38
- 238000006243 chemical reaction Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 24
- 238000012544 monitoring process Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 12
- 230000003044 adaptive effect Effects 0.000 description 9
- 230000003993 interaction Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 5
- 238000004886 process control Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/12—Messaging; Mailboxes; Announcements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/20—UAVs specially adapted for particular uses or applications for use as communications relays, e.g. high-altitude platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
Abstract
一种系统包括:第一通信模块,其用于接收用户消息;处理单元,其用于将所述用户消息转换为车辆到万物(V2X)消息;以及第二通信模块。所述第一通信模块、所述处理单元和所述第二通信模块在第一车辆中实施。所述第二通信模块被配置成经由无线通信链路从所述第一车辆传输所述V2X消息。所述第一车辆可以是被配置成与放置在用户身上或附近的用户装置通信的无人机,并且所述用户消息可以是音频消息或用户手势。可替换的是,所述第一车辆可由所述用户占据,其中所述用户消息是音频消息。所述系统可实现与自主车辆或配备有V2X能力的另一装置的通信。
Description
技术领域
本发明大体上涉及与配备有车辆到万物(V2X)能力的装置的通信。更具体地说,本发明涉及通过将用户消息(例如,语音、手势)转换为车辆到万物(V2X)消息(且反之亦然)来实现人类用户与至少具有半自主运动能力的车辆和配备有V2X能力的其它装置之间的通信的系统和方法。
背景技术
在某些非典型情况下,至少具有半自主或具有完全自主运动能力的车辆有时可能需要遵循来自警察、交通主管部门等的非标准指示。这些非典型情况可包括在事故现场导航、交通信号中断、临时道路堵塞或因道路进行计划外维护、极端天气条件而改道等。在此类不寻常的情况下,可能不适合遵循传统的、预先规划的驾驶规则。此外,可能会发生其它情况,其中有关当局需要与半自主或完全自主车辆进行交互。在示例情况下,当局可能需要使自主车辆靠边停车。在这任一种情况下,半自主或完全自主车辆都需要明确地理解有关当局的指令。
发明内容
在所附权利要求书中限定本公开的各方面。在第一方面,提供一种系统,包括:第一通信模块,其被配置成接收用户消息;处理单元,其被配置成将所述用户消息转换为车辆到万物(V2X)消息;以及第二通信模块,其中所述第一通信模块、所述处理单元以及所述第二通信模块在第一车辆中实施,并且所述第二通信模块被配置成经由无线通信链路从所述第一车辆传输所述V2X消息。
在第二方面,提供一种方法,包括:在第一车辆处接收用户消息;在所述第一车辆处将所述用户消息转换为车辆到万物(V2X)消息;以及经由无线通信链路从所述第一车辆传输所述V2X消息。
附图说明
附图用来进一步示出各种实施例并解释完全根据本发明的各种原理和优点,在附图中类似附图标记贯穿不同的视图指代相同的或功能类似的元件,各图未必按比例绘制,并且附图与下文的具体实施方式一起并入本说明书并且形成本说明书的部分。
图1示出根据实施例的用于车辆之间的通信的系统的概念图;
图2示出包括人类用户穿戴的电子装置和无人驾驶车辆的系统的例子;
图3示出穿戴电子装置的人类用户的正视图;
图4示出由人类用户穿戴的电子装置的框图;
图5示出无人驾驶车辆上的组件的简化框图;
图6示出根据另一实施例的监测和命令过程的流程图;图7示出图6的监测和命令过程的自适应速度和位置控制子过程的流程图;
图8示出图6的监测和命令过程的数据获取子过程的流程图;
图9示出图6的监测和命令过程的用户消息到V2X的转换子过程的流程图;
图10示出图6的监测和命令过程的V2X到用户消息的转换子过程的流程图;
图11示出根据另一实施例的用于车辆之间的通信的系统的概念图;
图12示出图11的系统的框图;以及
图13示出根据实施例的用于车辆与配备有V2X能力的装置之间的通信的系统的概念图。
具体实施方式
在概述中,本公开涉及用于实现人类用户与至少具有半自主运动能力的车辆之间的通信的系统和方法。更具体地说,系统和方法通过将用户消息(例如,音频或手势)转换为等效的语音到万物(V2X)消息且反之亦然,来实现例如交通警察等授权当局与自主车辆的交互。在一些实施例中,可使用经过训练、认证的无人驾驶车辆(例如,无人机)作为通信介质来执行音频消息到等效V2X消息的转换。系统和方法可能需要根据用户消息对无人驾驶车辆进行实时自主定位和导航。无人驾驶车辆还可包括一个或多个相机,用于捕捉可转换为用户消息的用户的运动。再者,所述一个或多个相机可被配置成捕捉从所述一个或多个相机可见的周围环境,并向用户提供周围环境的视觉信息。在其它实施例中,授权当局的车辆中的系统可用作通信介质,以将音频消息转换为等效的V2X消息且反之亦然。在又其它实施例中,系统和方法可实现授权当局与配备有V2X能力的其它非车辆装置的交互。
应理解,术语“车辆”或“车辆的”或如本文中所使用的其它类似术语一般包括例如包括运动型多用途车辆(SUV)、公共汽车、卡车、各种商用车辆的客运汽车之类的机动车辆;包括多种船舶的船艇、航空器等;并且包括混合动力车辆、电动车辆、内燃式车辆、插电式混合动力电动车辆和任何其它替代燃料(例如,从除石油以外能源衍生的燃料)车辆。应进一步理解,如本文中所使用的术语“半自主”或“自主”或其它类似术语包括,可归类为1级至5级自主类别中任何一种的机动车辆,其中1级定义为在特定情况下能够自主控制转向或速度以辅助驾驶员的车辆,而5级定义为在任何环境条件下能够自主完成行驶的车辆。再者,应理解,术语“配备有V2X能力”可包括任何路边单元、“智能”红绿灯、“智能”停车基础设施或可通过V2X通信实现与授权当局交互的任何其它非车辆结构。
提供本公开是为了以能够实现的方式进一步解释根据本发明的至少一个实施例。另外提供本公开是为了加强对本公开的创造性原理和优点的理解和了解,而不是以任何方式限制本发明。本发明仅由所附权利要求书限定,包括在本申请未决期间做出的任何修正和所发布的那些权利要求的所有等效物。
应理解,例如第一和第二、顶部和底部等相关术语(如果存在的话)的使用仅用于区分实体或动作,而不必要求或意指在此类实体或动作之间的任何此类实际关系或次序。
与用户装置配对的无人驾驶车辆
参考图1-3,图1示出根据实施例的用于车辆之间的通信的系统20的概念图;图2示出系统20的例子,其包括由人类用户24穿戴的电子装置,所述电子装置在本文中被称作用户装置22。系统20另外包括在第一车辆中实施的元件(如下描述),所述第一车辆在本文中被称作无人驾驶车辆26。用户装置22和无人驾驶车辆26被配置成彼此通信。图3示出穿戴用户装置22的人类用户24的正视图。系统20实现用户装置22与第二车辆28之间的通信,其中无人驾驶车辆26充当通信介质。如本文中所论述,人类用户24可以是警察、第一目击者、交通管理员或任何其它授权当局。为简单起见,人类用户24将通常在本文中被称作用户24。第二车辆28可以是任何半自主或完全自主车辆。为了清楚起见,第二车辆28将通常在本文中被称作自主车辆28。
无人驾驶车辆26可以是包括例如无人驾驶飞行器(UAV)、无人领航飞行器、远程领航航空器、无人驾驶航空器系统、由国际民用航空组织分类的函件328AN/190涵盖的任何航空器等的许多车辆中的任何一种。作为例子,无人驾驶车辆26可呈单旋翼或多旋翼直升机(例如,四旋翼直升机)或者固定翼航空器的形式。另外,本公开的某些方面可与其它类型的无人驾驶车辆(例如,带轮车辆、履带式车辆、航天器和/或水上车辆)一起使用。为了简单起见,无人驾驶车辆26将通常在本文中被称作无人机26。
如上所述,系统20实现用户装置22与自主车辆28之间的通信。自主车辆28实现车辆外部通信。车辆外部通信可以是用于在车辆与位于车辆外部的对象之间传递信息的通信,并且可被称作车辆到万物(V2X)通信。在此例子中,可配备自主车辆28以经由V2X通信与无人机26通信。因此,用户装置22与无人驾驶车辆26之间的通信可通过安全无线的无线电链路27进行,并且无人驾驶车辆26与自主车辆28之间的通信可通过V2X通信链路29进行。此外,可实施第一无线通信技术(例如,经典蓝牙、低功耗蓝牙(BLE)、超宽带(UWB)技术等)以实现用户装置22与无人机26之间的通信,并且可实施不同的第二无线通信技术(例如,V2X通信技术,例如基于无线局域网(WLAN)的通信、专用短程通信(DSRC)、蜂窝V2X等)以实现无人机26与自主车辆28之间的通信。
在实施例中,系统20的用户装置22可包括被配置成放置在用户24身上的第一可穿戴结构30和第二可穿戴结构32,其中第二可穿戴结构32物理上远离第一可穿戴结构30移位。如图3中最佳示出的,第一可穿戴结构30至少包括第一部分34,所述第一部分被配置成安置在用户24的第一耳朵36内,并且第二可穿戴结构32包括第二部分38,所述第二部分被配置成安置在用户24的第二耳朵40内。第一可穿戴结构30和第二可穿戴结构32的穿戴位置使它们中的每一个以相对于用户24的头部42/耳朵36、40几乎恒定的位置和方向放置。
在示例实施例中,第一可穿戴结构30和第二可穿戴结构32可以是听觉仪器,有时简称为可听式装置(hearables)。在这种情况下,作为可听式装置的第一可穿戴结构30和第二可穿戴结构32可包括麦克风和扬声器组合、用以处理由麦克风捕捉到的信号且用以控制扬声器的输出的处理元件以及用于实现无线通信的一个或多个无线通信模块(例如,收发器)。下文将结合图4提供第一可穿戴结构30和第二可穿戴结构32内的组件的其它细节。在替代实施例中,第一可穿戴结构30和第二可穿戴结构32不一定是可听式装置,而可以是为了监测无人机26和与无人机通信而可放置在用户24身上或用户附近的任何合适的电子装置。
为了收集来自用户24的用户消息(例如,手势)和/或捕捉周围环境的视觉信息,一些实施例需要无人机26相对于用户24的实时自主定位和导航。因此,如图2所示,为了收集来自用户24的用户消息(例如,手势),无人机26可处于面向用户24的第一位置41。如图2中另外示出的,无人机26可处于用户24上方的第二位置43,并且与用户24面向相同的方向,以捕捉周围环境的视觉信息。在用户24上方的某一高度距离处飞行的无人机26可提供在给定环境中扩大能见范围(例如,以用于监测交通密度等)的优点。
此外,实施例需要在无人机26处将用户消息转换为车辆到万物(V2X)消息,并且将V2X消息从无人机26传送到自主车辆28。再者,一些实施例需要在无人机26处接收从自主车辆28传输的V2X消息、将V2X消息转换为用户消息以及将用户消息传送到用户装置22。如将在下文显著更详细地论述的,无人机26和电子装置22被配置成协作地建立本地无线通信区44,以便至少针对无人机26相对于用户24的自主定位和导航、数据通信、反馈、语音命令、手势命令等实现用户装置22与无人机26之间的通信。下面将结合图5提供无人机26内组件的其它细节。
图4示出由用户24(图2)穿戴的用户装置22的框图。第一可穿戴结构30至少包括第一无线收发器46、第一近场磁感应/近场电磁感应(NFMI/NFEMI)收发器48和处理元件50。在一些实施例中,第一可穿戴结构30可额外包括扬声器52和麦克风54。类似地,第二可穿戴结构32至少包括第二无线收发器56、第二NFMI/NFEMI收发器58和处理元件60。在一些实施例中,第二可穿戴结构32可额外包括扬声器62和麦克风64。NFMI指的是使用局部磁场内的传输的短程通信技术。NFEMI是NFMI的扩展,是也使用局部磁场内的传输并使用电天线进行传输的通信技术。
如上文所提及,无人机26和用户24可经由安全无线的无线电链路27进行通信。举例来说,第一可穿戴结构30的第一无线收发器46可被配置成经由第一无线通信链路66与无人机26通信,并且第二可穿戴结构32的第二无线收发器56可被配置成经由第二无线通信链路68与无人机26通信。第一无线的无线电链路66和第二无线的无线电链路68共同形成安全无线的无线电链路27。另外,在一些实施例中,第一NFMI/NFEMI收发器48和第二NFMI/NFEMI收发器58可实现第一可穿戴结构30与第二可穿戴结构32之间的无线通信(通常表示为NFMI/NFEMI信道70)。处理元件50、60可被配置成适当地处理信息以经由相应的第一无线收发器46和第二无线收发器56以及第一NFMI/NFEMI收发器48和第二NFMI/NFEMI收发器58进行传输,和/或适当地处理信息以从扬声器52、62输出和/或在麦克风54、64处输入。如下文将更详细地论述的,可实施无线通信技术(例如,蓝牙通信)以实现经由第一信链路66和第二通信链路68进行的通信,从而建立本地无线区44(图2)。可实施另一无线通信技术(例如,近场磁感应通信)以实现第一可穿戴物30与第二可穿戴物32之间的通信。
图5示出无人机26上的组件的简化框图。一般来说,无人机26包括处理单元72、第一通信模块74、呈一个或多个相机76A、76B形式的传感器系统、一个或多个相机控制单元78A、78B、驱动控制单元80、推进系统82(例如,一个或多个电机)、第二通信模块(在本文中被称作V2X通信模块84),以及电池监测电路86(监测电池输出电压),所有这些组件都由电池88供电。例如CAN总线或信号线之类的一个或多个通信总线可以将处理单元72、无线通信模块74、相机76、相机控制单元78、驱动控制单元80、推进系统82、V2X通信模块84、电池监测器电路86和电池88耦合。
第一无线通信模块74可包括收发器90和无线电处理器92。驻留在无人机26上的第一无线通信模块74的收发器90被配置成经由安全无线的无线电链路27与第一可穿戴结构30和第二可穿戴结构32通信,并且无线电处理器92可被配置成适当地处理从收发器90传输的或在收发器90处接收的消息。根据所示出的例子,第一收发器46(作为第三通信模块)和第一通信模块74被配置成实现和维持第一无线通信链路66,并且第二收发器56(作为第四通信模块)和第一通信模块74被配置成实现和维持第二无线通信链路68。
在一些实施例中,可经由相应的第一通信链路66和第二通信链路68在用户装置22与无人机26之间传送第一位置数据94和第二位置数据96。此外,可经由第一通信链路66和第二通信链路68中的至少一个将来自用户24的传入用户消息98传送到无人机26。再者,可经由第一通信链路66和第二通信链路68中的至少一个将来自无人机26的传出用户消息100传送给用户24。
处理单元72可被配置成执行多个操作。例如,处理单元72可使用第一位置数据94和第二位置数据96来调整无人机26相对于用户24的速度和位置(图2)。另外,处理单元72可获取(在第一通信模块74处接收并适当地处理的)传入用户消息98,并将传入用户消息98转换为传出V2X消息102。在将传出V2X消息102传送到V2X通信模块84以经由V2X通信链路29传输到自主车辆28之前,对转换后的传出V2X消息102的正确性进行认证。相反,可在V2X通信模块84处接收由自主车辆28输出的传入V2X消息104,并且所述传入V2X消息可被传送到处理单元72。传入V2X消息104可在处理单元72处被处理,以将所需字段转换为传出用户消息100。在所示出的配置中,传出用户消息100可经由第一无线通信链路66和第二无线通信链路68中的至少一个传输到用户装置22,在所述用户装置中,所述传出用户消息可在扬声器52、62(图4)处输出为音频消息。
V2X通信模块84可以是软件无线电(SDR),其中SDR的组件通过通用处理器或嵌入式系统上的软件实施。因此,处理器可配备有前面是射频(RF)前端的声卡或其它模数转换器。可替换的是,V2X通信模块84可在硬件(例如,混频器、滤波器、放大器、调制器/解调器、检测器等)中实施。再者,V2X通信模块84可在混合模拟和数字电路系统中实施。
在一些实施例中,处理单元72还可获取在相机76A、78B处捕捉到的视觉信息106A、106B。在一些实施例中,来自相机76A的视觉信息106A可由处理单元72用来进行面部识别以认证用户24(作为授权当局)。另外,或可替换的是,来自相机76A的视觉信息106A可捕捉用户24的运动,例如用户24的身体手势,处理单元72可使用这些身体手势来进行手势识别,以在非典型情况(例如,交通事故现场、交通信号中断、临时道路阻塞或改道等)下控制交通流动情况。在其它实施例中,来自相机76B的视觉信息106B可以是从相机76可见的周围环境。周围环境可以是但不限于是交通密度、车辆种类等。
处理单元72可包括处理模块108(例如,人工智能(AI)和机器学习(ML)引擎)。AI-ML引擎,也称为算法,可训练用于面部识别、手势命令识别和/或语音命令识别。可实施机器学习以基于非典型情况来学习手势命令和不同的语音命令。因此,可在处理模块108处使用AI-ML引擎处理视觉信息106。例如,可以执行深度学习算法来处理用于经由面部识别进行认证的视觉信息106。此外,可执行深度学习算法来处理视觉信息106,以推断或以其它方式确定交通控制手势和/或解译根据来自用户24的基于音频的传入用户消息98的交通控制命令。再者,可实施机器学习以进行部分自动化处理。举例来说,某些命令可能导致“长卡车偏离车道1”、“客运车辆偏离车道2”等。一旦无人机26的处理单元72知道这些命令,AI就可以学习预测/标识车辆并为车辆导航,而不用另外需要来自用户24的语音命令(例如,传入用户消息98)。
在处理单元72处执行的控制算法还可以提供命令,以按照用户24经由传入用户消息98所指示的,使无人机26相对于用户24移动到特定位置或面向特定方向移动。因此,处理单元72可将运动参数110提供到驱动控制单元80以调整无人机26的速度和/或位置,从而使用推进系统82使无人机26相对于用户24移动到特定位置以获得期望的视觉信息106。在处理单元72处执行的控制算法还可将相机指令112A提供到相机控制单元78A,以使相机76聚焦在用户24身上。在一些实施例中,相机指令112A可被配置成沿着视准轴114A(参见图2)在第一可穿戴结构30和第二可穿戴结构32之间指引相机76,使得相机76A的自动聚焦特征大致对准用户24。可替换的是,处理单元72可将相机指令112B提供到相机控制单元78B,以使相机76B的视准轴114B指向周围外部环境(例如,事故现场的交通堵塞等)。
简要参考图2,无人机26被示出为位于两个不同位置41、43处。此类配置可仅具有指向用户24或从用户24向外指向周围环境的单个相机76。然而,在一些实施例中,无人机26可位于例如第二位置43的位置,并且相机76B的视准轴114B可指向周围外部环境,而相机76A的视准轴114A指向用户24。另外其它实施例可包括多于两个相机,适当地控制和指引这些相机以在多个方向上查看用户和/或周围环境。
返回参考图5,本文中所使用的术语“引擎”、“算法”、“单元”、“模块”是指硬件或固件中体现的逻辑,或者是指用编程语言编写并由处理单元72执行的软件指令的集合。处理单元72可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑装置、离散门或晶体管逻辑、离散硬件组件或其被设计成执行本文中所描述的功能的任何组合。通用处理器可以是微处理器,但在替代方案中,处理器可以是控制器、微控制器或状态机、其组合等。处理器可包括被配置成处理计算机可执行指令的电路系统。处理单元72还可实施为计算装置的组合,例如DSP与微处理器、多个微处理器、与DSP核心结合的一个或多个微处理器的组合,或任何其它此类配置。尽管本文主要相对于数字技术来描述,但处理器还可主要包括模拟组件。例如,下文所描述的信号处理算法中的一些或全部可实施在模拟电路系统或混合的模拟和数字电路系统中。
为了简单起见,第一位置数据94、第二位置数据96、传入用户消息98、传出用户消息100、传出V2X消息102、传入V2X消息104、视觉信息106A、106B、运动参数110以及相机指令112A、112B都由图5中的各个框表示。可以使用各种适当的有线和无线协议在系统20的元件之间传送此信息。
图6示出根据另一实施例的监测和命令过程120的流程图。监测和命令过程120提供与实时智能地调整无人机26相对于用户24的速度和位置、数据获取、用户消息到V2X的转换以及V2X到用户消息的转换相关联的高级操作框和子过程。监测和命令过程120可由无人机26使用处理单元72执行。为了方便起见,应结合以下描述同时参看图1-6。
根据过程120的操作框122,将用户装置22放置在用户24身上或附近。在所示出的例子中,作为可听式装置的第一可穿戴结构30和第二可穿戴结构32放置在用户24的第一耳朵36和第二耳朵40中。此外,可打开或以其它方式启用用户装置22。
根据过程120的操作框124,启动无人驾驶车辆(例如,无人机26)。无人机26的启动可响应于用户24或另一个人的上电命令而发生。无人机26可从充电垫或用户24附近的启动位置启动。在启动无人机26且可能将其置于悬停模式之后,可以执行操作框126。在操作框126处,执行用户认证。用户认证需要确保授权实体是否正在使用无人机26。用户认证可涵盖广泛多种过程。在一些实施例中,可以训练处理单元72以识别特定用户的手势和/或语言。因此,用户认证可涉及在处理单元72处接收和解译用户消息(来自用户24的音频或手势命令)。在其它实施例中,用户认证可涉及执行面部识别方案,其中处理单元72接收用户24的视觉信息106并基于先前的机器学习“识别”用户24。可替换的是,可实施其它用户认证技术以确保适当的用户24正在操作无人机26。
在查询框128处,确定用户是否被认证。当在查询框128处确定用户未被认证时,过程控制继续操作框130。在框130处,可将认证错误消息提供到用户和无人机26中的一个或两者。此后,无人机26可采取例如着陆和断电等预防措施,并且监测和命令过程120的执行结束。然而,当在查询框128处确定用户被认证时,可执行自适应速度和位置控制子过程132、数据获取子过程134、用户消息到V2X的转换子过程136以及V2X到用户消息的转换子过程138。
一般来说,可执行自适应速度和位置控制子过程132来确定无人机26相对于用户24的当前位置并调整无人机26的速度和位置,以使无人机26相对于用户24从当前位置移动到预定位置。将结合图7的流程图来论述自适应速度和位置控制子过程132。可执行数据获取子过程134以接收和解译来自相机76A、78B的视觉信息106A、106B。将结合图8的流程图论述数据获取子过程134。可执行用户消息到V2X的转换子过程136,以将接收到的来自用户24的传入用户消息转换为用于传送到自主车辆28的传出V2X消息。将结合图9的流程图论述用户消息到V2X的转换子过程136。可执行V2X到用户消息的转换子过程138,以将接收到的来自自主车辆28的传入V2X消息转换为用于传送给用户24的传出用户消息。将结合图10的流程图论述V2X到用户消息的转换子过程138。
为了简单起见,子过程132、134、136、138按相继次序呈现在监测和命令过程120中。然而,在随后的论述中将显而易见的是,可按任何次序执行子过程132、134、136、138。可替换的是,可并行地执行子过程132、134、136、138中的一些或全部,以提高计算效率并实现无人机26的处理元件之间的实时信息交换。
在查询框140处,确定是否继续执行监测和命令过程120。举例来说,在用户24涉及特定非典型情况的持续时间内、在某个预定时间段内或直到在电池监测器电路86确定电池88的电池电量正在变低为止,可以继续进行监测和命令过程120。
当在查询框140处确定要继续执行过程120时,过程控制循环返回以继续执行自适应速度和位置控制子过程132、数据获取子过程134、用户消息到V2X的转换子过程136和/或V2X到用户消息的转换子过程138。因此,无人机26能够响应于来自用户24的命令不断地调整其速度和位置,获取视觉信息116,执行用户消息到V2X消息的转换,以及执行V2X消息到用户消息的转换。
当在查询框140处确定要中断监测和命令过程120的执行时,可执行操作框142以使无人机26停放在充电垫或着陆位置上。此后,监测和命令过程120结束。
图7示出监测和命令过程120(图6)的自适应速度和位置控制子过程132的流程图。可由无人机26执行自适应速度和位置控制子过程132,以不断地使无人机26基于用户24的位置、用户命令等实时调适其速度和位置。为了方便起见,应结合以下描述同时参考图1-5和7。
在框144处,实现第一可穿戴结构30和第二可穿戴结构32与无人驾驶车辆(例如,无人机26)之间的第一无线通信链路66和第二无线通信链路68。在一些实施例中,相应的第一可穿戴结构30和第二可穿戴结构32的第一收发器46和第二收发器56以及无人机26的第一通信模块74被配置成实施第一无线通信技术以实现第一无线通信链路66和第二无线通信链路68。第一无线通信技术可以是经典蓝牙或低功耗蓝牙(BLE)技术。然而,可替换的是,可实施其它“短链路”无线技术,例如用于在短距离上以低功耗在便携式装置之间交换数据的超宽带(UWB)。在示例配置中,无人机26的第一通信模块74可用作主装置,而第一可穿戴结构30和第二可穿戴结构32的第一收发器46和第二收发器56用作从装置。可执行接合或配对程序以将第一收发器46和第二收发器56与第一通信模块74连接起来。
在框146处,可确定无人驾驶车辆(例如,无人机26)相对于用户24位置的当前位置。也就是说,可确定用户24的位置和无人机26相对于用户24的当前位置。举例来说,蓝牙核心规范(v5.1)和市场上的蓝牙5.1测向包括到达角(AoA)和离去角(AoD)特征,用于在两个或三个方向上精确地确定蓝牙传输器的位置。尽管提到了蓝牙5.1,但后续版本蓝牙5.x可能也包括AoA和AoD测向能力。在AoA概念中,第一收发器46可经由第一无线通信链路66将第一位置数据94广播到无人机26处的第一通信模块74。无人机26上的处理单元72测量到达角θ1(参见图2),以确定第一可穿戴结构30的位置。类似地,第二收发器56可经由第二无线通信链路68将第二位置数据96广播到无人机26处的第一通信模块74。无人机26上的处理单元72测量到达角θ2(参见图2),以确定第二可穿戴结构32的位置。根据两个到达角θ1和θ2,用户24的位置可插入为第一可穿戴结构30和第二可穿戴结构32的各个位置之间的中点位置,并且可推导出无人机26相对于用户24位置的当前位置。尽管将AoA作为一种技术进行了描述,但是可以替代地实施AoD。此外,在UWB应用中,可以使用飞行时间(ToF)来获得精确的距离/位置测量值。
在框148处,获得无人机26的“下一个”预定位置数据。“下一个”预定位置数据可经由用户消息(例如,传入用户消息98或包含在来自相机76A的视觉信息106A中的手势命令、用于跟踪的第一可穿戴结构30和第二可穿戴结构32的移位等)来提供。“下一个”预定位置可以是无人机26相对于用户24的位置(例如,图2中的第一位置41)、基于期望相机位置的预定位置(例如,图2中的第二位置43)或其任何组合。
在框150处,可将运动参数110从处理单元72传送到驱动控制单元80,并且在框152处,驱动控制单元80向推进系统82发送合适的命令以调整无人机26的速度和/或位置,以使无人机26相对于用户24移动到“下一个”预定位置(例如,第一位置41、第二位置43或另一位置)。当获得无人机26的“下一个”预定位置数据时,过程流程循环返回到框148。可以继续执行自适应速度和位置控制子过程132,直到在查询框140(图6)处确定监测和命令过程120(图6)的执行将被中断为止。
因此,基于来自第一可穿戴结构30和第二可穿戴结构32的第一位置数据94和第二位置数据96、处理单元72和用户消息,自适应速度和位置控制子过程132的执行实现无人机26相对于用户24的智能定位,从而获得最佳视觉信息106A、106B。另外,子过程132的执行可通过跟踪第一可穿戴结构30和第二可穿戴结构32的移动来实现对用户24的跟踪,以确保无人机26相对于用户24适当地定位。此外,可适当地调整无人机26的速度和/或位置,使得相机76A的视准轴114A指向用户24和/或相机76B的视准轴114B在用户24的相同方向上向外指引和/或视准轴114A、114B指向任何其它期望位置。
图8示出监测和命令过程120(图6)的数据获取子过程134的流程图。在实施例中,数据获取子过程134可包括经由相机76A、76B捕捉视觉信息106A、106B。例如,当相机76A的视准轴114A指向用户24时,视觉信息106A可以是用户24的手势。例如,当相机76B的视准轴114B从用户24向外指引时,视觉信息106B可以是关于周围环境(例如,交通模式、交通堵塞等)的信息。为方便起见,应结合以下描述同时参考图1-5和8。
在框154处,沿着相应的视准轴114A、114B指引相机76A、76B,并且在框156处,相机76A、76B捕捉视觉信息106A、106B。捕捉到的视觉信息106A可包括例如呈用户24作出的交通控制手势形式的用户消息。例如,当相机76A的视准轴114A对准用户24时,可捕捉交通控制手势。当视准轴114B从用户24向外指引时,视觉信息106B可以是从相机76B可见的周围环境。例如,当无人机26至少包括两个相机时,可并行地捕捉视觉信息106A和106B两者。如果无人机26仅包括一个相机,则用户运动和周围环境的视觉信息可以串行方式出现。
在查询框158处,确定捕捉到的视觉信息是否包括用户24的运动(例如,交通控制手势)。在例子中,处理单元72可通过了解相机76A相对于用户24的位置、通过在视觉信息106A中识别用户24、通过无人机26的预设条件或其某些组合,将视觉信息106A标识为用户24的运动。当在查询框158处确定视觉信息106A包括用户24的运动时,可执行用户消息到V2X的转换子过程136(图9),以将视觉信息106A转换为传出V2X消息102。可替换的是,当在查询框158处确定捕捉到的视觉信息不包括用户24的运动,而是包括周围环境的图像(例如,视觉信息116B)时,过程控制继续到框160。因此,查询框158可单独标识视觉信息106A、106B的不同分组。可替换的是,处理能力可使视觉信息106A(用户运动)和106B(周围环境)具有分开的并行处理路径,使得处理单元72不必在它们之间进行区分。
在框160处,可将视觉信息106B至少暂时地保存在例如存储器元件中,由处理单元72进行分析和解译,和/或提供给用户24以供视觉参考。在根据用户消息到V2X的转换子过程136和/或框160中的任一个将视觉信息106转换为传出V2X消息102之后,程序控制循环返回到框154以继续获取视觉信息106A、106B。可以继续执行数据获取子过程134,直到在查询框140(图6)处确定监测和命令过程120(图6)的执行将被中断为止。因此,数据获取子过程134的执行实现经由一个或多个相机获取视觉信息,并通过处理单元72对视觉信息进行评估,以标识用户24的运动(例如,交通控制手势)和/或提供部署用户24和无人机26的周围环境的图像。
图9示出监测和命令过程120(图6)的用户消息到V2X的转换子过程136的流程图。一般来说,用户装置22和第一车辆(例如,无人机26)可执行用户消息到V2X的转换子过程136,以接收来自用户24的用户消息并将所述用户消息转换为V2X消息,所述V2X消息随后可被传送到第二车辆(例如,自主车辆28)。为了方便起见,应结合以下描述同时参考图1-5和9。
如图9的流程图所示,虚线方框包围用户消息到V2X的转换子过程136的操作框164、166和168。在一些实施例中,与框164、166和168相关联的操作可在用户装置22处执行。这些操作涉及接收呈用户24所说的音频消息(例如,语音命令)形式的传入用户消息98,以及涉及将用户消息传输到无人机26。随后可以执行后续操作框170、172、174、176、178和180,以将这些传入用户消息98转换为传出V2X消息102s。
可替换的是,如果用户消息是经由无人机26上的相机76捕捉为视觉信息106的用户24手势,并且在无人机26处被传送到处理单元72,则可不执行操作框164、166、168。在这种情况下,仅可在无人机26处执行操作框170、172、174、176、178和180以将视觉信息106转换为传出V2X消息102。此外,且如将结合图11和12所论述的,一些实施例可不包括与无人机26协同工作的用户装置22。在此类实施例中,仅可在第一车辆(可以不是无人机26)处执行操作框170、172、174、176、178和180以将用户消息转换为传出V2X消息。
因此,在框164处,接收用户消息。同样,用户消息可以是由用户24所说的并且在用户装置22的麦克风54和/或64处接收或以其它方式捕捉的音频消息(例如,语音命令)。在框166处,用户装置22的处理元件50、60中的一个或两个可适当地处理音频消息。例如,处理元件50、60可适当地解译、数字化、汇编和加密音频消息以形成适合于经由第一无线通信链路66和第二无线通信链路68中的一个或多个传输的用户消息。在框168处,用户消息经由安全无线电链路(例如,第一和第二无线通信链路66、68中的至少一个)从用户装置22传输到第一车辆(例如,无人机26)。
在框170处,可在无人机26处接收用户消息。在实施例中,通过第一无线通信链路66和第二无线通信链路68中的至少一个接收作为传入用户消息98的用户消息。在另一实施例中,所接收的用户消息可以是经由无人机26上的相机76捕捉为视觉信息106的用户24手势,并且在无人机26处被传送到处理单元72。在又一实施例中,接收到的用户消息可以是传入用户消息98和捕捉为视觉信息106的用户24手势的组合。
在框172处,可执行认证处理以验证用户24的身份,并确保传入用户消息98的内容没有改变或原本就不正确。在一个例子中,无人机26可经由第一无线通信链路66和第二无线通信链路68中的一个将传入用户消息98传送回用户装置22,其中可将所述传入用户消息转换回音频消息以经由用户装置22的扬声器52、62中的至少一个回放给用户24。在另一例子中,无人机26可解译视觉信息以标识特定交通控制手势,并且可将特定交通控制手势传送回用户24,其中可将所述视觉信息转换为音频消息以回放给用户24。
查询框174可结合认证框172来执行。在查询框174处,确定用户消息(例如,传入用户消息98和/或视觉信息106)是否已被认证。当不能认证传入用户消息时,过程控制继续到框176。在框176处,可将认证错误传送给用户24,并且可阻止用户消息到V2X消息的转换和传输。此后,用户消息到V2X的转换子过程136可以结束。然而,当在查询框174处确定传入用户消息98和/或特定手势确实被认证时,过程控制继续到框178。在框178处,将传入用户消息98和/或特定手势转换为传出V2X消息102。在框180处,经由V2X通信链路29将传出V2X消息102传输到第二车辆,例如,自主车辆28。此后,用户消息到V2X的转换子过程136的单个迭代可以结束。当然,应理解,当用户24发出语音命令(音频消息)和/或提供手势命令时,可不断地重复执行用户消息到V2X的转换子过程136。
图10示出监测和命令过程120(图6)的V2X到用户消息的转换子过程138的流程图。可执行V2X到用户消息的转换子过程138,以将接收到的来自第二车辆(例如,自主车辆28)的传入V2X消息104转换为用于与用户24通信的传出用户消息100,从而实现完整的闭环配置。V2X到用户消息的转换子过程138可在第一车辆(例如,无人机26)处执行。为了方便起见,应结合以下描述同时参考图1-5和10。
在框182处,经由V2X通信链路29在无人机26的V2X通信模块84处从自主车辆28接收传入V2X消息104。在框184处,在无人机26的处理单元72处适当地处理传入V2X消息104。对传入V2X消息104的处理可能需要对传入V2X消息104的V2X字段进行解码。在框186处,可适当地汇编传入V2X消息104的已解码V2X字段以用于音频。在框188处,可执行音频处理以将信息转换为传出用户消息100。在框190处,传出用户消息100可作为音频消息输出给用户24。在一些实施例中,在框190处,可经由第一无线通信链路66和第二无线通信链路68中的至少一个将传出用户消息100传送到用户装置22,其中传出用户消息100可随后经由用户装置22的扬声器52、62中的至少一个输出给用户24。
因此,本文所描述的各种过程的执行能够实现无人驾驶车辆相对于用户的自主实时定位、用户的运动的视觉信息和/或周围环境的视觉信息的数据获取、用于与自主车辆通信的用户消息(例如,语音和/或手势)到V2X消息的转换,以及用于与用户通信的V2X消息到用户消息(例如,语音)的转换。应理解,图6-10中所描绘的过程框中的某些框可彼此并行地执行或与执行其它过程一起执行。另外,应理解,可修改图6-10中所描绘的过程框的特定次序,同时达成大体上相同的结果。因此,此类修改意图包括在本发明主题的范围内。
车辆到车辆
前面的论述涉及与放置在用户身上或用户附近的用户装置配对的第一车辆(例如,无人驾驶车辆或无人机)。此类配置对于例如授权当局可能在事故现场、交通信号中断、临时道路阻塞或因道路进行计划外维护、极端天气条件而改道等情况下指挥自主车辆可能是有用的。在替代实施例中,授权车辆(例如,警车)能够命令自主车辆靠边停车。
现在参考图11-12,图11示出根据另一实施例的用于车辆之间的通信的系统192的概念图,并且图12示出图11的系统的框图。系统192(标记为音频/V2X V2X/音频)可在第一车辆194中实施。系统192实现第一车辆194的占据者(例如,警察)与第二车辆196之间的通信,其中第二车辆196可以是任何半自主或完全自主车辆。同样,为了清楚起见,第二车辆196将通常在本文中被称作自主车辆196。
具体参考图12,在第一车辆194中实施的系统192包括第一通信模块198、处理单元200和第二通信模块202(标记为V2X通信模块)。第一通信模块198可包括一个或多个麦克风204,所述一个或多个麦克风被配置成从第一车辆194的占据者接收传入用户消息206(例如,音频消息)传入用户消息206可以是例如车辆的占据者发出的靠边停车的音频命令。
如上文结合用户消息到V2X的转换子过程136(图9)的操作框170、172、174、176和178所论述的,处理单元200被配置成将传入用户消息206转换为传出V2X消息208。第二通信模块202被配置成根据用户消息到V2X的转换子过程136的框180,经由无线通信链路210将传出V2X消息208从第一车辆194传输到自主车辆196,从而实施任何合适的V2X通信技术,例如基于WLAN的通信、DSRC、蜂窝V2X等。
在一些实施例中,第二通信模块202还可被配置成经由无线通信链路210从自主车辆196接收传入V2X消息212。如上文结合V2X到用户消息的转换子过程138(图100)所论述的,处理单元200被配置成将传入V2X消息212转换为传出用户消息214。此后,可从第一通信模块204的扬声器系统216输出传出用户消息214,作为第一车辆194的占据者可听到的音频消息。
因此,通过来自占据第一车辆的授权当局的语音命令,可在应急车辆(例如,第一车辆194)中实施的系统192实现与自主车辆(例如,第二车辆196)的实时交互。具体地说,语音命令可由系统192转换为等效的V2X命令。另外,通过接收来自自主车辆的V2X消息并将其转换为可从系统192的扬声器广播给授权当局的音频用户消息,系统192可实现自主车辆(例如,第二车辆196)与应急车辆(例如,第一车辆194)的占据者的交互。
以上论述主要集中在对自主车辆的监测和命令上,使得自主车辆可根据需要执行某些动作。然而,系统可适用于其它应用。例如,在某些非典型情况下,某些配置可能不包括将无人驾驶车辆(例如,无人机)作为授权用户与自主车辆之间的通信介质。例如,第一通信模块、处理单元和第二通信模块可在授权用户的应急车辆中实施,并且用户可具有与在授权用户的应急车辆中实施的基于车辆的元件通信的用户装置(类似于上文所描述的)。然后,系统可提供用户消息到V2X消息的转换(反之亦然),并且实现与自主车辆通信,以在例如事故现场、交通信号中断、临时道路阻塞或因道路进行计划外维护、极端天气条件而改道等情况时提供导航命令。再者,在无人机实施方案中,无人机可不连续运动,而是可以暂歇在适当高的位置(例如,在电线杆上)以查看周围环境并潜在地从电线杆取电。
再者,还可能出现其它情况,在其它情况下,有关当局可能需要与其它非车辆装置(有时称作“智能”装置)进行交互。
车辆到非车辆装置
先前的实施例需要其中(使用无人机作为通信介质)在用户或授权用户的配备有V2X能力的应急车辆)与自主车辆之间实现通信的配置。在其它实施例中,系统和方法可适于(使用无人机作为通信介质)实现用户或授权用户的配备有V2X能力的应急车辆与也配备有V2X能力的非车辆装置之间的通信。此类非车辆装置可包括但不限于任何路边单元、“智能”红绿灯、“智能”停车基础设施或可通过V2X通信实现与授权当局交互的任何其它非车辆结构。
图13示出根据实施例的用于车辆222与配备有V2X能力的装置224(支持V2X的装置)之间的通信的系统220的概念图。装置224可以是非车辆装置,例如上文所描述的那些装置。在所示出的实施例中,系统220包括穿戴在人类用户身上或放置在人类用户附近的电子装置,所述电子装置在本文中被称作用户装置226。用户装置226可等效于例如用户装置22(如上文所论述的图2-4)。用户装置226的元件可包括第一可穿戴结构30和第二可穿戴结构32,为了简洁起见,本文中不再重复对第一可穿戴结构和第二可穿戴结构的描述。
系统220另外包括实施在车辆222中的元件。车辆222可等效于例如无人机26(图2和5),且因此,所述车辆将在本文中被称作无人机222。无人机222的元件可包括第一通信模块74、处理单元72、一个或多个相机76A、76B、一个或多个相机控制单元78A、78B、驱动控制单元80、推进系统82、V2X通信模块84、电池监测器86和电池88A,为了简洁起见,这里不再重复对这些元件的描述。
在此例子中,可配备装置224以经由V2X通信与无人机222通信。因此,无人机222与装置224之间的通信可通过类似于上文所论述的无线通信链路29的V2X通信链路228进行。另外,用户装置226与无人机222之间的通信可通过类似于上文所论述的无线通信链路27的安全无线的无线电链路230进行。系统220可实施成例如通过使用上文详细论述的用户消息到V2X消息的转换能力和V2X消息到用户消息的转换能力来控制红绿灯、获取状态信息等。
尽管系统220包括无人机222和用户装置226(类似于图1的配置,但是车辆到非车辆装置配置的替代实施例可能需要实施在授权用户的配备有V2X能力的应急车辆(例如,图11的车辆194)中的系统(例如,图11的系统192),所述系统被配置成与非车辆装置224交互以经由V2X通信链路228交换V2X消息。本文所描述的实施例需要用于实现人类用户与至少具有半自主运动能力的车辆之间的通信的系统和方法。更具体地说,系统和方法通过将用户消息(例如,音频或手势)转换为等效的语音到万物(V2X)消息且反之亦然,来实现例如交通警察等授权当局与自主车辆的交互。在一些实施例中,可使用经过训练、认证的无人驾驶车辆(例如,无人机)作为通信介质来执行音频消息到等效V2X消息的这种转换。系统和方法可能需要根据用户消息对无人驾驶车辆进行实时自主定位和导航。无人驾驶车辆还可包括一个或多个相机,用于捕捉可转换为用户消息的用户的运动。再者,所述一个或多个相机可被配置成捕捉从所述一个或多个相机可见的周围环境,并向用户提供周围环境的视觉信息。在其它实施例中,授权当局的车辆中的系统可用作通信介质,以将音频消息转换为等效的V2X消息且反之亦然。在又其它实施例中,系统和方法可实现授权当局与配备有V2X能力的其它非车辆装置的交互。
本公开意图解释如何设计和使用根据本发明的各种实施例,而非限制本发明的真实、既定和公平的范围及精神。以上描述并不意图是详尽的或将本发明限于所公开的确切形式。鉴于以上教示,可以进行修改或变化。选择和描述实施例是为了提供对本发明的原理和本发明的实际应用的最佳说明,并且使本领域的普通技术人员能够在各种实施例中并用适合于所预期特定用途的各种修改来使用本发明。当根据公平地、合法地并且公正地赋予的权利的宽度来解释时,所有此类修改和变化及其所有等效物均处于如由所附权利要求书所确定的本发明的范围内,并且在本专利申请未决期间可进行修正。
Claims (10)
1.一种系统,其特征在于,包括:
第一通信模块,其被配置成接收用户消息;
处理单元,其被配置成将所述用户消息转换为车辆到万物(V2X)消息;以及
第二通信模块,其中所述第一通信模块、所述处理单元和所述第二通信模块在第一车辆中实施,并且所述第二通信模块被配置成经由无线通信链路从所述第一车辆传输所述V2X消息。
2.根据权利要求1所述的系统,其特征在于,所述无线通信链路是第一无线通信链路,并且所述系统另外包括被配置成靠近用户放置的电子装置,所述电子装置包括第三通信模块,其中所述第一通信模块和所述第三通信模块被配置成实现第一车辆与所述电子装置之间的第二无线通信链路,以将所述用户消息从所述用户传送到所述第一车辆。
3.根据权利要求2所述的系统,其特征在于,所述第一车辆是无人驾驶车辆,并且:
所述电子装置包括:
第一可穿戴结构,其被配置成放置在所述用户身上,所述第一可穿戴结构包括所述第三通信模块,其中所述第一通信模块和所述第三通信模块被配置成实现所述无人驾驶车辆与所述第一可穿戴结构之间的所述第二无线通信链路;以及
第二可穿戴结构,其被配置成放置在所述用户身上,所述第二可穿戴结构物理上远离所述第一可穿戴结构移位,所述第二可穿戴结构包括第四通信模块,其中所述第一通信模块和所述第四通信模块被配置成实现所述无人驾驶车辆与所述第二可穿戴结构之间的第三无线通信链路;
在所述无人驾驶车辆中实施的所述处理单元另外被配置成响应于所述第二无线通信链路和所述第三无线通信链路而确定所述无人驾驶车辆相对于所述用户的当前位置;并且
所述系统另外包括驱动控制单元,所述驱动控制单元与所述处理单元通信并且被配置成调整所述无人驾驶车辆的速度和位置以使所述无人驾驶车辆相对于所述用户从所述当前位置移动到预定位置。
4.根据权利要求3所述的系统,其特征在于,所述预定位置包括在所述用户消息中,所述用户消息是来自所述用户的音频消息,并且所述第一可穿戴结构和所述第二可穿戴结构中的至少一个包括麦克风,所述麦克风被配置成捕捉来自所述用户的所述音频消息,并且所述第三通信模块和所述第四通信模块中的至少一个被配置成经由所述第二通信链路和所述第三通信链路中的至少一个传送带有所述预定位置的所述音频消息。
5.根据权利要求1所述的系统,其特征在于,另外包括相机,所述相机在所述第一车辆中实施并且被配置成捕捉用户的运动并将所述用户的视觉信息提供到所述处理单元,其中所述处理单元另外被配置成根据所述视觉信息确定所述用户消息。
6.根据权利要求1所述的系统,其特征在于,所述第一车辆是无人驾驶车辆,并且所述系统另外包括相机,所述相机在所述无人驾驶车辆中实施并且被配置成捕捉从所述相机可见的周围环境并将所述周围环境的视觉信息提供给所述用户,并且所述用户消息是来自所述用户的响应于所述视觉信息的音频消息。
7.根据权利要求1所述的系统,其特征在于,所述用户消息是第一用户消息,所述V2X消息是第一V2X消息,并且:
所述第二通信模块另外被配置成经由所述第一无线通信链路接收第二V2X消息;
所述处理单元另外被配置成将所述第二V2X消息转换为第二用户消息以将所述第二用户消息从所述第一车辆传送到所述电子装置;并且
所述电子装置另外包括扬声器,所述扬声器被配置成将所述第二用户消息作为音频消息输出给所述用户。
8.根据权利要求1所述的系统,其特征在于,用户位于所述第一车辆中,并且所述第一通信系统包括麦克风,所述麦克风用于捕捉来自所述用户的作为音频消息的所述用户消息,其中所述处理单元被配置成将所述用户消息转换为所述V2X消息以经由所述无线通信链路进行传输。
9.根据权利要求8所述的系统,其特征在于,所述V2X消息被配置成用于传输到至少具有半自主运动能力的第二车辆,所述用户消息包括来自所述用户的被配置成影响所述第二车辆的导航的语音命令,并且所述V2X消息包括用于命令所述第二车辆的导航的所述语音命令。
10.一种方法,其特征在于,包括:
在第一车辆处接收用户消息;
在所述第一车辆处将所述用户消息转换为车辆到万物(V2X)消息;以及
经由无线通信链路从所述第一车辆传输所述V2X消息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN202011008104 | 2020-02-26 | ||
IN202011008104 | 2020-02-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113316115A true CN113316115A (zh) | 2021-08-27 |
Family
ID=77365819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110192419.1A Withdrawn CN113316115A (zh) | 2020-02-26 | 2021-02-20 | 与支持v2x的装置进行语音和/或手势通信的系统和方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210261247A1 (zh) |
CN (1) | CN113316115A (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11995999B2 (en) * | 2020-06-17 | 2024-05-28 | Alarm.Com Incorporated | Drone first responder assistance |
SE2050738A1 (en) * | 2020-06-22 | 2021-12-23 | Sony Group Corp | System and method for image content recording of a moving user |
US11184734B1 (en) * | 2020-08-19 | 2021-11-23 | T-Mobile Usa, Inc. | Using geofencing areas to improve road safety use cases in a V2X communication environment |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8214098B2 (en) * | 2008-02-28 | 2012-07-03 | The Boeing Company | System and method for controlling swarm of remote unmanned vehicles through human gestures |
CN109116985A (zh) * | 2011-05-10 | 2019-01-01 | 寇平公司 | 控制信息显示的方法 |
US9253753B2 (en) * | 2012-04-24 | 2016-02-02 | Zetta Research And Development Llc-Forc Series | Vehicle-to-vehicle safety transceiver using time slots |
US9503867B2 (en) * | 2014-08-13 | 2016-11-22 | Northrop Grumman Systems Corporation | Dual button push to talk device |
US9459620B1 (en) * | 2014-09-29 | 2016-10-04 | Amazon Technologies, Inc. | Human interaction with unmanned aerial vehicles |
CN111913494B (zh) * | 2014-10-31 | 2023-10-17 | 深圳市大疆创新科技有限公司 | 用于遛宠物的系统和方法 |
US9855890B2 (en) * | 2014-12-11 | 2018-01-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle interaction with external environment |
US10189434B1 (en) * | 2015-09-28 | 2019-01-29 | Apple Inc. | Augmented safety restraint |
US10019070B2 (en) * | 2015-11-03 | 2018-07-10 | GM Global Technology Operations LLC | Vehicle-wearable device interface and methods for using the same |
US9663227B1 (en) * | 2015-12-22 | 2017-05-30 | Gopro, Inc. | Systems and methods for controlling an unmanned aerial vehicle |
US10168700B2 (en) * | 2016-02-11 | 2019-01-01 | International Business Machines Corporation | Control of an aerial drone using recognized gestures |
US20180014102A1 (en) * | 2016-07-06 | 2018-01-11 | Bragi GmbH | Variable Positioning of Distributed Body Sensors with Single or Dual Wireless Earpiece System and Method |
KR20180010884A (ko) * | 2016-07-22 | 2018-01-31 | 삼성전자주식회사 | 무인 이동체를 제어하는 전자 장치, 그 제어 방법 및 저장 매체 |
US10909389B2 (en) * | 2016-09-20 | 2021-02-02 | Apple Inc. | Traffic direction gesture recognition |
CN110045745A (zh) * | 2016-10-19 | 2019-07-23 | 深圳市大疆创新科技有限公司 | 一种用于控制无人机的穿戴式设备及无人机系统 |
KR102003940B1 (ko) * | 2016-11-11 | 2019-10-01 | 엘지전자 주식회사 | 자율 주행 차량 및 그 제어방법 |
US10118548B1 (en) * | 2017-06-15 | 2018-11-06 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle signaling of third-party detection |
KR102367053B1 (ko) * | 2017-07-13 | 2022-02-24 | 삼성전자주식회사 | 외부 전자 장치와 통신을 수행하기 위한 전자 장치 |
KR102334318B1 (ko) * | 2017-09-19 | 2021-12-03 | 삼성전자주식회사 | 외부 이동 수단으로 릴레이 메시지를 전송하는 전자 장치 및 그 동작 방법 |
WO2019079790A1 (en) * | 2017-10-21 | 2019-04-25 | Eyecam, Inc | ADAPTIVE GRAPHIC USER INTERFACE SYSTEM |
US20190197890A1 (en) * | 2017-12-27 | 2019-06-27 | GM Global Technology Operations LLC | Methods, systems, and drones for assisting communication between a road vehicle and other road users |
US11120693B2 (en) * | 2018-04-17 | 2021-09-14 | Blackberry Limited | Providing inter-vehicle data communications for vehicular drafting operations |
US10856120B2 (en) * | 2018-06-19 | 2020-12-01 | Blackberry Limited | Providing inter-vehicle data communications for multimedia content |
US10816345B2 (en) * | 2018-06-22 | 2020-10-27 | Qualcomm Incorporated | Enhancing navigation experience using V2X supplemental information |
US10616734B1 (en) * | 2018-11-20 | 2020-04-07 | T-Mobile Usa, Inc. | Unmanned aerial vehicle assisted V2X |
US11347225B2 (en) * | 2019-02-05 | 2022-05-31 | Intel Corporation | Mechanism for conflict resolution and avoidance of collisions for highly automated and autonomous vehicles |
KR20210007472A (ko) * | 2019-07-11 | 2021-01-20 | 엘지전자 주식회사 | 차량 단말 및 그의 동작 방법 |
KR102260216B1 (ko) * | 2019-07-29 | 2021-06-03 | 엘지전자 주식회사 | 지능적 음성 인식 방법, 음성 인식 장치, 지능형 컴퓨팅 디바이스 및 서버 |
-
2020
- 2020-05-04 US US16/865,789 patent/US20210261247A1/en not_active Abandoned
-
2021
- 2021-02-20 CN CN202110192419.1A patent/CN113316115A/zh not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US20210261247A1 (en) | 2021-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113316115A (zh) | 与支持v2x的装置进行语音和/或手势通信的系统和方法 | |
US11756416B2 (en) | Vehicle to vehicle and infrastructure communication and pedestrian detection system | |
US20200012281A1 (en) | Vehicle of automatic driving system and the control method of the system | |
US20190344679A1 (en) | Drone to vehicle charge | |
US20200026294A1 (en) | Method for controlling vehicle in autonomous driving system and apparatus thereof | |
US20210382969A1 (en) | Biometrics authentication method and apparatus using in-vehicle multi camera | |
US20210146821A1 (en) | Vehicle headlight system | |
US10911159B2 (en) | Communication unit and communication system | |
US20230166619A1 (en) | Wireless charging method for urban air mobility and device and system therefor | |
CN116198363A (zh) | 城市空中交通及城市空中交通中的无线充电方法 | |
US20190296833A1 (en) | Terminal apparatus and apparatus system | |
US20230202324A1 (en) | Macroscopic alignment method for wireless charging of electric vehicle and apparatus and system therefor | |
US10797804B2 (en) | Communication unit and communication system | |
EP3873114A1 (en) | Systems and methodology for voice and/or gesture communication with device having v2x capability | |
US11177891B2 (en) | Communication device, communication system, and communication method | |
WO2020189130A1 (ja) | 方向性結合器、無線通信機器及び制御方法 | |
KR20210104198A (ko) | HOV Lane을 이용하기 위한 자율주행 차량 운용 | |
WO2019167578A1 (ja) | 通信装置、および通信システム | |
US20230202325A1 (en) | Microscopic alignment method for wireless charging of electric vehicle and apparatus and system therefor | |
WO2021106558A1 (ja) | レーダー装置、レーダー装置の製造方法及び送受信機 | |
WO2022190801A1 (ja) | 情報処理装置、情報処理システム、情報処理方法及び記録媒体 | |
WO2023024899A1 (zh) | 通信方法与装置 | |
US20200359412A1 (en) | Communication unit and communication system | |
EP3528404A1 (en) | Communications device and communications system | |
KR20240071496A (ko) | 자율 군집 주행 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210827 |
|
WW01 | Invention patent application withdrawn after publication |