CN115686205A - 交互方法、车机系统及包括其的车辆、存储介质 - Google Patents
交互方法、车机系统及包括其的车辆、存储介质 Download PDFInfo
- Publication number
- CN115686205A CN115686205A CN202211281641.XA CN202211281641A CN115686205A CN 115686205 A CN115686205 A CN 115686205A CN 202211281641 A CN202211281641 A CN 202211281641A CN 115686205 A CN115686205 A CN 115686205A
- Authority
- CN
- China
- Prior art keywords
- measurement data
- inertial measurement
- data
- augmented reality
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000003993 interaction Effects 0.000 title abstract description 35
- 238000005259 measurement Methods 0.000 claims abstract description 126
- 230000003190 augmentative effect Effects 0.000 claims abstract description 76
- 238000009877 rendering Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 description 25
- 238000012937 correction Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请涉及交互方法、车机系统及包括其的车辆、存储介质,所述方法包括:接收关于扩展现实内容的控制数据,其中所述控制数据包括在当前环境下的第一惯性测量数据;在所述当前环境下产生第二惯性测量数据;以及基于所述第一惯性测量数据和所述第二惯性测量数据生成用于与所述扩展现实内容交互的控制射线。
Description
技术领域
本申请涉及扩展现实显示的领域,具体而言,涉及交互方法、车机系统及包括其的车辆、存储介质。
背景技术
目前,诸如蓝牙指环控制器等是扩展现实领域中常用的外用控制设备,但是车载环境下的应用却很少。一是因为车载环境下对蓝牙指环控制器等的需求不大;二是由于行车状态存在不稳定性,乘员的操作容易受到行车状态的干扰,因而蓝牙指环控制器等产生的交互信息也会受到较大影响。
有鉴于此,需要提出一种改进的交互机制。
发明内容
本申请的实施例提供了一种交互方法、车机系统及包括其的车辆、存储介质,用于提高诸如指环控制器等控制设备在车载环境下的操作精度。
根据本申请的一方面,提供一种交互方法。所述方法包括:接收关于扩展现实内容的控制数据,其中所述控制数据包括在当前环境下的第一惯性测量数据;在所述当前环境下产生第二惯性测量数据;以及基于所述第一惯性测量数据和所述第二惯性测量数据生成用于与所述扩展现实内容交互的控制射线。
在本申请的一些实施例中,可选地,所述控制数据还包括与所述扩展现实内容交互的按键控制数据和/或触摸控制数据。
在本申请的一些实施例中,可选地,所述控制数据来自指环控制器。
在本申请的一些实施例中,可选地,基于所述第一惯性测量数据和所述第二惯性测量数据生成用于与所述扩展现实内容交互的控制射线包括:利用所述第二惯性测量数据对所述第一惯性测量数据进行修正,以生成关于所述控制射线的绘制数据。
在本申请的一些实施例中,可选地,所述方法还包括:将所述绘制数据发送至所述扩展现实内容的渲染设备供渲染所述控制射线。
在本申请的一些实施例中,可选地,利用所述第二惯性测量数据对所述第一惯性测量数据进行修正包括:根据所述第二惯性测量数据提取在所述当前环境下的整体运动情况;以及从所述第一惯性测量数据中去除由所述整体运动情况引起的运动数据,以生成关于所述控制射线的绘制数据。
在本申请的一些实施例中,可选地,将所述第一惯性测量数据和所述第二惯性测量数据输入到神经网络中以生成所述绘制数据。
在本申请的一些实施例中,可选地,所述扩展现实内容包括如下至少一种:增强现实内容、虚拟现实内容。
根据本申请的另一方面,提供一种车机系统。所述系统包括:接收单元,其配置成接收关于扩展现实内容的控制数据,其中所述控制数据包括在当前环境下的第一惯性测量数据;测量单元,其配置成在所述当前环境下产生第二惯性测量数据;以及生成单元,其配置成基于所述第一惯性测量数据和所述第二惯性测量数据生成用于与所述扩展现实内容交互的控制射线。
在本申请的一些实施例中,可选地,所述控制数据还包括与所述扩展现实内容交互的按键控制数据和/或触摸控制数据。
在本申请的一些实施例中,可选地,所述控制数据来自指环控制器。
在本申请的一些实施例中,可选地,所述接收单元基于蓝牙协议与所述指环控制器通信。
在本申请的一些实施例中,可选地,所述生成单元被配置成利用所述第二惯性测量数据对所述第一惯性测量数据进行修正,以生成关于所述控制射线的绘制数据。
在本申请的一些实施例中,可选地,所述生成单元还配置成将所述绘制数据发送至所述扩展现实内容的渲染设备供渲染所述控制射线。
在本申请的一些实施例中,可选地,所述生成单元被配置成:根据所述第二惯性测量数据提取在所述当前环境下的整体运动情况;以及从所述第一惯性测量数据中去除由所述整体运动情况引起的运动数据,以生成关于所述控制射线的绘制数据。
在本申请的一些实施例中,可选地,所述生成单元基于神经网络,并且所述生成单元将所述第一惯性测量数据和所述第二惯性测量数据输入到所述神经网络中以生成所述绘制数据。
在本申请的一些实施例中,可选地,所述扩展现实内容包括如下至少一种:增强现实内容、虚拟现实内容。
根据本申请的另一方面,提供一种车机系统。所述系统包括:存储器,其配置成存储指令;以及处理器,其配置成执行所述指令以便执行如上文所述的任意一种方法。
根据本申请的另一方面,提供一种车辆。所述车辆包括如上文所述的任意一种车机系统。
根据本申请的另一方面,提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,其特征在于,当所述指令由处理器执行时,使得所述处理器执行如上文所述的任意一种方法。
根据本申请的一些实施例提供的交互方法、车机系统及包括其的车辆、存储介质可以提高诸如指环控制器等控制设备在车载环境下的操作精度,从而可以正确反映乘员的控制意图、提高用户体验。
附图说明
从结合附图的以下详细说明中,将会使本申请的上述和其他目的及优点更加完整清楚,其中,相同或相似的要素采用相同的标号表示。
图1示出了根据本申请的一个实施例的交互场景;
图2示出了根据本申请的一个实施例的交互方法;
图3示出了根据本申请的一个实施例的车机系统;
图4示出了根据本申请的一个实施例的车机系统。
具体实施方式
出于简洁和说明性目的,本文主要参考其示范实施例来描述本申请的原理。但是,本领域技术人员将容易地认识到相同的原理可等效地应用于所有类型的交互方法、车机系统及包括其的车辆、存储介质,并且可以在其中实施这些相同或相似的原理,任何此类变化不背离本申请的真实精神和范围。
图1示出了根据本申请的一个实施例的交互场景,其中描绘了一个在车辆中使用各种扩展现实设备(例如,虚拟现实设备、增强现实设备)的场景。与在静止空间中使用扩展现实设备不同,在车辆环境中使用扩展现实设备时车辆也处于运动之中,扩展现实设备与车辆具有某一方向的相同速度。
此外,在车辆环境中使用扩展现实设备容易受到车辆各种非预期运动的影响。例如,车辆的非预期的运动可能会显著影响乘员操作者的控制指向等。在乘员操作者想要指向虚拟现实场景中的固定一点的时候,若车辆突然加速或遇到颠簸,乘员操作者的躯干可能会受到影响而导致不能指向原先需要指向的位置。
下文将结合图1描述在车辆100中使用各种扩展现实设备的原理。车辆100中可以包括多个座位101,并且乘员操作者200(本文中又称为对象200)的数量可以不唯一。对象200的数量最多可以与车辆100中配备的座位101的数量相等。对象200可以通过佩戴诸如指环控制器201以实现与扩展现实画面300交互,并且扩展现实画面300可以由对象200的头戴扩展现实设备(渲染设备)生成。对象200可以佩戴多个指环控制器201以用于实现复杂的操作。此外,扩展现实画面300可以为车辆100内的多个对象200所共享。此时,车辆100中的各个对象200都可以佩戴指环控制器201,并且这些指环控制器201都能够与扩展现实画面300进行交互。
当对象通过指环控制器201与扩展现实画面300交互时,扩展现实画面300可以显示表示对象200的当前指向的控制射线301和302。如图所示,控制射线302的根部(顶点)将连接到对象200的指环控制器201或其图形化表达。例如,扩展现实画面300可以显示虚拟的手、枪、激光笔等作为对象200的指环控制器201的图形化表达。
在传统方案中,指环控制器201是与对象200的头戴扩展现实设备直接通信的。在本申请中,诸如指环控制器201将可以不与头戴扩展现实设备直接通信,而是通过车辆100的车机系统处理控制数据并将处理结果反映在扩展现实画面300上。
本申请的一方面提供了一种交互方法。如图2所示,交互方法20包括如下步骤:在步骤S22中接收关于扩展现实内容的控制数据,其中控制数据包括在当前环境下的第一惯性测量数据;在步骤S24中在当前环境下产生第二惯性测量数据;以及在步骤S26中基于第一惯性测量数据和第二惯性测量数据生成用于与扩展现实内容交互的控制射线。交互方法20可以由车辆100中的车机系统执行,车机系统通过执行以上步骤可以实现将对象200的原本操作意图精确地反映在扩展现实画面300中,从而提高交互的感受。
交互方法20在步骤S22中接收关于扩展现实内容的控制数据,其中控制数据包括在当前环境下的惯性测量数据(本文中称为第一惯性测量数据以示与下文中描述的第二惯性测量数据的区别)。这里的控制数据是对象200通过诸如指环控制器201等设备产生的,该控制数据反映了对象200想要与扩展现实画面300进行的交互内容。
如图1中所描述的,诸如控制射线301和302的位置是根据指环控制器201的运动数据产生的。例如,可以根据指环控制器201相对于原始位置的位移而确定所对应的控制射线的位置。为确定控制射线301和302的实时位置,可以将指环控制器201产生的惯性测量数据实时发送到车辆100的车机系统中进行处理。
应当理解,当在动荡的车辆100中想要与扩展现实画面300进行交互时,在步骤S22中接收的控制数据(具体而言为第一惯性测量数据)将在一定程度上反映对象200的躯干移动和车辆100的运动的叠加属性。但是,车辆100的运动并不是对象200在操作指环控制器201所期望的。换言之,车辆100的运动对对象200操作环控制器201产生了“干扰”,因而需要将这种干扰因素排除。
在本申请的一些实施例中,在步骤S22中接收的控制数据还可以包括与扩展现实内容交互的按键控制数据、触摸控制数据。指环控制器201除了可以用于指引方向外,还可以具有按键和触摸控制部件。例如,按键可以用于执行点选等操作,而触摸控制也能实现类似的作用。因此,控制数据还可以包括按键控制数据、触摸控制数据,用以实现与扩展现实内容的精细交互。
交互方法20在步骤S24中在当前环境下产生惯性测量数据,在本文中又称为第二惯性测量数据。这里将车机系统在步骤S24中产生的惯性测量数据称为第二惯性测量数据仅意在说明二者产生的主体存在差异,亦即惯性测量数据的来源不同。但是,第一惯性测量数据与第二惯性测量数据可以具有相同的数据格式等。由于车机系统是相对于车辆100固定地设置的,因而第二惯性测量数据实际上是车机系统测量的关于车辆100运动情况的表征。
交互方法20在步骤S26中基于第一惯性测量数据和第二惯性测量数据生成用于与扩展现实内容交互的控制射线。根据上文的描述可知,在步骤S22中接收的第一惯性测量数据反映对象200的躯干移动和车辆100的运动的叠加属性,而在步骤S24中产生的第二惯性测量数据是车机系统测量的关于车辆100运动情况的表征。因此,可以从第一惯性测量数据扣除第二惯性测量数据的影响,得到的结果就是对象200预期的与扩展现实画面300的交互动作。这一交互动作可以表现为图1中的控制射线301和302。
例如,在一些示例中,可以从第一惯性测量数据中减去某一个方向(车辆100的运动方向)的位移量即可得到控制射线301或302的位移量,其中该方向的位移量可以通过第二惯性测量数据导出。具体而言,第二惯性测量数据在某个方向具有较大的位移量,那么该位移量就可能是由于车辆100的运动造成的;而第二惯性测量数据在其他方向上的较小的位移量则可能是由于车辆100的颠簸等造成的。因此,第一惯性测量数据在其他方向上的位移量可以利用防抖算法加以过滤。例如,可以对第一惯性测量数据在其他方向上的位移量作平滑处理。平滑处理的方法可以按照现有方案开展,本文在此不作赘述。
在本申请的一些实施例中,在步骤S26中可以利用第二惯性测量数据对第一惯性测量数据进行修正,以生成关于控制射线的绘制数据。在一些示例中,这种修正在数学上可以表现为在空间三个维度上的运动向量的运算。在其他一些示例中,也可以通过不能明确表达为数学算式的方式执行修正。例如,可以根据前期实验建立在不同的第二惯性测量数据场景下的修正方案。当确认进入到某一第二惯性测量数据场景时则可以通过诸如查表方法确定针对第一惯性测量数据的修正方案。此外,这种“修正”也将过滤由于车辆颠簸引起的干扰。
在本申请的一些实施例中,在步骤S26中利用第二惯性测量数据对第一惯性测量数据进行修正包括:根据第二惯性测量数据提取在当前环境下的整体运动情况;以及从第一惯性测量数据中去除由整体运动情况引起的运动数据,以生成关于控制射线的绘制数据。例如,第一惯性测量数据某一时刻在空间X轴具有0.2的位移,而第二惯性测量数据此时在空间X轴具有0.1的位移(车辆100和对象200的整体运动情况),那么可以推算出指环控制器201具有0.2-0.1=0.1的位移。在另一些示例中,考虑到对象200在速度急剧变化的场景下也会执行某种程度的自修正,推算出指环控制器201可以为0.2-0.1*0.8=0.12的位移,其中0.8为修正系数。以上示例仅出于示意的目的,实际情况要复杂得多,例如系数可能不固定为0.8,而是可以随加速度调整。
在本申请的一些实施例中,在步骤S26中还可以将第一惯性测量数据和第二惯性测量数据输入到神经网络中以生成绘制数据。利用神经网络技术对惯性测量数据进行处理将具有自适应自学习的特点。同时也能自动掌握环境特征,具有较好的容错性,抗干扰能力也较强。由于神经网络并不要建立具象的数学关系,因而开发的流程也会大幅缩短。
在本申请的一些实施例中,交互方法20还包括如下步骤(图2中未示出):将绘制数据发送至扩展现实内容的渲染设备供渲染控制射线。由车机系统产生的绘制数据是控制射线301和302的数学表达,可以发送到头戴渲染设备实现成像,便于对象200根据控制射线301和302实现与扩展现实画面300的交互。
如上文所述,扩展现实设备可以是虚拟现实设备、增强现实设备等,因而本申请中的扩展现实内容可以是增强现实内容、虚拟现实内容,还可以是二者的某种组合形式。扩展现实内容还可以是以后开发的其他增强现实方案产生的视觉内容。
本申请的另一方面提供了一种车机系统。如图3所述,车机系统30包括接收单元31、测量单元32和生成单元33。车机系统30可以实现将对象200的原本操作意图精确地反映在扩展现实画面300中,从而提高交互的感受。除了下文的详细描述外,车机系统30的其他特征可以参考前文的交互方法20而开展。
车机系统30的接收单元31被配置成接收关于扩展现实内容的控制数据,其中控制数据包括在当前环境下的第一惯性测量数据。这里的控制数据是对象200通过诸如指环控制器201等设备产生的,该控制数据反映了对象200想要与扩展现实画面300进行的交互内容。
在本申请的一些实施例中,接收单元31所接收的控制数据还可以包括与扩展现实内容交互的按键控制数据、触摸控制数据。指环控制器201除了可以用于指引方向外,还可以具有按键和触摸控制部件。例如,按键可以用于执行点选等操作,而触摸控制也能实现类似的作用。因此,控制数据还可以包括按键控制数据、触摸控制数据,用以实现与扩展现实内容的精细交互。
在本申请的一些实施例中,接收单元31基于蓝牙协议与指环控制器201通信。在其他示例中还可以使用其他无线通信协议实现车机系统30与指环控制器201的通信。
车机系统30的测量单元32被配置成在当前环境下产生第二惯性测量数据。这里将车机系统30通过测量单元32产生的惯性测量数据称为第二惯性测量数据仅意在说明二者产生的主体存在差异,亦即惯性测量数据的来源不同。但是,第一惯性测量数据与第二惯性测量数据可以具有相同的数据格式等。由于车机系统30是相对于车辆100固定地设置的,因而第二惯性测量数据实际上是车机系统30测量的关于车辆100运动情况的表征。
车机系统30的生成单元33被配置成基于第一惯性测量数据和第二惯性测量数据生成用于与扩展现实内容交互的控制射线。根据上文的描述可知,由接收单元31接收的第一惯性测量数据反映对象200的躯干移动和车辆100的运动的叠加属性,而通过测量单元32产生的第二惯性测量数据是车机系统30测量的关于车辆100运动情况的表征。因此,可以从第一惯性测量数据扣除第二惯性测量数据的影响,得到的结果就是对象200预期的与扩展现实画面300的交互动作。这一交互动作可以表现为图1中的控制射线301和302。
例如,在一些示例中,可以从第一惯性测量数据中减去某一个方向(车辆100的运动方向)的位移量即可得到控制射线301或302的位移量,其中该方向的位移量可以通过第二惯性测量数据导出。具体而言,第二惯性测量数据在某个方向具有较大的位移量,那么该位移量就可能是由于车辆100的运动造成的;而第二惯性测量数据在其他方向上的较小的位移量则可能是由于车辆100的颠簸等造成的。因此,第一惯性测量数据在其他方向上的位移量可以利用防抖算法加以过滤。例如,可以对第一惯性测量数据在其他方向上的位移量作平滑处理。平滑处理的方法可以按照现有方案开展,本文在此不作赘述。
在本申请的一些实施例中,生成单元33被配置成利用第二惯性测量数据对第一惯性测量数据进行修正,以生成关于控制射线的绘制数据。在一些示例中,这种修正在数学上可以表现为在空间三个维度上的运动向量的运算。在其他一些示例中,也可以通过不能明确表达为数学算式的方式执行修正。例如,可以根据前期实验建立在不同的第二惯性测量数据场景下的修正方案。当确认进入到某一第二惯性测量数据场景时则可以通过诸如查表方法确定针对第一惯性测量数据的修正方案。此外,这种“修正”也将过滤由于车辆颠簸引起的干扰。
在本申请的一些实施例中,生成单元33被配置成:根据第二惯性测量数据提取在当前环境下的整体运动情况;以及从第一惯性测量数据中去除由整体运动情况引起的运动数据,以生成关于控制射线的绘制数据。例如,第一惯性测量数据某一时刻在空间X轴具有0.2的位移,而第二惯性测量数据此时在空间X轴具有0.1的位移(车辆100和对象200的整体运动情况),那么可以推算出指环控制器201具有0.2-0.1=0.1的位移。在另一些示例中,考虑到对象200在速度急剧变化的场景下也会执行某种程度的自修正,推算出指环控制器201可以为0.2-0.1*0.8=0.12的位移,其中0.8为修正系数。以上示例仅出于示意的目的,实际情况要复杂得多,例如系数可能不固定为0.8,而是可以随加速度调整。
在本申请的一些实施例中,生成单元33基于神经网络,并且生成单元33将第一惯性测量数据和第二惯性测量数据输入到神经网络中以生成绘制数据。利用神经网络技术对惯性测量数据进行处理将具有自适应自学习的特点。同时也能自动掌握环境特征,具有较好的容错性,抗干扰能力也较强。由于神经网络并不要建立具象的数学关系,因而开发的流程也会大幅缩短。
在本申请的一些实施例中,生成单元33还配置成将绘制数据发送至扩展现实内容的渲染设备供渲染控制射线。由车机系统30产生的绘制数据是控制射线301和302的数学表达,可以发送到头戴渲染设备实现成像,便于对象200根据控制射线301和302实现与扩展现实画面300的交互。
如上文所述,扩展现实内容可以是增强现实内容、虚拟现实内容,还可以是二者的某种组合形式。扩展现实内容还可以是以后开发的其他增强现实方案产生的视觉内容。
本申请的另一方面提供了一种车机系统40。如图4所示,车机系统40包括存储器41和处理器42。其中,处理器42可以从存储器41中读取数据并且可以向其中写入数据。存储器41被配置成存储指令,而处理器42被配置成在执行存储器41中存储的指令时将使得执行如上文所述的任意一种交互方法。存储器41可以具有如下文所述的计算机可读存储介质的特征,详细内容将在下文加以描述。
本申请的另一方面提供了一种车辆。车辆包括如上文所述的任意一种车机系统。
根据本申请的另一方面,提供一种计算机可读存储介质,其中存储有指令,当所述指令由处理器执行时,使得所述处理器执行如上文所述的任意一种交互方法。本申请中所称的计算机可读介质包括各种类型的计算机存储介质,可以是通用或专用计算机能够存取的任何可用介质。举例而言,计算机可读介质可以包括RAM、ROM、EPROM、E2PROM、寄存器、硬盘、可移动盘、CD-ROM或其他光盘存储器、磁盘存储器或其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码单元并能够由通用或专用计算机、或者通用或专用处理器进行存取的任何其他临时性或者非临时性介质。如本文所使用的盘通常磁性地复制数据,而碟则用激光来光学地复制数据。上述的组合也应当包括在计算机可读介质的保护范围之内。示例性存储介质耦合到处理器以使得该处理器能从/向该存储介质读写信息。在替换方案中,存储介质可以被整合到处理器。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替换方案中,处理器和存储介质可作为分立组件驻留在用户终端中。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此。本领域的技术人员可以根据本申请所披露的技术范围想到其他可行的变化或替换,此等变化或替换皆涵盖于本申请的保护范围之中。在不冲突的情况下,本申请的实施方式及实施方式中的特征还可以相互组合。本申请的保护范围以权利要求的记载为准。
Claims (10)
1.一种交互方法,其特征在于,所述方法包括:
接收关于扩展现实内容的控制数据,其中所述控制数据包括在当前环境下的第一惯性测量数据;
在所述当前环境下产生第二惯性测量数据;以及
基于所述第一惯性测量数据和所述第二惯性测量数据生成用于与所述扩展现实内容交互的控制射线。
2.根据权利要求1所述的方法,其中,所述控制数据还包括与所述扩展现实内容交互的按键控制数据和/或触摸控制数据。
3.根据权利要求1所述的方法,其中,所述控制数据来自指环控制器。
4.根据权利要求1所述的方法,其中,基于所述第一惯性测量数据和所述第二惯性测量数据生成用于与所述扩展现实内容交互的控制射线包括:
利用所述第二惯性测量数据对所述第一惯性测量数据进行修正,以生成关于所述控制射线的绘制数据。
5.根据权利要求4所述的方法,还包括:将所述绘制数据发送至所述扩展现实内容的渲染设备供渲染所述控制射线。
6.根据权利要求4所述的方法,其中,利用所述第二惯性测量数据对所述第一惯性测量数据进行修正包括:
根据所述第二惯性测量数据提取在所述当前环境下的整体运动情况;以及
从所述第一惯性测量数据中去除由所述整体运动情况引起的运动数据,以生成关于所述控制射线的绘制数据。
7.根据权利要求4所述的方法,其中,将所述第一惯性测量数据和所述第二惯性测量数据输入到神经网络中以生成所述绘制数据。
8.根据权利要求1所述的方法,其中,所述扩展现实内容包括如下至少一种:增强现实内容、虚拟现实内容。
9.一种车机系统,其特征在于,所述系统包括:
接收单元,其配置成接收关于扩展现实内容的控制数据,其中所述控制数据包括在当前环境下的第一惯性测量数据;
测量单元,其配置成在所述当前环境下产生第二惯性测量数据;以及
生成单元,其配置成基于所述第一惯性测量数据和所述第二惯性测量数据生成用于与所述扩展现实内容交互的控制射线。
10.根据权利要求9所述的系统,其中,所述控制数据还包括与所述扩展现实内容交互的按键控制数据和/或触摸控制数据。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211281641.XA CN115686205A (zh) | 2022-10-19 | 2022-10-19 | 交互方法、车机系统及包括其的车辆、存储介质 |
PCT/CN2023/123723 WO2024082996A1 (zh) | 2022-10-19 | 2023-10-10 | 交互方法、车机系统及包括其的车辆、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211281641.XA CN115686205A (zh) | 2022-10-19 | 2022-10-19 | 交互方法、车机系统及包括其的车辆、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115686205A true CN115686205A (zh) | 2023-02-03 |
Family
ID=85065835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211281641.XA Pending CN115686205A (zh) | 2022-10-19 | 2022-10-19 | 交互方法、车机系统及包括其的车辆、存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115686205A (zh) |
WO (1) | WO2024082996A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024082996A1 (zh) * | 2022-10-19 | 2024-04-25 | 蔚来汽车科技(安徽)有限公司 | 交互方法、车机系统及包括其的车辆、存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017208881A1 (de) * | 2017-05-05 | 2018-11-08 | Audi Ag | Mobile Sensorvorrichtung für ein in einem Fahrzeug einsetzbares am Kopf tragbares visuelles Ausgabegerät und Verfahren zum Betreiben eines Anzeigesystems |
DE102017217027A1 (de) * | 2017-09-26 | 2019-03-28 | Audi Ag | Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts |
US11557096B2 (en) * | 2019-12-09 | 2023-01-17 | At&T Intellectual Property I, L.P. | Cognitive stimulation in vehicles |
CN114003126A (zh) * | 2021-09-26 | 2022-02-01 | 歌尔光学科技有限公司 | 虚拟现实设备的交互控制方法、装置及设备 |
CN115080484B (zh) * | 2022-06-24 | 2024-08-13 | 蔚来汽车科技(安徽)有限公司 | 车机系统及其数据处理方法、存储介质 |
CN115686205A (zh) * | 2022-10-19 | 2023-02-03 | 蔚来汽车科技(安徽)有限公司 | 交互方法、车机系统及包括其的车辆、存储介质 |
-
2022
- 2022-10-19 CN CN202211281641.XA patent/CN115686205A/zh active Pending
-
2023
- 2023-10-10 WO PCT/CN2023/123723 patent/WO2024082996A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024082996A1 (zh) * | 2022-10-19 | 2024-04-25 | 蔚来汽车科技(安徽)有限公司 | 交互方法、车机系统及包括其的车辆、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2024082996A1 (zh) | 2024-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114502335B (zh) | 用于具有几何约束的非线性机器人系统的轨迹优化的方法和系统 | |
CN103930854B (zh) | 借助指示器的姿态的测量控制光标的方法及实施所述方法的指示器 | |
CN110057352A (zh) | 一种相机姿态角确定方法及装置 | |
US20220276652A1 (en) | Autonomous maneuver generation to mate connectors | |
CN115686205A (zh) | 交互方法、车机系统及包括其的车辆、存储介质 | |
JP2023085357A (ja) | 仮想オブジェクト表示装置及び仮想オブジェクト表示方法 | |
US11898850B2 (en) | Vehicle position detection device and parameter set creation device for vehicle position detection | |
CN109621415A (zh) | 3d游戏中的显示控制方法及装置、计算机存储介质 | |
CN107247459A (zh) | 抗干扰飞行控制方法及装置 | |
CN107194891A (zh) | 改善图像质量的方法及虚拟实境装置 | |
CN105912101B (zh) | 一种投影控制方法和电子设备 | |
CN113296605A (zh) | 力反馈方法、力反馈装置及电子设备 | |
US10890981B2 (en) | Gesture-based vehicle control | |
US10464211B2 (en) | Generating control signal for tele-presence robot | |
CN113442854B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
US20240135665A1 (en) | Information processing apparatus and information processing method | |
Fründ et al. | Using augmented reality technology to support the automobile development | |
CN112530022A (zh) | 在虚拟环境中计算机实现模拟lidar传感器的方法 | |
CN112987924A (zh) | 用于设备交互的方法、装置、设备和存储介质 | |
CN110152295B (zh) | 虚拟对象的控制方法及装置、存储介质及电子设备 | |
CN114489412B (zh) | 用于对运动传感器进行偏置矫正的方法、装置和交互方法 | |
US20230368403A1 (en) | Systems and methods for facilitating display misalignment correction | |
CN115607967A (zh) | 显示位置调整方法、装置、存储介质与电子设备 | |
CN112771480B (zh) | 交互方法及电子设备 | |
CN115531875A (zh) | 虚拟场景缩放方法、装置、存储介质与电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |