CN114710726A - 智能穿戴设备的中心定位方法、设备及存储介质 - Google Patents

智能穿戴设备的中心定位方法、设备及存储介质 Download PDF

Info

Publication number
CN114710726A
CN114710726A CN202210333771.7A CN202210333771A CN114710726A CN 114710726 A CN114710726 A CN 114710726A CN 202210333771 A CN202210333771 A CN 202210333771A CN 114710726 A CN114710726 A CN 114710726A
Authority
CN
China
Prior art keywords
center
wearable device
earphone
equipment
intelligent wearable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210333771.7A
Other languages
English (en)
Other versions
CN114710726B (zh
Inventor
尚家乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Inc
Original Assignee
Goertek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Inc filed Critical Goertek Inc
Priority to CN202210333771.7A priority Critical patent/CN114710726B/zh
Publication of CN114710726A publication Critical patent/CN114710726A/zh
Application granted granted Critical
Publication of CN114710726B publication Critical patent/CN114710726B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1091Details not provided for in groups H04R1/1008 - H04R1/1083
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Headphones And Earphones (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种智能穿戴设备的中心定位方法、设备及存储介质,属于穿戴设备的技术领域,智能穿戴设备包括左侧子设备和右侧子设备,方法为:判断左侧子设备和右侧子设备是否均处于预设穿戴贴合状态;若是,则获取左侧子设备和右侧子设备在校准动作中的位置数据;基于位置数据,确定智能穿戴设备的感官中心。从而在确定智能穿戴设备佩戴良好后,基于左侧子设备和右侧子设备自带的双IMU(位置获取模块)确定在校准动作中的位置数据,从而定位听觉中心。从而提供了一种低成本高精度的智能穿戴设备的感官中心定位方法,对用户来说操作友好,过程简单。

Description

智能穿戴设备的中心定位方法、设备及存储介质
技术领域
本发明涉及穿戴设备的技术领域,尤其涉及一种智能穿戴设备的中心定位方法、设备及计算机可读存储介质。
背景技术
TWS(True Wireless Stereo,真正无线立体声)耳机目前已经成为较为通用和普遍的音频穿戴设备,而空间音频技术和VR(Virtual Reality,虚拟现实)技术也逐渐成为主流的技术领域。但当用户佩戴TWS耳机和穿戴VR设备时,常常因为佩戴习惯和用户间的形体差异导致听觉中心和视觉中心的感官中心无法被准确地定位,这就会影响TWS耳机的空间音频和VR设备的VR显示的效果。
发明内容
本发明的主要目的在于提供一种智能穿戴设备的中心定位方法,旨在解决现有技术中的无法准确定位感官中心的技术问题。
为实现上述目的,本发明提供一种智能穿戴设备的中心定位方法,所述智能穿戴设备包括左侧子设备和右侧子设备,所述智能穿戴设备的中心定位方法包括:
判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态;
若是,则获取所述左侧子设备和所述右侧子设备在校准动作中的位置数据;
基于所述位置数据,确定所述智能穿戴设备的感官中心。
可选地,所述智能穿戴设备为耳机和/或视频输出设备,所述感官中心为所述耳机的听觉中心和/或所述视频输出设备的视觉中心,所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤,包括:
当所述智能穿戴设备为耳机时,基于所述耳机的所述位置数据,确定所述耳机的所述听觉中心;
当所述智能穿戴设备为视频输出设备时,基于所述视频输出设备的所述位置数据,确定所述视频输出设备的所述视觉中心。
可选地,所述智能穿戴设备的中心定位方法,还包括:
当所述智能穿戴设备为耳机和视频输出设备时,建立所述耳机和所述视频输出设备之间的数据传输通道;
获取所述听觉中心和所述视觉中心的预设位置关系;
在确定所述听觉中心后,基于所述听觉中心和所述预设位置关系确定所述视觉中心,通过所述数据传输通道传递所述视觉中心至所述视频输出设备;
或者,在确定所述视觉中心后,基于所述视觉中心和所述预设位置关系确定所述听觉中心,通过所述数据传输通道传递所述听觉中心至所述耳机。
可选地,当所述智能穿戴设备为耳机时,所述左侧子设备和所述右侧子设备分别为左右耳机,所述判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态的步骤,包括:
获取左右耳机内部的底噪音频;
获取所述左右耳机播放测试音频后的实际音频,并获取所述实际音频过滤掉所述底噪音频后的目标音频;
对比所述测试音频和所述目标音频得到所述左右耳机的贴合度指标;
若所述左右耳机的所述贴合度指标均大于预设阈值,则确定所述左右耳机均处于所述预设穿戴贴合状态。
可选地,在所述获取左右耳机内部的底噪音频的步骤之前,还包括:
获取所述左右耳机的佩戴动作;
若所述佩戴动作为已佩戴,则执行所述获取左右耳机内部的底噪音频的步骤;
若所述佩戴动作为未佩戴,则执行所述获取所述左右耳机的佩戴动作的步骤。
可选地,在所述对比所述测试音频和所述目标音频得到所述左右耳机的贴合度指标的步骤之后,还包括:
若所述贴合度指标未大于所述预设阈值,则输出调整耳机位置的提示,并执行所述获取所述左右耳机的佩戴动作的步骤。
可选地,在所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤之前,包括:
获取未进行校准动作前所述智能穿戴设备的初始位置;
获取在校准动作中达到目标动作时所述智能穿戴设备的临时位置。
可选地,所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤,包括:
获取所述左侧子设备和所述右侧子设备之间的半径距离;
基于所述初始位置、所述临时位置和所述半径距离确定所述感官中心。
此外,为实现上述目的,本发明还提供一种智能穿戴设备的中心定位设备,所述智能穿戴设备的中心定位设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上述的智能穿戴设备的中心定位方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的智能穿戴设备的中心定位方法的步骤。
本发明实施例提出的一种智能穿戴设备的中心定位方法、设备及计算机可读存储介质,所述智能穿戴设备包括左侧子设备和右侧子设备,方法为:判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态;若是,则获取所述左侧子设备和所述右侧子设备在校准动作中的位置数据;基于所述位置数据,确定所述智能穿戴设备的感官中心。
在确定智能穿戴设备佩戴良好后,基于左侧子设备和右侧子设备自带的双IMU(位置获取模块)确定在校准动作中的位置数据,从而定位听觉中心。从而提供了一种低成本高精度的智能穿戴设备的感官中心定位方法,对用户来说操作友好,过程简单。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的运行设备的结构示意图;
图2为本发明一种智能穿戴设备的中心定位方法一实施例的流程示意图;
图3为本发明一种智能穿戴设备的中心定位方法一实施例的运动轨迹示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
当用户佩戴TWS耳机时,常常因为佩戴习惯和用户间的形体差异导致听觉中心无法被准确地定位,这就会影响TWS耳机的空间音频的效果。在用户穿戴VR头显设备时,也会常常因为个体间的差异导致VR头显设备被佩戴后,无法准确地定位视觉中心,导致用户无法以较好的视觉配置(瞳距等)观看VR场景,这就会影响TWS耳机的空间音频的效果。
而本发明实施例提出的一种智能穿戴设备的中心定位方法、设备及计算机可读存储介质,所述智能穿戴设备包括左侧子设备和右侧子设备,方法为:判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态;若是,则获取所述左侧子设备和所述右侧子设备在校准动作中的位置数据;基于所述位置数据,确定所述智能穿戴设备的感官中心。
在左右耳机贴合度指标均大于预设阈值,确定耳机佩戴良好后,基于左右耳机自带的双IMU确定在校准动作中的位置,从而定位听觉中心。结合在杜比全景声的基础上进行的算法优化,可以让只具有两个贴近用户耳道的麦克风和IMU的“简陋”耳机,在定位听觉中心后也能实现空间音频功能。
如果VR头显设备中没有IMU,也没有任何其他的位置获取模块,则可以通过视觉中心与听觉中心之间的预设位置关系,定位视觉中心。如果VR头显设备中存在一个或多个IMU的位置获取模块,则可以利用这一个或多个IMU,定位到视觉中心,定位方法与基于耳机中的一个或多个IMU定位听觉中心的方式类似。
从而提供了一种低成本高精度的智能穿戴设备的中心定位方法,对用户来说操作友好,过程简单。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的运行设备的结构示意图。
如图1所示,该运行设备可以包括:处理器1001,例如中央处理器(CentralProcessing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WIreless-FIdelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对运行设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及计算机程序。
在图1所示的运行设备中,网络接口1004主要用于与其他设备进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明运行设备中的处理器1001、存储器1005可以设置在运行设备中,所述运行设备通过处理器1001调用存储器1005中存储的计算机程序,并执行以下操作:
判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态;
若是,则获取所述左侧子设备和所述右侧子设备在校准动作中的位置数据;
基于所述位置数据,确定所述智能穿戴设备的感官中心。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述智能穿戴设备为耳机和/或视频输出设备,所述感官中心为所述耳机的听觉中心和/或所述视频输出设备的视觉中心,所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤,包括:
当所述智能穿戴设备为耳机时,基于所述耳机的所述位置数据,确定所述耳机的所述听觉中心;
当所述智能穿戴设备为视频输出设备时,基于所述视频输出设备的所述位置数据,确定所述视频输出设备的所述视觉中心。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述智能穿戴设备的中心定位方法,还包括:
当所述智能穿戴设备为耳机和视频输出设备时,建立所述耳机和所述视频输出设备之间的数据传输通道;
获取所述听觉中心和所述视觉中心的预设位置关系;
在确定所述听觉中心后,基于所述听觉中心和所述预设位置关系确定所述视觉中心,通过所述数据传输通道传递所述视觉中心至所述视频输出设备;
或者,在确定所述视觉中心后,基于所述视觉中心和所述预设位置关系确定所述听觉中心,通过所述数据传输通道传递所述听觉中心至所述耳机。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
当所述智能穿戴设备为耳机时,所述左侧子设备和所述右侧子设备分别为左右耳机,所述判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态的步骤,包括:
获取左右耳机内部的底噪音频;
获取所述左右耳机播放测试音频后的实际音频,并获取所述实际音频过滤掉所述底噪音频后的目标音频;
对比所述测试音频和所述目标音频得到所述左右耳机的贴合度指标;
若所述左右耳机的所述贴合度指标均大于预设阈值,则确定所述左右耳机均处于所述预设穿戴贴合状态。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
在所述获取左右耳机内部的底噪音频的步骤之前,还包括:
获取所述左右耳机的佩戴动作;
若所述佩戴动作为已佩戴,则执行所述获取左右耳机内部的底噪音频的步骤;
若所述佩戴动作为未佩戴,则执行所述获取所述左右耳机的佩戴动作的步骤。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
在所述对比所述测试音频和所述目标音频得到所述左右耳机的贴合度指标的步骤之后,还包括:
若所述贴合度指标未大于所述预设阈值,则输出调整耳机位置的提示,并执行所述获取所述左右耳机的佩戴动作的步骤。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
在所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤之前,包括:
获取未进行校准动作前所述智能穿戴设备的初始位置;
获取在校准动作中达到目标动作时所述智能穿戴设备的临时位置。
进一步地,处理器1001可以调用存储器1005中存储的计算机程序,还执行以下操作:
所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤,包括:
获取所述左侧子设备和所述右侧子设备之间的半径距离;
基于所述初始位置、所述临时位置和所述半径距离确定所述感官中心。
本发明实施例提供了一种智能穿戴设备的中心定位方法,参照图2,图2为本发明一种智能穿戴设备的中心定位方法第一实施例的流程示意图。
本实施例中,所述智能穿戴设备包括左侧子设备和右侧子设备,所述智能穿戴设备的中心定位方法包括:
步骤S10:判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态。
在本实施例中,智能穿戴设备可以是耳机或者视频输出设备,在智能穿戴设备的左侧子设备和右侧子设备上安装获取位置数据的传感器,即可经过处理得到感官中心,例如安装在左右耳机或者VR头显设备的左右两侧预设位置。在不同智能穿戴设备上安装有获取位置数据的传感器便可计算得到感官中心,只是基于位置数据在不同智能穿戴设备的不同算法中进行计算。以下以耳机为例进行说明,视频输出设备的视觉中心的确认与耳机的听觉中心的确认方法类似。
在降噪耳机中,将耳机单元中用来拾取噪音的麦克风依据所安装的位置不同,分为单前馈(简称FF)麦克风和单后馈(简称FB)麦克风。FF麦克风放置在离用户耳朵较远的外侧的地方,而FB麦克风放置在离使用者耳朵较近的内侧的地方。所以,降噪耳机可以是单后馈耳机、单前馈耳机或者前馈后馈混合降噪耳机。
在本实施中,基于放置在离使用者耳朵较近的内侧的麦克风捕获用户耳内环境的音频信号,得到耳机贴合度指标。该捕获用户耳内环境的音频信号的麦克风可以是FB麦克风,但TWS耳机是否具有降噪功能不影响的中心定位的准确性。而本实施例中的耳机也可以不是TWS耳机,也可以是有线耳机,只要在离使用者耳朵较近的内侧放置有麦克风来捕获用户耳内环境的音频信号,得到耳机贴合度指标即可。在以下的描述中,以具有FB麦克风的TWS耳机进行举例说明。
在本实施例中,左右耳机均在离使用者耳朵较近的内侧放置有麦克风来捕获用户耳内环境的音频信号,再判断各自的贴合度指标是否均大于预设阈值。
步骤S20:若是,则获取所述左侧子设备和所述右侧子设备在校准动作中的位置数据。
如果耳机贴合度指标大于预设阈值,则说明耳机贴合度良好,佩戴牢固,从而使得听觉中心的定位更加精准。在此基础上,使用户执行校准动作,从而基于在校准动作中左右耳机的位置定位听觉中心。在本实施例中,校准动作为用户的水平面摇头动作,耳机的位置由耳机自带的IMU(Inertial Measurement Unit,惯性测量单元)测得,其中IMU用于测量物体三轴姿态角(或角速率)以及加速度。
步骤S30:基于所述位置数据,确定所述智能穿戴设备的感官中心。
在定位了听觉中心后,使左右耳机基于听觉中心输出音频,从而实现耳机的空间音频功能。空间音频利用陀螺仪增加摆头时的声向,扩大了声场,给普通立体声增加了空间感。在空间音频中,构造了一个虚拟声场,提供了比立体声宽广得多、也丰富得多的细节。最明显的一个感知便是在输出音频时,如果用户水平转动头部,则两耳接收到的音频至少会有音量和播放时间的差异,让用户得到身临其境的听觉体验。
在本实施例中,判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态;若是,则获取所述左侧子设备和所述右侧子设备在校准动作中的位置数据;基于所述位置数据,确定所述智能穿戴设备的感官中心。
在确定智能穿戴设备佩戴良好后,基于左侧子设备和右侧子设备自带的双IMU(位置获取模块)确定在校准动作中的位置数据,从而定位听觉中心。从而提供了一种低成本高精度的智能穿戴设备的感官中心定位方法,对用户来说操作友好,过程简单。另外,如果智能穿戴设备是只具有两个贴近用户耳道的麦克风和IMU的“简陋”耳机,则结合在杜比全景声的基础上进行的算法优化,在定位听觉中心后也能实现空间音频功能。
可选地,所述智能穿戴设备为耳机和/或视频输出设备,所述感官中心为所述耳机的听觉中心和/或所述视频输出设备的视觉中心,所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤,包括:
当所述智能穿戴设备为耳机时,基于所述耳机的所述位置数据,确定所述耳机的所述听觉中心;
当所述智能穿戴设备为视频输出设备时,基于所述视频输出设备的所述位置数据,确定所述视频输出设备的所述视觉中心。
在本实施例中,视频输出设备为VR头显设备。在用户佩戴上述耳机时,还有可能佩戴VR头显设备。而在用户佩戴VR头显设备时,也会常常因为个体间的差异导致VR头显设备被佩戴后,用户无法以较好的视觉配置(瞳距等)观看VR场景。因此,除了需要定位听觉中心外,为了给用户带来良好的VR体验,还需要定位视觉中心,进一步优化虚拟模型的显示效果。在本实施例中,同样是在佩戴了视频输出设备后,再定位视觉中心,使视频输出设备基于视觉中心输出视频。
可选地,所述智能穿戴设备的中心定位方法,还包括:
当所述智能穿戴设备为耳机和视频输出设备时,建立所述耳机和所述视频输出设备之间的数据传输通道;
获取所述听觉中心和所述视觉中心的预设位置关系;
在确定所述听觉中心后,基于所述听觉中心和所述预设位置关系确定所述视觉中心,通过所述数据传输通道传递所述视觉中心至所述视频输出设备;
或者,在确定所述视觉中心后,基于所述视觉中心和所述预设位置关系确定所述听觉中心,通过所述数据传输通道传递所述听觉中心至所述耳机。
在VR头显设备中,也可以内置一个或多个IMU的位置获取模块。但是,如果VR头显设备中没有IMU,也没有任何其他的位置获取模块,则可以通过视觉中心与听觉中心之间的预设位置关系,定位视觉中心。如图3所示,预先获取得到视觉中心与听觉中心的预设位置关系,在本实施例中认为预设位置关系不存在个体差异。因此,可以让不具有位置获取模块的VR头显设备,也能获取得到视觉中心、优化VR显示。
如果VR头显设备中存在一个或多个IMU的位置获取模块,此时,就可以利用这一个或多个IMU,定位到视觉中心,定位方法与基于耳机中的一个或多个IMU定位听觉中心的方式类似,在此不做赘述。也就是说,如果在不佩戴耳机的情况下,可以基于VR头显设备自带的位置获取模块定位视觉中心,从而提供一种独立的视频输出设备的视觉智能穿戴设备的中心定位方法。而且,既可以基于听觉中心和预设位置关系确定视觉中心,通过数据传输通道传递视觉中心至视频输出设备,也可以是在确定视觉中心后,基于视觉中心和预设位置关系确定听觉中心,通过数据传输通道传递听觉中心至耳机。即、只要获取到预设位置关系,便可以根据其中一个中心确定得到另外一个中心。
可选地,当所述智能穿戴设备为耳机时,所述左侧子设备和所述右侧子设备分别为左右耳机,所述判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态的步骤,包括:
获取左右耳机内部的底噪音频;
获取所述左右耳机播放测试音频后的实际音频,并获取所述实际音频过滤掉所述底噪音频后的目标音频;
对比所述测试音频和所述目标音频得到所述左右耳机的贴合度指标;
若所述左右耳机的所述贴合度指标均大于预设阈值,则确定所述左右耳机均处于所述预设穿戴贴合状态。
在本实施例中,提供了一种简单且低成本的耳机的贴合度检测方法。首先通过FB麦克风捕获用户耳内环境的噪音水平、即底噪音频,再利用TWS耳机自身的扬声器和麦克风进行边播边录,使麦克风拾取到由扬声器播放测试音频后耳内的实际音频。利用录回的实际音频过滤掉底噪音频后,与参考数据、即测试音频进行对比,即可得出精准的贴合度指标。此贴合度检测方法只需要用到放置在离使用者耳朵较近的内侧的麦克风捕获用户耳内环境的音频信号即可,无需其他传感器,逻辑简单,容易实现。并且其中的测试音频为低频低音量的音频,是扬声器能播放的或者麦克风能接受到的频率最低音量最小的音频,从而可以减小对用户的影响,避免在进行贴合度检测时让用户感到不适。
可选地,在所述获取左右耳机内部的底噪音频的步骤之前,还包括:
获取所述左右耳机的佩戴动作;
若所述佩戴动作为已佩戴,则执行所述获取左右耳机内部的底噪音频的步骤;
若所述佩戴动作为未佩戴,则执行所述获取所述左右耳机的佩戴动作的步骤。
在本实施例中,提供了一种同样简单且低成本的耳机的佩戴检测方法。利用IMU采集到的角度和/或加速度的变化,检测用户的佩戴动作。在判断耳机是否被佩戴之前,预先建立角度和/或加速度的变化与不同佩戴动作之间的对应关系,如:将角度不断变大,以及加速度的变化速率由低到高再变低的变化趋势,确定为佩戴;将角度不断变小,以及加速度的变化速率由低到高再变低的变化趋势,确定为取下。另外,还可以基于TWS耳机的耳机盒来帮助判断耳机的佩戴动作。例如,当耳机盒确定耳机被取出,且角度不断变大,以及加速度的变化速率由低到高再变低的变化趋势,确定为佩戴。不断检测耳机是否被佩戴,在耳机已被佩戴的状态下,对耳机进行贴合度检测。
可选地,在所述对比所述测试音频和所述目标音频得到所述左右耳机的贴合度指标的步骤之后,还包括:
若所述贴合度指标未大于所述预设阈值,则输出调整耳机位置的提示,并执行所述获取所述左右耳机的佩戴动作的步骤。
在对耳机进行贴合度检测时,如果耳机贴合度指标未大于预设阈值,则说明耳机贴合度较差,佩戴不够牢固。此时,需要对用户进行提醒,输出调整耳机位置的提示,可以是通过耳机的语音提示或者通过与耳机连接的具有显示功能的设备的文字或视频提示。在此,对进行调整耳机位置的提示的方式和内容不做限定。在输出提示后,再检测左右耳机的佩戴动作,判断用户是否调整了耳机位置、调整后是否贴合良好。
可选地,在所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤之前,包括:
获取未进行校准动作前所述智能穿戴设备的初始位置;
获取在校准动作中达到目标动作时所述智能穿戴设备的临时位置。
在确定耳机贴合良好,佩戴牢固后,可以输出待执行的校准动作的提示,使用户执行校准动作。在本实施例中,校准动作为进行水平面的摇头。由于IMU可以对三轴上的旋转角度和加速度进行感知,因此可以在各自的坐标系上感知耳机的相对运动。参照图3,图3为本发明一种智能穿戴设备的中心定位方法在本实施例中的运动轨迹示意图。在图中的两条弧线即为用户耳朵旋转的轨迹,配合下述公式即可定位听觉中心:
Figure BDA0003575944480000121
,其中,(0,0)为执行校准动作前右耳IMU的初始位置,(a,b)为执行校准动作后右耳IMU的临时位置。(2x,2y)为执行校准动作前左耳IMU的初始位置,(c+2x,d+2y)为执行校准动作后左耳IMU的临时位置,(x,y)为听觉中心的位置。其中左右耳IMU可以采集得到左右耳IMU在校准动作前后的位置,所以a、b、c、d为已知量,x、y为未知量。
可选地,所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤,包括:
获取所述左侧子设备和所述右侧子设备之间的半径距离;
基于所述初始位置、所述临时位置和所述半径距离确定所述感官中心。
计算过程如下:以右耳IMU行校准动作前的位置为坐标原点,由于听觉中心距离左右耳位置的距离必定相同,以左右耳位置的中点作为优选的听觉中心,以此假设听觉中心的位置为(x,y),从而得出右耳IMU的位置为(2x,2y)。假设校准动作对左耳的位置影响为a、b,则执行校准动作后右耳IMU的位置就是(a,b),假设校准动作对左耳的位置影响为c、d,则执行校准动作后左耳IMU的位置就是(c+2x,d+2y)。又由于校准动作为水平面的摇头,所以,左右耳的运动轨迹为以同一个视觉中心为圆心的两段弧线。所以,上述公式即为坐标系中的两个距离公式。
当然,只单独使用其中一个IMU,也可以定位听觉中心。比如,基于右耳IMU采集在校准动作中的三个不同位置,运用三点确定圆心的方法即可基于这三个位置坐标即可定位听觉中心。因此,在本实施例中,对IMU数量不做限定,三个或更多个IMU也可以定位听觉中心。越多的IMU,计算精度越高,计算方式越多。
在实际佩戴过程中,用户的TWS双耳耳机往往在佩戴深度和佩戴高度上有着一些差异,同时用户间的形体差异使得佩戴位置上的差异更加明显,当用户使用空间音频功能时,这些位置上的差异常使得空间音频算法不能准确定位用户听觉上的绝对中心位置。因此,在本实施例中,将左右耳在不同高度上的水平面位置变化投影到同一个水平面上,建立图3中的二维坐标系。或者考虑到用户在水平面摇头的校准动作时,很难做到标准的水平面摇头动作,此时无法忽视高度的影响,便可建立三维坐标系,在三维坐标系中求取出听觉中心。对于高度的影响,同样可以基于左右耳IMU获取高度变化,当在校准动作中,高度变化在预设范围内,则认为可以忽略,直接建立二维坐标系即可。当高度变化超过了预设范围,则认为高度的影响无法忽略,便建立三维坐标系,得到更加精准的听觉中心。
此外,本发明实施例还提供一种智能穿戴设备的中心定位设备,所述智能穿戴设备的中心定位设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上述的智能穿戴设备的中心定位方法的步骤。
此外,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的智能穿戴设备的中心定位方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种智能穿戴设备的中心定位方法,其特征在于,所述智能穿戴设备包括左侧子设备和右侧子设备,所述智能穿戴设备的中心定位方法包括以下步骤:
判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态;
若是,则获取所述左侧子设备和所述右侧子设备在校准动作中的位置数据;
基于所述位置数据,确定所述智能穿戴设备的感官中心。
2.如权利要求1所述的智能穿戴设备的中心定位方法,其特征在于,所述智能穿戴设备为耳机和/或视频输出设备,所述感官中心为所述耳机的听觉中心和/或所述视频输出设备的视觉中心,所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤,包括:
当所述智能穿戴设备为耳机时,基于所述耳机的所述位置数据,确定所述耳机的所述听觉中心;
当所述智能穿戴设备为视频输出设备时,基于所述视频输出设备的所述位置数据,确定所述视频输出设备的所述视觉中心。
3.如权利要求2所述的智能穿戴设备的中心定位方法,其特征在于,所述智能穿戴设备的中心定位方法,还包括:
当所述智能穿戴设备为耳机和视频输出设备时,建立所述耳机和所述视频输出设备之间的数据传输通道;
获取所述听觉中心和所述视觉中心的预设位置关系;
在确定所述听觉中心后,基于所述听觉中心和所述预设位置关系确定所述视觉中心,通过所述数据传输通道传递所述视觉中心至所述视频输出设备;
或者,在确定所述视觉中心后,基于所述视觉中心和所述预设位置关系确定所述听觉中心,通过所述数据传输通道传递所述听觉中心至所述耳机。
4.如权利要求1所述的智能穿戴设备的中心定位方法,其特征在于,当所述智能穿戴设备为耳机时,所述左侧子设备和所述右侧子设备分别为左右耳机,所述判断所述左侧子设备和所述右侧子设备是否均处于预设穿戴贴合状态的步骤,包括:
获取左右耳机内部的底噪音频;
获取所述左右耳机播放测试音频后的实际音频,并获取所述实际音频过滤掉所述底噪音频后的目标音频;
对比所述测试音频和所述目标音频得到所述左右耳机的贴合度指标;
若所述左右耳机的所述贴合度指标均大于预设阈值,则确定所述左右耳机均处于所述预设穿戴贴合状态。
5.如权利要求4所述的智能穿戴设备的中心定位方法,其特征在于,在所述获取左右耳机内部的底噪音频的步骤之前,还包括:
获取所述左右耳机的佩戴动作;
若所述佩戴动作为已佩戴,则执行所述获取左右耳机内部的底噪音频的步骤;
若所述佩戴动作为未佩戴,则执行所述获取所述左右耳机的佩戴动作的步骤。
6.如权利要求5所述的智能穿戴设备的中心定位方法,其特征在于,在所述对比所述测试音频和所述目标音频得到所述左右耳机的贴合度指标的步骤之后,还包括:
若所述贴合度指标未大于所述预设阈值,则输出调整耳机位置的提示,并执行所述获取所述左右耳机的佩戴动作的步骤。
7.如权利要求1所述的智能穿戴设备的中心定位方法,其特征在于,在所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤之前,包括:
获取未进行校准动作前所述智能穿戴设备的初始位置;
获取在校准动作中达到目标动作时所述智能穿戴设备的临时位置。
8.如权利要求7所述的智能穿戴设备的中心定位方法,其特征在于,所述基于所述位置数据,确定所述智能穿戴设备的感官中心的步骤,包括:
获取所述左侧子设备和所述右侧子设备之间的半径距离;
基于所述初始位置、所述临时位置和所述半径距离确定所述感官中心。
9.一种智能穿戴设备的中心定位设备,其特征在于,所述智能穿戴设备的中心定位设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序配置为实现如权利要求1至8中任一项所述的智能穿戴设备的中心定位方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的智能穿戴设备的中心定位方法的步骤。
CN202210333771.7A 2022-03-31 2022-03-31 智能穿戴设备的中心定位方法、设备及存储介质 Active CN114710726B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210333771.7A CN114710726B (zh) 2022-03-31 2022-03-31 智能穿戴设备的中心定位方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210333771.7A CN114710726B (zh) 2022-03-31 2022-03-31 智能穿戴设备的中心定位方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN114710726A true CN114710726A (zh) 2022-07-05
CN114710726B CN114710726B (zh) 2024-04-30

Family

ID=82170202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210333771.7A Active CN114710726B (zh) 2022-03-31 2022-03-31 智能穿戴设备的中心定位方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114710726B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060269070A1 (en) * 2005-04-18 2006-11-30 Masayoshi Miura Playback apparatus and playback method
CN106648055A (zh) * 2016-09-30 2017-05-10 珠海市魅族科技有限公司 一种在虚拟现实环境中管理菜单的方法及虚拟现实设备
CN111316207A (zh) * 2017-11-23 2020-06-19 深圳市柔宇科技有限公司 头戴式显示设备及其触摸装置的自动校准方法
CN111683316A (zh) * 2020-05-25 2020-09-18 安克创新科技股份有限公司 一种耳机的佩戴校准方法、装置、系统及存储介质
CN111741400A (zh) * 2020-08-25 2020-10-02 歌尔光学科技有限公司 耳机位置的调整方法、装置、设备及存储介质
CN113038329A (zh) * 2021-03-22 2021-06-25 深圳市科奈信科技有限公司 一种耳机收音控制方法、装置及存储介质
CN113810806A (zh) * 2020-06-12 2021-12-17 北京小米移动软件有限公司 耳机控制方法及装置、耳机、存储介质
CN114040300A (zh) * 2021-11-29 2022-02-11 歌尔科技有限公司 耳机主动降噪方法、装置、耳机及计算机可读存储介质
CN114071308A (zh) * 2021-11-29 2022-02-18 歌尔科技有限公司 耳机自适应调音方法、装置、耳机及可读存储介质
CN114143646A (zh) * 2020-09-03 2022-03-04 Oppo广东移动通信有限公司 检测方法、装置、耳机和可读存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060269070A1 (en) * 2005-04-18 2006-11-30 Masayoshi Miura Playback apparatus and playback method
CN106648055A (zh) * 2016-09-30 2017-05-10 珠海市魅族科技有限公司 一种在虚拟现实环境中管理菜单的方法及虚拟现实设备
CN111316207A (zh) * 2017-11-23 2020-06-19 深圳市柔宇科技有限公司 头戴式显示设备及其触摸装置的自动校准方法
CN111683316A (zh) * 2020-05-25 2020-09-18 安克创新科技股份有限公司 一种耳机的佩戴校准方法、装置、系统及存储介质
CN113810806A (zh) * 2020-06-12 2021-12-17 北京小米移动软件有限公司 耳机控制方法及装置、耳机、存储介质
CN111741400A (zh) * 2020-08-25 2020-10-02 歌尔光学科技有限公司 耳机位置的调整方法、装置、设备及存储介质
CN114143646A (zh) * 2020-09-03 2022-03-04 Oppo广东移动通信有限公司 检测方法、装置、耳机和可读存储介质
CN113038329A (zh) * 2021-03-22 2021-06-25 深圳市科奈信科技有限公司 一种耳机收音控制方法、装置及存储介质
CN114040300A (zh) * 2021-11-29 2022-02-11 歌尔科技有限公司 耳机主动降噪方法、装置、耳机及计算机可读存储介质
CN114071308A (zh) * 2021-11-29 2022-02-18 歌尔科技有限公司 耳机自适应调音方法、装置、耳机及可读存储介质

Also Published As

Publication number Publication date
CN114710726B (zh) 2024-04-30

Similar Documents

Publication Publication Date Title
US11082793B2 (en) Wearable electronic device that corrects errors where a user hears binaural sound
JP6747538B2 (ja) 情報処理装置
US11647352B2 (en) Head to headset rotation transform estimation for head pose tracking in spatial audio applications
US12108237B2 (en) Head tracking correlated motion detection for spatial audio applications
US11589183B2 (en) Inertially stable virtual auditory space for spatial audio applications
US11751002B2 (en) Displaying a location of binaural sound outside a field of view
US20220103965A1 (en) Adaptive Audio Centering for Head Tracking in Spatial Audio Applications
US20180220253A1 (en) Differential headtracking apparatus
US11586280B2 (en) Head motion prediction for spatial audio applications
US11675423B2 (en) User posture change detection for head pose tracking in spatial audio applications
US11582573B2 (en) Disabling/re-enabling head tracking for distracted user of spatial audio application
US11711665B2 (en) Switching binaural sound from head movements
US12069469B2 (en) Head dimension estimation for spatial audio applications
CN106302974B (zh) 一种信息处理的方法及电子设备
EP4124065A1 (en) Acoustic reproduction method, program, and acoustic reproduction system
CN114710726B (zh) 智能穿戴设备的中心定位方法、设备及存储介质
CN112752190A (zh) 音频调整方法以及音频调整装置
CN112558302B (zh) 一种用于确定眼镜姿态的智能眼镜及其信号处理方法
KR20240049565A (ko) 사용자 전기 신호에 기초한 오디오 조정
TW202118311A (zh) 音頻調整方法以及音頻調整裝置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant