CN112071311A - 控制方法、控制装置、穿戴设备和存储介质 - Google Patents

控制方法、控制装置、穿戴设备和存储介质 Download PDF

Info

Publication number
CN112071311A
CN112071311A CN201910496570.7A CN201910496570A CN112071311A CN 112071311 A CN112071311 A CN 112071311A CN 201910496570 A CN201910496570 A CN 201910496570A CN 112071311 A CN112071311 A CN 112071311A
Authority
CN
China
Prior art keywords
information
wearable device
vibration
wearer
time difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910496570.7A
Other languages
English (en)
Inventor
杨鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201910496570.7A priority Critical patent/CN112071311A/zh
Priority to JP2021571636A priority patent/JP7413411B2/ja
Priority to PCT/CN2020/090980 priority patent/WO2020248778A1/zh
Priority to EP20822293.5A priority patent/EP3968320A4/en
Priority to KR1020217039094A priority patent/KR20220002605A/ko
Publication of CN112071311A publication Critical patent/CN112071311A/zh
Priority to US17/528,889 priority patent/US20220076684A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • H04R5/0335Earpiece support, e.g. headbands or neckrests
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/10Multimodal systems, i.e. based on the integration of multiple recognition engines or fusion of expert systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/04Structural association of microphone with electric circuitry therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Abstract

本申请公开了一种穿戴设备的控制方法。穿戴设备包括声电元件和振动传感器,控制方法包括:获取声电元件采集的声音信息和振动传感器采集的振动信息;根据声音信息和振动信息确定声音命令的发出者的身份信息,声音命令由声音信息确定;根据身份信息控制穿戴设备执行声音命令或忽略声音命令。如此,根据声音信息和振动信息确定声音命令的发出者的身份信息,从而控制穿戴设备执行或忽略声音命令,可以避免穿戴设备的误触发,使得对穿戴设备的控制更加准确。本申请还公开了一种控制装置、穿戴设备和存储介质。

Description

控制方法、控制装置、穿戴设备和存储介质
技术领域
本申请涉及电子技术领域,特别涉及一种控制方法、控制装置、穿戴设备和存储介质。
背景技术
相关技术可通过语音与穿戴设备进行交互。然而,在语音环境复杂的情况下,这样交互容易造成穿戴设备误触发。另外,由于相关技术一般通过声纹技术识别语音操控者,操控者需要提前录入声纹,且使用时周围不能有其他录入过声纹的人,否则容易引起误触发甚至无法识别。这样,操作繁琐,不利于提高用户体验。
发明内容
本申请提供了一种控制方法、控制装置、穿戴设备和存储介质。
本申请实施方式提供了一种穿戴设备的控制方法。所述穿戴设备包括声电元件和振动传感器,所述控制方法包括:
获取所述声电元件采集的声音信息和所述振动传感器采集的振动信息;
根据所述声音信息和所述振动信息确定声音命令的发出者的身份信息,所述声音命令由所述声音信息确定;
根据所述身份信息控制所述穿戴设备执行所述声音命令或忽略所述声音命令。
本申请实施方式提供了一种穿戴设备的控制装置。所述穿戴设备包括声电元件和振动传感器,所述控制装置包括获取模块、确定模块和控制模块,所述获取模块用于获取所述声电元件采集的声音信息和所述振动传感器采集的振动信息;所述确定模块用于根据所述声音信息和所述振动信息确定声音命令的发出者的身份信息,所述声音命令由所述声音信息确定;所述控制模块用于根据所述身份信息控制所述穿戴设备执行所述声音命令或忽略所述声音命令。
本申请实施方式的穿戴设备包括外壳、处理器、声电元件和振动传感器,所述声电元件设置在所述外壳,所述处理器连接所述声电元件和所述振动传感器,所述处理器用于获取所述声电元件采集的声音信息和所述振动传感器采集的振动信息;及用于根据所述声音信息和所述振动信息确定声音命令的发出者的身份信息,所述声音命令由所述声音信息确定;以及用于根据所述身份信息控制所述穿戴设备执行所述声音命令或忽略所述声音命令。
本申请实施方式的穿戴设备包括存储器和处理器,所述存储器存储有一个或多个程序,所述程序被所述处理器执行时实现上述的穿戴设备的控制方法。
一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行以上所述的穿戴设备的控制方法。
本申请实施方式的控制方法、穿戴设备和存储介质中,根据声音信息和振动信息确定声音命令的发出者的身份信息,从而控制穿戴设备执行或忽略声音命令,可以避免穿戴设备的误触发,使得对穿戴设备的控制更加准确。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本申请实施方式的穿戴设备的立体示意图;
图2是本申请另一实施方式的穿戴设备的平面示意图;
图3是本申请实施方式的穿戴设备部分结构的平面示意图;
图4是本申请实施方式的穿戴设备的调节过程的示意图;
图5是本申请实施方式的穿戴设备的调节过程的另一示意图;
图6是本申请另一实施方式的穿戴设备部分结构的平面示意图;
图7是本申请又一实施方式的穿戴设备部分结构的平面示意图;
图8是本申请实施方式的穿戴设备的控制方法的流程示意图;
图9是本申请实施方式的穿戴设备的控制方法的场景示意图;
图10是本申请实施方式的穿戴设备的控制装置的模块示意图;
图11是本申请再一实施方式的穿戴设备的控制方法的流程示意图;
图12是本申请另一实施方式的穿戴设备的控制方法的流程示意图;
图13是本申请又一实施方式的穿戴设备的控制方法的流程示意图;
图14是本申请实施方式的穿戴设备的控制方法的振动信息和声音信息的示意图;
图15是本申请再一实施方式的穿戴设备的控制方法的流程示意图;
图16是本申请另一实施方式的穿戴设备的控制方法的流程示意图;
图17是本申请又一实施方式的穿戴设备的控制方法的流程示意图;
图18是本申请再一实施方式的穿戴设备的控制方法的流程示意图;
图19是本申请实施方式的穿戴设备的控制方法的另一场景示意图;
图20是本申请实施方式的穿戴设备的另一模块示意图;
元件符号说明:
外壳20、外壳前壁21、第一预设位置211、第二预设位置212、第三预设位置213、收容槽22、外壳顶壁24、外壳底壁26、缺口262、外壳侧壁28、支撑部件30、第一支架32、第一弯折部322、第二支架34、第二弯折部342、弹性带36、显示器40、屈光部件50、屈光腔52、透光液体54、第一膜层56、第二膜层58、侧壁59、调节机构60、腔体62、滑槽622、滑动件64、驱动部件66、旋钮662、丝杠664、齿轮666、齿条668、驱动电机669、电机轴6691、输入器6692、调节腔68;
穿戴设备100、控制装置10、获取模块12、确定模块14、控制模块16、处理器101、存储器102、内存储器103、显示器104、输入装置105、声源200。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
请参阅图1和图2,本申请实施方式的穿戴设备100包括外壳20、支撑部件30、显示器40、屈光部件50和调节机构60。
外壳20为穿戴设备100的外部零部件,起到了保护和固定穿戴设备100的内部零部件的作用。通过外壳20将内部零部件包围起来,可以避免外界因素对这些内部零部件造成直接的损坏。
具体地,在本实施方式中,外壳20可用于收容和固定显示器40、屈光部件50和调节机构60中的至少一个。在图2的示例中,外壳20形成有收容槽22,显示器40和屈光部件50收容在收容槽22中。调节机构60部分地从外壳20露出。
外壳20还包括外壳前壁21、外壳顶壁24、外壳底壁26和外壳侧壁28。外壳底壁26的中部朝向外壳顶壁24形成缺口262。或者说,外壳20大致呈“B”字型。在用户佩戴穿戴设备100时,穿戴设备100可通过缺口262架设在用户的鼻梁上,这样既可以保证穿戴设备100的稳定性,又可以保证用户佩戴的舒适性。调节机构60可部分地从外壳侧壁28露出,以便用户对屈光部件50进行调节。
另外,外壳20可以通过计算机数控(Computerized Numerical Control,CNC)机床加工铝合金形成,也可以采用聚碳酸酯(Polycarbonate,PC)或者PC和丙烯腈-丁二烯-苯乙烯塑料(Acrylonitrile Butadiene Styrene plastic,ABS)注塑成型。在此不对外壳20的具体制造方式和具体材料进行限定。
支撑部件30用于支撑穿戴设备100。在用户佩戴穿戴设备100时,穿戴设备100可通过支撑部件30固定在用户的头部。在图2的示例中,支撑部件30包括第一支架32、第二支架34和弹性带36。
第一支架32和第二支架34关于缺口262对称设置。具体地,第一支架32和第二支架34可转动地设置在外壳20的边缘,在用户不需要使用穿戴设备100时,可将第一支架32和第二支架34贴近外壳20叠放,以便于收纳。在用户需要使用穿戴设备100时,可将第一支架32和第二支架34展开,以实现第一支架32和第二支架34支撑的功能。
第一支架32远离外壳20的一端形成有第一弯折部322,第一弯折部322朝向外壳底壁26弯折。这样,用户在佩戴穿戴设备100时,第一弯折部322可架设在用户的耳朵上,从而使穿戴设备100不易滑落。
类似地,第二支架34远离外壳20的一端形成有第二弯折部342,第二弯折部342朝向外壳底壁26弯折。第二弯折部342的解释和说明可参照第一弯折部322,为避免冗余,在此不再赘述。
弹性带36可拆卸地连接第一支架32和第二支架34。如此,在用户佩戴穿戴设备100进行剧烈活动时,可以通过弹性带36进一步固定穿戴设备100,防止穿戴设备100在剧烈活动中松动甚至掉落。可以理解,在其他的示例中,弹性带36也可以省略。
在本实施方式中,显示器40包括OLED显示屏。OLED显示屏无需背光灯,有利于穿戴设备100的轻薄化。而且,OLED屏幕可视角度大,耗电较低,有利于节省耗电量。
当然,显示器40也可以采用LED显示器或Micro LED显示器。这些显示器仅作为示例而本申请的实施例并不限于此。
请一并参阅图3,屈光部件50设置在显示器40一侧。屈光部件50包括屈光腔52、透光液体54、第一膜层56、第二膜层58和侧壁59。
透光液体54设置在屈光腔52内。调节机构60用于调节透光液体54的量以调节屈光部件50的形态。具体地,第二膜层58相对于第一膜层56设置,侧壁59连接第一膜层56和第二膜层58,第一膜层56、第二膜层58和侧壁59围成屈光腔52,调节机构60用于调节透光液体54的量以改变第一膜层56和/或第二膜层58的形状。
如此,实现屈光部件50屈光功能的实现。具体地,“改变第一膜层56和/或第二膜层58的形状”包括三种情况:第一种情况:改变第一膜层56的形状且不改变第二膜层58的形状;第二种情况:不改变第一膜层56的形状且改变第二膜层58的形状;第三种情况:改变第一膜层56的形状且改变第二膜层58的形状。请注意,为方便解释,在本实施方式中,以第一种情况为例进行说明。
第一膜层56可具有弹性。可以理解,在屈光腔52中的透光液体54的量变化的情况下,屈光腔52内的压强也随之变化,从而使得屈光部件50的形态发生变化。
在一个例子中,调节机构60将屈光腔52中透光液体54的量减少,屈光腔52内的压强减小,屈光腔52外的压强与屈光腔52内的压强的压差增大,屈光腔52更加凹陷。
在另一个例子中,调节机构60将屈光腔52中透光液体54的量增多,屈光腔52内的压强增大,屈光腔52外的压强与屈光腔52内的压强的压差减小,屈光腔52更加凸出。
这样,就实现了通过调节透光液体54的量来调节屈光部件50的形态。
调节机构60连接屈光部件50。调节机构60用于调节屈光部件50的形态以调节屈光部件50的屈光度。具体地,调节机构60包括腔体62、滑动件64、驱动部件66、调节腔68和开关61。
滑动件64滑动地设置在腔体62中,驱动部件66与滑动件64连接,腔体62和滑动件64共同限定出调节腔68,调节腔68通过侧壁59连通屈光腔52,驱动部件66用于驱动滑动件64相对于腔体62滑动以调整调节腔68的容积以调节屈光腔52内的透光液体54的量。
如此,实现通过滑动件64来调整调节腔68的容积,以调节屈光腔52内的透光液体54的量。在一个例子中,请参阅图4,滑动件64往背离侧壁59的方向滑动,调节腔68的容积增大,调节腔68内的压强减小,屈光腔52内的透光液体54进入调节腔68,第一膜层56愈发向内凹陷。
在另一个例子中,请参阅图5,滑动件64往朝向侧壁59的方向滑动,调节腔68的容积减小,调节腔68内的压强增大,调节腔68内的透光液体54进入屈光腔52,第一膜层56愈发向外凸出。
侧壁59形成有流动通道591,流动通道591连通调节腔68和屈光腔52。调节机构60包括设置在流动通道591的开关61,开关61用于控制流动通道591的开闭状态。
在本实施方式中,开关61的数量为两个,两个开关61均为单向开关,其中一个开关61用于控制透光液体54从调节腔68流至屈光腔52,另一个开关61用于控制透光液体54从屈光腔52流至调节腔68。
如此,通过开关61实现透光液体54在调节腔68和屈光腔52之间的流动,以保持侧壁59两侧的压强平衡。如前所述,调节腔68容积的改变,会引起调节腔68中压强的变化,从而引起现透光液体54在调节腔68和屈光腔52之间的流动。而开关61通过控制流动通道591的开闭状态,来控制透光液体54在调节腔68和屈光腔52之间的流动能否实现,从而控制屈光部件50的形态的调节。
在一个例子中,请参阅图4,控制透光液体54从屈光腔52流至调节腔68的开关61打开,滑动件64往背离侧壁59的方向滑动,调节腔68的容积增大,调节腔68内的压强减小,屈光腔52内的透光液体54通过开关61进入调节腔68,第一膜层56愈发向内凹陷。
在另一个例子中,控制透光液体54从屈光腔52流至调节腔68的开关61关闭,即使滑动件64往背离侧壁59的方向滑动,调节腔68的容积增大,调节腔68内的压强减小,屈光腔52内的透光液体54也无法进入调节腔68,第一膜层56的形态不发生改变。
在又一个例子中,请参阅图5,控制透光液体54从调节腔68流至屈光腔52的开关61打开,滑动件64往朝向侧壁59的方向滑动,调节腔68的容积减小,调节腔68内的压强增大,调节腔68内的透光液体54通过开关61进入屈光腔52,第一膜层56愈发向外凸出。
在又一个例子中,控制透光液体54从调节腔68流至屈光腔52的开关61关闭,即使滑动件64往朝向侧壁59的方向滑动,调节腔68的容积减小,调节腔68内的压强增大,调节腔68内的透光液体54也无法进入屈光腔52,第一膜层56的形态不发生改变。
驱动部件66可基于多种结构和原理实现其驱动滑动件64滑动的功能。
在图1、图2、图3、图4和图5的示例中,驱动部件66包括旋钮662和丝杠664,丝杠664连接旋钮662和滑动件64,旋钮662用于驱动丝杠664转动以带动滑动件64相对于腔体62滑动。
如此,实现通过旋钮662和丝杠664来驱动滑动件64。由于丝杠664和旋钮662的配合可将旋钮662的回转运动转化为丝杠664直线运动,在用户旋转旋钮662时,丝杠664即可带动滑动件64相对于腔体62滑动,从而引起调节腔68容积的变化,进而调节屈光腔52内的透光液体54的量。旋钮662可自外壳20露出,以方便用户旋转。
具体地,旋钮662上形成有螺纹部,丝杠664上形成有与旋钮662配合的螺纹部,旋钮662和丝杠664螺纹连接。
在旋钮662旋转的同时,开关61可对应地打开。如此,使得透光液体54可以流动,保证侧壁59两侧的压强平衡。
在一个例子中,旋钮662顺时针旋转,滑动件64往背离侧壁59的方向滑动,则将控制透光液体54从屈光腔52流至调节腔68的开关61打开。在另一个例子中,旋钮662逆时针旋转,滑动件64往朝向侧壁59的方向滑动,则将控制透光液体54从调节腔68流至屈光腔52的开关61打开。
请注意,本实施方式中,没有关联旋钮662的旋转角度与屈光部件50的屈光度数,用户将旋钮662旋转到视觉体验最佳的位置即可。当然,在其他的实施方式中,也可以关联旋钮662的旋转角度与屈光部件50的屈光度数。在此,不对旋钮662的旋转角度与屈光部件50的屈光度数是否关联进行限定。
请参阅图6,驱动部件66包括齿轮666和与齿轮666啮合的齿条668,齿条668连接齿轮666和滑动件64,齿轮666用于驱动齿条668移动以带动滑动件64相对于腔体62滑动。
如此,实现通过齿轮666和齿条668来驱动滑动件64。由于齿轮666和齿条668的配合可将齿轮666的回转运动转化为齿条668直线运动,在用户旋转齿轮666时,齿条668即可带动滑动件64相对于腔体62滑动,从而引起调节腔68容积的变化,进而调节屈光腔52内的透光液体54的量。齿轮666可自外壳20露出,以方便用户旋转。
类似地,在齿轮666旋转的同时,开关61可对应地打开。如此,使得透光液体54可以流动,保证侧壁59两侧的压强平衡。
在一个例子中,齿轮666顺时针转动使得齿条668啮合在齿轮666上,齿条668的长度缩短,拉动滑动件64往背离侧壁59的方向移动,则将控制透光液体54从屈光腔52流至调节腔68的开关61打开。
在另一个例子中,齿轮666逆时针转动使得啮合在齿轮666上的齿条668从齿轮666脱离,齿条668的长度增长,推动滑动件64往朝向侧壁59的方向移动,则将控制透光液体54从调节腔68流至屈光腔52的开关61打开。
类似地,本实施方式中,没有关联齿轮666的旋转角度与屈光部件50的屈光度数,用户将齿轮666旋转到视觉体验最佳的位置即可。当然,在其他的实施方式中,也可以关联齿轮666的旋转角度与屈光部件50的屈光度数。在此,不对齿轮666的旋转角度与屈光部件50的屈光度数是否关联进行限定
请参阅图7,驱动部件66包括驱动电机669,驱动电机669的电机轴6691连接滑动件64,驱动电机669用于驱动滑动件64相对于腔体62滑动。
如此,实现通过驱动电机668驱动滑动件64。具体地,驱动电机669可为线性电机。线性电机结构简单,不需要经过中间转换机构而直接产生直线运动,可以减小运动惯量并提高动态响应性能和定位精度。通过驱动电机668驱动滑动件64,使得对滑动件64的驱动具有可编辑性。例如,可以通过事先的校准,将驱动电机668与屈光的度数关联起来。用户可以直接输入屈光的度数,驱动电机668自动运转驱动滑动件64滑动到对应的位置。
进一步地,驱动部件66还可以包括输入器6692,输入器6692包括但不限于按键、旋钮或触摸屏等装置。在图7的示例中,输入器6692为按键,两个按键分别设置在腔体62的相对两侧。按键可自外壳20露出,以方便用户按压。按键可根据外力按压的次数或时长控制驱动电机669的工作时长,从而控制滑动件64的滑动距离。
类似地,在驱动电机669工作的同时,开关61可对应地打开。如此,使得透光液体54可以流动,保证侧壁59两侧的压强平衡。
在一个例子中,用户按压两个按键中的一个按键,驱动电机轴6691伸长,电机轴6691推动滑动件64往朝向侧壁59的方向移动,则将控制透光液体54从调节腔68流至屈光腔52的开关61打开。
在另一个例子中,用户按压两个按键中的另一个按键,驱动电机轴6691缩短,电机轴6691拉动滑动件64往背离侧壁59的方向移动,则将控制透光液体54从屈光腔52流至调节腔68的开关61打开。
需要注意的是,屈光部件50的结构不仅包括以上的屈光腔52、透光液体54、第一膜层56、第二膜层58和侧壁59,只要保证屈光部件50可以实现屈光度的改变的效果即可。例如,在其他方式中,屈光部件50包括多个镜片和驱动件,驱动件用于驱动每个镜片从收容位置移动到屈光位置。这样,即可通过多个镜片的组合,来改变屈光部件50的屈光度。当然,驱动件也可驱动移动到屈光位置上的每个镜片在屈光光轴上移动,从而改变屈光部件50的屈光度。
因此,以上所述的屈光部件的形态包括屈光部件的形状和状态,以上屈光腔52、透光液体54、第一膜层56、第二膜层58和侧壁59的结构方式通过改变第一膜层56和/或第二膜层58的形状以实现屈光度的改变;以上多个镜片和驱动件的结构方式,通过改变镜片的状态以实现屈光度的改变。
综合以上,本申请实施方式提供了一种穿戴设备100,其包括显示器40、屈光部件50和调节机构60。屈光部件50设置在显示器40一侧。调节机构60连接屈光部件50,调节机构60用于调节屈光部件50的形态以调节屈光部件50的屈光度。
本申请实施方式的穿戴设备100,通过调节机构60调节屈光部件50的形态,以调节屈光部件50的屈光度,使得屈光不正的用户能够看清显示器40显示的图像,有利于提高用户体验。
而且,本申请实施方式的穿戴设备100中,屈光部件50和调节机构60可线性矫正屈光度数,使每个不同屈光度数的人都可以灵活佩戴。同时,屈光部件50和调节机构60的体积较小,不影响穿戴设备100的佩戴体验。用户不需要购买很多镜片,可以降低价格。
请参阅图8和图9,本申请实施方式提供了一种穿戴设备100的控制方法。穿戴设备100包括声电元件110和振动传感器120。
控制方法包括:
步骤S12:获取声电元件110采集的声音信息和振动传感器120采集的振动信息;
步骤S14:根据声音信息和振动信息确定声音命令的发出者的身份信息,声音命令由声音信息确定;
步骤S16:根据身份信息控制穿戴设备100执行声音命令或忽略声音命令。
请参阅图10,本申请实施方式提供了一种穿戴设备100的控制装置10。穿戴设备100包括声电元件110和振动传感器120,控制装置10包括获取模块12、确定模块14和控制模块16,获取模块12用于获取声电元件110采集的声音信息和振动传感器120采集的振动信息;确定模块14用于根据声音信息和振动信息确定声音命令的发出者的身份信息,声音命令由声音信息确定;控制模块16用于根据身份信息控制穿戴设备100执行声音命令或忽略声音命令。
本申请实施方式提供了一种穿戴设备100。穿戴设备包括外壳20、处理器101、声电元件110和振动传感器120,声电元件110设置在外壳20,处理器101连接声电元件110和振动传感器120,处理器101用于获取声电元件110采集的声音信息和振动传感器120采集的振动信息;及用于根据声音信息和振动信息确定声音命令的发出者的身份信息,声音命令由声音信息确定;以及用于根据身份信息控制穿戴设备100执行声音命令或忽略声音命令。
本申请实施方式的穿戴设备100的控制方法、控制装置10和穿戴设备100,根据声音信息和振动信息确定声音命令的发出者的身份信息,从而控制穿戴设备100执行或忽略声音命令,可以避免穿戴设备100的误触发,使得对穿戴设备100的控制更加准确。
具体地,穿戴设备100可以为电子眼镜、电子衣服、电子手镯、电子项链、电子纹身、手表、入耳式耳机、吊坠、头戴式耳机等电子装置。穿戴设备100还可以为电子设备或智能手表的头戴式设备(head mount display,HMD)。在此不对穿戴设备100的具体形式进行限定。
请注意,为方便说明,本申请实施方式以穿戴设备100是电子眼镜为例对本申请实施方式的穿戴设备100的控制方法进行解释。这并不代表对穿戴设备100的具体形式进行限定。
声电元件110的数量为3个,外壳20包括外壳前壁21,3个声电元件110分别设置在外壳前壁21的第一预设位置211、第二预设位置212和第三预设位置213。
外壳20包括外壳侧壁28和外壳顶壁24,外壳侧壁28的数量为2个,2个外壳侧壁28分别设置在外壳顶壁24的相背两侧,第一预设位置211靠近外壳顶壁24和其中一个外壳侧壁28,第二预设位置212靠近外壳顶壁24和其中另一个外壳侧壁28。
外壳20包括外壳顶壁24和外壳底壁26,外壳顶壁24和外壳底壁26分别设置在外壳前壁21的相背两侧,外壳底壁26的中部朝向外壳顶壁24形成缺口262,第三预设位置213靠近缺口262。
如此,可以使得三个声电元件110的分布较为分散,不仅可以使得穿戴设备100的外形美观,而且在后续对声电元件110的输出信息去混响以得到声音信息时,可以提高去混响的效果。
在图1的例子中,声电元件110为麦克风。声电元件110的数量为3个,3个声电元件110分别设置在第一预设位置211、第二预设位置212和第三预设位置213。
可以理解,在其他的例子中,声电元件110的数量可为1个、2个、4个、6个或其他数量。声电元件110可设置在第一支架32、第二支架34或穿戴设备100的其他位置。在此不对声电元件110的具体数量和设置的具体位置进行限定。
穿戴设备100包括连接外壳20的支撑部件30,支撑部件30包括第一支架32和第二支架34,振动传感器120设置在第一支架32和/或第二支架34。
进一步地,第一支架32远离外壳20的一端形成有第一弯折部322,第二支架34远离外壳20的一端形成有第二弯折部342,外壳20包括外壳底壁26,第一弯折部322和第二弯折部342朝向外壳底壁26弯折,振动传感器120设置在第一弯折部322和/或第二弯折部342。
在图1的例子中,振动传感器120为陀螺仪。振动传感器120的数量为一个,振动传感器120设置在穿戴设备100的第一支架32的第一弯折部322。
在另一个例子中,振动传感器120的数量为2个,其中一个振动传感器120设置在第一弯折部322,其中的另一个振动传感器120设置在第二弯折部342。
当然,在其他的例子中,振动传感器120的数量为一个,振动传感器120也可设置在第二弯折部342。
可以理解,用户在说话时,声带的振动会带动脸部肌肉的同步微小振动。因此,将振动传感器120设置在支撑部件30与用户头部有接触的部位,如第一弯折部322和第二弯折部342,可以使得振动传感器120可采集到更多、更准确的振动信息,从而使根据振动信息对穿戴设备100的控制更加准确。
在其他的例子中,振动传感器120的数量可为3个、4个、5个或其他数量。振动传感器120可设置在穿戴设备100的其他位置。在此不对振动传感器120的具体数量和设置的具体位置进行限定。
请注意,此处“声音命令”可指可被穿戴设备100识别且可对穿戴设备100进行控制的信息。此处“声音信息”可指可提取出声音命令的信息。“声音信息”可包括声音信息的起始时刻、声音信息的结束时刻、声纹信息等。
此处“振动信息”可包括振动信息的起始时刻、振动信息的结束时刻、振动的频率、振幅等。
此处“身份信息”可指发出者的固有身份(例如身份证号码所唯一确定的身份),也可指发出者由于职位、行为、状态等因素所具有的身份(例如,穿戴设备100的机主、非穿戴设备100的机主、穿戴设备100的穿戴者、非穿戴设备100的穿戴者)。
在此,不对声音信息、振动信息、身份信息的具体形式和具体内容进行限定。
在一个例子中,声音命令为:“将开机密码改为123456”,根据声音信息的声纹信息可确定声音命令的发出者是穿戴设备100的机主,根据振动信息可确定该声音命令是由穿戴设备100的穿戴者发出的,也即是说,根据声音信息和振动信息可确定该声音命令的发出者的身份信息为:“机主”、“穿戴者”。此时,可控制该穿戴设备100,将开机密码改为“123456”。这样可防止拥有多个穿戴设备100的用户在需要修改正穿戴的穿戴设备100的开机密码时,误修改其他未穿戴的穿戴设备100的开机密码。
在另一个例子中,声音命令为:“将开机密码改为123456”,根据声音信息的声纹信息可确定声音命令的发出者不是穿戴设备100的机主,根据振动信息可确定该声音命令是由穿戴设备100的穿戴者发出的,也即是说,根据声音信息和振动信息可确定该声音命令的发出者的身份信息为:“非机主”、“穿戴者”。此时,可控制该穿戴设备100忽略该声音命令。这样可防止穿戴设备100在被非机主的用户穿戴时,被非机主的用户趁机篡改开机密码。
请参阅图11,在某些实施方式中,身份信息包括穿戴者和非穿戴者,步骤S16包括:
步骤S162:在身份信息为穿戴者的情况下,控制穿戴设备100执行声音命令;
步骤S164:在身份信息为非穿戴者的情况下,控制穿戴设备100忽略声音命令。
对应地,控制模块16用于在身份信息为穿戴者的情况下,控制穿戴设备100执行声音命令;以及用于在身份信息为非穿戴者的情况下,控制穿戴设备100忽略声音命令。
对应地,处理器101用于在身份信息为穿戴者的情况下,控制穿戴设备100执行声音命令;以及用于在身份信息为非穿戴者的情况下,控制穿戴设备100忽略声音命令。
如此,实现根据身份信息控制穿戴设备100执行声音命令或忽略声音命令。可以理解,在穿戴设备100处于较为喧闹嘈杂的环境中时,如果不区分声音命令的发出者是穿戴者还是非穿戴者,容易导致穿戴设备100被环境中的其他声音误触发。本实施方式中,在确定音命令的发出者为穿戴者的情况下,才控制穿戴设备100执行声音命令,提高了穿戴设备100对环境的适应性,使得穿戴设备100在声音混乱的环境中也可以正常工作。
在一个例子中,三个用户分别穿戴3个穿戴设备100,并通过声音对各自穿戴的穿戴设备100进行控制。1号用户穿戴1号穿戴设备100,并发出“打开文档A”的声音命令;2号用户穿戴2号穿戴设备100,并发出“打开文档B”的声音命令;3号用户穿戴3号穿戴设备100,并发出“打开文档C”的声音命令。
对于1号穿戴设备100而言,可通过声音信息和振动信息确定“打开文档A”的声音命令的发出者是穿戴者,也即是1号用户,“打开文档B”和“打开文档C”的声音命令的发出者是非穿戴者。此时,1号穿戴设备100执行“打开文档A”的声音命令,忽略“打开文档B”和“打开文档C”的声音命令。
对于2号穿戴设备100而言,可通过声音信息和振动信息确定“打开文档B”的声音命令的发出者是穿戴者,也即是2号用户,“打开文档A”和“打开文档C”的声音命令的发出者是非穿戴者。此时,2号穿戴设备100执行“打开文档B”的声音命令,忽略“打开文档A”和“打开文档C”的声音命令。
对于3号穿戴设备100而言,可通过声音信息和振动信息确定“打开文档C”的声音命令的发出者是穿戴者,也即是3号用户,“打开文档B”和“打开文档A”的声音命令的发出者是非穿戴者。此时,3号穿戴设备100执行“打开文档C”的声音命令,忽略“打开文档B”和“打开文档A”的声音命令。
这样,即使环境中充斥着“打开文档A”、“打开文档B”、“打开文档C”的声音命令。穿戴设备100也可准确地执行对应穿戴者的声音命令。
请参阅图12,在某些实施方式中,步骤S14包括:
步骤S142:确定声音信息和振动信息的时间差;
步骤S144:根据时间差确定身份信息。
对应地,确定模块14用于确定声音信息和振动信息的时间差;以及用于根据时间差确定身份信息。
对应地,处理器101用于确定声音信息和振动信息的时间差;以及用于根据时间差确定身份信息。
如此,实现根据声音信息和振动信息确定声音命令的发出者的身份信息。可以理解,声音产生的时刻和声带开始振动的时刻是相同的,声音的传播和振动的传播都需要时间。因此,可以根据声音信息和振动信息的时间差确定声音命令的发出者的身份信息。
请参阅图14和图15,在某些实施方式中,身份信息包括穿戴者和非穿戴者,时间差包括起始时间差T1,步骤S142包括:
步骤S1422:根据声音信息的起始时刻t2和振动信息的起始时刻t1确定起始时间差T1;
步骤S144包括:
步骤S1442:在起始时间差T1小于或等于预设的时间阈值的情况下,确定身份信息为穿戴者;
步骤S1444:在起始时间差T1大于时间阈值的情况下,确定身份信息为非穿戴者。
对应地,确定模块14用于根据声音信息的起始时刻t2和振动信息的起始时刻t1确定起始时间差T1;及用于在起始时间差T1小于或等于预设的时间阈值的情况下,确定身份信息为穿戴者;以及用于在起始时间差T1大于时间阈值的情况下,确定身份信息为非穿戴者。
对应地,处理器101用于根据声音信息的起始时刻t2和振动信息的起始时刻t1确定起始时间差T1;及用于在起始时间差T1小于或等于预设的时间阈值的情况下,确定身份信息为穿戴者;以及用于在起始时间差T1大于时间阈值的情况下,确定身份信息为非穿戴者。
如此,实现根据起始时间差T1确定身份信息。具体地,时间阈值可预先通过实验得出,并存储在穿戴设备100中。
可以理解,振动传感器120采集的振动信息来源于声带振动引起的脸部肌肉同步微小振动,因此,振动信息120反映的是穿戴设备100的穿戴者的信息,振动信息的起始时刻t1可推断为穿戴者开始发声的时刻。
而声音可通过空气传播,声电元件110采集的声音信息可能反映穿戴者的信息,也可能反映非穿戴者的信息。因此,在振动信息的起始时刻t1与声音信息的起始时刻t2的起始时间差T1小于或等于预设的时间阈值的情况下,可推断振动与声音同时开始,从而确定由声音信息确定的声音命令是由穿戴者发出的。在起始时间差T1大于时间阈值的情况下,可推断振动与声音并非同时开始,声音是临近的声源发出的,从而确定由声音信息确定的声音命令是由非穿戴者发出的。
在一个例子中,时间阈值为2s。振动信息的起始时刻t1为零点整,声音信息的起始时刻t2为零点过一秒,起始时间差T1为1s,小于时间阈值,确定声音命令的发出者的身份信息为穿戴者。
在另一个例子中,时间阈值为2s。振动信息的起始时刻t1为零点整,声音信息的起始时刻t2为零点过三秒,起始时间差T1为3s,大于时间阈值,可确定声音是临近的声源发出的,从而确定声音命令的发出者的身份信息为非穿戴者。
请参阅图15和图14,在某些实施方式中,身份信息包括穿戴者和非穿戴者,时间差包括结束时间差T2,步骤S142包括:
步骤S1424:根据声音信息的结束时刻t3和振动信息的结束时刻t4确定结束时间差T2;
步骤S144包括:
步骤S1446:在结束时间差T2小于或等于预设的时间阈值的情况下,确定身份信息为穿戴者;
步骤S1448:在结束时间差T2大于时间阈值的情况下,确定身份信息为非穿戴者。
对应地,确定模块14用于根据声音信息的结束时刻t3和振动信息的结束时刻t4确定结束时间差T2;及用于在结束时间差T2小于或等于预设的时间阈值的情况下,确定身份信息为穿戴者;以及用于在结束时间差T2大于时间阈值的情况下,确定身份信息为非穿戴者。
对应地,处理器101用于根据声音信息的结束时刻t3和振动信息的结束时刻t4确定结束时间差T2;及用于在结束时间差T2小于或等于预设的时间阈值的情况下,确定身份信息为穿戴者;以及用于在结束时间差T2大于时间阈值的情况下,确定身份信息为非穿戴者。
如此,实现根据结束时间差T2确定身份信息。根据结束时间差T2确定身份信息的原理和解释说明可参照上述根据起始时间差T1确定身份信息的部分,为避免冗余,在此不再赘述。
在一个例子中,时间阈值为2s。振动信息的结束时刻t4为零点整,声音信息的结束时刻t3为零点过一秒,结束时间差T2为1s,小于时间阈值,确定声音命令的发出者的身份信息为穿戴者。
在另一个例子中,时间阈值为2s。振动信息的结束时刻t4为零点整,声音信息的结束时刻t3为零点过三秒,结束时间差T2为3s,大于时间阈值,确定声音命令的发出者的身份信息为非穿戴者。
请参阅图16,在某些实施方式中,控制方法包括:
步骤S18:在预设时长内采集到声音信息且未采集到振动信息的情况下,控制穿戴设备100忽略声音信息。
对应地,控制模块16用于在预设时长内采集到声音信息且未采集到振动信息的情况下,控制穿戴设备100忽略声音信息。
对应地,处理器101用于在预设时长内采集到声音信息且未采集到振动信息的情况下,控制穿戴设备100忽略声音信息。
如此,实现在预设时长内采集到声音信息且未采集到振动信息的情况下,对穿戴设备100的控制。可以理解,用户在佩戴电子眼镜时,除用户自己发出的声音外,环境中的其他声音,例如电视的声音、广播的声音、非穿戴者的声音等,也可能使得声电元件110采集到声音信息。而通过未采集到振动信息可推断用户并未发声。因此,在预设时长内采集到声音信息且未采集到振动信息的情况下,可控制穿戴设备100忽略声音信息,防止穿戴设备100的误触发。
在一个例子中,预设时长为10s,电视机发出的声音使得声电元件110采集到声音信息,但是在10s内并未采集到振动信息,此时可推断穿戴者并没有发出声音命令,声音信息可忽略。
请参阅图18,在某些实施方式中,控制方法包括:
步骤S19:在预设时长内未采集到声音信息且采集到振动信息的情况下,控制穿戴设备100忽略振动信息。
对应地,控制模块16用于在预设时长内未采集到声音信息且采集到振动信息的情况下,控制穿戴设备100忽略振动信息。
对应地,处理器101用于在预设时长内未采集到声音信息且采集到振动信息的情况下,控制穿戴设备100忽略振动信息。
如此,实现在预设时长内未采集到声音信息且采集到振动信息的情况下,对穿戴设备100的控制。可以理解,用户在佩戴电子眼镜时,除了声带振动之外,咀嚼、血管跳动、受到撞击都可能使得振动传感器120采集到振动信息。而这些情况下,声电元件110没有输出信息,或者即使将声电元件110的输出信息进行处理也无法得到可提取出声音命令的声音信息。因此,在预设时长内未采集到声音信息且采集到振动信息的情况下,可控制穿戴设备100忽略振动信息。
在一个例子中,预设时长为10s,用户的血管跳动使得振动传感器120采集到振动信息,但是在10s内声电元件110并没有输出输出信息,也不会采集到声音信息,此时可推断穿戴者并没有发出声音命令,声音信息可忽略。
在另一个例子中,预设时长为10s,用户咀嚼的动作使得振动传感器120采集到振动信息,10s内声电元件110输出了输出信息,但是根据输出信息无法得到可提取出声音命令的声音信息,也即是未采集到声音信息,此时可推断穿戴者并没有发出声音命令,声音信息可忽略。
请参阅图18,在某些实施方式中,声电元件110的数量为多个,控制方法包括:
步骤S11:对多个声电元件110的输出信息进行去混响处理以得到声音信息。
对应地,获取模块12用于对多个声电元件110的输出信息进行去混响处理以得到声音信息。
对应地,处理器101用于对多个声电元件110的输出信息进行去混响处理以得到声音信息。
如此,实现从声电元件110的输出信息得到声音信息。具体地,多个声电元件110形成阵列,可通过专门的算法对输出信息进行去混响,以得到声音信息。例如,基于盲语音增强的方法(Blind signal enhancement approach)、基于波束形成的方法(Beamformingbased approach)或基于逆滤波的方法(An inverse filtering approach)等。这样,可实现纯净信号的还原,并提升了从声音信息提取声音命令的识别效果。
另外,多个声电元件110形成阵列,可实现声源定位。在声音命令的发出者为非佩戴者时,进一步确定声音命令的来源和位置。具体地,可声电元件110的阵列采集到的信息,来计算声源的角度和距离,从而实现对声源的跟踪以及后续的语音定向拾取。
请参阅图19,声电元件110为麦克风,麦克风的数量为三个,三个麦克风的位置坐标分别记为:o1、o2和o3。发出者作为声源200,穿戴设备100接收来自声源200的语音命令。
由于三个麦克风的位置不同,因此,声源200发出的声波传到每个麦克风的时间不同。假设声源200发出的声波传到每个麦克风的时间分别为t1、t2和t3。则声源200到每个麦克风的距离分别为vt1,vt2和vt3。其中,v为声音在空气中的传播速度。
然后,可以分别以三个麦克风为原点,以声源200到对应麦克风的距离为半径画球面。也即是说,以o1为原点,以vt1为半径,画第一个球面;以o2为原点,以vt2为半径,画第二个球面;以o3为原点,以vt3为半径,画第三个球面。
最后计算三个球面的交点,三个球面的交点就是声源200的位置。这个方法可以通过算法实现。
请参阅图20,本申请实施方式提供了一种穿戴设备100。穿戴设备100包括处理器101和存储器102。存储器102存储有一个或多个程序,程序被处理器101执行时实现上述任一实施方式的穿戴设备100的控制方法。
例如执行:步骤S12:获取声电元件110采集的声音信息和振动传感器120采集的振动信息;步骤S14:根据声音信息和振动信息确定声音命令的发出者的身份信息,声音命令由声音信息确定;步骤S16:根据身份信息控制穿戴设备100执行声音命令或忽略声音命令。
本申请实施方式还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当计算机可执行指令被一个或多个处理器101执行时,使得处理器101执行上述任一实施方式的控制方法。
本申请实施方式的穿戴设备100和计算机可读存储介质,根据声音信息和振动信息确定声音命令的发出者的身份信息,从而控制穿戴设备100执行或忽略声音命令,可以避免穿戴设备100的误触发,使得对穿戴设备100的控制更加准确。
图20为一个实施例中的穿戴设备100的内部模块示意图。穿戴设备100包括通过系统总线109连接的处理器101、存储器102(例如为非易失性存储介质)、内存储器103、显示装置104和输入装置105。
处理器101可用于提供计算和控制能力,支撑整个穿戴设备100的运行。穿戴设备100的内存储器103为存储器102中的计算机可读指令运行提供环境。穿戴设备100的显示装置104可以是设置在穿戴设备100上的显示器40,输入装置105可以是设置在穿戴设备100上的声电元件110和振动传感器120,也可以是穿戴设备100上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等。该穿戴设备100可以是智能手环、智能手表、智能头盔、电子眼镜等。
本领域技术人员可以理解,图中示出的结构,仅仅是与本申请方案相关的部分结构的示意图,并不构成对本申请方案所应用于其上的穿戴设备100的限定,具体的穿戴设备100可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一非易失性计算机可读存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (23)

1.一种穿戴设备的控制方法,其特征在于,所述穿戴设备包括声电元件和振动传感器,所述控制方法包括:
获取所述声电元件采集的声音信息和所述振动传感器采集的振动信息;
根据所述声音信息和所述振动信息确定声音命令的发出者的身份信息,所述声音命令由所述声音信息确定;
根据所述身份信息控制所述穿戴设备执行所述声音命令或忽略所述声音命令。
2.根据权利要求1所述的穿戴设备的控制方法,其特征在于,根据所述声音信息和所述振动信息确定声音命令的发出者的身份信息,包括:
确定所述声音信息和所述振动信息的时间差;
根据所述时间差确定所述身份信息。
3.根据权利要求2所述的穿戴设备的控制方法,其特征在于,所述身份信息包括穿戴者和非穿戴者,所述时间差包括起始时间差,确定所述声音信息和所述振动信息的时间差,包括:
根据所述声音信息的起始时刻和所述振动信息的起始时刻确定所述起始时间差;
根据所述时间差确定所述身份信息,包括:
在所述起始时间差小于或等于预设的时间阈值的情况下,确定所述身份信息为所述穿戴者;
在所述起始时间差大于所述时间阈值的情况下,确定所述身份信息为所述非穿戴者。
4.根据权利要求2所述的穿戴设备的控制方法,其特征在于,所述身份信息包括穿戴者和非穿戴者,所述时间差包括结束时间差,确定所述声音信息和所述振动信息的时间差,包括:
根据所述声音信息的结束时刻和所述振动信息的结束时刻确定所述结束时间差;
根据所述时间差确定所述身份信息,包括:
在所述结束时间差小于或等于预设的时间阈值的情况下,确定所述身份信息为所述穿戴者;
在所述结束时间差大于所述时间阈值的情况下,确定所述身份信息为所述非穿戴者。
5.根据权利要求1所述的穿戴设备的控制方法,其特征在于,所述身份信息包括穿戴者和非穿戴者,根据所述身份信息控制所述穿戴设备执行所述声音命令或忽略所述声音命令,包括:
在所述身份信息为所述穿戴者的情况下,控制所述穿戴设备执行所述声音命令;
在所述身份信息为所述非穿戴者的情况下,控制所述穿戴设备忽略所述声音命令。
6.根据权利要求1所述的穿戴设备的控制方法,其特征在于,所述控制方法包括:
在预设时长内采集到所述声音信息且未采集到所述振动信息的情况下,控制所述穿戴设备忽略所述声音信息。
7.根据权利要求1所述的穿戴设备的控制方法,其特征在于,所述控制方法包括:
在预设时长内未采集到所述声音信息且采集到所述振动信息的情况下,控制所述穿戴设备忽略所述振动信息。
8.根据权利要求1所述的穿戴设备的控制方法,其特征在于,所述声电元件的数量为多个,所述控制方法包括:
对多个所述声电元件的输出信息进行去混响处理以得到所述声音信息。
9.一种穿戴设备的控制装置,其特征在于,所述穿戴设备包括声电元件和振动传感器,所述控制装置包括获取模块、确定模块和控制模块,所述获取模块用于获取所述声电元件采集的声音信息和所述振动传感器采集的振动信息;所述确定模块用于根据所述声音信息和所述振动信息确定声音命令的发出者的身份信息,所述声音命令由所述声音信息确定;所述控制模块用于根据所述身份信息控制所述穿戴设备执行所述声音命令或忽略所述声音命令。
10.一种穿戴设备,其特征在于,所述穿戴设备包括外壳、处理器、声电元件和振动传感器,所述声电元件设置在所述外壳,所述处理器连接所述声电元件和所述振动传感器,所述处理器用于获取所述声电元件采集的声音信息和所述振动传感器采集的振动信息;及用于根据所述声音信息和所述振动信息确定声音命令的发出者的身份信息,所述声音命令由所述声音信息确定;以及用于根据所述身份信息控制所述穿戴设备执行所述声音命令或忽略所述声音命令。
11.根据权利要求10所述的穿戴设备,其特征在于,所述穿戴设备包括连接所述外壳的支撑部件,所述支撑部件包括第一支架和第二支架,所述振动传感器设置在所述第一支架和/或所述第二支架。
12.根据权利要求11所述的穿戴设备,其特征在于,所述第一支架远离所述外壳的一端形成有第一弯折部,所述第二支架远离所述外壳的一端形成有第二弯折部,所述外壳包括外壳底壁,所述第一弯折部和所述第二弯折部朝向所述外壳底壁弯折,所述振动传感器设置在所述第一弯折部和/或所述第二弯折部。
13.根据权利要求12所述的穿戴设备,其特征在于,所述振动传感器的数量为2个,其中一个所述振动传感器设置在所述第一弯折部,其中的另一个所述振动传感器设置在所述第二弯折部。
14.根据权利要求10所述的穿戴设备,其特征在于,所述声电元件的数量为3个,所述外壳包括外壳前壁,3个所述声电元件分别设置在所述外壳前壁的第一预设位置、第二预设位置和第三预设位置。
15.根据权利要求14所述的穿戴设备,其特征在于,所述外壳包括外壳侧壁和外壳顶壁,所述外壳侧壁的数量为2个,2个所述外壳侧壁分别设置在所述外壳顶壁的相背两侧,所述第一预设位置靠近所述外壳顶壁和其中一个所述外壳侧壁,所述第二预设位置靠近所述外壳顶壁和其中另一个所述外壳侧壁。
16.根据权利要求14所述的穿戴设备,其特征在于,所述外壳包括外壳顶壁和外壳底壁,所述外壳顶壁和所述外壳底壁分别设置在所述外壳前壁的相背两侧,所述外壳底壁的中部朝向所述外壳顶壁形成缺口,所述第三预设位置靠近所述缺口。
17.根据权利要求10所述的穿戴设备,其特征在于,所述处理器用于确定所述声音信息和所述振动信息的时间差;以及用于根据所述时间差确定所述身份信息。
18.根据权利要求17所述的穿戴设备,其特征在于,所述身份信息包括穿戴者和非穿戴者,所述时间差包括起始时间差,所述处理器用于根据所述声音信息的起始时刻和所述振动信息的起始时刻确定所述起始时间差;及用于在所述起始时间差小于或等于预设的时间阈值的情况下,确定所述身份信息为所述穿戴者;以及用于在所述起始时间差大于所述时间阈值的情况下,确定所述身份信息为所述非穿戴者。
19.根据权利要求17所述的穿戴设备,其特征在于,所述身份信息包括穿戴者和非穿戴者,所述时间差包括结束时间差,所述处理器用于根据所述声音信息的结束时刻和所述振动信息的结束时刻确定所述结束时间差;及用于在所述结束时间差小于或等于预设的时间阈值的情况下,确定所述身份信息为所述穿戴者;以及用于在所述结束时间差大于所述时间阈值的情况下,确定所述身份信息为所述非穿戴者。
20.根据权利要求10所述的穿戴设备,其特征在于,所述身份信息包括穿戴者和非穿戴者,所述处理器用于在所述身份信息为所述穿戴者的情况下,控制所述穿戴设备执行所述声音命令;以及用于在所述身份信息为所述非穿戴者的情况下,控制所述穿戴设备忽略所述声音命令。
21.根据权利要求10所述的穿戴设备,其特征在于,所述穿戴设备包括:
显示器;
设置在所述显示器一侧的屈光部件;和
连接所述屈光部件的调节机构,所述调节机构用于调节所述屈光部件的形态以调节所述屈光部件的屈光度。
22.一种穿戴设备,其特征在于,所述穿戴设备包括存储器和处理器,所述存储器存储有一个或多个程序,所述程序被所述处理器执行时实现权利要求1-8中任一项所述的穿戴设备的控制方法。
23.一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,其特征在于,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行权利要求1-8中任一项所述的穿戴设备的控制方法。
CN201910496570.7A 2019-06-10 2019-06-10 控制方法、控制装置、穿戴设备和存储介质 Pending CN112071311A (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201910496570.7A CN112071311A (zh) 2019-06-10 2019-06-10 控制方法、控制装置、穿戴设备和存储介质
JP2021571636A JP7413411B2 (ja) 2019-06-10 2020-05-19 制御方法、ウェアラブルデバイス及び記憶媒体
PCT/CN2020/090980 WO2020248778A1 (zh) 2019-06-10 2020-05-19 控制方法、穿戴设备和存储介质
EP20822293.5A EP3968320A4 (en) 2019-06-10 2020-05-19 ORDERING METHOD, WEARABLE DEVICE AND STORAGE MEDIA
KR1020217039094A KR20220002605A (ko) 2019-06-10 2020-05-19 제어 방법, 웨어러블 기기 및 저장 매체
US17/528,889 US20220076684A1 (en) 2019-06-10 2021-11-17 Method for Controlling Wearable Device, Wearable Device, and Storage Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910496570.7A CN112071311A (zh) 2019-06-10 2019-06-10 控制方法、控制装置、穿戴设备和存储介质

Publications (1)

Publication Number Publication Date
CN112071311A true CN112071311A (zh) 2020-12-11

Family

ID=73658196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910496570.7A Pending CN112071311A (zh) 2019-06-10 2019-06-10 控制方法、控制装置、穿戴设备和存储介质

Country Status (6)

Country Link
US (1) US20220076684A1 (zh)
EP (1) EP3968320A4 (zh)
JP (1) JP7413411B2 (zh)
KR (1) KR20220002605A (zh)
CN (1) CN112071311A (zh)
WO (1) WO2020248778A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112951236A (zh) * 2021-02-07 2021-06-11 北京有竹居网络技术有限公司 一种语音翻译设备及方法
CN112967723A (zh) * 2021-02-01 2021-06-15 珠海格力电器股份有限公司 身份确认方法及控制装置、睡眠参数检测方法及控制装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11553313B2 (en) 2020-07-02 2023-01-10 Hourglass Medical Llc Clench activated switch system
US11698678B2 (en) 2021-02-12 2023-07-11 Hourglass Medical Llc Clench-control accessory for head-worn devices
EP4327186A1 (en) 2021-04-21 2024-02-28 Hourglass Medical LLC Methods for voice blanking muscle movement controlled systems

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140378083A1 (en) * 2013-06-25 2014-12-25 Plantronics, Inc. Device Sensor Mode to Identify a User State
US20180113673A1 (en) * 2016-10-20 2018-04-26 Qualcomm Incorporated Systems and methods for in-ear control of remote devices
CN108629167A (zh) * 2018-05-09 2018-10-09 西安交通大学 一种结合可穿戴设备的多智能设备身份认证方法
CN108877813A (zh) * 2017-05-12 2018-11-23 阿里巴巴集团控股有限公司 人机识别的方法、装置和系统
CN109119080A (zh) * 2018-08-30 2019-01-01 Oppo广东移动通信有限公司 声音识别方法、装置、穿戴式设备及存储介质
US20190012448A1 (en) * 2017-07-07 2019-01-10 Cirrus Logic International Semiconductor Ltd. Methods, apparatus and systems for authentication
US20190012445A1 (en) * 2017-07-07 2019-01-10 Cirrus Logic International Semiconductor Ltd. Methods, apparatus and systems for authentication

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091466A (ja) * 2000-09-12 2002-03-27 Pioneer Electronic Corp 音声認識装置
JP2002358089A (ja) * 2001-06-01 2002-12-13 Denso Corp 音声処理装置及び音声処理方法
JP2005084253A (ja) * 2003-09-05 2005-03-31 Matsushita Electric Ind Co Ltd 音響処理装置、方法、プログラム及び記憶媒体
JP5943344B2 (ja) * 2012-07-12 2016-07-05 国立大学法人佐賀大学 健康管理システム、その方法及びプログラム並びに眼鏡型生体情報取得装置
WO2014158426A1 (en) * 2013-03-13 2014-10-02 Kopin Corporation Eye glasses with microphone array
US20140270259A1 (en) * 2013-03-13 2014-09-18 Aliphcom Speech detection using low power microelectrical mechanical systems sensor
US9564128B2 (en) * 2013-12-09 2017-02-07 Qualcomm Incorporated Controlling a speech recognition process of a computing device
JP2016127300A (ja) * 2014-12-26 2016-07-11 アイシン精機株式会社 音声処理装置
CN104657650A (zh) * 2015-01-06 2015-05-27 三星电子(中国)研发中心 用于数据输入或验证身份的方法及装置
CN104850222B (zh) * 2015-04-15 2018-02-16 郑德豪 一种指令识别方法及电子终端
US10896591B2 (en) * 2015-07-31 2021-01-19 Motorola Mobility Llc Eyewear with proximity sensors to detect outside line of sight presence and corresponding methods
US10007304B2 (en) * 2015-08-20 2018-06-26 Mediatek Inc. Portable device and related vibration detecting method
EP3196643A1 (en) * 2016-01-22 2017-07-26 Essilor International A head mounted device comprising an environment sensing module
US20170303052A1 (en) * 2016-04-18 2017-10-19 Olive Devices LLC Wearable auditory feedback device
WO2018061743A1 (ja) * 2016-09-28 2018-04-05 コニカミノルタ株式会社 ウェアラブル端末
CN108735219B (zh) * 2018-05-09 2021-08-31 深圳市宇恒互动科技开发有限公司 一种声音识别控制方法及装置
CN109064720B (zh) * 2018-06-27 2020-09-08 Oppo广东移动通信有限公司 位置提示方法、装置、存储介质及电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140378083A1 (en) * 2013-06-25 2014-12-25 Plantronics, Inc. Device Sensor Mode to Identify a User State
US20180113673A1 (en) * 2016-10-20 2018-04-26 Qualcomm Incorporated Systems and methods for in-ear control of remote devices
CN108877813A (zh) * 2017-05-12 2018-11-23 阿里巴巴集团控股有限公司 人机识别的方法、装置和系统
US20190012448A1 (en) * 2017-07-07 2019-01-10 Cirrus Logic International Semiconductor Ltd. Methods, apparatus and systems for authentication
US20190012445A1 (en) * 2017-07-07 2019-01-10 Cirrus Logic International Semiconductor Ltd. Methods, apparatus and systems for authentication
CN108629167A (zh) * 2018-05-09 2018-10-09 西安交通大学 一种结合可穿戴设备的多智能设备身份认证方法
CN109119080A (zh) * 2018-08-30 2019-01-01 Oppo广东移动通信有限公司 声音识别方法、装置、穿戴式设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967723A (zh) * 2021-02-01 2021-06-15 珠海格力电器股份有限公司 身份确认方法及控制装置、睡眠参数检测方法及控制装置
CN112951236A (zh) * 2021-02-07 2021-06-11 北京有竹居网络技术有限公司 一种语音翻译设备及方法

Also Published As

Publication number Publication date
JP7413411B2 (ja) 2024-01-15
EP3968320A1 (en) 2022-03-16
WO2020248778A1 (zh) 2020-12-17
KR20220002605A (ko) 2022-01-06
JP2022535250A (ja) 2022-08-05
EP3968320A4 (en) 2022-06-15
US20220076684A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
CN112071311A (zh) 控制方法、控制装置、穿戴设备和存储介质
JP6810795B2 (ja) 拡張および/または仮想現実ヘッドセット
US10123434B2 (en) Coupler and head mounted display device
US10261579B2 (en) Head-mounted display apparatus
EP3134825B1 (en) Head-worn computing systems
EP3418008A1 (en) Communication device, communication robot and computer-readable storage medium
US11307870B2 (en) Wearable device and method of controlling the same
US11234070B2 (en) Manufacturing a cartilage conduction audio device
KR20150093054A (ko) 변형 가능한 디스플레이를 포함하는 전자 장치 및 그의 운용 방법
WO2020238462A1 (zh) 控制方法、穿戴设备和存储介质
US9578423B2 (en) Electronic device and sound capturing method
US20150016638A1 (en) Isolation of audio transducer
US20170052802A1 (en) Wearable device and method of controlling the same
CN110398840B (zh) 调整光心距离的方法、头戴设备和存储介质
KR102127390B1 (ko) 무선 리시버 및 그 제어 방법
KR102579034B1 (ko) 영상 출력 모듈의 아래에 영상이 출력되는 방향에 대해 지정된 각도로 배치된 반 투명 부재를 포함하는 전자 장치
KR102614047B1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
CN112083796A (zh) 控制方法、头戴设备、移动终端和控制系统
CN115469748A (zh) 交互方法、交互装置、头戴设备和存储介质
CN111948807B (zh) 控制方法、控制装置、穿戴设备和存储介质
CN212694166U (zh) 一种头戴式显示设备
WO2023121987A1 (en) Software-based user interface element analogues for physical device elements
WO2020248777A1 (zh) 控制方法、头戴设备和服务器
JP2018092206A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
KR20240025383A (ko) 증강 현실 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination