CN116233588A - 一种智能眼镜交互系统及方法 - Google Patents

一种智能眼镜交互系统及方法 Download PDF

Info

Publication number
CN116233588A
CN116233588A CN202310518956.XA CN202310518956A CN116233588A CN 116233588 A CN116233588 A CN 116233588A CN 202310518956 A CN202310518956 A CN 202310518956A CN 116233588 A CN116233588 A CN 116233588A
Authority
CN
China
Prior art keywords
vibration
sound
sound wave
characteristic
waveform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310518956.XA
Other languages
English (en)
Other versions
CN116233588B (zh
Inventor
李焕贞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi University of Technology
Original Assignee
Jiangxi University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi University of Technology filed Critical Jiangxi University of Technology
Priority to CN202310518956.XA priority Critical patent/CN116233588B/zh
Publication of CN116233588A publication Critical patent/CN116233588A/zh
Application granted granted Critical
Publication of CN116233588B publication Critical patent/CN116233588B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明适用于智能设备技术领域,尤其涉及一种智能眼镜交互系统及方法,所述方法包括:接收触控指令,进入抓拍模式;采集声音信息和振动信息,绘制声音波形图和振动波形图;对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征;比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。本发明通过智能眼镜进行实时声音采集以及振动信息采集,以声波和振动信息作为判定依据,进行特征提取,判定是否进行抓拍操作,在此过程中,无需人工触控智能眼镜就能完成,因此操作简单,响应迅速,能够迅速完成抓拍,提高拍摄速度。

Description

一种智能眼镜交互系统及方法
技术领域
本发明属于智能设备技术领域,尤其涉及一种智能眼镜交互系统及方法。
背景技术
智能眼镜,也称智能镜,是指像智能手机一样,具有独立的操作系统,智能眼镜可以由用户安装软件、游戏等软件服务商提供的程序。
智能眼镜可通过语音或动作操控完成添加日程、地图导航、与好友互动、拍摄照片和视频、与朋友展开视频通话等功能,并可以通过移动通讯网络来实现无线网络接入的这样一类眼镜的总称。
在当前的智能眼镜中,进行拍摄操作只能是通过手动进行触控,若想要抓拍需要极快的速度才能完成。因此,现有的智能眼镜在交互过程中,操作繁琐,响应慢。
发明内容
本发明实施例的目的在于提供一种智能眼镜交互方法,旨在解决现有的智能眼镜在交互过程中,操作繁琐,响应慢的问题。
本发明实施例是这样实现的,一种智能眼镜交互方法,所述方法包括如下步骤:
接收触控指令,进入抓拍模式;
采集声音信息和振动信息,绘制声音波形图和振动波形图;
对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征;
比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。
优选的,所述采集声音信息和振动信息,绘制声音波形图和振动波形图的步骤,具体包括:
进入抓拍模式后,同步开启智能眼镜内的麦克风和振动传感器;
实时记录麦克风采集的声音信息,根据声音信息绘制声音波形图;
实时记录振动传感器采集的振动信息,根据振动信息绘制振动波形图,所述声音波形图和振动波形图均以时间作为横轴。
优选的,所述对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征的步骤,具体包括:
对声音波形图和振动波形图分别进行滤波处理;
对滤波处理后的声音波形图和振动波形图分别进行波形特征处理,得到音波特征和振动特征;
记录音波特征和振动特征各自对应的横轴坐标,得到特征时间信息。
优选的,所述比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄的步骤,具体包括:
将音波特征和振动特征分别与对应的预设波形特征进行比对,以分别得到有效音波特征和有效振动特征;
根据特征时间信息计算有效音波特征和有效振动特征之间的时间间隔;
判断时间间隔是否满足小于时间预设值的条件,且有效音波特征的波峰数量与有效振动特征的波峰数量是否相等,若同时满足,则判定执行抓拍指令。
优选的,抓拍时,进行连续拍摄,留存多组抓拍图像。
优选的,进入抓拍模式后,禁止智能眼镜扬声器发声。
本发明实施例的另一目的在于提供一种智能眼镜交互系统,所述系统包括:
模式切换模块,用于接收触控指令,进入抓拍模式;
信息采集模块,用于采集声音信息和振动信息,绘制声音波形图和振动波形图;
特征提取模块,用于对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征;
拍摄判定模块,用于比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。
优选的,所述信息采集模块包括:
设备控制单元,用于进入抓拍模式后,同步开启智能眼镜内的麦克风和振动传感器;
第一波形记录单元,用于实时记录麦克风采集的声音信息,根据声音信息绘制声音波形图;
第二波形记录单元,用于实时记录振动传感器采集的振动信息,根据振动信息绘制振动波形图,所述声音波形图和振动波形图均以时间作为横轴。
优选的,所述特征提取模块包括:
滤波单元,用于对声音波形图和振动波形图分别进行滤波处理;
特征识别单元,用于对滤波处理后的声音波形图和振动波形图分别进行波形特征处理,得到音波特征和振动特征;
信息记录单元,用于记录音波特征和振动特征各自对应的横轴坐标,得到特征时间信息。
优选的,所述拍摄判定模块包括:
特征判定单元,用于将音波特征和振动特征分别与预设波形特征进行比对,得到有效音波特征和有效振动特征;
间隔计算单元,用于根据特征时间信息计算有效音波特征和有效振动特征之间的时间间隔;
条件判定单元,用于判断时间间隔是否满足小于时间预设值的条件,且有效音波特征和有效振动特征数量是否满足等于数量预设值的条件,若同时满足,则判定执行抓拍指令。
本发明实施例提供的一种智能眼镜交互方法,通过智能眼镜进行实时声音采集以及振动信息采集,以声波和振动信息作为判定依据,进行特征提取,判定是否进行抓拍操作。在此过程中,无需人工触控智能眼镜就能完成,因此操作简单,响应迅速,能够迅速完成抓拍,提高拍摄速度。
附图说明
图1为本发明实施例提供的一种智能眼镜交互方法的流程图;
图2为本发明实施例提供的采集声音信息和振动信息,绘制声音波形图和振动波形图的步骤的流程图;
图3为本发明实施例提供的对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征的步骤的流程图;
图4为本发明实施例提供的比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄的步骤的流程图;
图5为本发明实施例提供的一种智能眼镜交互系统的架构图;
图6为本发明实施例提供的一种信息采集模块的架构图;
图7为本发明实施例提供的一种特征提取模块的架构图;
图8为本发明实施例提供的一种拍摄判定模块的架构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但除非特别说明,这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一xx脚本称为第二xx脚本,且类似地,可将第二xx脚本称为第一xx脚本。
智能眼镜可通过语音或动作操控完成添加日程、地图导航、与好友互动、拍摄照片和视频、与朋友展开视频通话等功能,并可以通过移动通讯网络来实现无线网络接入的这样一类眼镜的总称。在当前的智能眼镜中,进行拍摄操作只能是通过手动进行触控,若想要抓拍需要极快的速度才能完成,因此,现有的智能眼镜在交互过程中,操作繁琐,响应慢。
本发明通过智能眼镜进行实时声音采集以及振动信息采集,以声波和振动信息作为判定依据,进行特征提取,判定是否进行抓拍操作,在此过程中,无需人工触控智能眼镜就能完成,因此操作简单,响应迅速,能够迅速完成抓拍,提高拍摄速度。
如图1所示,为本发明实施例提供的一种智能眼镜交互方法的流程图,所述方法包括:
S100,接收触控指令,进入抓拍模式。
在本步骤中,接收触控指令,在需要进行抓拍的时候,提前对智能眼镜进行触控,开启抓拍开关,此时智能眼镜当即进入到抓拍模式中,此时设备就可以开始进行抓拍了。
S200,采集声音信息和振动信息,绘制声音波形图和振动波形图。
在本步骤中,采集声音信息和振动信息,用户佩戴智能眼镜之后,可以用手触控智能眼镜进行拍照,也可以通过叩齿的方式进行触发,在需要进行抓拍时,用户按照预设的叩齿次数进行叩齿,由于进入到抓拍模式之后,智能眼镜内的麦克风和振动传感器同步开启,利用麦克风采集外部声音,利用振动传感器测量智能眼镜感受到的振动,从而得到声音信息和振动信息,并同步绘制声音波形图和振动波形图。
S300,对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征。
在本步骤中,对声音波形图和振动波形图分别进行波形特征提取,在声音波形图和振动波形图中,包含有不同的波形,用户叩齿时,声音通过空气传递到麦克风当中,从而形成声音波形图,另一方面在用户叩齿时,骨骼也会发生振动,该振动将会传递至智能眼镜,并被振动传感器采集到,由于两者的音源相同,两者的振动频率应当相同,因此可以根据振动频率的变化从声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征。
S400,比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。
在本步骤中,比对音波特征和振动特征,虽然振动在不同介质中的传递速度不同,但是由于传输距离较短,两者之间的时间差并不大。因此,当音波特征和振动特征之间的时间差超过预设值时,则说明两者不属于同一个振动源,并且通过频率判定音波特征和振动特征是否匹配,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。由于振动或者声音的传输距离短,因此智能眼镜能够快速响应,从而启动相机进行拍摄,大大缩短了操作所需的时间,也简化了用户的操作。
如上所述,由于需要同时综合时间差以及频率来综合判断音波特征与振动特征是否属于同一个振动源。在本发明中,基于具体的时间差值以及频率差值计算得到一个综合差值,与预设差值进行比较,以判定音波特征与振动特征是否属于同一个振动源。
具体的,在本实施例中,综合差值的计算公式表示为:
Figure SMS_1
其中,
Figure SMS_4
表示计算得到的综合差值,/>
Figure SMS_7
表示第一权重系数,/>
Figure SMS_11
表示第二权重系数,/>
Figure SMS_5
、/>
Figure SMS_6
、/>
Figure SMS_10
与/>
Figure SMS_14
均表示常数,/>
Figure SMS_2
表示音波特征的开始时间点,/>
Figure SMS_8
表示音波特征的结束时间点,/>
Figure SMS_12
表示振动特征的开始时间点,/>
Figure SMS_15
表示振动特征的结束时间点,/>
Figure SMS_3
表示音波特征的持续时间,/>
Figure SMS_9
表示振动特征的持续时间,/>
Figure SMS_13
表示音波特征的频率,/>
Figure SMS_16
表示振动特征的频率。
如上所述,在计算得到了综合差值之后,将所计算得到的综合差值与预设差值进行比较,若综合差值大于等于预设差值,则判定当前的音波特征与振动特征不属于同一个振动源;若综合差值小于预设差值,则判定当前的音波特征与振动特征属于同一个振动源。可以理解的,通过该设置,可综合音波与振动,对当前音波特征与振动特征是否属于同一振动源进行较为准确地判定。
如图2所示,作为本发明的一个优选实施例,所述采集声音信息和振动信息,绘制声音波形图和振动波形图的步骤,具体包括:
S201,进入抓拍模式后,同步开启智能眼镜内的麦克风和振动传感器。
在本步骤中,进入抓拍模式后,同步开启智能眼镜内的麦克风和振动传感器,为了避免设备发生对麦克风和振动传感器造成影响,关闭智能眼镜的音频播放设备,减少干扰项。
S202,实时记录麦克风采集的声音信息,根据声音信息绘制声音波形图。
在本步骤中,实时记录麦克风采集的声音信息,麦克风开启之后,将不断进行声音录制,由于叩齿位置与麦克风之间的距离很近,因此其响度也必然较大。
S203,实时记录振动传感器采集的振动信息,根据振动信息绘制振动波形图,所述声音波形图和振动波形图均以时间作为横轴。
在本步骤中,实时记录振动传感器采集的振动信息,振动传感器能够收集智能眼镜振动过程中的振动情况,因此可以根据振动情况绘制振动波形图,无论是声音波形图还是振动波形图均以时间作为横轴,根据波形图即可确定振幅和频率。
如图3所示,作为本发明的一个优选实施例,所述对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征的步骤,具体包括:
S301,对声音波形图和振动波形图分别进行滤波处理。
在本步骤中,对声音波形图和振动波形图分别进行滤波处理,在绘制声音波形图之后,根据响度进行滤波处理,滤除低于预设响度的音频段,从而直接去除大部分杂音,对于振动波形图也进行滤波处理,降低用户移动导致的振动。
S302,对滤波处理后的声音波形图和振动波形图分别进行波形特征处理,得到音波特征和振动特征。
在本步骤中,对滤波处理后的声音波形图和振动波形图分别进行波形特征处理,用户叩齿具有特定的波形特征,即具有特定的频率范围,并且持续时间短,根据声音波形图和振动波形图中的频率变化确定音波特征和振动特征。
S303,记录音波特征和振动特征各自对应的横轴坐标,得到特征时间信息。
在本步骤中,记录音波特征和振动特征各自对应的横轴坐标,由于传输距离短,音波特征和振动特征之间应当是同步的,即使存在先后关系,其差值也较小,因此通过对音波特征和振动特征的时间进行记录,就可以确定二者之间的匹配关系,从而形成特征对。
如图4所示,作为本发明的一个优选实施例,所述比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄的步骤,具体包括:
S401,将音波特征和振动特征分别与对应的预设波形特征进行比对,以分别得到有效音波特征和有效振动特征。
在本步骤中,将音波特征和振动特征分别与对应的预设波形特征进行比对,比对两者的持续时间,并判断频率差值是否在预设范围内,将持续时间相同且频率差值在预设范围内的音波特征和振动特征作为有效音波特征和有效振动特征。
在本步骤中,有效音波特征的确定方法包括如下步骤:
S4011a,获取音波特征,从所述音波特征中筛选出振幅大于预设振幅的音波波峰并确定音波波峰的数量;
S4011b,获取每个音波波峰对应的振幅强度,以及每个音波波峰对应的音波波峰时间点;
S4011c,根据每个音波波峰对应的振幅强度以及标准振幅强度,计算得到每个音波波峰对应的振幅强度差值;
S4011d,根据每个音波波峰对应的音波波峰时间点,计算得到相邻的两个音波波峰之间的波峰时间间隔;
S4011e,根据多个振幅强度差值以及多个波峰时间间隔,计算得到音波特征质量评价分值。
具体的,在本实施例中,音波特征质量评价分值的公式表示为:
Figure SMS_17
其中,
Figure SMS_20
表示音波特征质量评价分值,/>
Figure SMS_19
表示振幅项的质量基础分值,/>
Figure SMS_29
表示时间间隔项的质量基础分值,/>
Figure SMS_25
表示第一校正系数,/>
Figure SMS_31
表示第二校正系数,/>
Figure SMS_23
表示音波波峰的数量,/>
Figure SMS_32
表示第/>
Figure SMS_26
个音波波峰对应的振幅强度,/>
Figure SMS_28
表示标准振幅强度,/>
Figure SMS_18
表示波峰时间间隔的序号,/>
Figure SMS_30
表示第/>
Figure SMS_21
个波峰时间间隔,/>
Figure SMS_27
表示标准时间间隔值,/>
Figure SMS_24
Figure SMS_33
,/>
Figure SMS_22
在此需要补充说明的是,对于
Figure SMS_34
而言,当/>
Figure SMS_35
为/>
Figure SMS_36
时,表示第1个音波波峰与第2个音波波峰之间的波峰时间间隔。
可以理解的,在本发明中,由于同时考虑了音波波峰的振幅强度以及相邻两个音波波峰之间的波峰时间间隔,根据预设的计算公式,可以计算出音波特征质量评价分值。然后对音波特征质量评价分值大于预设评分值的音波波峰进行筛选,以得到符合质量要求的音波波峰,确保所筛选得到的音波特征是有效的。
S402,根据特征时间信息计算有效音波特征和有效振动特征之间的时间间隔。
具体的,在本步骤中,判断有效音波特征的开始时间点与有效振动特征的开始时间点之间的差值是否在第一预设时间间隔内,以及判断有效音波特征的结束时间点与有效振动特征的结束时间点之间的差值是否在第二预设时间间隔内。
可以理解的,若有效音波特征的开始时间点与有效振动特征的开始时间点之间的差值在第一预设时间间隔内,且有效音波特征的结束时间点与有效振动特征的结束时间点之间的差值在第二预设时间间隔内,则可在时间层面判定音波与振动的发生属于同一振动源。
S403,判断时间间隔是否满足小于时间预设值的条件,且有效音波特征的波峰数量与有效振动特征的波峰数量是否相等,若同时满足,则判定执行抓拍指令。
在本步骤中,将同一时间发生的有效音波特征和有效振动特征进行保留,并计算两者之间的时间差,若起始时间差值大于时间预设值则舍弃。同样的,判断有效音波特征的波峰数量与有效振动特征的波峰数量是否相等,若不相等,也将其舍弃。例如,设定叩齿两下启动拍照,而检测到有效音波特征和有效振动特征数量为三次,则不执行抓拍;抓拍时,进行连续拍摄,留存多组抓拍图像。
如图5所示,作为本发明的一个优选实施例,一种智能眼镜交互系统,所述系统包括:
模式切换模块100,用于接收触控指令,进入抓拍模式。
在本系统中,模式切换模块100接收触控指令,在需要进行抓拍的时候,提前对智能眼镜进行触控,开启抓拍开关,此时智能眼镜当即进入到抓拍模式中,此时设备就可以开始进行抓拍了。
信息采集模块200,用于采集声音信息和振动信息,绘制声音波形图和振动波形图。
在本系统中,信息采集模块200采集声音信息和振动信息,用户佩戴智能眼镜之后,可以用手触控智能眼镜进行拍照,也可以通过叩齿的方式进行触发,在需要进行抓拍时,用户按照预设的叩齿次数进行叩齿,由于进入到抓拍模式之后,智能眼镜内的麦克风和振动传感器同步开启,利用麦克风采集外部声音,利用振动传感器测量智能眼镜感受到的振动,从而得到声音信息和振动信息,并同步绘制声音波形图和振动波形图。
特征提取模块300,用于对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征。
在本系统中,特征提取模块300对声音波形图和振动波形图分别进行波形特征提取,在声音波形图和振动波形图中,包含有不同的波形,用户叩齿时,声音通过空气传递到麦克风当中,从而形成声音波形图,另一方面在用户叩齿时,骨骼也会发生振动,该振动将会传递至智能眼镜,并被振动传感器采集到,由于两者的音源相同,两者的振动频率应当相同,因此可以根据振动频率的变化从声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征。
拍摄判定模块400,用于比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。
在本系统中,拍摄判定模块400比对音波特征和振动特征,虽然振动在不同介质中的传递速度不同,但是由于传输距离较短,两者之间的时间差并不大,因此,当音波特征和振动特征之间的时间差超过预设值时,则说明两者不属于同一个振动源,并且通过频率判定音波特征和振动特征是否匹配,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令,由于振动或者声音的传输距离短,因此智能眼镜能够快速响应,从而启动相机进行拍摄,大大缩短了操作所需的时间,也简化了用户的操作。
如图6所示,作为本发明的一个优选实施例,所述信息采集模块200包括:
设备控制单元201,用于进入抓拍模式后,同步开启智能眼镜内的麦克风和振动传感器。
在本模块中,设备控制单元201进入抓拍模式后,同步开启智能眼镜内的麦克风和振动传感器,为了避免设备发生对麦克风和振动传感器造成影响,关闭智能眼镜的音频播放设备,减少干扰项。
第一波形记录单元202,用于实时记录麦克风采集的声音信息,根据声音信息绘制声音波形图。
在本模块中,第一波形记录单元202实时记录麦克风采集的声音信息,麦克风开启之后,将不断进行声音录制,由于叩齿位置与麦克风之间的距离很近,因此其响度也必然较大。
第二波形记录单元203,用于实时记录振动传感器采集的振动信息,根据振动信息绘制振动波形图,所述声音波形图和振动波形图均以时间作为横轴。
在本模块中,第二波形记录单元203实时记录振动传感器采集的振动信息,振动传感器能够收集智能眼镜振动过程中的振动情况,因此可以根据振动情况绘制振动波形图,无论是声音波形图还是振动波形图均以时间作为横轴,根据波形图即可确定振幅和频率。
如图7所示,作为本发明的一个优选实施例,所述特征提取模块300包括:
滤波单元301,用于对声音波形图和振动波形图分别进行滤波处理。
在本模块中,滤波单元301对声音波形图和振动波形图分别进行滤波处理,在绘制声音波形图之后,根据响度进行滤波处理,滤除低于预设响度的音频段,从而直接去除大部分杂音,对于振动波形图也进行滤波处理,降低用户移动导致的振动。
特征识别单元302,用于对滤波处理后的声音波形图和振动波形图分别进行波形特征处理,得到音波特征和振动特征。
在本模块中,特征识别单元302对滤波处理后的声音波形图和振动波形图分别进行波形特征处理,用户叩齿具有特定的波形特征,即具有特定的频率范围,并且持续时间短,根据声音波形图和振动波形图中的频率变化确定音波特征和振动特征。
信息记录单元303,用于记录音波特征和振动特征各自对应的横轴坐标,得到特征时间信息。
在本模块中,信息记录单元303记录音波特征和振动特征各自对应的横轴坐标,由于传输距离短,音波特征和振动特征之间应当是同步的,即使存在先后关系,其差值也较小,因此通过对音波特征和振动特征的时间进行记录,就可以确定二者之间的匹配关系,从而形成特征对。
如图8所示,作为本发明的一个优选实施例,所述拍摄判定模块400包括:
特征判定单元401,用于将音波特征和振动特征分别与预设波形特征进行比对,得到有效音波特征和有效振动特征。
在本模块中,特征判定单元401将音波特征和振动特征分别与预设波形特征进行比对,比对两者的持续时间,并判断频率差值是否在预设范围内,将持续时间相同且频率差值是否在预设范围内的音波特征和振动特征作为有效音波特征和有效振动特征。
间隔计算单元402,用于根据特征时间信息计算有效音波特征和有效振动特征之间的时间间隔。
条件判定单元403,用于判断时间间隔是否满足小于时间预设值的条件,且有效音波特征和有效振动特征数量是否满足等于数量预设值的条件,若同时满足,则判定执行抓拍指令。
在本模块中,将同一时间发生的有效音波特征和有效振动特征进行保留,并计算两者之间的时间差,若起始时间差值大于时间预设值则舍弃,同样的,有效振动特征数量是否不等于数量预设值,也将其舍弃,如设定叩齿两下启动拍照,而检测到有效音波特征和有效振动特征数量为三次,则不执行抓拍;抓拍时,进行连续拍摄,留存多组抓拍图像。
在一个实施例中,提出了一种计算机设备,所述计算机设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
接收触控指令,进入抓拍模式;
采集声音信息和振动信息,绘制声音波形图和振动波形图;
对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征;
比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。
在一个实施例中,提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:
接收触控指令,进入抓拍模式;
采集声音信息和振动信息,绘制声音波形图和振动波形图;
对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征;
比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种智能眼镜交互方法,其特征在于,所述方法包括如下步骤:
接收触控指令,进入抓拍模式;
采集声音信息和振动信息,绘制声音波形图和振动波形图;
对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征;
比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。
2.根据权利要求1所述的智能眼镜交互方法,其特征在于,所述采集声音信息和振动信息,绘制声音波形图和振动波形图的步骤,具体包括:
进入抓拍模式后,同步开启智能眼镜内的麦克风和振动传感器;
实时记录麦克风采集的声音信息,根据声音信息绘制声音波形图;
实时记录振动传感器采集的振动信息,根据振动信息绘制振动波形图,所述声音波形图和振动波形图均以时间作为横轴。
3.根据权利要求1所述的智能眼镜交互方法,其特征在于,所述对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征的步骤,具体包括:
对声音波形图和振动波形图分别进行滤波处理;
对滤波处理后的声音波形图和振动波形图分别进行波形特征处理,得到音波特征和振动特征;
记录音波特征和振动特征各自对应的横轴坐标,得到特征时间信息。
4.根据权利要求3所述的智能眼镜交互方法,其特征在于,判断音波特征与振动特征是否属于同一个振动源的方法包括如下步骤:
根据音波特征的开始时间点、音波特征的结束时间点、音波特征的持续时间与音波特征的频率,以及振动特征的开始时间点、振动特征的结束时间点、振动特征的持续时间与振动特征的频率计算得到综合差值;
若综合差值大于等于预设差值,则判定当前的音波特征与振动特征不属于同一个振动源;
若综合差值小于预设差值,则判定当前的音波特征与振动特征属于同一个振动源。
5.根据权利要求4所述的智能眼镜交互方法,其特征在于,综合差值的计算公式表示为:
Figure QLYQS_1
其中,
Figure QLYQS_3
表示计算得到的综合差值,/>
Figure QLYQS_9
表示第一权重系数,/>
Figure QLYQS_15
表示第二权重系数,
Figure QLYQS_5
、/>
Figure QLYQS_8
、/>
Figure QLYQS_12
与/>
Figure QLYQS_16
均表示常数,/>
Figure QLYQS_2
表示音波特征的开始时间点,/>
Figure QLYQS_7
表示音波特征的结束时间点,/>
Figure QLYQS_11
表示振动特征的开始时间点,/>
Figure QLYQS_14
表示振动特征的结束时间点,/>
Figure QLYQS_4
表示音波特征的持续时间,
Figure QLYQS_6
表示振动特征的持续时间,/>
Figure QLYQS_10
表示音波特征的频率,/>
Figure QLYQS_13
表示振动特征的频率。
6.根据权利要求5所述的智能眼镜交互方法,其特征在于,所述比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄的步骤,具体包括:
将音波特征和振动特征分别与对应的预设波形特征进行比对,以分别得到有效音波特征和有效振动特征;
根据特征时间信息计算有效音波特征和有效振动特征之间的时间间隔;
判断时间间隔是否满足小于时间预设值的条件,且有效音波特征的波峰数量与有效振动特征的波峰数量是否相等,若同时满足,则判定执行抓拍指令。
7.根据权利要求6所述的智能眼镜交互方法,其特征在于,有效音波特征的确定方法包括如下步骤:
获取音波特征,从所述音波特征中筛选出振幅大于预设振幅的音波波峰并确定音波波峰的数量;
获取每个音波波峰对应的振幅强度,以及每个音波波峰对应的音波波峰时间点;
根据每个音波波峰对应的振幅强度以及标准振幅强度,计算得到每个音波波峰对应的振幅强度差值;
根据每个音波波峰对应的音波波峰时间点,计算得到相邻的两个音波波峰之间的波峰时间间隔;
根据多个振幅强度差值以及多个波峰时间间隔,计算得到音波特征质量评价分值。
8.根据权利要求7所述的智能眼镜交互方法,其特征在于,音波特征质量评价分值的公式表示为:
Figure QLYQS_17
其中,
Figure QLYQS_22
表示音波特征质量评价分值,/>
Figure QLYQS_21
表示振幅项的质量基础分值,/>
Figure QLYQS_29
表示时间间隔项的质量基础分值,/>
Figure QLYQS_25
表示第一校正系数,/>
Figure QLYQS_33
表示第二校正系数,/>
Figure QLYQS_23
表示音波波峰的数量,/>
Figure QLYQS_30
表示第/>
Figure QLYQS_24
个音波波峰对应的振幅强度,/>
Figure QLYQS_31
表示标准振幅强度,/>
Figure QLYQS_18
表示波峰时间间隔的序号,
Figure QLYQS_27
表示第/>
Figure QLYQS_19
个波峰时间间隔,/>
Figure QLYQS_28
表示标准时间间隔值,/>
Figure QLYQS_26
,/>
Figure QLYQS_32
Figure QLYQS_20
9.一种智能眼镜交互系统,其特征在于,所述系统应用如上述权利要求1至8任一项所述的一种智能眼镜交互方法,所述系统包括:
模式切换模块,用于接收触控指令,进入抓拍模式;
信息采集模块,用于采集声音信息和振动信息,绘制声音波形图和振动波形图;
特征提取模块,用于对声音波形图和振动波形图分别进行波形特征提取,得到音波特征和振动特征;
拍摄判定模块,用于比对音波特征和振动特征,并比较两者的发生时间,判定是否进行拍摄,当音波特征和振动特征相匹配,且发生时间间隔小于预设值,则执行抓拍命令。
10.根据权利要求9所述的智能眼镜交互系统,其特征在于,所述信息采集模块包括:
设备控制单元,用于进入抓拍模式后,同步开启智能眼镜内的麦克风和振动传感器;
第一波形记录单元,用于实时记录麦克风采集的声音信息,根据声音信息绘制声音波形图;
第二波形记录单元,用于实时记录振动传感器采集的振动信息,根据振动信息绘制振动波形图,所述声音波形图和振动波形图均以时间作为横轴;
所述特征提取模块包括:
滤波单元,用于对声音波形图和振动波形图分别进行滤波处理;
特征识别单元,用于对滤波处理后的声音波形图和振动波形图分别进行波形特征处理,得到音波特征和振动特征;
信息记录单元,用于记录音波特征和振动特征各自对应的横轴坐标,得到特征时间信息;
所述拍摄判定模块包括:
特征判定单元,用于将音波特征和振动特征分别与预设波形特征进行比对,得到有效音波特征和有效振动特征;
间隔计算单元,用于根据特征时间信息计算有效音波特征和有效振动特征之间的时间间隔;
条件判定单元,用于判断时间间隔是否满足小于时间预设值的条件,且有效音波特征和有效振动特征数量是否满足等于数量预设值的条件,若同时满足,则判定执行抓拍指令。
CN202310518956.XA 2023-05-10 2023-05-10 一种智能眼镜交互系统及方法 Active CN116233588B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310518956.XA CN116233588B (zh) 2023-05-10 2023-05-10 一种智能眼镜交互系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310518956.XA CN116233588B (zh) 2023-05-10 2023-05-10 一种智能眼镜交互系统及方法

Publications (2)

Publication Number Publication Date
CN116233588A true CN116233588A (zh) 2023-06-06
CN116233588B CN116233588B (zh) 2023-07-14

Family

ID=86589637

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310518956.XA Active CN116233588B (zh) 2023-05-10 2023-05-10 一种智能眼镜交互系统及方法

Country Status (1)

Country Link
CN (1) CN116233588B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105182535A (zh) * 2015-09-28 2015-12-23 大连楼兰科技股份有限公司 使用智能眼镜进行汽车维保的方法
US20160070378A1 (en) * 2013-04-10 2016-03-10 Commissariat A L'energie Atomique Et Aux Energies Alternatives Device and method for audible and tactile interaction between objects
KR20170026922A (ko) * 2015-08-31 2017-03-09 한양대학교 에리카산학협력단 뇌파를 이용한 스마트 글라스의 구동 방법
CN109481248A (zh) * 2018-12-26 2019-03-19 浙江师范大学 一种智能导盲眼镜
CN112269468A (zh) * 2020-10-23 2021-01-26 深圳市恒必达电子科技有限公司 基于蓝牙、2.4g、wifi连接获取云端资讯的人机交互智能眼镜、方法及其平台
CN212460195U (zh) * 2020-06-30 2021-02-02 科大讯飞股份有限公司 智能眼镜

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160070378A1 (en) * 2013-04-10 2016-03-10 Commissariat A L'energie Atomique Et Aux Energies Alternatives Device and method for audible and tactile interaction between objects
KR20170026922A (ko) * 2015-08-31 2017-03-09 한양대학교 에리카산학협력단 뇌파를 이용한 스마트 글라스의 구동 방법
CN105182535A (zh) * 2015-09-28 2015-12-23 大连楼兰科技股份有限公司 使用智能眼镜进行汽车维保的方法
CN109481248A (zh) * 2018-12-26 2019-03-19 浙江师范大学 一种智能导盲眼镜
CN212460195U (zh) * 2020-06-30 2021-02-02 科大讯飞股份有限公司 智能眼镜
CN112269468A (zh) * 2020-10-23 2021-01-26 深圳市恒必达电子科技有限公司 基于蓝牙、2.4g、wifi连接获取云端资讯的人机交互智能眼镜、方法及其平台

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TIBOR VINCE: "Design and Implementation of Smart Glasses Solution in Electromechanical Systems", 2021 IEEE INTERNATIONAL CONFERENCE ON MODERN ELECTRICAL AND ENERGY SYSTEMS (MEES) *
单祥茹;: "earSmart类语音产品即将迎来市场的春天", 中国电子商情(基础电子), no. 07 *

Also Published As

Publication number Publication date
CN116233588B (zh) 2023-07-14

Similar Documents

Publication Publication Date Title
CN106210219B (zh) 降噪方法及装置
JP5594133B2 (ja) 音声信号処理装置、音声信号処理方法及びプログラム
CN105491642B (zh) 网络连接的方法和装置
CN105205494B (zh) 相似图片识别方法及装置
CN105578097A (zh) 一种录像方法及终端
US9495950B2 (en) Audio signal processing device, imaging device, audio signal processing method, program, and recording medium
CN103051838A (zh) 一种摄像控制方法及装置
CN106409317B (zh) 梦话提取方法、装置及用于提取梦话的装置
CN108769769A (zh) 视频的播放方法、装置及计算机可读存储介质
CN106782625B (zh) 音频处理方法和装置
US20220343931A1 (en) Information processing method, electronic equipment, and storage medium
CN116233588B (zh) 一种智能眼镜交互系统及方法
WO2022068304A1 (zh) 音质检测方法及装置
CN112165591B (zh) 一种音频数据的处理方法、装置及电子设备
CN105764372B (zh) 一种拍摄方法以及智能手环
JP2002034092A (ja) 収音装置
JP2018006826A (ja) 音声信号処理装置および音声信号処理方法
US20230067271A1 (en) Information processing method and electronic device
CN111627412B (zh) 音频变速方法、装置、电子设备和计算机可读存储介质
CN113689873A (zh) 噪声抑制方法、装置及电子设备和存储介质
CN108766486B (zh) 一种控制方法、装置及电子设备
CN115604539A (zh) 视频分割方法、电子设备以及存储介质
CN111933174A (zh) 语音处理方法、装置、设备和系统
CN112584225A (zh) 视频录制处理方法、视频播放控制方法及电子设备
CN111583934A (zh) 一种数据处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant