CN106653059A - 婴儿啼哭原因的自动识别方法及其系统 - Google Patents

婴儿啼哭原因的自动识别方法及其系统 Download PDF

Info

Publication number
CN106653059A
CN106653059A CN201611014119.XA CN201611014119A CN106653059A CN 106653059 A CN106653059 A CN 106653059A CN 201611014119 A CN201611014119 A CN 201611014119A CN 106653059 A CN106653059 A CN 106653059A
Authority
CN
China
Prior art keywords
crying
baby
probability
time
reason
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611014119.XA
Other languages
English (en)
Other versions
CN106653059B (zh
Inventor
沈晓明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XinHua Hospital Affiliated To Shanghai JiaoTong University School of Medicine
Original Assignee
沈晓明
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 沈晓明 filed Critical 沈晓明
Priority to CN201611014119.XA priority Critical patent/CN106653059B/zh
Publication of CN106653059A publication Critical patent/CN106653059A/zh
Application granted granted Critical
Publication of CN106653059B publication Critical patent/CN106653059B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/72Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及婴儿护理领域,公开了一种婴儿啼哭原因的自动识别方法及其系统。可以使缺少育儿经验的年轻父母较为准确地知道啼哭的原因。本发明的方法包括以下步骤:录制婴儿啼哭声音,得到哭声音频信号;从该哭声音频信号提取时频特征,根据该时频特征和预先训练所得的分类器,得到该时频特征对应于预先设定的不同啼哭原因的概率;在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。

Description

婴儿啼哭原因的自动识别方法及其系统
技术领域
本发明涉及婴儿护理领域,特别涉及婴儿啼哭原因的自动识别技术。
背景技术
啼哭是婴儿的第一种发音方式,也是小婴儿与外界沟通的唯一方式。有经验的妈妈和医生能够通过婴儿哭声了解婴儿的情绪,需求和健康。由于现代社会出生率的下降,很多妈妈只有一个孩子,缺少相关的经验,急需技术手段来帮助年轻的妈妈们通过哭声来了解婴儿的需求。
随着计算机技术和通信技术的发展,已经出现了一些相关的技术方案。例如,录入的婴儿啼哭,转换为计算机可读的格式,通过过滤数字信号,预估基础频率,润滑数字信号,消除异常值,获得相应的声学分析参数来对婴儿啼哭原因进行识别。
然而本发明的发明人发现,目前的技术方案都是只能给出一个啼哭原因(从多个啼哭原因中选出一个显示,或判断是否属于某个特定的啼哭原因),而且实际使用时这个啼哭原因的准确性往往远不如宣称的那么高,没有经验的年轻妈妈往往尝试解决这个原因之后婴儿还在继续啼哭,从而更为慌乱。
发明内容
本发明的目的在于提供一种婴儿啼哭原因的自动识别方法及其系统,可以使缺少育儿经验的年轻父母较为准确地知道婴儿啼哭的原因。
为解决上述技术问题,本发明的实施方式公开了一种婴儿啼哭原因的自动识别方法,包括以下步骤:
录制婴儿啼哭声音,得到哭声音频信号;
从该哭声音频信号提取时频特征,根据该时频特征和预先训练所得的分类器,得到该时频特征对应于预先设定的不同啼哭原因的概率;
在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
在另一个优选例中,“在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率”的步骤中,以饼图的方式显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
在另一个优选例中,预先设定的不同啼哭原因包括以下原因之一或其任意组合:
饥饿,想睡觉,不适,尿布湿。
在另一个优选例中,“在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率”的步骤包括以下子步骤:
筛选出概率大于预定门限的啼哭原因;
在终端屏幕上显示筛选出的各啼哭原因。
在另一个优选例中,预先设定周龄和啼哭集中时段的第一对应关系;
在“得到时频特征对应于预先设定的不同啼哭原因的概率”的步骤之后还包括以下步骤:
获取发生啼哭时婴儿的周龄和啼哭时间;
根据所获取的周龄查寻第一对应关系,得到对应的啼哭集中时段;
如果啼哭时间落在查寻所得的啼哭集中时段内,则减少病理原因的概率,否则增加病理原因的概率。
在另一个优选例中,在“得到时频特征对应于预先设定的不同啼哭原因的概率”的步骤之后还包括以下步骤:
检测哭声音频信号的音调;
如果检测结果为音调在啼哭开始后的预定时长内达到频率的峰值,且婴儿的月龄小于预定阈值,则增加疼痛原因的概率。
在另一个优选例中,还包括以下步骤:
在录制婴儿啼哭声音的同时,拍摄婴儿脸部的视频;
对该视频进行图像分析,得到婴儿眼晴的开合状态;
如果在婴儿啼哭的过程中,婴儿眼晴处于闭合状态的总时间大于预定门限,则增加疼痛原因的概率。
在另一个优选例中,预先设定周龄和24小时啼哭总时间上限的第二对应关系;
在“得到时频特征对应于预先设定的不同啼哭原因的概率”的步骤之后还包括以下步骤:
统计该婴儿最近24小时内的啼哭总时间;
根据该婴儿的周龄查询第二对应关系,得到24小时啼哭总时间上限;
如果该啼哭总时间大于该24小时啼哭总时间上限,则增加增加病理原因的概率。
在另一个优选例中,在“得到时频特征对应于预先设定的不同啼哭原因的概率”的步骤之后还包括以下步骤:
获取啼哭发生时间距上次哺乳时间的时间间隔;
如果该时间间隔大于预定门限,则增加饥饿原因的概率。
本发明的实施方式还公开了一种婴儿啼哭原因的自动识别系统,录制单元,用于录制婴儿啼哭声音,得到哭声音频信号;
分析单元,用于从该哭声音频信号提取时频特征,根据该时频特征和预先训练所得的分类器,得到该时频特征对应于预先设定的不同啼哭原因的概率;
显示单元,用于在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
在另一个优选例中,显示单元以饼图的方式显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
在另一个优选例中,还包括:
第一存储单元,用于存储预先设定的周龄和啼哭集中时段的第一对应关系;
第一信息获取单元,用于获取发生啼哭时婴儿的周龄和啼哭时间;
第一查询单元,用于根据所获取的周龄查寻第一对应关系,得到对应的啼哭集中时段;
第一调整单元,用于判断啼哭时间是否落在查寻所得的啼哭集中时段内,如果是则减少病理原因的概率,否则增加病理原因的概率。
在另一个优选例中,还包括:
音调检测单元,用于检测哭声音频信号的音调;
第二调整单元,用于判断检测结果是否为音调在啼哭开始后的预定时长内达到频率的峰值,且婴儿的月龄小于预定阈值,如果是则增加疼痛原因的概率。
在另一个优选例中,视频拍摄单元,用于在录制婴儿啼哭声音的同时,拍摄婴儿脸部的视频;
眼部分析单元,用于对该视频进行图像分析,得到婴儿眼晴的开合状态;
第三调整单元,用于判断在婴儿啼哭的过程中是否婴儿眼晴处于闭合状态的总时间大于预定门限,如果是则增加疼痛原因的概率。
在另一个优选例中,还包括:
第二存储单元,用于存储预先设定的周龄和24小时啼哭总时间上限的第二对应关系;
啼哭时间统计单元,用于统计该婴儿最近24小时内的啼哭总时间;
第二查询单元,用于根据该婴儿的周龄查询第二对应关系,得到24小时啼哭总时间上限;
第四调整单元,用于判断该啼哭总时间是否大于该24小时啼哭总时间上限,如果是则增加增加病理原因的概率。
在另一个优选例中,还包括:
哺乳信息获取单元,用于获取啼哭发生时间距上次哺乳时间的时间间隔;
第五调整单元,用于判断该时间间隔是否大于预定门限,如果是则增加饥饿原因的概率。
本发明实施方式与现有技术相比,至少具有以下区别和效果:
将婴儿啼哭声音的时频特征输入预先训练所得的分类器,得到不同啼哭原因的概率,并显示多种啼哭原因及其概率,可以使缺少育儿经验的父母较为准确地知道啼哭的可能原因,从而从最大可能性开始逐一排除引起啼哭的诱因,使无法以语言表达的婴儿得到及时而有效的照顾。在一些不利环境下(如噪声较大的环境),自动判断的准确性会有一定的下降,因为在终端屏幕上显示有多种啼哭原因,所以有较好的容错性,不会因为终端偶而的误判而使缺少育儿经验的父母失去方向。
进一步地,根据周龄和婴儿啼哭发生的时段对生理、病理原因的概率进行修正,可以进一步提高婴儿啼哭原因分析的准确性。
进一步地,结合月龄,根据音调和节奏的变化情况对疼痛和其它原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。
进一步地,根据婴儿眼睛的闭合情况对疼痛原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。
进一步地,统计一天中的总的啼哭时间,结合周龄,对生理、病理原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。
进一步地,结合距离上次哺乳的时间来调整饥饿原因的概率,可以进一步提高对婴儿啼哭原因分析的准确性。
附图说明
图1是本发明第一实施方式中一种婴儿啼哭原因的自动识别方法的流程示意图。
图2是本发明第一实施方式中婴儿啼哭原因显示界面示意图。
图3是本发明第四实施方式中一种婴儿啼哭原因的自动识别方法的流程示意图。
图4是本发明第七实施方式中一种婴儿啼哭原因的自动识别系统的结构示意图。
具体实施方式
在以下的叙述中,为了使读者更好地理解本申请而提出了许多技术细节。但是,本领域的普通技术人员可以理解,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请各权利要求所要求保护的技术方案。
相关术语:
时频特征:音频信号经过时频分析(Time-frequency analysis)后,在时频平面(time-frequency plane)的各种形态和参数。时频分析可以包括傅里叶变换等各种分析算法。
特别要说明的是,本发明所称各种啼哭原因都是指可能性,尤其是“病理”啼哭原因并非指确认为患病,更不是指确定为患有某一种疾病,只是说明患病的可能性较大,建议到医院检查,以免因为婴儿家长没有育儿经验而耽误病情。
本发明的发明人发现,现有技术中虽然已经有不少识别婴儿啼哭原因的技术,但其所宣称的识别准确率往往是在实验室条件下针对某个特定的啼哭原因取得的,一旦录音时有较多的噪音,或者录音的方式不专业,则判断的准确率会下降很多,给出的啼哭原因会不准确,甚至会误导没有经验的年轻妈妈。
另外现有技术中往往是针对一个特定原因来训练的,例如,知道这个婴儿是痛了(例如用工具使婴儿疼痛),录下对应的啼哭声音用于训练。这样的训练结果都是针对单个原因的。而实际应用过程中,可能婴儿的啼哭背后同时有几个原因推动,例如,一个婴儿饿了,哭着哭着没人及时处理又困了,此时,无论显示哪一个原因,即使是准确的(如饿了或困了),没有经验的年轻妈妈按照此原因进行处理后婴儿还是会继续啼哭,年轻妈妈就会觉得这个软件不准,没有用。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的实施方式作进一步地详细描述。
本发明第一实施方式涉及一种婴儿啼哭原因的自动识别方法。图1是该婴儿啼哭原因的自动识别方法的流程示意图。
在步骤101中,录制婴儿啼哭声音,得到哭声音频信号。
在一个优选例中,以移动终端(如智能手机、平板电脑等)进行啼哭声录制和显示。在另一些实施方式中,也可以使用其它设备,如PC、专用终端等进行录制和显示。
此后进入步骤102,从该哭声音频信号提取时频特征,根据该时频特征和预先训练所得的分类器,得到该时频特征对应于预先设定的不同啼哭原因的概率。
在一个优选例中,预先设定的不同啼哭原因包括以下原因之一或其任意组合:
饥饿,想睡觉,不适,尿布湿。
在另一优选例中,预先设定的不同啼哭原因包括以下原因中的任意两种或更多种:
病理,饥饿,想睡觉,不舒服,肚子胀气,想打隔,疼痛,害怕,烦躁,尿布湿,等等。
此后进入步骤103,在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。在一个优选例中,如图2所示,以饼图的方式显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。在其它实施方式中,还可以以其它的图文方式是示啼哭原因及其概率,例如以直方图的方式显示,以文字方式显示等等。
将婴儿啼哭声音的时频特征输入预先训练所得的分类器,得到不同啼哭原因的概率,并显示多种啼哭原因及其概率,可以使缺少育儿经验的父母较为准确地知道啼哭的可能原因,从而从最大可能性开始逐一排除引起啼哭的诱因,使无法以语言表达的婴儿得到及时而有效的照顾。在一些不利环境下(如噪声较大的环境),自动判断的准确性会有一定的下降,然而因为本实施方式在终端屏幕上显示有多种啼哭原因,所以有较好的容错性,不会因为终端偶而的误判而使缺少育儿经验的父母失去方向。
可以理解,上述技术方案具体实现时可以有多种形式和细节上的变化,下面举一些变化的例子。
在一个实施方式中,以上技术方案可以由智能手机的一个APP实现。分类器的训练在云端服务器实现。训练所使用的数据由智能手机采集到云端服务器。
在一个实施方式中,啼哭原因的分析在移动终端上进行。
在一个实施方式中,由移动终端录音后将音频信号发送到云端,由云端服务器分析得到原因后发送到移动终端显示。
在一个实施方式中,由移动终端录音并从哭声音频信号提出时频特征,将时频特征发送云端服务器进行原因分析,将云端服务器将分析所得的原因发送到移动终端显示。
在一个实施方式中,分类器所要区别的类别是预先设定好的N个类别(N为大于2的整数),可以以预先录制的啼哭音频的时频特征和已知的该啼哭音频的诱发原因作为数据源进行训练。训练结束后,给经训练的分类器输入一个啼哭音频的时频特征,该分类器可以输出对应于N个类别(啼哭原因)的N个概率。
在一个实施方式中,分类器可以经数据训练获得N个模型(对应于N个类别的啼哭原因),在给经训练的分类器输入一个啼哭音频的时频特征时,分类器可以计算N个模型中的时频特征与输入的时频特征的相似度,根据相似度计算对应于N个类别的N个概率。
在一个实施方式中,分类器是基于深度神经网络实现的。
在一个实施方式中,分类器是基于一组以树状结构组织的弱分类器实现的。
在一个实施方式中,分类器是基于BP人工神经网络实现的。
在一个实施方式中,只显示概率大于预定门限的啼哭原因。即步骤103包括以下两个子步骤:
筛选出概率大于预定门限的啼哭原因。
在终端屏幕上显示筛选出的各啼哭原因。
在一个实施方式中,在终端屏幕上显示概率最高的M个啼哭原因及其概率,其中M为预先设定的整数。
在一个实施方式中,在终端屏幕上显示所有各啼哭原因及其概率。
本发明第二实施方式涉及一种婴儿啼哭原因的自动识别方法。
第二实施方式在第一实施方式的基础上进行了改进,主要改进之处在于:根据周龄和婴儿啼哭发生的时段对生理、病理原因的概率进行修正,可以进一步提高婴儿啼哭原因分析的准确性。具体地说:
预先设定周龄和啼哭集中时段的第一对应关系。在一个实施例中,预先设定的周龄和啼哭集中时段的对应关系中包括:3周龄对应的啼哭集中时段有三段,分别为18~23点4~7点以及9~11点。6周龄对应的啼哭集中时段为15点至24点以及0点到5点。10周对应的啼哭集中时段为17点到23点,等等。
在步骤102之后对所得的不同啼哭原因的概率进行调整,具体如下:
获取发生啼哭时婴儿的周龄和啼哭时间。在一个实施例中,周龄可以通过预先输入的该婴儿的出生日期计算得到。
根据所获取的周龄查寻第一对应关系,得到对应的啼哭集中时段。
如果啼哭时间落在查寻所得的啼哭集中时段内,则减少病理原因的概率,否则增加病理原因的概率。
本申请的各实施方式中,增加某种原因的概率指的是对各种原因概率的相对比例关系作出调整,增加特定原因的相对比例,降低其它的原因的相对比例。例如,在一个实施例中,总共有5种预设的原因,5种原因的概率之和为100%,如果是增加病理原因的概率,则一方面增加病理原因在100%的总概率中的比例,另一方面,相应地(例如以等比例的方式)减少其它4种预设原因的比例,使5种原因的概率之和在概率调整之前和之后都是100%。
此后执行步骤103。
可以理解,上述技术方案具体实现时可以有多种形式和细节上的变化,下面举一些变化的例子。
在一个实施例中,周龄和啼哭集中时段的对应关系是根据专家的经验值设定的。
在一个实施例中,周龄和啼哭集中时段的对应关系是根据历史数据统计得到的。历史数据可以是用户上传的数据,这些数据中有啼哭发生的时间和事后确认的啼哭原因。可以将非病理原因的啼哭发生时间进行统计,找出啼哭集中的时段。
在一个实施例中,周龄和啼哭集中时段的对应关系是先根据上述的一种方式建立,然后根据用户新上传的数据不断修改的,用户新上传的数据中有啼哭发生的时间和事后确认的啼哭原因。
本发明第三实施方式涉及一种婴儿啼哭原因的自动识别方法。
第三实施方式在第一实施方式的基础上进行了改进,主要改进之处在于:结合月龄,根据音调和节奏的变化情况对疼痛和其它原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。具体地说:
在步骤102和步骤103之间对所得的不同啼哭原因的概率进行调整,具体如下:
检测哭声音频信号的音调。
如果检测结果为音调在啼哭开始后的预定时长内达到频率的峰值,且婴儿的月龄小于预定阈值,则增加疼痛原因的概率。
发明人发现,疼痛引起的婴儿啼哭在音调和节奏上在一开始(如第一秒以内)就迅速达到了频率的峰值,而饥饿等其他原因等引起的婴儿啼哭通常在啼哭的中段才达到峰值,随后迅速回落。而同时由于婴儿月龄的增加,特别是6个月以后,婴儿整个啼哭的节奏方式会越发趋同于疼痛引起的啼哭,在一开始就达到峰值。啼哭中段指的一个啼哭声音周期(婴儿啼哭是周期性重复的)的中间时点,例如,如果啼哭声音周期为10秒,在啼哭产生后频率逐渐增强,随后在第4-6秒左右的时间达到峰值。
本发明第四实施方式涉及一种婴儿啼哭原因的自动识别方法。
第四实施方式在第一实施方式的基础上进行了改进,主要改进之处在于:根据婴儿眼睛的闭合情况对疼痛原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。
第四实施方式的流程如图3所示。
在步骤301中,录制婴儿啼哭声音,同时拍摄婴儿脸部的视频。
此后进入步骤302,从该哭声音频信号提取时频特征,根据该时频特征和预先训练所得的分类器,得到该时频特征对应于预先设定的不同啼哭原因的概率。
此后进入步骤303,对所拍摄的视频进行图像分析,得到婴儿眼晴的开合状态。
此后进入步骤304,判断在婴儿啼哭的过程中,婴儿眼晴处于闭合状态的总时间是否大于预定门限?如果是则进入步骤305,否则进入步骤306。
在步骤305中,在步骤302所得的不同啼哭原因的概率分布的基础上,增加疼痛原因的概率。
在步骤306中,在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
发明人发现,对于疼痛原因导致的啼哭,婴儿在整个过程中眼睛几乎始终保持紧闭,其中只有在很少的间隙时,眼睛是微张的,同时整个眼部区域高度紧张,眉头紧蹙。而其他原因如害怕和烦躁等引起的婴儿啼哭过程中,眼睛则绝大部分时候保持张开状态或者半开半张。
本发明第五实施方式涉及一种婴儿啼哭原因的自动识别方法。
第五实施方式在第一实施方式的基础上进行了改进,主要改进之处在于:统计一天中总的啼哭时间,结合周龄,对生理、病理原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。具体地说:
预先设定周龄和24小时啼哭总时间上限的第二对应关系。
在步骤102和步骤103之间还包括以下步骤:
统计该婴儿最近24小时内的啼哭总时间。
根据该婴儿的周龄查询第二对应关系,得到24小时啼哭总时间上限。
如果该啼哭总时间大于该24小时啼哭总时间上限,则增加病理原因的概率。
可以理解,上述技术方案具体实现时可以有多种形式和细节上的变化,下面举一些变化的例子。
在一个实施例中,由一个录音设备对一个婴儿的啼哭进行24小时的监控。该录音设备可以是智能手机、有录音功能的手环、脚环、定制的录音终端等等。该录音设备如果检测到具有婴儿啼哭特征的声音,则记录啼哭的起止时间,上传给云端服务器或者手机等移动终端,以便移动终端在统计该婴儿最近24小时内的啼哭总时间时可以用到这些信息。
在一个实施例中,对于第二周龄的婴儿,24小时啼哭总时间上限为105分钟,第三周龄、第四周龄、第五周龄的24小时啼哭总时间上限逐渐增加,第六周龄为165分钟,第六周龄之后的24小时啼哭总时间上限逐步减少。
在一个实施例中,24小时啼哭总时间上限是根据经验值设定的。
在一个实施例中,24小时啼哭总时间上限是根据较多婴儿的24小时内的啼哭总时间及其健康状态的历史数据统计得到的。
在一个实施例中,24小时啼哭总时间上限可以根据一个婴儿的之前的啼哭总时间及其健康状态进行个性化调整。例如,一个特定婴儿在第二周龄的24小时啼哭总时间的平均值远低于第二周龄对应的24小时啼哭总时间上限,而且该婴儿确认处于健康状态,则可以减少该婴儿之后各周龄对应的24小时啼哭总时间上限。类似地,如果一个特定婴儿的24小时啼哭总时间高于相应周龄的24小时啼哭总时间上限,则可以适当地增加该婴儿之后各周龄对应的24小时啼哭总时间上限。
本发明第六实施方式涉及一种婴儿啼哭原因的自动识别方法。
第六实施方式在第一实施方式的基础上进行了改进,主要改进之处在于:结合距离上次哺乳的时间来调整饥饿原因的概率,可以进一步提高对婴儿啼哭原因分析的准确性。具体地说:
在步骤102和步骤103之间还包括以下步骤:
获取啼哭发生时间距上次哺乳时间的时间间隔。
如果该时间间隔大于预定门限,则增加饥饿原因的概率。
可以理解,上述技术方案具体实现时可以有多种形式和细节上的变化,下面举一些变化的例子。
在一个实施例中,在移动终端上通过弹出对话框要求用户输出上次哺乳时间。
在一个实施例中,指定婴儿每次哺乳后,用户会在移动终端上记录哺乳时间,上传到云端服务器。在需要获取上次哺乳时间时,可以从云端服务器获得。
在一个实施例中,在录制婴儿啼哭声音的同时,拍摄婴儿脸部的视频,并对婴儿脸部的视频进行图像分析,如果经图像分析发现婴儿呈现出搜寻的反射活动,则增加饥饿原因的概率。
在一个实施例中,在移动终端上提出用户观察并输入婴儿是否呈现出搜寻的反射活动的信息,并且在该移动终端上播放典型的婴儿搜寻活动的视频,以帮助没有经验的用户了解是什么婴儿搜寻的反射活动。如果用户输入婴儿呈现出搜寻的反射活动的信息,则增加饥饿原因的概率。
在一个实施例中,搜寻的反射活动和距离上次哺乳的时间可结合起来使用,以进一步增加判断的准确性。
上述第二至第六实施方式都是在步骤102所得的概率分布的基础上,根据额外的信息对概率分布进行某种方式的调整。这些调整的方式即可以单独使用,也可以组合起来使用(即将第二至第六实施方式的技术方案中的多种结合起来),从而使判断的准确性进一步提升。
本发明第七实施方式涉及一种婴儿啼哭原因的自动识别系统。图4是该婴儿啼哭原因的自动识别系统的结构示意图。该婴儿啼哭原因的自动识别系统包括:
录制单元,用于录制婴儿啼哭声音,得到哭声音频信号。
分析单元,用于从该哭声音频信号提取时频特征,根据该时频特征和预先训练所得的分类器,得到该时频特征对应于预先设定的不同啼哭原因的概率。
显示单元,用于在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。在一个优选例中,显示单元以饼图的方式显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
第一实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
本发明第八实施方式涉及一种婴儿啼哭原因的自动识别系统。
第八实施方式在第七实施方式的基础上进行了改进,主要改进之处在于根据周龄和婴儿啼哭发生的时段对生理、病理原因的概率进行修正,可以进一步提高婴儿啼哭原因分析的准确性。具体地说,相对于第七实施方式增加了以下单元:
第一存储单元,用于存储预先设定的周龄和啼哭集中时段的第一对应关系。
第一信息获取单元,用于获取发生啼哭时婴儿的周龄和啼哭时间。
第一查询单元,用于根据所获取的周龄查寻第一对应关系,得到对应的啼哭集中时段。
第一调整单元,用于判断啼哭时间是否落在查寻所得的啼哭集中时段内,如果是,则在分析单元输出的不同啼哭原因的概率基础上,减少病理原因的概率,否则增加病理原因的概率。
第二实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第二实施方式互相配合实施。第二实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第二实施方式中。
本发明第九实施方式涉及一种婴儿啼哭原因的自动识别系统。
第九实施方式在第七实施方式的基础上进行了改进,主要改进之处在于结合月龄,根据音调和节奏的变化情况对疼痛和其它原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。具体地说,在第七实施方式的基础上增加了以下单元:
音调检测单元,用于检测哭声音频信号的音调。
第二调整单元,用于判断检测结果是否为音调在啼哭开始后的预定时长内达到频率的峰值,且婴儿的月龄小于预定阈值,如果是,则在分析单元输出的不同啼哭原因的概率基础上增加疼痛原因的概率。
第三实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第三实施方式互相配合实施。第三实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第三实施方式中。
本发明第十实施方式涉及一种婴儿啼哭原因的自动识别系统。
第十实施方式在第七实施方式的基础上进行了改进,主要改进之处在于:根据婴儿眼睛的闭合情况对疼痛原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。具体地说,相对于第七实施方式增加了以下单元:
视频拍摄单元,用于在录制婴儿啼哭声音的同时,拍摄婴儿脸部的视频。
眼部分析单元,用于对该视频进行图像分析,得到婴儿眼晴的开合状态。
第三调整单元,用于判断在婴儿啼哭的过程中是否婴儿眼晴处于闭合状态的总时间大于预定门限,如果是,则在分析单元输出的不同啼哭原因的概率基础上增加疼痛原因的概率。
第四实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第四实施方式互相配合实施。第四实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第四实施方式中。
本发明第十一实施方式涉及一种婴儿啼哭原因的自动识别系统。
第十一实施方式在第七实施方式的基础上进行了改进,主要改进之处在于:统计一天中总的啼哭时间,结合周龄,对生理、病理原因的概率进行修正,可以进一步提高对婴儿啼哭原因分析的准确性。具体地说,相对于第七实施方式,还增加了以下单元:
第二存储单元,用于存储预先设定的周龄和24小时啼哭总时间上限的第二对应关系。
啼哭时间统计单元,用于统计该婴儿最近24小时内的啼哭总时间。
第二查询单元,用于根据该婴儿的周龄查询第二对应关系,得到24小时啼哭总时间上限。
第四调整单元,用于判断该啼哭总时间是否大于该24小时啼哭总时间上限,如果是,则在分析单元输出的不同啼哭原因的概率基础上增加病理原因的概率。
第五实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第五实施方式互相配合实施。第五实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第五实施方式中。
本发明第十二实施方式涉及一种婴儿啼哭原因的自动识别系统。
第十二实施方式在第七实施方式的基础上进行了改进,主要改进之处在于:结合距离上次哺乳的时间来调整饥饿原因的概率,可以进一步提高对婴儿啼哭原因分析的准确性。具体地说,相对于第七实施方式,还增加了以下单元:
哺乳信息获取单元,用于获取啼哭发生时间距上次哺乳时间的时间间隔。
第五调整单元,用于判断该时间间隔是否大于预定门限,如果是,则在分析单元输出的不同啼哭原因的概率基础上增加饥饿原因的概率。
第六实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第六实施方式互相配合实施。第六实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第六实施方式中。
上述第八至第十二实施方式都是在第七实施方式的分析单元所得的概率分布的基础上,根据额外的信息对概率分布进行某种方式的调整。这些调整的方式即可以单独使用,也可以组合起来使用(即将第八至第十二实施方式的技术方案中的多种结合起来),从而使判断的准确性进一步提升。
需要说明的是,本发明的各方法实施方式均可以以软件、硬件、固件等方式实现。不管本发明是以软件、硬件、还是固件方式实现,指令代码都可以存储在任何类型的计算机可访问的存储器中(例如永久的或者可修改的,易失性的或者非易失性的,固态的或者非固态的,固定的或者可更换的介质等等)。同样,存储器可以例如是可编程阵列逻辑(Programmable Array Logic,简称“PAL”)、随机存取存储器(Random Access Memory,简称“RAM”)、可编程只读存储器(Programmable Read Only Memory,简称“PROM”)、只读存储器(Read-Only Memory,简称“ROM”)、电可擦除可编程只读存储器(Electrically ErasableProgrammable ROM,简称“EEPROM”)、磁盘、光盘、数字通用光盘(Digital Versatile Disc,简称“DVD”)等等。
需要说明的是,本发明各设备实施方式中提到的各单元都是逻辑单元,在物理上,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现,这些逻辑单元本身的物理实现方式并不是最重要的,这些逻辑单元所实现的功能的组合才是解决本发明所提出的技术问题的关键。此外,为了突出本发明的创新部分,本发明上述各设备实施方式并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,这并不表明上述设备实施方式并不存在其它的单元。
需要说明的是,在本专利的权利要求书和说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。本专利的权利要求书和说明书中,如果提到根据某要素执行某行为,则是指至少根据该要素执行该行为的意思,其中包括了两种情况:仅根据该要素执行该行为、和根据该要素和其它要素执行该行为。
虽然通过参照本发明的某些优选实施方式,已经对本发明进行了图示和描述,但本领域的普通技术人员应该明白,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。

Claims (10)

1.一种婴儿啼哭原因的自动识别方法,其特征在于,包括以下步骤:
录制婴儿啼哭声音,得到哭声音频信号;
从该哭声音频信号提取时频特征,根据该时频特征和预先训练所得的分类器,得到该时频特征对应于预先设定的不同啼哭原因的概率;
在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
2.根据权利要求1所述的婴儿啼哭原因的自动识别方法,其特征在于,所述“在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率”的步骤中,以饼图的方式显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
3.根据权利要求1所述的婴儿啼哭原因的自动识别方法,其特征在于,所述预先设定的不同啼哭原因包括以下原因之一或其任意组合:
饥饿,想睡觉,不适,尿布湿。
4.根据权利要求1所述的婴儿啼哭原因的自动识别方法,其特征在于,所述“在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率”的步骤包括以下子步骤:
筛选出概率大于预定门限的啼哭原因;
在终端屏幕上显示筛选出的各啼哭原因。
5.根据权利要求3所述的婴儿啼哭原因的自动识别方法,其特征在于,预先设定周龄和啼哭集中时段的第一对应关系;
在所述“得到所述时频特征对应于预先设定的不同啼哭原因的概率”的步骤之后还包括以下步骤:
获取发生啼哭时婴儿的周龄和啼哭时间;
根据所获取的周龄查寻所述第一对应关系,得到对应的啼哭集中时段;
如果所述啼哭时间落在查寻所得的啼哭集中时段内,则减少病理原因的概率,否则增加病理原因的概率。
6.根据权利要求3所述的婴儿啼哭原因的自动识别方法,其特征在于,在所述“得到所述时频特征对应于预先设定的不同啼哭原因的概率”的步骤之后还包括以下步骤:
检测所述哭声音频信号的音调;
如果检测结果为音调在啼哭开始后的预定时长内达到频率的峰值,且婴儿的月龄小于预定阈值,则增加疼痛原因的概率。
7.根据权利要求3所述的婴儿啼哭原因的自动识别方法,其特征在于,还包括以下步骤:
在录制婴儿啼哭声音的同时,拍摄婴儿脸部的视频;
对该视频进行图像分析,得到婴儿眼晴的开合状态;
如果在婴儿啼哭的过程中,婴儿眼晴处于闭合状态的总时间大于预定门限,则增加疼痛原因的概率。
8.根据权利要求3所述的婴儿啼哭原因的自动识别方法,其特征在于,预先设定周龄和24小时啼哭总时间上限的第二对应关系;
在所述“得到所述时频特征对应于预先设定的不同啼哭原因的概率”的步骤之后还包括以下步骤:
统计该婴儿最近24小时内的啼哭总时间;
根据该婴儿的周龄查询所述第二对应关系,得到24小时啼哭总时间上限;
如果该啼哭总时间大于该24小时啼哭总时间上限,则增加病理原因的概率。
9.根据权利要求3所述的婴儿啼哭原因的自动识别方法,其特征在于,在所述“得到所述时频特征对应于预先设定的不同啼哭原因的概率”的步骤之后还包括以下步骤:
获取啼哭发生时间距上次哺乳时间的时间间隔;
如果该时间间隔大于预定门限,则增加饥饿原因的概率。
10.一种婴儿啼哭原因的自动识别系统,其特征在于,包括:
录制单元,用于录制婴儿啼哭声音,得到哭声音频信号;
分析单元,用于从该哭声音频信号提取时频特征,根据该时频特征和预先训练所得的分类器,得到该时频特征对应于预先设定的不同啼哭原因的概率;
显示单元,用于在终端屏幕上显示概率最高的至少两种啼哭原因和这些啼哭原因的概率。
CN201611014119.XA 2016-11-17 2016-11-17 婴儿啼哭原因的自动识别方法及其系统 Active CN106653059B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611014119.XA CN106653059B (zh) 2016-11-17 2016-11-17 婴儿啼哭原因的自动识别方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611014119.XA CN106653059B (zh) 2016-11-17 2016-11-17 婴儿啼哭原因的自动识别方法及其系统

Publications (2)

Publication Number Publication Date
CN106653059A true CN106653059A (zh) 2017-05-10
CN106653059B CN106653059B (zh) 2020-06-30

Family

ID=58808536

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611014119.XA Active CN106653059B (zh) 2016-11-17 2016-11-17 婴儿啼哭原因的自动识别方法及其系统

Country Status (1)

Country Link
CN (1) CN106653059B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107393556A (zh) * 2017-07-17 2017-11-24 京东方科技集团股份有限公司 一种实现音频处理的方法及装置
CN107564541A (zh) * 2017-09-04 2018-01-09 南方医科大学南方医院 一种便携式婴儿啼哭声识别器及其识别方法
CN107657965A (zh) * 2017-09-22 2018-02-02 许灿丽 婴儿哭声识别器和识别的方法
CN107705786A (zh) * 2017-09-27 2018-02-16 努比亚技术有限公司 一种语音处理方法、装置及计算机可读存储介质
CN107767874A (zh) * 2017-09-04 2018-03-06 南方医科大学南方医院 一种婴儿啼哭声识别提示方法及系统
CN108536996A (zh) * 2018-03-01 2018-09-14 北京小米移动软件有限公司 自动哄睡方法、装置、存储介质及智能婴儿床
CN108806723A (zh) * 2018-05-21 2018-11-13 深圳市沃特沃德股份有限公司 婴儿语音识别方法及装置
CN109509484A (zh) * 2018-12-25 2019-03-22 科大讯飞股份有限公司 一种婴儿啼哭原因的预测方法及装置
CN111276159A (zh) * 2018-12-05 2020-06-12 阿里健康信息技术有限公司 一种婴儿发音分析方法及服务器
CN111951830A (zh) * 2020-06-30 2020-11-17 苏州航天系统工程有限公司 一种婴儿哭声的辨识方法、服务器、手机、外部设备及系统
CN112750467A (zh) * 2021-01-19 2021-05-04 珠海格力电器股份有限公司 婴儿哭声分析方法、模型训练方法、装置和电子设备
CN113035229A (zh) * 2021-04-23 2021-06-25 西安马克医疗科技有限公司 基于婴幼儿形体特征的婴幼儿看管方法
CN113270115A (zh) * 2020-02-17 2021-08-17 广东美的制冷设备有限公司 婴儿监护设备及其婴儿监护方法、控制装置和存储介质
EP3940698A1 (en) 2020-07-13 2022-01-19 Zoundream AG A computer-implemented method of providing data for an automated baby cry assessment
TWI766673B (zh) * 2021-05-05 2022-06-01 量子音樂股份有限公司 嬰兒哭聲分析方法及其分析裝置
WO2022262281A1 (zh) * 2021-06-15 2022-12-22 青岛海尔空调器有限总公司 用于空调的控制方法及装置、空调
TWI815019B (zh) * 2019-10-04 2023-09-11 仁寶電腦工業股份有限公司 資訊推送系統、方法與紀錄媒體

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070087296A (ko) * 2006-02-23 2007-08-28 조동욱 영아 산통 진단을 위한 울음소리 분석 기법
CN101807396A (zh) * 2010-04-02 2010-08-18 陕西师范大学 婴儿哭闹自动记录装置及方法
JP2011154130A (ja) * 2010-01-26 2011-08-11 Kanazawa Univ 音声識別装置及びこれを用いた音声識別システム
CN103280220A (zh) * 2013-04-25 2013-09-04 北京大学深圳研究生院 一种实时的婴儿啼哭声识别方法
CN105719663A (zh) * 2014-12-23 2016-06-29 郑载孝 婴儿哭声分析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070087296A (ko) * 2006-02-23 2007-08-28 조동욱 영아 산통 진단을 위한 울음소리 분석 기법
JP2011154130A (ja) * 2010-01-26 2011-08-11 Kanazawa Univ 音声識別装置及びこれを用いた音声識別システム
CN101807396A (zh) * 2010-04-02 2010-08-18 陕西师范大学 婴儿哭闹自动记录装置及方法
CN103280220A (zh) * 2013-04-25 2013-09-04 北京大学深圳研究生院 一种实时的婴儿啼哭声识别方法
CN105719663A (zh) * 2014-12-23 2016-06-29 郑载孝 婴儿哭声分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
胡祖斌等: "《儿童启蒙丛书 0-1岁宝宝养育大全》", 30 September 2012, 湖北科学技术出版社 *
葛晓利: "应用啼哭信号分析方法评估婴儿术后疼痛的研究_葛晓利", 《万方学位论文》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107393556A (zh) * 2017-07-17 2017-11-24 京东方科技集团股份有限公司 一种实现音频处理的方法及装置
CN107564541A (zh) * 2017-09-04 2018-01-09 南方医科大学南方医院 一种便携式婴儿啼哭声识别器及其识别方法
CN107767874A (zh) * 2017-09-04 2018-03-06 南方医科大学南方医院 一种婴儿啼哭声识别提示方法及系统
CN107767874B (zh) * 2017-09-04 2020-08-28 南方医科大学南方医院 一种婴儿啼哭声识别提示方法及系统
CN107564541B (zh) * 2017-09-04 2018-11-02 南方医科大学南方医院 一种便携式婴儿啼哭声识别器及其识别方法
CN107657965A (zh) * 2017-09-22 2018-02-02 许灿丽 婴儿哭声识别器和识别的方法
CN107705786A (zh) * 2017-09-27 2018-02-16 努比亚技术有限公司 一种语音处理方法、装置及计算机可读存储介质
CN108536996B (zh) * 2018-03-01 2020-07-03 北京小米移动软件有限公司 自动哄睡方法、装置、存储介质及智能婴儿床
CN108536996A (zh) * 2018-03-01 2018-09-14 北京小米移动软件有限公司 自动哄睡方法、装置、存储介质及智能婴儿床
CN108806723A (zh) * 2018-05-21 2018-11-13 深圳市沃特沃德股份有限公司 婴儿语音识别方法及装置
CN108806723B (zh) * 2018-05-21 2021-08-17 深圳市沃特沃德股份有限公司 婴儿语音识别方法及装置
CN111276159A (zh) * 2018-12-05 2020-06-12 阿里健康信息技术有限公司 一种婴儿发音分析方法及服务器
CN109509484A (zh) * 2018-12-25 2019-03-22 科大讯飞股份有限公司 一种婴儿啼哭原因的预测方法及装置
TWI815019B (zh) * 2019-10-04 2023-09-11 仁寶電腦工業股份有限公司 資訊推送系統、方法與紀錄媒體
CN113270115B (zh) * 2020-02-17 2023-04-11 广东美的制冷设备有限公司 婴儿监护设备及其婴儿监护方法、控制装置和存储介质
CN113270115A (zh) * 2020-02-17 2021-08-17 广东美的制冷设备有限公司 婴儿监护设备及其婴儿监护方法、控制装置和存储介质
CN111951830A (zh) * 2020-06-30 2020-11-17 苏州航天系统工程有限公司 一种婴儿哭声的辨识方法、服务器、手机、外部设备及系统
EP3940698A1 (en) 2020-07-13 2022-01-19 Zoundream AG A computer-implemented method of providing data for an automated baby cry assessment
WO2022012777A1 (en) 2020-07-13 2022-01-20 Zoundream Ag A computer-implemented method of providing data for an automated baby cry assessment
CN112750467A (zh) * 2021-01-19 2021-05-04 珠海格力电器股份有限公司 婴儿哭声分析方法、模型训练方法、装置和电子设备
CN113035229A (zh) * 2021-04-23 2021-06-25 西安马克医疗科技有限公司 基于婴幼儿形体特征的婴幼儿看管方法
TWI766673B (zh) * 2021-05-05 2022-06-01 量子音樂股份有限公司 嬰兒哭聲分析方法及其分析裝置
WO2022262281A1 (zh) * 2021-06-15 2022-12-22 青岛海尔空调器有限总公司 用于空调的控制方法及装置、空调

Also Published As

Publication number Publication date
CN106653059B (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
CN106653059A (zh) 婴儿啼哭原因的自动识别方法及其系统
CN104065928B (zh) 一种行为模式统计装置与方法
CN106653001A (zh) 婴儿哭声的辩识方法及其系统
CN107133629B (zh) 图片分类方法、装置和移动终端
CN112560723B (zh) 一种基于形态识别与速度估计的跌倒检测方法及系统
CN107767874B (zh) 一种婴儿啼哭声识别提示方法及系统
Parker et al. Detecting paroxysmal coughing from pertussis cases using voice recognition technology
TW201642126A (zh) 評估一使用者對一可攜式行動裝置之使用程度的方法
CN110111815A (zh) 动物异常声音监控方法及装置、存储介质、电子设备
CN116386277A (zh) 疲劳驾驶检测方法、装置、电子设备及介质
JP2011154130A (ja) 音声識別装置及びこれを用いた音声識別システム
CN112674771A (zh) 基于图像注视差异的抑郁人群鉴别方法及装置
CN110807117A (zh) 一种用户关系预测方法及装置、计算机可读存储介质
CN114238033A (zh) 板卡运行状态预警方法、装置、设备及可读存储介质
JPWO2020152953A1 (ja) 判別装置、細胞塊の判別方法、及びコンピュータプログラム
CN115223232A (zh) 一种眼健康综合管理系统
CN114463671A (zh) 一种基于视频数据的用户人格识别方法
CN117297540B (zh) 一种基于智能眼镜的视疲劳监测方法及系统
CN110021147A (zh) 一种基于机器学习和数值标定的疲劳驾驶检测方法
Nishijima et al. A study on the optimum number of training data in snore activity detection using SVM
CN108447565A (zh) 一种基于改进降噪自动编码器的小于胎龄儿疾病预测方法
US20230200697A1 (en) Automatic evolution method for brainwave database and automatic evolving system for detecting brainwave
CN111785300B (zh) 一种基于深度神经网络的哭声检测方法和系统
CN117357104B (zh) 一种基于用户特征的音频分析方法
CN112656401B (zh) 一种智能监护方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210125

Address after: 200092 Shanghai city Yangpu District Kongjiang Road No. 1665

Patentee after: Xinhua Hospital Affiliated to Shanghai Jiaotong University School of Medicine

Address before: Room 1202, building 33, 800 Jinxiu Road, Pudong New Area, Shanghai 200135

Patentee before: Shen Xiaoming

TR01 Transfer of patent right