CN108022585A - 信息处理方法、装置及电子设备 - Google Patents
信息处理方法、装置及电子设备 Download PDFInfo
- Publication number
- CN108022585A CN108022585A CN201711335321.7A CN201711335321A CN108022585A CN 108022585 A CN108022585 A CN 108022585A CN 201711335321 A CN201711335321 A CN 201711335321A CN 108022585 A CN108022585 A CN 108022585A
- Authority
- CN
- China
- Prior art keywords
- information
- analysis result
- monitored
- information processing
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 32
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 238000004458 analytical method Methods 0.000 claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 24
- 230000001133 acceleration Effects 0.000 claims description 26
- 230000002159 abnormal effect Effects 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 19
- 230000036651 mood Effects 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 230000004048 modification Effects 0.000 claims description 7
- 238000012986 modification Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 abstract description 26
- 230000006870 function Effects 0.000 description 11
- 230000036772 blood pressure Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 206010011469 Crying Diseases 0.000 description 2
- 239000003470 adrenal cortex hormone Substances 0.000 description 2
- 230000004872 arterial blood pressure Effects 0.000 description 2
- 230000000386 athletic effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000035939 shock Effects 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 206010027940 Mood altered Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 230000037351 starvation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/027—Services making use of location information using location based information parameters using movement velocity, acceleration information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例涉及信息处理技术领域,具体而言,涉及一种信息处理方法、装置及电子设备。该方法包括:实时获得待监控对象的语音信息,根据预存的语音训练样本信息对所述语音信息进行分析,获得反映待监控对象的言行的分析结果,将所述分析结果进行发送。使用该信息处理方法、装置及电子设备,能对待监控对象进行全面、智能的监控分析。
Description
技术领域
本发明实施例涉及信息处理技术领域,具体而言,涉及一种信息处理方法、装置及电子设备。
背景技术
近年来,虐童事件频繁发生,这些虐童行为对儿童的身体和心灵造成了巨大的折磨和摧残,因此采取科技手段对儿童进行必要的监控和监护显得尤为重要。
现有的对儿童的监控分析大多不全面、不智能。
发明内容
有鉴于此,本发明提供了一种信息处理方法、装置及电子设备,以改善现有技术对儿童的监控分析不全面、不智能的问题。
为实现上述目的,本发明实施例提供了一种信息处理方法,所述方法包括:
实时获得待监控对象的语音信息;
根据预存的语音训练样本信息对所述语音信息进行分析,获得反映待监控对象的言行的分析结果;
将所述分析结果进行发送。
可选地,所述言行包括待监控对象的情绪,所述语音信息包括声学特征信息和语义特征信息;根据预存的语音训练样本信息对所述语音信息进行分析,获得反映待监控对象的言行的分析结果的步骤,包括:
将所述语音信息进行预处理;
对经过预处理的语音信息提取所述声学特征信息和所述语义特征信息;
根据所述语音训练样本信息对所述声学特征信息进行分析,获得声学分析结果;
根据所述语音训练样本信息对所述语义特征信息进行分析,获得语义分析结果;
根据所述声学分析结果和所述语义分析结果获得反映待监控对象情绪的分析结果。
可选地,根据所述语音训练样本信息对所述声学特征信息进行分析,获得声学分析结果的步骤,包括:
对所述声学特征信息进行降维处理,采用预设有所述语音训练样本信息的分类器对经过降维处理的声学特征信息进行分类,得到与情绪相关的声学分析结果。
可选地,所述语音训练样本信息包括文本样本信息;根据所述语音训练样本信息对所述语义特征信息进行分析,获得语义分析结果的步骤,包括:
将所述语音信息转换为反映语义特征的文本信息,对所述文本信息进行分词处理;
将经过分词处理之后的文本信息与所述文本样本信息进行匹配,得到语义分析结果。
可选地,所述方法还包括:
实时获得待监控对象的生理参数;
根据预设的生理参数区间,对所述生理参数信息进行分析;若所述生理参数不在所述生理参数区间内,获得反映生理参数异常的第一异常结果;
将所述第一异常结果进行发送。
可选地,所述方法还包括:
实时获得待监控对象的运动状态参数;其中,所述运动状态参数包括速度和加速度;
根据预设的速度区间和加速度区间,对所述速度和所述加速度进行分析;
若所述速度不在所述速度区间内,获得反映运动状态异常的第二异常结果;
若所述加速度不在所述加速度区间内,获得反映运动状态异常的第三异常结果;
将所述第二异常结果和所述第三异常结果进行发送。
可选地,所述方法还包括:
实时获得待监控对象的位置信息;
根据预设的位置区间,对所述位置信息进行分析,若所述位置信息不在所述位置区间内,获得反映位置信息异常的第四异常结果;
将所述第四异常结果进行发送。
可选地,所述方法还包括:
获得修改所述生理参数区间、所述速度区间、所述加速度区间和所述位置区间的修改指令;
根据所述修改指令对所述生理参数区间、所述速度区间、所述加速度区间和所述位置区间进行修改。
本发明实施例还提供了一种信息处理装置,所述信息处理装置包括:
信息获取模块,用于实时获得待监控对象的语音信息;
分析模块,用于根据预存的语音训练样本信息对所述语音信息进行分析,获得反映待监控对象的言行的分析结果;
发送模块,用于将所述分析结果进行发送。
本发明实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述信息处理方法。
本发明实施例还提供了一种计算机可读存储介质,所述可读存储介质包括计算机程序,所述计算机程序运行时控制所述可读存储介质所在电子设备执行上述信息处理方法。
本发明实施例所提供的信息处理方法、装置及电子设备,能根据待监控对象的语音信息分析出待监控对象的言行状态,判断待监控对象可能处于的环境和场合。能对儿童进行全面、智能的监控分析,在发生突发情况时能将信息及时发送给家长。
进一步地,能根据待监控对象的生理参数和运动状态参数分析获得待监控对象的其它相应参数是否正常,便于对待监控对象进行更加全面、智能的监控和监护。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例所提供的一种电子设备10的方框示意图。
图2为本发明实施例所提供的一种信息处理方法的流程图。
图3为一实施方式中图2所示步骤S22包括的子步骤的示意图。
图4为本发明实施例所提供的一种信息处理装置20的模块框图。
图标:10-电子设备;11-存储器;12-处理器;13-网络模块;20-信息处理装置;21-信息获取模块;22-分析模块;23-发送模块。
具体实施方式
近年来,虐童事件频繁发生,这些虐童行为对儿童的身体和心灵造成了巨大的折磨和摧残,因此采取科技手段对儿童进行必要的监控和监护显得尤为重要。
经调查发现,现有的对儿童进行监控的方法主要通过视频监控或定位监控,难以对语言暴力和儿童的情绪、心理状态进行全面的监控和分析。
以上现有技术中的方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本发明实施例针对上述问题所提出的解决方案,都应该是发明人在本发明过程中对本发明做出的贡献。
基于上述研究,本发明实施例提供了一种信息处理方法、装置及电子设备,能够对儿童进行全面的监控分析。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例只是本发明的一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
图1示出了本发明实施例所提供的一种电子设备10的方框示意图。本发明实施例中的电子设备10可以为具有数据存储、传输、处理功能的服务端,如图1所示,电子设备10包括:存储器11、处理器12、网络模块13和信息处理装置20。
存储器11、处理器12和网络模块13之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件互相之间可以通过一条或多条通讯总线或信号线实现电性连接。存储器11中存储有信息处理装置20,所述信息处理装置20包括至少一个可以软件或固件(firmware)的形式储存于所述存储器11中的软件功能模块,所述处理器12通过运行存储在存储器11内的软件程序以及模块,例如本发明实施例中的信息处理装置20,从而执行各种功能应用以及数据处理,即实现本发明实施例中的信息处理方法。
其中,所述存储器11可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器11用于存储程序,所述处理器12在接收到执行指令后,执行所述程序。
所述处理器12可能是一种集成电路芯片,具有数据的处理能力。上述的处理器12可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等。可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
网络模块13用于通过网络建立电子设备10与其他通信终端设备之间的通信连接,实现网络信号及数据的收发操作。上述网络信号可包括无线信号或者有线信号。
可以理解,图1所示的结构仅为示意,电子设备10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
本发明实施例还提供一种计算机可读存储介质,所述可读存储介质包括计算机程序。所述计算机程序运行时控制所述可读存储介质所在电子设备10执行下面的信息处理方法。
应当理解,待监控对象可以为多种不同的人群,在本实施例中,待监控对象可以选择但不限于儿童,例如,可以将待监控对象视作儿童C。该信息处理方法的执行主体可以为服务端,服务端可以利用很多渠道中的其中一种获得待监控对象的多项信息,例如,服务端可以接收采集端发送的多项信息。采集端可以为很多种装置中的其中一种,在本实施例中,采集端可以选取为但不限于儿童C穿戴的手表W。服务端将分析结果进行发送的对象可以是监控端,监控端可以为很多种装置中的其中一种,在本实施例中,监控端可以选取为但不限于家长的手机M。
图2示出了本发明实施例所提供的一种信息处理方法的流程图。所述方法有关的流程所定义的方法步骤应用于电子设备10,可以由所述处理器12实现。下面将对图2所示的具体流程进行详细阐述:
步骤S21,实时获得待监控对象的多项信息。
例如,服务端实时接收手表W上传的多项信息,其中,多项信息包括但不限于语音信息、生理参数信息、运动状态信息和位置信息。
步骤S22,将多项信息中包括的各项信息与预设的各分析阀值信息进行比较,获得反映待监控对象言行的分析结果。
可选地,儿童C的言行包括但不限于情绪状态、学习状态和生理状态等。
请结合参阅图3,本实施例中通过步骤S221、步骤S222、步骤S223和步骤S224列举了步骤S22的其中一种实现方式。
步骤S221,根据预设的语音训练样本信息对语音信息进行分析,获得反映待监控对象的情绪的分析结果。
可选地,服务端预设有情绪分类样本和语义训练样本,用于对儿童C的语音信息进行分析。针对情绪分类样本,服务端提取语音信息的声学特征,对声学特性进行降维处理,并采用情绪分类器分析得出儿童C的情绪,如高兴、生气、恐惧、中性等。
其中,情绪分类器可以是随机数、神经网络等。
针对语义训练样本,服务端将语音信息转换为反映语义特征的文本信息,对文本信息进行分词处理,然后与语义训练样本进行匹配得出儿童C的情绪,如正面情绪、负面情绪等。例如,若匹配得出儿童C的文本信息中包含“害怕”、“别打我”等关键词,分析得出儿童C的情绪类别为恐惧的负面情绪。
应当理解,儿童C的语音信息不仅仅反映出情绪状态,还可以反映出其它言行信息比如学习状态等。
步骤S222,根据预设的生理参数区间,对生理参数信息进行分析获得分析结果。
可选地,本实施例选取生理参数信息中的血压信息进行分析。
例如,服务端预设的正常血压区间为[a,b],若儿童C的血压参数异常,又例如,若儿童C遭遇惊吓或恐吓,会导致体内皮质醇激素升高,进一步导致血压升高超过b,此时会分析得出血压信息异常的分析结果。又例如,若儿童C遭遇饥饿,血压会降低并低于a,此时会分析得出血压信息异常的分析结果。
应当理解,若分析得出的血压信息为正常也作为分析结果。
步骤S223,根据预设的运动状态区间,对运动状态信息进行分析获得分析结果。
例如,针对运动状态信息,对某段时间内儿童C的速度和加速度进行分析,服务端预设有正常的速度和加速度区间,儿童C在参加体育运动期间,速度和加速度会有变化,但不会超过预设的区间,并且结合上述语音信息也可以分析出儿童C处于高兴的状态。
又例如,若儿童C的运动状态异常,儿童C的速度和加速度可能会超过预设区间,当可能遭遇撞击或殴打时,冲击力对儿童C产生的速度和加速度加成远大于儿童C自身身体调节可达到的最高值,例如,儿童C正常的加速度区间为[0,a1],a1表示儿童C靠自身身体调节可达到的加速度最高值(例如靠自己进行冲刺跑),若某段时间内儿童C的加速度为a2,且a2远大于a1,说明加速度a2可能是由于外力导致的,此时会分析出运动状态异常的分析结果。
步骤S224,根据预设的位置区间,对位置信息进行分析获得分析结果。
例如,位置区间的正常值可以为儿童C所在学校的面积区域以内,若获得的儿童C的位置信息超出位置区间的正常值,获得表明儿童C在学校外的分析结果,设置位置区间分析的目的是为了防止儿童C被外来人员拐卖。当儿童C离开校园范围内时,家长能及时获得该情况并采取相应措施。
步骤S23,将所述分析结果进行发送。
将步骤S22所获得的分析结果进行发送,例如,可以将分析结果发送给手机W。可选地,各分析结果互相独立发送,互不影响。
可以理解,服务端会将正常的分析结果和异常的分析结果进行发送。
可选地,服务端可以获得修改生理参数区间、速度区间、加速度区间和位置区间的修改指令,并根据该修改指令对这些区间进行修改。如此设置,能根据不同的儿童进行调整,实现个性化监控。
可选地,服务端可以与手表W和手机M组成监控系统,该监控系统可以对儿童进行实时监控和监护。
应当理解,在本实施例中,服务端、手表W和手机M仅仅是监控系统的一种,服务端还可以与其他设备进行配合。
下面以一具体场景为实施例对该信息采集方法和监控系统的运作进行说明。
儿童C穿戴着手表W去学校上学,在上午上课期间,手表W获取了老师和儿童C的语音信息,通过声纹判别过滤掉了老师的语音信息,然后将儿童C的语音信息进行测度估计,提取出了“学习”、“题目”、“答案”等关键词,触发了发射指令,手表W将上午这段时间的多项信息发送至服务端,服务端对多项信息进行分析,将监控结果发送至手机M,家长通过手机M了解到儿童C上午的学习状态,手机M在发送了相关信息之后,会显示提示信息,例如“儿童C在某课堂上未能回答上随堂问题,请随后与儿童C沟通”,家长可根据类似的信息判断出儿童C的学习状态,并根据手机W给出的建议进行决策。
可选地,若家长想进一步了解儿童C的学习情况,可以通过手机M筛选上午这段时间的相应信息,通过向服务端发送指令,服务端将相应信息发送至手机M。
中午吃饭期间,手表W、服务端和手机M通过上述类似的方式对儿童进行监控。
下午学校开展运动会,儿童C参加了短跑,在比赛期间,儿童C的速度和加速度触发手表W的发送指令,手表W将该时间段的信息发送至服务端,服务端进行分析之后将监控结果发送给手机M,例如,关键词信息可以为“比赛”、“跑步”等,家长可以了解到这段时间儿童C的运动状态变化是因为参加运动会,也可以了解到这段时间儿童C的情绪状态是高兴和兴奋。
然而在运动会之后,儿童C和别的同学发生了争执,被别的同学推倒在地,此时的儿童C由于猛烈摔倒,其速度和加速度升高异常,触发手表W的发送指令,手表W将该时间段内的运动状态信息和语音信息发送至服务端。服务端在进行分析之后得出儿童C的运动状态异常以及检测到儿童C声纹为哭声的监控结果,将这些该结果发送至手机M,手机M显示运动状态异常并播放儿童C哭声的语音信息,并显示提示信息例如“儿童C情绪状态为悲伤,可能摔倒或遭遇撞击,请及时和老师联系”,家长可根据提示信息采取相应措施。
又例如可选地,儿童C在学校没吃晚饭,血压下降到低于正常血压区间,服务端在进行分析之后得出生理状态监控结果,将该结果发送至手机M,手机M判断出生理状态异常,可以直接和手表W进行实时连接,家长可以知晓此时儿童C的情况,例如,获得儿童C心情不好,不开心等情况。
又例如可选地,儿童C在上学期间被言语暴力恐吓,产生恐惧心理,收到惊吓,导致体内皮质醇激素分泌增多,进而导致血压升高,超出正常范围,通过上述类似的分析方法,手机M可以和手表W进行实时连接,家长可以通过语音信息、生理参数信息获得当时儿童C的言行状态,推断出当时的情况。
放学之后,儿童C回到家里,家长根据监控系统获得的信息和儿童C进行交流,以便获得儿童C在学校的生活情况。
在得知儿童C在学校的生活情况后,在儿童C第二天上学时,家长可以直接触发手机M和手表W的实时连接指令,对儿童C在上学期间进行实时监控和监护。这样能对儿童C进行更加全面的监控。
在上述基础上,如图4所示,本发明实施例提供了一种信息处理装置20,所述信息处理装置20包括:信息获取模块21、分析模块22、发送模块23。
信息获取模块21,用于实时获得待监控对象的语音信息。
信息获取21和图2中步骤S21的实现原理类似,因此在此不作更多说明。
分析模块22,用于根据预存的语音训练样本信息对所述语音信息进行分析,获得反映待监控对象的言行的分析结果。
由于分析模块22和图2中步骤S22的实现原理类似,因此在此不作更多说明。
发送模块23,用于将所述分析结果进行发送。
由于发送模块23和图2中步骤S23的实现原理类似,因此在此不作更多说明。
综上,本发明实施例所提供的信息处理方法、装置及电子设备,能根据预设的情绪分类样本和语义分类样本对儿童C的语音信息进行分析,进而得出反映儿童C的言行的分析结果,根据预设的生理参数区间、运动状态区间和位置区间等判定区间对儿童C对应的其它信息进行分析,获得分析结果,能对儿童C进行全面、智能的分析,并将这些分析结果进行发送,便于家长及时获得儿童C在学校的学习状况和生活状况,在儿童C遇到突发情况时,家长能通过这些分析结果采取相应的应急措施。
在本发明实施例所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备10,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种信息处理方法,其特征在于,所述方法包括:
实时获得待监控对象的语音信息;
根据预存的语音训练样本信息对所述语音信息进行分析,获得反映待监控对象的言行的分析结果;
将所述分析结果进行发送。
2.根据权利要求1所述的信息处理方法,其特征在于,所述言行包括待监控对象的情绪,所述语音信息包括声学特征信息和语义特征信息;根据预存的语音训练样本信息对所述语音信息进行分析,获得反映待监控对象的言行的分析结果的步骤,包括:
将所述语音信息进行预处理;
对经过预处理的语音信息提取所述声学特征信息和所述语义特征信息;
根据所述语音训练样本信息对所述声学特征信息进行分析,获得声学分析结果;
根据所述语音训练样本信息对所述语义特征信息进行分析,获得语义分析结果;
根据所述声学分析结果和所述语义分析结果获得反映待监控对象情绪的分析结果。
3.根据权利要求2所述的信息处理方法,其特征在于,根据所述语音训练样本信息对所述声学特征信息进行分析,获得声学分析结果的步骤,包括:
对所述声学特征信息进行降维处理,采用预设有所述语音训练样本信息的分类器对经过降维处理的声学特征信息进行分类,得到与情绪相关的声学分析结果。
4.根据权利要求2所述的信息处理方法,其特征在于,所述语音训练样本信息包括文本样本信息;根据所述语音训练样本信息对所述语义特征信息进行分析,获得语义分析结果的步骤,包括:
将所述语音信息转换为反映语义特征的文本信息,对所述文本信息进行分词处理;
将经过分词处理之后的文本信息与所述文本样本信息进行匹配,得到语义分析结果。
5.根据权利要求1所述的信息处理方法,其特征在于,所述方法还包括:
实时获得待监控对象的生理参数;
根据预设的生理参数区间,对所述生理参数信息进行分析;若所述生理参数不在所述生理参数区间内,获得反映生理参数异常的第一异常结果;
将所述第一异常结果进行发送。
6.根据权利要求5所述的信息处理方法,其特征在于,所述方法还包括:
实时获得待监控对象的运动状态参数;其中,所述运动状态参数包括速度和加速度;
根据预设的速度区间和加速度区间,对所述速度和所述加速度进行分析;
若所述速度不在所述速度区间内,获得反映运动状态异常的第二异常结果;
若所述加速度不在所述加速度区间内,获得反映运动状态异常的第三异常结果;
将所述第二异常结果和所述第三异常结果进行发送。
7.根据权利要求6所述的信息处理方法,其特征在于,所述方法还包括:
实时获得待监控对象的位置信息;
根据预设的位置区间,对所述位置信息进行分析,若所述位置信息不在所述位置区间内,获得反映位置信息异常的第四异常结果;
将所述第四异常结果进行发送。
8.根据权利要求7所述的信息处理方法,其特征在于,所述方法还包括:
获得修改所述生理参数区间、所述速度区间、所述加速度区间和所述位置区间的修改指令;
根据所述修改指令对所述生理参数区间、所述速度区间、所述加速度区间和所述位置区间进行修改。
9.一种信息处理装置,其特征在于,所述信息处理装置包括:
信息获取模块,用于实时获得待监控对象的语音信息;
分析模块,用于根据预存的语音训练样本信息对所述语音信息进行分析,获得反映待监控对象的言行的分析结果;
发送模块,用于将所述分析结果进行发送。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1~7任一项所述的信息处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711335321.7A CN108022585A (zh) | 2017-12-13 | 2017-12-13 | 信息处理方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711335321.7A CN108022585A (zh) | 2017-12-13 | 2017-12-13 | 信息处理方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108022585A true CN108022585A (zh) | 2018-05-11 |
Family
ID=62073668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711335321.7A Pending CN108022585A (zh) | 2017-12-13 | 2017-12-13 | 信息处理方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108022585A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766859A (zh) * | 2019-01-17 | 2019-05-17 | 平安科技(深圳)有限公司 | 基于微表情的校园监控方法、装置、设备及存储介质 |
CN110246485A (zh) * | 2019-05-21 | 2019-09-17 | 平安科技(深圳)有限公司 | 基于语音识别模型的样本数据获取方法、终端设备及介质 |
CN110246485B (zh) * | 2019-05-21 | 2024-05-24 | 平安科技(深圳)有限公司 | 基于语音识别模型的样本数据获取方法、终端设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105596016A (zh) * | 2015-12-23 | 2016-05-25 | 王嘉宇 | 一种人体心理、生理健康监测和管理装置及方法 |
WO2017085743A2 (en) * | 2015-11-17 | 2017-05-26 | Rudrappa Dhuler Vijayakumar | Wearable personal safety device with image and voice processing capabilities |
CN107086042A (zh) * | 2017-04-25 | 2017-08-22 | 黄石德龙自动化科技有限公司 | 一种基于语音情绪预防青少年心理问题的控制方法 |
CN107277164A (zh) * | 2017-07-21 | 2017-10-20 | 重庆市端峰科技有限公司 | 一种儿童远程智能监护系统 |
-
2017
- 2017-12-13 CN CN201711335321.7A patent/CN108022585A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017085743A2 (en) * | 2015-11-17 | 2017-05-26 | Rudrappa Dhuler Vijayakumar | Wearable personal safety device with image and voice processing capabilities |
CN105596016A (zh) * | 2015-12-23 | 2016-05-25 | 王嘉宇 | 一种人体心理、生理健康监测和管理装置及方法 |
CN107086042A (zh) * | 2017-04-25 | 2017-08-22 | 黄石德龙自动化科技有限公司 | 一种基于语音情绪预防青少年心理问题的控制方法 |
CN107277164A (zh) * | 2017-07-21 | 2017-10-20 | 重庆市端峰科技有限公司 | 一种儿童远程智能监护系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766859A (zh) * | 2019-01-17 | 2019-05-17 | 平安科技(深圳)有限公司 | 基于微表情的校园监控方法、装置、设备及存储介质 |
CN109766859B (zh) * | 2019-01-17 | 2023-12-19 | 平安科技(深圳)有限公司 | 基于微表情的校园监控方法、装置、设备及存储介质 |
CN110246485A (zh) * | 2019-05-21 | 2019-09-17 | 平安科技(深圳)有限公司 | 基于语音识别模型的样本数据获取方法、终端设备及介质 |
CN110246485B (zh) * | 2019-05-21 | 2024-05-24 | 平安科技(深圳)有限公司 | 基于语音识别模型的样本数据获取方法、终端设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108109331A (zh) | 监控方法及监控系统 | |
Malle et al. | Which robot am I thinking about? The impact of action and appearance on people's evaluations of a moral robot | |
CN107220591A (zh) | 多模态智能情绪感知系统 | |
Hossain et al. | Automatic driver distraction detection using deep convolutional neural networks | |
Rani et al. | A machine learning model for kids’ behavior analysis from facial emotions using principal component analysis | |
CN108010526A (zh) | 语音处理方法及装置 | |
CN111353366A (zh) | 一种情绪检测方法及装置、电子设备 | |
Karim et al. | Classification of dyslexic and normal children during resting condition using KDE and MLP | |
CN107704881A (zh) | 一种基于动物脑电识别的数据可视化处理方法及装置 | |
CN108074561A (zh) | 语音处理方法及装置 | |
Chebbi et al. | On the use of pitch-based features for fear emotion detection from speech | |
Sundaravadivel et al. | i-rise: An iot-based semi-immersive affective monitoring framework for anxiety disorders | |
CN113516828A (zh) | 溺水监测方法、装置、设备与计算机可读存储介质 | |
Nguyen et al. | A potential approach for emotion prediction using heart rate signals | |
CN111931633A (zh) | 一种基于视频识别的行为分析与微表情分析方法 | |
CN108022585A (zh) | 信息处理方法、装置及电子设备 | |
DE112019000961T5 (de) | Fahrzeuginternes system zum schätzen einer szene in einem fahrzeuginnenraum | |
CN108109628A (zh) | 信息采集方法、装置及电子设备 | |
KR20190126552A (ko) | 반려동물의 감정상태에 대한 정보 제공 시스템 및 방법 | |
CN111723869A (zh) | 一种面向特殊人员的行为风险智能预警方法及系统 | |
Serbaya | Analyzing the role of emotional intelligence on the performance of small and medium enterprises (SMEs) using ai-based convolutional neural networks (CNNs) | |
Liu et al. | Emotion Recognition Through Observer's Physiological Signals | |
CN114936843A (zh) | 一种人员与岗位匹配程度的评估方法及装置 | |
Poggi et al. | Towards the parody machine. Qualitative analysis and cognitive processes in the parody of a politician | |
Kanimozhi et al. | An adaptive e-learning environment centred on learner's emotional behaviour |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180511 |
|
RJ01 | Rejection of invention patent application after publication |