CN105719663A - 婴儿哭声分析方法 - Google Patents
婴儿哭声分析方法 Download PDFInfo
- Publication number
- CN105719663A CN105719663A CN201510697814.XA CN201510697814A CN105719663A CN 105719663 A CN105719663 A CN 105719663A CN 201510697814 A CN201510697814 A CN 201510697814A CN 105719663 A CN105719663 A CN 105719663A
- Authority
- CN
- China
- Prior art keywords
- data
- interval
- crying
- baby
- vagitus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Telephonic Communication Services (AREA)
Abstract
本发明提供一种婴儿哭声分析方法。本发明一个实施例的婴儿哭声分析方法包括:服务器从客户端装置接收与婴儿的哭声相关的啼哭数据的步骤;按既定区间间隔对所述啼哭数据进行取样,并提取多个取样数据的步骤;及分析所述取样数据的特征矢量,并决定与所述啼哭数据对应的情绪信息的步骤。
Description
技术领域
本发明涉及婴儿哭声分析方法,更详细而言,涉及一种能够分析婴儿哭声、分析婴儿当前心理状态的方法。
背景技术
一般而言,不会说话的幼儿通过表情、行动和声音等向他人传递自身的意思。特别是已经查明,婴儿的哭声根据婴儿的当前状态,例如根据饥饿、胀气、困倦、不适等而存在固有的典型模式,而且,从以往根据看护者的判断而判断幼儿的状态这一做法,可以分析婴儿的哭声并科学地类推幼儿的当前状态。
与此相关,提供了通过婴儿哭声而向使用者分析婴儿的心理状态的服务及平台,作为其示例,婴儿哭声分析装置等已在市场上流通。
现有技术文献
专利文献
(专利文献1)韩国公开专利第2003-0077489号
(专利文献2)韩国注册专利10-0337235号
发明内容
发明所要解决的问题
就以往的婴儿啼哭分析装置而言,会产生使用者需要购买另外装置的经济负担,存在需要始终携带装置的不便。即,婴儿的看护者在外出的情况下也需要携带装置,因而非常麻烦、不便,当无法携带装置时,就存在无法判断婴儿当前状态的问题。
另外,以往的幼儿啼哭分析装置把基于哭声的幼儿状态分类为几种有限的情绪状态,将其通过装置的发光部显示,存在无法传递婴儿具体的心理状态的问题,对于不了解装置使用方法的使用者而言,存在需要通过手册来获得附加信息的不便。
从如上的问题出发,本发明要解决的技术课题是提供一种婴儿哭声分析方法,能够利用使用者已经具备的PC、智能手机、平板电脑等分析婴儿哭声,利用其分析婴儿的多样的心理状态。
本发明要解决的另一技术课题是提供一种婴儿哭声分析方法,能够分析婴儿的哭声,从而准确地分析幼儿的多样的当前状态。
本发明的技术课题并不限定于以上言及的技术课题,未言及的其他技术课题是所属领域的技术人员可以从以下记载明确理解的。
用于解决问题的手段
旨在解决所述言及的技术课题的本发明一个实施例的婴儿哭声分析方法包括:服务器从客户端装置接收与婴儿的哭声相关的啼哭数据的步骤;按既定区间间隔对所述啼哭数据进行取样,并提取多个取样数据的步骤;及分析所述取样数据的特征矢量,并决定与所述啼哭数据对应的情绪信息的步骤。
所述接收啼哭数据的步骤可以包括:以所述服务器中存储的基准数据的音高为基础,校正所述啼哭数据的音高的步骤;及去除所述啼哭数据中包含的杂音数据的步骤。
所述决定情绪信息的步骤可以包括:分析所述取样数据中包含的母音区间的步骤;及从所述母音区间提取所述特征矢量的步骤。
所述决定情绪信息的步骤可以包括:把所述服务器中存储的基准数据与所述特征矢量进行比较的步骤。
所述特征矢量可以包括所述取样数据的音宽、音高、音振动、反复区间之一。
发明效果
根据如上所述的本发明,使用者,即幼儿的看护者在自身拥有的PC、智能手机、平板电脑等中安装应用程序后,可以利用其分析幼儿的哭声,因而便携性及便利性可以增大。
另外,把婴儿哭声分割为既定区间,分析哭声中包含的母音区间,以相应区间的特征为基础,可以决定与婴儿的哭声对应的情绪信息,可以可靠地分析基于婴儿的多样心理状态的多样的哭声。
附图说明
图1是显示本发明一个实施例的婴儿哭声分析方法的概略性流程的顺序图。
图2是显示图1的构成要素间连接、分析婴儿哭声并决定情绪状态的一个示例的图。
图3是显示利用图1的分析方法而区分基于啼哭模式的情绪信息的一个示例的图。
标号说明
10:服务器
20:客户端装置。
具体实施方式
下面参照附图,详细说明本发明的优选实施例。如果参照后面与附图一同详细叙述的实施例,本发明的优点、特征以及达成其的方法将会明确。但是,本发明并非限定于以下公开的实施例,可以以互不相同的多样的形态体现,本实施例的提供仅用于使得本发明的公开更加完整,向本发明所属技术领域的技术人员完全地告知发明的范畴,本发明只由权利要求项的范畴定义。在通篇说明书中,相同参照符号指称相同构成要素。
如果没有不同的定义,则本说明书中使用的所有术语(包括技术及科学术语)可以用作本发明所属技术领域的技术人员能够共同理解的意义。另外,一般使用的字典中定义术语,只要未明确地特别定义,则不得超常地或过度地解释。
本说明书中使用的术语用于说明实施例,并非要限制本发明。在本说明书中,只要在语句中未特别言及,则单数型也包括复数型。说明书中使用的“包括(comprises)”及/或“包括的(comprising)”,不排除在言及的构成要素之外存在或追加一个以上的其他构成要素。
下面参照附图,对本发明实施例的开放市场方式的股票交易信息提供及中介方法进行说明。
如果参照图1,图示了本发明一个实施例的开放市场方式的股票交易信息提供方法的概略性流程。
在本说明书中,客户端可以是利用客户端装置与服务器执行接收发送数据的一系列过程的主体。另外,所谓客户端装置,可以意味着用于根据情况而执行收集及传送分散于服务器的所需各种信息的功能的客户端接入终端装置。
例如,客户端装置可以是台式PC、笔记本PC等计算机,可以是能够通过既定的网络而接入服务器并利用双向通信服务的所有种类的有线、无线通信装置。另外,客户端装置包括通过无线互联网或移动互联网进行通信的移动终端,除此之外,总括性地可以意味着掌上电脑(PalmPersonalComputer)、个人数字助理(PDA:PersonalDigitalAssistant)、智能手机(Smartphone)、平板电脑、无线应用协议手机(WAPphone:Wirelessapplicationprotocolphone)、移动游戏机(mobileplay-station)等具有用于接入服务器的通信模块、显示装置及用户界面的所有有线、无线家电/通信装置。在后述的实施例中,客户端与客户端装置也可以解释为相同的意义。
客户端或客户端装置可以与服务器通信,与服务器发送接收既定的数据。客户端装置可以直接与服务器连接,发送接收数据,但并非限定于此,也可以是通过既定的中继服务器连接,所有数据经中继服务器进行发送接收的构成。
服务器可以允许一个以上的客户端终端装置通过网络连接。网络可以是有线或无线互联网,此外,也可以是有线公众网、无线移动通信网或与移动互联网等统合的核心网,可以意味着提供TCP/IP协议及存在于其上层的各种服务,即提供HTTP(HyperTextTransferProtocol,超文本传输协议)、Telnet(远处登录网络协议)、FTP(FileTransferProtocol,文件传送协议)、DNS(DomainNameSystem,域名系统)、SMTP(SimpleMailTransferProtocol,简单邮件传送协议)等的全世界的开放型计算机网络结构。
首先,服务器可以从客户端装置接收与婴儿的哭声相关的啼哭数据(S11)。
为此,客户端装置可以首先执行从服务器下载体现本实施例的婴儿哭声分析方法的另外的应用或应用程序并安装的过程。
然后,使用者在运行客户端装置中安装的应用或应用程序的状态下,可以用客户端装置接收婴儿的哭声并生成啼哭数据。例如,婴儿的看护者,即,客户端从服务器下载另外的应用并安装后,可以运行相应应用,但并非限定于此。在运行应用后,使用者可以利用客户端装置中,例如智能手机中具备的麦克风模块,收集婴儿的哭声,模拟形态的婴儿哭声可以在客户端装置中变化成经数字化的啼哭数据。服务器可以从客户端装置接收这种啼哭数据。
服务器可以按既定区间间隔,对接收的啼哭数据进行取样,提取多个取样数据(S12)。
在此过程中,服务器可以执行用于提高分析准确度的多样的预处理过程,在本实施例中,预处理过程可以执行音高校正及杂音去除的过程,但并非限定于此。
音高校正过程可以是服务器对接收的啼哭数据存储于服务器的基准数据即啼哭数据与要比较数据的音高进行校正的过程。本发明的婴儿哭声分析方法利用婴儿的哭声的多样模式,例如,利用音宽、音高、振动、反复区间等,分析婴儿的情绪状态,因而可以执行对音高校正的预处理作业,以便能够与基准数据比较。另外,可以对接收的啼哭数据进行分析,以婴儿的哭声为基准,去除与哭声无关的声音,即,去除杂音,从而能够提高分析的准确度及可靠性。
即,根据客户端及客户端装置的周边环境等,即使是相同的啼哭,也会具有互不相同的杂音及声音模式,可以对其进行校正,提高分析的准确度。
在执行预处理过程后,服务器可以按既定区间间隔,对接收的啼哭数据进行取样,提取多个取样数据(S12)。
即,啼哭数据可以分割成多个取样数据,各取样数据会与之前取样数据及之后取样数据在时间段上具有连续性。
另外,在本实施例中,取样间隔设置为0.025秒间隔,但并非限定于此,根据使用者的环境及设置等,可以按多样的基准间隔决定取样间隔。
继而,可以提取分割的各个取样数据的特征矢量(S13)。
取样数据根据取样间隔,可以具有各个音宽、音高、音振动、反复区间等,可以对其进行特征矢量化并提取。
换句话说,特征矢量可以是包括各取样数据的音宽、音高、音振动、反复区间中一者以上特征的矢量,服务器可以分析取样数据中包含的特征矢量并决定情绪信息(S14)。
特别是服务器可以分析取样数据中包含的母音区间,以母音区间的模式为基础决定特征矢量。
一般而言,婴儿的哭声的模式取决于母音,换句话说,可以把取样数据全体区间中包含母音的区间的音宽、音高、音振动、反复区间等特征决定为特征矢量。
最后,服务器可以把多个特征矢量与基准数据进行比较,决定情绪信息(S14)。换句话说,服务器可以在既定时间期间分析特征矢量中包含的婴儿啼哭的模式,将其与服务器中存储的基准数据比较,决定情绪信息。
为此,服务器可以对与互不相同模式的婴儿啼哭对应的情绪信息进行匹配并存储,将其用作基准数据。例如,服务器可以从专家收集关于多样模式的婴儿啼哭的情绪状态信息,事先匹配与各啼哭模式对应的情绪信息,对其进行数据库化并管理。
然后,如果从客户端装置接收啼哭数据,则可以对其进行分析,提取特征矢量,把特征矢量与基准数据进行比较,决定与特征矢量对应的情绪信息,决定的情绪信息可以传送给客户端装置。情绪信息是对婴儿的多样的当前状态进行具体化的信息,例如,可以是关于饥饿、不适、困倦、舒适、胀气等的信息。
在一些其他实施例中,取代按既定区间间隔对啼哭数据进行取样的过程(S12),服务器可以分析啼哭数据中包含的母音区间,按既定区间间隔对母音区间进行取样,生成多个取样数据。
如前所述,婴儿哭声的模式大部分发生在母音区间,因而取代对全体啼哭数据进行取样,也可以首先提取啼哭数据中包含的母音区间,只对母音区间进行取样,生成取样数据。
即,可以分析哭声中包含的母音区间的音宽、颤音、反复程度、音高等,决定哭声的模式,可以比较哭声的模式与基准数据,检索一致的基准数据,可以检索预先匹配到基准数据的情绪信息,决定关于相应哭声的情绪信息。
如果参照图2,图示了体现图1所示婴儿哭声分析方法的服务器及客户端装置间分析哭声的一个示例。
首先,客户端装置(10)可以从婴儿处收集哭声。例如,婴儿的看护者可以在运行安装于客户端装置(10)的应用程序或应用后,对婴儿哭声进行录音。如前所述,客户端装置可以从体现本实施例的婴儿哭声分析方法的服务器,事先下载与其相关的应用程序或应用后安装,可以利用客户端装置(10)中具备的麦克风模块等收集哭声并变换成啼哭数据。
服务器(20)可以从客户端装置(10)接收啼哭数据,按既定区间间隔对啼哭数据或啼哭数据中包含的母音区间进行取样,并提取取样数据,还可以从各取样数据提取特征矢量。
然后,服务器(20)可以对提取的多个特征矢量进行分析,例如,对母音区间的音振动、音宽、反复区间、音高等进行分析,检索与其一致或类似的基准数据,可以检索事先匹配到决定的基准数据的情绪信息,决定关于接收的哭声的情绪信息。可以提取决定的情绪信息的结果值,并传送给客户端装置(10)。
如果参照图3,图示了利用本实施例的婴儿啼哭分析方法而对基于啼哭模式的情绪信息进行区分的一个示例。
具体而言,图3的(a)是饥饿状态的母音区间模式、图3的(b)是困倦状态的母音区间模式、图3的(c)是不适状态的母音区间模式的一个示例。
如图所示,就各个哭声中包含的母音区间而言,作为对(a)的6.88~6.89秒、(b)的8.41~8.42秒、(c)的1.83~1.84秒区间期间包含的母音模式进行分析的结果,在0.01秒的较短区间也反复出现,因而通过收集10秒左右的婴儿啼哭声音,便可以提供具有可靠性的分析结果。
如前所述,婴儿的哭声根据婴儿的心理状态,可以包括互不相同的母音模式,为此,使用者可以利用客户端装置,运行体现本实施例的婴儿啼哭分析方法的应用后,收集既定时间区间期间的婴儿哭声。
如果收集了基准时间以上的婴儿哭声样本,那么客户端装置中安装的应用可以对收集的哭声的母音模式进行分析,与预先存储的比较数据进行比较,把情绪信息匹配于收集的婴儿哭声。
例如,在饥饿状态下收集的婴儿的哭声一般可以分析为如图3的(a)所示的母音模式,如果与困倦状态的哭声(图3的b)比较可知,母音区间的出现频度比较低,在短时间区间期间,第1模式与第2模式反复形成。
相反,在困倦状态下收集的婴儿的哭声如图3的(b)所示可知,母音区间较少出现,与其他心理状态的哭声相比,模式单纯。
另外可知,在不适状态下收集的婴儿的哭声虽然与饥饿状态的母音模式(a)类似,但各模式间的出现周期更稠密且不规则地形成。
如上所述,针对一般难以区分的婴儿的哭声,分析哭声中包含的母音区间的模式,从而能够提供具有可靠性的分析结果。
用于运行本发明一个实施例的婴儿哭声分析方法的计算装置用软件程序包括:服务器从客户端装置接收与婴儿的哭声相关的啼哭数据的步骤;按既定区间间隔对啼哭数据进行取样,并提取多个取样数据的步骤;及分析取样数据的特征矢量,并决定与啼哭数据对应的情绪信息的步骤。
接收啼哭数据的步骤可以包括:以服务器中存储的基准数据的音高为基础,校正啼哭数据的音高的步骤;及去除啼哭数据中包含的杂音数据的步骤。
决定情绪信息的步骤可以包括:分析取样数据中包含的母音区间的步骤;及从母音区间提取特征矢量的步骤。
决定情绪信息的步骤可以包括:把服务器中存储的基准数据与特征矢量进行比较的步骤。
特征矢量可以包括取样数据的音宽、音高、音振动、反复区间之一。
本实施例的方法可以借助于一个或其以上的ASICs(applicationspecificintegratedcircuits,专用集成电路)、DSPs(digitalsignalprocessors,数字信号处理器)、DSPDs(digitalsignalprocessingdevices,数字信号处理装置)、PLDs(programmablelogicdevices,可编程逻辑设备)、FPGAs(fieldprogrammablegatearrays,现场可编程门阵列)、处理器、控制器、微控制器、微处理器等体现。
当借助于固件或软件体现时,本发明实施例的方法可以以执行以上说明的功能或动作的模块、步骤或函数等的形态体现。软件代码可以存储于存储器单元并被处理器驱动。所述存储器单元可以位于所述处理器内部或外部,借助于已公知的多样的手段而与所述处理器接收发送数据。
具体而言,计算装置不仅是普通的台式或笔记本等普通PC,还可以意味着包括智能手机、平板电脑、PDA等移动终端的执行计算动作的机械及装置。
以上参照附图,说明了本发明的实施例,但本发明所属技术领域的技术人员可以理解,本发明在不变更其技术思想或必需特征的情况下,可以以其他具体形态实施。因此,以上记述的实施例应理解为在所有方面只是示例而非限定。
Claims (6)
1.一种婴儿哭声分析方法,其特征在于,包括:
服务器从客户端装置接收与婴儿的哭声相关的啼哭数据的步骤;
按既定区间间隔对所述啼哭数据进行取样,并提取多个取样数据的步骤;及
分析所述取样数据的特征矢量,并决定与所述啼哭数据对应的情绪信息的步骤。
2.根据权利要求1所述的婴儿哭声分析方法,其特征在于,
所述接收啼哭数据的步骤包括:
以所述服务器中存储的基准数据的音高为基础,校正所述啼哭数据的音高的步骤;及
去除所述啼哭数据中包含的杂音数据的步骤。
3.根据权利要求1所述的婴儿哭声分析方法,其特征在于,
所述决定情绪信息的步骤包括:
分析所述取样数据中包含的母音区间的步骤;及
从所述母音区间提取所述特征矢量的步骤。
4.根据权利要求1所述的婴儿哭声分析方法,其特征在于,
所述决定情绪信息的步骤包括:
将所述服务器中存储的基准数据与所述特征矢量进行比较的步骤。
5.根据权利要求1所述的婴儿哭声分析方法,其特征在于,
所述特征矢量包括所述取样数据的音宽、音高、音振动、反复区间之一。
6.一种用于运行权利要求1至5中任意一项的方法的计算装置用软件。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140186636 | 2014-12-23 | ||
KR10-2014-0186636 | 2014-12-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105719663A true CN105719663A (zh) | 2016-06-29 |
Family
ID=56144974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510697814.XA Pending CN105719663A (zh) | 2014-12-23 | 2015-10-23 | 婴儿哭声分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105719663A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106373593A (zh) * | 2016-08-22 | 2017-02-01 | 衣佳鑫 | 基于音频检测婴儿吃奶次数方法及系统 |
CN106653059A (zh) * | 2016-11-17 | 2017-05-10 | 沈晓明 | 婴儿啼哭原因的自动识别方法及其系统 |
CN108766467A (zh) * | 2018-05-31 | 2018-11-06 | 广州粤创富科技有限公司 | 一种宠物情绪识别的方法和终端 |
CN108806765A (zh) * | 2018-05-23 | 2018-11-13 | 刘博韬 | 一种智能婴儿监护系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1564245A (zh) * | 2004-04-20 | 2005-01-12 | 上海上悦通讯技术有限公司 | 婴儿哭声解读方法与装置 |
WO2007102505A1 (ja) * | 2006-03-06 | 2007-09-13 | Nagasaki University | 乳児の情動を判定する方法、そのための装置とプログラム |
CN101226742A (zh) * | 2007-12-05 | 2008-07-23 | 浙江大学 | 基于情感补偿的声纹识别方法 |
CN101743585A (zh) * | 2008-04-04 | 2010-06-16 | 弗劳恩霍夫应用研究促进协会 | 采用高质量音高校正的音频处理 |
CN101807396A (zh) * | 2010-04-02 | 2010-08-18 | 陕西师范大学 | 婴儿哭闹自动记录装置及方法 |
CN103280220A (zh) * | 2013-04-25 | 2013-09-04 | 北京大学深圳研究生院 | 一种实时的婴儿啼哭声识别方法 |
CN103295584A (zh) * | 2012-02-24 | 2013-09-11 | 索尼公司 | 音声数据检测装置、音声监控系统及其方法 |
CN103426438A (zh) * | 2012-05-25 | 2013-12-04 | 洪荣昭 | 婴儿哭声分析方法及系统 |
CN203966548U (zh) * | 2014-03-04 | 2014-11-26 | 深圳创维-Rgb电子有限公司 | 婴儿声音识别装置 |
-
2015
- 2015-10-23 CN CN201510697814.XA patent/CN105719663A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1564245A (zh) * | 2004-04-20 | 2005-01-12 | 上海上悦通讯技术有限公司 | 婴儿哭声解读方法与装置 |
WO2007102505A1 (ja) * | 2006-03-06 | 2007-09-13 | Nagasaki University | 乳児の情動を判定する方法、そのための装置とプログラム |
CN101226742A (zh) * | 2007-12-05 | 2008-07-23 | 浙江大学 | 基于情感补偿的声纹识别方法 |
CN101743585A (zh) * | 2008-04-04 | 2010-06-16 | 弗劳恩霍夫应用研究促进协会 | 采用高质量音高校正的音频处理 |
CN101807396A (zh) * | 2010-04-02 | 2010-08-18 | 陕西师范大学 | 婴儿哭闹自动记录装置及方法 |
CN103295584A (zh) * | 2012-02-24 | 2013-09-11 | 索尼公司 | 音声数据检测装置、音声监控系统及其方法 |
CN103426438A (zh) * | 2012-05-25 | 2013-12-04 | 洪荣昭 | 婴儿哭声分析方法及系统 |
CN103280220A (zh) * | 2013-04-25 | 2013-09-04 | 北京大学深圳研究生院 | 一种实时的婴儿啼哭声识别方法 |
CN203966548U (zh) * | 2014-03-04 | 2014-11-26 | 深圳创维-Rgb电子有限公司 | 婴儿声音识别装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106373593A (zh) * | 2016-08-22 | 2017-02-01 | 衣佳鑫 | 基于音频检测婴儿吃奶次数方法及系统 |
CN106653059A (zh) * | 2016-11-17 | 2017-05-10 | 沈晓明 | 婴儿啼哭原因的自动识别方法及其系统 |
CN108806765A (zh) * | 2018-05-23 | 2018-11-13 | 刘博韬 | 一种智能婴儿监护系统 |
CN108766467A (zh) * | 2018-05-31 | 2018-11-06 | 广州粤创富科技有限公司 | 一种宠物情绪识别的方法和终端 |
CN108766467B (zh) * | 2018-05-31 | 2021-04-23 | 广州粤创富科技有限公司 | 一种宠物情绪识别的方法和终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105719663A (zh) | 婴儿哭声分析方法 | |
CN112311803B (zh) | 一种规则库更新方法、装置、电子设备及可读存储介质 | |
CN112116059B (zh) | 一种车辆故障诊断方法、装置、设备及存储介质 | |
US20180268312A1 (en) | Method and system for incrementally learning log patterns on heterogeneous logs | |
CN108268635B (zh) | 用于获取数据的方法和装置 | |
CN104615760A (zh) | 钓鱼网站识别方法和系统 | |
US20160359793A1 (en) | Systems and methods for creation, delivery and tracking of electronic messages | |
CN114528457B (zh) | Web指纹检测方法及相关设备 | |
CN104956372A (zh) | 使用运行时和静态代码分析来确定动态安全扫描的覆盖率 | |
CN106446113A (zh) | 移动大数据解析方法及装置 | |
CN112685799B (zh) | 设备指纹生成方法、装置、电子设备和计算机可读介质 | |
CN108667770A (zh) | 一种网站的漏洞测试方法、服务器及系统 | |
CN102984161A (zh) | 一种可信网站的识别方法和装置 | |
CN111563163A (zh) | 文本分类模型的生成方法和装置、数据标准化方法和装置 | |
JPWO2018079225A1 (ja) | 自動予測システム、自動予測方法および自動予測プログラム | |
US20210049414A1 (en) | Deep graph de-noise by differentiable ranking | |
CN107862016B (zh) | 一种专题页面的配置方法 | |
CN110301892A (zh) | 一种基于静脉识别的检测方法及相关产品 | |
CN112242136B (zh) | 提高会话模型的测试覆盖 | |
CN102984162A (zh) | 可信网站的识别方法和收集系统 | |
CN109446807A (zh) | 用于识别拦截恶意机器人的方法、装置以及电子设备 | |
US20230259586A1 (en) | Advanced data collection block identification | |
CN112416800A (zh) | 智能合约的测试方法、装置、设备及存储介质 | |
CN112100156B (zh) | 基于用户行为构建知识库的方法、装置、介质、系统 | |
CN102999590B (zh) | 识别官方网站的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160629 |
|
WD01 | Invention patent application deemed withdrawn after publication |