CN117708680B - 一种用于提升分类模型准确度的方法及装置、存储介质、电子装置 - Google Patents
一种用于提升分类模型准确度的方法及装置、存储介质、电子装置 Download PDFInfo
- Publication number
- CN117708680B CN117708680B CN202410167007.6A CN202410167007A CN117708680B CN 117708680 B CN117708680 B CN 117708680B CN 202410167007 A CN202410167007 A CN 202410167007A CN 117708680 B CN117708680 B CN 117708680B
- Authority
- CN
- China
- Prior art keywords
- data
- user
- scene
- request data
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000013145 classification model Methods 0.000 title claims abstract description 42
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 45
- 230000007613 environmental effect Effects 0.000 claims abstract description 10
- 239000013598 vector Substances 0.000 claims description 157
- 238000012549 training Methods 0.000 claims description 71
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 14
- 238000003058 natural language processing Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 17
- 238000013210 evaluation model Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 238000013136 deep learning model Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 238000012937 correction Methods 0.000 description 8
- 238000013179 statistical model Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 230000002787 reinforcement Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000005096 rolling process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 208000035475 disorder Diseases 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000003238 somatosensory effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000005406 washing Methods 0.000 description 2
- 208000025174 PANDAS Diseases 0.000 description 1
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000000540 analysis of variance Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000000546 chi-square test Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种用于提升分类模型准确度的方法及装置、存储介质、电子装置,涉及智慧家庭技术领域,该用于提升分类模型准确度的方法包括:接收用户的请求数据;在请求数据中添加背景信息;其中,背景信息包括用户数据、设备数据、环境数据和空间数据;对添加背景信息的请求数据进行处理,获得融合后的请求数据;将融合后的请求数据传递给分类器;其中,分类器用于对用户的请求进行分类。本申请将背景信息添加至请求数据后,对数据进行了后续处理,使得处理后的数据更容易被分类器所理解,进而使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
Description
技术领域
本申请涉及智慧家庭技术领域,具体而言,涉及一种用于提升分类模型准确度的方法及装置、存储介质、电子装置。
背景技术
目前,随着物联网、云计算和人工智能等技术的快速发展,智慧家庭成为了一个热门的研究和应用领域。在智慧家庭环境中,各种设备需要通过一种有效的方式来理解用户的需求和意图,并做出相应的响应,这其中最关键的一个步骤是理解用户的真实意图,从而对用户请求的进行分类。
为了更好地理解用户的真实意图,对用户的请求进行分类,相关技术中,利用了深度学习技术。通过CNN(Convolutional Neural Networks,卷积神经网络)或RNN(RecurrentNeural Networks,循环神经网络)等深度学习模型,提取输入数据中的特定模式或趋势,以帮助分类模型理解用户的意图,进而对用户请求进行分类。
在实现本公开实施例的过程中,发现相关技术中至少存在如下问题:
相关技术虽然能够通过深度学习模型帮助分类模型理解用户的意图,但是,深度学习模型只可以处理一些结构化的数据,例如文本或语音。对于非结构化的上下文信息,例如用户、设备、环境和空间的信息,深度学习模型的处理效果不佳。这样可能导致分类模型难以理解用户的意图,进而可能影响分类模型的分类准确度。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
为了对披露的实施例的一些方面有基本的理解,下面给出了简单的概括。所述概括不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围,而是作为后面的详细说明的序言。
本公开实施例提供了一种用于提升分类模型准确度的方法及装置、存储介质、电子装置,能够提升分类模型的准确度。
在一些实施例中,所述方法包括:接收用户的请求数据;在请求数据中添加背景信息;其中,背景信息包括用户数据、设备数据、环境数据和空间数据;对添加背景信息的请求数据进行领域向量化处理,获得融合后的请求数据;将融合后的请求数据传递给分类器,获得分类结果;其中,分类器用于对用户的请求进行分类。
可选地,在请求数据中添加背景信息,包括:收集背景信息;其中,背景信息包括用户数据、设备数据、环境数据和空间数据;将请求数据和背景信息进行合并。
可选地,将请求数据和背景信息进行合并,包括:将请求数据和背景信息拼接;或,通过序列生成模型对请求数据和背景信息进行合并。
可选地,对添加背景信息的请求数据进行领域向量化处理,包括:根据背景信息,形成转换内容;将转换内容插入用户的请求数据,获得综合数据;将综合数据转换为固定长度的向量。
可选地,根据背景信息,形成转换内容,包括:根据自然语言处理算法,获取背景信息中的文本;将文本转换为数值向量。
可选地,将转换内容插入用户的请求数据,包括:将用户的请求数据进行向量化处理,获得用户的输入向量;将用户的输入向量与背景信息中的数值向量进行拼接,或,对用户的输入向量与背景信息的数值向量进行加权求和,或,将用户的输入向量与背景信息的数值向量进行混合。
可选地,分类器对用户的请求进行分类,包括:获取历史输入数据和历史输出标签的映射关系;根据映射关系,对用户的请求进行预测,获得预测结果。
可选地,获取历史输入数据和历史输出标签的映射关系,包括:获取历史输入数据和与历史输入数据相对应的历史输出标签;对历史输入数据和历史输出标签进行学习,获得映射关系。
可选地,接收用户的请求数据后,还包括:对请求数据进行转换;对转换后的请求数据进行补全和/或纠正。
可选地,将融合后的请求数据传递给分类器后,所述方法还包括:将分类器的分类结果输入第一场景生成模型,获得第一场景方案;其中,第一场景生成模型的训练数据类型包括用户数据、设备数据、环境数据和空间数据;根据第一场景方案控制目标设备。
在一些实施例中,所述用于提升分类模型准确度的装置包括:接收模块,被配置为接收用户的请求数据;添加模块,被配置为在请求数据中添加背景信息;其中,背景信息包括用户数据、设备数据、环境数据和空间数据;处理模块,被配置为对添加背景信息的请求数据进行领域向量化处理,获得融合后的请求数据;分类模块,包括分类器,分类器被配置为根据融合后的请求数据对用户的请求进行分类。
在一些实施例中,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行上述的用于提升分类模型准确度的方法。
在一些实施例中,所述电子装置包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行上述的用于提升分类模型准确度的方法。
本公开实施例提供的用于提升分类模型准确度的方法及装置、存储介质、电子装置,可以实现以下技术效果:
相较于相关技术,本公开实施例在请求数据中添加了背景信息,使得请求数据的内容更加丰富。背景信息包括结构化数据和非结构化数据。结构化数据为固定格式的数据,例如,以Excel格式存在的数据。非结构化数据的格式不固定,例如,产品说明书中的产品介绍。由于背景信息中包含大量的非结构化信息,这些非结构化的信息难以被模型直接理解,因此,将背景信息添加至请求数据后,对数据进行了向量化处理。使得请求数据能够转换为文本形式,便于模型接收,进而使得处理后的数据更容易被分类器所理解,进而使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
以上的总体描述和下文中的描述仅是示例性和解释性的,不用于限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是根据本公开实施例的一种用于场景生成的方法的硬件环境示意图;
图2是根据本公开实施例的一种用于场景生成的方法的软件系统示意图;
图3是根据本公开实施例的一种用于提升分类模型准确度的方法的软件系统示意图;
图4是根据本公开实施例的一种用于提升分类模型准确度的方法的示意图;
图5是根据本公开实施例的另一种用提升分类模型准确度的方法的示意图;
图6是根据本公开实施例的另一种用于提升分类模型准确度的方法的示意图;
图7是根据本公开实施例的一种用于提升分类模型准确度的装置示意图;
图8是根据本公开实施例的一种用于提升分类模型准确度的电子装置示意图;
图9是根据本公开实施例的一种用于构建层级知识图谱的方法的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请(所记载的技术方案中)的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
目前,随着物联网、云计算和人工智能等技术的快速发展,智慧家庭成为了一个热门的研究和应用领域。
根据本公开实施例的一个方面,提供了一种用于场景生成的方法。该用于场景生成的方法广泛应用于智慧家庭(Smart Home)、智能家居、智能家用设备生态、智慧住宅(Intelligence House)生态等全屋智能数字化控制应用场景。可选地,在本公开实施例中,上述用于场景生成的方法可以应用于如图1所示的由智能家电设备01和控制中枢设备02所构成的硬件环境中。如图1所示,控制中枢设备02通过网络与智能家电设备01进行连接,可用于为终端或终端上安装的客户端提供服务(如应用服务等),可在服务器上或独立于服务器设置数据库,用于为控制中枢设备02提供数据存储服务,可在服务器上或独立于服务器配置云计算和/或边缘计算服务,用于为控制中枢设备02提供数据运算服务。
上述网络可以包括但不限于以下至少之一:有线网络,无线网络。上述有线网络可以包括但不限于以下至少之一:广域网,城域网,局域网,上述无线网络可以包括但不限于以下至少之一:WIFI(Wireless Fidelity,无线保真),蓝牙。智能家电设备01可以并不限定于为PC、手机、平板电脑、智能空调、智能烟机、智能冰箱、智能烤箱、智能炉灶、智能洗衣机、智能热水器、智能洗涤设备、智能洗碗机、智能投影设备、智能电视、智能晾衣架、智能窗帘、智能影音、智能插座、智能音响、智能音箱、智能新风设备、智能厨卫设备、智能卫浴设备、智能扫地机器人、智能擦窗机器人、智能拖地机器人、智能空气净化设备、智能蒸箱、智能微波炉、智能厨宝、智能净化器、智能饮水机、智能门锁等。
控制中枢设备02可以并不限定于为云端服务器、中央控制器、智能家居网关等。
结合图1所示的硬件环境,本公开实施例中提供一种用于场景生成的软件系统。其中,控制中枢设备02设置有用户交互模块03、模型应用模块04、控制模块05和模型训练模块06。
用户交互模块03,被配置为获取用户的需求,并,将用户的需求输入第一场景生成模型。
模型应用模块04,包括第一场景生成模型,被配置为在收到用户的需求的情况下输出第一场景方案;其中,第一场景生成模型的训练数据类型包括用户数据、设备数据、环境数据和空间数据。
第一场景生成模型的训练数据存储于背景信息库09中。背景信息库09包括用户数据、设备数据、环境数据和空间数据。
用户数据包括基本属性、行为习惯、喜好和偏好、常用设备和用户所处环境。
用户数据在智能家居环境中是极其重要的,能够帮助系统理解并预测用户的行为,使得服务更加个性化和高效。基本属性包括用户的性别、年龄、职业等。这些标签可以帮助系统理解用户的一般行为倾向。例如,一位年轻的白领可能更习惯使用智能手机来控制家居设备。行为习惯包括用户以往使用智能家居设备的记录,行为习惯可以描绘出一个比较全面的行为模式。例如,用户经常在早上7点使用咖啡机,则将使用时间和设备标识作为用户的一个行为习惯数据,系统可以学习到这个行为习惯,并及时在该使用时间前预热咖啡机。喜好和偏好包括用户控制设备和配置设置的记录,系统也可以学习到用户的喜好和偏好。例如,用户可能喜欢在晚上看电影,则用户可能经常调暗客厅灯光并开启家庭影院模式。常用设备包括用户最常使用的设备的记录。例如,如果用户经常在厨房里烹饪并喜欢听有声读物,则将音响确定为用户的常用设备,或常用设备之一。用户所处环境包括不同空间环境下的活动模式。例如,一位经常在书房工作的用户相较于在客厅休息的用户会展现出不同活动模式。
设备数据包括:设备基本信息、设备状态、设备能力和设备位置。
设备是智能家庭环境的关键组成部分。其中,设备基本信息包括设备的型号、品牌、型号等,这些信息有助于识别设备类型并了解其基本功能。设备状态包括设备的开关状态和当前运行状态。这些状态信息对理解设备当前情况和预测可能需要执行的操作至关重要。例如,获知空调正在运行,并且设置在22℃,如果用户感觉太冷,系统可能需要提高空调设置的温度。设备能力包括设备可以执行的功能。例如智能灯光可以调整亮度和颜色。而智能音箱可以放音乐、设置计时等。系统需要知道设备的特性以及设备如何响应特定命令。家庭环境中每种设备都会在特定的空间位置。这个位置信息将影响对用户指令的理解以及后续操作策略。例如,如果获知声音指令是从卧室发出,并且指令内容是“关灯”,那么就应该关掉位于卧室的灯。
环境数据包括:体感环境、室内空气质量、时间与季节、房间人流和特殊情况。
环境对系统理解用户需求及做出准确决策有着决定性的影响。体感环境包括室内温度、湿度、光照、噪音等环境参数信息。例如,室内温度可以影响恒温设备。而室内光照条件改变可能会改变用户对智能灯的需求。室内空气质量可能会使得用户需要开启空气净化器或卷帘。时间与季节包括当前时间点、日期、季节等。例如,进入夜晚时需要开启灯光,而在冬季可能需要调高恒温设备的温度。房间人流包括是否有人在房间内以及人的运动情况。例如,房间无人的情况可以关灯以节省能源,而如果有人进入则可能需要开启照明设备。特殊情况包括一些特殊事件,特殊事件也会影响环境,例如是否正在进行派对或者有访客到来。
空间数据包括房间布局、房间功能、设备分布和空间尺度。
空间数据指的是智能家居系统所在环境的物理属性和特征。房间布局包括家中各个房间的位置关系和户型设计。这些信息可能影响设备如何分布和安装,也可能影响用户在家中移动和使用设备。每个房间都具有特定功能,例如,卧室用于休息,书房用于工作或学习,客厅则可能用于社交或娱乐活动。了解每个房间的功能可以帮助系统理解用户在特定地点可能会进行什么样的活动或对设备有什么样的需求。设备分布能够获知每个房间包含的智能家居设备。并且设备之间的相对位置对于精确控制设备也是非常重要。空间尺度包括空间或场所的大小、角度和高度。例如,当控制窗帘时,需要根据窗户的宽度考虑窗帘开合控制所需的行程。
控制模块05,被配置为根据第一场景方案控制目标设备。其中,目标设备为智能家电设备01中的一个或多个。
模型训练模块06,被配置为训练第一场景生成模型。模型训练模块06包括:智慧家庭领域的知识库061、层级知识图谱062、场景向量库063和增强学习模型07。
在智慧家庭领域的知识库061中,存储有结构化和非结构化的数据,包括但不限于:产品设计数据、场景设计、产品规划书、企业规范化数据、产品功能表等。这些数据可以从产品说明书、客服单、售后单、营销单或电商评价中获取。
层级知识图谱062是经过深度聚类和分级处理的知识图谱,能够构建出符合相关要求的知识结构。如图9所示,智慧家庭领域的知识库061为初级知识图谱提供了数据支持,使得根据初级知识图谱获得的层级知识图谱062包含智慧家庭领域的多层级属性。层级知识图谱062中的知识按照相关程度和重要等级被划分为不同的多个层级,便于场景生成模型理解各个智能设备的使用方式和智能设备之间的关系。层级知识图谱可以作为训练轻量化模型的有效输入,并为其提供必需的知识体系。通过构建层级知识图谱062,可以在原有的全量知识图谱基础上增加新的维度,从而使知识图谱更好地服务于特定的业务场景,并提升其在实际应用中的价值。
场景向量库063由大量的场景向量组成,场景向量库063中包括大量的用于场景生成的数据,通过场景向量库063训练第一场景生成模型,使得第一场景生成模型能够结合大量的用于场景生成的数据。最终使得生成的场景更加符合用户的需求。
增强学习模型07用于实现场景向量库的更新,通过增强学习模型07能够扩充场景向量库063中的场景向量。增强学习模型07可以包括条件生成对抗网络、马尔可夫决策过程或Q值学习算法中的一个或多个算法。在通过条件生成对抗网络进行优化的情况下,还能够测试场景向量库063中的场景向量的真实性,从而进一步优化场景向量库063。
控制中枢设备02还设置有用户反馈模块08,被配置为收集和处理用户的反馈信息,以用户更新第一场景生成模型。
如图2所示,该系统能够结合智慧家庭领域的知识库061,训练第一场景生成模型。在通过第一场景生成模型生成场景的过程中,结合了用户数据、设备数据、环境数据和空间数据等多种数据。并且,能够利用用户的反馈更新第一场景生成模型。最终使得生成的场景更加符合用户的需求。
其中,第一场景生成模型能够根据用户的需求,控制智慧家庭中的设备,生成与用户的需求相对应的场景。用户交互模块03用于获取用户的需求,并且将用户的需求输入场景生成模型。智慧家庭领域的知识库061、层级知识图谱062、场景向量库063和增强学习模型07都用于训练第一场景生成模型。
在图2所示的软件系统中,控制中枢设备02需要通过一种有效的方式来理解用户的需求和意图,并做出相应的响应。其中关键的一点是理解用户的真实意图,从而对用户请求的进行分类。
如图3所示,本公开实施例提供一种用于提升分类模型的准确度的软件系统。该系统设置于图2的用户交互模块03,包括接收模块031、添加模块032、处理模块033和分类模块034。接收模块031能够接收用户的请求数据。添加模块032能够在请求数据中添加背景信息。其中,背景信息包括用户数据、设备数据、环境数据和空间数据。处理模块033能够对添加背景信息的请求数据进行处理,获得融合后的请求数据。分类模块034,包括分类器,能够将融合后的请求数据传递给分类器。其中,分类器用于对用户的请求进行分类。
控制中枢设备02能够在用户发出请求数据后,获取当前智慧家庭的背景信息。背景信息中包含了大量地与场景相关的信息。通过将这些信息添加进请求数据,能够使得请求数据的内容更加丰富,能够包含更多的有效信息,以便于分类器进行理解和分类。通过向量化处理模块,能够对添加背景信息的请求数据进行领域向量化处理,最终输入分类器进行分类。这样,使得处理后的数据更容易被分类器所理解,进而使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
结合图1所示的硬件环境和图2、图3所示的软件系统,本公开实施例提供的一种用于提升分类模型准确度的方法。该方法如图4所示,包括:
S001,接收模块接收用户的请求数据。
S002,添加模块在请求数据中添加背景信息,其中,背景信息包括用户数据、设备数据、环境数据和空间数据。
S003,处理模块对添加背景信息的请求数据进行领域向量化处理,获得融合后的请求数据。
S004,处理模块将融合后的请求数据传递给分类器,其中,分类器用于对用户的请求进行分类。
本公开实施例中,相较于相关技术,本公开实施例将背景信息添加至请求数据后,对数据进行了后续处理,使得处理后的数据更容易被分类器所理解,进而使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
可选地,在请求数据中添加背景信息,包括:收集背景信息。其中,背景信息包括用户数据、设备数据、环境数据和空间数据。将请求数据和背景信息进行合并。
本公开实施例中,控制中枢设备能够在用户发出请求数据后,获取当前智慧家庭的背景信息。背景信息中包含了大量地与场景相关的信息。通过将这些信息添加进请求数据,能够使得请求数据的内容更加丰富,能够包含更多的有效信息,以便于分类器进行理解和分类。通过将请求数据和背景信息进行合并,使得请求数据和背景信息能够实现绑定,在数据传输过程中能够同时传输,在分类器进行理解和分类时,也能够同时进行理解和分类。通过对请求数据和背景信息进行综合理解,使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
可选地,将请求数据和背景信息进行合并包括将请求数据和背景信息拼接。
本公开实施例中,拼接是最基本且最直观的方法,可以直接将背景信息拼接到用户输入文本后面。例如,如果用户的命令是 “开灯”,且从背景信息获取到当前环境为 “客厅”,那么拼接后的文本就为“开灯,客厅”。这种方式简单且高效。
可选地,将请求数据和背景信息进行合并包括通过序列生成模型对请求数据和背景信息进行合并。
对于更复杂情况,例如当文本长度不一或者信息关联程度较高时,可以使用序列生成模型如RNN(Recurrent Neural Network, 循环神经网络)、LSTM(Long Short TermMemory, 长短期记忆网络)或Transformer等模型。RNN或LSTM可以处理变长序列,并能捕捉序列中时间维度上的依赖关系。在这个场景中,可以先将用户命令和背景分别输入到RNN或LSTM中,学习到各自内部的时间依赖关系,然后将两个序列的输出进行连接或平均等操作得到最终表示。Transformer是一种更为强大的模型,在处理长距离依赖和捕捉全局信息上比RNN和LSTM有优势。首先将用户命令和背景分别进行词嵌入,获取对应的向量表示,然后共同输入给 Transformer 模型,最终 Transformer 能输出整合了输入所有词向量信息的序列表示。
需要注意以上方法都需要配合有效得嵌入方式进行操作如Word embedding或Positional Encoding等以确保输入数据的质量。
可选地,对添加背景信息的请求数据进行领域向量化处理,包括:根据背景信息,形成转换内容。将转换内容插入用户的请求数据,获得综合数据。将综合数据转换为固定长度的向量。
领域向量化处理是将家电领域的数据进行向量化处理。通过领域向量化处理,能够将非结构化数据转化为结构化的向量表示。从而,能够提高模型的性能和准确性。通过领域向量化处理,能够深入挖掘数据的内在规律和模式,可以更好地理解数据的内在结构和特征,从而更好地解释模型的结果。此外,领域向量化处理的结果可以在不同的任务和领域之间共享,从而提高模型的复用性。通过对添加背景信息的请求数据进行领域向量化处理,能够使得处理后的数据更容易被分类器所理解,进而使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
在本公开实施例中,背景信息的形式具有多种,直接将背景信息插入用户的请求数据可能会导致插入后的数据形式杂乱,不利于分类器进行理解和分类。根据背景信息转换获得的转换内容更容易插入用户的请求数据。并且,将综合数据转换为固定长度的向量,能够统一综合数据的形式,这样,再将综合数据输入分类器后,便于分类器进行理解和分类,进而使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
可选地,根据背景信息,形成转换内容,包括:根据自然语言处理算法,获取背景信息中的文本。将文本转换为数值向量。
在本公开实施例中,需要将文本转换成数值向量以供机器学习模型或深度学习模型进行处理。文本转换通常借助于词嵌入技术,如Word2Vec(Word to Vector,词向量)、GloVe(Global Vectors for Word Representation,词表示的全局向量)或BERT(Bidirectional Encoder Representations from Transformers,基于Transformer的双向编码器表示)模型等。BERT是一个预训练模型,可以通过细调来分类用户意图。词嵌入技术是自然语言处理中常用的一种方法,主要将文本数据转换为数值向量以供机器学习或深度学习模型使用。Word2Vec是一种常见的词嵌入方法,可以训练连续向量空间模型,在这个模型中语义相近的词在空间中的位置也很接近。其中,又分为CBOW(Continuous Bag ofWords,连续词袋模型)和Skip-gram(Skip-gram model,跳过词袋模型)两种方式。CBOW预测某个词周围的上下文,而Skip-gram则是根据一个词来预测周围的上下文。GloVe是另一种词嵌入方法,在全局的语料库上进行训练。GloVe旨在最小化稠密矩阵的重建误差。BERT采用了双向Transformer编码器。不同于以往大部分预训练语言模型仅能使用左侧或右侧上下文进行预训练,BERT通过引入掩码语言模型目标函数使得模型可以同时利用左侧和右侧上下文进行编码。
每种方法适用于不同场景,例如Word2Vec适合有大量训练数据且计算资源受限时。GloVe可以充分挖掘全局统计信息。BERT则在应对多样输入时获得效果最佳。
可选地,将转换内容插入用户的请求数据,包括:将用户的请求数据进行向量化处理,获得用户的输入向量。将用户的输入向量与背景信息中的数值向量进行拼接。
将用户的输入向量与背景信息中的数值向量进行拼接,最基本和直观的方法是直接将背景信息中的数值向量拼接到用户输入向量的尾部或者头部。例如,如果用户输入是一个长度为N的向量,背景是一个长度为M的向量,那么拼接后就会得到一个长度为N+M的新向量。
可选地,将转换内容插入用户的请求数据,包括:将用户的请求数据进行向量化处理,获得用户的输入向量。对用户的输入向量与背景信息的数值向量进行加权求和。
对用户的输入向量与背景信息的数值向量进行加权求和,另一种方法是对用户的输入向量和背景信息的数值向量按照一定权重进行加权求和。这种方法需要定义一个权重参数,表示两部分信息对于最终结果的重要程度。加权求和能够保持合并后向量的维度不变。
可选地,将转换内容插入用户的请求数据,包括:将用户的请求数据进行向量化处理,获得用户的输入向量。将用户的输入向量与背景信息的数值向量进行混合。
将用户的输入向量与背景信息的数值向量进行混合,也可以首先将两个向量拼接起来形成更长的向量,然后通过一层或多层的全连接层将更长的向量进行非线性变换。这种方式能较好地融合两部分信息,并且可以通过训练来学习最佳的融合方式。
本公开实施例中,将背景信息转换为向量后,需要先将用户的请求数据进行向量化处理,获得用户的输入向量,以便于将转换内容插入用户的请求数据。当获取到用户输入向量和数值向量后,下一步就是将用户输入向量和数值向量合并成一个全新的向量。
可选地,分类器对用户的请求进行分类,包括:获取历史输入数据和历史输出标签的映射关系。根据映射关系,对用户的请求进行预测,获得预测结果。
本公开实施例中,分类器的基本工作原理是通过学习和模拟输入数据与输出标签之间的映射关系,以达到对用户的输入数据进行预测的目的,进而根据预测出的输出标签,获得对用户的请求的分类结果。
可选地,获取历史输入数据和历史输出标签的映射关系,包括:获取历史输入数据和与历史输入数据相对应的历史输出标签。对历史输入数据和历史输出标签进行学习,获得映射关系。
本公开实施例中,分类器通过历史输入数据的特征进行学习,可以找到历史输入数据和历史输出标签之间的映射关系。具体来说,如果选择深度学习模型RNN或者LSTM,那么这个过程主要是通过反向传播和梯度下降等方法来调整网络中权值参数,以进行训练。
可选地,接收用户的请求数据后,还包括:对请求数据进行转换。对转换后的请求数据进行补全。
结合图5所示,本公开实施例提供的另一种用于提升分类模型准确度的方法,还包括:
S101,接收模块接收用户的请求数据。
S102,接收模块对请求数据进行转换。
S103,接收模块对转换后的请求数据进行补全。
S104,添加模块在请求数据中添加背景信息,其中,背景信息包括用户数据、设备数据、环境数据和空间数据。
S105,处理模块对添加背景信息的请求数据进行处理,获得融合后的请求数据。
S106,处理模块将融合后的请求数据传递给分类器,其中,分类器用于对用户的请求进行分类。
在本公开实施例中,控制中枢设备能够在用户发出请求数据后,获取当前智慧家庭的背景信息。背景信息中包含了大量地与场景相关的信息。通过将这些信息添加进请求数据,能够使得请求数据的内容更加丰富,能够包含更多的有效信息,以便于分类器进行理解和分类。通过将请求数据和背景信息进行合并,使得请求数据和背景信息能够实现绑定,在数据传输过程中能够同时传输,在分类器进行理解和分类时,也能够同时进行理解和分类。通过对请求数据和背景信息进行综合理解,使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
进一步地,对请求数据进行转换时,首先,获取用户通过交互设备提交的原始输入。用户可能通过不同方式提交输入,包括但不限于语音命令、文本命令或用户行为。例如,用户可能会对语音助手说:“打开客厅的空调”,或者在手机上用文本输入“打开空调”。交互设备接收到这些输入后,控制中枢设备会进行首次处理。例如,如果用户使用语音识别系统提交输入,会将接收到的语音命令转换为文本形式。这样,通过转换之后,能够将不同的形式的用户原始输入转换为同种形式,进而便于对用户的原始输入进行补全和纠正。
用户在进行交互时,可能由于多种原因遗漏了一些重要的信息。例如,用户可能只是说了“打开空调”,却没有明确指出是哪一个房间的空调。为了解决此类问题,系统需要有能力补全些遗漏的信息。系统可以根据预设规则来推断和补全缺失的信息。例如,如果按照一定规则,默认在没有指定房间时就控制客厅的空调,则当用户说“打开空调”时,系统就会自动将其解释为“打开客厅的空调”。如果没有预设规则,或者预设规则无法应对所有情况,则需要利用历史数据和上下文信息来推断缺失的信息。例如,系统可以根据用户过去的使用记录、当前的设备状态、环境条件等因素来判断应该操作哪个房间的空调。
可选地,接收用户的请求数据后,还包括:对请求数据进行转换。对转换后的请求数据进行纠正。
用户可提供了错误或含糊不清的指令时,需要对转换后的请求数据进行纠正。例如,用户可能发音不清晰,导致语音识别结果为“打开了空调”,实际上用户希望的是“打开热水器”。许多现代交互系统配备有强大的语言模型和错误检测算法,能自动检测并纠正这类错误。
可选地,将融合后的请求数据传递给分类器后,方法还包括:将分类器的分类结果输入第一场景生成模型,获得第一场景方案。其中,第一场景生成模型的训练数据类型包括用户数据、设备数据、环境数据和空间数据。根据第一场景方案控制目标设备。
结合图6所示,本公开实施例提供的另一种用于提升分类模型准确度的方法,包括:
S201,接收模块接收用户的请求数据。
S202,添加模块在请求数据中添加背景信息,其中,背景信息包括用户数据、设备数据、环境数据和空间数据。
S203,处理模块对添加背景信息的请求数据进行处理,获得融合后的请求数据。
S204,处理模块将融合后的请求数据传递给分类器,获得分类结果,其中,分类器用于对用户的请求进行分类。
S205,分类模块将分类结果输入第一场景生成模型,获得第一场景方案。其中,第一场景生成模型的训练数据类型包括用户数据、设备数据、环境数据和空间数据。
S206,模型应用模块根据第一场景方案控制目标设备。
在本公开实施例中,控制中枢设备通过第一场景生成模型生成与用户的需求相对应的场景。相关技术中,根据控制指令和场景分类模板生成场景,可能导致生成的场景可能与用户的需求存在较大的差异,难以达到用户的需求。本公开实施例利用用户、设备、环境和空间等多种数据对第一场景生成模型进行训练,使得经过训练的第一场景生成模型能够结合用户、设备、环境和空间等多个因素生成场景。这样,生成的场景更加接近用户的需求,从而提升用户体验。
可选地,根据第一场景方案控制目标设备后,还包括:获取场景数据。根据场景数据更新第一场景方案,获得第二场景方案。根据第二场景方案控制目标设备。
第二场景方案包括对目标设备的更改数据,控制中枢设备能够获取需要控制的目标设备,根据第二场景方案的更改数据更改目标设备的运行状态,以满足用户的需求。
在本公开实施例中,能够获得当前的场景状态,判断当前方案的执行效果和环境的改变情况,控制中枢设备能够根据判断结果更新第一场景方案,使得第二场景方案更加符合用户的需求,提高了用户体验。并且,更新过程由控制中枢设备完成,无需用户再次输入需求,简化了用户的操作,使得场景生成过程更加智能。
可选的,场景数据包括场景执行后的温度、场景执行后的湿度和场景执行后的设备运行状态。
通过监测房间的温度湿度及设备运行状态,能够更加准确地获取场景的执行效果,便于控制中枢设备根据方案的执行效果更新第一场景方案,使得第二场景方案更加符合用户的需求,提高了用户体验。
可选地,获取用户的需求前,还包括:获取场景向量库。根据场景向量库,训练第一场景生成模型。其中,第一场景生成模型包括多个轻量化模型中的部分或全部。
轻量化模型是利用“知识塔群”理论对知识进行分级并相应地训练获得的。“知识塔群”理论是将智慧家庭领域的知识按照其相关性和重要性进行分级,并将其组织成一个层级清晰、结构紧凑的知识体系。然后,可以根据不同的业务需求,选择适当层级的知识进行模型训练,从而实现更精准、更高效的服务。通过训练轻量化模型,一方面可以降低模型体积,减少计算资源消耗和响应时间。另一方面,通过选择合适的模型,也可以实现更精准、更高效的服务。
本公开实施例中,场景向量库由大量的场景向量组成,场景向量库中包括大量的用于场景生成的数据,通过场景向量库训练第一场景生成模型,使得第一场景生成模型能够结合大量的用于场景生成的数据。最终使得生成的场景更加符合用户的需求。
可选地,获取场景向量库包括:构建层级知识图谱,其中,层级知识图谱中的知识按照相关程度和重要等级被划分为不同的多个层级。根据层级知识图谱,获取多个第一场景向量。训练多个第一场景向量,获得场景向量库。
本公开实施例中,知识图谱能够理解和描述智能家居环境中的实体及其关系。能够将各种设备、用户等元素以及它们之间的关系进行可视化处理,便于获取场景向量。通过训练第一场景向量,能够获得场景向量库用于创建第一场景生成模型,进而使生成的场景更加符合用户的需求,提高用户的使用体验。
场景向量能够体现场景生成模型能够生成的场景模式,例如,将"小明"的向量,家电设备的向量(智能音箱和空调),"晚上"的向量以及"客厅"的向量进行合并,形成一个综合考虑所有要素的场景向量。这样,通过场景向量可以将智慧家庭场景描述为"小明在晚上在客厅里通过智能音箱调整了空调温度到24度以观看电视新闻"。
可选的,通过GCN(Graph Convolutional Networks,图卷积网络)训练第一场景向量。
图卷积网络GCN能够在保持图结构的同时,处理节点和边上的信息,能够用于节点分类和链接预测。本公开实施例将所有第一场景向量视为图中的节点,场景之间的关联关系视为边,然后使用图卷积网络GCN进行训练,使得第一场景向量能更好地捕捉各个元素之间的复杂交互关系。这样,经过训练的第一场景向量组成的场景向量库更加真实,能够使生成的场景更加符合用户的需求,提高用户的使用体验。
可选地,根据层级知识图谱,获取多个第一场景向量包括:获取用户数据、环境数据和空间数据。对用户数据、环境数据、空间数据和层级知识图谱中的设备数据进行向量化处理,获得多组向量数据。抽取每组向量数据中的单个向量数据进行组合,获得多个第一场景向量。
本公开实施例中,能够将用户数据、设备数据、环境数据和空间数据相互结合,用于训练所述的第一场景生成模型,以使得生成的场景更加符合用户的需求,进而提升用户的使用体验。抽取每组向量数据中的单个向量数据,将各项数据进行向量化处理并组合为第一场景向量,能够获得场景向量库,以便于创建第一场景生成模型,进而使生成的场景更加符合用户的需求,提高用户的使用体验。
可选地,构建层级知识图谱,包括:获取智慧家庭领域的知识库。根据知识库,构建初级知识图谱。训练初级知识图谱,获得层级知识图谱。
本公开实施例中,知识图谱不仅能够捕获家电产品的多元信息,还可以整合这些信息形成深度关联,为家电产品的设计、生产、销售等环节提供了有价值的决策支持。本公开实施例根据智慧家庭领域的知识库构建知识图谱,并且将知识图谱用于训练第一场景生成模型,使得第一场景生成模型中能够包含智慧家庭领域的多元信息,在生成场景是能够更好地利用智能家电,进而使得生成的场景更加符合用户的需求,提高用户的使用体验。
进一步地,根据初级知识图谱获得的层级知识图谱包含智慧家庭领域的多层级属性,便于场景生成模型理解各个智能设备的使用方式和智能设备之间的关系,进而能够更好地利用智能设备以生成更加符合用户的需求的场景。
可选地,根据知识库,构建初级知识图谱,包括:对知识库中的结构化数据进行实体识别和关系建立;对知识库中的非结构化数据行实体识别和关系抽取;根据实体和关系,构建初级知识图谱。
本公开实施例中,结构化数据为固定格式的数据,这些数据容易被模型理解,但是,受格式的限制,包含的信息量远少于非结构化信息。例如,以Excel格式存在的数据。可以利用一些工具,例如Python的pandas库读取Excel文件,并将数据加载到内存中。在Excel格式存在的数据中,每一列可能代表一个实体类型,每一行可能代表一组特定的实体和实体之间的关系。因此,可以通过遍历Excel文件以构建初级知识图谱。
非结构化数据的格式不固定,因此,能够包含大量的有效信息。例如,产品说明书中的产品介绍。通过自然语言处理技术可以获取实体和关系。进而将获取的实体和关系用于构建初级知识图谱。
可选地,根据实体和关系,构建初级知识图谱,包括:根据实体和关系,进行实体链接和关系融合,获得初级知识图谱。
本公开实施例中,实体链接是自然语言处理领域里一个重要的任务。实体链接的目标是将文本中提到的实体,例如人名、地名、机构名等与知识库中对应的实体相链接。通过实体链接能够更好地理解句子的语义,并可在更丰富全面的知识库上进行文本挖掘和分析工作。
可选地,对知识库中的非结构化数据进行实体识别和关系抽取前,还包括:对非结构化数据进行文本清洗。
文本清洗能够删除不需要的字符、格式化文本和拼写错误。进而去除非结构化数据中的无效信息。进而提高实体识别和关系抽取的准确性和效率。
可选地,对知识库中的非结构化数据进行实体识别和关系抽取前,还包括:对非结构化数据进行分词。
分词可以将连续的文本切分为单独的词或标记。进而提高实体识别和关系抽取的准确性和效率。
可选地,对知识库中的非结构化数据进行实体识别和关系抽取前,还包括:对非结构化数据进行停用词去除。
停用词为在文本中出现频率高但对文本意义贡献较小的词,如“的”、“了”等。停用词去除是去掉对文本意义贡献较小的词,以减少噪音。进而提高实体识别和关系抽取的准确性和效率。
可选地,对知识库中的非结构化数据进行实体识别和关系抽取前,还包括:对非结构化数据进行词干提取。
词干提取用于将不同形式的词统一为同一形式,从而使得文本表示更加紧凑和一致。有助于提高进行文本分类、信息检索等任务的性能,进而提高实体识别和关系抽取的准确性和效率。
可选的,通过GCN训练初级知识图谱。
初级知识图谱中,每一个家电产品以及它的各种属性都被表示为图谱中的一个节点,而两个节点之间的关系则被表示为连接两个节点的边。每个节点和边具有相应的特性。例如,节点特性可能包括设备规格和设备功能,边特性可能代表两个节点之间的关系类型。GCN能够在保持图结构的同时,处理节点和边上的信息,能够用于节点分类和链接预测。本公开实施例中GCN能够有效地捕获和理解图谱中复杂的拓扑结构和节点特性,通过GCN学习,可以优化初级知识图谱。例如,添加新的节点和边,更新节点和边的特性。这样,能够获得具有智慧家庭领域的多层级属性的层级知识图谱。
可选地,训练初级知识图谱,包括:对初级知识图谱进行聚类。并,对聚类后的初级知识图谱进行分级。
本公开实施例中,通过对初级知识图谱进行聚类,能够将相关的知识实体聚集在一起,使得控制中枢设备更容易找到与某一主题或概念相关的所有信息。对于初级知识图谱,聚类可以隐藏底层结构的复杂性,从而提供一个更加简洁和直观的知识视图。
对聚类后的知识图谱进行分级,主要是根据知识实体的重要性、相关性或层次结构对各个聚类进行排序或分类。通过分级,可以提供一个从宏观到微观的层次化视图,能够更好地理解知识图谱的结构。通过分级可以突出显示重要的实体或关系,提供更有价值的信息。并且,可以根据分级结果快速定位到所需的信息或子领域,提高信息检索的效率。进一步地,分级可以根据时间或其他动态因素进行更新,以反映知识图谱的变化。通过分级,可以更容易地解释知识图谱的结构和内容,提高知识的可理解性。
可选地,对初级知识图谱进行聚类,包括:通过图神经网络进行关系预测。将预测出的关系加入初级知识图谱。
图神经网络是一种专门用于处理图结构数据的神经网络。图卷积是图神经网络中的一种基本操作,用于捕捉节点之间的关系。通过在图卷积层中更新节点特征,可以聚合邻居节点的信息,从而得到更丰富的节点表示。在经过图卷积之后,每个节点都包含了许多有关其邻居的信息。使用预测任务可以预测节点之间的关系。常见的预测任务包括节点之间的链接预测、节点属性预测等。本公开实施例中,通过预测任务可以预测初级知识图谱中的节点之间的关系,将预测出的关系加入到初级知识图谱中,能够使得初级知识图谱中的节点表示更加丰富,进而便于对初级知识图谱进行分层,得到层级知识图谱。
可选地,对聚类后的初级知识图谱进行分级,包括根据学习算法进行分级。
本公开实施例中,学习算法包括机器学习算法和深度学习算法。机器学习算法能够直接根据知识点间的相似性进行分级,分级的效率更高。深度学习算法能够学习到知识点之间的非线性关系,进而使得分级的结果更加准确,获得更加符合用户需求的层级知识图谱。
可选地,根据学习算法进行分级,包括:对初级知识图谱中的数据进行特征提取,获得特征向量;根据特征向量,获取与特征向量对应的分级策略;根据分级策略,对初级知识图谱进行分级。
本公开实施例中,对初级知识图谱中的数据进行特征提取,其中,特征向量可以从初级知识图谱中的节点提取。根据提取的特征向量,可以制定分级策略。例如根据节点的特征向量之间的距离或者特征向量的相似度进行分级。这样,初级知识图谱中的知识能够被划分为不同的级别,并且获得与级别相对应的属性。
可选地,对聚类后的初级知识图谱进行分级,包括通过分类器模型进行分级。
分类器模型可以快速地对新数据进行分类,使得分类器模型在需要实时响应的场景中应用广泛,本公开实施例中,通过分类器模型进行分级,在初级知识图谱获得更新的情况下,能够更快地进行分级,进而更快地获得层级知识图谱。并且,相较于学习算法,分类器模型的实现和维护成本相对较低。
可选地,对聚类后的初级知识图谱进行分级后,还包括:对分级的结果进行评估,根据评估结果,调整分级策略。
本公开实施例中,由于初级知识图谱中的数据相对杂乱,初次制定的分级策略可能导致分级出现错误,进而影响分级的结果。通过对分级的结果进行评估,能够及时调整分级策略,使得对初级知识图谱中的知识进行划分时,能够更加准确,进而提高层级知识图谱的准确性。
可选地,根据第一场景方案控制目标设备后,还包括:获取用户对生成的场景的满意度。根据用户的满意度,对第一场景生成模型进行更新。
本公开实施例中,可以收集和处理用户反馈,通过用户的反馈信息,能够获取用户对生成的场景的满意度。通过对用户满意度的深入理解和分析,能够及时精准地修正和优化第一场景生成模型,以提升用户体验。
可选地,获取用户对生成的场景的满意度,包括:监测用户在生成场景中的行为,获得用户的满意度。
可选地,获取用户对生成的场景的满意度,包括:收集用户的反馈,获得用户的满意度。示例性地,可以收集用户暗示性的反馈。例如用户在社交媒体上谈论智能家居体验,或与朋友、家人分享使用体验。这些暗示性反馈能够表示用户对于场景的满意度。
可选地,获取用户对生成的场景的满意度,包括:通过A/B测试,获得用户的满意度。示例性地,通过创建两个或更多版本的控制场景,测试用户的满意度。例如,对于同一设备,可以试验不同的控制策略,测试处更受用户欢迎的控制策略。
可选地,获取用户对生成的场景的满意度,包括:根据预测模型,获得用户的满意度。基于用户的历史行为、个人特征,以及其他相关因素,可以使用机器学习或统计模型预测用户对特定场景的反应。根据用户的反应能够推测出用户对场景的满意度。
可选地,获取用户对生成的场景的满意度,包括:根据用户流失率和回访率,获得用户的满意度。可以统计用户的流失率和回访率,如果用户对提供的场景不满意,用户可能会停止使用系统,导致流失率增加。如果用户非常满意,用户可能会经常返回,导致回访率增加。监控流失率和回访率可以帮助了解用户满意度,以获取用户的满意度。
可选地,根据用户的满意度,对第一场景生成模型进行更新,包括:根据用户的满意度,对第一场景方案进行评价,获得评价结果。其中,评价结果包括正向评价或负向评价。将评价结果输入智慧家庭领域的知识库,以更新第一场景生成模型。
可选地,将评价结果输入智慧家庭领域的知识库,更新第一场景生成模型,包括:根据评价结果,扩充智慧家庭领域的知识库的知识,获得更新后的知识库。根据更新后的知识库,训练第一场景生成模型。
在本公开实施例中,能够对第一场景生成模型进行优化。将评价结果输入智慧家庭领域的知识库,能够将评价结果作为训练素材,构建知识图谱,并且将知识图谱用于进一步训练第一场景生成模型,使得第一场景生成模型生成的场景更加符合用户的需求。
可选地,根据用户的满意度,对第一场景生成模型进行更新,包括:根据用户的满意度,对第一场景方案进行评价,获得评价结果。将评价结果输入大语言模型获得修正数据,并利用修正数据更新第一场景生成模型。
本公开实施例中,大语言模型是一种深度学习模型,基于海量文本数据训练而成。能够生成自然语言文本,理解语言文本的含义,并处理各种自然语言任务,如文本摘要、问答、翻译等。大语言模型的特点是规模庞大,包含数十亿的参数,能够学习语言数据中的复杂模式。大语言模型具有自然性、泛化能力、高效性、强大的任务处理能力、生成高质量的文本内容、强大的对话系统建立能力、降低了对领域数据的依赖以及推动了人工智能领域的发展等优点。它们能够理解和生成自然语言文本,适应各种不同的语言和语境。
将评价结果输入大语言模型,能够通过大语言模型输出与评价模型获得的正向评价或负向评价相对应的修正数据。将修正数据应用到场景向量库中更新场景规则,获得更新后的场景向量库。通过更新后的场景向量库训练第一场景生成模型。使得第一场景生成模型生成的场景能够更加符合用户的需求。
可选地,利用修正数据,更新第一场景生成模型,包括:将修正数据应用到场景向量库中更新场景规则,获得更新后的场景向量库;通过更新后的场景向量库训练获得第二场景生成模型。
本公开实施例中,根据修正数据,能够更新场景向量库中的场景规则,使得场景向量库中的场景向量更加真实,进而更加符合用户的需求。场景向量库中包括大量的用于场景生成的数据,通过场景向量库训练获得第二场景生成模型,使得第二场景生成模型能够结合大量的用于场景生成的数据。最终使得生成的场景更加符合用户的需求。
可选地,通过更新后的场景向量库训练获得第二场景生成模型,包括:根据更新后的场景向量库创建训练集。其中,训练集包括与更新后的场景向量库相符的场景。使用训练集训练获得第二场景生成模型。
本公开实施例中,训练集包括与更新后的场景向量库相符的场景,通过训练集进行训练,使得训练获得的第二场景生成模型能够基于更新后的场景向量库进行调整,进而通过用户的反馈,使得场景生成模型生成的场景更加符合用户的需求。
可选地,使用训练集训练获得第二场景生成模型,包括:使用训练集训练基础模型,获得第二场景生成模型。
第二场景生成模型是指在基础模型的基础上,融入了用户反馈数据后训练得到的场景生成模型。相对于第一场景生成模型,具有更多地参考数据,根据用户的需求能够生成更加真实的场景方案,进而满足用户的需求。
本公开实施例中,基础模型包括基于神经网络的语言模型、递归神经网络语言模型、长短时记忆网络语言模型或门控循环单元语言模型。这些模型在自然语言处理领域中都有广泛的应用,如语音识别、机器翻译、文本分类等。
本公开实施例通过训练集训练基础模型,获得的第二场景生成模型融入了用户的反馈数据,生成的场景更加符合用户的需求。
可选地,使用训练集训练获得第二场景生成模型,包括:使用训练集对第一场景生成模型进行调整,获得第二场景生成模型。
本公开实施例将训练集作为新的训练数据,结合用户数据、设备数据、环境数据和空间数据,使得对第一场景生成模型进行训练时,能够同时利用训练集、用户数据、设备数据、环境数据和空间数据,进而可以调整第一场景生成模型中的参数,获得第二场景生成模型。
可选地,根据用户的满意度,对生成的场景进行正向评价或负向评价,包括:根据用户的满意度,利用评价模型对与满意度相对应的场景进行评价,获得场景的评价分数。在评价分数高于或等于分数阈值的情况下,确定对生成的场景进行正向评价。或者,在评价分数低于分数阈值的情况下,确定对生成的场景进行负向评价。
本公开实施例中,需要利用评价模型对与满意度相对应的场景进行评价,评价模型能够根据用户的满意度,对当前的场景进行评分,对场景赋予评价分数。评价分数能够表示当前的场景与用户需求的符合程度。符合程度越高,表示用户的满意度越高。
根据历史的评价数据,评价模型对评价分数进行排序,选取出高分的场景和低分的场景。根据高分的场景和低分的场景,评价模型能够确定一个分数阈值。在评价分数高于或等于分数阈值的情况下,确定对生成的场景进行正向评价。或者,在评价分数低于分数阈值的情况下,确定对生成的场景进行负向评价。这样,通过将评价分数与分数阈值进行对比,能够对生成的场景进行正向评价或负向评价。
本公开实施例中,控制中枢设备能够获取用户的反馈信息,反馈信息能够体现用户的感受和第一场景方案的执行效果。对反馈信息进行评价,便于控制中枢设备理解用户的感受和第一场景方案的执行效果。将评价结果输入智慧家庭领域的知识库,能够将评价结果做为训练素材,构建知识图谱,并且将知识图谱用于训练第一场景生成模型,进一步训练第一场景生成模型,使得第一场景生成模型生成的场景更加符合用户的需求。
可选地,在根据用户的满意度,利用评价模型对与满意度相对应的场景进行评价前,还包括:选择机器学习模型或统计模型;根据历史用户反馈数据,对选择的模型进行训练,获得评价模型。
可选地,机器学习模型包括决策树、随机森林、支持向量机、神经网络或聚类算法。
可选地,统计模型包括线性回归、逻辑回归、方差分析、卡方检验或生存分析。
本公开实施例中,评价模型的训练显得尤为重要,通过评价模型能够对生成的场景进行正向评价或负向评价。首先,选择合适的待训练模型,在选择机器学习模型的情况下,机器学习模型在处理大规模、高维度数据时表现较好,能够挖掘出数据中的复杂关系,并对未知数据进行精准预测。机器学习模型能够通过自适应学习算法不断优化自身的参数,以更好地适应数据的变化。在选择统计模型的情况下,统计模型能够给出参数的估计值以及其对目标变量的影响程度,使得结果更容易解释和理解。并且,统计模型在处理有明显统计学规律的数据时更有效,结果相对稳定。其次,控制中枢设备能够获取历史用户反馈数据,根据历史用户反馈数据,对选择的模型进行训练。这样,使得训练出的评价模型能够学习历史用户的习惯,进而得到更加准确地评价结果。
在实际应用中,可以根据情况选择合适的机器学习模型或统计模型。
可选地,训练多个第一场景向量,获得场景向量库,包括:训练多个第一场景向量,获得初始场景向量库。利用条件生成对抗网络,训练初始场景向量库,获得第二场景向量。将第二场景向量添加至场景向量库。
条件生成对抗网络是一种生成模型,在条件生成对抗网络中,条件数据与生成器和判别器的输入相结合,以控制生成的输出。这使得模型能够根据特定条件生成具有约束的样本,例如根据类别标签生成特定类别的图像。
条件生成对抗网络由生成器和判别器两部分组成。生成器的任务是根据给定的随机输入和条件数据生成逼真的样本。判别器的任务是区分真实样本和生成器生成的样本,并尝试提高其分类准确性。在训练过程中,生成器和判别器会进行对抗性训练,不断优化各自的参数,以实现更好的生成和判别性能。
本公开实施例中,场景向量库可以通过条件生成对抗网络进行训练。利用的条件生成对抗网络包括生成器和判别器。生成器能够根据输入的场景向量生成第二场景向量,而判别器能够判断生成的场景向量是否真实。在训练过程中,生成器会生成场景向量,而判别器则会区分出真实数据和生成的数据。通过这种对抗性训练,生成器最终将能够生成更加接近真实数据的第二场景向量,获得场景生成模型。这样,通过场景生成模型生成的场景方案更加真实,进而生成的场景更加符合用户的需求。
可选地,根据用户的满意度,对第一场景生成模型进行更新,还包括:根据用户的满意度,对第一场景方案进行评价,获得评价结果;将评价结果输入条件生成对抗网络,更新第一场景生成模型。
本公开实施例中,条件生成对抗网络能够用于训练场景向量库,将评价结果输入条件生成对抗网络,使得条件生成网络能够利用的数据更加丰富,进而在生成器生成场景向量的过程中,可以利用输入的评价结果,生成更加真实的场景向量。这样,通过条件生成对抗网络的不断训练,可以使得场景向量库中的场景更加真实,更加能够符合用户的需求。结合图7所示,在一些实施例中,用于提升分类模型准确度的装置60包括:
接收模块031,被配置为接收用户的请求数据;添加模块032,被配置为在请求数据中添加背景信息;其中,背景信息包括用户数据、设备数据、环境数据和空间数据;处理模块033,被配置为对添加背景信息的请求数据进行领域向量化处理,获得融合后的请求数据;分类模块034,包括分类器,分类器被配置为根据融合后的请求数据对用户的请求进行分类。
采用本公开实施例提供的用于提升分类模型准确度的装置60,通过在请求数据中添加背景信息,使得用户的请求数据包含了更多的于场景相关的有效信息,便于分类器进行理解和分类。相较于相关技术中,通过深度学习模型对用户请求进行分类。本公开实施例将背景信息添加至请求数据后,对数据进行了后续处理,使得处理后的数据更容易被分类器所理解,进而使得分类器的分类结果更加准确。最终,实现了分类模型准确度的提升。
在一些实施例中,计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行上述的用于提升分类模型准确度的方法。
本公开实施例的技术方案可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括一个或多个指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开实施例所述方法的全部或部分步骤。而前述的存储介质可以是非暂态存储介质,例如:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等多种可以存储程序代码的介质。
结合图8所示,在一些实施例中,电子装置包括存储器701和处理器700,所述存储器701中存储有计算机程序,所述处理器700被设置为通过所述计算机程序执行上述的用于提升分类模型准确度的方法。
可选地,电子装置70还可以包括通信接口(Communication Interface)702和总线703。其中,处理器700、通信接口702、存储器701可以通过总线703完成相互间的通信。通信接口702可以用于信息传输。处理器700可以调用存储器701中的逻辑指令,以执行上述实施例的用于提升分类模型准确度的方法。
此外,上述的存储器701中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器701作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令/模块。处理器700通过运行存储在存储器701中的程序指令/模块,从而执行功能应用以及数据处理,即实现上述实施例中用于提升分类模型准确度的方法。
存储器701可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序。存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器701可以包括高速随机存取存储器,还可以包括非易失性存储器。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (12)
1.一种用于提升分类模型准确度的方法,其特征在于,包括:
接收用户的请求数据;
在请求数据中添加背景信息;其中,背景信息包括用户数据、设备数据、环境数据和空间数据;
对添加背景信息的请求数据进行领域向量化处理,获得融合后的请求数据;
将融合后的请求数据传递给分类器,获得分类结果;其中,分类器用于对用户的请求进行分类;
构建层级知识图谱,其中,层级知识图谱是经过深度聚类和分级处理的知识图谱,层级知识图谱中的知识按照相关程度和重要等级被划分为不同的多个层级;
根据层级知识图谱,获取多个第一场景向量;
训练多个第一场景向量,获得场景向量库;
根据场景向量库,训练第一场景生成模型;其中,第一场景生成模型的训练数据类型包括用户数据、设备数据、环境数据和空间数据;
将分类器的分类结果输入第一场景生成模型,获得第一场景方案;
根据第一场景方案控制目标设备。
2.根据权利要求1所述的方法,其特征在于,在请求数据中添加背景信息,包括:
收集背景信息;
将请求数据和背景信息进行合并。
3.根据权利要求2所述的方法,其特征在于,将请求数据和背景信息进行合并,包括:
将请求数据和背景信息拼接;或,
通过序列生成模型对请求数据和背景信息进行合并。
4.根据权利要求1所述的方法,其特征在于,对添加背景信息的请求数据进行领域向量化处理,包括:
根据背景信息,形成转换内容;
将转换内容插入用户的请求数据,获得综合数据;
将综合数据转换为固定长度的向量。
5.根据权利要求4所述的方法,其特征在于,根据背景信息,形成转换内容,包括:
根据自然语言处理算法,获取背景信息中的文本;
将文本转换为数值向量。
6.根据权利要求4所述的方法,其特征在于,将转换内容插入用户的请求数据,包括:
将用户的请求数据进行向量化处理,获得用户的输入向量;
将用户的输入向量与背景信息中的数值向量进行拼接,或,对用户的输入向量与背景信息的数值向量进行加权求和,或,将用户的输入向量与背景信息的数值向量进行混合。
7.根据权利要求1至6任一项所述的方法,其特征在于,分类器对用户的请求进行分类,包括:
获取历史输入数据和历史输出标签的映射关系;
根据映射关系,对用户的请求进行预测,获得预测结果。
8.根据权利要求7所述的方法,其特征在于,获取历史输入数据和历史输出标签的映射关系,包括:
获取历史输入数据和与历史输入数据相对应的历史输出标签;
对历史输入数据和历史输出标签进行学习,获得映射关系。
9.根据权利要求1至6任一项所述的方法,其特征在于,接收用户的请求数据后,还包括:
对请求数据进行转换;
对转换后的请求数据进行补全和/或纠正。
10.一种用于提升分类模型准确度的装置,其特征在于,包括:
接收模块,被配置为接收用户的请求数据;
添加模块,被配置为在请求数据中添加背景信息;其中,背景信息包括用户数据、设备数据、环境数据和空间数据;
处理模块,被配置为对添加背景信息的请求数据进行领域向量化处理,获得融合后的请求数据;
分类模块,包括分类器,分类器被配置为根据融合后的请求数据对用户的请求进行分类;
模型训练模块,被配置为训练第一场景生成模型,模型训练模块包括层级知识图谱和场景向量库,层级知识图谱是经过深度聚类和分级处理的知识图谱,层级知识图谱中的知识按照相关程度和重要等级被划分为不同的多个层级;根据通过场景向量库,训练第一场景生成模型;其中,第一场景生成模型的训练数据类型包括用户数据、设备数据、环境数据和空间数据;
模型应用模块,包括第一场景生成模型,被配置为在收到用户的需求的情况下输出第一场景方案;
控制模块,被配置为根据第一场景方案控制目标设备。
11.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行权利要求1至9中任一项所述的方法。
12.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行权利要求1至9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410167007.6A CN117708680B (zh) | 2024-02-06 | 2024-02-06 | 一种用于提升分类模型准确度的方法及装置、存储介质、电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410167007.6A CN117708680B (zh) | 2024-02-06 | 2024-02-06 | 一种用于提升分类模型准确度的方法及装置、存储介质、电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117708680A CN117708680A (zh) | 2024-03-15 |
CN117708680B true CN117708680B (zh) | 2024-06-21 |
Family
ID=90155683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410167007.6A Active CN117708680B (zh) | 2024-02-06 | 2024-02-06 | 一种用于提升分类模型准确度的方法及装置、存储介质、电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117708680B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113946222A (zh) * | 2021-11-17 | 2022-01-18 | 杭州逗酷软件科技有限公司 | 一种控制方法、电子设备及计算机存储介质 |
CN115877726A (zh) * | 2022-10-26 | 2023-03-31 | 海尔优家智能科技(北京)有限公司 | 智能家居设备的控制方法、计算机设备及存储介质 |
CN117092926A (zh) * | 2023-10-17 | 2023-11-21 | 荣耀终端有限公司 | 一种设备控制方法及电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109587203A (zh) * | 2017-09-29 | 2019-04-05 | 索尼公司 | 信息处理设备和方法、电子装置以及计算机可读介质 |
WO2019245801A1 (en) * | 2018-06-21 | 2019-12-26 | Google Llc | Digital supplement association and retrieval for visual search |
CN111428053B (zh) * | 2020-03-30 | 2023-10-20 | 西安交通大学 | 一种面向税务领域知识图谱的构建方法 |
CN113760024B (zh) * | 2021-11-09 | 2022-04-05 | 天津创启投资有限公司 | 基于5g智慧空间的环境控制系统 |
CN114936280A (zh) * | 2022-03-16 | 2022-08-23 | 青岛海尔科技有限公司 | 文本分类方法、文本分类装置、存储介质及电子装置 |
CN114821236A (zh) * | 2022-04-28 | 2022-07-29 | 青岛海尔科技有限公司 | 智慧家庭环境感知方法、系统、存储介质及电子装置 |
CN116226655A (zh) * | 2022-12-05 | 2023-06-06 | 广州视声智能股份有限公司 | 智慧家庭环境感知方法、装置、存储介质和电子设备 |
CN117217303A (zh) * | 2023-01-30 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 知识图谱处理方法、装置、计算机设备和存储介质 |
CN116431852A (zh) * | 2023-03-30 | 2023-07-14 | 海尔优家智能科技(北京)有限公司 | 环境状态可视化方法、装置、存储介质及电子装置 |
CN116975292A (zh) * | 2023-08-01 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 信息识别方法、装置、电子设备、存储介质及程序产品 |
-
2024
- 2024-02-06 CN CN202410167007.6A patent/CN117708680B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113946222A (zh) * | 2021-11-17 | 2022-01-18 | 杭州逗酷软件科技有限公司 | 一种控制方法、电子设备及计算机存储介质 |
CN115877726A (zh) * | 2022-10-26 | 2023-03-31 | 海尔优家智能科技(北京)有限公司 | 智能家居设备的控制方法、计算机设备及存储介质 |
CN117092926A (zh) * | 2023-10-17 | 2023-11-21 | 荣耀终端有限公司 | 一种设备控制方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN117708680A (zh) | 2024-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Han et al. | A review of reinforcement learning methodologies for controlling occupant comfort in buildings | |
CN112799747A (zh) | 智能助理评价、推荐方法、系统、终端及可读存储介质 | |
CN109684456B (zh) | 基于物联网能力知识图谱的场景能力智能问答系统 | |
US11902043B2 (en) | Self-learning home system and framework for autonomous home operation | |
CN106845644A (zh) | 一种通过相互关系学习用户及移动应用的联系的异构网络 | |
CN118051625A (zh) | 一种用于优化场景生成模型的方法及装置、存储介质、电子装置 | |
WO2023168838A1 (zh) | 语句文本的识别方法和装置、存储介质及电子装置 | |
CN105652677A (zh) | 一种基于用户行为分析的智能家居控制方法、装置和系统 | |
CN115826428A (zh) | 家居设备的控制方法和装置、存储介质及电子装置 | |
Drugowitsch | Design and analysis of learning classifier systems | |
CN111694280A (zh) | 一种应用场景的控制系统及其控制方法 | |
CN113128667A (zh) | 一种跨域自适应的图卷积平衡迁移学习方法与系统 | |
CN118332195A (zh) | 一种个性化消费数据预测智能推荐方法、装置及存储介质 | |
Hoang et al. | A novel time series prediction approach based on a hybridization of least squares support vector regression and swarm intelligence | |
CN111046071A (zh) | 一种基于马尔科夫逻辑网络的智能家居决策方法 | |
CN118014123A (zh) | 基于智能家居的能耗数据预警方法、系统、设备及介质 | |
CN117708680B (zh) | 一种用于提升分类模型准确度的方法及装置、存储介质、电子装置 | |
CN117706954B (zh) | 一种用于场景生成的方法及装置、存储介质、电子装置 | |
CN116541166A (zh) | 一种超算算力调度服务器及资源管理方法 | |
WO2023173596A1 (zh) | 语句文本的意图识别方法和装置、存储介质及电子装置 | |
CN116976491A (zh) | 一种信息预测方法、装置、设备、存储介质及程序产品 | |
CN114297498B (zh) | 一种基于关键传播结构感知的意见领袖识别方法和装置 | |
CN116958608A (zh) | 对象识别模型的更新方法、装置、设备、介质及程序产品 | |
CN118035465A (zh) | 一种用于构建轻量化模型的方法及装置、存储介质、电子装置 | |
Deng | Optimization of residential landscape design and supply chain system using intelligent fuzzy cognitive map and genetic algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |