CN111325349A - 衣物调度装置 - Google Patents
衣物调度装置 Download PDFInfo
- Publication number
- CN111325349A CN111325349A CN201911282458.XA CN201911282458A CN111325349A CN 111325349 A CN111325349 A CN 111325349A CN 201911282458 A CN201911282458 A CN 201911282458A CN 111325349 A CN111325349 A CN 111325349A
- Authority
- CN
- China
- Prior art keywords
- laundry
- information
- washing
- data
- items
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005406 washing Methods 0.000 claims description 140
- 239000013598 vector Substances 0.000 claims description 50
- 230000006870 function Effects 0.000 claims description 34
- 238000004891 communication Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 description 74
- 238000012549 training Methods 0.000 description 69
- 238000013528 artificial neural network Methods 0.000 description 62
- 239000010410 layer Substances 0.000 description 42
- 230000000875 corresponding effect Effects 0.000 description 31
- 238000010586 diagram Methods 0.000 description 24
- 238000010801 machine learning Methods 0.000 description 21
- 210000002569 neuron Anatomy 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 15
- 230000015572 biosynthetic process Effects 0.000 description 13
- 238000003058 natural language processing Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000003786 synthesis reaction Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 238000013473 artificial intelligence Methods 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000007405 data analysis Methods 0.000 description 8
- 238000010295 mobile communication Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000001035 drying Methods 0.000 description 4
- 239000004744 fabric Substances 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 210000000225 synapse Anatomy 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 229920000742 Cotton Polymers 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000007418 data mining Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 3
- 230000018044 dehydration Effects 0.000 description 3
- 238000006297 dehydration reaction Methods 0.000 description 3
- 239000003599 detergent Substances 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005108 dry cleaning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000010409 ironing Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 230000001954 sterilising effect Effects 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 235000012766 Cannabis sativa ssp. sativa var. sativa Nutrition 0.000 description 1
- 235000012765 Cannabis sativa ssp. sativa var. spontanea Nutrition 0.000 description 1
- 241000287828 Gallus gallus Species 0.000 description 1
- 241000234435 Lilium Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000238367 Mya arenaria Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000007844 bleaching agent Substances 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 235000009120 camo Nutrition 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 210000003169 central nervous system Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 235000005607 chanvre indien Nutrition 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011487 hemp Substances 0.000 description 1
- 238000007602 hot air drying Methods 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 229920000728 polyester Polymers 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- -1 silk Polymers 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 210000002268 wool Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- D—TEXTILES; PAPER
- D06—TREATMENT OF TEXTILES OR THE LIKE; LAUNDERING; FLEXIBLE MATERIALS NOT OTHERWISE PROVIDED FOR
- D06F—LAUNDERING, DRYING, IRONING, PRESSING OR FOLDING TEXTILE ARTICLES
- D06F34/00—Details of control systems for washing machines, washer-dryers or laundry dryers
- D06F34/04—Signal transfer or data transmission arrangements
- D06F34/05—Signal transfer or data transmission arrangements for wireless communication between components, e.g. for remote monitoring or control
-
- D—TEXTILES; PAPER
- D06—TREATMENT OF TEXTILES OR THE LIKE; LAUNDERING; FLEXIBLE MATERIALS NOT OTHERWISE PROVIDED FOR
- D06F—LAUNDERING, DRYING, IRONING, PRESSING OR FOLDING TEXTILE ARTICLES
- D06F33/00—Control of operations performed in washing machines or washer-dryers
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Textile Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Probability & Statistics with Applications (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及衣物调度装置。根据本发明的实施方式的衣物调度装置包括:输入界面,其接收语音,所述语音包括来自用户的分别代表多个衣物项目的多个单词;以及处理器,其通过将与接收到的语音相对应的语音数据输入到学习模型并执行单词嵌入来获取由所述多个单词中的每个单词表示的一个或多个特征,并基于由所述多个单词中的每个单词表示的所述一个或多个特征来生成所述多个衣物项目的衣物调度。
Description
技术领域
本发明涉及一种衣物调度装置,该衣物调度装置用于从用户的话语中提取多个衣物项目中的每一个的各种特征,并根据获取的特征来调度多个衣物项目中的衣物。
背景技术
人工智能是计算机工程和信息技术的一个领域,其研究使计算机能够进行能够由人类智能进行的思考、学习和自我发展的方法,并且可以使计算机模仿人类智能。
此外,人工智能凭其自身并不存在,而是与计算机科学的其它领域有许多直接和间接的联系。特别地,已经积极地尝试将人工智能元素引入信息技术的许多领域,以 利用它来解决该领域中的问题。
另外,正在积极地研究用于使用人工智能感知和学习周围情况、以期望形式提供用户期望的信息或者执行期望的操作或功能的技术。
另一方面,衣物项目的特征变化很大,并且洗涤方法可以根据衣物项目的特征而变化。
例如,由于内衣的布易于损坏,因此要求洗涤方法使其最小化。在衬衫的情况下,需要一种洗涤方法来使起皱的发生最小化,并且在白色衣服的情况下,需要一种洗涤 方法来在不与不同颜色的衣服混合的状态下洗涤白色衣服。
然而,洗衣机不容易掌握衣物项目的各种特征。
具体地,感测能力在通过传感器检测衣物项目的特征方面可能具有局限性,并且由于传感器的安装而导致成本增加。
而且,衣物项目的特征可以通过用户的按钮输入或文本输入来掌握。然而,当要求用户输入各种各样的特征时,很有可能使得用户不使用这种功能。
另一方面,最近已经开发了语音识别技术,并且可以考虑使用用户的话语来识别衣物项目的特征的方法。
但是,同一衣物项目的表达可能相差很大。因此,需要从这些各种表达中提取用于掌握衣物项目的特征所需的信息。
另外,当掌握了各种类型的衣物项目的特征时,需要适当地调度衣物,使得使用检测到的特征来执行最佳洗涤。
近年来,已经开发了能够执行洗涤功能的各种洗涤设备,例如洗涤设备、定型机和烘干机。因此,当掌握了各种类型的衣物项目的特征时,需要在各种洗涤设备中适 当地调度衣物,从而执行最佳洗涤。
发明内容
为了解决上述问题而做出本发明,并且本发明的一个目的是提供一种衣物调度装置,该衣物调度装置用于从用户的话语中提取多个衣物项目的各种特征,并且根据获 取的特征来调度多个衣物项目的衣物。
根据本发明的一个实施方式的衣物调度装置包括:输入界面,其接收语音,所述语音包括来自用户的分别代表多个衣物项目的多个单词;以及处理器,其通过将与接 收到的语音相对应的语音数据输入到学习模型并执行单词嵌入来获取由所述多个单 词中的每一个词代表的一个或多个特征,并基于由所述多个单词中的每一个单词代表 的所述一个或多个特征来生成所述多个衣物项目的衣物调度。
根据下文给出的详细描述,本发明的进一步应用范围将变得显而易见。然而,应该理解,详细描述和具体示例虽然指示了本发明的优选实施方式,但是仅是通过示例 给出,因为通过所述详细描述,在本发明的精神和范围内的各种改变和修改对于本领 域技术人员而言将是显而易见的。
附图说明
图1是用于说明根据本发明的实施方式的衣物调度系统的图;
图2A是用于说明根据本发明的实施方式的衣物调度装置的框图;
图2B是用于说明根据本发明实施方式的语音系统的图;
图3是用于说明操作根据本发明的实施方式的衣物调度装置的方法的图;
图4是示出调度衣物所需的特征的图;
图5是用于说明训练安装在衣物调度装置中的学习模型的方法的图;
图6是用于说明根据本发明的实施方式、对在语音中包括的多个单词执行单词嵌入的方法的图;
图7示出了根据本发明的实施方式的根据Word2Vec方法的向量空间;
图8是用于描述根据本发明的实施方式的获取适于洗涤的衣物信息的方法的图;
图9是用于说明根据本发明的实施方式的衣物调度方法的图;
图10是用于说明输出所生成的衣物调度的方法的图;
图11是用于说明根据本发明的实施方式在衣物调度系统中提供洗涤服务的方法的图;和
图12是用于说明根据本发明的实施方式当添加一些衣物项目时的操作方法的图。
具体实施方式
现在将参考附图根据在此公开的示例性实施方式进行详细描述。为了参照附图进行简要描述,相同或等同的部件可以设置有相同的附图标记,并且将不重复其描述。 通常,诸如“模块”和“单元”之类的后缀可用于指代元件或部件。本文中使用这样 的后缀仅旨在方便说明书的描述,并且后缀本身不旨在给出任何特殊含义或功能。在 本公开中,为了简洁起见,基本省略了相关领域的普通技术人员所公知的内容。附图 用于帮助容易地理解各种技术特征,并且应当理解,本文提出的实施方式不受附图的 限制。这样,除了在附图中特别列出的那些之外,本公开应当被解释为扩展到任何改 变、等同物和替代物。
将理解的是,尽管在这里可以使用术语第一、第二等来描述各种元件,但是这些元件不应受到这些术语的限制。这些术语通常仅用于区分一个元件和另一个元件。
将理解的是,当一个元件被称为与另一元件“连接”时,该元件可以与另一元件 连接,或者也可以存在中间元件。相反,当一个元件被称为与另一元件“直接连接” 时,则不存在中间元件。
单数表示可以包括复数表示,除非通过上下文已知该单数表示代表了明显不同的含义。在本文中使用了诸如“包括”或“具有”之类的术语,并且应当理解,它们旨 在指示说明书中公开的若干部件、功能或步骤的存在,并且还应当理解,可能使用更 多或更少的部件、功能或步骤。
首先,下面简要描述人工智能(AI)。
人工智能(AI)是计算机工程和信息技术的一个领域,用于研究使计算机能够执行能够由人类智能执行的思考、学习和自我发展的方法,并且可以指示计算机模仿人 类的智能行为。
此外,AI与计算机工程的其他领域直接/间接地相关,而非单独提供。特别地, 目前,在信息技术的各个领域中,正在积极地尝试引入AI部件并使用AI部件来解决 相应领域的问题。
机器学习是AI的一个领域,并且是一个使计算机无需显式程序即可执行学习的研究领域。
详细地,机器学习可以是研究并建立用于基于经验数据执行学习、执行预测并自主增强性能以及与之相关的算法的系统。机器学习的算法可以使用如下方法,该方法 建立用于基于输入数据获取预测或决策的特定模型的方法,而不是执行严格预定义的 程序指令的方法。
在机器学习中,已经开发了许多用于对数据进行分类的机器学习算法。决策树、贝叶斯网络、支持向量机(SVM)和人工神经网络(ANN)是机器学习算法的代表 示例。
决策树是一种通过将决策规则设计成树形结构来执行分类和预测的分析方法。
贝叶斯网络是其中多个变量之间的概率关系(条件独立性)被表示为图结构的模型。贝叶斯网络适用于基于无监督学习的数据挖掘。
SVM是用于模式识别和数据分析的监督学习模型,主要用于分类和回归。
ANN是一种实现生物神经元的工作原理以及神经元之间的连接关系的模型,并 且是一种信息处理系统,其中多个称为节点或处理元素的神经元以层结构的形式相互 连接。
ANN是一种用于机器学习的模型,并且是一种统计学习算法,其灵感来自机器 学习和认知科学的生物学的神经网络(例如,动物的中枢神经系统的大脑)。
详细地,ANN可以表示所有模型,其中通过突触的连接形成的网络的人工神经 元(节点)通过学习而改变突触的连接强度,从而获得解决问题的能力。
术语“ANN”可以被称为“神经网络”。ANN可以包括多个层,并且多个层中的 每一个可以包括多个神经元。而且,ANN可以包括将神经元连接到另一个神经元的 突触。
ANN通常可以由以下因素定义:(1)不同层的神经元之间的连接模式;(2)更 新连接权重的学习过程;(3)激活函数,用于根据从前一层接收到的输入的加权和来 生成输出值。
ANN可以包括网络模型,例如深度神经网络(DNN)、递归神经网络(RNN)、 双向递归深度神经网络(BRDNN)、多层感知器(MLP)和卷积神经网络(CNN), 但不限于此。
可以基于层的数量将ANN分类为单层神经网络和多层神经网络。
普通的单层神经网络配置有输入层和输出层。
此外,普通的多层神经网络配置有输入层、至少一个隐藏层以及输出层。
输入层是接收外部数据的层,输入层的神经元的数量与输入变量的数量相同,隐藏层位于输入层和输出层之间并接收来自输入层的信号,以从接收到的信号中提取特 征并且可以将提取的特征传输到输出层。输出层从隐藏层接收信号,并基于接收到的 信号输出输出值。神经元之间的输入信号可以乘以每个连接强度(权重),并且可以 将通过乘法获得的值相加。当总和大于神经元的阈值时,神经元可以被激活并且可以 输出通过激活函数获得的输出值。
包括位于输入层和输出层之间的多个隐藏层的DNN可以是实现深度学习的代表性ANN,深度学习是一种机器学习技术。
可以通过使用训练数据来训练ANN。在此,训练可以指代确定ANN参数的过程, 以实现诸如对输入数据进行分类、回归或聚类的目的。ANN的参数的代表性示例可 以包括分配给突触的权重或施加给神经元的偏差。
这些参数是内部参数,可以通过训练人工神经网络(ANN)来确定或更新。
人工神经网络(ANN)参数的另一个示例是激活函数,该函数将层数、神经元 数、不同层的神经元之间的连接模式、从前一层接收到的输入的权重进行求和,并且 产生输出值。这些参数是外部参数,可以由用户设置。
基于训练数据训练的ANN可以基于输入数据的模式对输入数据进行分类或聚 类。
在本说明书中,基于训练数据训练的ANN也可以称为训练模型。
接下来,将描述ANN的学习方法。
ANN的学习方法可以大致分为监督学习、非监督学习、半监督学习和强化学习。
监督学习可以是用于从训练数据中模拟一个功能的机器学习方法。
此外,在模拟函数中,输出连续值的功能可以被称为回归,而预测和输出输入矢量的类别的功能可以被称为分类。
在监督学习中,可以在分配训练数据的标签的状态下训练ANN。
在此,标签可以指代当训练数据被输入到ANN时由ANN推断出的正确答案(或 结果值)。
在本说明书中,当训练数据被输入到ANN时,由ANN推断的正确答案(或结 果值)可以被称为标签或标签数据。
此外,在本说明书中,将标签分配给训练数据用于ANN的学习的过程可以被称 为将标签数据标记为训练数据的过程。
在这种情况下,训练数据和与训练数据相对应的标签可以配置一个训练集,并且可以以训练集的形式输入到ANN。
训练数据可以表示多个特征,并且被标记为训练数据的标签可以指示该标签被分配给由训练数据表示的特征。在这种情况下,训练数据可以将输入对象的特征表示为 矢量类型。
ANN可以通过使用训练数据和标记数据来模拟与训练数据和标记数据之间的关联关系相对应的功能。而且,可以通过评估模拟函数来确定(优化)ANN的参数。
无监督学习是一种机器学习,在这种情况下,可能未将标签分配给训练数据。
详细地,无监督学习可以是训练ANN以从训练数据本身检测模式并对训练数据 进行分类的学习方法,而不是检测训练数据和与训练数据相对应的标签之间的关联关 系。无监督学习的示例可以包括聚类和独立成分分析。
使用无监督学习的ANN的示例可以包括生成对抗网络(GAN)和自动编码器 (AE)。
GAN是一种通过被称为生成器和鉴别器的两个不同AI之间的竞争来提高性能的方法。在这种情况下,生成器是用于创建新数据的模型,并基于原始数据生成新数据。
此外,鉴别器是用于识别数据模式的模型,并且确定输入的数据是原始数据还是从生成器生成的伪造数据。此外,可以通过接收和使用不欺骗鉴别器的数据来训练生 成器,并且可以通过接收和使用由生成器生成的欺骗性数据来训练鉴别器。因此,生 成器可以进化以便尽可能地欺骗鉴别器,并且鉴别器可以进化以将原始数据与生成器 生成的数据区分开。AE是用于将输入再现为输出的神经网络。
AE可以包括输入层、至少一个隐藏层和输出层。
在这种情况下,隐藏层的节点数可以小于输入层的节点数,并且因此,可以减小数据的大小,从而可以执行压缩或编码。
而且,从隐藏层输出的数据可以进入输出层。在这种情况下,输出层的节点数可以大于隐藏层的节点数,因此,数据的大小可以增加,并且因此可以执行解压缩或解 码。
AE可以通过学习来控制神经元的连接强度,并且因此,输入数据可以表示为隐 藏层数据。在隐藏层中,可以通过使用比输入层更少数量的神经元来表达信息,并且 被再现为输出的输入数据可以表示隐藏层从输入数据中检测到了并表达了隐藏模式。 半监督学习是机器学习的一种,并且可以表示如下学习方法,该方法既使用分配有标 签的训练数据又使用未分配标签的训练数据。
作为一种半监督学习技术,存在如下技术,该技术可以推断没有被分配标签的训练数据的标签,并通过使用推断的标签来进行学习,并且该技术可以有效地用于其中 在标记标签中花费的成本大的情况。
强化学习可以是一种理论,在这种理论中,当提供了智能体能够确定每时每刻要采取的行动的环境时,最好的方法是通过没有数据的经验获得的。
增强学习可以通过马尔可夫决策过程(MDP)来执行。
为了解释马尔可夫决策过程(MDP),首先,给出了配置智能体执行以下操作所 需的信息的环境,其次,定义了智能体在环境中的行为方式,第三,确定了智能体执 行哪个操作好或坏以给予奖励或惩罚,以及第四,反复获取经验,直到未来的补偿达 到顶峰,从而得出最优策略。
图1是用于描述根据本发明的实施方式的衣物调度系统的图。
根据本发明的一个实施方式的衣物调度系统可以包括衣物调度装置100和一个或多个洗涤设备200、300和400。
洗涤设备可以意指具有处理衣物项目的功能的衣物处理设备,诸如水洗、干洗、熨烫、除尘、干燥和消毒。
可以根据驱动方法和功能将多个洗涤设备分类为各种类型。例如,洗涤设备可以包括洗涤设备、衣物管理器(TROM定型机、衣物护理机、衣物清洁器等)和烘干 机中的至少一者。
根据其操作方法,洗涤设备可以被分类为滚筒洗涤设备和顶部装载洗涤设备,并且根据尺寸/容量可以被分类为大型洗涤设备、普通洗涤设备和小型洗涤设备。
根据其操作方法,烘干机可以分为气体烘干机和电动烘干机,并且可以指用于烘干衣物项目的设备。
与传统的洗涤设备不同,衣物管理器是指用于提供干洗衣服功能、除尘功能以及通过使用蒸汽进行灭菌或熨烫的功能中的至少一种功能(而不是用水洗衣服)的装置。
在本说明书中,包括衣服、被子和可洗布或诸如玩偶之类的织物的物品统称为衣物项目。
衣物调度装置100可以与一个或多个洗涤设备200、300和400通信。
衣物调度装置100可以被实现为电视机、投影仪、智能手机、平板电脑、机顶盒(STB)、DMB接收器、收音机、洗涤设备、冰箱、固定机器人、可移动机器人等等。 即,衣物调度装置100可以以家庭中使用的各种家用电器的形式实现。
同时,衣物调度装置100可以与一个或多个洗涤设备200、300和400中的任何 一个一体地形成。
可以基于用户的语音来控制衣物调度装置100。
用户的语音可以通过衣物调度装置100被转换为语音数据。
衣物调度装置100可以直接或者通过与衣物调度装置100通信的服务器(未示出)来分析语音数据,以获得与语音数据相对应的语义信息。
图2A是用于描述根据本发明的实施方式的衣物调度装置的框图。
在本说明书中,“终端100”可以指“衣物调度装置100”。
可以使用各种不同类型的终端来实施本文提出的移动终端。此类终端的示例包括蜂窝电话、智能电话、用户设备、膝上型计算机、数字广播终端、个人数字助理(PDA)、 便携式多媒体播放器(PMP)、导航仪、便携式计算机(PC)、平板计算机、平板电 脑、超极本、可穿戴装置(例如,智能手表、智能眼镜、头戴式显示器(HMD))等。
仅作为非限制性示例,将参考特定类型的移动终端进行进一步描述。但是,这样的教导同样适用于其他类型的终端,例如上面提到的那些类型。另外,这些教导也可 以应用于诸如数字电视、台式计算机等的固定终端。
另外,根据本发明的实施方式的终端100可以应用于固定机器人或可移动机器人。
另外,根据本发明的实施方式的终端100可以执行语音智能体的功能。语音智能体可以是用于识别用户的语音并通过语音输出适合于所识别的用户的语音的响应的 程序。
终端100可以包括无线通信单元110、输入界面120、运行处理器130、传感器 140、输出界面150、接口单元160、存储器170、处理器180和电源单元190。
无线通信器110通常包括一个或多个模块,该模块允许通信,例如终端100与无 线通信系统之间的无线通信,终端100与另一移动终端之间的通信,终端100与外部 服务器之间的通信。此外,无线通信器110通常包括将终端100连接到一个或多个网 络的一个或多个模块。为了促进这种通信,无线通信器110包括一个或多个广播接收 模块111、移动通信模块112、无线互联网模块113、短距离通信模块114和位置信息 模块115。对于无线通信器110,广播接收模块111通常被配置为经由广播信道从外 部广播管理实体接收广播信号和/或广播相关信息。移动通信模块112可以向一个或 多个网络实体和从一个或多个网络实体发送和/或接收无线信号。网络实体的典型示 例包括基站、外部移动终端、服务器等。这样的网络实体形成移动通信网络的一部分, 该移动通信网络根据用于移动通信的技术标准或通信方法(例如,全球移动通信系统 (GSM)、码分多址(CDMA)、CDMA2000(码分多址2000)、EV-DO(增强型语音 数据优化或仅增强型语音数据)、宽带CDMA(WCDMA)、高速下行分组接入(HSDPA)、HSUPA(高速上行分组接入)、长期演进(LTE)、LTE-A(高级长期演 进)等)来构造。经由移动通信模块112发送和/或接收的无线信号的示例包括音频 呼叫信号、视频(电话)呼叫信号或支持文本和多媒体消息的通信的各种格式的数据。
无线互联网模块113被配置为促进无线互联网访问。该模块可以在内部或外部耦合到移动终端100。无线互联网模块113可以根据无线互联网技术经由通信网络发送 和/或接收无线信号。
这种无线互联网访问的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-FiDirect、数字生活网络联盟(DLNA)、无线宽带(WiBro)、全球微波访问互操作性 (WiMAX)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、 长期演进(LTE)、LTE-A(高级长期演进)等。无线互联网模块113可以根据一种或 多种这样的无线互联网技术以及其他互联网技术来发送/接收数据。
短距离通信模块114被配置为促进短距离通信。实施此类短距离通信的合适技术包括蓝牙TM、射频识别(RFID)、红外数据组织(IrDA)、超宽带(UWB)、ZigBee、 近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi Direct、无线USB(无线通用串行总线) 等。短距离通信模块114通常支持经由无线局域网在移动终端100与无线通信系统之 间的无线通信、移动终端100与另一移动终端100之间的通信、或者移动终端与其中 定位有另一移动终端100(或外部服务器)的网络之间的通信。无线局域网的一个示 例是无线个人局域网。
位置信息模块115通常被配置为检测、计算、导出或者是另外标识移动终端的位置。作为示例,位置信息模块115包括全球定位系统(GPS)模块、Wi-Fi模块或这 两者。如果期望,则位置信息模块115可以替代地或附加地与无线通信单元110的任 何其他模块起作用,以获得与移动终端的位置有关的数据。
作为一个示例,当移动终端使用GPS模块时,可以使用从GPS卫星发送的信号 来获取移动终端的位置。作为另一示例,当移动终端使用Wi-Fi模块时,可以基于与 无线接入点(AP)有关的信息来获取移动终端的位置,该无线接入点向Wi-Fi模块 发送或从Wi-Fi模块接收无线信号。输入界面120可以包括用于输入视频信号的摄像 机121、用于接收音频信号的麦克风122以及用于从用户接收信息的用户输入界面 123。
输入界面120收集的语音数据或图像数据可以被分析和处理作为用户的控制命令。
输入界面120可以被配置为允许向终端进行的各种类型的输入。这种输入的示例包括音频、图像、视频、数据和用户输入。通常使用一个或多个摄像机121来获取图 像和视频输入。摄像机121可以在视频或图像捕获模式下处理由图像传感器获取的静 止图片或视频的图像帧。经处理的图像帧可以被显示在显示器151上或被存储在存储 器170中。麦克风122通常被实现为允许音频输入到移动终端100。音频输入可以根 据在移动终端100中执行的功能而以各种方式被处理。如果需要,麦克风122可以包 括各种噪声去除算法,以去除在接收外部音频的过程中产生的不想要的噪声。
用户输入界面123是允许用户输入的部件。这样的用户输入可以使处理器180 能够控制终端100的操作。用户输入界面123可以包括机械输入元件(例如,键、位 于终端100的前表面和/或后表面或侧面上的按钮、圆顶开关、滚轮、滚轮开关等) 或触敏输入等。作为一个示例,触敏输入可以是通过软件处理在触摸屏上显示的虚拟 键或软键,或者是位于移动终端上除触摸屏之外的位置处的触摸键。
学习处理器130可以被配置为接收、分类、存储和输出要用于数据挖掘、数据分析、智能决策以及机器学习算法和技术的信息。
运行处理器130可以包括一个或多个存储单元,该存储单元被配置为存储由终端接收、检测、感测、生成、预定义、或者以不同方式输出的数据,或者被另一部件、 装置、终端或以不同方式与终端通信的装置接收、检测、感测、生成、预定义或输出 的数据。
运行处理器130可以包括在终端中集成或实现的存储器。在一些实施方式中,可以使用存储器170来实现运行处理器130。
替代地或附加地,可以使用与终端相关联的存储器来实现运行处理器130,所述存储器例如是直接连接到终端的外部存储器或被维护在与终端通信的服务器中的存 储器。
在其他实施方式中,可以使用被维护在云计算环境中或在可由终端经由诸如网络的通信方案访问的其他远程存储器位置的存储器来实现运行处理器130。
运行处理器130可以被配置为将数据存储在一个或多个数据库130中,以便识别、索引、分类、处理、存储、检索和输出数据,以通常用于有监督或无监督的学习、数 据挖掘、预测分析或其他机器中。
可以使用多种不同类型的数据分析算法和机器学习算法中的任何一种,来由处理器180或终端的一个或多个其他控制器来使用运行处理器130中存储的信息。
这种算法的示例包括k最近邻系统、模糊逻辑(例如,概率论)、神经网络、玻 尔兹曼机、矢量量化、脉冲神经网络、支持矢量机、最大余量分类器、爬山法、归纳 逻辑系统贝叶斯网络、Peritnet(例如,有限状态机、微小机械、摩尔有限状态机)、 分类器树(例如,感知器树、支持向量树、马尔可夫树、决策树森林、随机森林)灌 装模型和系统、人工融合、传感器融合、图像融合、强化学习、增强现实、模式识别、 自动计划等。
处理器180可以基于使用数据分析和机器学习算法确定或生成的信息来确定或预测终端的至少一种可执行操作。为此,处理器180可以请求、检索、接收或利用运 行处理器130的数据,并且可以执行控制,使得终端执行至少一个可执行操作中的被 预测或确定为期望的操作。
处理器180可以执行各种功能以实现智能仿真(即,基于知识的系统、推理系统 和知识获取系统)。这可以应用于各种类型的系统(例如,模糊逻辑系统),包括自适 应系统、机器学习系统、人工神经网络等。
处理器180还可包括用于启用涉及语音和自然语言语音处理的计算的子模块,例如I/O处理模块、环境条件模块、语音文本(STT)处理模块、自然语言处理模块、 工作流程处理模块、服务处理模块。
这些子模块中的每个子模块都可以访问终端中的一个或多个系统或数据和模型或其子集或超集。另外,每个子模块可以提供各种功能,包括词汇索引、用户数据、 工作流模型、服务模型和自动语音识别(ASR)系统。
在另一个实施方式中,可以用子模块、系统或数据和模型来实现处理器180或终端的另一方面。
在一些示例中,基于运行处理器130的数据,处理器180可以被配置为基于由用 户输入或自然语言输入表示的情境条件或用户的意图来检测和感测需求。
处理器180可以基于情境条件或用户的意图主动地导出并获得完全确定需求所必需的信息。例如,处理器180可以通过分析包括历史输入和输出、模式匹配、明确 词、输入意图等的历史数据来主动得出必要信息,以确定需求。
处理器180可以基于情境条件或用户的意图来确定用于执行用于响应需求的功能的任务流程。
处理器180可以通过终端中的一个或多个感测部件来收集、感测、提取和/或接 收用于数据分析和机器学习操作的信号或数据,以便收集信息以在运行处理器130 中进行处理和存储。
信息收集可以包括通过传感器感测信息,提取存储在存储器170中的信息,或者通过通信装置从另一终端、实体或外部存储装置接收信息。
处理器180可以从终端收集并存储使用历史信息。
处理器180可以使用存储的使用历史信息和预测建模来确定最佳匹配以执行特定功能。
处理器180可以通过传感器140接收或感测周围环境信息或其他信息。
处理器180可以通过无线通信器110接收广播信号和/或广播相关信息、无线信 号和无线数据。
处理器180可以从输入界面120接收图像信息(或相应的信号)、音频信息(或 相应的信号)、数据或用户输入信息。
处理器180可以实时收集信息、对信息(例如,知识图、命令策略、个性化数据 库、对话引擎等)进行处理或分类、并将处理后的信息存储在存储器170或运行处理 器130中。
当基于数据分析以及机器学习算法和技术来确定终端的操作时,处理器180可以控制终端的部件以执行所确定的操作。处理器180可以根据控制命令来控制终端,然 后执行所确定的操作。
处理器180可以在执行特定操作时通过数据分析以及机器学习算法和技术来分析指示特定操作的性能的历史信息,并且基于所分析的信息来执行先前学习的信息的 更新。
因此,处理器180可以与运行处理器130协作,基于更新后的信息来提高数据分 析以及机器学习算法和技术的未来性能的准确性。
传感器140通常使用被配置为感测移动终端的内部信息、移动终端的周围环境、用户信息等的一个或多个传感器来实现。例如,在图1中,示出的传感器140具有接 近传感器141和照度传感器142。
如果需要,传感器140可以替代地或附加地包括其他类型的传感器或装置,例如触摸传感器、加速度传感器、磁性传感器、G传感器、陀螺仪传感器、运动传感器、 RGB传感器、红外(IR)传感器、手指扫描传感器、超声波传感器、光学传感器(例 如摄像机121)、麦克风122、电池电流计、环境传感器(例如气压计、湿度计、温度 计、辐射检测传感器、热传感器和气体传感器等)、以及化学传感器(例如,电子鼻、 保健传感器、生物特征传感器等),仅举几例。移动终端100可以被配置为利用从传 感器140获得的信息,特别是从传感器140的一个或多个传感器获得的信息,以及它 们的组合。
输出界面150通常被配置为输出各种类型的信息,例如音频、视频、触觉输出等。示出的输出界面150具有显示器151、音频输出模块152、触觉模块153和光学输出 模块154。
显示器151显示(输出)由终端100处理的信息。例如,显示器151可以显示在 终端100中被驱动的应用程序的执行屏幕信息,或者根据执行屏幕信息的UI(用户 界面)和GUI(图形用户界面)信息。
显示器151可以具有层间结构或与触摸传感器集成的集成结构,以便于触摸屏。触摸屏可以提供终端100和用户之间的输出界面,并且用作提供终端100和用户之间 的输入界面的用户输入界面123。
音频输出模块152通常被配置为输出音频数据。可以从许多不同的源中的任何一个获得这样的音频数据,使得可以从无线通信单元110接收音频数据,或者可以将音 频数据存储在存储器170中。可以在如下模式期间输出音频数据,诸如信号接收模式、 呼叫模式、记录模式、语音识别模式、广播接收模式等。音频输出模块152可以提供 与由移动终端100执行的特定功能(例如,呼叫信号接收声音、消息接收声音等)有 关的听觉输出。音频输出模块152还可以被实现为接收器、扬声器、蜂鸣器等。触觉 模块153可以被配置为生成用户感觉、感知或以其他方式体验的各种触觉效果。触觉 模块153产生的触觉效果的典型示例是振动。光学输出模块154可以使用光源的光来 输出用于指示事件发生的信号。在移动终端100中生成的事件的示例可以包括消息接 收、呼叫信号接收、未接呼叫、警报、时间表通知、电子邮件接收、通过应用程序的 信息接收等。
可以以使得移动终端发射单色光或具有多种颜色的光的方式来实施由光学输出模块154输出的信号。例如,当移动终端感测到用户已经检查了所生成的事件时,可 以终止信号输出。接口单元160用作要与移动终端100连接的各种外部装置的接口。 接口单元160可以包括有线或无线耳机端口、外部电源端口、有线或无线数据端口、 存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视 频I/O端口、耳机端口等。终端100可以响应于外部装置到接口单元160的连接而执 行与所连接的外部装置有关的适当控制。
识别模块可以是存储用于认证使用移动终端100的权限的各种信息的芯片,并且可以包括用户身份模块(UIM)、订户身份模块(SIM)、通用订户身份模块(USIM) 等。另外,具有识别模块的装置(在本文中也称为“识别装置”)可以采用智能卡的 形式。因此,识别装置可以经由接口单元160与终端100连接。
存储器170存储支持终端100的各种功能的数据。
存储器170可以存储在终端100上运行的多个应用程序或应用、用于终端100 的操作的数据和指令、以及用于运行处理器130的操作的数据和指令(例如,用于机 器学习的至少一个算法信息)。
除了与应用程序相关联的操作之外,处理器180通常还用于控制移动终端100 的整体操作。处理器180可以通过处理由图2A中描绘的各种部件输入或输出的信号、 数据、信息等,或者激活存储在存储器170中的应用程序,来提供或处理适合于用户 的信息或功能。作为一个示例,处理器180根据已经存储在存储器170中的应用程序 的执行来控制图2A所示的一些或全部部件。
电源单元190可以被配置为接收外部电力或提供内部电力,以便供应用于操作移动终端100中包括的元件和部件所需的适当电力。电源单元190可以包括电池,并且 电池可以被配置为嵌入在终端主体中,或者配置为可从终端主体拆卸。
控制器180通常可以控制移动终端100的一般操作。例如,当移动终端的状态满 足预设条件时,控制器180可以设置或释放锁定状态,该锁定状态用于限制用户以防 输入关于应用的控制命令。
图2B是用于描述根据本发明的实施方式的语音系统的图。
参考图2B,语音系统1可以包括终端100、语音转文本(STT)服务器10、自 然语言处理(NLP)服务器20和语音合成服务器30。
终端100可以将语音数据发送到STT服务器10。
STT服务器10可以将从终端100接收的语音数据转换为文本数据。
STT服务器10可以通过使用语言模型来提高语音到文本转换的准确性。
语言模型可以指的是能够计算句子概率或能够计算在给出前一个单词时下一个单词将要出现的概率的模型。
例如,语言模型可以包括概率语言模型,诸如Unigram模型、Bigram模型、N-gram模型等。
Unigram模型是假设所有单词的用法彼此完全独立的模型,是通过单词的概率乘积来计算单词序列的概率的模型。
Biagram模型是假设单词的用法仅取决于单个在先单词的模型。
N-gram模型是假设单词的使用取决于(n-1)个在先单词的模型。
即,STT服务器10可以使用语言模型来确定从语音数据转换的文本数据是否被 适当地转换,从而提高了转换为文本数据的准确性。
NLP服务器20可以从STT服务器10接收文本数据。NLP服务器20可以基于接 收到的文本数据对文本数据执行意图分析。
NLP服务器20可以将指示通过执行意图分析而获得的结果的意图分析信息发送到终端100。
NLP服务器20可以通过顺序地对文本数据执行语素分析步骤、语法分析步骤、 语音行为分析步骤和对话处理步骤来生成意图分析信息。
语素分析步骤是将与用户说出的语音相对应的文本数据划分为语素单元的步骤,所述语素单元是具有含义的最小单元,并且确定每个语素具有哪一部分语音。
语法分析步骤是使用语素分析步骤的结果将文本数据分类为名词短语、动词短语、形容词短语等,并确定短语之间的关系的步骤。
通过语法分析步骤,可以确定用户说出的语音的主语、宾语和修饰语。
语音行为分析步骤是使用语法分析步骤的结果来分析用户说出的语音的意图的步骤。具体而言,语音行为分析步骤是确定句子的意图的步骤,例如用户是在问问题、 发出请求还是简单地表达情感。
对话处理步骤是使用语音行为分析步骤的结果来确定是回答用户的话语、响应话语还是提出询问附加信息的问题的步骤。
在对话处理步骤之后,NLP服务器20可以生成意图分析信息,该意图分析信息 包括对用户话语的意图的回答、对附加信息的响应和查询中的至少一项。
同时,NLP服务器20可以从终端100接收文本数据。例如,当终端100支持语 音到文本转换功能时,终端100可以将语音数据转换成文本数据并将文本数据发送到 NLP服务器20。
语音合成服务器30可以组合先前存储的语音数据以生成合成语音。
语音合成服务器30可以记录被选为模型的人的语音,并将记录的语音划分为音节或单词。语音合成服务器30可以以音节或单词为单位将划分后的语音存储在内部 或外部数据库中。
语音合成服务器30可以从数据库中搜索与给定文本数据相对应的音节或单词,并合成所搜索到的音节或单词的组合,以生成合成语音。
语音合成服务器30可以存储分别与多种语言相对应的多个语音语言组。
例如,语音合成服务器30可以包括以韩语记录的第一语音语言组和以英语记录的第二语音语言组。
语音合成服务器30可以将第一语言的文本数据翻译成第二语言的文本,并使用第二语音语言组来生成与第二语言的翻译文本相对应的合成语音。
语音合成服务器30可以将生成的合成语音发送到终端100。
语音合成服务器30可以从NLP服务器20接收意图分析信息。
语音合成服务器30可以基于意图分析信息来生成反映用户意图的合成语音。
在一个实施方式中,STT服务器10、NLP服务器20和语音合成服务器30可以 被实施为一个服务器。
STT服务器10、NLP服务器20和语音合成服务器30的上述功能也可以在终端 100中执行。为此,终端100可以包括多个处理器。
图3是用于描述根据本发明的实施方式的衣物调度装置的操作方法的图。
参考图3,根据本发明的实施方式的衣物调度装置的操作方法可以包括以下步骤:接收包括分别代表多个衣物项目的多个单词的语音(S310),通过将与接收到的 语音对应的语音数据输入到训练模型来执行单词嵌入(S330),以及基于多个单词表 示的一个或多个特征来调度多个衣物项目的衣物的步骤。
在描述上述步骤之前,将参考图4描述调度衣物所需的特征,将参照图5描述对 训练模型进行训练的方法。
图4是示出调度衣物所需的特征的图。
在此,调度衣物所需的特征可以是指衣物调度装置在衣物可能具有的许多特征中识别出的特征,并将其反映在衣物调度中。
具体地说,具有调度衣物所需的各种特征。在这种情况下,可以根据各种标准对调度衣物所需的特征进行分类。
例如,调度衣物所需的特征可以分类为衣物项目的类型、布料、颜色、品牌、目 标年龄组等。
衣物项目的类型可以包括上装、下装、内衣、套头衫、外套等。
布可以包括诸如棉、丝绸、聚酯、麻等的材料。
颜色还可以包括黑色、白色、蓝色、红色等。
目标年龄组可以包括成年男人、婴儿、儿童、老人、成年女性等。
同时,调度衣物所需的一个特征可以被不同地称呼。例如,特征“黑色”实际上 可以被用户称为“暗”、“黑”、“暗淡”或“深灰”。
因此,有必要将与衣物有关的各种表达分类为洗涤设备应识别的特征。
图5是用于说明设置在衣物调度装置中的学习模型的训练方法的图。
单词嵌入是指将单词数字化并将其表示在向量空间上的技术。
可以学习神经网络以在接收到的语音数据上执行单词嵌入。
具体地,可以向神经网络提供语音数据作为训练数据,该语音数据包括表示衣物的大量表达。
例如,对于T恤衫的同一衣物项目,可能有多种表达方式,例如以各种方言发音 的T恤衫、以各种语调发音的T恤衫、字母T、T恤等。
作为另一个示例,对于牛仔裤的同一衣物项目,可能存在诸如牛仔布、牛仔裤、Levis等的各种表达。
例如,大量的修饰语可用于衣物项目。可能有各种表达形式,例如红T、黑T、 深灰T、白T、百合白T、长袖T、短袖T。
另外,可以将包括表示衣物项目的大量表达的语音数据作为训练数据提供给神经网络。
另一方面,在训练期间,神经网络可以从训练数据中找到模式并且更新神经网络的参数,使得训练数据根据模式被聚类。
神经网络可以通过Word2Ve方法将与衣物项目相关的单词表示为矢量,并在矢 量空间中对单词进行嵌入。
为了执行Word2Vec方法,可以将自动编码器、CBOW、Skip-Gram等用于神经 网络。
随着通过训练数据的学习进程,可以将训练数据根据模式进行聚类,因为具有相同含义或高相关性的单词被收集到向量空间中的单个聚类中。
在这种情况下,具有相同含义或高度相关性的单词群集可以代表衣物项目的一个或多个特征。
例如,当将诸如以各种方言发音的T恤衫、以各种语调发音的T恤衫、字母T 和T恤之类的语音数据的片段输入到训练的神经网络时,分别对应于T恤衫、字母T 和T恤的向量可能会聚集到第一个群集中。第一群集可以代表被称为T恤的衣物项 目的特征。
另一方面,通常通过非映射学习来执行使用Word2Vec方法的单词嵌入。通过一 起执行映射学习的一部分,可以将发音不同或含义略有不同但在衣物项目的调度中的 单词解释为可以将一个含义的单词集中在单个区域中。
具体地说,牛仔布、牛仔裤和Levis的发音完全不同,但在调度衣物时应解释为 单一含义(牛仔裤)。
同样,内裤和紧身衣在其实际含义和发音上是不同的,但是在调度衣物时可以被解释为单一含义(内衣)。
因此,可以在训练数据中标记衣物的调度所需的特征,并将其与训练数据一起输入到神经网络中。
例如,牛仔布、牛仔裤和Levis的语音数据可以用牛仔裤(或代表牛仔裤的特征 向量)标记,并与训练数据一起输入。在另一个示例中,内衣和紧身衣可以标记为内 衣,并与训练数据一起输入。
在这种情况下,随着通过训练数据的学习进程,可以根据衣物的调度所需的特征对单词进行聚类。
例如,分别对应于牛仔布、牛仔裤和Levis的向量可以被收集在第二群集中。在 这种情况下,第二群集可以代表被称为牛仔裤的衣物项目的衣物调度所需的特征。
在另一个示例中,分别对应于内衣和紧身衣的向量可以被收集在第三群集中。在这种情况下,第三群集可以表示被称为内衣的衣物项目的衣物的调度所需的特征。
另一方面,一个单词可以包含多个详细的单词。上述训练过程可以照原样应用于详细的单词。
这样的训练过程可以在人工神经网络的学习装置中执行。
人工神经网络的学习装置可以包括数据输入单元、处理器和神经网络。
数据输入单元可以接收训练数据,或接收训练数据和在训练数据中标记的数据。
处理器可以通过将包括训练数据或训练数据与训练数据中标记的数据的训练集输入到神经网络中来允许人工神经网络学习。因此可以确定神经网络的参数。
通过使用如上所述的训练数据来学习而确定参数的人工神经网络在本说明书中可以称为训练模型。
另一方面,可以使用训练模型来推断新输入数据的结果值而不是训练数据。
另一方面,训练模型可以新安装在衣物调度装置中,或者代替洗涤设备中的现有学习模型。
另一方面,可以通过硬件、软件或硬件和软件的组合来实施训练模型,并且当一些或全部训练模型以软件实施时,可以在衣物调度装置的存储器中存储构成训练模型 的一个或多个命令。
返回到图3,将描述S310和S330。
处理器可以通过输入界面从用户接收包括多个单词的语音,每个单词代表多个衣物项目。
如本文所使用的,单词可以指单个衣物项目。例如,“黑色T恤”是指单个衣物 项目,并且可以是一个单词。另外,“黑色成人牛仔裤”指的是一个衣物项目,并且 可能是一个单词。在另一个示例中,当用户说出“裤子和裙子”时,由于“裤子”和 “裙子”是指单独的衣物项目,因此用户的语音可以包括两个单词。
同时,处理器可以转换接收到的语音以生成语音数据,并将生成的语音数据输入到训练模型。
接下来,将参照图6描述S350。
图6是用于描述根据本发明的实施方式的在语音中包括的多个单词上执行单词嵌入的方法的图。
处理器可以通过将与接收到的语音相对应的语音数据输入到学习模型来执行单词嵌入。
具体地,处理器可以将与接收到的语音相对应的语音数据输入到学习模型。
在这种情况下,学习模型可以根据预设参数对语音数据中包括的多个单词中的每个单词执行嵌入。当学习模型使用Word2Vec方法时,多个单词中的每一个被表示为 向量,并且可以如图6所示被嵌入在向量空间中。
即,当用户的语音包括第一单词和第二单词时,学习模型可以将第一单词聚类到第一群集中,并且将第二单词聚类到第二群集中。
虽然多个群集中的每个群集可以对应于调度衣物所需的一个或多个特征。例如,第一群集可以对应于牛仔裤,第二群集可以对应于白色衣服,第三群集可以对应于衬 衫,第四群集可以对应于黑色,第五群集可以对应于白色,第六群集可以对应于内衣。 在另一个示例中,在其中聚集了衬衫的第一群集可以对应于作为衬衫的特征的上装、 棉、白和成年男子的特征。
因此,处理器可以根据聚类的结果获取由多个单词中的每个单词表示的一个或多个特征。
另一方面,学习模型可以将代表第一衣物项目的第一单词和代表第一衣物项目的第二单词聚类为代表第一衣物项目的单个群集。在这种情况下,处理器可以从第一单 词和第二单词获取相同的特征。
例如,当第一衣物项目是T恤衫时,单词“T恤衫”可以代表第一衣物项目,而 单词“T恤”也可以代表第一衣物项目。在这种情况下,学习模型可以将单词“T恤 衫”和单词“T恤”聚类到同一群集中。然后,处理器可以从单词“T恤衫”和单词 “T恤”中获取具有相同特征的T恤衫。
在另一个示例中,当第二衣物项目是牛仔裤时,具有特定语调的“牛仔裤”代表 第二衣物项目,并且没有语调的“牛仔裤”也可以代表第二衣物项目。在这种情况下, 学习模型可以将具有特定语调的“牛仔裤”和没有语调的“牛仔裤”聚类到同一群集 中。处理器可以从具有特定语调的“牛仔裤”和没有语调的“牛仔裤”中获取为相同 特征字母T的牛仔裤。
尽管一个词可以包括多个子词,并且处理器可以获取多个子词中的每一个代表的一个或多个特征。例如,处理器可以通过将表示第一衣物项目的第一单词输入到学习 模型来获取由第一单词表示的多个特征。
具体地,处理器可以将与接收到的语音相对应的语音数据输入到学习模型。
在这种情况下,学习模型可以根据设置参数对语音数据中包括的多个单词中的每个单词执行嵌入。当学习模型使用Word2Vec方法时,多个子词中的每一个可以被表 示为向量,并且被嵌入在向量空间中,如图6所示。
即,当用户的语音包括第一单词和第二单词并且第一单词包括第一子词和第二子词时,学习模型可以将第一子词聚类到第一群集,将第二子词聚类到第二群集,然后 将第二单词聚类到第三群集。
处理器可以根据通过对每个子词进行聚类而获得的结果来获取由多个子词中的每个子词表示的特征。因此,处理器可以从单个单词获取多个特征。
例如,当单词是“白色裤子”时,“白色裤子”可以包括第一子词“白色”和第 二子词“裤子”。
在这种情况下,学习模型可以将第一子词(白色)聚类为与白色的特征对应的第一群集,并且将第二子词(裤子)聚类为与裤子的特征对应的第二群集。
因此,处理器可以从一个单词“白色裤子”获得白色的特征和裤子的特征。
另一方面,处理器可以通过矢量运算来获取由单个单词表示的多个特征。
具体地,当已经接收到第一单词的学习模型输出第一特征向量时,处理器可以对第一特征向量和与第一特征向量有关的第二特征向量进行向量运算,以获取多个特 征。
下面将参考图7描述与其有关的细节。
图7示出了根据本发明的实施方式的根据Word2Vec方法的向量空间。
由于单词嵌入和Word2Vec方法的功能,具有相似含义的单词和可以一起使用的单词可能会聚集在相似的空间中。
例如,当单词“吃”位于向量空间中的特定点时,与单词“吃”具有相似关系的 单词,例如“吃过”,“会吃”,“想吃”等,可能位于附近。
作为另一示例,当单词“吃”位于向量空间中的特定点时,诸如鸡肉、披萨、蛋 糕之类的可以与“吃”一起使用的单词可以位于附近。
如上所述,在本说明书中,一个单词和另一个单词可以相似或可以一起使用并因此聚集在矢量空间的相似空间中的关系可以表示为“一个单词和另一个单词相关”或 “一个单词的特征向量与另一个单词的特征向量相关”。
参考图6,由于根据本发明的训练模型的特征,“内衣”可以布置在与“白色内 衣”和“黑色内衣”相似的空间中。
当已接收到第一单词的训练模型输出第一特征向量时,处理器利用与第一特征向量相关的第二特征向量执行向量运算,以获取由第一单词表示的多个特征。
具体地,假设在不使用上述详细单词的情况下,逐个单词地进行聚类。假设将“黑色T恤衫”输入到训练模型,并且输出与“黑色T恤衫”相对应的第一特征向量。
在这种情况下,处理器可以在第一特征向量和与第一特征向量相关的第二特征向量之间执行向量运算。
例如,黑色T恤衫的第一特征向量可以与T恤的第二特征向量相关。另外,当 第一特征向量是[9,7]并且第二特征向量是[6,4]时,处理器可以通过向量运算来计 算第三特征向量[3,3]。在这种情况下,第三特征向量可以是“黑色”,其通过从黑 色T恤衫减去T恤衫而获得。
以这种方式,处理器可以从单个单词获取由单个单词表示的多个特征。
图8是用于描述根据本发明的实施方式的获取适合于衣物项目的衣物信息的方法的图。
处理器可以通过使用由多个单词中的每一个表示的至少一个特征来搜索数据库而获取多个衣物项目中的每一个的衣物信息。
例如,由第一个单词“Y衬衫”表示的一个或多个特征可以是上装810、棉820、 白色830、成年男子840和衬衫850。
另一方面,衣物信息可以是指示用于衣物项目的洗涤方法的信息。
例如,用于防水夹克的衣物信息860可以包括用于防水夹克的洗涤方法,例如洗涤设备、不超过30摄氏度的洗涤、羊毛/丝绸洗涤剂、无漂白剂、需要额外漂洗、无 脱水和不使用烘干机。
例如,用于袜子/内衣的衣物信息890可以包括用于袜子/内衣的洗涤方法,例如洗涤设备、通过标准程序洗涤、洗涤温度不超过30摄氏度、不需要额外的漂洗、可 能的脱水、可能的烘干、无需热风烘干,因为其脱水后几乎是干燥的。
在这种情况下,处理器可以搜索与由第一单词表示的一个或多个特征相对应的所有衣物信息。
例如,“上装”的特征810可以对应于衬衫/运动衫900的衣物信息和袜子/内衣 890的衣物信息。
作为另一个示例,“白色”的特征830可以对应于用于抓绒衣(softshell)的衣物信息870和用于衬衫/运动衫900的衣物信息。
处理器可以将被最频繁检索的衣物信息确定为将用于第一单词(第一衣物项目)的衣物信息。
以这种方式,还可以确定要用于第二单词(第二衣物项目)的衣物信息。
同时,搜索数据库的过程不仅可以在衣物调度装置中执行,而且可以在数据库服务器中执行。
图9是用于描述根据本发明的实施方式的衣物调度方法的图。
处理器可以执行调度,以使得多个衣物项目在单个洗涤设备中被洗涤。
具体地,当获得了与第一衣物项目对应的第一衣物信息并且获得了与第二衣物项目对应的第二衣物信息时,处理器可以使用第一衣物信息和第二衣物信息来调度第一 衣物项目和第二衣物项目的洗涤。
例如,当第一衣物项目是牛仔裤并且第一衣物信息包括指示不能与白色衣服一起洗涤的信息,而第二衣物项目是衬衫并且第二衣物信息包括指示不能与深色衣服一起 洗涤的信息时,处理器可以执行调度,以使第一衣物项目和第二衣物项目在洗涤设备 中分开洗涤。
在下文中,将描述调度要被在多个洗涤设备中划分和洗涤的多个衣物项目的方法。
处理器可以基于由多个单词表示的至少一个特征,将要在多个洗涤设备中划分和洗涤的多个衣物项目进行分类。
具体地,处理器可以通过使用分别与多个衣物项目相对应的衣物信息的片段,将要在多个洗涤设备中划分和洗涤的多个衣物项目进行分类。
例如,当不应该在洗涤设备中洗涤牛仔裤时,处理器可以将牛仔裤分类为要在定型机中洗涤而不是洗涤设备中。
对于另一示例,当需要对白色衬衫进行水洗、干燥并通过定型机去除褶皱时,处理器可以将白色衬衫分类为要在洗涤设备、烘干机和定型机中进行洗涤。在这种情况 下,处理器可以指定洗衣顺序,并进行确定使得可以先在洗涤设备中洗涤白色衬衫, 然后在烘干机中干燥,然后在定型机中进行定型。
作为另一示例,当要在洗涤设备中洗涤特定衣物项目并且不需要烘干机时,处理器可以将该特定衣物分类为要在洗涤设备中洗涤。
另一方面,处理器可以生成多个衣物项目的衣物调度,使得在满足各种条件的同时执行最快的洗涤。
处理器可以基于多个条件和多个衣物项目中的每个衣物项目的衣物信息,将要在多个洗涤设备中划分和洗涤的多个衣物项目进行分类。
多个条件可以包括用户设置、洗涤指令、不应一起洗涤的衣物项目以及用于衣物项目的最佳洗涤设备中的至少一项。
这里,用户设置可以意指执行设置以影响衣物调度的调度的用户的输入。例如,当从用户接收到“牛仔裤应分开洗涤”或“牛仔裤应先洗涤”的输入时,处理器可执 行对这些条件的调度考虑。
另外,洗涤指示意味着禁止热水洗涤、禁止烘干、禁止使用特定洗涤剂等,并且 可以从衣物信息中获得。
另外,不应一起洗涤的衣物项目可以意指牛仔裤和白色衣服,并且最佳洗涤设备可以意指最适合特定衣物的洗涤设备。还可以从衣物信息中获得不应洗涤的衣物项目 和最佳洗涤设备。
同时,处理器可以考虑多个条件、多个衣物项目中的每个衣物项目的衣物信息以及多个条件的优先级,将要被划分和洗涤的多个衣物项目分类到多个洗涤设备。
在这种情况下,优先级可以默认在衣物调度装置中设置,或者可以通过用户输入来修改。
图10是用于描述输出预定的衣物调度的方法的图。
处理器可以输出预定的衣物调度。在这种情况下,处理器可以控制显示器以可视地显示衣物调度,或者可以控制声音输出单元以输出与衣物调度相对应的语音。
图11是用于描述根据本发明的实施方式的为衣物调度系统提供洗涤服务的方法的图。
处理器可以发送关于分类到多个洗涤设备的衣物项目和衣物调度的信息。
具体地,处理器可以将关于被分类到第一洗涤设备200的衣物项目和第一洗涤设备200的第一衣物调度的信息发送到多个洗涤设备中的第一洗涤设备200。
另外,处理器可以将关于被分类到第二洗涤设备的衣物项目和第二洗涤设备300的第二衣物调度的信息发送到多个洗涤设备中的第二洗涤设备300。
另一方面,多个洗涤设备中的每一个可以基于接收到的衣物调度来确定洗涤模式。
具体地,衣物调度可以包括关于洗涤方法的信息,例如洗涤时间、洗涤进程、水 温和要使用的洗涤剂。
在这种情况下,第一洗涤设备可以基于第一衣物调度来设置洗涤模式。
此外,第二洗涤设备可以基于第二衣物调度来设置洗涤模式。
另一方面,多个洗涤设备中的每一个可以输出在相应的洗涤设备中执行的洗涤的至少一个指导,即,关于被分类到相应的洗涤设备的衣物项目和设定的洗涤模式的信 息。
例如,第一洗涤设备200可以输出“请将三件宝宝衣服放入本设备。进入宝宝衣 服洗涤模式”的语音。
另一方面,多个洗涤设备可以配备有用于检测人的接近的检测传感器。在这种情况下,当检测到用户的接近时,多个洗涤设备可以输出关于分类到对应的洗涤设备的 衣物项目以及设置的洗涤模式的信息中的至少一个。
例如,当人首先移动到第一洗涤设备200时,第一洗涤设备200可以输出“请将 三件宝宝衣服放入本设备。进入宝宝衣服洗涤模式”的语音。当已经将三件宝宝衣服 放入第一洗涤设备200的用户移动到第二洗涤设备300时,第二洗涤设备300可以输 出语音“请将衬衫和夹克放入本设备。进入标准洗涤模式”。
另一方面,多个洗涤设备可以配备有用于通过使用拍摄的图像来区分人的人识别装置。在这种情况下,当与已经发出洗涤命令的用户相同的用户接近洗涤设备时,多 个洗涤设备可以输出关于分类到对应的洗涤设备的衣物项目以及设定的洗涤模式的 信息中的至少一个。
同时,多个洗涤装置可以在没有用于在相应的洗涤设备中设置洗涤模式的任何其它用户输入的情况下设置洗涤模式,并且根据所设置的洗涤模式来执行洗涤。
例如,第一洗涤设备已经接收到第一衣物调度,并且可以在没有用户单独输入的情况下使用第一衣物调度设置洗涤模式。
当检测到来自用户的明确输入(“开始洗涤”的语音输入)或隐式输入(放置衣 物项目并关闭门的输入)时,第一洗涤设备可以在没有用户用于设置洗涤模式的输入 的情况下根据确定的洗涤模式进行洗涤。
图12是用于描述根据本发明的实施方式当添加一些衣物项目时的操作方法的图。
当接收到用于放置额外衣物项目的输入时,处理器可以基于多个洗涤设备的操作状态来选择其中要洗涤额外衣物项目的洗涤设备。
例如,在接收到“我未放入衬衫,请将其放入”的输入的情况下,处理器可以找 出多个洗涤设备的操作状态并执行确定,使得在除了当前操作的洗涤设备之外的洗涤 设备中对额外衣物项目进行洗涤。
在这种情况下,处理器可以再次设置所选洗涤设备的洗涤模式。
具体地,基于额外衣物项目的特征,处理器可以生成并输出反映额外衣物项目的衣物信息的新衣物调度,并且将新的衣物调度发送到选定的洗涤设备。
如上所述,本发明的优点在于,可以从代表衣物项目的各种表达中准确地获取洗涤设备所需的特征。
另外,本发明的优点在于,可以生成衣物调度,使得使用所识别的特征在各种洗涤设备中执行最佳的洗涤。
根据本发明,可以从代表衣物的各种表达中准确地获取在洗涤设备中必需的特征。
根据本发明,可以生成洗涤时间表,从而使用这些特征在各种洗涤设备中进行最佳洗涤。
可以使用具有存储在其上的指令以供处理器执行以执行本文中提出的各种方法的机器可读介质来实现在前面的描述中提到的本发明。可能的机器可读介质的示例包 括HDD(硬盘驱动器)、SSD(固态磁盘)、SDD(硅磁盘驱动器)、ROM、RAM、 CD-ROM、磁带、软盘、光学数据存储装置、本文介绍的其他类型的存储介质及其组 合。如果需要,可以以载波的形式(例如,通过互联网的传输)来实现机器可读介质。 处理器可以包括移动终端的控制器180。
前述实施方式仅是示例性的,并且不应被视为限制本公开。该描述意图是说明性的,而不是限制权利要求的范围。对于本领域技术人员而言,许多替代、修改和变化 将是显而易见的。本文描述的示例性实施方式的特征、结构、方法和其他特性可以以 各种方式组合以获得另外的和/或替代的示例性实施方式。
由于本发明的特征可以以多种形式体现而不背离其特征,因此还应理解,除非另外指明,否则上述实施方式不受上述描述的任何细节的限制,而应概括地视为在所附 权利要求书所限定的范围内,因此,落入权利要求书的范围和边界或者是该范围和边 界的等同物之内的所有改变和修改都旨在由所附权利要求书涵盖。
Claims (10)
1.一种衣物调度装置,该衣物调度装置包括:
输入界面,所述输入界面被配置为接收用户的语音;以及
一个或多个处理器,所述处理器被配置为:
识别所接收到的语音中的分别与要洗涤的衣物项目相对应的多个术语;
通过使用经训练的学习模型来获取与所述多个术语中的每个术语相关联的一个或多个特征;
基于所获取的所述一个或多个特征,对于所述多个术语中的每个术语获取衣物指令;并且
获取并输出所述衣物项目的衣物调度信息,
其中,基于获取的衣物指令而生成获取的衣物调度信息。
2.根据权利要求1所述的衣物调度装置,其中,所述一个或多个处理器还被配置为基于由所述多个术语中的每个术语代表的所述一个或多个特征来分配要在多个衣物设备中洗涤的所述衣物项目。
3.根据权利要求1所述的衣物调度装置,其中,所述经学习模型将代表第一衣物项目的第一术语和代表所述第一衣物项目的第二术语聚类到代表所述第一衣物项目的一个群集中,并且从所述第一术语和所述第二术语获取相同的特征。
4.根据权利要求1所述的衣物调度装置,其中,所述一个或多个处理器还被配置为通过将所述多个术语中的代表第一衣物项目的第一术语输入到所述经学习模型来获得与所述第一术语相关联的多个特征。
5.根据权利要求4所述的衣物调度装置,其中:
所述经训练的学习模型被配置为基于所述第一术语的输入来输出第一特征向量;并且
所述一个或多个处理器还被配置为通过对所述第一特征向量和与所述第一特征向量相关的第二特征向量执行向量运算来获得与所述第一术语相关联的所述一个或多个特征。
6.根据权利要求1所述的衣物调度装置,其中,与所述多个术语中的每个术语相关联的所述一个或多个特征中的每个特征至少与衣物项目的衣物类型、衣服类型、颜色、品牌或年龄组相对应。
7.根据权利要求2所述的衣物调度装置,其中,所述一个或多个处理器还被配置为通过使用与每个所述衣物项目相关联的所述一个或多个特征来搜索数据库,从而获得关于每个所述衣物项目的信息,其中,所述衣物项目基于获得的每个所述衣物项目的信息而被分配给衣物设备。
8.根据权利要求7所述的衣物调度装置,其中,所述一个或多个处理器还被配置为至少基于用户设置、针对衣物项目的衣物指令或针对衣物项目设置的最佳衣物设备而被分配给所述多个衣物设备。
9.根据权利要求2所述的衣物调度装置,该衣物调度装置还包括:通信单元,所述通信单元被配置为与所述多个衣物设备进行通信,其中,所述一个或多个处理器还被配置为:
经由所述通信单元向第一衣物设备发送关于分配给由所述第一衣物设备洗涤的衣物项目的信息和关于所述第一衣物设备的衣物调度的信息,以及
经由所述通信单元向第二衣物设备发送关于分配给由所述第二衣物设备洗涤的衣物项目的信息和关于所述第二衣物设备的衣物调度的信息。
10.一种衣物调度系统,该衣物调度系统包括:
第一衣物设备,所述第一衣物设备提供第一洗涤功能;
第二衣物设备,所述第二衣物设备提供第二洗涤功能;
衣物调度装置,所述衣物调度装置被配置为:
接收用于调度衣物的输入;
识别所接收到的输入中的分别与要洗涤的衣物项目相对应的多个术语;
通过使用经训练的学习模型来获取与所述多个术语中的每个术语相关联的一个或多个特征;
基于所获取的所述一个或多个特征,对于所述多个术语中的每个术语获取衣物指令;
基于由所述多个术语中的每个术语代表的所述一个或多个特征来分配要由所述第一衣物设备或所述第二衣物设备洗涤的每个衣物项目;
将第一衣物调度发送到所述第一衣物设备,并且将第二衣物调度发送到所述第二衣物设备,
其中,所述第一衣物设备和所述第二衣物设备各自基于所述第一衣物调度和所述第二衣物调度来设置对应的洗涤模式。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2018/015955 WO2020122293A1 (ko) | 2018-12-14 | 2018-12-14 | 세탁 스케쥴링 장치 |
KRPCT/KR2018/015955 | 2018-12-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111325349A true CN111325349A (zh) | 2020-06-23 |
CN111325349B CN111325349B (zh) | 2024-01-30 |
Family
ID=68731758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911282458.XA Active CN111325349B (zh) | 2018-12-14 | 2019-12-13 | 衣物调度装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11227596B2 (zh) |
EP (1) | EP3667549B1 (zh) |
KR (1) | KR20210092197A (zh) |
CN (1) | CN111325349B (zh) |
WO (1) | WO2020122293A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112882448A (zh) * | 2021-01-12 | 2021-06-01 | 上海威士机械有限公司 | 吊袋式物流系统控制方法 |
CN113774639A (zh) * | 2021-09-29 | 2021-12-10 | 广东好太太智能家居有限公司 | 一种智能晾衣机控制方法、装置、系统及存储介质 |
CN113862954A (zh) * | 2020-06-30 | 2021-12-31 | 青岛海尔洗衣机有限公司 | 语音处理方法及洗衣机 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113818191B (zh) * | 2020-06-19 | 2023-11-14 | 青岛海尔洗衣机有限公司 | 基于图像识别的洗涤控制方法、装置、设备及存储介质 |
CN114108229B (zh) * | 2020-08-28 | 2023-11-07 | 青岛海尔洗衣机有限公司 | 衣物处理装置的控制方法及服务器 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004173729A (ja) * | 2002-11-25 | 2004-06-24 | Sanyo Electric Co Ltd | 洗濯機、乾燥機及びランドリー店システム |
US20130086520A1 (en) * | 2011-10-03 | 2013-04-04 | Whirlpool Corporation | Method of sorting articles for treatment according to a cycle of operation implemented by an appliance |
KR20140095779A (ko) * | 2013-01-25 | 2014-08-04 | 엘지전자 주식회사 | 세탁기 및 세탁기 제어방법 |
CN104240701A (zh) * | 2013-06-10 | 2014-12-24 | 上海能感物联网有限公司 | 汉语自然人语音控制洗衣机工作的方法 |
US20150279358A1 (en) * | 2014-03-31 | 2015-10-01 | International Business Machines Corporation | Method and system for efficient spoken term detection using confusion networks |
US20160258104A1 (en) * | 2013-10-16 | 2016-09-08 | Saronikos Trading And Services, Unipessoal Lda | LAUNDRY WASHING MACHINE WITH SPEECH RECOGNITION AND RESPONSE Laundry Washing Machine with Speech Recognition and Response Capabilities, in Particular Speech Response, and a Method for Operating Thereof |
CN107481722A (zh) * | 2017-08-21 | 2017-12-15 | 无锡小天鹅股份有限公司 | 语音控制方法、衣物处理装置及服务器 |
CN107574625A (zh) * | 2017-08-18 | 2018-01-12 | 珠海格力电器股份有限公司 | 衣物的洗涤方法、装置、存储设备、移动终端及洗衣机 |
WO2018040199A1 (zh) * | 2016-08-31 | 2018-03-08 | 无锡小天鹅股份有限公司 | 洗衣机及其控制方法和控制系统 |
CN108130683A (zh) * | 2017-12-21 | 2018-06-08 | 迪尔阿扣基金两合公司 | 一种家用电器以及用于运行家用电器的方法 |
CN108496219A (zh) * | 2015-11-04 | 2018-09-04 | 剑桥大学的校长、教师和学者 | 语音处理系统和方法 |
US20180315426A1 (en) * | 2017-04-28 | 2018-11-01 | Samsung Electronics Co., Ltd. | Electronic device for providing speech recognition service and method thereof |
CN108914489A (zh) * | 2018-07-27 | 2018-11-30 | 北京智能管家科技有限公司 | 洗衣机的控制方法、装置、洗衣机及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7096601B2 (en) | 2003-12-26 | 2006-08-29 | Lg Electronics Inc. | Apparatus and method for controlling washing/drying system |
KR20070067386A (ko) * | 2005-12-23 | 2007-06-28 | 엘지전자 주식회사 | 세탁기기 제어 시스템 및 제어방법 |
KR20090017826A (ko) * | 2007-08-16 | 2009-02-19 | 엘지전자 주식회사 | 복합의류처리시스템 |
CN106032616B (zh) | 2015-03-10 | 2020-01-14 | 青岛海尔洗衣机有限公司 | 一种智能衣物洗涤管理装置及方法 |
WO2018199543A1 (ko) | 2017-04-25 | 2018-11-01 | 엘지전자 주식회사 | 의류처리장치와 의류처리장치의 제어방법 및 상기 의류처리장치를 포함하는 온라인 시스템 |
KR102070783B1 (ko) | 2017-04-25 | 2020-01-29 | 엘지전자 주식회사 | 사용자가 수행한 코스 및 옵션의 패턴을 인공지능을 통해 학습하여 맞춤형 코스와 옵션을 추천하는 의류처리장치와 그 제어방법 및 상기 의류처리장치를 포함하는 온라인 시스템 |
-
2018
- 2018-12-14 WO PCT/KR2018/015955 patent/WO2020122293A1/ko active Application Filing
- 2018-12-14 KR KR1020217011766A patent/KR20210092197A/ko active Search and Examination
-
2019
- 2019-10-11 US US16/600,294 patent/US11227596B2/en active Active
- 2019-11-28 EP EP19211999.8A patent/EP3667549B1/en active Active
- 2019-12-13 CN CN201911282458.XA patent/CN111325349B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004173729A (ja) * | 2002-11-25 | 2004-06-24 | Sanyo Electric Co Ltd | 洗濯機、乾燥機及びランドリー店システム |
US20130086520A1 (en) * | 2011-10-03 | 2013-04-04 | Whirlpool Corporation | Method of sorting articles for treatment according to a cycle of operation implemented by an appliance |
KR20140095779A (ko) * | 2013-01-25 | 2014-08-04 | 엘지전자 주식회사 | 세탁기 및 세탁기 제어방법 |
CN104240701A (zh) * | 2013-06-10 | 2014-12-24 | 上海能感物联网有限公司 | 汉语自然人语音控制洗衣机工作的方法 |
US20160258104A1 (en) * | 2013-10-16 | 2016-09-08 | Saronikos Trading And Services, Unipessoal Lda | LAUNDRY WASHING MACHINE WITH SPEECH RECOGNITION AND RESPONSE Laundry Washing Machine with Speech Recognition and Response Capabilities, in Particular Speech Response, and a Method for Operating Thereof |
US20150279358A1 (en) * | 2014-03-31 | 2015-10-01 | International Business Machines Corporation | Method and system for efficient spoken term detection using confusion networks |
CN108496219A (zh) * | 2015-11-04 | 2018-09-04 | 剑桥大学的校长、教师和学者 | 语音处理系统和方法 |
WO2018040199A1 (zh) * | 2016-08-31 | 2018-03-08 | 无锡小天鹅股份有限公司 | 洗衣机及其控制方法和控制系统 |
US20180315426A1 (en) * | 2017-04-28 | 2018-11-01 | Samsung Electronics Co., Ltd. | Electronic device for providing speech recognition service and method thereof |
CN107574625A (zh) * | 2017-08-18 | 2018-01-12 | 珠海格力电器股份有限公司 | 衣物的洗涤方法、装置、存储设备、移动终端及洗衣机 |
CN107481722A (zh) * | 2017-08-21 | 2017-12-15 | 无锡小天鹅股份有限公司 | 语音控制方法、衣物处理装置及服务器 |
CN108130683A (zh) * | 2017-12-21 | 2018-06-08 | 迪尔阿扣基金两合公司 | 一种家用电器以及用于运行家用电器的方法 |
CN108914489A (zh) * | 2018-07-27 | 2018-11-30 | 北京智能管家科技有限公司 | 洗衣机的控制方法、装置、洗衣机及存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113862954A (zh) * | 2020-06-30 | 2021-12-31 | 青岛海尔洗衣机有限公司 | 语音处理方法及洗衣机 |
CN113862954B (zh) * | 2020-06-30 | 2024-03-12 | 青岛海尔洗衣机有限公司 | 语音处理方法及洗衣机 |
CN112882448A (zh) * | 2021-01-12 | 2021-06-01 | 上海威士机械有限公司 | 吊袋式物流系统控制方法 |
CN112882448B (zh) * | 2021-01-12 | 2022-11-22 | 上海威士机械有限公司 | 吊袋式物流系统控制方法 |
CN113774639A (zh) * | 2021-09-29 | 2021-12-10 | 广东好太太智能家居有限公司 | 一种智能晾衣机控制方法、装置、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20200193988A1 (en) | 2020-06-18 |
KR20210092197A (ko) | 2021-07-23 |
EP3667549A1 (en) | 2020-06-17 |
EP3667549B1 (en) | 2023-01-04 |
CN111325349B (zh) | 2024-01-30 |
US11227596B2 (en) | 2022-01-18 |
WO2020122293A1 (ko) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111325349B (zh) | 衣物调度装置 | |
US11568206B2 (en) | System, method and apparatus for machine learning | |
EP3670728B1 (en) | Laundry scheduling apparatus and method | |
US11692293B2 (en) | AI-based laundry treatment apparatus and operation method thereof | |
US11384464B2 (en) | Washing machine | |
US11578444B2 (en) | Laundry treatment device and method of determining laundry course thereof | |
US11393465B2 (en) | Artificial intelligence apparatus for speech interaction and method for the same | |
US11492741B2 (en) | Electronic device | |
US11423884B2 (en) | Device with convolutional neural network for acquiring multiple intent words, and method thereof | |
US11513478B2 (en) | AI apparatus and operation method thereof | |
US20220254006A1 (en) | Artificial intelligence server | |
US11468886B2 (en) | Artificial intelligence apparatus for performing voice control using voice extraction filter and method for the same | |
CN111334982B (zh) | 洗涤物处理装置及其操作方法 | |
WO2022092474A1 (en) | Method and system for assigning unique voice for electronic device | |
KR20220040997A (ko) | 전자 장치 및 그 제어 방법 | |
KR102643720B1 (ko) | 로봇용 인공지능 인터페이스 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |