CN116711654A - 一种宠物智能感应项圈及其控制方法 - Google Patents
一种宠物智能感应项圈及其控制方法 Download PDFInfo
- Publication number
- CN116711654A CN116711654A CN202310685799.1A CN202310685799A CN116711654A CN 116711654 A CN116711654 A CN 116711654A CN 202310685799 A CN202310685799 A CN 202310685799A CN 116711654 A CN116711654 A CN 116711654A
- Authority
- CN
- China
- Prior art keywords
- information
- pet
- detection unit
- model
- target pet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000001514 detection method Methods 0.000 claims abstract description 98
- 230000000694 effects Effects 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 17
- 230000003542 behavioural effect Effects 0.000 claims abstract description 13
- 230000006698 induction Effects 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 140
- 230000006399 behavior Effects 0.000 claims description 101
- 238000010801 machine learning Methods 0.000 claims description 25
- 230000036541 health Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 description 28
- 239000013598 vector Substances 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 238000003062 neural network model Methods 0.000 description 12
- 230000002787 reinforcement Effects 0.000 description 9
- 230000003862 health status Effects 0.000 description 8
- 230000027939 micturition Effects 0.000 description 8
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 4
- 238000012840 feeding operation Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000001939 inductive effect Effects 0.000 description 4
- 230000001795 light effect Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000012806 monitoring device Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 235000012054 meals Nutrition 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 238000005728 strengthening Methods 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 2
- 230000037406 food intake Effects 0.000 description 2
- 235000012631 food intake Nutrition 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000036387 respiratory rate Effects 0.000 description 2
- 230000036578 sleeping time Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 235000021316 daily nutritional intake Nutrition 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000000077 insect repellent Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004962 physiological condition Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K27/00—Leads or collars, e.g. for dogs
- A01K27/001—Collars
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K29/00—Other apparatus for animal husbandry
- A01K29/005—Monitoring or measuring activity, e.g. detecting heat or mating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Environmental Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Biodiversity & Conservation Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Animal Husbandry (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Signal Processing (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
本说明书实施例提供一种宠物智能感应项圈的控制方法,该宠物智能感应项圈至少包括声音检测单元、定位检测单元、活动检测单元、生理检测单元、处理器和灯光单元;该方法包括:基于声音检测单元获取目标宠物的声音信息;基于定位检测单元获取目标宠物的定位信息;基于活动检测单元获取目标宠物的活动信息;基于生理检测单元获取目标宠物的生理信息;基于声音信息、活动信息和生理信息确定目标宠物的行为信息;基于需求模型对定位信息和行为信息进行处理,确定目标宠物的需求类型;控制灯光单元展示需求类型。
Description
技术领域
本说明书涉及宠物用品技术领域,特别涉及一种宠物智能感应项圈及其控制方法。
背景技术
随着时代的发展与居民生活水平的提高,越来越多的家庭开始饲养宠物。但是因为语言的不相通,人类并不能准确地理解宠物的叫声、行为背后所表达的内容。尤其是对于上班族来说,因为与宠物的相处时间相对较少,他们往往缺少辨别宠物异常叫声、行为的经验。
现有技术中,CN105706951B提供了一种智能宠物项圈及其实现方法,该现有技术通过对宠物语言进行分析识别和翻译,并通过地图范围设定或时间设置限制宠物的活动距离和活动时间。其仅仅涉及通过宠物语言库对宠物语言进行识别,并未涉及对宠物需求的分析。CN114999501A提供了一种基于神经网络的宠物声音识别方法及系统,该现有技术可以根据宠物的声音识别宠物的情感的强烈程度,但并未涉及宠物行为识别、宠物需求判断等。
因此,需要提供一种宠物智能感应项圈及其控制方法,能够准确、可靠地判断宠物需求,提升用户的体验感和满意度。
发明内容
本说明书一个或多个实施例提供一种宠物智能感应项圈的控制方法。该宠物智能感应项圈至少包括声音检测单元、定位检测单元、活动检测单元、生理检测单元、处理器和灯光单元;该方法包括:基于声音检测单元获取目标宠物的声音信息;基于定位检测单元获取目标宠物的定位信息;基于活动检测单元获取目标宠物的活动信息;基于生理检测单元获取目标宠物的生理信息;基于声音信息、活动信息和生理信息确定目标宠物的行为信息;基于需求模型对定位信息和行为信息进行处理,确定目标宠物的需求类型,需求模型为机器学习模型;控制灯光单元展示需求类型。本说明书采用训练好的神经网络模型对多种信息进行处理,可以提供更为准确的宠物需求判定。
本说明书一个或多个实施例提供一种宠物智能感应项圈,宠物智能感应项圈至少包括声音检测单元、定位检测单元、活动检测单元、生理检测单元、处理器和灯光单元;声音检测单元,用于检测目标宠物的声音信息;定位检测单元,用于检测目标宠物的定位信息;活动检测单元,用于检测目标宠物的活动信息;生理检测单元,用于检测目标宠物的生理信息;处理器,用于基于声音信息、活动信息和生理信息确定目标宠物的行为信息;基于需求模型对定位信息和行为信息进行处理,确定目标宠物的需求类型,需求模型为机器学习模型;控制灯光单元展示需求类型。
本说明书一个或多个实施例提供一种计算机可读存储介质,所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机执行如上所述的宠物智能感应项圈的控制方法。
附图说明
本说明书将以示例性实施例的方式进一步说明,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本说明书一些实施例所示的宠物智能感应项圈的示例性结构示意图;
图2是根据本说明书一些实施例所示的宠物智能感应项圈的控制方法的示例性流程图;
图3是根据本说明书一些实施例所示的通过预训练获取需求模型的示例性流程图;
图4是根据本说明书一些实施例所示的通过强化训练获取需求模型的示例性流程图;
图5是根据本说明书一些实施例所示的获取第二标签的示例性示意图。
具体实施方式
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本说明书的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本说明书应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本文使用的“系统”、“装置”、“单元”和/或“模块”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
本说明书中使用了流程图用来说明根据本说明书的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
图1是根据本说明书一些实施例所示的宠物智能感应项圈的示例性结构示意图。
如图1所示,宠物智能感应项圈100可以包括声音检测单元110、定位检测单元120、活动检测单元130、生理检测单元140、处理器150和灯光单元160。
声音检测单元110是指能够进行声音相关数据采集、分析的单元。例如,声音检测单元110可以采集、分析宠物叫声等。
在一些实施例中,声音检测单元110可以用于获取目标宠物的声音信息。关于目标宠物、声音信息的更多内容,参见图2及其相关描述。
在一些实施例中,声音检测单元110可以包括麦克风、收音设备等。关于声音检测单元110的内容只是示例性的说明,不构成对实施方式的限制。
定位检测单元120是指具有定位数据采集、分析功能的单元。例如,定位检测单元120可以采集、分析宠物的定位数据等。
在一些实施例中,定位检测单元120可以用于获取目标宠物的定位信息。关于定位信息的更多内容,参见图2及其相关描述。
在一些实施例中,定位检测单元120可以包括基于GPS卫星的定位器、基于蓝牙的定位器、基于WIFI的定位器等中的至少一种。关于定位检测单元120的内容只是示例性的说明,不构成对实施方式的限制。
活动检测单元130是指具有运动数据采集、分析功能的单元。例如,活动检测单元130可以采集、分析宠物的运动数据等。
在一些实施例中,活动检测单元130可以用于获取目标宠物的活动信息。关于活动信息的更多内容,参见图2及其相关描述。
在一些实施例中,活动检测单元130可以包括加速度传感器、速度传感器、方位传感器等。其中,加速度传感器用于采集目标宠物的加速度信息;速度传感器用于采集目标宠物的速度信息;方位传感器用于采集目标宠物的方向信息。关于活动检测单元130的内容只是示例性的说明,不构成对实施方式的限制。
生理检测单元140是指具有生理数据采集、分析功能的单元。例如,生理检测单元140可以采集、分析宠物的生理数据等。
在一些实施例中,生理检测单元140用于获取目标宠物的生理信息。关于生理信息的更多内容,参见图2及其相关描述。
在一些实施例中,生理检测单元140可以包括呼吸率传感器、心率传感器、温度传感器。其中,呼吸率传感器用于获取目标宠物的呼吸频率信息;心率传感器用于获取目标宠物的心率信息;温度传感器用于获取目标宠物的体温信息;在一些实例中,生理检测单元140还可以包括血压传感器等装置。关于生理检测单元140的内容只是示例性的说明,不构成对实施方式的限制。
处理器150是指具有计算功能的装置。处理器150可以处理从其他单元或装置组成部分中获得的数据和/或信息。处理器150可以基于这些数据、信息和/或处理结果执行程序指令,以执行本申请中描述的一个或以上的功能。例如,处理器110可以基于声音检测单元110、定位检测单元120、活动检测单元130、生理检测单元140分别获取声音信息、定位信息、活动信息、生理信息等。例如,处理器150可以用于基于声音检测单元110采集的声音信息、活动检测单元130采集的活动信息和生理检测单元140采集的生理信息确定目标宠物的行为信息。例如,处理器150还可以用于基于需求模型对行为信息和定位检测单元120采集的定位信息进行处理,确定目标宠物的需求类型。又例如,处理器150还可以进一步用于控制灯光单元展示需求类型。
在一些实施例中,处理器150可以包含一个或多个子处理设备(例如单核处理设备或多核多芯处理设备)。仅作为示例,处理器150可以包括中央处理器(CPU)、专用集成电路(ASIC)等或以上任意组合。
在一些实施例中,处理器150可以是本地的或远程的。在一些实施例中,处理器150可以在云平台上部署。
灯光单元160是指具有灯光展示功能的单元。例如,灯光单元160可以展示多种颜色的灯光和/或多种类型的灯效。
灯光单元160可以通过多种方式展示目标宠物的需求类型。在一些实施例中,灯光单元160可以通过不同的灯光颜色展示不同的需求类型。例如,当确定的需求类型为“休息”时,灯光单元160展示绿色灯光。其中,灯光颜色与需求类型之间的对应关系,可以由系统或人为预设得到。在一些实施例中,灯光单元160可以通过不同的灯效(如,不同的闪烁频率、闪烁次数等可以构成不同的灯效)展示不同的需求类型。例如,在目标宠物的需求长时间未被满足时,处理器150控制灯光单元160进行闪烁。其中,灯效与需求类型之间的对应关系可以由系统或人为预设得到。关于灯光单元160的内容只是示例性的说明,不构成对实施方式的限制。
在本说明书的一些实施例中,处理器基于各个检测单元采集的目标宠物的声音信息、定位信息、活动信息、生理信息确定目标宠物的需求类型,可以综合宠物的多种信息,提高确定需求类型的准确性。同时,灯光展示单元通过不同颜色的灯光展示不同的需求类型,使得主人可以更为直观地了解宠物的需求,从而提高主人的养宠乐趣。
图2是根据本说明书一些实施例所示的宠物智能感应项圈的控制方法的示例性流程图。在一些实施例中,流程200可以由处理器执行。如图2所示,流程200包括以下步骤。
步骤210,基于声音检测单元获取目标宠物的声音信息。
目标宠物是指需要进行监测、感应的宠物。例如,用户的宠物猫、狗等。在一些实施例中,处理器可以将佩戴宠物智能感应项圈的宠物作为目标宠物。例如,检测到宠物佩戴宠物智能感应项圈时,处理器可以获取宠物的相关信息,根据相关信息将宠物绑定为目标宠物。其中,宠物的相关信息可以包括声纹等。仅作为示例的,检测到宠物佩戴宠物智能感应项圈时,处理器接受到自客户端发出的注册指令,获取佩戴宠物的声音数据并生成注册声纹,将该宠物绑定为目标宠物。
声音信息是指与宠物声音相关的数据信息。例如,音量、声音频率(或音调)、音色等。
处理器可以通过多种方式获取目标宠物的声音信息。在一些实施例中,处理器可以基于声音检测单元获取目标宠物的声音信息。例如,可以通过声音检测单元实时或间隔一定时间区间获取目标宠物的声音信息,其可以根据实际需求设定。其中,时间区间可以由人为或系统预设。关于声音检测单元的更多内容可以参见图1及其相关描述。
在一些实施例中,处理器可以基于声音检测单元获取初始声音信息;从初始声音信息中,提取目标宠物的声音信息。
初始声音信息是指初始获取的声音信息。初始声音信息中可以包含噪声和目标宠物的声音信息。其中,噪声可以包括但不限于环境背景声、人声、非目标宠物的声音等,这些噪声会对处理器获取目标宠物的声音信息造成干扰。
与声音信息的获取方式相似,初始声音信息可以通过声音检测单元等方式获取,在此不再赘述。
在一些实施例中,处理器可以通过对初始声音信息进行数据处理后提取目标宠物的声音信息。在一些实施例中,数据处理的方式可以包括借助算法、机器学习模型等。例如,处理器可以通过线性滤波器、谱减法等算法进行数据处理。又例如,处理器可以通过机器学习模型进行数据处理。
本说明书一些实施例中,基于声音检测单元获取初始声音信息,进而提取目标宠物的声音信息,可以获取噪声较小、准确度高的目标宠物的声音信息,同时,还可以有效降低非目标宠物的噪声对获取目标宠物的声音信息的干扰。例如,戴着项圈的目标宠物与非目标宠物共处一室,前者并未发出声音,而后者发出噪声,则通过前述实施例的方法,剔除非目标宠物的噪声,降低干扰,使获取的目标宠物的声音信息更加真实可靠。
步骤220,基于定位检测单元获取目标宠物的定位信息。
定位信息是指与目标宠物的位置相关的数据信息。例如,目标宠物的位置坐标、地点类型(例如,客厅、厨房、户外等)等。
处理器可以通过多种方式获取目标宠物的定位信息。在一些实施例中,处理器可以基于定位检测单元获取目标宠物的定位信息。例如,处理器可以通过定位检测单元实时或间隔一定时间区间获取目标宠物的定位信息,其可以根据实际需求设定。关于定位检测单元的更多内容可以参见图1及其相关描述。在一些实施例中,若目标宠物的活动地点安装有摄像头等监控装置,处理器可以通过监控装置拍摄的图像,通过图像识别等方式获取目标宠物的定位信息。在一些实施例中,处理器还可以通过用户输入获取目标宠物的定位信息,本说明书对此不做限制。
步骤230,基于活动检测单元获取目标宠物的活动信息。
活动信息是指与宠物活动相关的数据信息。例如,目标宠物的活动状态(例如,静止、运动等)、活动速度等。
处理器可以通过多种方式获取目标宠物的活动信息。在一些实施例中,处理器可以基于活动检测单元获取目标宠物的活动信息。例如,处理器可以通过活动检测单元实时或间隔一定时间区间获取目标宠物的活动信息,其可以根据实际需求设定。关于活动检测单元的更多内容可以参见图1及其相关描述。在一些实施例中,处理器可以通过监控装置拍摄的图像,通过图像识别等方式获取目标宠物的活动信息。在一些实施例中,处理器还可以通过用户输入获取目标宠物的活动信息,本说明书对此不做限制。
步骤240,基于生理检测单元获取目标宠物的生理信息。
生理信息是指宠物生理体征相关的数据信息。例如,目标宠物的体温、心率、呼吸频率等。
处理器可以通过多种方式获取目标宠物的生理信息。在一些实施例中,处理器可以基于生理检测单元获取目标宠物的生理信息。例如,处理器可以通过生理检测单元实时或间隔一定时间区间获取目标宠物的生理信息,其可以根据实际需求设定。关于生理检测单元的更多内容可以参见图1及其相关描述。在一些实施例中,处理器还可以通过用户输入获取目标宠物的生理信息,本说明书对此不做限制。
步骤250,基于声音信息、活动信息和生理信息确定目标宠物的行为信息。
行为信息是指与宠物行为相关的数据信息。行为信息可以包括目标宠物的行为类型(例如,趴地、进食、睡觉、奔跑等)、行为时间信息、行为频率等。行为时间信息是指与宠物行为时间相关的信息。例如,行为时间信息可以包括行为起始时间、行为结束时间、行为时长等。行为频率是指单位时间(例如,24h)内宠物行为发生的次数。例如,目标宠物的行为频率可以为进食频率3次/日等。
处理器可以通过多种方式获取目标宠物的行为信息。在一些实施例中,处理器可以通过用户输入获取目标宠物的行为信息。
在一些实施例中,处理器可以基于目标宠物的声音信息、活动信息和生理信息构建目标向量,通过向量数据库确定目标宠物的行为信息。
目标向量的元素可以包括目标宠物的声音信息、活动信息和生理信息。例如,分类向量可以为(A,B,C),其中A表示声音信息、B表示活动信息、C表示生理信息。
向量数据库是指用于存储、索引和查询向量的数据库。通过向量数据库,可以面对大量向量快速进行相似性查询和其他向量管理。
在一些实施例中,向量数据库可以包括多个参考向量及其对应的参考行为信息。参考向量可以基于目标宠物或其他宠物(如,佩戴其他宠物智能感应项圈的宠物)的历史采集信息(如,包括历史声音信息、历史活动信息和历史生理信息)进行构建。例如,通过对多个历史采集信息进行向量构建可以得到多个参考向量。参考向量对应的参考行为信息可以通过对历史声音信息、历史活动信息、历史生理信息进行人工标注获取。在一些实施例中,可以基于多个参考向量及其对应的参考行为信息构建向量数据库。
在一些实施例中,处理器可以基于目标向量,通过检索向量数据库确定符合预设条件的参考向量作为关联向量,将关联向量对应的参考行为信息作为目标宠物的行为信息。其中,预设条件可以是向量距离小于距离阈值、向量距离最小等。距离阈值可以是系统默认值、经验值、人为预先设定值等或其任意组合,可以根据实际需求设定,本说明书对此不做限制。
在一些实施例中,处理器还可以通过行为确定模型对目标宠物的声音信息、活动信息和生理信息进行处理,确定目标宠物的行为信息。
行为确定模型可以是机器学习模型。行为确定模型的类型可以是多种。例如,行为确定模型可以包括神经网络模型(Neural Network,NN)、深度神经网络(Deep NeuralNetwork,DNN)模型、循环神经网络(Recurrent Neural Network,RNN)模型等或其任意组合。
在一些实施例中,行为确定模型的输入可以为目标宠物的声音信息、活动信息和生理信息,行为确定模型的输出可以为目标宠物的行为信息。
在一些实施例中,行为确定模型可以通过训练得到。例如,向初始行为确定模型输入第四训练样本,并基于第四标签和初始行为确定模型的输出结果建立损失函数,对初始行为确定模型的参数进行更新,当初始行为确定模型的损失函数满足预设条件时模型训练完成,其中,预设条件可以是损失函数收敛、迭代的次数达到阈值等。
在一些实施例中,第四训练样本可以是目标宠物或样本宠物的样本声音信息、样本活动信息和样本生理信息。第四标签可以是目标宠物或样本宠物的实际行为信息。
在一些实施例中,第四训练样本可以基于历史数据获取。第四标签可以人工标注。第四训练样本的获取方式类似于第一训练样本的获取方式,关于样本宠物、第一训练样本的获取方式的更多说明可以参见图3及其相关描述。
在一些实施例中,处理器可以将行为确定模型的输出和目标宠物的定位信息一起输入需求模型,确定目标宠物的需求类型。关于需求模型、目标宠物的需求类型可以参见后文相关描述。
在一些实施例中,行为确定模型的输出可以作为需求模型的输入,行为确定模型、需求模型可以通过联合训练获得。联合训练可以在需求模型的预训练过程中进行,也可以在需求模型的强化训练过程中进行。关于需求模型的预训练、强化训练的更多说明可以参见图3、4及其相关描述。
以联合训练在强化训练过程中进行为例,示例性的联合训练过程包括:向行为确定模型输入样本声音信息、样本活动信息和样本生理信息,得到行为确定模型输出的样本行为信息;将行为确定模型输出的样本行为信息和样本定位信息输入初始需求模型,得到初始需求模型输出的需求类型。基于第二标签和初始需求模型的输出结果,构建损失函数,基于损失函数对行为确定模型、初始需求模型的参数进行更新,直至预设条件被满足,训练完成。其中,预设条件可以包括损失函数小于阈值、收敛,或者训练周期达到阈值等中的一种或多种。
本说明书的一些实施例中,通过行为确定模型可以快速准确地确定目标宠物的行为信息,便于后续对目标宠物的需求进行预测。
步骤260,基于需求模型对定位信息和行为信息进行处理,确定目标宠物的需求类型。
需求类型是指宠物需求的具体类型。例如,喂食需求、抚摸需求、娱乐需求、休息需求、无需求等。
在一些实施例中,处理器可以对目标宠物的定位信息、目标宠物的行为信息进行分析处理,确定目标宠物的需求类型。在一些实施例中,处理器可以基于需求模型对定位信息和行为信息进行处理,确定目标宠物的需求类型。关于定位信息、行为信息的更多内容可以参见步骤220、步骤250及其相关描述。
需求模型可以是机器学习模型。需求模型的类型可以是多种。例如,需求模型可以包括神经网络模型、深度神经网络模型、循环神经网络模型等或其任意组合。
在一些实施例中,需求模型的输入可以为目标宠物的定位信息和行为信息,需求模型的输出可以为目标宠物的需求类型。
在一些实施例中,需求模型的输出还可以包括需求类型对应的需求概率。需求概率可以反映某一需求类型为宠物实际需求的可能性大小。需求概率可以通过量化指标进行表征。例如,需求概率可以通过百分比进行表示,百分比越大,代表需求模型输出的该需求类型为宠物实际需求的可能性越高。需求概率还可以是其他表示方式,例如,采用字母等级表示等,本说明书对此不做限制。仅作为示例的,需求模型的输出为[(j1,k1),(j2,k2),(j3,k3)],表示需求类型j1的需求概率为k1、需求类型j2的需求概率为k2、需求类型j3的需求概率为k3。
在一些实施例中,需求模型可以通过训练得到。在一些实施例中,处理器可以在宠物智能感应项圈出厂前通过预训练得到初始需求模型。在一些实施例中,预训练过程包括:获取第一训练样本集;基于第一训练样本集训练初始机器学习模型,确定初始需求模型。关于预训练的更多说明可以参见图3及其相关描述。
在一些实施例中,处理器可以在宠物智能感应项圈使用过程中对初始需求模型进行强化训练。在一些实施例中,强化训练过程包括:获取第二训练样本集;基于第二训练样本集训练初始需求模型,确定需求模型。关于强化训练的更多说明可以参见图4及其相关描述。
步骤270,控制灯光单元展示需求类型。
在一些实施例中,处理器可以基于需求类型,生成对应的控制指令,通过控制指令控制灯光单元以展示需求类型。控制指令是指对灯光单元进行控制以实现展示目标宠物的需求类型的指令。在一些实施例中,处理器可以基于不同的需求类型生成不同的控制指令。例如,处理器可以基于不同的需求类型,生成控制灯光单元展示不同颜色、不同时长、不同频率的控制指令,需求类型与灯光单元的展示颜色、展示时长、展示频率的具体对应关系可以根据用户需求预设。仅作为示例的,处理器可以基于需求类型为喂食需求、生成控制指令为控制灯光单元展示红色、展示时长0.5秒、展示频率1次。
在一些实施例中,当用户根据预测的需求类型为目标宠物提供对应服务时,处理器还可以进一步获取用户操作,以及确定目标宠物对用户操作的满意度。
用户操作是指用户对宠物进行的具体操作。例如,喂食操作、抚摸操作、陪伴娱乐操作、哄睡操作、无操作等。在一些实施例中,用户操作可以与需求类型对应。例如,喂食需求对应喂食操作、娱乐需求对应陪伴娱乐操作等。
在一些实施例中,处理器可以通过多种方式获取用户操作。例如,处理器可以根据用户输入获取用户操作。又例如,处理器可以将需求类型对应的用户操作作为实际的用户操作。再例如,处理器可以通过监控装置拍摄的图像,通过图像识别等方式获取用户操作。
满意度是指表征宠物对用户操作满意程度的参数。满意度可以通过量化指标进行表征。例如,满意度可以通过1-10的数字进行表示,数字越大代表目标宠物对用户操作的满意程度越高。满意度还可以是其他表示方式,例如,采用等级表示等,对此不做限制。
在一些实施例中,处理器可以对目标宠物的定位信息、目标宠物的行为信息和用户操作进行分析处理,确定目标宠物对用户操作的满意度。在一些实施例中,处理器可以基于满意度模型对目标宠物的定位信息、行为信息和用户操作进行处理,确定目标宠物对所述用户操作的满意度。关于定位信息、行为信息的更多内容可以参见图2及其相关描述。
满意度模型可以是机器学习模型。在一些实施例中,满意度模型可以包括神经网络模型、深度神经网络模型、循环神经网络模型等或其任意组合。
在一些实施例中,满意度模型的输入可以为目标宠物的定位信息、目标宠物的行为信息和用户操作,满意度模型的输出可以为目标宠物对用户操作的满意度。其中,输入满意度模型的用户操作可以是用户根据需求模型预测的需求类型,对目标宠物进行的用户操作。
在一些实施例中,处理器可以基于满意度模型的输出,确定需求模型进行强化训练时的训练标签(即第二标签)。
在一些实施例中,处理器可以将目标宠物的第二样本定位信息、第二样本行为信息和至少一个候选用户操作输入满意度模型,获取至少一个候选用户操作对应的的满意度,将满意度最高的候选用户操作对应的需求类型作为目标宠物的第二样本定位信息、第二样本行为信息对应的需求类型,即作为第二标签。关于获取第二标签的更多说明可以参见图5及其相关描述。
在一些实施例中,满意度模型可以通过以下方式获得:获取第三训练样本集;基于第三训练样本集训练初始满意度模型,确定满意度模型。
第三训练样本集是指用于训练满意度模型的样本集合。在一些实施例中,第三训练样本集可以包括第三训练样本及其第三标签。
在一些实施例中,第三训练样本可以包括目标宠物的第三样本定位信息、第三样本行为信息和至少一个样本用户操作。
第三样本定位信息是指目标宠物的历史定位信息。第三样本定位信息与第二样本定位信息可以相同或不相同。
第三样本行为信息是指目标宠物的历史行为信息。第三样本行为信息与第二样本行为信息可以相同或不相同。关于定位信息、行为信息的更多说明可以参见图2及其相关描述。
在一些实施例中,第三标签可以为至少一个样本用户操作的满意度。
在一些实施例中,处理器可以基于多种方式获取第三训练样本集。例如,可以获取目标宠物在某一历史时间段的历史定位信息、历史行为信息作为第三训练样本,同时将至少一个样本用户操作作为第三训练样本。在一些实施例中,作为第三训练样本的至少一个样本用户操作可以包括全部的用户操作类型。相应的,可以人工对目标宠物分别接受至少一个样本用户操作时的反应进行收集和标注,以获取第三标签。仅作为示例,用户在该历史时间段对目标宠物进行喂食操作后,目标宠物并未进食,则标注目标宠物对该“喂食操作”这一样本用户操作的满意度为较低。
在一些实施例中,处理器可以基于第三训练样本集训练初始满意度模型,确定满意度模型。在一些实施例中,处理器可以向初始满意度模型输入第三训练样本,并基于第三标签和初始满意度模型的输出结果建立损失函数,对初始满意度模型的参数进行更新,当初始满意度模型的损失函数满足预设条件时模型训练完成,确定满意度模型。其中,预设条件可以是损失函数收敛、迭代的次数达到阈值等。
目标宠物对用户操作的满意度受到诸多信息特征影响,该诸多信息特征不足以单独或通过简单的规则来确定满意度。通过本说明书的一些实施例所述的基于满意度模型确定目标宠物对用户操作的满意度,可以基于大量的、广泛的信息特征确定满意度,打破传统基于规则确定满意度的局限。基于规则的方式,受其复杂度的局限,只能基于较少的信息特征,而且受人为规定规则的限制,难以获取准确的目标宠物对用户操作的实际满意度。而基于机器学习技术进行预测,可以基于更多、更丰富的信息特征,并且可以将目标宠物对用户的实际操作的反馈信息作为标识训练,可以使所确定的满意度具有更高的准确度。
在一些实施例中,处理器还可以基于目标宠物的行为信息和目标宠物的基本信息,确定目标宠物的健康状态。
基本信息是指与宠物的基本情况相关的信息。例如,目标宠物的品种、年龄、体重、体长、过往病史、驱虫史、体检记录等。
健康状态是指表征健康程度的数据信息。例如,健康状态可以包括健康、非健康等。健康状态可以通过量化指标进行表征。例如,健康状态可以通过1-10的数字进行表示,数字越大代表目标宠物的健康程度越高。在一些实施例中,健康状态还可以是其他表示方式,例如,采用字母表示等,对此不做限制。
在一些实施例中,处理器还可以基于目标宠物的行为信息和目标宠物的基本信息,通过预设规则确定目标宠物的健康状态。预设规则可以指预先设定的用于确定目标宠物的健康状态的规则。预设规则可以基于经验确定。
在一些实施例中,预设规则可以为:当目标宠物在连续预设天数的日睡觉总时长不满足第一预设条件时,判断目标宠物的健康状态为非健康。其中,第一预设条件可以是日睡觉总时长小于时长阈值。连续预设天数、时长阈值可以基于经验或历史数据进行设定。
在一些实施例中,预设规则还可以为:当目标宠物的呼吸频率在频率阈值内,目标宠物的健康状态为健康,超过频率阈值,判断目标宠物的健康状态为非健康。其中,频率阈值可以基于经验或历史数据进行设定。
在一些实施例中,预设规则还可以为:当目标宠物在连续预设天数的日进食量和/或日进食次数不满足第二预设条件时,判断目标宠物的健康状态为非健康。其中,第二预设条件可以是日进食量大于进食量阈值和/或日进食次数大于进食次数阈值。连续预设天数、进食量阈值、进食次数阈值可以基于经验或历史数据进行设定。
在一些实施例中,预设规则还可以为:当目标宠物在连续预设天数的日饮水量和/或日饮水次数不满足第三预设条件时,判断目标宠物的健康状态为非健康。其中,第三预设条件可以是日饮水量大于饮水量阈值和/或日饮水次数大于饮水次数阈值。连续预设天数、饮水量阈值、饮水次数阈值可以基于经验或历史数据进行设定。
在一些实施例中,预设规则还可以为:目标宠物在连续预设天数的日排尿量和/或日排尿次数不满足第四预设条件时,判断目标宠物的健康状态为非健康。其中,第四预设条件可以是日排尿量大于排尿量阈值和/或日排尿次数大于排尿次数阈值。连续预设天数、排尿量阈值、排尿次数阈值可以基于经验或历史数据进行设定。
在一些实施例中,预设规则还可以是其他各种形式,本说明书对此不做限制。
通过本说明书的一些实施例所述的基于目标宠物的行为信息和目标宠物的基本信息,确定目标宠物的健康状态,可以综合考虑多种因素对目标宠物的健康状态的影响,使目标宠物的健康状态的确定过程便捷、高效、准确,避免人工观察误差导致的宠物病情延误等后果,便于用户及时采取措施使宠物保持健康。
通过本说明书的一些实施例所述的方法,可以综合分析宠物的叫声、生理状况、行为、定位及其之间的关联信息等,准确、可靠地获取宠物需求,减少人工判断宠物需求带来的误差、时间成本,保证宠物的健康成长,提高用户满意度和体验度。
图3是根据本说明书一些实施例所示的获取需求模型的示例性流程图。在一些实施例中,流程300可以由处理器执行。如图3所示,流程300包括下述步骤。
步骤310,获取第一训练样本集。
第一训练样本集是指用于预训练的训练数据的集合。预训练是指在宠物智能感应项圈出厂前或用户购买前,进行的模型训练。预训练的精度要求不高,对训练成本要求较低。
在一些实施例中,第一训练样本集可以包括第一训练样本及其第一标签。
第一训练样本是指预训练使用的训练样本。
在一些实施例中,第一训练样本可以包括样本宠物的第一样本定位信息和第一样本行为信息。
样本宠物是指进行预训练的训练数据采集时对应的采集对象。在一些实施例中,样本宠物可以是用于进行试验采集的宠物。例如,可以将宠物猫或宠物狗投入试验房间中(如,模拟宠物居家环境的房间)进行试验采集获取其相关信息。在一些实施例中,样本宠物还可以是历史佩戴使用其他的宠物智能感应项圈的宠物。例如,样本宠物可以是佩戴已出厂使用中的其他宠物智能感应项圈的宠物。
第一样本定位信息是指样本宠物的定位信息。第一样本行为信息是指样本宠物的行为信息。
预训练时针对的样本宠物的类型可以包括一种或多种。例如,样本宠物可以是宠物猫和宠物狗。在一些实施例中,基于样本宠物的试验采集数据,可以共同训练得到一个针对宠物大类的需求模型。在一些实施例中,基于样本宠物的试验采集数据,可以分别训练得到针对一种宠物类型的需求模型。
在一些实施例中,第一标签可以为样本宠物的真实需求类型。关于需求类型的更多内容,参见图2及其相关描述。
第一训练样本和第一标签可以通过多种方式获取。
在一些实施例中,可以通过试验采集获取大量的第一训练样本及其对应的第一标签。例如,可以获取样本宠物在试验房间中的一组第一样本定位信息和第一样本行为信息,作为一组第一训练样本;在试验采集到一组样本宠物的样本定位信息和样本行为信息后,可以人工基于样本宠物的后续行为进行观察分析后,标注样本宠物的真实需求类型,作为该组第一训练样本对应的第一标签。
在一些实施例中,可以基于已出厂使用中的其他宠物智能感应项圈的历史采集数据获取第一训练样本及其第一标签。在一些实施例中,可以获取已出厂使用中的其他宠物智能感应项圈采集的历史定位信息和历史行为信息作为第一训练样本。在一些实施例中,可以基于已出厂使用中的其他宠物智能感应项圈的历史预测结果获取第一标签。例如,当已出厂使用中的其他宠物智能感应项圈对某一历史定位信息和历史行为信息进行预测得到需求类型后,根据执行需求类型对应的用户操作后得到的样本宠物的满意度,可以确定该次预测是否准确。当预测准确时,可以将该次预测的需求类型作为该历史定位信息和历史行为信息对应的第一标签,用于未出厂的宠物智能感应项圈的预训练中。
步骤320,基于第一训练样本集训练初始机器学习模型,确定初始需求模型。
初始机器学习模型是指未经过训练的原始的机器学习模型。在一些实施例中,初始机器学习模型可以包括神经网络模型、深度神经网络模型、循环神经网络模型等各种可行的初始模型中的任意一种或组合。
初始需求模型是指初始机器学习模型在经过预训练之后得到的机器学习模型。
在一些实施例中,处理器可以通过训练确定初始需求模型。
在一些实施例中,处理器可以基于第一训练样本集对初始需求模型进行训练,得到需求模型。示例性的训练过程包括:将第一训练样本输入初始机器学习模型,基于初始机器学习模型的输出与第一标签构建损失函数,通过损失函数更新初始机器学习模型的参数,直到训练的初始机器学习模型满足预设条件,得到初始需求模型,其中,预设条件可以是损失函数小于阈值、收敛,或训练周期达到阈值等。
步骤330,基于初始需求模型,确定需求模型。
在一些实施例中,处理器可以使用大量目标宠物的相关数据对初始机器学习模型直接进行训练以获取需求模型。关于目标宠物的更多内容,参见图2及其相关描述。
在一些实例中,处理器可以对初始需求模型进行强化训练,确定需求模型。强化训练是指在宠物智能感应项圈出厂使用后,对经过预训练的模型再次进行训练,进一步地对预训练后的模型的参数进行调优,使得调优后的模型可以更加适应于目标宠物个体。关于如何通过强化训练获取需求模型的更多内容,参见图4及其相关描述。
通过本说明书的一些实施例所述的方法,在宠物智能感应项圈出厂前,基于大量样本宠物的第一样本定位信息、第一样本行为信息等进行预训练得到初始需求模型,可以使得初始需求模型具有较强泛化能力。预训练还可以使得在初始需求模型应用于具体的宠物个体时,不再需要用大量的训练数据进行训练,减少训练成本。
图4是根据本说明书一些实施例所示的通过强化训练获取需求模型的示例性流程图。在一些实施例中,图4所示的流程400的一个或一个以上操作可以在图1所示的宠物智能感应项圈100中实现。在一些实施例中,流程400可以由处理器执行。如图4所示,流程400包括如下步骤。
强化训练可以在宠物智能需求项圈的出厂使用过程中进行。在目标宠物带上宠物智能需求项圈的前一段时间内,可以针对目标宠物进行针对性的强化训练。关于强化训练的更多说明参见下文相关描述。
步骤410,获取第二训练样本集。
第二训练样本集是指用于强化训练初始需求模型的训练数据的集合。在一些实施例中,第二训练样本集可以包括第二训练样本及其第二标签。
第二训练样本是指强化训练对应的训练样本。
在一些实施例中,第二训练样本可以包括目标宠物的第二样本定位信息和第二样本行为信息。
目标宠物的第二样本定位信息是指基于目标宠物采集的作为训练样本的定位信息。在一些实施例中,目标宠物的第二样本定位信息可以包括定位检测单元采集的目标宠物的定位信息。关于定位信息的更多说明可以参见图2及其相关描述。
目标宠物的第二样本行为信息是指基于目标宠物采集的作为训练样本的行为信息。关于行为信息的更多说明可以参见图2及其相关描述。
在一些实施例中,第二标签为目标宠物的真实需求类型。关于需求类型的更多内容,参见图2及其相关描述。
第二训练样本集可以基于多种方式获取。在一些实施例中,处理器可以基于目标宠物的历史检测数据获取第二训练样本。例如,处理器可以将宠物智能感应项圈对目标宠物进行历史检测得到的历史定位信息和历史行为信息作为第二训练样本。在一些实施例中,第二标签可以通过人工标注获取。仅作为示例的,在采集到目标宠物的历史定位信息和历史行为信息后,可以人工基于目标宠物的后续行为进行观察分析后,标注目标宠物的真实需求类型,作为第二标签。
在一些实施例中,处理器可以基于满意度模型对第二训练样本中目标宠物的第二样本定位信息、第二样本行为信息和至少一个候选用户操作进行处理,确定目标宠物对至少一个候选用户操作的样本满意度;基于至少一个样本满意度确定目标用户操作;将目标用户操作对应的需求类型确定为目标宠物的真实需求类型。通过该实施例可以确定各个第二训练样本对应的第二标签。关于如何基于满意模型获取第二标签的更多内容,参见图5及其相关内容。
步骤420,基于第二训练样本集训练初始需求模型,确定需求模型。
在一些实施例中,处理器可以基于第二训练样本集对初始需求模型进行训练,得到需求模型。示例性的训练过程包括:将第二训练样本输入初始需求模型,基于初始需求模型的输出与第二标签构建损失函数,通过损失函数更新初始需求模型的参数,直到训练的初始需求模型满足预设条件,得到需求模型,其中,预设条件可以是损失函数小于阈值、收敛,或训练周期达到阈值等。关于初始需求模型的更多内容,参见图3及其相关描述。
本说明书的一些实施例中,目标宠物佩戴上宠物智能感应项圈的前一段时间内,可以针对目标宠物收集数据以对经过预训练的初始需求模型进行强化训练,进一步针对具体的宠物个体进行强化训练,可以在保证需求模型对不同的宠物个体的具有较高适应性,有效提高宠物智能感应项圈对目标宠物的需求类型预测的准确性。
图5是根据本说明书一些实施例所示的获取第二标签的示例性示意图。
在一些实施例中,处理器可以基于满意度模型520对目标宠物的第二样本定位信息511、第二样本行为信息512和至少一个候选用户操作513进行处理,确定目标宠物对至少一个候选用户操作513的样本满意度530;基于至少一个样本满意度530确定目标用户操作540;将目标用户操作540对应的需求类型550确定为目标宠物的真实需求类型560。关于第二样本定位信息、第二样本行为信息、需求类型的更多说明可以参见图2-图4及其相关描述。
候选用户操作是指可供选择的用户操作。关于用户操作的更多内容可以参见图2及其相关描述。
在一些实施例中,处理器可以通过多种方式确定候选用户操作。例如,处理器可以预设多种用户操作,随机选择至少一种作为候选用户操作。又例如,处理器可以基于需求模型获取目标宠物的第二样本定位信息、目标宠物的第二样本行为信息对应的至少一种需求类型,将至少一种需求类型对应的用户操作确定为至少一种候选用户操作。关于需求模型、需求类型的更多内容可以参见图2及其相关描述。
样本满意度是指候选用户操作对应的满意度。关于满意度、满意度模型的更多内容可以参见图2及其相关描述。
目标用户操作是指基于候选用户操作确定的用户操作。
在一些实施例中,处理器可以通过多种方式,基于至少一个样本满意度530确定目标用户操作540。例如,处理器可以根据至少一个样本满意度530对至少一个候选用户操作513进行排序,将样本满意度最高的候选用户操作确定为目标用户操作540。
在一些实施例中,处理器可以将通过满意度模型520确定的目标宠物的真实需求类型560作为第二标签,训练初始需求模型570。示例性的训练过程包括:将第二训练样本(即第二样本定位信息511和第二样本行为信息512)和第二标签(即目标宠物的真实需求类型560)输入初始需求模型570,训练得到需求模型580。关于基于初始需求模型训练得到需求模型的更多说明参见图4及其相关描述。
通过本说明书的一些实施例所述的基于满意度模型确定目标宠物的满意度,进而确定目标用户操作和样本宠物的真实需求类型,可以综合考虑多种因素并通过模型进行智能化分析,获取准确的样本满意度,进而根据满意度确定合理的目标用户操作和真实需求类型。通过使用比较容易训练的满意度确定模型,来获取高精确度的第二标签,进而训练前述需求模型,有助于降低需求模型的训练难度和成本,提高训练效率,保证需求模型输出结果的准确度。
本说明书一个或多个实施例还提供了一种计算机可读存储介质,该存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机执行如上述实施例中任一项所述宠物智能感应项圈的控制方法。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本说明书的限定。虽然此处并没有明确说明,本领域技术人员可能会对本说明书进行各种修改、改进和修正。该类修改、改进和修正在本说明书中被建议,所以该类修改、改进、修正仍属于本说明书示范实施例的精神和范围。
同时,本说明书使用了特定词语来描述本说明书的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本说明书至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本说明书的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,除非权利要求中明确说明,本说明书所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本说明书流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本说明书实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本说明书披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本说明书实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本说明书对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本说明书一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。
针对本说明书引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本说明书作为参考。与本说明书内容不一致或产生冲突的申请历史文件除外,对本说明书权利要求最广范围有限制的文件(当前或之后附加于本说明书中的)也除外。需要说明的是,如果本说明书附属材料中的描述、定义、和/或术语的使用与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、定义和/或术语的使用为准。
最后,应当理解的是,本说明书中所述实施例仅用以说明本说明书实施例的原则。其他的变形也可能属于本说明书的范围。因此,作为示例而非限制,本说明书实施例的替代配置可视为与本说明书的教导一致。相应地,本说明书的实施例不仅限于本说明书明确介绍和描述的实施例。
Claims (10)
1.一种宠物智能感应项圈的控制方法,其特征在于,所述宠物智能感应项圈至少包括声音检测单元、定位检测单元、活动检测单元、生理检测单元、处理器和灯光单元;所述方法包括:
基于所述声音检测单元获取目标宠物的声音信息;
基于所述定位检测单元获取所述目标宠物的定位信息;
基于所述活动检测单元获取所述目标宠物的活动信息;
基于所述生理检测单元获取所述目标宠物的生理信息;
基于所述声音信息、所述活动信息和所述生理信息确定所述目标宠物的行为信息;
基于需求模型对所述定位信息和所述行为信息进行处理,确定所述目标宠物的需求类型,所述需求模型为机器学习模型;
控制所述灯光单元展示所述需求类型。
2.如权利要求1所述的方法,其特征在于,所述方法包括:
获取用户操作;
基于满意度模型对所述定位信息、所述行为信息和所述用户操作进行处理,确定所述目标宠物对所述用户操作的满意度,所述满意度模型为机器学习模型。
3.如权利要求1所述的方法,其特征在于,所述需求模型通过以下方式获得:
获取第一训练样本集,所述第一训练样本集包括第一训练样本及其第一标签,所述第一训练样本包括样本宠物的第一样本定位信息和第一样本行为信息,所述第一标签为样本宠物的真实需求类型;
基于所述第一训练样本集训练初始机器学习模型,确定初始需求模型;
基于所述初始需求模型,确定所述需求模型。
4.如权利要求3所述的方法,其特征在于,所述基于所述初始需求模型,确定所述需求模型包括:
获取第二训练样本集,所述第二训练样本集包括第二训练样本及其第二标签,所述第二训练样本包括所述目标宠物的第二样本定位信息和第二样本行为信息,所述第二标签为所述目标宠物的真实需求类型;
基于所述第二训练样本集训练所述初始需求模型,确定所述需求模型。
5.如权利要求4所述的方法,其特征在于,所述第二标签的获取方式包括:
基于满意度模型对所述目标宠物的所述第二样本定位信息、所述第二样本行为信息和至少一个候选用户操作进行处理,确定所述目标宠物对所述至少一个候选用户操作的样本满意度,所述满意度模型为机器学习模型;
基于至少一个所述样本满意度确定目标用户操作;
将所述目标用户操作对应的需求类型确定为所述目标宠物的所述真实需求类型。
6.如权利要求2或5所述的方法,其特征在于,所述满意度模型通过以下方式获得:
获取第三训练样本集,所述第三训练样本集包括第三训练样本及其第三标签,所述第三训练样本包括所述目标宠物的第三样本定位信息、第三样本行为信息和至少一个样本用户操作,所述第三标签为至少一个样本用户操作的满意度;
基于所述第三训练样本集训练初始满意度模型,确定所述满意度模型。
7.如权利要求1所述的方法,其特征在于,所述基于所述声音检测单元获取目标宠物的声音信息包括:
基于所述声音检测单元获取初始声音信息;
从所述初始声音信息中,提取所述目标宠物的所述声音信息。
8.如权利要求1所述的方法,其特征在于,所述方法还包括:
基于所述行为信息和所述目标宠物的基本信息,确定所述目标宠物的健康状态。
9.一种宠物智能感应项圈,其特征在于,所述宠物智能感应项圈至少包括声音检测单元、定位检测单元、活动检测单元、生理检测单元、处理器和灯光单元;
所述声音检测单元,用于检测目标宠物的声音信息;
所述定位检测单元,用于检测所述目标宠物的定位信息;
所述活动检测单元,用于检测所述目标宠物的活动信息;
所述生理检测单元,用于检测所述目标宠物的生理信息;
所述处理器,用于
基于所述声音信息、所述活动信息和所述生理信息确定所述目标宠物的行为信息;
基于需求模型对所述定位信息和所述行为信息进行处理,确定所述目标宠物的需求类型,所述需求模型为机器学习模型;
控制所述灯光单元展示所述需求类型。
10.一种计算机可读存储介质,所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机执行如权利要求1-8所述的宠物智能感应项圈的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310685799.1A CN116711654A (zh) | 2023-06-09 | 2023-06-09 | 一种宠物智能感应项圈及其控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310685799.1A CN116711654A (zh) | 2023-06-09 | 2023-06-09 | 一种宠物智能感应项圈及其控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116711654A true CN116711654A (zh) | 2023-09-08 |
Family
ID=87865558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310685799.1A Pending CN116711654A (zh) | 2023-06-09 | 2023-06-09 | 一种宠物智能感应项圈及其控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116711654A (zh) |
-
2023
- 2023-06-09 CN CN202310685799.1A patent/CN116711654A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bao et al. | Artificial intelligence in animal farming: A systematic literature review | |
CN113396422B (zh) | 使用生物统计数据训练感知任务的机器学习模型 | |
KR20170105406A (ko) | 반려동물 관리 장치 및 방법 | |
JP6943240B2 (ja) | 情報処理装置、方法及びプログラム | |
CN111507302B (zh) | 一种基于图像识别的宠物搜寻方法及装置 | |
JPWO2018168369A1 (ja) | 機械学習装置および機械学習プログラム | |
CN113947734A (zh) | 一种猪只体征信息采集方法及系统 | |
JP2006525018A (ja) | 家畜データを収集、処理、および管理するためのシステムおよび方法 | |
CN114299551A (zh) | 模型训练方法、动物行为识别方法、装置、设备 | |
CN109602421A (zh) | 健康监测方法、装置及计算机可读存储介质 | |
KR20210004184A (ko) | 마킹 정보의 식별 기반의 가축 관리 방법 및 이를 수행하는 컴퓨팅 장치와 서버 | |
JP6732271B1 (ja) | 肉質判別プログラム及びシステム | |
Agbele et al. | Application of local binary patterns and cascade AdaBoost classifier for mice behavioural patterns detection and analysis | |
Chen et al. | Artificial intelligence for image processing in agriculture | |
CN116711654A (zh) | 一种宠物智能感应项圈及其控制方法 | |
Hernández-Luquin et al. | Dog emotion recognition from images in the wild: Debiw dataset and first results | |
Bastiaansen et al. | Continuous real-time cow identification by reading ear tags from live-stream video | |
CN110704646A (zh) | 一种豢养物档案建立方法及装置 | |
JP2022101291A (ja) | 家畜発情期判別プログラム | |
Li | Developing and applying precision animal farming tools for poultry behavior monitoring | |
Samantaray et al. | Efficient Smart Farm System Using Machine Learning | |
Manonmani et al. | Application of Artificial Intelligence in Fruit Production: A Review. | |
Briggs et al. | Multi-instance multi-label class discovery: A computational approach for assessing bird biodiversity | |
CN117892172A (zh) | 一种牲畜养殖的监管方法、装置、电子设备及存储介质 | |
US20220310259A1 (en) | System And Method For Determning Status Of Health Of Animals Arriving At A Feed Location |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |