CN111713423A - 一种智能项圈 - Google Patents

一种智能项圈 Download PDF

Info

Publication number
CN111713423A
CN111713423A CN202010619504.7A CN202010619504A CN111713423A CN 111713423 A CN111713423 A CN 111713423A CN 202010619504 A CN202010619504 A CN 202010619504A CN 111713423 A CN111713423 A CN 111713423A
Authority
CN
China
Prior art keywords
wearing
wearing object
evidence
prediction
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010619504.7A
Other languages
English (en)
Other versions
CN111713423B (zh
Inventor
叶霖威
许志豪
史博文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exclamation Mark Hangzhou Technology Co ltd
Original Assignee
Exclamation Mark Hangzhou Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exclamation Mark Hangzhou Technology Co ltd filed Critical Exclamation Mark Hangzhou Technology Co ltd
Priority to CN202010619504.7A priority Critical patent/CN111713423B/zh
Publication of CN111713423A publication Critical patent/CN111713423A/zh
Application granted granted Critical
Publication of CN111713423B publication Critical patent/CN111713423B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K27/00Leads or collars, e.g. for dogs
    • A01K27/001Collars
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K27/00Leads or collars, e.g. for dogs
    • A01K27/009Leads or collars, e.g. for dogs with electric-shock, sound, magnetic- or radio-waves emitting devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种智能项圈,包括定位模块:内置有地图单元,用于获取位置信息;行为检测及预测模块:内置有认知模型以及图像采集单元,用于检测佩戴物行为,并做出预测认知;输出模块:可输出声音或者图像,用于影响佩戴物的行为反应;无线传输模块:与至少一个控制终端连接,用于传输数据信息;以及储存模块:用于储存数据信息;本发明提供了一种智能项圈,当宠物丢失并挣脱项圈后,提供一个预测的轨迹,帮助人们快速找到宠物。

Description

一种智能项圈
技术领域
本发明涉及宠物用具技术领域,特别涉及一种智能项圈。
背景技术
随着百姓生活水平的不断提高,宠物已成为很多居民闲暇生活的亲密伴侣,为人们增加了无限的生活乐趣。而随着宠物数量的不断增加,宠物的安全问题也日益突出,宠物的走失现象日益严重。百姓开始注重饲养宠物的品种和价值,宠物的价格经常会达到上千、甚至上万,是百姓重要的财产,且宠物养久了和主人培养了深厚感情,一旦丢失,不仅造成财产的损失,还影响百姓的日常生活,因此需要合适的追踪装置以防止宠物走失或失窃。
发明内容
本发明的目的在于,提供一种智能项圈。
本发明的技术方案:包括定位模块:内置有地图单元,用于获取位置信息;
行为检测及预测模块:内置有认知模型以及图像采集单元,用于检测佩戴物行为,并做出预测认知;
输出模块:可输出声音或者图像,用于影响佩戴物的行为反应;
无线传输模块:与至少一个控制终端连接,用于传输数据信息;
以及储存模块:用于储存数据信息;
当该项圈脱落时,触发一个脱落信号,利用图像采集单元迅速采集多张环境照片,并与定位信息共同发至控制终端;
并同时触发输出模块,输出模块发出预设的语音或者图像投影来吸引佩戴物;
若佩戴物发生丢失之后,行为检测及预测模块根据丢失时间进行位置预测,在预测时引入预测证据;
预测证据包括客观证据以及非客观证据,非客观证据由行为检测及预测模块提供;
根据每个证据建立函数m(ei);
证据函数建立之后,先融合客观证据,再单独融合每个非客观证据,并且给每个非客观证据以置信度,最后根据函数值得到top1路径;
在地图上根据top1路径映射且扩展出一定的范围,该范围作为寻找时的参考范围。
上述的一种智能项圈中,认知模型采用图片或视频识别的方式,具体的训练方法如下:
收集样本:样本即来源于佩戴者平时行为的近景图像,通过人为上传的图像/视频或者其他开源的数据集;
样本处理,针对图像,识别佩戴物以及环境特征物,针对视频,提取至少两段轨迹流,并进行单帧视频画面提取;
先对环境特征物采用GoogleNet深度学习网络训练出一个分类器;
通过轨迹流中佩戴物的变化趋势来判断是否朝向环境特征物,判断方法如下:
首先确定两个向量,即第一个时间点中佩戴物与环境特征物的连线向量
Figure BDA0002562547750000031
和第一个时间点中佩戴物的位置与第二个时间点中佩戴物位置的连线向量;
Figure BDA0002562547750000032
计算两个向量之间的夹角θ:
Figure BDA0002562547750000033
设一阈值θj,该值是一个大于0小于等于1的数,利用该阈值θj,判断佩戴物的轨迹趋势,从而得到佩戴物对于该环境特征物的接受程度。
前述的一种智能项圈中,所述佩戴物对环境特征物的接受程度判断还包括引入佩戴物的轨迹速度参与计算,如下公式m(e1):V*|COS(α12)|,其中α1是佩戴物的轨迹方向,α2是佩戴物原点至环境特征物的连线方向,V是佩戴物的速度。
前述的一种智能项圈中,所述函数m(ei)如下所示:
Figure BDA0002562547750000034
m1和m2都是待融合的证据,客观证据融合完成之后,逐一融合主观证据,在融合主观证据时引入一个矛盾参数T,该参数用于反应主观证据与客观证据之间的矛盾关系,该值是一个介于0-1之间的数,所以,融合之后的函数
Figure BDA0002562547750000035
在单独融合了所有主观证据之后,选取top1作为预测轨迹。
本发明的优点在于:本发明提供了一种智能项圈,当宠物丢失并挣脱项圈后,提供一个预测的轨迹,帮助人们快速找到宠物。
具体实施方式
下面结合实施例对本发明作进一步的说明,但并不作为对本发明限制的依据。
实施例:包括定位模块:内置有地图单元,用于获取位置信息;
行为检测及预测模块:内置有认知模型以及图像采集单元,用于检测佩戴物行为,并做出预测认知;
认知模型采用图片或视频识别的方式,具体的训练方法如下:
收集样本:样本即来源于佩戴者平时行为的近景图像,通过人为上传的图像/视频或者其他开源的数据集;
样本处理,针对图像,识别佩戴物以及环境特征物,针对视频,提取至少两段轨迹流,并进行单帧视频画面提取;
先对环境特征物采用GoogleNet深度学习网络训练出一个分类器;
通过轨迹流中佩戴物的变化趋势来判断是否朝向环境特征物,判断方法如下:
首先确定两个向量,即第一个时间点中佩戴物与环境特征物的连线向量
Figure BDA0002562547750000041
和第一个时间点中佩戴物的位置与第二个时间点中佩戴物位置的连线向量;
Figure BDA0002562547750000051
计算两个向量之间的夹角θ:
Figure BDA0002562547750000052
设一阈值θj,该值是一个大于0小于等于1的数,利用该阈值θj,判断佩戴物的轨迹趋势,从而得到佩戴物对于该环境特征物的接受程度;
在此基础上,我们可以引入一个速度参数,按照实际情况,如果宠物对该特征物的接受程度越大,那么其奔向它的速度也是非常快的,所以可以利用如下公式进行计算:m(e1):V*|COS(α12)|,其中α1是佩戴物的轨迹方向,α2是佩戴物原点至环境特征物的连线方向,V是佩戴物的速度。两个角度差值越小,该值越大,速度越快,该值也越大,所以利用速度和角度两个方向去取值,是相对更加合理性的。
输出模块:可输出声音或者图像,用于影响佩戴物的行为反应;
无线传输模块:与至少一个控制终端连接,用于传输数据信息;
以及储存模块:用于储存数据信息;
当该项圈脱落时,触发一个脱落信号,利用图像采集单元迅速采集多张环境照片,并与定位信息共同发至控制终端;
并同时触发输出模块,输出模块发出预设的语音或者图像投影来吸引佩戴物;
若佩戴物发生丢失之后,行为检测及预测模块根据丢失时间进行位置预测,在预测时引入预测证据;
预测证据包括客观证据以及非客观证据,非客观证据由行为检测及预测模块提供;
根据每个证据建立函数m(ei);
证据函数建立之后,先融合客观证据,再单独融合每个非客观证据,并且给每个非客观证据以置信度,最后根据函数值得到top1路径;
具体的,所述函数m(ei)如下所示:
Figure BDA0002562547750000061
m1和m2都是待融合的证据,客观证据融合完成之后,逐一融合主观证据,在融合主观证据时引入一个矛盾参数T,该参数用于反应主观证据与客观证据之间的矛盾关系,该值是一个介于0-1之间的数,所以,融合之后的函数
Figure BDA0002562547750000062
在单独融合了所有主观证据之后,选取top1作为预测轨迹。
在地图上根据top1路径映射且扩展出一定的范围,该范围作为寻找时的参考范围。
映射的方法如下:在宫格化的地图模型上,标注上预测轨迹线,从起点开始,标注关键点,关键点,由起点、终点(终点的确定可以按照丢失时间进行计算,及一段时间内,根据算法扩展的位置来确定终点)以及变径的特征点(该特征点包括未被选择路径中的特征点),利用K-均值算法对这些关键点进行聚类,此阶段我们会获得一个或若干个聚类中心,连接聚类中心,若只有一个中心,那么就将该中心与起点相连,得到一条具有延伸趋势的线段,设置一个偏移阈值,将选择的路径沿该线段延伸方向以及反方向做出偏移,偏移后的两条路径围设出的范围即是最终的参考范围。

Claims (4)

1.一种智能项圈,其特征在于:包括定位模块:内置有地图单元,用于获取位置信息;
行为检测及预测模块:内置有认知模型以及图像采集单元,用于检测佩戴物行为,并做出预测认知;
输出模块:可输出声音或者图像,用于影响佩戴物的行为反应;
无线传输模块:与至少一个控制终端连接,用于传输数据信息;
以及储存模块:用于储存数据信息;
当该项圈脱落时,触发一个脱落信号,利用图像采集单元迅速采集多张环境照片,并与定位信息共同发至控制终端;
并同时触发输出模块,输出模块发出预设的语音或者图像投影来吸引佩戴物;
若佩戴物发生丢失之后,行为检测及预测模块根据丢失时间进行位置预测,在预测时引入预测证据;
预测证据包括客观证据以及非客观证据,非客观证据由行为检测及预测模块提供;
根据每个证据建立函数m(ei);
证据函数建立之后,先融合客观证据,再单独融合每个非客观证据,并且给每个非客观证据以置信度,最后根据函数值得到top1路径;
在地图上根据top1路径映射且扩展出一定的范围,该范围作为寻找时的参考范围。
2.根据权利要求1所述的一种智能项圈,其特征在于:认知模型采用图片或视频识别的方式,具体的训练方法如下:
收集样本:样本即来源于佩戴者平时行为的近景图像,通过人为上传的图像/视频或者在项圈上安装摄像设备拍摄的内容;
样本处理,针对图像,识别佩戴物以及环境特征物,针对视频,提取至少两段轨迹流,并进行单帧视频画面提取;
先对环境特征物采用GoogleNet深度学习网络训练出一个分类器;
通过轨迹流中佩戴物的变化趋势来判断是否朝向环境特征物,判断方法如下:
首先确定两个向量,即第一个时间点中佩戴物与环境特征物的连线向量
Figure FDA0002562547740000021
和第一个时间点中佩戴物的位置与第二个时间点中佩戴物位置的连线向量;
Figure FDA0002562547740000022
计算两个向量之间的夹角θ:
Figure FDA0002562547740000023
设一阈值θj,该值是一个大于0小于等于1的数,利用该阈值θj,判断佩戴物的轨迹趋势,从而得到佩戴物对于该环境特征物的接受程度。
3.根据权利要求2所述的一种智能项圈,其特征在于:所述佩戴物对环境特征物的接受程度判断还包括引入佩戴物的轨迹速度参与计算,如下公式m(e1):V*|COS(α12)|,其中α1是佩戴物的轨迹方向,α2是佩戴物原点至环境特征物的连线方向,V是佩戴物的速度。
4.根据权利要求3所述的一种智能项圈,其特征在于:所述函数m(ei)如下所示:
Figure FDA0002562547740000031
m1和m2都是待融合的证据,客观证据融合完成之后,逐一融合主观证据,在融合主观证据时引入一个矛盾参数T,该参数用于反应主观证据与客观证据之间的矛盾关系,该值是一个介于0-1之间的数,所以,融合之后的函数
Figure FDA0002562547740000032
在单独融合了所有主观证据之后,选取top1作为预测轨迹。
CN202010619504.7A 2020-06-30 2020-06-30 一种智能项圈 Active CN111713423B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010619504.7A CN111713423B (zh) 2020-06-30 2020-06-30 一种智能项圈

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010619504.7A CN111713423B (zh) 2020-06-30 2020-06-30 一种智能项圈

Publications (2)

Publication Number Publication Date
CN111713423A true CN111713423A (zh) 2020-09-29
CN111713423B CN111713423B (zh) 2022-02-22

Family

ID=72570933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010619504.7A Active CN111713423B (zh) 2020-06-30 2020-06-30 一种智能项圈

Country Status (1)

Country Link
CN (1) CN111713423B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120059621A1 (en) * 2009-02-05 2012-03-08 Eads Deutschland Gmbh Method and device for localizing objects
US20150359201A1 (en) * 2014-06-11 2015-12-17 Chris Kong Methods and Apparatus for Tracking and Analyzing Animal Behaviors
CN205756419U (zh) * 2016-05-20 2016-12-07 张卫星 宠物携带智能项圈
CN106259035A (zh) * 2016-08-18 2017-01-04 深圳市沃特沃德股份有限公司 宠物穿戴设备脱落后找回宠物的方法、装置及系统
CN206354177U (zh) * 2016-11-28 2017-07-28 北京润达中天科技发展有限公司 一种宠物智能项圈
CN107094650A (zh) * 2016-02-23 2017-08-29 无锡科锐漫电子科技有限公司 一种智能追踪式宠物项圈
CN109006558A (zh) * 2018-07-31 2018-12-18 温州大学瓯江学院 一种基于大数据的走失宠物定位系统
CN110604068A (zh) * 2019-09-19 2019-12-24 上海市动物疫病预防控制中心(上海市兽药饲料检测所、上海市畜牧技术推广中心) 一种宠物定位追踪系统及具有该系统的宠物项圈

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120059621A1 (en) * 2009-02-05 2012-03-08 Eads Deutschland Gmbh Method and device for localizing objects
US20150359201A1 (en) * 2014-06-11 2015-12-17 Chris Kong Methods and Apparatus for Tracking and Analyzing Animal Behaviors
CN107094650A (zh) * 2016-02-23 2017-08-29 无锡科锐漫电子科技有限公司 一种智能追踪式宠物项圈
CN205756419U (zh) * 2016-05-20 2016-12-07 张卫星 宠物携带智能项圈
CN106259035A (zh) * 2016-08-18 2017-01-04 深圳市沃特沃德股份有限公司 宠物穿戴设备脱落后找回宠物的方法、装置及系统
CN206354177U (zh) * 2016-11-28 2017-07-28 北京润达中天科技发展有限公司 一种宠物智能项圈
CN109006558A (zh) * 2018-07-31 2018-12-18 温州大学瓯江学院 一种基于大数据的走失宠物定位系统
CN110604068A (zh) * 2019-09-19 2019-12-24 上海市动物疫病预防控制中心(上海市兽药饲料检测所、上海市畜牧技术推广中心) 一种宠物定位追踪系统及具有该系统的宠物项圈

Also Published As

Publication number Publication date
CN111713423B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN108062349B (zh) 基于视频结构化数据及深度学习的视频监控方法和系统
CN109344787B (zh) 一种基于人脸识别与行人重识别的特定目标跟踪方法
CN101854516B (zh) 视频监控系统、视频监控服务器及视频监控方法
CN101325694B (zh) 结合无线射频识别技术的智能视频监控系统及其方法
CN101095149B (zh) 图像比较设备和图像比较方法
US20190066158A1 (en) Method and electronic device for providing advertisement
CN113284168A (zh) 目标跟踪方法、装置、电子设备及存储介质
KR102404791B1 (ko) 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법
CN112001347B (zh) 一种基于人体骨架形态与检测目标的动作识别方法
US20170061252A1 (en) Method and device for classifying an object of an image and corresponding computer program product and computer-readable medium
CN111832400B (zh) 一种基于概率神经网络的口罩佩戴情况的监测系统及方法
CN105027550A (zh) 用于处理视觉信息以检测事件的系统和方法
Indi et al. Detection of malpractice in e-exams by head pose and gaze estimation
CN106559645A (zh) 基于摄像机的监控方法、系统和装置
KR102360181B1 (ko) 차량의 동작을 제어하는 전자 장치 및 방법
Garg et al. Rapid and robust background modeling technique for low-cost road traffic surveillance systems
CN111666800A (zh) 一种行人重识别模型训练方法及行人重识别方法
CN112330718B (zh) 一种基于cnn的三级信息融合视觉目标跟踪方法
CN102339390A (zh) 一种视频监控系统目标模板的更新方法及系统
CN111713423B (zh) 一种智能项圈
CN111767831A (zh) 用于处理图像的方法、装置、设备及存储介质
CN100442307C (zh) 球门检测方法
CN110278414A (zh) 图像处理方法、装置、服务器以及存储介质
CN110267007A (zh) 图像处理方法、装置、服务器以及存储介质
CN113486850A (zh) 一种交通行为识别方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant