CN112288019B - 一种基于关键点定位的厨师帽检测方法 - Google Patents

一种基于关键点定位的厨师帽检测方法 Download PDF

Info

Publication number
CN112288019B
CN112288019B CN202011193887.2A CN202011193887A CN112288019B CN 112288019 B CN112288019 B CN 112288019B CN 202011193887 A CN202011193887 A CN 202011193887A CN 112288019 B CN112288019 B CN 112288019B
Authority
CN
China
Prior art keywords
training
key point
classification
model
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011193887.2A
Other languages
English (en)
Other versions
CN112288019A (zh
Inventor
王景彬
张钦海
左辰龙
杜秀龙
刘子欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Tiandy Information Systems Integration Co ltd
Tiandy Technologies Co Ltd
Original Assignee
Tianjin Tiandy Information Systems Integration Co ltd
Tiandy Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Tiandy Information Systems Integration Co ltd, Tiandy Technologies Co Ltd filed Critical Tianjin Tiandy Information Systems Integration Co ltd
Priority to CN202011193887.2A priority Critical patent/CN112288019B/zh
Publication of CN112288019A publication Critical patent/CN112288019A/zh
Application granted granted Critical
Publication of CN112288019B publication Critical patent/CN112288019B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

本发明提供了一种基于关键点定位的厨师帽检测方法,包括:S1、构建检测关键点定位的训练样本集;S2、将制作好的训练集送入网络模型进行训练,并根据检测结果提取各个目标的眼睛的关键点信息,提取厨师帽的有效图像区域,作为分类模型待分类的样本;S3、构建分类模型的训练样本集;S4、搭建基于Tiny‑darknet网络的分类关键点检测模型;S5、配置训练参数,训练分类关键点检测模型。本发明所述的基于关键点定位的厨师帽检测方法不仅普适性强,检测过程是通过先定位关键点,之后再提取眼睛以上的区域,针对小目标检测同样有效。

Description

一种基于关键点定位的厨师帽检测方法
技术领域
本发明属于视频监控技术领域,尤其是涉及一种基于关键点定位的厨师帽检测方法。
背景技术
近年来,餐饮行业的后厨卫生问题越来越被国家和社会所重视,现在做的比较好的餐饮行业,后厨基本上都是实行透明化,顾客可以直接观察到后厨的工作状态,但是有时由于空间的关系,无法对后厨进行改造,那么怎样向顾客保证后厨的卫生呢。目前大多数后厨的规范性是通过市场监督,这种监督模式容易造成形式主义,这既是对消费者的不负责任,也是餐饮行业的漏洞。本发明方案致力于解决厨房中厨师的位置的定位及其是否按照国家规定佩带厨师帽的检测技术,通过监控手段自主识别后厨工作者的工作状态,自动报警,高效、准确的完成明厨亮灶工作。
现在市场上已经出现一些基于人工智能的厨师帽检测算法,但是大多数采用的模式是检测和识别,检测指的是检测目标的位置,识别指的是识别目标的类型;这种模式通常是检测到人之后,先把人的位置框截取下来,送进提前训练好的分类模型,判断有无按规定佩戴好厨师帽,并输出结果;但是这种模式有一个问题是,截取的人的位置提供的图像信息存在干扰因素,我们应该保证截取的目标尽量只保留我们关注的特征,其它的特征应该尽量的少出现或者不出现;因此这种传统的检测、识别模式在应用这种小特征目标检测时,效果往往不稳定,极易出现误报警;针对此问题,本发明所采用的技术方案是基于关键点定位获得目标的图像信息特征,保证了图像信息95%以上只保留厨师帽的信息特征,之后将图像信息送入分类器,输出精确的分类结果。
发明内容
有鉴于此,为克服上述缺陷,本发明旨在提出一种基于关键点定位的厨师帽检测方法,
为达到上述目的,本发明的技术方案是这样实现的:
一种基于关键点定位的厨师帽检测方法,包括:
S1、构建检测关键点定位的训练样本集;获取不同的场景的图像,并按照鼻子、眼睛,嘴巴,耳朵的位置标签对样本进行标注;
S2、将制作好的训练集送入网络模型进行训练,并根据检测结果提取各个目标的眼睛的关键点信息,并向上偏移一定数量的像素,向左、向右偏移一定数量的像素,提取厨师帽的有效图像区域,作为分类模型待分类的样本;
S3、构建分类模型的训练样本集;
S4、搭建基于Tiny-darknet网络的分类关键点检测模型;
S5、配置训练参数,训练分类关键点检测模型;
S6、将获取的图像送入分类关键点检测模型,将将步骤S2中获取的图像信息送入步骤S5中预先训练好的分类关键点检测模型进行处理,并输出分类结果。
进一步的,所述步骤S2中,将制作好的训练集送入CenterNet检测网络模型进行训练。
进一步的,所述步骤S2中,根据检测结果提取各个目标的眼睛的关键点信息,并向上偏移50~70个像素,向左、向右偏移20~30个像素,提取厨师帽的有效图像区域。
进一步的,所述步骤S3的具体方法如下:
获取不同的场景的图像,并对这些图像以顺时针、逆时针各旋转15度,对比度0.8,锐化0.8进行数据增强,从而得到训练样本数据集,并将训练样本集以随机10:1的方式分为训练集及测试集,以Caffe作为深度学习框架,并将训练集和测试集转换成Caffe能识别的lmdb格式,模型训练根据BP算法,利用SGD算法进行迭代训练,使网络训练最终输出的loss值下降至较低值。
进一步的,loss值的计算方法如下:
loss值的计算方法如下:
训练网络的loss分为分类损失Lconf(x,c)和回归损失Lloc(x,l,g),总的损失是二者的加权和。利用网络输出的预测框的位置l(x,y,w,h)与置信值confidence跟真实值g(x,y,w,h)计算损失,得到最终的loss,计算公式为:
Figure BDA0002753447970000031
Figure BDA0002753447970000032
Figure BDA0002753447970000033
Figure BDA0002753447970000034
其中i表示第i个预测框,j表示目标所属类别,yij表示第i个预测框所表示的类别与第j个类别是否匹配,匹配为1否则为0,xij表示第i个预测框属于第j个真实框所代表的类别的概率,Lconf(x,c)表示分类的损失;xi表示如果第i个预测框与真实框之间的IOU大于0.7就等于1,小于0.3时等于0,否则不参与训练;在实际过程中,如果Ncls和Nloc设置的差距过大,用参数β平衡二者。
进一步的,所述步骤S4的具体方法如下:
裁剪Tiny-Darknet网络,网络中包含了15个卷积层,6个池化层,1个全连接层,将神经网络网络生成的特征图以Blob结构的形式进行前向传播和反向传播,全连接层输出2类结果,这2类结果代表的含义是佩戴厨师帽和未佩戴厨师帽。
进一步的,所述步骤S5的具体方法如下:
设置训练网络模型的超参数,设置初始学习率为0.01,并且每隔固定的迭代次数,将学习率降为原来的1/10,总共降3次,训练的总迭代次数一般设置为总样本数量的10倍;
模型训练根据BP算法,利用SGD算法进行迭代训练,使网络训练最终输出的loss值下降至较低值,训练完成后,获取分类场景图像的模型。
进一步的,所述步骤S6中输出的分类结果包括图像所属的类别和置信度。
相对于现有技术,本发明所述的基于关键点定位的厨师帽检测方法具有以下优势:
本发明所述的基于关键点定位的厨师帽检测方法不仅普适性强,检测过程是通过先定位关键点,之后再提取眼睛以上的区域,针对小目标检测同样有效;并且基于深度学习,检测精准,以CenterNet、Tiny-Darknet卷积神经网络为基础,进一步优化网络结构,占用内存小,实时性高,同时分类精准,满足实际应用需求
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例所述的监控设备应用场景示意图;
图2为本发明实施例所述的检测方法流程图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明中的具体含义。
下面将参考附图并结合实施例来详细说明本发明。
如图1所示,监控设备安装于相应位置,一般都安装于监控设备上方,可以获取较大的监控区域范围,各个后厨对应各个监控设备。
如图2所示,本发明采用基于CenterNet检测网络定位的后厨人员的各个关键点信息,根据各个场景中的监控设备获取的实时画面信息进行实时跟踪,并根据关键点信息定位后厨人员的眼睛以上区域,只保留有无厨师帽的特征信息,之后将图像信息送入基于Tiny-darknet网络的分类模型进行分类,输出结果
(i.)构建检测关键点定位的训练样本集。从监控设备实际应用的各个场景,网上公开的数据集获取大量的不同的场景的图像,并按照鼻子、眼睛,嘴巴,耳朵的位置标签对样本进行标注。
(ii.)将制作好的训练集送入CenterNet检测网络进行训练,并根据检测结果提取各个目标的眼睛的关键点信息,并向上偏移50~70个像素,向左、向右偏移20~30个像素,提取厨师帽的有效图像区域,作为分类模型待分类的样本。
(iii.)构建分类模型的训练样本集。从监控设备实际应用的各个场景,网上公开的数据集获取大量的不同的场景的图像,并对这些图像以顺时针、逆时针各旋转15度,对比度0.8,锐化0.8进行数据增强,从而得到大量的训练样本数据集,并将训练样本集以随机10:1,,的方式分为训练集及测试集,以Caffe作为深度学习框架,并将训练集和测试集转换成Caffe能识别的lmdb格式;模型训练根据BP(反向传播)算法,利用SGD(随机梯度下降)算法进行迭代训练,使网络训练最终输出的loss值下降至较低值。
(iv.)搭建基于Tiny-darknet网络的的深度学习框架。为满足不同性能的监控设备的使用,需要保证网络模型占用的内存足够小,进一步裁剪Tiny-Darknet网络,网络中包含了15个卷积层,6个池化层,1个全连接层,将神经网络网络生成的特征图以Blob结构的形式进行前向传播和反向传播,全连接层输出2类结果,这2类结果代表的含义是佩戴厨师帽和未佩戴厨师帽。
(v.)配置训练参数,训练分类模型。设置训练网络模型的超参数,设置初始学习率为0.01,并且每隔固定的迭代次数,将学习率降为原来的1/10,总共降3次,训练的总迭代次数一般设置为总样本数量的10倍。模型训练根据BP(反向传播)算法,利用SGD(随机梯度下降)算法进行迭代训练,使网络训练最终输出的loss值下降至较低值。训练完成后,获取分类场景图像的模型;
(vi.)分类关键点检测模型送入的图像。将(ii)中获取的图像信息送入(v)中预先训练好的模型进行处理,并输出分类结果。模型输出的分类结果包括图像所属的类别和置信度;
所述步骤(iii)中loss值的计算方法如下公式所示。训练网络的loss分为分类损失Lconf(x,c)和回归损失Lloc(x,l,g),总的损失是二者的加权和。利用网络输出的预测框的位置l(x,y,w,h)与置信值confidence跟真实值g(x,y,w,h)计算损失,得到最终的loss,计算公式为:
Figure BDA0002753447970000071
Figure BDA0002753447970000072
Figure BDA0002753447970000073
Figure BDA0002753447970000074
其中i表示第i个预测框,j表示目标所属类别,yij表示第i个预测框所表示的类别与第j个类别是否匹配,匹配为1否则为0,xij表示第i个预测框属于第j个真实框所代表的类别的概率,Lconf(x,c)表示分类的损失。xi表示如果第i个预测框与真实框之间的IOU大于0.7就等于1,小于0.3时等于0,否则不参与训练。在实际过程中,如果Ncls和Nloc设置的差距过大,可以用参数β平衡二者(如Ncls=128,Nloc=1000,则β可设置为10)。
本发明适用于大多数餐饮行业后厨厨师帽检测的场景,可以根据实时监控的图像信息,对没有佩戴好厨师帽的工作人员发出提示或者对未佩戴厨师帽的工作人员发出警告并报警。
通过关键点定位获取后厨人员的厨师帽区域的图像信息,屏蔽了其它特征的干扰,提高了检测识别的准确率,可以满足实际需求。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于关键点定位的厨师帽检测方法,其特征在于,包括:
S1、构建检测关键点定位的训练样本集;获取不同的场景的图像,并按照鼻子、眼睛,嘴巴,耳朵的位置标签对样本进行标注;
S2、将制作好的训练集送入网络模型进行训练,并根据检测结果提取各个目标的眼睛的关键点信息,并向上偏移50~70个像素,向左、向右偏移20~30个像素,提取厨师帽的有效图像区域,作为分类模型待分类的样本;
S3、构建分类模型的训练样本集;
S4、搭建基于Tiny-darknet网络的分类关键点检测模型;
S5、配置训练参数,训练分类关键点检测模型;
S6、将获取的图像送入分类关键点检测模型,将将步骤S2中获取的图像信息送入步骤S5中预先训练好的分类关键点检测模型进行处理,并输出分类结果;
所述步骤S2中,将制作好的训练集送入CenterNet检测网络模型进行训练。
2.根据权利要求1所述的基于关键点定位的厨师帽检测方法,其特征在于,所述步骤S4的具体方法如下:
裁剪Tiny-Darknet网络,网络中包含了15个卷积层,6个池化层,1个全连接层,将神经网络生成的特征图以Blob结构的形式进行前向传播和反向传播,全连接层输出2类结果,这2类结果代表的含义是佩戴厨师帽和未佩戴厨师帽。
3.根据权利要求1所述的基于关键点定位的厨师帽检测方法,其特征在于,所述步骤S5的具体方法如下:
设置训练网络模型的超参数,设置初始学习率为0.01,并且每隔固定的迭代次数,将学习率降为原来的1/10,总共降3次,训练的总迭代次数一般设置为总样本数量的10倍;
模型训练根据BP算法,利用SGD算法进行迭代训练,使网络训练最终输出的loss值下降至较低值,训练完成后,获取分类场景图像的模型。
4.根据权利要求1所述的基于关键点定位的厨师帽检测方法,其特征在于:所述步骤S6中输出的分类结果包括图像所属的类别和置信度。
CN202011193887.2A 2020-10-30 2020-10-30 一种基于关键点定位的厨师帽检测方法 Active CN112288019B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011193887.2A CN112288019B (zh) 2020-10-30 2020-10-30 一种基于关键点定位的厨师帽检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011193887.2A CN112288019B (zh) 2020-10-30 2020-10-30 一种基于关键点定位的厨师帽检测方法

Publications (2)

Publication Number Publication Date
CN112288019A CN112288019A (zh) 2021-01-29
CN112288019B true CN112288019B (zh) 2023-07-14

Family

ID=74352650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011193887.2A Active CN112288019B (zh) 2020-10-30 2020-10-30 一种基于关键点定位的厨师帽检测方法

Country Status (1)

Country Link
CN (1) CN112288019B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112883840B (zh) * 2021-02-02 2023-07-07 中国人民公安大学 基于关键点检测的输电线路提取方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070033A (zh) * 2019-04-19 2019-07-30 山东大学 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN110263686A (zh) * 2019-06-06 2019-09-20 温州大学 一种基于深度学习的施工工地图像安全帽检测方法
CN110688893A (zh) * 2019-08-22 2020-01-14 成都通甲优博科技有限责任公司 佩戴安全帽的检测方法、模型训练方法及相关装置
CN110765906A (zh) * 2019-10-12 2020-02-07 上海雪湖科技有限公司 一种基于关键点的行人检测算法
CN110909703A (zh) * 2019-11-29 2020-03-24 中电福富信息科技有限公司 一种基于人工智能的明厨亮灶场景下厨师帽的检测方法
CN111062307A (zh) * 2019-12-12 2020-04-24 天地伟业技术有限公司 一种基于Tiny-Darknet的场景识别分类方法
CN111062429A (zh) * 2019-12-12 2020-04-24 上海点泽智能科技有限公司 基于深度学习的厨师帽和口罩佩戴的检测方法
CN111160264A (zh) * 2019-12-30 2020-05-15 中山大学 一种基于生成对抗网络的漫画人物身份识别方法
CN111241959A (zh) * 2020-01-06 2020-06-05 重庆大学 一种通过工地视频流检测未佩戴安全帽人员的方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070033A (zh) * 2019-04-19 2019-07-30 山东大学 一种电力领域危险工作区域内安全帽佩戴状态检测方法
CN110263686A (zh) * 2019-06-06 2019-09-20 温州大学 一种基于深度学习的施工工地图像安全帽检测方法
CN110688893A (zh) * 2019-08-22 2020-01-14 成都通甲优博科技有限责任公司 佩戴安全帽的检测方法、模型训练方法及相关装置
CN110765906A (zh) * 2019-10-12 2020-02-07 上海雪湖科技有限公司 一种基于关键点的行人检测算法
CN110909703A (zh) * 2019-11-29 2020-03-24 中电福富信息科技有限公司 一种基于人工智能的明厨亮灶场景下厨师帽的检测方法
CN111062307A (zh) * 2019-12-12 2020-04-24 天地伟业技术有限公司 一种基于Tiny-Darknet的场景识别分类方法
CN111062429A (zh) * 2019-12-12 2020-04-24 上海点泽智能科技有限公司 基于深度学习的厨师帽和口罩佩戴的检测方法
CN111160264A (zh) * 2019-12-30 2020-05-15 中山大学 一种基于生成对抗网络的漫画人物身份识别方法
CN111241959A (zh) * 2020-01-06 2020-06-05 重庆大学 一种通过工地视频流检测未佩戴安全帽人员的方法

Also Published As

Publication number Publication date
CN112288019A (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
CN111353413B (zh) 一种输电设备低漏报率缺陷识别方法
CN111723654B (zh) 基于背景建模、YOLOv3与自优化的高空抛物检测方法及装置
CN108596277B (zh) 一种车辆身份识别方法、装置和存储介质
CN110414305A (zh) 人工智能卷积神经网络人脸识别系统
CN110532970B (zh) 人脸2d图像的年龄性别属性分析方法、系统、设备和介质
CN106844614A (zh) 一种户型图功能区域快速识别系统
CN110426415A (zh) 基于深度卷积神经网络和图像分割的油浸式变压器内部热故障诊断方法
CN111611874B (zh) 基于ResNet和Canny的人脸口罩佩戴检测方法
CN106228137A (zh) 一种基于关键点定位的atm机异常人脸检测方法
CN112183472A (zh) 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法
CN113469278B (zh) 一种基于深度卷积神经网络的强天气目标识别方法
CN115294473A (zh) 一种基于目标检测与实例分割的绝缘子故障识别方法及系统
CN112364778A (zh) 一种基于深度学习的电厂安全性行为信息自动检测方法
CN106295489A (zh) 信息处理方法、信息处理装置和视频监控系统
CN113947555A (zh) 基于深度神经网络的红外与可见光融合的视觉系统及方法
CN107832721A (zh) 用于输出信息的方法和装置
CN112288019B (zh) 一种基于关键点定位的厨师帽检测方法
CN110287798A (zh) 基于特征模块化和上下文融合的矢量网络行人检测方法
CN109522969A (zh) 基于深度学习的特定物品发现方法
CN110659585B (zh) 一种基于交互属性监督的行人检测方法
Sullivan et al. Object-oriented classification of forest structure from light detection and ranging data for stand mapping
CN112926616A (zh) 图像匹配方法和装置、电子设备、计算机可读存储介质
CN113989886A (zh) 基于人脸识别的船员身份验证方法
CN113361968A (zh) 基于人工智能和大数据的电网基建人员安全风险评估方法
CN113723833A (zh) 造林实绩质量评价方法、系统、终端设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230627

Address after: 300392 Room A310, Building 4, No. 8, Haitai Huake Second Road, Huayuan Industrial Zone (outside the ring), Xiqing District, Tianjin

Applicant after: TIANJIN TIANDY INFORMATION SYSTEMS INTEGRATION Co.,Ltd.

Applicant after: TIANDY TECHNOLOGIES Co.,Ltd.

Address before: 300384 5th floor, building 4, No.8, Haitai Huake 2nd Road, Huayuan Industrial Zone, high tech Zone, Binhai New Area, Tianjin

Applicant before: Tianjin Tiandi Weiye Intelligent Security Technology Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant