CN110059641B - 基于多预置点的深度鸟类识别算法 - Google Patents
基于多预置点的深度鸟类识别算法 Download PDFInfo
- Publication number
- CN110059641B CN110059641B CN201910327366.2A CN201910327366A CN110059641B CN 110059641 B CN110059641 B CN 110059641B CN 201910327366 A CN201910327366 A CN 201910327366A CN 110059641 B CN110059641 B CN 110059641B
- Authority
- CN
- China
- Prior art keywords
- camera
- preset
- points
- point
- bird
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多预置点的深度鸟类识别算法及其控制方法,包括如下步骤:步骤A:为每一个摄像头建立预置点;预置点设置有对应的时间点;预置点对应的视界不相交;步骤B:处理所有摄像头的预置点以及视界,删除同一时间点相交的视界及其预置点;步骤C:根据处理后的摄像头的预置点和视界,启动摄像头运行到预置点拍摄鸟类照片;步骤D:采用深度识别算法获取鸟类照片中的鸟类种群及其数量;步骤E:对深度识别算法获取的鸟类种群及其数量进行统计。本发明使用可编程的多个变焦摄像头、设定多预置点来进行拍照,并将拍照的图像进行深度图像识别,从而最终实现了在一定时间内完成鸟类种群的自动识别和统计功能。
Description
技术领域
本发明涉及森林保护技术领域,特别是涉及一种基于多预置点的深度鸟类识别算法。
背景技术
近年来,鸟类保护已经成为人们的共识,在自然保护区则更加重要。自然保护区需要对现有的鸟类种群和数量做到心中有数,但传统的鸟类统计方法需要大量人工来进行拍照和统计,由于人的出现会惊走鸟类,所以其统计基本上是不全面、不真实、不及时、花费大,且非常辛苦的。
现有的自然区已经广泛的使用了摄像头进行自然保护,但大多受限于观看的环节。而传统的计算机技术也无法实现对鸟类的分析和统计,无法为自然保护区的决策提供支持。
现有技术的缺陷是,缺少一种鸟类识别和统计算法,解决现今自然保护区对于鸟类种类识别和统计的需要;解决自然保护区全靠人力进行识别和统计的方式,提高精确度并减少人力成本。
其中深度学习算法的参考资料包括YOLOV3算法和SSD算法。
1、YOLOV3,https://pjreddie.com/media/files/papers/YOLOv3.pdf
2、SSD:Single Shot MultiBox Detector,https://arxiv.org/abs/1512.02325,https://arxiv.org/pdf/1512.02325.pdf。
发明内容
有鉴于现有技术的至少一个缺陷,本发明的目的是提供一种基于多预置点的深度鸟类识别算法,该方法使用可编程的多个变焦摄像头、设定多预置点来进行拍照,并将拍照的图像进行深度图像识别,从而最终实现了在一定时间内完成鸟类种群的自动识别和粗略统计功能。
为了达到上述目的,本发明采用如下技术方案:一种基于多预置点的深度鸟类识别算法,用于鸟类识别系统,所述鸟类识别系统包括至少两个可编程的摄像头,摄像头连接有AI服务器,其关键在于,包括如下步骤:
步骤A:为每一个摄像头建立预置点;预置点对应的视界不相交;
步骤B:处理所有摄像头的预置点以及视界,如果两个摄像头的预置点在同一时间点的视界相交,删除其中一个摄像头的相交的视界及其对应的预置点;
步骤C:根据步骤B处理后的摄像头的预置点、时间点和视界,启动摄像头运行到预置点拍摄鸟类照片;
步骤D:采用深度识别算法识别鸟类照片中鸟类的种群及其对应数量;
步骤E:对深度识别算法获取的鸟类的种群及其数量进行统计。
通过上述的方法为摄像头建立预置点,使同一摄像头的预置点视界不相交,同一时间点,不同的摄像头的预置点的视界不相交。
通过在有AI服务器中设置上述基于多预置点的深度鸟类识别算法;控制多个可变焦的摄像头对鸟类种群进行拍照;解决了鸟类拍照问题,并使用深度学习程序来处理多张图片的鸟类种群识别和数量统计问题。
所述的基于多预置点的深度鸟类识别算法,其关键在于,所述步骤A包括:
步骤A1:建立摄像头组成的摄像头集合,摄像头集合用C表示,C=(C1,C2,…,Ci,…Cn),i=1~n,其中Ci表示摄像头集合C中的第i个摄像头;
建立对应的预置点总集合,预置点总集合用P表示,P=(PC1,PC2,…,PCi,…PCn);其中PCi表示摄像头Ci对应的预置点分集合;
建立对应的时间点总集合,时间点总集合用T0表示,T0=(TC1,TC2,…,TCi,…TCn),其中TCi表示摄像头Ci对应的时间点分集合;
建立对应的视界总集合,视界总集合用V表示,V=(VC1,VC2,…,VCi,…VCn),其中VCi表示摄像头Ci对应的视界分集合;
步骤A2:按如下方法为摄像头Ci设置预置点及预置点对应的视界;
为摄像头Ci设置a个预置点,用PCitm表示其中的一个预置点,用tm表示预置点PCitm对应的时间点,1≤m≤a,用VCitm表示预置点PCitm对应的视界;摄像头Ci的所有预置点PCitm的视界VCitm互不相交;将预置点PCitm存入该摄像头Ci对应的预置点分集合PCi中,将视界VCitm存入该摄像头Ci对应的视界分集合VCi;将时间点tm存入该摄像头Ci对应的时间点分集合TCi中;
重复以上方法,直到所有的摄像头的预置点及其对应的视界设置完毕。
现有技术中的摄像头Ci本身只有预置点设置功能,并没有其它关于视界的功能,所以我们只能通过设置预置点来达我们的目的。而预置点本质上不仅是一个地点参数,而且是一个地点、时刻以及视界的高维参数,所以一旦设定预置点后,必须对它进行处理才能实现我们的要求。
摄像头Ci的预置点,即摄像头Ci的朝向。
摄像头Ci的预置点即预置位,指的是预先设定的监控方位及摄像机状态;带有预置位功能的监控探头一般带有云台及变焦镜头,当云台运行到需要重点监视的地方,向球机发出设置预置点的命令,球机则将此时的云台的方位和摄像机的状态记录下来,并与该预置点的号码联系起来。当向球机发出调用该预置位命令时,云台立即以最快的速度运行到该点,摄像机也回到当时记忆的状态,从而方便监控人员能迅速地查看被监视领域。预置位的多少和运行到预置位的速度及精确度,都是衡量智能监控探头功能的一项指标。
摄像头Ci可以在AI服务器的控制下通过步进电机控制其转动,设定a个预置点,即设置有a个朝向,每一个朝向的视界VCitm不相交。只具有很小的缝隙,该缝隙不影响鸟类的识别。
所述步骤B包括:
步骤B1:将时间点总集合T0中的时间点排序,去掉重复的时间点;得到时间点新集合,时间点新集合用T表示,T=(T1,T2,…,Tp,…Ts);Tp表示时间点新集合T中的其中一个时间点;p=1~s;Ts表示时间点新集合T中的第s个时间点;时间点新集合T中共有s个时间点;
步骤B2:按如下方法处理视界总集合V和预置点总集合P,依次从时间点新集合T中取出时间点Tp,依次获取摄像头Ci,i=1~n;再获取摄像头Cj;摄像头Cj表示摄像头集合C中的第j个摄像头,j=1~n且j≠i;分别查找摄像头Ci和摄像头Cj在时间点Tp的视界VCiTp和视界VCjTp;如果视界VCiTp和视界VCjTp都存在且有相交,则删除视界VCjTp,并删除其对应的预置点PCjTp;
重复以上方法,直到视界总集合V和预置点总集合P处理完毕为止;
所述步骤C包括:
步骤C1:建立拍照总集合,拍照总集合用PIC表示;建立时间点Tp的拍照分集合,拍照分集合用PICTp表示;
步骤C2:采用如下方法,启动摄像头Ci拍摄鸟类照片,将鸟类照片存入拍照总集合PIC;
从时间点新集合T依次获取时间点Tp;
建立摄像头新集合Cp;在预置点总集合P中进行查找;获取时间点Tp对应的摄像头Ci,将其存入摄像头新集合Cp;
控制摄像头新集合Cp中的摄像头Ci运行到对应的预置点PCiTp;启动摄像头Ci拍摄鸟类照片,将拍摄的鸟类照片放入拍照分集合PICTp中;再将拍照分集合PICTp放入拍照总集合PIC;
重复以上方法,直到时间点新集合T中所有时间点Tp对应的预置点PCiTp拍摄完毕。
所述步骤D采用深度鸟类识别算法对拍照分集合PICTp内每一张鸟类照片进行鸟类种群识别,得到每一张鸟类照片包含的种群及其数量,用种群数量支集合Gpi表示;
所述步骤E包括合并拍照分集合PICTp内所有的鸟类照片包含的种群及其数量,用种群数量分集合GTp表示;
采用如下方法对一张以上的鸟类照片的种群数量支集合Gpi进行合并,如果属于同一种群,将其数量求和后放入种群数量分集合GTp中;如果属于新的种群,将其直接放入种群计数集合GTp;
合并拍照总集合PIC内所有的鸟类照片包含的种群及其数量,用种群数量总集合MAX表示。
所述的基于多预置点的深度鸟类识别算法,其关键在于,还包括步骤F,将一天作为一个拍摄大周期,将时间点新集合T作为一个拍摄小周期,在拍摄大周期中设置至少两个拍摄小周期,获取所有拍摄小周期中种群的数量的最大值,将最大值作为拍摄大周期内种群的数量。
通过上述的方法设置,将两个或两个以上的拍摄小周期内获得的鸟类种群数量进行比较,将比较获得的最大值作为该种群在拍摄大周期内种群的数量。能够统计该天内鸟类种群的最大数量。
通过上述的方法设计,其拍照使用了可编程的摄像头,并使了对摄像头的预置点和视界编程拍照;对单个摄像头,使用多个预置点来编程拍照,各预置点视界相互间不重叠;对于多个摄像头,相互间同时的预置点视界不重叠;最后使用深度学习程序来处理多张图片的鸟类种群识别和数量统计。
所述的基于多预置点的深度鸟类识别算法,其关键在于,在步骤D中,所述深度鸟类识别算法为YOLO算法或SSD算法。
上述深度鸟类识别算法均为成熟技术,详见说明书背景技术的参考资料部分。YOLOV3,https://pjreddie.com/media/files/papers/YOLOv3.pdf
2、SSD:Single Shot MultiBox Detector,https://arxiv.org/abs/1512.02325,https://arxiv.org/pdf/1512.02325.pdf。
所述步骤A2通过如下的方法使摄像头Ci的所有预置点PCitm的视界VCitm互不相交;
步骤A21:按照设定的视角为摄像头Ci设置b个预置点;
步骤A22:判断第二个预置点PCit2的视界VCit2与第一个预置点PCit1的视界VCit1是否相交;如果相交,将第二个预置点PCit2的视界VCit2向远离第一个预置点PCit1的视界VCit1的方向每次转动Z度,Z由用户设定,直到不相交为止;
按照上述方法调摄像头Ci的所有预置点PCitm的视界VCitm;
步骤A23:判断第b个预置点PCitb的视界VCitb与预置点PCit1的视界VCit1是否相交;如果不相交,则a等于b,如果相交,删除第b个预置点PCitb及其对应的视界VCitb;则a等于b-1。
示例如下,首先可以设定摄像头Ci的视角为30度,那么按照旋转360度一周可以设定12个等分的预置点,即理想状态下a等于12,再根据实际拍摄的照片判断两个预置点的视界是否相交,如果相交,则调整第2个预置点的视界,Z可以设定为1到5度,当然Z越小越好,使两个预置点PCitm的视界VCitm之间的缝隙很小,避免出现漏检。如果12个预置点的视界都不相交,则a等于12,如果调整发现第12个预置点与第1个预置点的视界相交,则删除第12个预置点及其视界,则a等于11。
所述的基于多预置点的深度鸟类识别算法,其关键在于,采用机器学习算法判断摄像头Ci的第二个预置点PCit2的视界VCit2与第一个预置点PCit1的视界VCit1是否相交;
该机器学习算法包括如下步骤:
步骤A221:使用AKAZE算法对视界VCit2、视界VCit1获取的照片提取特征点,取得特征点的方向、位置和大小信息;
步骤A222:使用SVD降维算法对特征点的方向、位置和大小信息进行投影降维处理;
步骤A223:使用FLANN based Matcher算法计算视界VCit2、视界VCit1的照片的特征点降维处理后的匹配个数和不匹配个数;
步骤A224:如果不匹配个数大于等于N倍匹配个数,N由经验值确定,则认为不匹配;否则,认为匹配;旋转此视界VCit2。
摄像头Ci的其余预置点的视界是否相交与上述判断方法相同。
所述的基于多预置点的深度鸟类识别算法,其关键在于,所述YOLO算法包括;使用鸟类数据集对YOLO算法的Dark53神经网络进行训练,得到了YOLO算法需要的鸟类识别权重数据;再将每一张鸟类照片通过YOLO算法进行处理,得到每一张鸟类照片包含的种群及其数量。
显著效果:本发明提供了一种基于多预置点的深度鸟类识别算法;该方法使用可编程的多个变焦摄像头、设定多预置点来进行拍照,并将拍照的图像进行深度图像识别,从而最终实现了在一定时间内完成鸟类种群的自动识别和粗略统计功能。
附图说明
图1为本发明的方法流程图;
图2为本发明的系统结构图;
图3为摄像头Ci的视界示意图;
图4为摄像头Ci与摄像头Cj的视界示意图;
图5为本发明的详细方法流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细说明。
如图1-图5所示,一种基于多预置点的深度鸟类识别算法,用于鸟类识别系统,所述鸟类识别系统包括至少两个可编程的摄像头,摄像头连接有AI服务器,其关键在于,包括如下步骤:
步骤A:为每一个摄像头建立预置点;预置点对应的视界不相交;
步骤B:处理所有摄像头的预置点以及视界,如果两个摄像头的预置点在同一时间点的视界相交,删除其中一个摄像头的相交的视界及其对应的预置点;
步骤C:根据步骤B处理后的摄像头的预置点、时间点和视界,启动摄像头运行到预置点拍摄鸟类照片;
步骤D:采用深度识别算法识别鸟类照片中鸟类的种群及其对应数量;
步骤E:对深度识别算法获取的鸟类的种群及其数量进行统计。
通过上述的方法为摄像头建立预置点,使同一摄像头的预置点对应的视界不相交,同一时间点,不同的摄像头的预置点的视界不相交。
通过在AI服务器中设置上述基于多预置点的深度鸟类识别算法;控制多个可变焦的摄像头对鸟类种群进行拍照;解决了鸟类拍照问题,并使用深度学习程序来处理多张图片的鸟类种群识别和数量统计问题。
所述的基于多预置点的深度鸟类识别算法,其关键在于,所述步骤A包括:
步骤A1:建立摄像头组成的摄像头集合,摄像头集合用C表示,C=(C1,C2,…,Ci,…Cn),i=1~n,i是摄像头的序号,其中Ci表示摄像头集合C中的第i个摄像头;
建立与摄像头集合对应的预置点总集合,预置点总集合用P表示,P=(PC1,PC2,…,PCi,…PCn);其中PCi表示摄像头Ci对应的预置点分集合;
建立与摄像头集合对应的时间点总集合,时间点总集合用T0表示,T0=(TC1,TC2,…,TCi,…TCn),其中TCi表示摄像头Ci对应的时间点分集合;
建立与摄像头集合对应的视界总集合,视界总集合用V表示,V=(VC1,VC2,…,VCi,…VCn),其中VCi表示摄像头Ci对应的视界分集合;
步骤A2:按如下方法为摄像头Ci设置预置点及预置点对应的视界;
为摄像头Ci设置a个预置点,用PCitm表示其中的一个预置点,用tm表示预置点PCitm对应的时间点,1≤m≤a,m是时间点的序号,比如用t1表示预置点PCit1对应的第一个时间点,用ta表示预置点PCita对应的时间点,预置点PCit1则表示摄像头Ci的第一个时间点t1对应的预置点;用VCitm表示预置点PCitm对应的视界;比如用VCit1表示预置点PCit1对应的视界,用VCita表示预置点PCita对应的视界,摄像头Ci的所有预置点PCitm的视界VCitm互不相交;将预置点PCitm存入该摄像头Ci对应的预置点分集合PCi中,将视界VCitm存入该摄像头Ci对应的视界分集合VCi;将时间点tm存入该摄像头Ci对应的时间点分集合TCi中;
重复以上方法,直到所有的摄像头Ci的预置点及其对应的视界设置完毕。
如果有5个摄像头,即n=5,则从第一个摄像头C1开始设置,按照C1、C2、C3、C4、C5的顺序将5个摄像头设置完毕;
设置完毕的摄像头Ci的视界示意图如图3所示;
摄像头Ci的预置点,即摄像头Ci的朝向。
摄像头Ci的预置点即预置位,指的是预先设定的监控方位及摄像机状态;带有预置位功能的监控探头一般带有云台及变焦镜头,当云台运行到需要重点监视的地方,向球机发出设置预置点的命令,球机则将此时的云台的方位和摄像机的状态记录下来,并与该预置点的号码联系起来。当向球机发出调用该预置位命令时,云台立即以最快的速度运行到该点,摄像机也回到当时记忆的状态,从而方便监控人员能迅速地查看被监视领域。预置位的多少和运行到预置位的速度及精确度,都是衡量智能监控探头功能的一项指标。
摄像头Ci可以在AI服务器的控制下通过步进电机控制其转动,设定a个预置点,即设置有a个朝向,每一个朝向的视界VCitm不相交。只具有很小的缝隙,该缝隙不影响鸟类的识别。
所述步骤B包括:
步骤B1:将时间点总集合T0中的时间点排序,去掉重复的时间点;得到时间点新集合,时间点新集合用T表示,T=(T1,T2,…,Tp,…Ts);Tp表示时间点新集合T中的其中一个时间点;p=1~s;Ts即表示时间点新集合T中的第s个时间点;时间点新集合T中共有s个时间点;
步骤B2:按如下方法处理视界总集合V和预置点总集合P,依次从时间点新集合T中取出时间点Tp,依次获取摄像头Ci,i=1~n;再获取摄像头Cj;摄像头Cj表示摄像头集合C中的第j个摄像头,j是摄像头的序号,j=1~n且j≠i;分别查找摄像头Ci和摄像头Cj在时间点Tp的视界VCiTp和视界VCjTp;摄像头Ci在时间点Tp的视界为VCiTp,摄像头Cj在时间点Tp的视界为VCjTp;如果视界VCiTp和视界VCjTp都存在且有相交,则删除视界VCjTp,并删除其对应的预置点PCjTp;
VCjTp是指摄像头Cj在时间点Tp的视界;PCjTp是指视界VCjTp对应的摄像头Cj的预置点;
重复以上方法,直到视界总集合V和预置点总集合P处理完毕为止;
如果有5个摄像头,即n=5,则从第一个摄像头C1开始,取出其视界VC1Tp,这时j=2~n,因为j≠i;即只能取摄像头C2、摄像头C3、摄像头C4、摄像头C5的视界与摄像头C1的视界VC1Tp比较;在同一时间点,所有摄像头的视界不能相交;
比较完成之后,又从第二个摄像头C2开始,取出其视界VC2Tp,这时j=1、3~n,因为j≠i;即只能取摄像头C1、摄像头C3、摄像头C4、摄像头C5的视界与摄像头C2的视界VC2Tp比较;以此类推;如果摄像头C3的视界VC3Tp与视界VC2Tp都存在且相交,则删除视界VC3Tp和对应的预置点PC3Tp。
处理完毕的摄像头Ci与摄像头Cj的视界示意图如图4所示;
所述步骤C包括:
步骤C1:建立拍照总集合,拍照总集合用PIC表示;建立时间点Tp的拍照分集合,拍照分集合用PICTp表示;
步骤C2:采用如下方法,启动摄像头Ci拍摄鸟类照片,将鸟类照片存入拍照总集合PIC;
从时间点新集合T依次获取时间点Tp;
建立摄像头新集合Cp;在预置点总集合P中进行查找;获取时间点Tp对应的摄像头Ci,将其存入摄像头新集合Cp;
控制摄像头新集合Cp中的摄像头Ci运行到对应的预置点PCiTp;启动摄像头Ci拍摄鸟类照片,将拍摄的鸟类照片放入拍照分集合PICTp中;再将拍照分集合PICTp放入拍照总集合PIC;
重复以上方法,直到时间点新集合T中所有时间点Tp对应的预置点PCiTp拍摄完毕。
至此,完整的预置点拍摄已经完成,我们取得了多个摄像头的多个预置点的照片。对于一次完整的预置点拍摄时间记为周期t。将PICTp放入到PIC中;
所述步骤D采用深度鸟类识别算法对拍照分集合PICTp内每一张鸟类照片进行鸟类种群识别,得到每一张鸟类照片包含的种群及其数量,用种群数量支集合Gpi表示;
所述步骤E包括合并拍照分集合PICTp内所有的鸟类照片包含的种群及其数量,用种群数量分集合GTp表示;
采用如下方法对一张以上的鸟类照片的种群数量支集合Gpi进行合并,如果属于同一种群,将其数量求和后放入种群数量分集合GTp中;如果属于新的种群,将其直接放入种群计数集合GTp;
合并拍照总集合PIC内所有的鸟类照片包含的种群及其数量,用种群数量总集合MAX表示。
所述的基于多预置点的深度鸟类识别算法,其关键在于,还包括步骤F,将一天作为一个拍摄大周期,将时间点新集合T作为一个拍摄小周期,在拍摄大周期中设置至少两个拍摄小周期,获取所有拍摄小周期中鸟类种群的数量的最大值,将最大值作为拍摄大周期内鸟类种群的数量。
通过上述的方法设置,将两个或两个以上的拍摄小周期内获得的鸟类种群数量进行比较,将比较获得的最大值作为该种群在拍摄大周期内种群的数量。能够统计该天内鸟类种群的最大数量。
用Gp1表示摄像头C1在时刻Tp拍摄的鸟类种群及其数量,其json格式描述示例如下:
{“白鹭”:22,“黑天鹅”:2,“麻雀”:23}
用Gp2表示摄像头C2在时刻Tp拍摄的鸟类种群及其数量,其json格式描述示例如下:
{“白鹭”:17,“黑天鹅”:3,“喜鹊”:8,“麻雀”:25}
对时间点Tp,合并所有鸟类照片包含的种类和数量,记为集合GTp。示例如下:{“白鹭”:39,“黑天鹅”:5,“喜鹊”:8,“麻雀”:48}。
依次处理时间点新集合T中所有的时间点,合并种群数及其数量,并取最大的种群及其数量,记为集合Max,这个集合Max就是最后的输出。示例如下:{“白鹭”:99,“鸳鸯”:23,“黑天鹅”:10,“喜鹊”:27,“麻雀”:1000}。
如果另一个拍摄小周期获取的集合Max为
{“白鹭”:105,“鸳鸯”:20,“黑天鹅”:13,“喜鹊”:20,“麻雀”:758}。
那么拍摄大周期内的种群及其数量为
{“白鹭”:105,“鸳鸯”:23,“黑天鹅”:13,“喜鹊”:27,“麻雀”:1000}。
通过上述的方法设计,其拍照使用了可编程的摄像头,并使了对摄像头的预置点和视界编程拍照;对单个摄像头,使用多个预置点来编程拍照,各预置点视界相互间不重叠;对于多个摄像头,相互间同时的预置点视界不重叠;最后使用深度学习程序来处理多张图片的鸟类种群识别和数量统计。
所述的基于多预置点的深度鸟类识别算法,其关键在于,在步骤D中,所述深度鸟类识别算法为YOLO算法或SSD算法。
上述深度鸟类识别算法均为成熟技术,详见说明书背景技术的参考资料部分。YOLOV3,https://pjreddie.com/media/files/papers/YOLOv3.pdf
2、SSD:Single Shot MultiBox Detector,https://arxiv.org/abs/1512.02325,https://arxiv.org/pdf/1512.02325.pdf。
本发明相对于现有技术,具有下述的多个特征;
特征一、为了解决鸟类拍照问题,其拍照使用了对摄像头编程,从而对摄像头的预置点编程拍照,每个预置点的等待拍照时长是5到30秒之间;保证了合符现有工业可编程摄像头的技术要求;移动完所有的预置点回到起始点算一个周期;统计是按周期进行;
特征二、多摄像头多范围的预置点同时拍摄才能真正掌握保护区内鸟类种群和数量;因此,本算法提出了同时按周期进行预置点拍摄,多摄像头预置点在同一时间点不能拥有相同的视界,同一摄像头的预置点的视界不重叠;
特征三、我们使用了AKAZE Features、SVD和FLANN算法来进行视界重叠处理,自动给出重叠与否的结果;并编程自动调整重叠视界。
特征三、把摄像头拍照的结果按周期输入到深度识别算法中,一次性的得到了当前照片鸟类的种群数和统计数量,实现了end-to-end的效果;
特征四、对于单个摄像头在多个预置点拍摄的周期内求和,对多个摄像头的周期与单个摄像头同步进行,一个周期内求总和;多个周期内的最大值对应鸟类种群和数量。
优选地,摄像头通过WIFI模块连接AI服务器,通过WIFI模块连接AI服务器可以减少在林区架设电缆。
优选地,摄像头通过太阳能电池板供电,太阳能电池板经充电电路为摄像头供电,上述结构可以避免在林区架设电线。
优选地,摄像头设置有可伸缩的支架,摄像头通过支架安装在林区,通过支架可以调节摄像头的高低,可以更好地抓拍鸟类照片。
所述步骤A2通过如下的方法使摄像头Ci的所有预置点PCitm的视界VCitm互不相交;
步骤A21:按照设定的视角为摄像头Ci设置b个预置点;
步骤A22:判断第二个预置点PCit2的视界VCit2与第一个预置点PCit1的视界VCit1是否相交;如果相交,将第二个预置点PCit2的视界VCit2向远离第一个预置点PCit1的视界VCit1的方向每次转动Z度,Z由用户设定,直到不相交为止;
其中PCit2表示摄像头Ci的第二个预置点,PCit1表示摄像头Ci的第一个预置点,VCit2表示PCit2对应的视界,VCit1表示PCit1对应的视界;
按照上述方法调摄像头Ci的所有预置点PCitm的视界VCitm;
步骤A23:判断第b个预置点PCitb的视界VCitb与预置点PCit1的视界VCit1是否相交;如果不相交,则a等于b,如果相交,删除第b个预置点PCitb及其对应的视界VCitb;则a等于b-1。
示例如下,首先可以设定摄像头Ci的视角为30度,那么按照旋转360度一周可以设定12个等分的预置点,即理想状态下a等于12,再根据实际拍摄的照片判断两个预置点的视界是否相交,如果相交,则调整第2个预置点的视界,Z可以设定为1到5度,当然Z越小越好,使两个预置点PCitm的视界VCitm之间的缝隙很小,避免出现漏检。如果12个预置点的视界都不相交,则a等于12,如果调整发现第12个预置点与第1个预置点的视界相交,则删除第12个预置点及其视界,则a等于11。
所述的基于多预置点的深度鸟类识别算法,其关键在于,采用机器学习算法判断摄像头Ci的第二个预置点PCit2的视界VCit2与第一个预置点PCit1的视界VCit1是否相交;
其中PCit2表示摄像头Ci的第二个预置点,t2表示PCit2对应的时间点,PCit1表示摄像头Ci的第一个预置点,t1表示PCit2对应的时间点,VCit2表示PCit2对应的视界,VCit1表示PCit1对应的视界;
该机器学习算法包括如下步骤:
步骤A221:使用AKAZE算法对视界VCit2、视界VCit1获取的照片提取特征点,取得特征点的方向、位置和大小信息;
步骤A222:使用SVD降维算法对特征点的方向、位置和大小信息进行投影降维处理;
步骤A223:使用FLANN based Matcher算法计算视界VCit2、视界VCit1的照片的特征点降维处理后的匹配个数和不匹配个数;
步骤A224:如果不匹配个数大于等于N倍匹配个数,N由经验值确定,则认为不匹配;否则,认为匹配;旋转此视界VCit2。
摄像头Ci的其余预置点的视界是否相交与上述判断方法相同。
KAZE Features算法详见网址;
https://www.doc.ic.ac.uk/~ajd/Publications/alcantarilla_etal_eccv2012.pdf关于视界相关的处理过程,我们使用了机器学习算法来实现,其步骤如下:
步骤3:输入两个相交或不相交的视界照片,输出是否相交
步骤3.1对两张图片,我们分别使用AKAZE算法提取特征点。AKAZE算法利用非线性扩散滤波的优势获取低计算要求的特征,引入快速显示扩散数学框架FED来快速求解偏微分方程,并同时引入一个高效的改进局部差分二进制描述符(M-LDB)。其输出为一个六元组:
[angle,class_id,octave,pt,response,size]
其中:
angle:角度,表示关键点的方向。
class_id:当要对图片进行分类时使用。
octave:代表是从金字塔哪一层提取得到的数据。
pt:关键点的坐标;
response:响应程度,代表着该关键点是该点角点的程度。
size:该点直径的大小。
步骤3.2这样,我们的取得多个特征点的方向、位置和大小信息。由于可能存在特征维度过大的问题,为加快速度,我们使用了SVD降维算法:
标准的SVD降维算法公式表示如下:
M=UΣVT
假设M∈Rm×n,则U∈Rm×k,Σ∈Rk×k,V∈Rn×k、M∈Rm×n,其中k=min(m,n),U、Vk=min(m,n),U、V是正交单位矩阵,Σ是对角矩阵。我们采用相同的特征矩阵,对它们进行投影降维。
其中SVD降维算法的详细内容可以参见网址:
https://baike.baidu.com/item/%E5%A5%87%E5%BC%82%E5%80%BC%E5%88%86%E8%A7%A3/4968432?fr=aladdin。
步骤3.3然后,我们使用FLANN based Matcher(Fast Library for ApproximateNearest Neighbors)来进行特征点匹配算法。我们可以用下面的方式定义最近邻搜索NNS问题:在一个度量空间X给定一组点Pt=pt1,pt2,…,ptn,这些点必须通过以下方式进行预处理,给第一个新的查询点q属于X,快速在P中找到距离q最近的点,即最近邻搜索问题。
FLANN based Matcher是指特征点匹配算法,详细内容可以参考网址:
http://www.cs.ubc.ca/research/flann/;
步骤3.4结果筛选:我们过滤掉0.75以下的匹配值,这个数值是我们对多张风景区照片对比后的合适值。并给出对应的不匹配特征点,
如果不匹配点数大于等于8倍匹配点数,此数值为经验数值,根据多张风景区照片对比得到,则认为不匹配。否则,认为匹配。放弃或旋转此视界!
所述的基于多预置点的深度鸟类识别算法,其关键在于,所述YOLO算法包括;使用鸟类数据集对YOLO算法的Dark53神经网络进行训练,得到了YOLO算法需要的鸟类识别权重数据;再将每一张鸟类照片通过YOLO算法进行处理,得到每一张鸟类照片包含的种群及其数量。
YOLO意思是You Only Look Once,顾名思义就是只看一次,把目标区域预测和目标类别预测合二为一,它将目标检测任务看作目标区域预测和类别预测的回归问题。该方法采用单个神经网络直接预测物品边界和类别概率,实现端到端的物品检测。YOLOV3是YOLO的第三个版本。它在保留其快速检测的基础上,使用ResNet这样的结构和多尺度检测,达到了更好的效果和优秀的性能。
首先,需要对YOLO算法的Dark53进行训练,告诉它哪些是鸟和是什么鸟。我们使用了Caltech-UCSD Birds-200鸟类数据集,并加入我们自己拍摄的鸟类数据,共二万多张不同鸟类的数据集200种。然后将它们送入到Dark53网络中进行训练,我们使用了Dark53中提供的预权重数据,然后通过对此网络的反向求导,不断训练此网络。最终实现了其需要的权重。
然后,将权重带入Dark53中,通过它的正向推理功能,就可以实现自动分类,生成对应的种类并精确到小类。
YOLOV3算法详见网址,
https://pjreddie.com/media/files/papers/YOLOv3.pdf。
最后,需要注意的是:以上列举的仅是本发明的具体实施例子,当然本领域的技术人员可以对本发明进行改动和变型,倘若这些修改和变型属于本发明权利要求及其等同技术的范围之内,均应认为是本发明的保护范围。
Claims (6)
1.一种基于多预置点的深度鸟类识别算法,用于鸟类识别系统,所述鸟类识别系统包括至少两个可编程的摄像头,摄像头连接有AI服务器,其特征在于,包括如下步骤:
步骤A:为每一个摄像头建立预置点;预置点设置有对应的时间点;预置点对应的视界不相交;
步骤B:处理所有摄像头的预置点以及视界,如果两个摄像头的预置点在同一时间点的视界相交,删除其中一个摄像头的相交的视界及其对应的预置点;
步骤C:根据步骤B处理后的摄像头的预置点、时间点和视界,启动摄像头运行到预置点拍摄鸟类照片;
步骤D:采用深度识别算法识别鸟类照片中鸟类的种群及其对应数量;
步骤E:对深度识别算法获取的鸟类的种群及其数量进行统计;
所述步骤A包括:
步骤A1:建立摄像头组成的摄像头集合,摄像头集合用C表示,C=(C1,C2,…,Ci,…Cn),i=1~n,其中Ci表示摄像头集合C中的第i个摄像头;
建立对应的预置点总集合,预置点总集合用P表示,P=(PC1,PC2,…,PCi,…PCn);其中PCi表示摄像头Ci对应的预置点分集合;
建立对应的时间点总集合,时间点总集合用T0表示,T0=(TC1,TC2,…,TCi,…TCn),其中TCi表示摄像头Ci对应的时间点分集合;
建立对应的视界总集合,视界总集合用V表示,V=(VC1,VC2,…,VCi,…VCn),其中VCi表示摄像头Ci对应的视界分集合;
步骤A2:按如下方法为摄像头Ci设置预置点及预置点对应的视界;
为摄像头Ci设置a个预置点,用PCitm表示其中的一个预置点,用tm表示预置点PCitm对应的时间点,1≤m≤a,用VCitm表示预置点PCitm对应的视界;摄像头Ci的所有预置点PCitm的视界VCitm互不相交;将预置点PCitm存入该摄像头Ci对应的预置点分集合PCi中,将视界VCitm存入该摄像头Ci对应的视界分集合VCi;将时间点tm存入该摄像头Ci对应的时间点分集合TCi中;
所述步骤B包括:
步骤B1:将时间点总集合T0中的时间点排序,去掉重复的时间点;得到时间点新集合,时间点新集合用T表示,T=(T1,T2,…,Tp,…Ts);Tp表示时间点新集合T中的其中一个时间点;p=1~s;Ts表示时间点新集合T中的第s个时间点;时间点新集合T中共有s个时间点;
步骤B2:按如下方法处理视界总集合V和预置点总集合P,依次从时间点新集合T中取出时间点Tp,依次获取摄像头Ci,i=1~n;再获取摄像头Cj;摄像头Cj表示摄像头集合C中的第j个摄像头,j=1~n且j≠i;分别查找摄像头Ci和摄像头Cj在时间点Tp的视界VCiTp和视界VCjTp;如果视界VCiTp和视界VCjTp都存在且有相交,则删除视界VCjTp,并删除其对应的预置点PCjTp;
所述步骤A2通过如下的方法使摄像头Ci的所有预置点PCitm的视界VCitm互不相交;
步骤A21:按照设定的视角为摄像头Ci设置b个预置点;
步骤A22:判断第二个预置点PCit2的视界VCit2与第一个预置点PCit1的视界VCit1是否相交;如果相交,将第二个预置点PCit2的视界VCit2向远离第一个预置点PCit1的视界VCit1的方向每次转动Z度,Z由用户设定,直到不相交为止;
按照上述方法调摄像头Ci的所有预置点PCitm的视界VCitm;
步骤A23:判断第b个预置点PCitb的视界VCitb与预置点PCit1的视界VCit1是否相交;如果不相交,则a等于b,如果相交,删除第b个预置点PCitb及其对应的视界VCitb;则a等于b-1;
采用机器学习算法判断摄像头Ci的第二个预置点PCit2的视界VCit2与第一个预置点PCit1的视界VCit1是否相交;
该机器学习算法包括如下步骤:
步骤A221:使用AKAZE算法对视界VCit2、视界VCit1获取的照片提取特征点,取得特征点的方向、位置和大小信息;
步骤A222:使用SVD降维算法对特征点的方向、位置和大小信息进行投影降维处理;
步骤A223:使用FLANN based Matcher算法计算视界VCit2、视界VCit1的照片的特征点降维处理后的匹配个数和不匹配个数;
步骤A224:如果不匹配个数大于等于N倍匹配个数,N由经验值确定,则认为不匹配;否则,认为匹配;旋转此视界VCit2;
关于视界相关的处理过程,使用了机器学习算法来实现,其步骤如下:
步骤3:输入两个相交或不相交的视界照片,输出是否相交;
步骤3.1对两张图片,我们分别使用AKAZE算法提取特征点;AKAZE算法利用非线性扩散滤波的优势获取低计算要求的特征,引入快速显示扩散数学框架FED来快速求解偏微分方程,并同时引入一个高效的改进局部差分二进制描述符M-LDB;其输出为一个六元组:
[angle,class_id,octave,pt,response,size]
其中:
angle:角度,表示关键点的方向;
class_id:当要对图片进行分类时使用;
octave:代表是从金字塔哪一层提取得到的数据;
pt:关键点的坐标;
response:响应程度,代表着该关键点是该点角点的程度;
size:该点直径的大小;
步骤3.2:取得多个特征点的方向、位置和大小信息;由于可能存在特征维度过大的问题,为加快速度,我们使用了SVD降维算法:
标准的SVD降维算法公式表示如下:
M=UΣVT
假设M∈Rm×n,则U∈Rm×k,Σ∈Rk×k,V∈Rn×k、M∈Rm×n,其中k=min(m,n),U、Vk=min(m,n),U、V是正交单位矩阵,Σ是对角矩阵;采用相同的特征矩阵,对它们进行投影降维;
步骤3.3:然后,使用FLANN based Matcher来进行特征点匹配算法;用下面的方式定义最近邻搜索NNS问题:在一个度量空间X给定一组点Pt=pt1,pt2,…,ptn,这些点必须通过以下方式进行预处理,给第一个新的查询点q属于X,快速在P中找到距离q最近的点,即最近邻搜索问题;
步骤3.4:结果筛选:过滤掉0.75以下的匹配值,这个数值是对多张风景区照片对比后的合适值;并给出对应的不匹配特征点;
如果不匹配点数大于等于8倍匹配点数,则认为不匹配;否则,认为匹配,放弃或旋转此视界。
2.根据权利要求1所述的基于多预置点的深度鸟类识别算法,其特征在于,所述步骤C包括:
步骤C1:建立拍照总集合,拍照总集合用PIC表示;建立时间点Tp的拍照分集合,拍照分集合用PICTp表示;
步骤C2:采用如下方法,启动摄像头Ci拍摄鸟类照片,将鸟类照片存入拍照总集合PIC;
从时间点新集合T依次获取时间点Tp;
建立摄像头新集合Cp;在预置点总集合P中进行查找;获取时间点Tp对应的摄像头Ci,将其存入摄像头新集合Cp;
控制摄像头新集合Cp中的摄像头Ci运行到对应的预置点PCiTp;启动摄像头Ci拍摄鸟类照片,将拍摄的鸟类照片放入拍照分集合PICTp中;再将拍照分集合PICTp放入拍照总集合PIC。
3.根据权利要求2所述的基于多预置点的深度鸟类识别算法,其特征在于,所述步骤D采用深度鸟类识别算法对拍照分集合PICTp内每一张鸟类照片进行鸟类种群识别,得到每一张鸟类照片包含的种群及其数量,用种群数量支集合Gpi表示;
所述步骤E包括合并拍照分集合PICTp内所有的鸟类照片包含的种群及其数量,用种群数量分集合GTp表示;
采用如下方法对一张以上的鸟类照片的种群数量支集合Gpi进行合并,如果属于同一种群,将其数量求和后放入种群数量分集合GTp中;如果属于新的种群,将其直接放入种群计数集合GTp;
合并拍照总集合PIC内所有的鸟类照片包含的种群及其数量,用种群数量总集合MAX表示。
4.根据权利要求3所述的基于多预置点的深度鸟类识别算法,其特征在于,还包括步骤F,将一天作为一个拍摄大周期,将时间点新集合T作为一个拍摄小周期,在拍摄大周期中设置至少两个拍摄小周期,获取所有拍摄小周期中鸟类种群的数量的最大值,将最大值作为拍摄大周期内鸟类种群的数量。
5.根据权利要求3所述的基于多预置点的深度鸟类识别算法,其特征在于,所述步骤D中,所述深度鸟类识别算法为YOLO算法或SSD算法。
6.根据权利要求5所述的基于多预置点的深度鸟类识别算法,其特征在于,所述YOLO算法包括;使用鸟类数据集对YOLO算法的Dark53神经网络进行训练,得到了YOLO算法需要的鸟类识别权重数据;再将每一张鸟类照片通过YOLO算法进行处理,得到每一张鸟类照片包含的种群及其数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910327366.2A CN110059641B (zh) | 2019-04-23 | 2019-04-23 | 基于多预置点的深度鸟类识别算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910327366.2A CN110059641B (zh) | 2019-04-23 | 2019-04-23 | 基于多预置点的深度鸟类识别算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110059641A CN110059641A (zh) | 2019-07-26 |
CN110059641B true CN110059641B (zh) | 2023-02-03 |
Family
ID=67320148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910327366.2A Active CN110059641B (zh) | 2019-04-23 | 2019-04-23 | 基于多预置点的深度鸟类识别算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110059641B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889841A (zh) * | 2019-11-28 | 2020-03-17 | 江苏电力信息技术有限公司 | 一种基于YOLOv3的输电线路鸟类检测算法 |
CN111709421B (zh) * | 2020-06-18 | 2023-06-27 | 深圳市赛为智能股份有限公司 | 鸟类识别方法、装置、计算机设备及存储介质 |
CN113239842A (zh) * | 2021-05-25 | 2021-08-10 | 三门峡崤云信息服务股份有限公司 | 一种基于图像识别的天鹅检测方法及装置 |
CN113343828A (zh) * | 2021-06-01 | 2021-09-03 | 深圳市天和荣科技有限公司 | 鸟类调查方法、装置、电子设备及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157246A (zh) * | 2016-06-28 | 2016-11-23 | 杭州电子科技大学 | 一种全自动的快速柱面全景图像拼接方法 |
CN108022302A (zh) * | 2017-12-01 | 2018-05-11 | 深圳市天界幻境科技有限公司 | 一种Inside-Out空间定位的AR立体显示装置 |
CN108111818A (zh) * | 2017-12-25 | 2018-06-01 | 北京航空航天大学 | 基于多摄像机协同的运动目标主动感知方法和装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202476328U (zh) * | 2012-02-21 | 2012-10-10 | 中国民航大学 | 基于图像识别的机场激光驱鸟系统 |
JP6762108B2 (ja) * | 2016-02-19 | 2020-09-30 | 三菱重工業株式会社 | 目標物検知装置、処理方法、プログラム |
CN106056534B (zh) * | 2016-05-31 | 2022-03-18 | 中国科学院深圳先进技术研究院 | 基于智能眼镜的遮挡物透视方法及装置 |
CN108305235B (zh) * | 2017-01-11 | 2022-02-18 | 北京大学 | 多张图片融合的方法及装置 |
CN107729363B (zh) * | 2017-09-06 | 2021-08-17 | 上海交通大学 | 基于GoogLeNet网络模型鸟类种群识别分析方法 |
CN107563381B (zh) * | 2017-09-12 | 2020-10-23 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN108229548A (zh) * | 2017-12-27 | 2018-06-29 | 华为技术有限公司 | 一种物体检测方法及装置 |
CN108509939A (zh) * | 2018-04-18 | 2018-09-07 | 北京大学深圳研究生院 | 一种基于深度学习的鸟类识别方法 |
CN208402023U (zh) * | 2018-06-12 | 2019-01-18 | 扬州大学 | 一种基于树莓派的区域鸟类信息采集系统 |
CN109101926A (zh) * | 2018-08-14 | 2018-12-28 | 河南工业大学 | 基于卷积神经网络的空中目标检测方法 |
CN109460774B (zh) * | 2018-09-18 | 2022-04-22 | 华中科技大学 | 一种基于改进的卷积神经网络的鸟类识别方法 |
CN109246397A (zh) * | 2018-11-02 | 2019-01-18 | 上海交通大学 | 多路摄像机智能跟踪拍摄鸟群种类样本方法和系统 |
-
2019
- 2019-04-23 CN CN201910327366.2A patent/CN110059641B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157246A (zh) * | 2016-06-28 | 2016-11-23 | 杭州电子科技大学 | 一种全自动的快速柱面全景图像拼接方法 |
CN108022302A (zh) * | 2017-12-01 | 2018-05-11 | 深圳市天界幻境科技有限公司 | 一种Inside-Out空间定位的AR立体显示装置 |
CN108111818A (zh) * | 2017-12-25 | 2018-06-01 | 北京航空航天大学 | 基于多摄像机协同的运动目标主动感知方法和装置 |
Non-Patent Citations (1)
Title |
---|
多层显微图像的自动拼接方法;岳永娟等;《计算机辅助设计与图形学学报》;20060720;第18卷(第07期);959-964 * |
Also Published As
Publication number | Publication date |
---|---|
CN110059641A (zh) | 2019-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059641B (zh) | 基于多预置点的深度鸟类识别算法 | |
Beery et al. | Recognition in terra incognita | |
CN109389161B (zh) | 基于深度学习的垃圾识别进化学习方法、装置、系统及介质 | |
CN108875821A (zh) | 分类模型的训练方法和装置、移动终端、可读存储介质 | |
CN109544501B (zh) | 一种基于无人机多源图像特征匹配的输电设备缺陷检测方法 | |
CN109214280B (zh) | 基于街景的店铺识别方法、装置、电子设备及存储介质 | |
CN108960290A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN106844492B (zh) | 一种人脸识别的方法、客户端、服务器及系统 | |
CN110321956B (zh) | 一种基于人工智能的牧草病虫害治理方法及装置 | |
CN109978918A (zh) | 一种轨迹追踪方法、装置和存储介质 | |
US20200226360A1 (en) | System and method for automatically detecting and classifying an animal in an image | |
CN109344738A (zh) | 农作物病虫草害识别方法及装置 | |
CN110717058B (zh) | 信息推荐方法及装置、存储介质 | |
CN108764018A (zh) | 一种基于卷积神经网络的多任务车辆再识别方法及装置 | |
CN108228792A (zh) | 图片检索方法、电子设备及存储介质 | |
CN109871821A (zh) | 自适应网络的行人重识别方法、装置、设备及存储介质 | |
JP6787831B2 (ja) | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 | |
US11663799B1 (en) | Smart image tagging and selection on mobile devices | |
CN112348003A (zh) | 基于深度卷积神经网络的飞机加油场景识别方法及系统 | |
CN105468789A (zh) | 基于无人飞行器拍摄的图像处理装置及其图像处理方法 | |
CN112947519A (zh) | 一种无人机的巡检方法、装置及边缘计算模块 | |
CN111125290A (zh) | 一种基于河长制的智能巡河方法、装置及存储介质 | |
CN110309810A (zh) | 一种基于批次中心相似度的行人重识别方法 | |
CN109284740A (zh) | 对鼠情进行统计的方法、装置、设备以及存储介质 | |
CN116958961A (zh) | 一种基于改进YOLOv8s的轻量级石榴识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |