CN112883978A - 一种基于神经网络的座位识别方法 - Google Patents

一种基于神经网络的座位识别方法 Download PDF

Info

Publication number
CN112883978A
CN112883978A CN202110251068.7A CN202110251068A CN112883978A CN 112883978 A CN112883978 A CN 112883978A CN 202110251068 A CN202110251068 A CN 202110251068A CN 112883978 A CN112883978 A CN 112883978A
Authority
CN
China
Prior art keywords
seat
image
cutting block
taking
long oblique
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110251068.7A
Other languages
English (en)
Inventor
邓明杰
韦美华
田焕
陈志荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University of Technology
Original Assignee
Ningbo University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University of Technology filed Critical Ningbo University of Technology
Priority to CN202110251068.7A priority Critical patent/CN112883978A/zh
Publication of CN112883978A publication Critical patent/CN112883978A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于神经网络的座位识别方法,S1、获取摄像头至少倾斜拍摄的具有一张完整桌面的视频流,并截取该视频流中的多帧图像;S2、将S1中的多帧图像构建成训练集和测试集;S3、对训练集中的每帧图像按照座位进行图像切割,得到切割完成的每个座位图像;S4、将训练集中每帧图像切割完成的每个座位图像输入到神经网络中进行训练,得到训练完成的神经网络;S5、将测试集中的其中一帧图像采用S3中相同的方法进行图像切割,将切割完成的每个座位图像输入到训练完成的神经网络中,即得到每个座位的识别结果。本发明中通过切割块对图像进行分割,减少了图像识别复杂度,提高了图像识别准确率。

Description

一种基于神经网络的座位识别方法
技术领域
本发明涉及图像处理领域,特别涉及一种基于神经网络的座位识别方法。
背景技术
图书馆、自习室等公共区域存在的意义主要在于它所包含的学习资源。有史以来座位管理都是管理界中的一个难题,不仅仅是因为实际上的座位配备不足,还存在异常严重的占座问题:有些读者经常使用书包等私人物品一人占两个座位;还有的读者会长时间离开,但是却不带走自己的私人物品,所以经常出现无人却也无座的现象。所以经常发生座位方面的纠纷问题,由于人力和管理成本太高,管理单位无法安排管理人员时刻监督读者的行为。并且,传统意义上的座位管理不能很好地满足用户的使用需求,比如无法直观显示座位的使用状态,尤其是在作为资源紧张的时候,用户往往需要耗费大量的时间在各个区域里一间间自习室挨个找位置,这不仅消耗了寻找位置的用户的时间,自习室内人员的频繁走动也会影响区域内学习的人的专注程度。
有申请号为CN201910297328.7(公布号为CN110059611A)的中国发明专利公开了一种智能化教室空余座位识别方法,包括:摄像头拍摄教室内座位图像;计算服务器对拍摄到的座位图像进行图像标定,计算出座位图像区域左下、右下、左上、右上4个角点的坐标,4个角点的坐标围成主视区域;计算服务器将主视区域进行梯形校正,利用透视变换将主视区域拉伸为矩形,得到校正图像;计算服务器利用深度学习模型对校正图像中人的位置进行检测,得到校正图像中每个人的中心点坐标,若坐标落在座位区域,则此座位有人,否则,则无人。上述识别方法识别准确,适应性强可广泛应用于高校教室综合管理系统中。但由于上述识别方法中需要对单个座位图像进行图像识别,但由于图书馆等其他场所的桌子为一个整体,一个桌子上设有多个座位,摄像头拍摄的某个座位上的人的投影还会在相邻的另一个座位上,因此这种情况下上述座位识别方法并不适用,识别难度高。
发明内容
本发明所要解决的技术问题是针对现有技术的现状,提供一种减少了图像识别复杂度且提高了图像识别准确率的基于神经网络的座位识别方法。
本发明解决上述技术问题所采用的技术方案为:一种基于神经网络的座位识别方法,其特征在于:包括以下步骤:
S1、获取摄像头至少倾斜拍摄的具有一张完整桌面的视频流,并截取该视频流中的多帧图像;
S2、将S1中的多帧图像构建成训练集和测试集;
S3、对训练集中的每帧图像按照座位进行图像切割,得到切割完成的每个座位图像;
其中,具体的图像切割方法为:
S3-1、对任意一帧图像进行预处理,得到第一图像;
S3-2、对第一图像进行边缘检测,得到第一图像边缘化后的图像,记为第二图像;
S3-3、对S3-2中的第二图像提取轮廓,得到至少一个完整桌面的平行四边形轮廓;
S3-4、建立每个座位的切割块,并使用每个座位的切割块对该帧图像所对应的原始图像进行切割,得到每个座位图像;
其中在一个完整桌面的平行四边形轮廓上建立座位切割块的具体步骤为:
S3-41、将平行四边形上靠近摄像头的长斜边记为第一长斜边,另外一个长斜边记为第二长斜边,另外,桌子的单面或双面设置有座位,即:第一长斜边和/或第二长斜边设置有座位;
S3-42、根据座位的个数对平行四边形的第一长斜边和第二长斜边进行均分,得到平行四边形的两长斜边上的均分点;
S3-43、建立每个座位的切割块,其中,每个座位的切割块的宽度和高度均为预设值;
具体为:
对于第一长斜边上的座位采用以下方法建立切割块:其中,第一长斜边上按照距离摄像头从近到远依次记为第1座位、第2座位、…第N座位;N为座位总个数;
对于第1座位,以中点为该第1座位对应在第一长斜边上顶点的竖直边作为第1座位切割块的第一竖向边,以经过第一长斜边上第2座位中点、并与第1座位切割块的第一竖向边之间的距离为预设宽度的竖直边作为第1座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为该第1座位的切割块;
对于第j座位,以中点为第一长斜边上第j座位和第j-1座位共同均分点的竖直边作为第j座位切割块的第一竖向边,以经过第一长斜边上第j+1座位中点、并与第j座位切割块的第一竖向边之间的距离为预设宽度的竖直边作为第j座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为该第j座位的切割块;j=2、3、…N-1;
对于第N座位,以中点为第一长斜边上第N座位和第N-1座位共同均分点的竖直边作为第N座位切割块的第一竖向边,并将远离该座位方向设置的、与第N座位切割块的第一竖向边之间的距离为预设宽度的竖直线作为第N座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为第N座位的切割块;
对于第二长斜边上的座位采用以下方法建立切割块:其中,第二长斜边上按照距离摄像头从近到远依次记为第1’座位、第2’座位、…第N’座位;
对于第1’座位,以中点为该第1’座位上对应在第二长斜边上顶点的横线作为第1’座位切割块的其中一横向边,并以该横向边向上延伸而形成的高度为预设值的矩形作为第1’座位的切割块;
对于第i’座位,以中点为第二长斜边上第i’座位与第(i-1)’座位共同均分点的横线作为i’座位切割块的其中一横向边,并以该横向边向上延伸而形成的高度为预设值的矩形作为第i’座位的切割块;i’=2’、3’、…N’;
S4、将训练集中每帧图像切割完成的每个座位图像输入到神经网络中进行训练,得到训练完成的神经网络;
S5、将测试集中的其中一帧图像采用S3中相同的方法进行图像切割,将切割完成的每个座位图像输入到训练完成的神经网络中,即得到每个座位的识别结果。
优选的,所述S3-2中边缘检测的具体算法为HED网络。HED网络输入的是原图像,输出的是二值图,因此适用于实时监测且边缘提取精确度高。
作为改进,所述S3-3中的具体步骤为:
S3-31、对第二图像进行Hough-Line直线检测,得到第三图像;
S3-32、将第三图像中得到的线段延长成直线,得到第四图像;
S3-33、利用第四图像中的直线作为参考,将第三图像短线段合并成一条长线段得到第五图像;
S3-34、计算出第五图像中得到的长线段的交点坐标,其中,临近的交叉点进行合并;
S3-35、对得到的所有交叉点,每次取四个,判断这四个点组成的四边形是否是一个平行四边形,如是,则该四边形为提取出的桌面轮廓,结束;如否,则该四边形不是最终提取出的桌面轮廓,并继续选取其他4个交叉点进行判断。
本方案中,所述S3-43中每个座位的切割块均为大小相同的矩形。
进一步的,所述S4中使用的神经网络为YOLO网络。
与现有技术相比,本发明的优点在于:通过先对提取出的桌面的平行四边形轮廓建立每个座位的切割块,再通过对每个座位切割块切割后的座位图像进行识别,以得到每个座位的识别结果。因此本方法中通过切割块对图像进行分割,便于后续座位的状态识别,减少了图像识别复杂度,提高了图像识别准确率。
附图说明
图1为本发明实施例中座位识别方法的流程图;
图2为图1中图像切割方法的流程图;
图3为图1中建立每个座位切割块的示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明的座位识别方法主要应用对图书馆、自习室等公共区域的座位进行识别,以及时获取每个座位上是否有人使用的情况,在图书馆、自习室等公共区域基本上都安装有高清摄像头,另外,高清摄像头一般都安装在图书馆或自习室等区域的高处,呈俯拍状态,通常情况下为了获取更大拍摄视角,摄像头则处于房间的顶角进行拍摄,从而使拍摄的桌子呈一定角度倾斜的平行四边形。
本发明中主要用于对高清摄像头倾斜拍摄的桌子图像进行实时识别,如图1所示,具体为:一种基于神经网络的座位识别方法包括以下步骤:
S1、获取摄像头至少倾斜拍摄的具有一张完整桌面的视频流,并截取该视频流中的多帧图像;
S2、将S1中的多帧图像构建成训练集和测试集;
S3、对训练集中的每帧图像按照座位进行图像切割,得到切割完成的每个座位图像;
其中,如图2所示,具体的图像切割方法为:
S3-1、对任意一帧图像进行预处理,得到第一图像;
其中,为了提高边缘检测的准确度,当边缘检测需要输入二值化图像时,则该步骤中的预处理包括图像灰值化和图像二值化等操作;但如果后续边缘检测直接输入的是原图像的话则预处理为降噪等处理;
S3-2、对第一图像进行边缘检测,得到第一图像边缘化后的图像,记为第二图像;
本实施例中,边缘检测的具体算法为HED网络;通过HED网络作为边缘检测的方法比传统的Canny算法更加合理,另外,常见的YOLO和FCN神经网络模型不仅边缘化的精确度不够,结构较为复杂,并且运算量大,无法做到实时监测,因此本实施例中最优的还是采用HED网络,能得到更加精确的边缘图像;
S3-3、对S3-2中的第二图像提取轮廓,得到至少一个完整桌面的平行四边形轮廓;
对于公共区域摆放多张桌子的场景,提取出的每个桌面的平行四边形轮廓之间是不会重叠的;
具体步骤为:
S3-31、对第二图像进行Hough-Line直线检测,得到第三图像;
S3-32、将第三图像中得到的线段延长成直线,得到第四图像;
S3-33、利用第四图像中的直线作为参考,将第三图像短线段合并成一条长线段得到第五图像;
S3-34、计算出第五图像中得到的长线段的交点坐标,其中,临近的交叉点进行合并;
S3-35、对得到的所有交叉点,每次取四个,判断这四个点组成的四边形是否是一个平行四边形,如是,则该四边形为提取出的桌面轮廓,结束;如否,则该四边形不是最终提取出的桌面轮廓,并继续选取其他4个交叉点进行判断;
其中,平行四边形的判断条件可以是:两对边是否平行,边长的比值等,每条边是否可以和对应的交叉点的关联线段重合也是一很重要的判断条件,如果两者不能重合,则这个四边形就不是我们所希望检测出来的平行四边形;
S3-4、建立每个座位的切割块,并使用每个座位的切割块对该帧图像所对应的原始图像进行切割,得到每个座位图像;
如图3所示,其中在一个完整桌面的平行四边形轮廓上建立座位切割块的具体步骤为:
S3-41、将平行四边形上靠近摄像头的长斜边记为第一长斜边,另外一个长斜边记为第二长斜边,另外,桌子的单面或双面设置有座位,即:第一长斜边和/或第二长斜边设置有座位;
S3-42、根据座位的个数对平行四边形的第一长斜边和第二长斜边进行均分,得到平行四边形的两长斜边上的均分点;
S3-43、建立每个座位的切割块,其中,每个座位的切割块的宽度和高度均为预设值;
具体为:
对于第一长斜边上的座位采用以下方法建立切割块:其中,第一长斜边上按照距离摄像头从近到远依次记为第1座位、第2座位、…第N座位;N为座位总个数;
对于第1座位,以中点为该第1座位对应在第一长斜边上顶点的竖直边作为第1座位切割块的第一竖向边,以经过第一长斜边上第2座位中点、并与第1座位切割块的第一竖向边之间的距离为预设宽度的竖直边作为第1座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为该第1座位的切割块;
对于第j座位,以中点为第一长斜边上第j座位和第j-1座位共同均分点的竖直边作为第j座位切割块的第一竖向边,以经过第一长斜边上第j+1座位中点、并与第j座位切割块的第一竖向边之间的距离为预设宽度的竖直边作为第j座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为该第j座位的切割块;j=2、3、…N-1;
对于第N座位,以中点为第一长斜边上第N座位和第N-1座位共同均分点的竖直边作为第N座位切割块的第一竖向边,并将远离该座位方向设置的、与第N座位切割块的第一竖向边之间的距离为预设宽度的竖直线作为第N座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为第N座位的切割块;
对于第二长斜边上的座位采用以下方法建立切割块:其中,第二长斜边上按照距离摄像头从近到远依次记为第1’座位、第2’座位、…第N’座位;
对于第1’座位,以中点为该第1’座位上对应在第二长斜边上顶点的横线作为第1’座位切割块的其中一横向边,并以该横向边向上延伸而形成的高度为预设值的矩形作为第1’座位的切割块;
对于第i’座位,以中点为第二长斜边上第i’座位与第(i-1)’座位共同均分点的横线作为i’座位切割块的其中一横向边,并以该横向边向上延伸而形成的高度为预设值的矩形作为第i’座位的切割块;i’=2’、3’、…N’;
S4、将训练集中每帧图像切割完成的每个座位图像输入到神经网络中进行训练,得到训练完成的神经网络;其中,每个座位图像包括座位上有人或座位上无人两种情况,训练时以座位上有人的图像进行训练;本实施例中,使用的神经网络为YOLO网络;
S5、将测试集中的其中一帧图像采用S3中相同的方法进行图像切割,将切割完成的每个座位图像输入到训练完成的神经网络中,即得到每个座位的识别结果。
为了方便切割,上述S3-43中每个座位的切割块均为大小相同的矩形,当然,也可根据实际情况设置矩形或其他形状,每个座位的切割块对应的高度、宽度、形状以及每个均根据实际情况调整。
另外,上述每个座位的切割块主要是每个座位上人所在的区域进行切割,从而以实现后续的座位上是否有人的识别,当然,也可以根据上述相同的方法改变切割块的大小以实现每个座位上对应的桌面区域的切割,以实现座位上是否存在占座的情况,因此这种方法能实现图书馆或自习室等公共区域的座位管理,且实时监测性强。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种基于神经网络的座位识别方法,其特征在于:包括以下步骤:
S1、获取摄像头至少倾斜拍摄的具有一张完整桌面的视频流,并截取该视频流中的多帧图像;
S2、将S1中的多帧图像构建成训练集和测试集;
S3、对训练集中的每帧图像按照座位进行图像切割,得到切割完成的每个座位图像;
其中,具体的图像切割方法为:
S3-1、对任意一帧图像进行预处理,得到第一图像;
S3-2、对第一图像进行边缘检测,得到第一图像边缘化后的图像,记为第二图像;
S3-3、对S3-2中的第二图像提取轮廓,得到至少一个完整桌面的平行四边形轮廓;
S3-4、建立每个座位的切割块,并使用每个座位的切割块对该帧图像所对应的原始图像进行切割,得到每个座位图像;
其中在一个完整桌面的平行四边形轮廓上建立座位切割块的具体步骤为:
S3-41、将平行四边形上靠近摄像头的长斜边记为第一长斜边,另外一个长斜边记为第二长斜边,另外,桌子的单面或双面设置有座位,即:第一长斜边和/或第二长斜边设置有座位;
S3-42、根据座位的个数对平行四边形的第一长斜边和第二长斜边进行均分,得到平行四边形的两长斜边上的均分点;
S3-43、建立每个座位的切割块,其中,每个座位的切割块的宽度和高度均为预设值;
具体为:
对于第一长斜边上的座位采用以下方法建立切割块:其中,第一长斜边上按照距离摄像头从近到远依次记为第1座位、第2座位、…第N座位;N为座位总个数;
对于第1座位,以中点为该第1座位对应在第一长斜边上顶点的竖直边作为第1座位切割块的第一竖向边,以经过第一长斜边上第2座位中点、并与第1座位切割块的第一竖向边之间的距离为预设宽度的竖直边作为第1座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为该第1座位的切割块;
对于第j座位,以中点为第一长斜边上第j座位和第j-1座位共同均分点的竖直边作为第j座位切割块的第一竖向边,以经过第一长斜边上第j+1座位中点、并与第j座位切割块的第一竖向边之间的距离为预设宽度的竖直边作为第j座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为该第j座位的切割块;j=2、3、…N-1;
对于第N座位,以中点为第一长斜边上第N座位和第N-1座位共同均分点的竖直边作为第N座位切割块的第一竖向边,并将远离该座位方向设置的、与第N座位切割块的第一竖向边之间的距离为预设宽度的竖直线作为第N座位切割块的第二竖向边,并将两竖向边的两端分别相连而成的矩形作为第N座位的切割块;
对于第二长斜边上的座位采用以下方法建立切割块:其中,第二长斜边上按照距离摄像头从近到远依次记为第1’座位、第2’座位、…第N’座位;
对于第1’座位,以中点为该第1’座位上对应在第二长斜边上顶点的横线作为第1’座位切割块的其中一横向边,并以该横向边向上延伸而形成的高度为预设值的矩形作为第1’座位的切割块;
对于第i’座位,以中点为第二长斜边上第i’座位与第(i-1)’座位共同均分点的横线作为i’座位切割块的其中一横向边,并以该横向边向上延伸而形成的高度为预设值的矩形作为第i’座位的切割块;i’=2’、3’、…N’;
S4、将训练集中每帧图像切割完成的每个座位图像输入到神经网络中进行训练,得到训练完成的神经网络;
S5、将测试集中的其中一帧图像采用S3中相同的方法进行图像切割,将切割完成的每个座位图像输入到训练完成的神经网络中,即得到每个座位的识别结果。
2.根据权利要求1所述的基于神经网络的座位识别方法,其特征在于:所述S3-2中边缘检测的具体算法为HED网络。
3.根据权利要求1所述的基于神经网络的座位识别方法,其特征在于:所述S3-3中的具体步骤为:
S3-31、对第二图像进行Hough-Line直线检测,得到第三图像;
S3-32、将第三图像中得到的线段延长成直线,得到第四图像;
S3-33、利用第四图像中的直线作为参考,将第三图像短线段合并成一条长线段得到第五图像;
S3-34、计算出第五图像中得到的长线段的交点坐标,其中,临近的交叉点进行合并;
S3-35、对得到的所有交叉点,每次取四个,判断这四个点组成的四边形是否是一个平行四边形,如是,则该四边形为提取出的桌面轮廓,结束;如否,则该四边形不是最终提取出的桌面轮廓,并继续选取其他4个交叉点进行判断。
4.根据权利要求1~3任一项所述的基于神经网络的座位识别方法,其特征在于:所述S3-43中每个座位的切割块均为大小相同的矩形。
5.根据权利要求4所述的基于神经网络的座位识别方法,其特征在于:所述S4中使用的神经网络为YOLO网络。
CN202110251068.7A 2021-03-08 2021-03-08 一种基于神经网络的座位识别方法 Withdrawn CN112883978A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110251068.7A CN112883978A (zh) 2021-03-08 2021-03-08 一种基于神经网络的座位识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110251068.7A CN112883978A (zh) 2021-03-08 2021-03-08 一种基于神经网络的座位识别方法

Publications (1)

Publication Number Publication Date
CN112883978A true CN112883978A (zh) 2021-06-01

Family

ID=76055674

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110251068.7A Withdrawn CN112883978A (zh) 2021-03-08 2021-03-08 一种基于神经网络的座位识别方法

Country Status (1)

Country Link
CN (1) CN112883978A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792638A (zh) * 2021-09-07 2021-12-14 上海电力大学 基于Parallelogram-YOLOv4的火电厂雨排口污染物识别方法
CN114170573A (zh) * 2021-12-17 2022-03-11 福州大学 一种基于YOLO v5的校园图书馆的占座检测方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792638A (zh) * 2021-09-07 2021-12-14 上海电力大学 基于Parallelogram-YOLOv4的火电厂雨排口污染物识别方法
CN113792638B (zh) * 2021-09-07 2024-03-05 上海电力大学 基于Parallelogram-YOLOv4的火电厂雨排口污染物识别方法
CN114170573A (zh) * 2021-12-17 2022-03-11 福州大学 一种基于YOLO v5的校园图书馆的占座检测方法

Similar Documents

Publication Publication Date Title
CN110909732B (zh) 一种图中数据的自动提取方法
CN104766096B (zh) 一种基于多尺度全局特征和局部特征的图像分类方法
CN112883978A (zh) 一种基于神经网络的座位识别方法
CN101339612B (zh) 一种脸型轮廓的检测与分类方法
CN104573688B (zh) 基于深度学习的移动平台烟草激光码智能识别方法及装置
CN107679503A (zh) 一种基于深度学习的人群计数算法
CN103473950A (zh) 一种停车场车位监控方法
CN101853286B (zh) 视频缩略图智能选取方法
CN103824059A (zh) 一种基于视频图像序列的人脸表情识别方法
CN1312625C (zh) 基于游程邻接图的复杂背景彩色图像中字符提取方法
CN101833664A (zh) 基于稀疏表达的视频图像文字检测方法
CN106709484B (zh) 数字式仪表的数字识别方法
CN104778458B (zh) 一种基于纹理特征的纺织品花纹检索方法
CN101667245A (zh) 基于支持向量新颖检测分类器级联的人脸检测方法
CN105787522A (zh) 基于手写笔迹的书写态度评价方法及系统
CN108537787A (zh) 一种人脸图像的质量判定方法
CN108460833A (zh) 一种基于bim构建传统建筑数字化保护与修复的信息平台
CN106886994A (zh) 一种基于深度相机的人流量智能检测装置和检测方法
CN102663491B (zh) 一种基于surf特征的高密度人群计数方法
CN107895140A (zh) 基于人脸肤色的色情图片识别办法
CN108596195A (zh) 一种基于稀疏编码特征提取的场景识别方法
CN106910195A (zh) 一种网页页面布局监测方法及装置
CN111259844B (zh) 标准化考场考生实时监控方法
CN112906703A (zh) 一种基于座位管理的图像切割方法
Li et al. Window detection in facades using heatmap fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210601