CN110287892A - 空位识别方法及装置 - Google Patents
空位识别方法及装置 Download PDFInfo
- Publication number
- CN110287892A CN110287892A CN201910563660.3A CN201910563660A CN110287892A CN 110287892 A CN110287892 A CN 110287892A CN 201910563660 A CN201910563660 A CN 201910563660A CN 110287892 A CN110287892 A CN 110287892A
- Authority
- CN
- China
- Prior art keywords
- seat
- panoramic picture
- image
- specified region
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000001514 detection method Methods 0.000 claims abstract description 49
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 abstract description 6
- 230000015572 biosynthetic process Effects 0.000 abstract description 2
- 238000005755 formation reaction Methods 0.000 abstract description 2
- 238000012806 monitoring device Methods 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种空位识别方法及装置,该方法包括获取指定区域在无人场景下的第一全景图像;从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图;获取所述指定区域在有人场景下的第二全景图像;从所述第二全景图像中识别出座位和人体,根据识别出的座位与人体的位置关系确定出空座位,并将所述空座位标记在所述座位点阵图上。在本发明中,无需在座椅上安装任何设施,而是利用现有的监控设备,对空座和人体进行物体检测,可根据采集到的图像来生成座位点阵图,无需提供实地场景图,因此,不仅资源消耗小,且避免了因人工编号可能产生的映射错误的问题,并易于在各种公众场合部署。
Description
技术领域
本发明涉及图像识别领域,具体而言,涉及一种空位识别方法及装置。
背景技术
目前,在众多公共场所中,如图书馆、食堂、候车室等,部分时间处于十分拥挤的状态,所有位置几乎都被占满,因此,通过人工的方式来寻找空位比较困难。
虽然目前已经存在如图1所述的空位检测系统,但其实现方案需要在每个座椅底部或者旁边放置感应器,并将这些感应器和总控制器连接起来。当座椅承受重量时,给总控制器以无线或者有线的方式发送信号,总控制器就将此座椅的状态判别为有人。当人离开后,座椅承受重量变得很小,比设定的阈值更小,则判定座椅状态为无人。
对于现有的空座检测系统,其需要使用大量的传感器,以及总控制器,并且还需要场景为其提供实际真实的座位摆放地图。因为,需要给每一个座椅配置传感器,消耗的资源巨大,不利于系统的迁移。且考虑到实际场景下需要将每个座椅映射到点阵图中,这种结合真实地图的方式需要手工映射,在座椅数量庞大的情况下,工作量也很大,且容易映射错误。
发明内容
本发明实施例提供了一种空位识别方法及装置,以至少解决相关技术中的空座检测系统资源消耗大的问题。
根据本发明的一个实施例,提供了一种空位识别方法,包括:获取指定区域在无人场景下的第一全景图像;从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图;获取所述指定区域在有人场景下的第二全景图像;从所述第二全景图像中识别出座位和人体,根据识别出的座位与人体的位置关系确定出空座位,并将所述空座位标记在所述座位点阵图上。
其中,获取指定区域在无人场景下的第一全景图像,包括:通过多个摄像头从不同角度采集所述指定区域在无人场景下的图像;对采集到的多个图像进行图像矫正;通过图像特征匹配将所述多个图像拼接成所述第一全景图像。
其中,从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图,包括:将所述第一全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位;根据识别的所有座位的坐标位置关系生成所述指定区域的座位点阵图。
其中,获取所述指定区域在有人场景下的第二全景图像,包括:通过多个摄像头从不同角度采集所述指定区域在有人场景下的图像;对采集到的多个图像进行图像矫正;通过图像特征匹配将所述多个图像拼接成所述第二全景图像。
其中,从所述第二全景图像中识别出座位和人体,包括:将所述第二全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位和人体。
其中,该方法还包括:以预定时间间隔重新采集所述指定区域在有人场景下的第二全景图像;根据从重新采集的第二全景图像中确定出的空座位更新所述座位点阵图中的空座位。
其中,所述目标检测网络为faster R-CNN网络。
根据本发明的另一个实施例,提供了一种空位识别装置,包括:第一图像获取模块,用于获取指定区域在无人场景下的第一全景图像;第一目标检测模块,用于从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图;第二图像获取模块,用于获取所述指定区域在有人场景下的第二全景图像;第二目标检测模块,用于从所述第二全景图像中识别出座位和人体,根据识别出的座位与人体的位置关系确定出空座位,并将所述空座位标记在所述座位点阵图上。
其中,所述第一图像获取模块包括:多个摄像头,用于从不同角度采集所述指定区域在无人场景下的图像;第一图像矫正单元,用于对采集到的多个图像进行图像矫正;第一图像拼接单元,用于通过图像特征匹配将所述多个图像拼接成所述第一全景图像。
其中,所述第一目标检测模块包括:第一识别单元,用于将所述第一全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位;生成单元,根据识别的所有座位的坐标位置关系生成所述指定区域的座位点阵图。
其中,获取所述指定区域在有人场景下的第二全景图像,包括:多个摄像头,用于从不同角度采集所述指定区域在有人场景下的图像;第二图像矫正单元,用于对采集到的多个图像进行图像矫正;第二图像拼接单元,用于通过图像特征匹配将所述多个图像拼接成所述第二全景图像。
其中,从所述第二全景图像中识别出座位和人体,包括:第二识别单元,用于将所述第二全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位和人体。
其中,该装置还包括:定时器,用于设定重新采集所述第二全景图像的时间间隔。
根据本发明的又一个实施例,还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本发明的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
在本发明的上述实施例中,无需在座椅上安装任何设施,而是利用现有的监控设备,对空座和人体进行物体检测,可根据采集到的图像来生成座位点阵图,无需提供实地场景图,因此,不仅资源消耗小,且避免了因人工编号可能产生的映射错误的问题,并易于在其他公众场合部署。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据相关技术的空位检测系统示意图;
图2是根据本发明实施例的空位识别方法流程图;
图3是根据本发明实施例的空位识别装置的结构框图;
图4是根据本发明实施例对无人场景下的图像采集和处理示意图;
图5是根据本发明实施例对有人场景下的图像采集和处理示意图;
图6是根据本发明实施例的Faster R-CNN的网络结构示意图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
在本实施例中提供了一种空位识别方法,图1是根据本发明实施例的的方法流程图,如图2所示,该流程包括如下步骤:
步骤S202,获取指定区域在无人场景下的第一全景图像;
步骤S204,从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图;
步骤S206,获取所述指定区域在有人场景下的第二全景图像;
步骤S208,从所述第二全景图像中识别出座位和人体,根据识别出的座位与人体的位置关系确定出空座位,并将所述空座位标记在所述座位点阵图上。
在本实施例中,该指定区域可以为任何需要进行空位检测的公共场合,例如,图书馆、食堂、候车室等。
在上述步骤S202中,可通过多个摄像头从不同角度采集所述指定区域在无人场景下的图像,并对采集到的图像进行矫正,通过图像特征匹配将所述多个图像拼接成第一全景图像。
在上述步骤S204中,可将所述第一全景图像输入至目标检测网络中,例如,fasterR-CNN网络,以识别出所述指定区域的所有座位,根据识别的所有座位的坐标位置关系生成所述指定区域的座位点阵图。
在上述步骤S206中,可通过多个摄像头从不同角度采集所述指定区域在有人场景下的图像,对采集到的图像进行图像矫正,并通过图像特征匹配将所述多个图像拼接成所述第二全景图像。
在上述步骤S208中,可将所述第二全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位和人体,并根据识别出的座位与人体的位置关系确定出空座位,并将所述空座位标记在所述座位点阵图上。
由于,公共场合的空位情况是随时变化的,因此,可以以预定时间间隔重新采集所述指定区域在有人场景下的全景图像,根据从重新采集的全景图像中确定出的空座位,刷新所述座位点阵图。
在本发明的上述实施例中,针对公共场合座位资源紧张的场景,利用现有的摄像装置,采用图像处理的技术找出空位,从而减少人们等待的时间,也可以统计座椅的使用次数,及时维护座椅。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
在本实施例中还提供了一种空位识别装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”或“单元”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图3是根据本发明实施例的空位识别装置的结构框图,如图3所示,该装置包括第一图像获取模块10、第一目标检测模块20、第二图像获取模块30和第二目标检测模块40。
第一图像获取模块10用于获取指定区域在无人场景下的第一全景图像。
第一目标检测模块20用于从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图;
第二图像获取模块30用于获取所述指定区域在有人场景下的第二全景图像;
第二目标检测模块40用于从所述第二全景图像中识别出座位和人体,根据识别出的座位与人体的位置关系确定出空座位,并将所述空座位标记在所述座位点阵图上。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
下面通过一个具有的实施例对本发明所提供的空位识别装置及具体处理流程进行详细的描述。
在本实施例中,空位识别的整体流程主要分为如下两步:
第一步主要包括如下处理流程:采集无人场景下的图像,进行图像拼接,识别出座位,并将座位映射为点阵图。
如图4所示,可使用本地已经部署好的摄像头采集无人场景下的图片,根据摄像头类型进行相应的图像矫正,根据桌面的矩形轮廓进行图像角度矫正。根据不同摄像头拍摄到的图片中相互重叠的部分,估算图片间的匹配关系,将相邻的图片拼接起来,对拼接得到的全景图进行融合处理。将全景图送入faster R-CNN网络中,得到识别出的所有空位坐标,将坐标映射到点阵图上,实现座位的显示。
第二步主要包括:采集拥挤场景下的图片,进行图像拼接,识别出座位和人体,判断出空位,并将空位映射到点阵图。
如图5所示,第二步中的图像预处理和全景拼接处理方法可与第一步相同,接下来将拼接好的全景图送入网络中,得到座位及座位上的人体坐标,据此判断该座位是否有人,若判断为有人,则在第一步生成的点阵图上对应位置标记为有人,无人的情况处理方式相同,处理完成后设置定时器,每10s采集一次图像,刷新空座位信息。
在上述本实施例中,由于使用图像识别,因此可能需要对采集到的图像进行矫正。摄像头图像的失真主要为梯形失真、桶形失真,桶形失真主要是由鱼眼摄像头的视角造成。对失真的图像进行矫正有两种方法:平面模板方法,预先设定一个特殊的拍摄模板,获取其标准图像及畸变图像,利用两图之间预设的特殊关联获取两图像素点之间的映射关系,进而矫正图像;另一种方法是根据摄像头提供的相机参数进行矫正,这样免去像素点之间的比较,能够提高图像矫正的适用性,因此实施例可优选第二种方法进行图像矫正。
接下来进行图像匹配,根据采集到的图像中相互重叠的部分估算图像之间的匹配关系。匹配方式主要分为相关性匹配以及特征匹配,本实施例可采用特征匹配的方式。基于特征的匹配首先从图像上选取特征信息,然后识别出两幅图像对应的特征信息。常用的特征信息有特征轮廓,特征曲线,特征点,本发明中采用sift、surf等局部特征点,采用最近邻搜索算法匹配相邻图片中的特征点,进而估算图详见的投影变换矩阵,根据图像中的相互关系,将相邻图片拼接到一起。
得到全景图像后,将图像送入Faster R-CNN网络中。在本实施例中,采用图像处理的方式来检测图片中的座位和人体,涉及图像处理中的目标检测。目标检测是一种基于目标几何和统计特征的图像分割,将目标分割和目标识别结合起来,自动提取和识别目标。本实施例中优选的目标检测技术为faster R-CNN,此模型是经典物体检测模型,这个网络模型也是现今物体检测使用最多的模型。该网络通常分三个模块,首先图像经过backbone模块,提取出图像特征,生成特征图。第二个模块为RPN(Region Proposal Network)这个模块主要完成使用神经网络提取候选框的任务。第三个模块即为分类及识别模块,在识别之前,需要将特征图上得到的anchor通过ROI Pooling层,变为相同大小,再送入分类网络中。Faster R-CNN的结构图如图6所示。由于Faster R-CNN是本领域经典的物体检测模型,在此不进行累述。经过Faster R-CNN后,可得到图中识别物体。
在上述实施例中,第一步时,输入的图像为无人时的场景图像,并根据输出的座椅坐标生成对应的点阵图。第二步时输入正常情况下的场景图片,同时输出座椅和人体的坐标,根据座椅和人体间的距离关系判定当前座位是否为空座,并对应到之前生成的点阵图中,填充点阵图的状态。
在本实施例中,使用全景拼接方法将各方位摄像头拍摄到的图像拼接为一张全景图。使用Faster R-CNN检测座椅和人体,检测任务简单,无需其他外部设备。使用检测结果生成与实地场景对应的点阵图,无需获取实地场景提供的座椅信息。有效得将图像识别技术结合空位识别中,极大程度节省了人们日常找座位的时间,避免了时间浪费的同时,也不会耗费额外多余的资源。且使用图像拼接技术及坐标映射方法,可以便捷的将本系统迁移部署到多种场景,具有普适性。
本发明的实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (15)
1.一种空位识别方法,其特征在于,包括:
获取指定区域在无人场景下的第一全景图像;
从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图;
获取所述指定区域在有人场景下的第二全景图像;
从所述第二全景图像中识别出座位和人体,根据识别出的座位与人体的位置关系确定出空座位,并将所述空座位标记在所述座位点阵图上。
2.根据权利要求1所述的方法,其特征在于,获取指定区域在无人场景下的第一全景图像,包括:
通过多个摄像头从不同角度采集所述指定区域在无人场景下的图像;
对采集到的多个图像进行图像矫正;
通过图像特征匹配将所述多个图像拼接成所述第一全景图像。
3.根据权利要求2所述的方法,其特征在于,从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图,包括:
将所述第一全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位;
根据识别的所有座位的坐标位置关系生成所述指定区域的座位点阵图。
4.根据权利要求1所述的方法,其特征在于,获取所述指定区域在有人场景下的第二全景图像,包括:
通过多个摄像头从不同角度采集所述指定区域在有人场景下的图像;
对采集到的多个图像进行图像矫正;
通过图像特征匹配将所述多个图像拼接成所述第二全景图像。
5.根据权利要求4所述的方法,其特征在于,从所述第二全景图像中识别出座位和人体,包括:
将所述第二全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位和人体。
6.根据权利要求1至5任一项所述的方法,其特征在于,还包括:
以预定时间间隔重新采集所述指定区域在有人场景下的第二全景图像;
根据从重新采集的第二全景图像中确定出的空座位更新所述座位点阵图中的空座位。
7.根据权利要求6所述的方法,其特征在于,所述目标检测网络为faster R-CNN网络。
8.一种空位识别装置,其特征在于,包括:
第一图像获取模块,用于获取指定区域在无人场景下的第一全景图像;
第一目标检测模块,用于从所述第一全景图像中识别出所述指定区域的所有座位,并生成所述指定区域的座位点阵图;
第二图像获取模块,用于获取所述指定区域在有人场景下的第二全景图像;
第二目标检测模块,用于从所述第二全景图像中识别出座位和人体,根据识别出的座位与人体的位置关系确定出空座位,并将所述空座位标记在所述座位点阵图上。
9.根据权利要求8所述的装置,其特征在于,所述第一图像获取模块包括:
多个摄像头,用于从不同角度采集所述指定区域在无人场景下的图像;
第一图像矫正单元,用于对采集到的多个图像进行图像矫正;
第一图像拼接单元,用于通过图像特征匹配将所述多个图像拼接成所述第一全景图像。
10.根据权利要求9所述的装置,其特征在于,所述第一目标检测模块包括:
第一识别单元,用于将所述第一全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位;
生成单元,根据识别的所有座位的坐标位置关系生成所述指定区域的座位点阵图。
11.根据权利要求8所述的装置,其特征在于,获取所述指定区域在有人场景下的第二全景图像,包括:
多个摄像头,用于从不同角度采集所述指定区域在有人场景下的图像;
第二图像矫正单元,用于对采集到的多个图像进行图像矫正;
第二图像拼接单元,用于通过图像特征匹配将所述多个图像拼接成所述第二全景图像。
12.根据权利要求11所述的装置,其特征在于,从所述第二全景图像中识别出座位和人体,包括:
第二识别单元,用于将所述第二全景图像输入至目标检测网络中,以识别出所述指定区域的所有座位和人体。
13.根据权利要求8至12任一项所述的装置,其特征在于,还包括:
定时器,用于设定重新采集所述第二全景图像的时间间隔。
14.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至7任一项中所述的方法。
15.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至7任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910563660.3A CN110287892A (zh) | 2019-06-26 | 2019-06-26 | 空位识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910563660.3A CN110287892A (zh) | 2019-06-26 | 2019-06-26 | 空位识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110287892A true CN110287892A (zh) | 2019-09-27 |
Family
ID=68007527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910563660.3A Pending CN110287892A (zh) | 2019-06-26 | 2019-06-26 | 空位识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110287892A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111275002A (zh) * | 2020-02-18 | 2020-06-12 | 上海商汤临港智能科技有限公司 | 一种图像处理方法、装置及电子设备 |
CN113128729A (zh) * | 2021-04-25 | 2021-07-16 | 宁波芥子科技有限公司 | 基于实景图的座位预定方法和系统 |
CN113642454A (zh) * | 2021-08-11 | 2021-11-12 | 汇纳科技股份有限公司 | 座椅使用情况的识别方法、系统、设备及计算机存储介质 |
CN114663830A (zh) * | 2022-03-04 | 2022-06-24 | 山东巍然智能科技有限公司 | 一种基于图结构匹配的多相机场景下的人数计算方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770642A (zh) * | 2008-12-26 | 2010-07-07 | 深圳先进技术研究院 | 一种车内人数计数方法和系统 |
CN104732219A (zh) * | 2015-03-31 | 2015-06-24 | 合肥美诚创新培训学校 | 一种基于图像识别的自习室空位查询方法及装置 |
CN105376530A (zh) * | 2015-10-27 | 2016-03-02 | 南京泓众电子科技有限公司 | 一种基于固定位置的全景视频图像生成装置 |
US20160092733A1 (en) * | 2014-09-29 | 2016-03-31 | Xerox Corporation | System and method for seat occupancy detection from ceiling mounted camera using robust adaptive threshold criteria |
CN108305187A (zh) * | 2018-01-19 | 2018-07-20 | 中国计量大学 | 基于计算机视觉的食堂就餐导引系统 |
CN109785661A (zh) * | 2019-02-01 | 2019-05-21 | 广东工业大学 | 一种基于机器学习的停车引导方法 |
-
2019
- 2019-06-26 CN CN201910563660.3A patent/CN110287892A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770642A (zh) * | 2008-12-26 | 2010-07-07 | 深圳先进技术研究院 | 一种车内人数计数方法和系统 |
US20160092733A1 (en) * | 2014-09-29 | 2016-03-31 | Xerox Corporation | System and method for seat occupancy detection from ceiling mounted camera using robust adaptive threshold criteria |
CN104732219A (zh) * | 2015-03-31 | 2015-06-24 | 合肥美诚创新培训学校 | 一种基于图像识别的自习室空位查询方法及装置 |
CN105376530A (zh) * | 2015-10-27 | 2016-03-02 | 南京泓众电子科技有限公司 | 一种基于固定位置的全景视频图像生成装置 |
CN108305187A (zh) * | 2018-01-19 | 2018-07-20 | 中国计量大学 | 基于计算机视觉的食堂就餐导引系统 |
CN109785661A (zh) * | 2019-02-01 | 2019-05-21 | 广东工业大学 | 一种基于机器学习的停车引导方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111275002A (zh) * | 2020-02-18 | 2020-06-12 | 上海商汤临港智能科技有限公司 | 一种图像处理方法、装置及电子设备 |
CN113128729A (zh) * | 2021-04-25 | 2021-07-16 | 宁波芥子科技有限公司 | 基于实景图的座位预定方法和系统 |
CN113642454A (zh) * | 2021-08-11 | 2021-11-12 | 汇纳科技股份有限公司 | 座椅使用情况的识别方法、系统、设备及计算机存储介质 |
CN113642454B (zh) * | 2021-08-11 | 2024-03-01 | 汇纳科技股份有限公司 | 座椅使用情况的识别方法、系统、设备及计算机存储介质 |
CN114663830A (zh) * | 2022-03-04 | 2022-06-24 | 山东巍然智能科技有限公司 | 一种基于图结构匹配的多相机场景下的人数计算方法 |
CN114663830B (zh) * | 2022-03-04 | 2024-05-14 | 山东巍然智能科技有限公司 | 一种基于图结构匹配的多相机场景下的人数计算方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287892A (zh) | 空位识别方法及装置 | |
CN108596277B (zh) | 一种车辆身份识别方法、装置和存储介质 | |
Yeum et al. | Vision‐based automated crack detection for bridge inspection | |
CN109815843B (zh) | 图像处理方法及相关产品 | |
CN105518744B (zh) | 行人再识别方法及设备 | |
JP5837508B2 (ja) | 姿勢状態推定装置および姿勢状態推定方法 | |
US9165190B2 (en) | 3D human pose and shape modeling | |
Noh et al. | A new framework for background subtraction using multiple cues | |
JP7282851B2 (ja) | 装置、方法及びプログラム | |
US9942521B2 (en) | Automatic configuration of cameras in building information modeling | |
KR101374139B1 (ko) | 감시시스템의 영상 융합을 통한 객체 감시 방법 | |
CN107563265A (zh) | 一种远光灯检测方法及装置 | |
KR20180055070A (ko) | 재질 인식 및 재질 트레이닝을 수행하는 방법 및 장치 | |
US20160210728A1 (en) | Image processing system, image processing method, and recording medium | |
CN113822247B (zh) | 基于航拍影像的违章建筑识别方法及系统 | |
CN111753643B (zh) | 人物姿态识别方法、装置、计算机设备和存储介质 | |
CN110189373A (zh) | 一种基于视觉语义信息的快速重定位方法及装置 | |
KR102303779B1 (ko) | 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치 | |
Nyaruhuma et al. | Verification of 2D building outlines using oblique airborne images | |
CN107016348A (zh) | 结合深度信息的人脸检测方法、检测装置和电子装置 | |
CN105022999A (zh) | 一种人码伴随实时采集系统 | |
CN110516707B (zh) | 一种图像标注方法及其装置、存储介质 | |
CN116168351B (zh) | 电力设备巡检方法及装置 | |
CN113256691A (zh) | 一种目标跟踪方法、装置、设备和存储介质 | |
CN109916415A (zh) | 道路类型确定方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190927 |
|
RJ01 | Rejection of invention patent application after publication |