CN108027973A - 拥挤解析装置、拥挤解析方法以及拥挤解析程序 - Google Patents
拥挤解析装置、拥挤解析方法以及拥挤解析程序 Download PDFInfo
- Publication number
- CN108027973A CN108027973A CN201680052260.0A CN201680052260A CN108027973A CN 108027973 A CN108027973 A CN 108027973A CN 201680052260 A CN201680052260 A CN 201680052260A CN 108027973 A CN108027973 A CN 108027973A
- Authority
- CN
- China
- Prior art keywords
- crowded
- personage
- state
- crowding
- congestion information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
适当地判定区域的拥挤。拥挤解析装置(4)具备:人物分类部(43),根据对人物进行摄影而得到的动态图像来决定人数;移动轨迹决定部(44),决定各人物的移动轨迹;以及拥挤信息解析部(45),根据在该动态图像中被摄影的各人物的移动轨迹来决定这些人物的状态,根据人数和各人物的状态来判定拥挤度。
Description
技术领域
本发明涉及拥挤解析装置、拥挤解析方法以及拥挤解析程序。
背景技术
近年来,由于IT(Information Technology,信息技术)技术的发展,提供任何时候任何地点都能够确认实时地变化的车站的拥挤状况的服务。
在专利文献1的解决手段中,记载了“具备:运动信息生成部13,根据图像生成部11的图像列来计算运动信息;纹理信息生成部15,生成图像的纹理信息;基准运动信息生成部14,保持及更新作为运动的基准的基准运动信息;基准纹理信息生成部16,保持及更新用于判定人的有无的基准纹理信息;运动信息判定部18,判定是否有运动;纹理信息判定部19,判定是否有与人相同的纹理信息;以及停留判定部20,接受运动信息和纹理信息判定的结果,判定是存在还是不存在人,利用使用了运动的有无和纹理的类似度判定来判别各个区域的每个区域的各种状态,推测拥挤度,另外,提供拥挤状况的指标以及是否为异常状态的信息”。
现有技术文献
专利文献
专利文献1:日本特开2009-110152号公报
发明内容
拥挤是指大量的人聚集而混在一起。另外,在车站等中,不仅仅大量的人聚集是问题,作为其结果,妨碍移动也是问题。要求将这样的状况作为拥挤度进行判定。
根据专利文献1所记载的发明,作为各个区域的状态,输出停留区域、移动区域、噪声区域、前景区域,从而能够在进行拥挤判定单元的拥挤推测处理时针对区域的每个类别而进行测量。另外,记载了根据将移动区域的数量与停留区域的数量相加而得到的值、停留区域的比例、移动区域的比例来计算合计拥挤度。
在专利文献1中,未提及每单位面积的人数,只是记载了纹理信息判定部人不存在判定/纹理信息判定部人存在判定。但是,一般而言,即使存在移动区域、停留区域,只要每单位面积的人数少,也不能说是拥挤的。
因而,本发明的课题在于提供适当地判定区域的拥挤的拥挤解析装置、拥挤解析方法以及拥挤解析程序。
为了解决所述课题,本发明的拥挤解析装置具备:轨迹决定部,根据对人物进行摄影而得到的动态图像来决定人数和各所述人物的移动轨迹;以及拥挤信息解析部,根据在所述动态图像中被摄影的各所述人物的移动轨迹来决定该人物的状态,根据所述人数和各所述人物的状态来判定拥挤度。
关于其它手段,在具体实施方式之中进行说明。
根据本发明,在拥挤解析装置、拥挤解析方法以及拥挤解析程序中,能够适当地判定区域的拥挤。
附图说明
图1是示出拥挤解析系统的逻辑结构的框图。
图2是示出拥挤解析系统的硬件结构的框图。
图3是说明图像解析中的特征点提取和轨迹提取的图。
图4是说明图像解析中的人物分类和移动轨迹决定的图。
图5是示出拥挤度的判定和传送的方法的流程图。
图6是示出拥挤度的默认的第1判定条件的图形。
图7是示出拥挤度的活动用的第2判定条件的图形。
图8是示出拥挤度的第3判定条件的图形。
图9是示出拥挤度的第4判定条件的图形。
图10是示出传送到显示装置的热图的图。
图11是示出传送到显示装置的拥挤图像的图。
图12是示出拥挤图像的生成方法的流程图。
图13是示出人物的移动状态和静止状态的图标。
图14是示出拥挤图像的生成方法的变形例的流程图。
图15是示出变形例的人物的移动状态和静止状态的图标。
图16是示出变形例的人物的停留时间的图标。
图17是示出拥挤动态图像的生成方法的流程图。
图18是示出平均通过时间的计算方法的流程图。
图19是示出基于流畅性的拥挤度判定方法的流程图。
图20是流畅性评价的概念图。
(附图标记说明)
1:拥挤解析系统;2a、2b:影像摄影装置;3:影像存储装置;4:拥挤解析装置;40:影像输入部;41:特征点提取部;42:轨迹提取部;43:人物分类部;44:移动轨迹决定部(轨迹决定部);45:拥挤信息解析部;46:拥挤信息输出部(输出部);47:处理器;48a、48b:网络接口;49:存储装置;491:拥挤解析程序;492:拥挤信息数据库;5:显示装置;61:人物;62:特征点;63a~63c:轨迹;64a、64b:人物矩形;65a、65b:重心;66a、66b:人物移动轨迹;71:热图;72:拥挤图像;81、81L、81F、81B、81R:静态图标;82、82L、82F、82B、82R:动态图标;83a~83d:停留时间图标;N:网络。
具体实施方式
以下,参照各图和公式,详细地说明具体实施方式。
图1是示出拥挤解析系统1的逻辑结构的框图。
拥挤解析系统1构成为包括影像摄影装置2a、2b或者/以及影像存储装置3、拥挤解析装置4以及显示装置5。
影像摄影装置2a、2b例如为设置于车站等预定区域的模拟摄像机、IP摄像机等,对动态图像进行摄影而输出到拥挤解析装置4。以下,在不特别区分各影像摄影装置2a、2b时,仅记载为影像摄影装置2。影像存储装置3存储由摄像机摄影而得到的动态图像,将该存储的动态图像输出到拥挤解析装置4。影像摄影装置2a、2b或者/以及影像存储装置3的台数也可以为任意台。
显示装置5例如为设置有影像摄影装置2a、2b的车站的利用者所具有的便携终端,但也可以仅为监视显示器。
拥挤解析装置4是根据对车站等进行摄影而得到的动态图像来解析拥挤状况的装置。拥挤解析装置4具备影像输入部40、特征点提取部41、轨迹提取部42、人物分类部43、移动轨迹决定部44、拥挤信息解析部45、拥挤信息输出部46、拥挤信息数据库492的各部。
影像输入部40从模拟摄像机、IP摄像机获取对区域进行摄影而得到的动态图像。在从模拟摄像机获取动态图像时,影像输入部40捕获模拟的影像信号,变换为数字信号。在从IP(Internet Protocol:互联网协议)摄像机获取动态图像时,影像输入部40经由IP网络接收动态图像流。
特征点提取部41提取构成动态图像的各帧中的边缘、角等特征性的部分。轨迹提取部42遍及多个帧而追踪特征点提取部41提取出的特征点,从相同的特征点提取轨迹。
人物分类部43通过汇总轨迹提取部42提取出的轨迹中的类似的轨迹,从而针对每个人物对轨迹进行分类。人物分类部43进而根据分类出的轨迹来判定区域的人数。
移动轨迹决定部44根据由人物分类部43分类出的特征点的轨迹来求出各人物的重心,使用该重心的轨迹来决定人物的移动轨迹。这些影像输入部40、特征点提取部41、轨迹提取部42、人物分类部43、移动轨迹决定部44作为根据对人物进行摄影而得到的动态图像来决定人数和各人物的移动轨迹的轨迹决定部发挥功能。此外,本发明只要根据动态图像来决定区域的人数和各人物的移动轨迹即可,其结构不限定于本实施方式。
拥挤信息解析部45判定人数和状态,根据该人数和状态来判定拥挤度。进而,拥挤信息解析部45生成拥挤图像、热图,进行通过人数的计数。
拥挤信息数据库492是储存拥挤信息解析部45使用的各种信息、拥挤信息解析部45输出的各种信息的数据库。在附图中,将拥挤信息数据库492简记为“拥挤信息DB”。
拥挤信息输出部46传送(输出)表示拥挤信息解析部45判定出的结果的拥挤图像、热图,传送(输出)拥挤信息解析部45判定出的拥挤度。拥挤信息输出部46既可以直接将拥挤度输出到显示装置5,另外也可以经由服务器等将拥挤度传送到显示装置5。
图2是示出拥挤解析系统1的硬件结构的框图。
拥挤解析系统1与图1同样地构成为包括影像摄影装置2a、2b或者/以及影像存储装置3、拥挤解析装置4以及显示装置5,还包括网络N。网络N能够通信地连接显示装置5和拥挤解析装置4,例如为载波网络。
拥挤解析装置4例如为服务器计算机,构成为包括处理器47、网络接口48a、48b、存储装置49。处理器47、网络接口48a、48b以及存储装置49经由总线相互连接。
存储装置49例如为HDD(Hard Disk Drive,硬盘驱动器)、闪存存储器,储存拥挤解析程序491和拥挤信息数据库492。此外,存储装置49也可以为介质读取器(media reader)与介质的组合。
网络接口48a是能够通信地连接影像摄影装置2a、2b或者/以及影像存储装置3和拥挤解析装置4的接口。网络接口48b是能够通信地连接显示装置5和拥挤解析装置4的接口。
处理器47例如构成为包括CPU(Central Processing Unit,中央处理单元)、ROM(Read Only Memory,只读存储器)、RAM(Random Access Memory,随机存取存储器)。通过由处理器47执行拥挤解析程序491,从而实现影像输入部40、特征点提取部41、轨迹提取部42、人物分类部43、移动轨迹决定部44、拥挤信息解析部45、拥挤信息输出部46(参照图1)。
图3是说明图像解析中的特征点提取和轨迹提取的图。
图3的帧F1~F3分别表示时间轴不同的帧。帧F1为时刻t的帧。帧F2为时刻(t+1)的帧,在帧F1之后被摄影。帧F3为时刻(t+2)的帧,在帧F2的之后被摄影。
在帧F1中,用实线显示被摄影的人物61。在该帧F1中还显示由特征点提取部41提取出的、与人物61有关的特征点62a~62c。以下,在不特别区分各特征点62a~62c时,简记为特征点62。
在帧F2中,用实线显示人物61,用细线显示帧F1的人物61p。在该帧F2中,还显示由特征点提取部41提取出的、与人物61有关的特征点62a~62c。在各特征点62a~62c处,在其左侧描绘有由轨迹提取部42提取出的轨迹63a~63c。以下,在不特别区分各轨迹63a~63c时,简记为轨迹63。
能够利用时刻(t+1)的各特征点62a~62c和时刻t的各特征点62a~62c来描绘轨迹63a~63c。在从各特征点62描绘轨迹63时,例如既可以使用Lucas-Kanade法,也可以使用粒子滤波器、卡尔曼滤波器,不被限定。
在帧F3中,用实线显示人物61,用细线显示帧F1的人物61p和帧F2的人物61q。在该帧F3中,利用特征点提取部41提取出与人物61有关的特征点62a~62c。在各特征点62a~62c处,利用轨迹提取部42在其左侧描绘出轨迹63a~63c。能够利用时刻(t+2)的各特征点62a~62c和时刻(t+1)的各特征点62a~62c来描绘轨迹63a~63c。以后重复同样的处理,从而能够得到各特征点的移动轨迹。
图4是说明图像解析中的人物分类和移动轨迹决定的图。
图4的帧F11~F13表示时刻(t+N)的帧。在帧F11中,示出了与人物61a、61b有关的特征点62。
在帧F12中,仅显示有特征点62。人物分类部43按照考虑了当前和过去的位置信息的聚类对这些特征点62进行分类。帧F13示出对特征点62进行分类而得到的结果。
在帧F13中显示各特征点62和由人物分类部43分类出的作为特征点62的外接矩形的人物矩形64a、64b。进而,在帧F13中显示与分类出的特征点62相关的人物61a、61b的重心65a、65b、以及根据各重心65a、65b的轨迹而决定的人物移动轨迹66a、66b。移动轨迹决定部44决定由人物分类部43分类出的作为特征点62的外接矩形的人物矩形64a、64b,根据各人物61a、61b的特征点62来决定重心65a、65b。移动轨迹决定部44进而根据各重心65a、65b的轨迹来决定人物移动轨迹66a、66b。以下,在不特别区分人物移动轨迹66a、66b时,简记为人物移动轨迹66。
图5是示出拥挤度的判定和传送的方法的流程图。
最初,拥挤信息解析部45<参照图1>判断在该车站中是否在举行某种活动(步骤S10)。如果在举行活动,则拥挤信息解析部45将判定条件设定为活动用条件(步骤S12)。如果未举行活动,则拥挤信息解析部45将判定条件设定为默认条件(步骤S11)。该判定条件在后述步骤S20中使用。
通过这样做,拥挤信息解析部45能够在考虑了在活动时一般设想的拥挤的基础上,进而判定是否拥挤。
接下来,人物分类部43<参照图1>获取动态图像所包含的画面(帧)中的人数(步骤S13)。拥挤信息解析部45关于该画面中的所有人物,重复步骤S14~S19的处理。
拥挤信息解析部45关注于该画面中的一个人,获取该人物的移动速度<步骤S15>。该人物的移动速度根据移动轨迹决定部44<参照图1>决定的人物移动轨迹66(参照图4)而决定。
拥挤信息解析部45判定该人物的移动速度是否超过预定值(步骤S16)。如果该人物的移动速度超过预定值,则拥挤信息解析部45将该人物的状态判定为“移动”(步骤S17)。如果该人物的移动速度未超过预定值,则拥挤信息解析部45将该人物的状态判定为“静止”(步骤S18)。
拥挤信息解析部45在关于该画面中的所有人物而重复步骤S14~S19的处理之后,根据人数、状态以及判定条件来判定拥挤度<步骤S20>。该判定条件的详细内容在后述图6至图9中详细地进行说明。
拥挤信息输出部46将判定出的拥挤度传送(输出)到显示装置5(参照图1)(步骤S21),结束图5的处理。
显示装置5的利用者能够根据传送到显示装置5的拥挤度而适合地知晓该车站的拥挤状况。
该拥挤度涉及作为处理对象的1台影像摄影装置2摄影的区域。拥挤信息解析部45通过计算设置于车站的多个影像摄影装置2摄影的各区域的拥挤度的平均,从而能够进一步计算作为车站整体的拥挤度。拥挤信息解析部45既可以计算该瞬间的拥挤度,也可以计算预定期间的平均的拥挤度。进而,拥挤信息解析部45也可以计算与作为处理对象的1台影像摄影装置2摄影的区域中的一部分有关的拥挤度。
图6是示出拥挤度的默认的第1判定条件的图形。
以下的图6至图9所示的图形的横轴为存在于预定区域内的人数,例如是指画面内的人数。图形的纵轴的状态为存在于预定区域内的人的状态,例如是指移动状态的人数与静止状态的人数的比例。
拥挤度根据人数和状态而判定。人数越多,拥挤度越高。即使人数相同,如果静止状态的人数比例高,则拥挤度也变高。这是因为如果移动状态的人数比例高,则意味着能够自由地移动,所以不能说拥挤度高。
在拥挤度的第1判定条件中,拥挤度1是状态的值y比以下的式(1)小的情况。边界线91a对应于式(1),是区别拥挤度1和拥挤度2的边界。在为拥挤度1的情况下,人数少,也没有停留。
[式1]
y=-a1x+b1…(1)
其中y:状态的值
x:人数
a1>0,b1>常数
此外,在本实施方式中,拥挤度用1至4的数值表示。拥挤度1意味着拥挤度最低的状态。
拥挤度2是状态的值y比以下的式(2)小且为式(1)以上的情况。边界线92a对应于式(2),是区别拥挤度2和拥挤度3的边界。在为拥挤度2的情况下,人数少,停留也并不那么多。
[式2]
y=-a2x+b2…(2)
其中,a2>a1,b2>b1
拥挤度3是状态的值y比以下的式(3)小且为式(2)以上的情况。边界线93a对应于式(3),是区别拥挤度3和拥挤度4的边界。在为拥挤度3的情况下,虽然人数少但发生了停留,或者即使未发生停留但人数也相当多。
[式3]
y=-a3x+b3…(3)
其中,a3>a2,b3>b2
拥挤度4是状态的值y为式(3)以上的情况。此时,人数多,或者发生了停留。
图7是示出拥挤度的活动时的第2判定条件的图形。
在活动时,边界线91b位于比边界线91a靠右上的位置。边界线92b位于比边界线92a靠右上的位置。边界线93b位于比边界线93a靠右上的位置。通过这样判定,从而能够在考虑了在活动时一般设想的拥挤的基础上进而判定是否拥挤。
在这些第1、第2判定条件下,仅通过加法和乘法计算出拥挤度的边界,所以能够减小计算负荷。
图8是示出拥挤度的第3判定条件的图形。
在拥挤度的第3判定条件下,拥挤度1是状态的值y比以下的式(4)小的情况。边界线91c对应于式(4),是区别拥挤度1和拥挤度2的边界。
[式4]
其中,
拥挤度2是状态的值y比以下的式(5)小且为式(4)以上的情况。边界线92c对应于式(5),是区别拥挤度2和拥挤度3的边界。
[式5]
其中,
拥挤度3是状态的值y比以下的式(6)小且为式(5)以上的情况。边界线93c对应于式(6),是区别拥挤度3和拥挤度4的边界。
[式6]
其中,
拥挤度4是状态的值y为式(6)以上的情况。
这些拥挤度的第1~第3判定条件都是人数越多则判定为拥挤度越高、且各人物的静止比例越多则判定为拥挤度越高这样的条件。这样,根据人物和各人物的状态而判定出拥挤度,所以能够判定接近人的感觉且有用的拥挤度。
图9是示出拥挤度的第4判定条件的图形。
在拥挤度的第4判定条件下,拥挤度1是状态的值y比状态阈值小且人数x比第1阈值小的情况。
拥挤度2是状态的值y比状态阈值小且人数x为第1阈值以上的情况。
拥挤度3是状态的值y为状态阈值以上且人数x比第2阈值小的情况。拥挤度4是状态的值y为状态阈值以上且人数x为第2阈值以上的情况。由此,能够比第1~第3判定条件简单地判定拥挤度。
图10是示出传送到显示装置5的热图71的图。
热图71是利用颜色、浓度对车站的内部地图重叠显示拥挤度而得到的。由此,显示装置5的用户能够容易地察觉该车站的内部的拥挤状况。显示于该热图71的各放大镜图标85a~85h分别表示影像摄影装置2。用户通过点击放大镜图标85a~85h中的任意一个,能够阅览基于对应的影像摄影装置2的拥挤图像72(参照图11)。
该热图71例如是通过利用颜色、浓度对车站的内部地图的各区域重叠显示图5中计算出的拥挤度而生成的。
图11是示出传送到显示装置5的拥挤图像72的图。
拥挤图像72构成为在未摄影有人物的背景图像之上配置表示人物的图标。在该拥挤图像72中配置有多个静态图标81和多个动态图标82。拥挤解析装置4未直接传送摄影图像,所以能够保护被摄影者的隐私。
静态图标81为黄色,动态图标82为紫色。该黄色和紫色是即使是具有红色盲、绿色盲等色觉异常的人,其大多数也能够识别的颜色的组合。根据这些静态图标81和动态图标82的密度和静态图标81与动态图标82的比例,用户能够直观地觉察拥挤度。
在拥挤图像72的下部显示有拥挤度条73。拥挤度条73显示有表示拥挤度的条状图以及与该拥挤度相关的时刻。由此,各用户能够适当地知晓车站的拥挤度。
图12是示出拥挤图像72的生成方法的流程图。
最初,人物分类部43<参照图1>获取动态图像所包含的画面(帧)中的人数(步骤S30)。拥挤信息解析部45关于该画面中的所有人物而重复步骤S31~S39的处理。
拥挤信息解析部45获取各人物的状态为移动/静止中的任意一个(步骤S32),判定该人物是否为移动状态(步骤S33)。此外,步骤S32的处理与图5所示的步骤S15~S18的处理相同。
如果该人物为移动状态,则拥挤信息解析部45获取其移动方向(步骤S34),生成与移动方向相应的动态图标82(步骤S35)。进而,如果该人物不为移动状态,拥挤信息解析部45获取其停留时间(步骤S36),生成与停留时间相应的静态图标81(步骤S37)。
之后,拥挤信息解析部45对背景图像重叠加工所生成的图标(步骤S38)。
拥挤信息解析部45关于该画面中的所有人物而重复步骤S31~S39的处理。之后,拥挤信息输出部46将所生成的拥挤图像72(参照图11)传送(输出)到显示装置5(步骤S40),结束图12的处理。
由此,拥挤解析装置4能够对用户的显示装置5传送(输出)拥挤图像72(参照图11)。
此外,拥挤信息解析部45也可以不仅作为各人的状态而判定移动/静止中的任意一个,还判定行李的有无。行李的有无例如能够通过行李箱、手提包的图像数据库与帧图像的对照来判定。此时,拥挤信息解析部45能够赋予表示行李的有无的图标。由此用户能够容易地觉察由于具有行李箱、手提包等行李的人物而拥挤的状况。
另外,拥挤信息解析部45也可以在具有行李的人物的比例多时以调高拥挤度的等级的方式进行判定。由此,用户能够容易地觉察由于该人物所具有的行李空间被占用,区域拥挤的状况。
进而,拥挤信息解析部45也可以作为各人的状态而判定人物的性别、人物的年龄等属性。人物的性别、人物的年龄等属性例如能够通过面部图像数据库与帧图像的对照来判定。此时,拥挤信息解析部45能够赋予表示人物的性别、人物的年龄等属性的图标。由此,用户能够容易地觉察由于怎样的属性的人物而拥挤。
另外,拥挤信息解析部45也可以在具有特性的属性的人物的比例多时调整拥挤度的等级而进行判定。例如在超过14岁的人物多时将拥挤度判定得高,在14岁以下的人物多时将拥挤度判定得低等。
图13是示出人物的移动状态和静止状态的图标。
这些图标显示由设置于特定区域内的影像摄影装置2(摄像机)摄影的人的行动。拥挤解析装置4利用以下的图标显示由影像摄影装置2(摄像机)摄影的区域内的人的拥挤、停留等状况。
动态图标82L为紫色,在图中用阴影表示。该动态图标82L由张开脚的人物和其头部朝向左的图标显示。由此,示出了对应的人物向左移动的状况。
动态图标82F为紫色,在图中用阴影表示。该动态图标82F由张开脚的人物和其头部朝向前方(纸面的跟前方向)的图标显示。由此,示出了对应的人物向前方(纸面的跟前方向)移动的状况。
动态图标82B为紫色,在图中用阴影表示。该动态图标82B由张开脚的人物和其头部朝向后方(纸面的里侧方向)的图标显示。由此,示出了对应的人物向后方(纸面的里侧方向)移动的状况。
动态图标82R为紫色,在图中用阴影表示。该动态图标82R由张开脚的人物和其头部朝向右的图标显示。由此,示出了对应的人物向右移动的状况。
静态图标81a、81b为黄色,在图中用反白表示。该静态图标81a、81b由合上脚的人物的图标显示。由此,示出了对应的人物站住的状况。
在该静态图标81a的上侧配置在对话框内显示有“3分钟”的停留时间图标83a。在静态图标81b的上侧配置在对话框内显示有“5分钟”的停留时间图标83b。由此,用户能够容易地视觉确认站住的各人物的停留时间。以下,在不特别区分各停留时间图标83a、83b时,简记为停留时间图标83。
此外,也可以不仅在静态图标81之上显示对话框的停留时间图标83,在动态图标82之上也显示对话框的停留时间图标83。关于该变形例,在后述图14至图16中详细地进行说明。
动态图标82L、82F、82B、82R都设计有张开脚的情形。由此,用户能够直观地知晓与该图标对应的人物在移动。
与其相反地,静态图标81a、81b都设计有合上脚的情形。由此用户能够直观地知晓与该图标对应的人物站住。
图14是示出拥挤图像72的生成方法的变形例的流程图。
步骤S30~S35为止的处理与图12所示的拥挤图像72的生成方法相同。
如果在步骤S33的处理中被判定为不是移动状态,则拥挤信息解析部45获取该人物的朝向<步骤S41>,生成与朝向相应的静态图标81(步骤S42)。拥挤信息解析部45能够通过例如面部的朝向的图像数据库与帧图像的对照来判定(获取)站住的人物的朝向。
在步骤S35或者步骤S42的处理之后,进而拥挤信息解析部45获取该人物的停留时间(步骤S43),追加与停留时间相应的作为对话框的停留时间图标83(步骤S44)。以下,拥挤信息解析部45对背景图像重叠加工所生成的图标的步骤S38以后的处理和步骤S36、S37的处理与图12所示的拥挤图像72的生成方法相同。
图15是示出变形例中的人物的移动状态和静止状态的图标。
这些图标显示由设置于特定区域内的影像摄影装置2(摄像机)摄影的人的行动。拥挤解析装置4利用以下的图标显示由影像摄影装置2(摄像机)摄影的区域内的人的拥挤、停留等状况。
动态图标82L为紫色,在图中用阴影表示。该动态图标82L由张开脚的人物和其头部朝向左的图标显示。由此,示出了对应的人物向左移动的状况。
静态图标81L为黄色,在图中用反白表示。该静态图标81L由合上脚的人物和其头部朝向左的图标显示。由此,示出了对应的人物朝向左而站住的状况。
动态图标82F为紫色,在图中用阴影表示。该动态图标82F由张开脚的人物和其头部朝向前方(纸面的跟前方向)的图标显示。由此,示出了对应的人物向前方(纸面的跟前方向)移动的状况。
静态图标81F为黄色,在图中用反白表示。该静态图标81F由合上脚的人物和其头部朝向前方(纸面的跟前方向)的图标显示。由此,示出了对应的人物朝向前方(纸面的跟前方向)而站住的状况。
动态图标82B为紫色,在图中用阴影表示。该动态图标82B由张开脚的人物和其头部朝向后方(纸面的里侧方向)的图标显示。由此,示出了对应的人物向后方(纸面的里侧方向)移动的状况。
静态图标81B为黄色,在图中用反白表示。该静态图标81B由合上脚的人物和其头部朝向后方(纸面的里侧方向)的图标显示。由此,示出了对应的人物朝向后方(纸面的里侧方向)而站住的状况。
动态图标82R为紫色,在图中用阴影表示。该动态图标82R由张开脚的人物和其头部朝向右的图标显示。由此,示出了对应的人物向右移动的状况。
静态图标81R为黄色,在图中用反白表示。该静态图标81R由合上脚的人物和其头部朝向右的图标显示。由此,示出了对应的人物朝向右而站住的状况。
动态图标82L、82F、82B、82R都设计有张开脚的情形。由此,用户能够直观地知晓与该图标对应的人物在移动。这些动态图标82L、82F、82B、82R在图14所示的步骤S35的处理中生成。
与其相反地,静态图标81L、81F、81B、81R都设计有合上脚的情形。由此用户能够直观地知晓与该图标对应的人物站住。这些静态图标81L、81F、81B、81R在图14所示的步骤S42的处理中生成。
图16是示出变形例的人物的停留时间的图标。
动态图标82c与图15所示的动态图标82B相同。在该动态图标82c的上侧配置在对话框内显示有“8秒”的停留时间图标83c。
动态图标82d与图15所示的动态图标82B相同。在该动态图标82d的上侧配置在对话框内显示有“14秒”的停留时间图标83d。由此,用户能够容易地视觉确认移动过程中的各人物的停留时间。
此外,动态图标82的停留时间是指从对象人物进入到预先设定的区域起至出来为止的时间。在此,预先设定的区域既可以是影像摄影装置2的摄影视角的范围,另外也可以是从检票的入口至出口为止的范围,不被限定。
静态图标81a与图15所示的静态图标81B相同。在该静态图标81a的上侧配置在对话框内显示有“3分钟”的停留时间图标83a。
静态图标81b与图15所示的静态图标81B相同。在该静态图标81b的上侧配置在对话框内显示有“5分钟”的停留时间图标83b。由此,用户能够容易地视觉确认站住的各人物的停留时间。
以下,在不特别区分各停留时间图标83a~83d时,简记为停留时间图标83。这些停留时间图标83在图14所示的步骤S44的处理中生成。将停留时间图标83与任意的动态图标82L、82F、82B、82R、静态图标81L、81F、81B、81R进行组合而显示,从而能够知晓各人物的停留时间。因而,用户能够容易地掌握各区域的拥挤状况。
图17是示出拥挤动态图像的生成方法的流程图。
最初,人物分类部43<参照图1>获取动态图像所包含的画面(帧)中的人数(步骤S50)。
拥挤信息解析部45在整个预定时间重复步骤S51~S57的处理。进而,拥挤信息解析部45关于各时间的画面中的所有人物而重复步骤S52~S55的处理。
拥挤信息解析部45获取各人物的状态为移动/静止中的任意一个(步骤S53),生成与各人物的状态相应的图标(步骤S54)。拥挤信息解析部45如果关于画面中的所有人物而重复了步骤S52~S55的处理,则对背景图像重叠加工所生成的图标而制作拥挤图像72。进而,拥挤信息解析部45保存制作出的拥挤图像72(步骤S56)。
进而,拥挤信息解析部45如果在整个预定时间重复了步骤S51~S57的处理,则将保存的拥挤图像72加工成GIF(Graphics Interchange Format,图形交换格式)动态图像(步骤S58)。拥挤信息解析部45进而将加工后的GIF动态图像传送<输出>到显示装置5(步骤S59),结束图17的处理。
由此,拥挤解析装置4能够对用户的显示装置5传送(输出)拥挤动态图像。用户能够利用该拥挤动态图像更适合地掌握拥挤状况的变化。
图18是示出平均通过时间的计算方法的流程图。
拥挤信息解析部45不限于人数和状态而传送对于用户而言有用的拥挤度的尺度。例如,在此将检票通过所需的平均通过时间传送到用户的显示装置5。
具体而言,拥挤信息解析部45在整个预定时间重复步骤S70~S73的处理。拥挤信息解析部45获取通过了检票的人物的移动轨迹(步骤S71),计算检票通过所要时间(步骤S72)。
当在整个预定时间重复了处理(步骤S73)之后,拥挤信息解析部45计算在该预定时间通过的人群的平均通过时间(步骤S74)。拥挤信息解析部45将计算出的平均通过时间传送(输出)到显示装置5(步骤S75),结束图18的处理。由此,用户能够知晓检票通过所需的平均通过时间,能够掌握车站的拥挤的状况。
另外,拥挤信息解析部45不限于传送检票通过所需的平均通过时间,也可以对在单位时间通过了检票的人数进行计数,传送计数而得的平均通过人数。由此,用户也能够掌握车站的拥挤的状况。
拥挤信息解析部45也可以区别列车抵达时和除此以外的情况或者区别拥挤时和除此以外的情况来计算检票通过所需的平均通过时间,不被限定。
图19是示出基于流畅性的拥挤度判定方法的流程图。
拥挤信息解析部45不限于人数和状态,还能够通过使用了碰撞性、流畅性的拥挤判定来判定符合用户的体感的拥挤度。这是因为人当要撞到其他人时感到拥挤。
拥挤信息解析部45在整个预定时间重复步骤S80~S86的处理。
拥挤信息解析部45获取某个人物的移动轨迹(步骤S81),获取存在于该人物的预定距离以内的其他人物的移动方向(步骤S82)。该移动方向是从上方向观察时的移动方向。拥挤信息解析部45对各人物的移动轨迹进行坐标变换,从斜着摄影而得到的图像获取从上方向观察时的移动方向。
进而,拥挤信息解析部45计算人物彼此的移动方向所成的角度(步骤S83)。如果有处于根据计算出的角度计算的设定范围内的其他人物(步骤S84),则拥挤信息解析部45对其进行计数,作为对应人数(步骤S85)。
如果在整个预定时间重复步骤S80~S86的处理,则拥挤信息解析部45判定计数而得到的对应人数,作为拥挤度(步骤S87)。由此,也能够判定符合用户的体感的拥挤度。
图20是流畅性评价的概念图。图示出图19所示的步骤S84的判定条件的概念。
人物61c~61i的移动方向由箭头表示。在图20中,关注于人物61h,用阴影表示有可能会碰撞的设定范围。该设定范围为以人物61h的移动方向为中心的约90度的扇型。在图20中,人物61c、61d位于该设定范围内,所以两个人被计数为对应人数。
由此,能够容易地判定符合用户的体感的拥挤度。
(变形例)
本发明并不限定于上述实施方式,包含各种变形例。例如上述实施方式是为了易于理解地说明本发明而详细地说明的,未必限定于具备说明的所有的结构的实施方式。能够将某个实施方式的结构的一部分置换为其它实施方式的结构,还能够对某个实施方式的结构增加其它实施方式的结构。另外,针对各实施方式的结构的一部分,还能够进行其它结构的追加、删除以及置换。
上述各结构、功能、处理部、处理手段等的一部分或者全部例如也可以利用集成电路等硬件来实现。上述各结构、功能等也可以通过解释处理器实现各自的功能的程序而执行,从而通过软件来实现。实现各功能的程序、表格、文件等信息能够设置于存储器、硬盘等记录装置、或者闪存存储器卡、DVD(Digital Versatile Disk,数字通用光盘)等记录介质。
在各实施方式中,关于控制线、信息线,示出了在说明上被认为需要的控制线、信息线,在产品上未必示出所有的控制线、信息线。实际上,也可以认为几乎所有的结构相互连接。
作为本发明的变形例,例如,有如下(a)~(i)的变形例。
(a)车站整体的拥挤度也可以不进行简单的各区域的拥挤度的平均,而进行与各区域相应的加权。例如,也可以进行对处于检票附近的人物的加权,计算拥挤度。
(b)在检票附近,也可以改变静止和移动的判定条件的阈值。由此,拥挤解析装置4不将在检票前自然地产生的移动速度的下降探测成拥挤。
(c)进而,拥挤解析装置4也可以进行与列车的出发和到达相应的拥挤判定。例如,在紧接着列车的出发和到达之后,提高拥挤的判定条件等。由此,拥挤解析装置4不将在列车的出发和到达时自然地产生的移动速度的下降探测成拥挤。
(d)拥挤解析装置4也可以根据通常的拥挤状况来设定阈值。例如在早晚高峰时提高拥挤的判定条件等。由此,拥挤解析装置4不将在高峰时自然地产生的移动速度的下降探测成拥挤。
(e)拥挤解析装置4也可以在传送到显示装置5的热图71、拥挤图像72中同时显示列车的抵达状况。
(f)拥挤解析装置4也可以根据通常的拥挤状况来设定阈值。例如在早晚高峰时提高拥挤的判定条件等。由此,拥挤解析装置4不将在高峰时自然地产生的移动速度的下降探测成拥挤。
(g)拥挤图像72在预先准备的背景图像之上配置有表示人物的静态图标81、动态图标82。但是,不限于此,拥挤图像72也可以在预先准备的背景图像之上配置对实际图像中的人物区域施加了马赛克的例子,不被限定。
(h)拥挤解析装置4解析的对象不限于车站,也可以为活动会场、购物中心、主题公园等,不被限定。
(i)拥挤解析装置4传送的拥挤动态图像的形式不限定于GIF动态图像。例如,也可以为MPEG(Moving Picture Experts Group,运动图像专家组)1、MPEG2、MPEG4、AVI(AudioVideo Interleave,音频视频交织)等任意的编解码。
Claims (13)
1.一种拥挤解析装置,其特征在于,具备:
轨迹决定部,根据对人物进行摄影而得到的动态图像来决定人数和各所述人物的移动轨迹;以及
拥挤信息解析部,根据在所述动态图像中被摄影的各所述人物的移动轨迹来决定该人物的状态,根据所述人数和各所述人物的状态来判定拥挤度。
2.根据权利要求1所述的拥挤解析装置,其特征在于,
所述拥挤解析装置还具备输出部,该输出部将所述拥挤信息解析部判定出的所述拥挤度输出到显示装置。
3.根据权利要求1所述的拥挤解析装置,其特征在于,
所述拥挤信息解析部作为所述人物的状态而决定该人物处于移动过程中和静止过程中的任意一个。
4.根据权利要求3所述的拥挤解析装置,其特征在于,
所述人数越多,则所述拥挤信息解析部判定为拥挤度越高,且各所述人物的静止比例越多,则所述拥挤信息解析部判定为拥挤度越高。
5.根据权利要求3所述的拥挤解析装置,其特征在于,
所述拥挤信息解析部作为所述人物的状态还决定移动方向。
6.根据权利要求3所述的拥挤解析装置,其特征在于,
所述拥挤信息解析部作为所述人物的状态还决定行李的有无。
7.根据权利要求3所述的拥挤解析装置,其特征在于,
所述拥挤信息解析部作为所述人物的状态还决定性别。
8.根据权利要求3所述的拥挤解析装置,其特征在于,
所述拥挤信息解析部作为所述人物的状态还决定年龄。
9.根据权利要求3至8中的任意一项所述的拥挤解析装置,其特征在于,
所述拥挤信息解析部在预先准备的背景图像之上配置表示各所述人物的位置以及该人物的状态的图形,生成表示拥挤状况的图像。
10.根据权利要求9所述的拥挤解析装置,其特征在于,
所述拥挤解析装置还具备输出部,该输出部将表示拥挤状况的所述图像输出到显示装置。
11.根据权利要求10所述的拥挤解析装置,其特征在于,
所述拥挤信息解析部生成多个表示拥挤状况的所述图像,生成表示拥挤状况的动态图像,
所述输出部将表示拥挤状况的所述动态图像输出到显示装置。
12.一种拥挤解析方法,其特征在于,具备:
根据对人物进行摄影而得到的动态图像来决定人数和各所述人物的移动轨迹的步骤;
根据在所述动态图像中被摄影的各所述人物的移动轨迹来决定该人物的状态的步骤;
根据所述人数和各所述人物的状态来判定拥挤度的步骤;以及
将判定出的所述拥挤度输出到显示装置的步骤。
13.一种拥挤解析程序,用于使计算机执行如下步骤:
根据对人物进行摄影而得到的动态图像来决定人数和各所述人物的移动轨迹的步骤;
根据在所述动态图像中被摄影的各所述人物的移动轨迹来决定该人物的状态的步骤;
根据所述人数和各所述人物的状态来判定拥挤度的步骤;以及
将判定出的所述拥挤度输出到显示装置的步骤。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/064209 WO2017141454A1 (ja) | 2016-05-13 | 2016-05-13 | 混雑解析装置、混雑解析方法および混雑解析プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108027973A true CN108027973A (zh) | 2018-05-11 |
Family
ID=59624920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680052260.0A Pending CN108027973A (zh) | 2016-05-13 | 2016-05-13 | 拥挤解析装置、拥挤解析方法以及拥挤解析程序 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10607356B2 (zh) |
EP (1) | EP3457358A4 (zh) |
JP (1) | JP6397581B2 (zh) |
CN (1) | CN108027973A (zh) |
SG (1) | SG11201802242YA (zh) |
WO (1) | WO2017141454A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110659549A (zh) * | 2018-06-29 | 2020-01-07 | 华为技术有限公司 | 一种列车拥挤程度的通知方法及装置 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6583826B2 (ja) * | 2016-09-06 | 2019-10-02 | パナソニックIpマネジメント株式会社 | 混雑検知装置、混雑検知システムおよび混雑検知方法 |
JP6908617B2 (ja) * | 2016-11-07 | 2021-07-28 | 株式会社日立国際電気 | 混雑状況分析システム |
JP6469139B2 (ja) * | 2017-01-17 | 2019-02-13 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6918523B2 (ja) * | 2017-03-06 | 2021-08-11 | キヤノン株式会社 | 情報処理システム、情報処理装置、情報処理方法ならびに情報処理方法をコンピュータに実行させるプログラム |
JP7158828B2 (ja) * | 2017-05-31 | 2022-10-24 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2020201674A (ja) * | 2019-06-07 | 2020-12-17 | キヤノン株式会社 | 映像解析装置及びその制御方法及びプログラム |
WO2021106696A1 (ja) * | 2019-11-26 | 2021-06-03 | 富士フイルム株式会社 | 情報処理装置及び方法並びに誘導システム及び方法 |
US11595723B2 (en) | 2020-08-20 | 2023-02-28 | The Nielsen Company (Us), Llc | Methods and apparatus to determine an audience composition based on voice recognition |
US11763591B2 (en) * | 2020-08-20 | 2023-09-19 | The Nielsen Company (Us), Llc | Methods and apparatus to determine an audience composition based on voice recognition, thermal imaging, and facial recognition |
US11553247B2 (en) | 2020-08-20 | 2023-01-10 | The Nielsen Company (Us), Llc | Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition |
JP7284130B2 (ja) * | 2020-08-28 | 2023-05-30 | ヤフー株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP7355769B2 (ja) * | 2021-01-19 | 2023-10-03 | トヨタ自動車株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2023181266A1 (ja) * | 2022-03-24 | 2023-09-28 | 日本電気株式会社 | 人数推定システム、人数推定装置、人数推定方法、及び非一時的なコンピュータ可読媒体 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217184A (ja) * | 2007-03-01 | 2008-09-18 | Giken Torasutemu Kk | 混雑レベル判別システム |
TW200926820A (en) * | 2007-07-26 | 2009-06-16 | Objectvideo Inc | Video analytic rule detection system and method |
CN102582664A (zh) * | 2007-10-26 | 2012-07-18 | 松下电器产业株式会社 | 拥塞推定装置 |
CN103946864A (zh) * | 2011-10-21 | 2014-07-23 | 高通股份有限公司 | 基于图像和视频的行人流量估计 |
JP5597781B1 (ja) * | 2014-03-26 | 2014-10-01 | パナソニック株式会社 | 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法 |
US20150339519A1 (en) * | 2014-05-23 | 2015-11-26 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring device, monitoring system, and monitoring method |
CN105391973A (zh) * | 2014-08-27 | 2016-03-09 | 松下知识产权经营株式会社 | 监控装置、监控系统及监控方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4144492B2 (ja) * | 2003-09-19 | 2008-09-03 | 株式会社日立製作所 | 画像表示装置 |
JP2006331065A (ja) | 2005-05-26 | 2006-12-07 | Matsushita Electric Ind Co Ltd | 顔情報送信装置、顔情報送信方法及びそのプログラムを記録した記録媒体 |
JP2007317052A (ja) * | 2006-05-29 | 2007-12-06 | Japan Airlines International Co Ltd | 行列の待ち時間の計測システム |
JP4966820B2 (ja) | 2007-10-29 | 2012-07-04 | パナソニック株式会社 | 混雑推定装置および方法 |
JP2009181556A (ja) | 2008-02-01 | 2009-08-13 | Sony Corp | 混雑判定装置、混雑判定方法 |
JP2010169521A (ja) | 2009-01-22 | 2010-08-05 | Nec Corp | 位置検出装置、位置検出方法及びプログラム |
JP5070376B2 (ja) | 2009-06-01 | 2012-11-14 | 中央電子株式会社 | 混雑状況検出装置、方法、およびプログラム |
JP5400718B2 (ja) | 2010-07-12 | 2014-01-29 | 株式会社日立国際電気 | 監視システムおよび監視方法 |
WO2012161291A1 (ja) | 2011-05-20 | 2012-11-29 | 日本電気株式会社 | 部位分離位置抽出装置、プログラム、方法 |
JP5834193B2 (ja) | 2014-02-05 | 2015-12-16 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
US9693023B2 (en) | 2014-02-05 | 2017-06-27 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring apparatus, monitoring system, and monitoring method |
JP5789776B2 (ja) * | 2014-04-28 | 2015-10-07 | パナソニックIpマネジメント株式会社 | 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法 |
JP6708122B2 (ja) | 2014-06-30 | 2020-06-10 | 日本電気株式会社 | 誘導処理装置及び誘導方法 |
WO2016000240A1 (en) | 2014-07-03 | 2016-01-07 | Pioneer Overseas Corporation | Plants having altered agronomic characteristics under abiotic conditions and related constructs and methods involving drought tolerance genes and cold tolerance genes |
JP2016062414A (ja) | 2014-09-19 | 2016-04-25 | クラリオン株式会社 | 車内監視装置及び車内監視システム |
WO2017155126A1 (ja) | 2016-03-08 | 2017-09-14 | 一般社団法人 日本画像認識協会 | 情報伝送システム、情報送信装置、情報受信装置、およびコンピュータプログラム |
-
2016
- 2016-05-13 WO PCT/JP2016/064209 patent/WO2017141454A1/ja active Application Filing
- 2016-05-13 JP JP2017542207A patent/JP6397581B2/ja active Active
- 2016-05-13 EP EP16890594.1A patent/EP3457358A4/en active Pending
- 2016-05-13 SG SG11201802242YA patent/SG11201802242YA/en unknown
- 2016-05-13 US US15/760,704 patent/US10607356B2/en active Active
- 2016-05-13 CN CN201680052260.0A patent/CN108027973A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217184A (ja) * | 2007-03-01 | 2008-09-18 | Giken Torasutemu Kk | 混雑レベル判別システム |
TW200926820A (en) * | 2007-07-26 | 2009-06-16 | Objectvideo Inc | Video analytic rule detection system and method |
CN102582664A (zh) * | 2007-10-26 | 2012-07-18 | 松下电器产业株式会社 | 拥塞推定装置 |
CN103946864A (zh) * | 2011-10-21 | 2014-07-23 | 高通股份有限公司 | 基于图像和视频的行人流量估计 |
JP5597781B1 (ja) * | 2014-03-26 | 2014-10-01 | パナソニック株式会社 | 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法 |
CN104954736A (zh) * | 2014-03-26 | 2015-09-30 | 松下知识产权经营株式会社 | 滞留状况分析装置、滞留状况分析系统及分析方法 |
US20150339519A1 (en) * | 2014-05-23 | 2015-11-26 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring device, monitoring system, and monitoring method |
CN105391973A (zh) * | 2014-08-27 | 2016-03-09 | 松下知识产权经营株式会社 | 监控装置、监控系统及监控方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110659549A (zh) * | 2018-06-29 | 2020-01-07 | 华为技术有限公司 | 一种列车拥挤程度的通知方法及装置 |
CN110659549B (zh) * | 2018-06-29 | 2023-01-13 | 华为技术有限公司 | 一种列车拥挤程度的通知方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017141454A1 (ja) | 2018-02-22 |
JP6397581B2 (ja) | 2018-09-26 |
US10607356B2 (en) | 2020-03-31 |
SG11201802242YA (en) | 2018-11-29 |
EP3457358A4 (en) | 2019-11-20 |
US20180286068A1 (en) | 2018-10-04 |
EP3457358A1 (en) | 2019-03-20 |
WO2017141454A1 (ja) | 2017-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108027973A (zh) | 拥挤解析装置、拥挤解析方法以及拥挤解析程序 | |
Matern et al. | Exploiting visual artifacts to expose deepfakes and face manipulations | |
JP6474919B2 (ja) | 混雑状況監視システム及び混雑状況監視方法 | |
Ryan et al. | Crowd counting using multiple local features | |
CN108875676A (zh) | 活体检测方法、装置及系统 | |
JP2019512827A (ja) | 機械学習によってオブジェクト分類器を訓練するためのシステム及び方法 | |
US20090278937A1 (en) | Video data processing | |
Dubuisson et al. | A survey of datasets for visual tracking | |
CN110765833A (zh) | 一种基于深度学习的人群密度估计方法 | |
Gupta et al. | CrowdVAS-Net: A deep-CNN based framework to detect abnormal crowd-motion behavior in videos for predicting crowd disaster | |
CN107873097A (zh) | 适用于处理异步信号的方法 | |
Ghidoni et al. | Texture-based crowd detection and localisation | |
CN114332911A (zh) | 一种头部姿态检测方法、装置及计算机设备 | |
Gupta et al. | A multimodal facial cues based engagement detection system in e-learning context using deep learning approach | |
Li et al. | Event stream super-resolution via spatiotemporal constraint learning | |
Hashemi | A survey of visual attention models | |
Bissarinova et al. | Faces in event streams (FES): An annotated face dataset for event cameras | |
CN113420667B (zh) | 人脸活体检测方法、装置、设备及介质 | |
CN107526991B (zh) | 一种冷藏装置存储物管理系统和冷藏装置 | |
Abid et al. | On the usage of visual saliency models for computer generated objects | |
KR101916596B1 (ko) | 이미지의 혐오감을 예측하는 방법 | |
Tian et al. | Intelligent consumer flow and experience analysis system based on cognitive intelligence: smart eye system | |
WO2022004569A1 (ja) | 画像データ処理装置及びシステム | |
Syahputra et al. | Occupancy Measurement in Under-Actuated Zones: YOLO-based Deep Learning Approach. | |
JP2024007263A (ja) | 映像分析装置、映像分析方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180511 |
|
RJ01 | Rejection of invention patent application after publication |