CN112640444A - 车站监控装置、车站监控方法及程序 - Google Patents
车站监控装置、车站监控方法及程序 Download PDFInfo
- Publication number
- CN112640444A CN112640444A CN201980054351.1A CN201980054351A CN112640444A CN 112640444 A CN112640444 A CN 112640444A CN 201980054351 A CN201980054351 A CN 201980054351A CN 112640444 A CN112640444 A CN 112640444A
- Authority
- CN
- China
- Prior art keywords
- image
- monitoring
- video
- station
- priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 178
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000012806 monitoring device Methods 0.000 title claims abstract description 20
- 239000002131 composite material Substances 0.000 claims abstract description 33
- 230000005540 biological transmission Effects 0.000 description 174
- 238000010586 diagram Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 12
- 238000010191 image analysis Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241001166076 Diapheromera femorata Species 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L23/00—Control, warning or like safety means along the route or between vehicles or trains
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Closed-Circuit Television Systems (AREA)
- Train Traffic Observation, Control, And Security (AREA)
Abstract
本发明提供了一种监控者能够容易从所显示的合成影像中识别应重点监控的部分的车站监控装置、车站监控方法及程序。影像取得部(62)取得表示各个彼此不同的监控对象的情形的多个影像。监控优先级确定部(66)根据进入与影像相对应的线路的车辆的状况确定该影像的监控优先级。合成影像生成部(68)生成合成了表示监控优先级的多个影像的合成影像。显示控制部(74)显示合成影像。
Description
技术领域
本发明涉及车站监控装置、车站监控方法及程序。
背景技术
在专利文献1中记载有以下技术,即,监控装置接收从多个影像配信装置分别拍摄的车站的站台的影像,并显示将接收的多个影像进行合成后的合成影像。
现有技术文献
专利文献
专利文献1:日本特开第2014-192844号公报
发明内容
发明所要解决的问题
显示在合成影像中的各个影像的监控优先级有所不同。例如,认为与附近有车辆驶来的线路、车辆将要进入的线路、通过时车辆的速度较快的线路、轮椅乘客乘坐的车辆进入的线路等相对应的影像的监控优先级较高。
在此,在专利文献1记载的技术中,当各个影像的监控优先级显示合成影像中时,由于监控者查看所显示的合成影像时,能够容易识别应该重点监控哪个部分,因此减轻了监控负担。
本发明是鉴于上述问题所提出的,其目的之一在于提供能够使监控者从所显示的合成影像中容易识别应重点监控的部分的车站监控装置、车站监控方法及程序。
用于解决问题的方案
本发明的车站监控装置是监控车站的站台的车站监控装置,包括影像取得单元,其取得表示各个彼此不同的监控对象的情形的多个影像;监控优先级确定单元,其根据进入与所述影像相对应的线路的车辆的状况确定该影像的监控优先级;合成影像生成单元,其生成合成了表示所述监控的优先级的所述多个影像的合成影像;以及显示控制单元,其显示所述合成影像。
在本发明的一个方式中,所述监控优先级确定单元根据所述线路所在的车站与所述车辆之间的距离确定该线路相对应的影像的监控优先级。
此外,在本发明的一个方式中,所述监控优先级确定单元根据所述车辆最终达到所述线路的推定时间确定该线路相对应的影像的监控优先级。
此外,在本发明的一个方式中,所述监控优先级确定单元根据通过所述线路时所述车辆的速度确定该线路相对应的影像的监控优先级。
此外,在本发明的一个方式中,所述监控优先级确定单元根据进入所述线路的车辆乘客的属性确定与该线路相对应的影像的监控优先级。
此外,本发明的车站监控方法是监控车站的站台的车站监控方法,包括:取得步骤,取得表示各个彼此不同的监控对象的情形的多个影像;确定步骤,根据进入与所述影像相对应的线路的车辆的状况确定该影像的监控优先级;生成步骤,生成合成了表示所述监控的优先级的所述多个影像的合成影像;以及显示步骤,显示所述合成影像。
此外,本发明的程序使监控车站的站台的计算机执行以下步骤:取得步骤,取得表示各个彼此不同的监控对象的情形的多个影像;确定步骤,根据进入与所述影像相对应的线路的车辆的状况确定该影像的监控优先级;生成步骤,生成合成了表示所述监控的优先级的所述多个影像的合成影像;显示步骤,显示所述合成影像。
附图说明
图1为示出本发明的一个实施方式的车站监控系统的整体结构的一个示例的图。
图2为示出本发明的一个实施方式的影像发送系统的结构的一个示例的图。
图3为示出拍摄图像的一个示例的图。
图4为示出拍摄图像的一个示例的图。
图5为示出区域确定结果图像的一个示例的图。
图6为示出拍摄图像的一个示例的图。
图7为示出区域确定结果图像的一个示例的图。
图8为示意性地示出拍摄图像的拍摄、针对拍摄图像的图像识别、及目标区域的追踪的关系的一个示例的图。
图9为示出合成图像的一个示例的图。
图10为示出合成图像的一个示例的图。
图11为示意性地示出车站与车辆的关系的一个示例的图。
图12为示出合成图像的一个示例的图。
图13为示意性地示出车站与车辆的关系的一个示例的图。
图14为示出本发明的一个实施方式的车站监控系统的功能的一个示例的功能框图。
图15为示出由本发明的一个实施方式的影像发送系统所进行的处理的流程的一个示例的流程图。
图16为示出由本发明的一个实施方式的中央监控装置进行的处理的流程的一个示例的流程图。
图17为示出参照拍摄图像的一个示例的图。
图18为示出参照拍摄图像的一个示例的图。
图19为示出区域确定结果图像的一个示例的图。
图20为示出区域确定结果图像的一个示例的图。
具体实施方式
以下,根据附图详细说明本发明的一个实施方式。
图1为示出本发明的一个实施方式的车站监控系统1的整体结构的一个示例的图。如图1所示,本实施方式的车站监控系统1包括中央监控装置10和多个影像发送系统12。
中央监控装置10和多个影像发送系统12与网络等计算机网络14连接。因此,中央监控装置10和影像发送系统12可以通过计算机网络14相互通信。
中央监控装置10是例如个人计算机等计算机。如图1所示,中央监控装置10包括处理器10a、存储部10b、通信部10c、整体监控监视器10d以及单独监控监视器10e。
处理器10a是例如根据安装于中央监控装置10的程序进行工作的CPU等程序控制装置。存储部10b为ROM、RAM等存储单元、硬盘驱动等。存储部10b存储由处理器10a执行的程序等。通信部10c是例如用于与影像发送系统12之间收发数据的网络板等的通信接口。中央监控装置10通过通信部10c与影像发送系统12之间进行信息的发送接收。整体监控监视器10d和单独监控监视器10e为例如液晶显示器等显示装置,根据处理器10a的指示显示各种图像。
图2为示出本实施方式的影像发送系统12的结构的一个示例的图。如图2所示,本实施方式的影像发送系统12包括照相机20、影像分析装置22、下变频器24、站台监控器26和车站建筑监控器28。本实施方式的影像分析装置22与照相机20、下变频器24、车站建筑监控器28连接。此外,本实施方式的照相机20与站台监控器26连接。
照相机20是例如数码照相机等拍摄装置。站台监控器26和车站建筑监控器28是例如液晶显示器等显示装置。下变频器24是例如将接收的影像低分辨率化并输出的设备。
影像分析装置22是例如个人计算机等计算机。如图2所示,本实施方式的影像分析装置22包括处理器22a、存储部22b、通信部22c。处理器22a是例如根据安装于影像分析装置22的程序进行操作的CPU等程序控制装置。存储部22b是ROM、RAM等存储单元、硬盘驱动等。存储部22b存储由处理器22a执行的程序等。通信部22c是例如用于与中央监控装置10之间收发数据的网络板等的通信接口。影像分析装置22通过通信部22c与中央监控装置10之间进行信息的发送接收。
以下,作为一个示例,说明车站监控系统1包括9个影像发送系统12(12a~12i)时的情况。另外,车站监控系统1所包含的影像发送系统12的数量当然不限于9个。
图3为示出本实施方式的影像发送系统12e所包含的照相机20生成的、拍摄到的车站的站台30等监控对象的拍摄影像所包含的1个帧图像的一个示例的图。以下,将拍摄影像所包含的帧图像称为拍摄图像32。图4为示出该拍摄影像所包含的另一个拍摄图像32的一个示例的图。在本实施方式中,例如,照相机20以规定的帧率生成拍摄图像32。并且,在此,例如,在生成了图3所示的拍摄图像32的帧之后的帧中,生成图4所示的拍摄图像32。
在本实施方式中,例如,在9个影像发送系统12(12a~12i)的每个中,通过该影像发送系统12所包含的照相机20生成拍摄影像。通过照相机20所生成的拍摄影像也可以显示于在该照相机20所监控的站台30设置的站台监控器26。
在以下说明中,将9个影像发送系统12(12a~12i)的分别配置在彼此不同的车站,在1个车站通过1个照相机20监控该车站的站台30。
然后,在本实施方式中,例如,在影像分析装置22中,通过已知的图像识别技术对拍摄图像32执行图像识别处理,并且判断在该拍摄图像32中是否出现给定的对象。另外,可以使用已学习的机器学习模型执行该图像识别处理。以下,将该给定的对象称为目标对象34。作为目标对象34的示例,列举出手持拐杖的人、导盲犬、助听犬等协助犬等期望重点注意的对象。另外,目标对象34不必是1个种类的对象,也可以是多个种类的对象。
在此,在图3所示的拍摄图像32中未出现目标对象34。另一方面,在图4所示的拍摄图像32中出现了目标对象34。因此,将图3所示的拍摄图像32判断为未出现目标对象34,并且将图4所示的拍摄图像32判断为出现了目标对象34。
并且,在本实施方式中,例如,针对被判断为未出现目标对象34的拍摄图像32,确定出现目标对象34的区域。以下,将出现目标对象34的区域称为目标区域。
然后,在本实施方式中,例如,生成示出目标区域的目标区域信息。图5为示出作为目标区域信息的一个示例的区域确定结果图像36的一个示例的图。在图5所示的区域确定结果图像36中,在图4所示的拍摄图像32上重叠有包围目标对象34的框状的目标区域图像38。
图6为示出在生成了图4所示的拍摄图像32的帧之后的帧中通过照相机20所生成的拍摄图像32的一个示例的图。在图6所示的拍摄图像32中也出现了目标对象34。
在此,例如,在影像分析装置22中,也可以通过执行对在针对图4所示的拍摄图像32的图像识别处理中所确定的目标区域进行追踪的已知的追踪处理,来确定图6所示的拍摄图像32内的目标区域。并且,也可以生成示出由此所确定的目标区域的图7所例示的区域确定结果图像36。在图7所示的区域确定结果图像36中,图6所示的拍摄图像32与包围目标对象34的框状的目标区域图像38重叠。
图8为示意性地示出着眼于16个帧的、本实施方式的拍摄图像32的拍摄、针对拍摄图像32的图像识别、及目标区域的追踪关系的一个示例的图。以下,将这16个帧称为第1帧~第16帧。
在本实施方式中,例如,使用机械学习模型来实现上述图像识别处理,并且花费时间执行该处理。另一方面,上述追踪处理是通过使用了目标区域内的像素的像素值的分布等特征量的模式匹配技术等来实现,针对1个图像的处理的执行时间比上述图像识别处理短。在以下说明中,作为一个示例,针对1个拍摄图像32的图像识别处理需要相当于3帧的时间,针对1个拍摄图像32的追踪处理仅需要比相当于1帧的时间更短的时间。
在图8中,将在第n帧所拍摄的拍摄图像32表示为p(n)(n为1以上16以下的整数)。此外,将针对在第n帧所拍摄的拍摄图像32(p(n))的图像识别的结果表示为r(p(n))。例如,图5所例示的区域确定结果图像36相当于图像识别的结果r(p(n))的一个示例。
如图8所示,在第4帧的拍摄图像32(p(4))的拍摄时刻确定第1帧的拍摄图像32(p(1))的图像识别结果(r(p(1)))。
并且,之后,在本实施方式中,例如,对第4帧的拍摄图像32(p(4))执行图像识别。并且,在第7帧的拍摄图像32(p(7))的拍摄时刻确定该图像识别的结果(r(p(4)))。
以下,同样地,在第13帧的拍摄图像32(p(13))的拍摄时刻确定针对第10帧的拍摄图像32(p(10))的图像识别结果(r(p(10)))。此外,在第16帧的拍摄图像32(p(16))的拍摄时刻确定针对第13帧的拍摄图像32(p(13))的图像识别结果(r(p(13)))。
然后,在本实施方式中,例如,针对拍摄图像32,在该拍摄图像32的拍摄时刻,通过执行对由可利用的最新的图像识别的结果所确定的目标区域进行追踪的处理来确定该拍摄图像32内的目标区域。例如,对第4帧~第6帧的拍摄图像32(p(4)~p(6))执行对由针对第1帧的拍摄图像32的图像识别的结果(r(p(1)))所确定的目标区域进行追踪的处理。在图8中,该追踪处理的结果表示为t(p(4),r(p(1)))、t(p(5),r(p(1)))、t(p(6),r(p(1)))。例如,图7所例示的区域确定结果图像36相当于追踪处理的结果t的一个示例。
同样地,例如,对第7帧~第9帧的拍摄图像32(p(7)~p(9))执行对由针对第4帧的拍摄图像32的图像识别的结果(r(p(4)))所确定的目标区域进行追踪的处理。在图8中,该追踪处理的结果表示为t(p(7),r(p(4)))、t(p(8),r(p(4)))、t(p(9),r(p(4)))。以下,同样地,对第10帧以后的拍摄图像32也执行追踪目标区域的处理。
在本实施方式中,如上所述,针对拍摄图像32,通过执行对由在该拍摄图像32的拍摄时刻可利用的最新的图像识别的结果所确定的目标区域进行追踪的处理,来确定该拍摄图像32内的目标区域。因此,在本实施方式中,可以在较短的时间内从拍摄图像32的拍摄中确定该拍摄图像32内的目标区域。
然后,在本实施方式中,例如,生成表示将拍摄影像低分辨率化的低分辨率影像、和在该拍摄影像中是否出现目标对象34的判断结果的发送数据。
在此,例如,也可以将包括通过下变频器24将目标区域图像38重叠于拍摄图像32的、图7所示的区域确定结果图像36进行低分辨率化的图像即低分辨率图像作为帧图像的影像作为发送数据生成。此时,该低分辨率图像为将拍摄影像低分辨率化的低分辨率影像的帧图像,并且也是示出在拍摄图像32中是否出现目标对象34的判断结果的图像。
此外,例如,也可以生成如下发送数据,即,包括将拍摄影像低分辨率化的低分辨率化影像,并且包括在标题(header)等中示出在拍摄影像所包含的各个拍摄图像32中目标对象34是否出现的判断结果的标志。此时,该低分辨率影像包括将拍摄图像32低分辨率化的低分辨率化图像作为帧图像。此外,此时,发送数据所包含的标志示出在拍摄影像中是否出现目标对象34的判断结果。
此外,例如,也可以生成包括将拍摄影像低分辨率化的低分辨率化影像和目标区域信息的发送数据。在此,例如,在作为低分辨率化影像所包含的帧图像的低分辨率图像中,就出现目标对象34的低分辨率图像而言,目标区域信息也可以是表示该低分辨率图像内的目标区域的位置、形状的信息。例如,目标区域信息也可以是表示相当于低分辨率图像内的目标区域的框的4个角的位置的坐标值的信息。此外,目标区域信息也可以是目标区域图像38这样的图像的形式信息。此时,发送数据所包含的目标区域信息示出在拍摄影像中是否出现目标对象34的判断结果。
以下,将拍摄图像32、或该拍摄图像32与目标区域图像38重叠的区域确定结果图像36低分辨率化的低分辨率图像称为与该拍摄图像32相对应的低分辨率图像。
然后,在本实施方式中,将以这种方式生成的发送数据发送至中央监控装置10。同样地,也能从其他影像发送系统12(12a~12d及12f~12i)将由该影像发送系统12所生成的发送数据发送至中央监控装置10。
此外,在本实施方式中,例如,也可以将拍摄影像或低分辨率影像显示于设置于车站建筑的车站建筑监视器28。在此,也可以在车站建筑监视器28所显示的影像中包含的帧图像中示出目标区域。例如,也可以将包含一系列的区域确定结果图像36作为帧图像的影像显示于车站建筑监视器28。
在本实施方式中,例如,中央监控装置10接收从多个影像发送系统12(12a~12i分别所发送的上述发送数据。
然后,在中央监控装置10中,根据该多个发送数据,生成表示出该多个发送数据中的至少一个所示的上述判断结果的、合成了该多个发送数据分别所示的低分辨率影像的合成影像。然后,将所生成的合成影像显示于整体监控监视器10d。图9和图10分别为示出作为合成影像所包含的1个帧图像的合成图像40的一个示例的图。
图9示出了将在所有接收的发送数据中未出现目标对象34作为上述判断结果而示出时的合成图像40的一个示例。图10示出了将在2个接收的发送数据中出现目标对象34作为上述判断结果而示出时的合成图像40的一个示例。
合成图像40包括例如与各个彼此不同的影像发送系统12相对应的多个单独图像区域42。图9和图10所例示的合成图像40包括分别与9个影像发送系统12(12a~12i)对应的9个单独图像区域42(42a~42i)。在此,例如,包含拍摄了图3、图4和图6所示的拍摄图像32的照相机20的影像发送系统12e与单独图像区域42e相对应。
在本实施方式中,例如,作为将从影像发送系统12接收的发送数据所示的低分辨率影像所包含的帧图像的低分辨率图像配置在与该影像发送系统12相对应的单独图像区域42。
然后,在本实施方式中,例如,针对多个单独图像区域42中的每个,中央监控装置10在与配置于该单独图像区域42的低分辨率图像相对应的拍摄图像32中确定是否出现目标对象34的判断结果。在此,例如,也可以根据发送数据所包含的标志确定该判断的结果。此外,例如,也可以当发送数据中包括表示将拍摄图像32低分辨率化的低分辨率图像内的目标区域的位置、形状的目标区域信息时,判断为在该拍摄图像32中出现目标对象34。此外,例如,也可以执行从发送数据所示的低分辨率图像中检测目标区域图像38的处理。并且,也可以当能够检测到目标区域图像38时,判断为在将该低分辨率图像低分辨率化之前的拍摄图像32中出现目标对象34。
然后,在本实施方式中,例如,生成表示出上述判断结果的合成图像40。在此,例如,也可以生成判断在与所配置的低分辨率图像相对应的拍摄图像32中叠加了将判断为出现目标对象34的单独图像区域42包围的框状的判断识别图像44的合成图像40。作为一个示例,
图10示出包围单独图像区域42e的判断识别图像44a、和包围单独图像区域42g的判断识别图像44b。
此外,在本实施方式中,例如,如图10所示,将在低分辨率图像内出现目标对象34的目标区域示于配置有该低分辨率图像的单独图像区域42。在此,例如,如图10所示,区域确定结果图像46可以作为表示目标区域的信息被示于单独图像区域42。在此,例如,区域确定结果图像46也可以为将区域确定结果图像36低分辨率化的图像。或者,例如,区域确定结果图像46也可以是将通过目标区域信息所示的坐标值所表示的位置作为角的框状的图像。
此外,在本实施方式中,例如,也可以根据进入与发送数据相对应的线路的车辆的状况确定影像的监控优先级。在此,例如,与发送数据相对应的线路是指在配置有发送发送数据的影像发送系统12的车站的线路、与被发送发送数据的影像发送系统12的照相机20所监控的站台30相邻的线路等。另外,1个照相机20可以对应1个线路,1个照相机20也可以对应多个线路。此外,也可以针对被判断为在拍摄图像32中出现目标对象34的单独图像区域42确定影像的监控优先级。
以下,说明确定影像的监控优先级的一个示例。
图11示意性地示出了分别配置有9个影像发送系统12(12a~12i)的车站、与在这些车站之间运行的车辆的关系的一个示例。图11示出有与配置有9个影像发送系统12(12a~12i)的车站分别对应的9个车站对象50(50a~50i)、和与运行的车辆相对应的4个车辆对象52(52a~52d)。此外,在图11中,车辆的行进方向由箭头表示。在此,例如,图11示出了将与图10所例示的合成图像40相对应的拍摄图像32的拍摄时刻的车辆的位置作为车辆对象52的位置。
在此,例如,车站对象50e与车辆对象52c之间的长度比车站对象50g与车辆对象52d之间的长度短。这是指配置有影像发送系统12e的车站与接近该车站的车辆之间的距离比配置有影像发送系统12g的车站与接近该车站的车辆之间的距离更短。例如,在这种情况下,确定为通过影像发送系统12e所包含的照相机20所拍摄的影像的监控优先级高于影像发送系统12g所包含的照相机20所拍摄的影像的监控优先级。
在图10中,将根据如上所述确定的影像的监控优先级的状态的判断识别图像44配置于合成图像40。另外,在本实施方式中,假定预先设定与影像的监控优先级相对应的状态。例如,优先级最高的状态是判断识别图像44a这样被加粗的情形,次高优先级的状态是判断识别图像44b这样的阴影线的情形。因此,在图10的示例中,将判断识别图像44a配置为包围单独图像区域42e,并且将判断识别图像44b配置为包围单独图像区域42g。
另外,在以上示例中,根据与发送数据相对应的线路所在的车站与车辆之间的距离确定了影像的监控优先级。在此,例如,也可以根据车辆最终到达与发送数据相对应的线路的推定时间确定影像的监控优先级。例如,可以确定为该推定时间越短优先级越高。
此外,例如,也可以根据通过与发送数据相对应的线路时车辆的速度确定影像的监控优先级。例如,可以确定为该速度越高优先级越高。
此外,例如,也可以根据进入与发送数据相对应的线路时车辆乘客的属性确定影像的监控优先级。在此,作为车辆乘客的属性的示例,列举出使用轮椅的、带着协助犬的等属性。在此,例如,也可以当接下来进入线路的车辆有使用轮椅的乘客、带着协助犬的乘客时,确定优先级高于没有这样的乘客的情况。
此外,与影像的监控优先级相对应的状态并不限于图10所示的情形。例如,也可以在合成图像40中配置与影像的监控优先级相对应的颜色的判断识别图像44。此外,例如,也可以在合成图像40内配置与影像的监控优先级相对应的大小的单独图像区域42。此时,例如,也可以在合成图像40中配置优先级越高越大的单独图像区域42。
以上所说明的车辆的状况也可以通过例如已知的运行管理系统进行管理。其中,中央监控装置10也可以根据从运行管理系统取得的各种数据确定上述距离、推定时间、速度、乘客的属性等车辆的状况。此外,在本实施方式中,也可以根据距离、推定时间、速度、乘客的属性中的多个组合确定影像的监控优先级。
此外,在本实施方式中,中央监控装置10也可以将拍摄影像的发送请求发送至影像发送系统12。例如,根据由监控合成图像40的监控者(中央监控装置10的用户)指定单独图像区域42的操作,将拍摄影像的发送请求发送至作为与该单独图像区域42相对应的发送数据的发送元的影像发送系统12。此外,例如,也可以将拍摄影像的发送请求发送至根据影像的监控优先级所确定的影像发送系统12。例如,也可以将拍摄影像的发送请求发送至包含拍摄监控的优先级最高的影像的照相机20的影像发送系统12。
然后,接收了拍摄影像的发送请求的影像发送系统12也可以根据该发送请求将拍摄影像发送至中央监控装置10也可以。然后,中央监控装置10也可以将接收的拍摄影像显示于单独监控监视器10e也可以。根据这样的方式,监控者能够在中央监控装置10中详细监控高分辨率的拍摄影像。
在此,例如,影像发送系统12也可以根据发送请求的接收将表示拍摄影像和上述判断结果的代替发送数据发送至中央监控装置10。然后,中央监控装置10也可以将表示代替发送数据所示的上述判断结果的、该代替发送数据所示的拍摄影像显示于单独监控监视器10e。在此,例如,也可以将包括根据拍摄影像所包含的拍摄图像32而生成的区域确定结果图像36作为帧图像的影像作为代替发送数据从影像发送系统12发送至中央监控装置10。并且,该影像也可以显示于单独监控监视器10e。
拍摄影像的分辨率越高,该拍摄影像的分析精度越高。在此,例如,当进行站台30是否有手持拐杖的人、协助犬等的判断,对手持拐杖的人、协助犬在拍摄影像内出现的区域进行确定等精细的分析时,需要分析分辨率较高的影像。另一方面,将分辨率较高的拍摄影像从影像发送系统12发送至中央监控装置10时,计算机网络14负荷增加。
在本实施方式中,由于影像的分析是针对高分辨率的拍摄影像而进行的,因此确保了影像的分析精度。此外,由于所发送的影像为低分辨率影像,因此能够减轻计算机网络14的负荷。由此,根据本实施方式,能够确保拍摄了车站的站台30的影像的分析精度,并且减轻了通过发送所导致的该计算机网络14的负荷。
在以上说明中,针对被判断为在拍摄图像32中出现目标对象34的单独图像区域42,确定影像的监控优先级。在此,例如,也可以是与是否判断为在拍摄图像32中出现目标对象34无关,针对所有单独图像区域42确定影像的监控优先级。
图12为示出合成图像40的另一个示例的图。图13为示意性地示出分别配置有9个影像发送系统12(12a~12i)的车站与在这些车站之间运行的车辆之间的关系的另一个示例。此外,在图13中,车辆的行进方向由箭头表示。图13将与图12所例示的合成图像40相对应的拍摄图像32的拍摄时刻的车辆的位置作为车辆对象52的位置而表示。
在此,图13所示,车站对象50g与车辆对象52d之间的长度比车站对象50c与车辆对象52b之间的长度短。此外,车站对象50f与车辆对象52c之间的长度比车站对象50g与车辆对象52d之间的长度短。此外,车站对象50b与车辆对象52a之间的长度比车站对象50f与车辆对象52c之间的长度短。例如,在这种情况下,可以从影像的监控优先级较高者依次确定单独图像区域42b、单独图像区域42f、单独图像区域42g、单独图像区域42c。
图12示出了根据如上所述确定的影像的监控优先级的状态的判断识别图像44。另外,在本实施方式中,假定预先设定了与影像的监控优先级相对应的状态。例如,优先级最高的状态为判断识别图像44a这样被加粗的情形,次高优先级的状态是判断识别图像44b这样阴影线的情形,再次高优先级的状态是判断识别图像44c这样留白的情形。此外,在优先级为4级之后的单独图像区域4中不配置判断识别图像44。因此,在图12的示例中,判断识别图像44a被设置为包围单独图像区域42b,判断识别图像44b被设置为包围单独图像区域42f,并且判断识别图像44c被设置为包围单独图像区域42g。
另外,在以上示例中,根据与发送数据相对应的线路所在的车站与车辆之间的距离确定影像的监控优先级。在此,例如,如上所述,也可以根据车辆最终到达线路的推定时间、通过线路时的车辆的速度、进入线路时的车辆乘客的属性等确定影像的监控优先级。此外,如上所述,与影像的监控优先级相对应的状态并不限于图12所示的情形。
尽管在合成影像中示出的各个影像的监控优先级是有所不同的,但当优先级未出现在合成影像中时,监控者不容易识别应重点监控的部分。
根据本实施方式,通过以上这样的方式,能够使监控者容易从所显示的合成影像识别应重点监控的部分。
以下,进一步说明本实施方式的车站监控系统1的功能,以及由本实施方式的车站监控系统1所执行的处理。
图14为示出监控车站的站台30的本实施方式的车站监控系统1中所包含的、由中央监控装置10和影像发送系统12所实现的功能一个示例的功能框图。另外,本实施方式的中央监控装置10和影像发送系统12不需要实现图14所示的所有功能,此外,也可以实现图14所示的功能以外的功能。
如图14所示,本实施方式的中央监控装置10包括功能性的例如发送数据接收部60、影像取得部62、车辆状况数据取得部64、监控优先级确定部66、合成影像生成部68、拍摄影像发送请求部70、拍摄影像接收部72、显示控制部74。发送数据接收部60、拍摄影像发送请求部70、拍摄影像接收部72主要由通信部10c来实现。影像取得部62、车辆状况数据取得部64、监控优先级确定部66、合成影像生成部68主要由处理器10a来实现。显示控制部74主要由处理器10a、整体监控监视器10d及单独监控监视器10e来实现。中央监控装置10承担作为监控本实施方式的车站的站台30的车站监控装置的作用。
以上功能可以通过由处理器10a执行安装于作为计算机的中央监控装置10的、包含与以上功能相对应的指令的程序来实现。可以通过例如光盘、磁盘、磁带、光磁盘、闪存等计算机可读取的信息存储介质、或通过互联网等将该程序提供给中央监控装置10。
如图14所示,本实施方式的影像发送系统12包括功能性的例如拍摄影像取得部80、判断部82、发送数据生成部84、发送数据发送部86、发送请求接收部88、拍摄影像发送部90。此外,判断部82包括图像识别部82a和追踪部82b。拍摄影像取得部80主要由照相机20和影像分析装置22的处理器22a来实现。判断部82主要由影像分析装置22的处理器22a来实现。发送数据生成部84主要由影像分析装置22的处理器22a、通信部22c及下变频器24来实现。发送数据发送部86、发送请求接收部88、拍摄影像发送部90主要由影像分析装置22的通信部22c来实现。本实施方式的影像分析装置22承担作为将发送数据发送至中央监控装置10的发送装置的作用。
以上功能也可以通过由处理器22a执行安装于作为计算机的影像分析装置22的、包含与以上功能对应的指令的程序来实现。可以通过例如光盘、磁盘、磁带、光磁盘、闪存等计算机可读取的信息存储介质、或通过互联网等将该程序提供给影像分析装置22。
此外,发送数据生成部84也可以通过下变频器24等硬件及由影像分析装置22操作的软件来实现。此外,发送数据生成部84也可以仅通过下变频器24等硬件、或仅由影像分析装置22操作的软件来实现。
在本实施方式中,例如,发送数据接收部60接收从各个彼此不同的影像发送系统12所发送的多个上述发送数据。在此,如上所述,发送数据示出将拍摄影像低分辨率化的低分辨率影像与在该拍摄影像中是否出现目标对象34的判断结果。
在本实施方式中,例如,影像取得部62取得表示各个彼此不同的监控对象的情形的多个影像。在此,影像取得部62也可以取得发送数据接收部60接收的多个发送数据中的每个所示的低分辨率影像。
在以上说明中,通过1个照相机20拍摄了1个站台30。在此,例如,也可以分别通过其他的照相机20拍摄1个站台30的彼此不同的部分。此时,通过1个照相机20所拍摄的站台30的一部分、通过另一个照相机20所拍摄的该站台30的另一部为彼此不同的监控对象。此外,可以通过1个照相机20拍摄多个站台30。此时,该多个站台30相当于1个监控对象。
在本实施方式中,例如,车辆状况数据取得部64取得示出进入与表示监控对象的情形的影像相对应的线路的车辆的状况的车辆状况数据。在此,如上所述,车辆状况数据取得部64也可以从已知的运行管理系统取得车辆状况数据。
在本实施方式中,例如,监控优先级确定部66根据进入与表示监控对象的情形的影像相对应的线路的车辆的状况来确定该影像的监控优先级。在此,例如,也可以根据车辆状况数据取得部64取得的车辆状况数据来确定影像的监控优先级。
如上所述,监控优先级确定部66也可以根据具有与表示监控对象的情形的影像相对应的线路的车站与车辆之间的距离来确定与该线路相对应的影像的监控优先级。
此外,监控优先级确定部66也可以根据车辆到达与表示监控对象的情形的影像相对应的线路的推定时间来确定与该线路相对应的影像的监控优先级。
此外,监控优先级确定部66也可以根据通过与表示监控对象的情形的影像相对应的线路时车辆的速度来确定与该线路相对应的影像的监控优先级。
此外,监控优先级确定部66也可以根据与表示监控对象的情形的影像相对应的线路的车辆的乘客的属性确定与该线路相对应的影像的监控优先级。
此外,监控优先级确定部66也可以根据上述距离、推定时间、速度、乘客的属性中的多个组合来确定影像的监控优先级。
在本实施方式中,例如,合成影像生成部68生成合成影像,该合成影像合成了表示各个彼此不同的监控对象的情形的多个影像。在此,合成影像生成部68也可以生成表示影像的监控优先级的合成影像。
此外,合成影像生成部68也可以生成合成了多个发送数据中的每个所示的低分辨率影像的合成影像。在此,合成影像生成部68也可以生成合成了由影像取得部62取得的影像的合成影像。此外,合成影像生成部68也可以生成合成了表示多个发送数据中的至少一个所示的上述判断结果的合成影像。此外,合成影像生成部68也可以生成多个发送数据分别所示的上述判断的结果由与进入与发送该发送数据的影像发送系统12相对应的线路的车辆的状况所对应的状态表示的合成影像判断。
在本实施方式中,例如,拍摄影像发送请求部70发送拍摄了在影像发送系统12中设置有该影像发送系统12的站台30的拍摄影像的发送请求。在此,例如,也可以将拍摄影像的发送请求发送至由监控者等用户所指定的影像发送系统12。此外,例如,也可以将拍摄影像的发送请求发送至根据影像的监控优先级所确定的影像发送系统12。在此,例如,也可以将拍摄影像的发送请求发送至包含拍摄监控的优先级最高的影像的照相机20的影像发送系统12。
在本实施方式中,例如,拍摄影像接收部72根据拍摄影像的发送请求的接收来接收影像发送系统12所发送的拍摄影像。
在本实施方式中,例如,显示控制部74显示合成影像生成部68所生成的合成影像。此外,在本实施方式中,例如,显示控制部74显示拍摄影像接收部72所接收的拍摄影像。在上述示例中,显示控制部74将合成影像显示于整体监控监视器10d,并将拍摄影像显示于单独监控监视器10e。
此外,显示控制部74也可以切换显示多个拍摄影像。例如,也可以每隔规定的时间自动地重复切换显示监控的优先级较高的多个拍摄影像。此外,拍摄影像发送请求部70也可以根据显示的切换时刻,改变作为拍摄影像的发送请求的发送目的地的影像发送系统12。
在本实施方式中,例如,拍摄影像取得部80取得拍摄到监控对象的拍摄影像。在此,例如,也可以取得拍摄到设置有影像发送系统12的站台30的拍摄影像。
在本实施方式中,例如,判断部82根据拍摄影像取得部80取得的拍摄影像判断在该拍摄影像中是否出现给定的对象。在此,例如,上述目标对象34相当于该给定的对象。
在本实施方式中,图像识别部82a通过例如针对拍摄图像32执行图像识别处理来确定在该拍摄图像32内出现目标对象34的区域。
在本实施方式中,例如,追踪部82b通过对在该拍摄图像32之前所拍摄的拍摄图像32追踪图像识别部82a所确定的区域来确定在拍摄图像32内出现目标对象34的区域。
在本实施方式中,例如,发送数据生成部84根据拍摄影像和上述判断的结果生成示出将该拍摄影像低分辨率化的低分辨率影像和该判断的结果的发送数据。
在本实施方式中,例如,发送数据发送部86将发送数据生成部84所生成的发送数据发送至中央监控装置10。
在本实施方式中,例如,发送请求接收部88接收中央监控装置10的拍摄影像发送请求部70所发送的拍摄影像的发送请求。
在本实施方式中,例如,拍摄影像发送部90根据由发送请求接收部88所进行的拍摄影像的发送请求的接收,将拍摄影像发送至中央监控装置10。在此,拍摄影像发送部90也可以将拍摄影像取得部80所取得的拍摄影像发送至中央监控装置10。
此外,拍摄影像发送部90也可以根据发送请求接收部88的拍摄影像的发送请求的接收将示出拍摄影像和上述判断结果的代替发送数据发送至中央监控装置10。在此,如上所述,例如,也可以将包括根据拍摄影像所包含的拍摄图像32所生成的区域确定结果图像36的作为帧图像的影像作为代替发送数据发送。
此时,中央监控装置10的显示控制部74也可以根据代替发送数据的接收,显示表示该代替发送数据所示的上述判断结果的、该代替发送数据所示的拍摄影像。例如,中央监控装置10的显示控制部74也可以将包含区域确定结果图像36作为帧图像的影像进行显示。
以下,参照图15所例示的流程图说明在本实施方式的影像发送系统12中以规定的帧率重复进行处理的流程的一个示例。
首先,拍摄影像取得部80取得拍摄图像32(S101)。在此,所取得的拍摄图像32为拍摄影像中的该帧的帧图像。
然后,拍摄影像取得部80判断是否可以通过图像识别部82a进行图像识别(S102)。在此,例如,当图像识别部82a正在执行针对在该帧之前的帧中所取得的拍摄图像32的图像识别时,判断为不可以进行图像识别。另一方面,当图像识别部82a未执行针对拍摄图像32的图像识别时,判断为可以进行图像识别。
当判断为可以通过图像识别部82a进行图像识别时(S102:Y),图像识别部82a开始对在S101所示的处理中所取得的拍摄图像32执行图像识别处理(S103)。通过该图像识别处理确定在该拍摄图像32内出现有目标对象34的目标区域。在此,也可以生成上述区域确定结果图像36。此外,例如,也可以生成示出目标区域的位置、形状的目标区域信息。
当判断为不能通过图像识别部82a进行图像识别时(S102:N),追踪部82b确认是否存在作为在S103所示的处理的图像识别处理的结果的可利用的目标区域的确定结果(S104)。执行S103所示的处理之后,同样地,追踪部82b确认是否存在作为在S103所示的处理的图像识别处理的结果的可利用的目标区域的确定结果(S104)。
在此,当确认了存在确定结果时(S104:Y),追踪部82b执行追踪处理(S105)。在此,参照图8进行说明,例如,确定了S103所示的处理的图像识别处理的最新的可利用的确定结果。然后,通过追踪在该特定结果所示的拍摄图像32内的目标区域来确定在S101所示的处理中取得的拍摄图像32内出现目标对象34的目标区域。在此,也可以生成上述区域确定结果图像36。此外,例如,也可以生成示出目标区域的位置、形状的目标区域信息。
当确认了没有可利用的目标区域的确定结果时(S104:N),追踪部82b判断在S101所示的处理中取得的拍摄图像32中是否出现目标对象34(S106)。当S105所示的处理结束时也一样,追踪部82b判断在S101所示的处理中取得的拍摄图像32中是否出现目标对象34(S106)。在此,例如,当在S105所示的处理中确定了目标区域时,判断在拍摄图像32出现目标对象34。此外,在S105所示的处理中不进行追踪且未确定目标区域时,判断在拍摄图像32中未出现目标对象34。此外,当确认了在S104所示的处理中没有可利用的目标区域的确定结果时,也判断为在拍摄图像32中未出现给定的对象。
然后,发送数据生成部84通过将在S101所示的处理中取得的拍摄图像32低分辨率化来生成低分辨率图像(S107)。在此,如上所述,也可以通过将区域确定结果图像36低分辨率化来生成低分辨率图像。
然后,发送数据生成部84根据在S106所示的处理中的判断结果和在S107所示的处理中所生成的低分辨率图像生成发送数据(S108)。在此,例如,也可以生成包括在S107所示的处理中所生成的低分辨率化的区域确定结果图像36的发送数据。此外,例如,也可以生成在标题等中包括示出S106所示的处理的判断结果的标志的发送数据。此外,例如,也可以生成包括将拍摄图像32低分辨率化的低分辨率图像、和示出该低分辨率图像内的目标区域的位置、形状的目标区域信息的发送数据。
然后,发送数据发送部86将在S108所示的处理中所生成的发送数据发送至中央监控装置10(S109),并返回至S101所示的处理。
在本处理例中,以规定的帧率反复执行S101~S109所示的处理。另外,在上述处理例所示的处理中,发送数据的发送以毎帧进行,但也可以例如在多次重复执行S101~S108所示的处理之后,将所生成的多个发送数据集中发送至中央监控装置10。
以下,参照图16所例示的流程图说明在本实施方式的中央监控装置10中以规定的帧率反复进行处理的流程的一个示例。另外,在本处理例所示的处理中,发送数据接收部60缓存分别从多个影像发送系统12接收的发送数据。
首先,影像取得部62从发送数据接收部60的缓存取得该帧中的多个发送数据(S201)。该多个发送数据为从多个影像发送系统12中的每个所发送的数据。另外,在本处理例中,发送数据中包含帧号,影像取得部62可以确定该帧中的多个发送数据。
然后,合成影像生成部68针对在S201所示的处理取得的多个发送数据中的每个,确定在与该发送数据相对应的拍摄图像32中是否出现目标对象34的判断结果(S202)。如上所述,例如,根据来自发送数据所示的低分辨率图像的目标区域图像38的检测结果、发送数据所包含的标志所示的判断结果、发送数据所包含的目标区域信息等确定判断结果。
然后,车辆状况数据取得部64取得示出该帧中的车辆的状况的车辆状况数据(S203)。
然后,监控优先级确定部66根据在S203所示的处理中取得的车辆状况数据对在S201所示的处理中取得的多个发送数据分别确定影像监控的优先级(S204)。在此,也可以仅对在S202中判断了在拍摄图像32中出现目标对象34的发送数据确定影像的监控优先级。
然后,合成影像生成部68生成该帧的合成图像40(S205)。在此,例如,根据在S201所示的处理中所取得的发送数据所包含的低分辨率影像、在S202所示的处理中所确定的判断的结果、及在S204所示的处理中所确定的优先级生成合成图像40。
然后,显示控制部74显示由S205所示的处理所生成的合成图像40(S206),并返回至S201所示的处理。
在本处理例中,以规定的帧率反复执行S201~S206所示的处理。
另外,本发明并不限于上述实施方式。
例如,如图17及图18所示,也可以根据检票口等特定位置的目标对象34的检测拍摄该特定位置的图像。以下,将检测到通过这种方式拍摄的、根据目标对象34的检测所拍摄的该目标对象34的位置的图像称为参照拍摄图像92。在此,参照拍摄图像92由例如与拍摄车站的站台30等监控对象的照相机20不同的照相机20拍摄。
图17示出有在检票口从前方拍摄目标对象34的参照拍摄图像92a的一个示例。图18示出有在检票口从后方拍摄目标对象34的参照拍摄图像92b的一个示例。由此,也可以根据IC标签的检测从彼此不同的方向拍摄多个参照拍摄图像92。
在此,例如,也可以将检测埋入拐杖中的IC标签、手持拐杖的人携带的IC卡、挂在协助犬上IC卡等的传感器设置在检票口等特定的位置。并且,也可以根据该传感器对IC标签、IC卡的检测拍摄1个或多个参照拍摄图像92。另外,也可以通过与检测IC标签、IC卡不同的方法检测目标对象34。
另外,进行目标对象34的检测的位置并不限于检票口。例如,也可以在站台门等处设置上述传感器。并且,也可以根据由该传感器执行的目标对象34的检测拍摄站台门及其周边的位置的参照拍摄图像92。
然后,拍摄影像取得部80也可以取得通过这样的方式所拍摄的参照拍摄图像92。在此,拍摄影像取得部80也可以取得从彼此不同的方向所拍摄的多个参照拍摄图像92。
然后,图像识别部82a也可以执行针对上述参照拍摄图像92由已知的图像识别技术进行的图像识别处理,来确定在该参照拍摄图像92中出现目标对象34的目标区域。并且,图像识别部82a也可以生成表示该目标区域的上述目标区域信息。
图19为示出根据图17所示的参照拍摄图像92a所生成的目标区域信息的一个示例的区域确定结果图像94a的一个示例的图。图20为示出根据图18所示的参照拍摄图像92b所生成的目标区域信息的一个示例的区域确定结果图像94b的一个示例的图。
在图19所示的区域确定结果图像94a中,图17所示的参照拍摄图像92a重叠有包围目标对象34的框状的目标区域图像96a。在图20所示的区域确定结果图像94b中,图18所示的参照拍摄图像92b重叠有包围目标对象34的框状的目标区域图像96b。
然后,判断部82也可以根据参照拍摄图像92、和拍摄到的车站的站台30等监控对象的拍摄影像判断在该拍摄影像中是否出现目标对象34。在此,也可以根据从彼此不同的方向所拍摄的多个参照拍摄图像92和拍摄影像来判断在该拍摄影像中是否出现目标对象34。
例如,图像识别部82a也可以通过使用根据参照拍摄图像92所确定的目标区域执行针对拍摄图像32的图像识别处理,确定在该拍摄图像32内出现目标对象34的区域。
或者,追踪部82b也可以通过对上述参照拍摄图像92进行图像识别部82a所确定的目标区域的追踪来确定在拍摄图像32内出现目标对象34的区域。
在根据目标对象34的检测而拍摄的参照拍摄图像92中很可能鲜明地表现出目标对象34。因此,通过以上的方式,能够从拍摄车站的站台30等监视对象的拍摄图像32中更准确地检测目标对象34。
此外,在此,通过从彼此不同的方向拍摄多个参照拍摄图像92,能够使用更多的信息进行针对拍摄的车站的站台30等监控对象的拍摄图像32的图像识别处理、追踪处理。因此,可以从拍摄的车站的站台30等监控对象的拍摄图像32更准确地检测目标对象34。
此外,例如,中央监控装置10和影像发送系统12的角色分担并不限于上述描述。例如,也可以在影像发送系统12中确定进入与表示监控对象的情形的影像相对应的线路的车辆的状况。其中,也可以将示出该车辆的状况的车辆状况数据从影像发送系统12发送至中央监控装置10。并且,中央监控装置10也可以根据从影像发送系统12接收的车辆状况数据确定影像的监控的优先级。
此外,例如,可以由1个影像发送系统12监控多个车站的监控对象。此时,1个影像发送系统12包括设置在彼此不同的多个车站的多个照相机20。并且,1个影像发送系统12也可以根据该多个照相机20各自拍摄的影像生成与该该影像相对应的发送数据。
此外,也可以将中央监控装置10的功能的一部分或全部安装于1个影像发送系统12。此外,例如,1个影像发送系统12也可以监控多个车站的站台30。此外,例如,1个影像发送系统12也可以监控在设置有该影像发送系统12的车站设置的多个站台30。由此,本发明不仅适用于中央监控装置10中的多个车站的监控,也可以适用于1个车站的多个站台30的监控。
此外,上述具体的文字、数值、以及附图中的具体的文字是示例,并不限于这些文字、数值。
Claims (7)
1.一种车站监控装置,其监控车站的站台,其特征在于,包括:
影像取得单元,其取得表示各个彼此不同的监控对象的情形的多个影像;
监控优先级确定单元,其根据进入与所述影像相对应的线路的车辆的状况确定该影像的监控优先级;
合成影像生成单元,其生成合成了表示所述监控优先级的所述多个影像的合成影像;以及
显示控制单元,其显示所述合成影像。
2.根据权利要求1所述的车站监控装置,其特征在于,
所述监控优先级确定单元根据所述线路所在的车站与所述车辆之间的距离确定与该线路相对应的影像的监控优先级。
3.根据权利要求1或2所述的车站监控装置,其特征在于,
所述监控优先级确定单元根据所述车辆最终到达所述线路的推定时间确定该线路相对应的影像的监控优先级。
4.根据权利要求1至3中的任一项所述的车站监控装置,其特征在于,
所述监控优先级确定单元根据通过所述线路时所述车辆的速度确定与该线路相对应的影像的监控优先级。
5.根据权利要求1至4中的任一项所述的车站监控装置,其特征在于,
所述监控优先级确定单元根据进入所述线路的车辆乘客属性确定与该线路相对应的影像的监控优先级。
6.一种车站监控方法,其监控车站的站台,其特征在于,包括:
取得步骤,取得表示各个彼此不同的监控对象的情形的多个影像;
确定步骤,根据进入与所述影像相对应的线路的车辆的状况确定该影像的监控优先级;
生成步骤,生成合成了表示所述监控的优先级的所述多个影像的合成影像;以及
显示步骤,显示所述合成影像。
7.一种程序,其特征在于,使监控车站的站台的计算机执行以下步骤:
取得步骤,取得表示各个彼此不同的监控对象的情形的多个影像;
确定步骤,根据进入与所述影像相对应的线路的车辆的状况确定该影像的监控优先级;
生成步骤,生成合成了表示所述监控的优先级的所述多个影像的合成影像;
显示步骤,显示所述合成影像。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018153983 | 2018-08-20 | ||
JP2018-153983 | 2018-08-20 | ||
PCT/JP2019/030536 WO2020039898A1 (ja) | 2018-08-20 | 2019-08-02 | 駅監視装置、駅監視方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112640444A true CN112640444A (zh) | 2021-04-09 |
Family
ID=69593032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980054351.1A Pending CN112640444A (zh) | 2018-08-20 | 2019-08-02 | 车站监控装置、车站监控方法及程序 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7107597B2 (zh) |
CN (1) | CN112640444A (zh) |
WO (1) | WO2020039898A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023148889A (ja) * | 2022-03-30 | 2023-10-13 | 株式会社日立製作所 | 列車走行支援装置及び列車走行支援方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005292879A (ja) * | 2004-03-31 | 2005-10-20 | Fujitsu Ltd | 撮影情報サーバおよび撮影情報送信システム |
JP2007081553A (ja) * | 2005-09-12 | 2007-03-29 | Hitachi Kokusai Electric Inc | カメラシステムの表示方法及びカメラシステム |
CN103209316A (zh) * | 2012-01-17 | 2013-07-17 | 株式会社日立建筑系统 | 影像监视系统 |
JP2014040221A (ja) * | 2012-08-23 | 2014-03-06 | Hitachi Building Systems Co Ltd | 映像監視システム |
JP2015032995A (ja) * | 2013-08-02 | 2015-02-16 | 株式会社日立ビルシステム | 映像監視システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002104189A (ja) * | 2000-09-28 | 2002-04-10 | Matsushita Electric Ind Co Ltd | 列車運転支援システム及び列車運転支援用地上側装置並びに列車運転支援用車両側装置 |
-
2019
- 2019-08-02 WO PCT/JP2019/030536 patent/WO2020039898A1/ja active Application Filing
- 2019-08-02 CN CN201980054351.1A patent/CN112640444A/zh active Pending
- 2019-08-02 JP JP2020538276A patent/JP7107597B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005292879A (ja) * | 2004-03-31 | 2005-10-20 | Fujitsu Ltd | 撮影情報サーバおよび撮影情報送信システム |
JP2007081553A (ja) * | 2005-09-12 | 2007-03-29 | Hitachi Kokusai Electric Inc | カメラシステムの表示方法及びカメラシステム |
CN103209316A (zh) * | 2012-01-17 | 2013-07-17 | 株式会社日立建筑系统 | 影像监视系统 |
JP2014040221A (ja) * | 2012-08-23 | 2014-03-06 | Hitachi Building Systems Co Ltd | 映像監視システム |
JP2015032995A (ja) * | 2013-08-02 | 2015-02-16 | 株式会社日立ビルシステム | 映像監視システム |
Also Published As
Publication number | Publication date |
---|---|
JP7107597B2 (ja) | 2022-07-27 |
WO2020039898A1 (ja) | 2020-02-27 |
JPWO2020039898A1 (ja) | 2021-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102572261A (zh) | 处理图像的方法以及应用该方法的图像拍摄设备 | |
CN112001912B (zh) | 目标检测方法和装置、计算机系统和可读存储介质 | |
KR20140039927A (ko) | 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법 | |
JP7107596B2 (ja) | 駅監視システム及び駅監視方法 | |
JP4882577B2 (ja) | 物体追跡装置およびその制御方法、物体追跡システム、物体追跡プログラム、ならびに該プログラムを記録した記録媒体 | |
CN112640444A (zh) | 车站监控装置、车站监控方法及程序 | |
CN110706497A (zh) | 图像处理装置以及计算机可读存储介质 | |
US20210232862A1 (en) | Data providing system and data collection system | |
CN112287805A (zh) | 运动物体的检测方法、装置、可读存储介质及电子设备 | |
JP2023100805A (ja) | 撮像装置、撮像方法及び撮像プログラム | |
US11917335B2 (en) | Image processing device, movable device, method, and program | |
CN114565952A (zh) | 行人轨迹生成方法、装置、设备和存储介质 | |
JP2022032520A (ja) | 管理システム、管理方法、管理装置、プログラム及び通信端末 | |
CN109903308B (zh) | 用于获取信息的方法及装置 | |
JP2009147479A (ja) | 監視カメラおよび監視カメラシステム | |
JP5769468B2 (ja) | 物体検出システム及び物体検出方法 | |
JP7160763B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラム、およびアプリケーションプログラム | |
US20110080495A1 (en) | Method and camera system for the generation of images for the transmission to an external control unit | |
JP6686076B2 (ja) | 情報処理装置、情報処理方法、プログラム、およびアプリケーションプログラム | |
CN114596239A (zh) | 装卸货事件检测方法、装置、计算机设备和存储介质 | |
CN112313944A (zh) | 图像处理方法、装置、设备及存储介质 | |
KR101462269B1 (ko) | 고화질 카메라의 부분 저장장치 및 방법 | |
CN112836635B (zh) | 图像处理方法、装置及设备 | |
CN117058689B (zh) | 用于化工生产的离线检测数据处理方法 | |
JP7338726B1 (ja) | 移動体計測方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210409 |