JP2018173501A - Display controller and method for display control - Google Patents

Display controller and method for display control Download PDF

Info

Publication number
JP2018173501A
JP2018173501A JP2017070628A JP2017070628A JP2018173501A JP 2018173501 A JP2018173501 A JP 2018173501A JP 2017070628 A JP2017070628 A JP 2017070628A JP 2017070628 A JP2017070628 A JP 2017070628A JP 2018173501 A JP2018173501 A JP 2018173501A
Authority
JP
Japan
Prior art keywords
unit
display control
visual recognition
captured image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017070628A
Other languages
Japanese (ja)
Other versions
JP7062879B2 (en
Inventor
山本 直樹
Naoki Yamamoto
直樹 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saxa Inc
Original Assignee
Saxa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saxa Inc filed Critical Saxa Inc
Priority to JP2017070628A priority Critical patent/JP7062879B2/en
Publication of JP2018173501A publication Critical patent/JP2018173501A/en
Application granted granted Critical
Publication of JP7062879B2 publication Critical patent/JP7062879B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce overlooking of occurrence of emergencies such as persons with acute illness.SOLUTION: The present invention includes: an acquisition part 341 for acquiring an image generated by an imaging device set in a platform of a station; a specification unit 342 for specifying a visual recognition target object that not smaller than a predetermined number of people are visually recognizing at the same time on the basis of the directions of persons in the image; and a display control unit 343 for displaying the image including the visual recognition target object specified by the specification unit 342 in a display device. The configuration as described above can reduce overlooking of occurrence of emergencies such as persons with acute illness.SELECTED DRAWING: Figure 4

Description

本発明は、画像を表示装置に表示するための表示制御装置及び表示制御方法に関する。   The present invention relates to a display control device and a display control method for displaying an image on a display device.

鉄道の乗客の状況を確認するために複数の監視カメラを駅のプラットホームに配置することが広く行われている。例えば、特許文献1には、駅のプラットホームに配置されたカメラにより撮影された画像をサーバに保存することが記載されている。   In order to check the situation of passengers on the railway, it is widely practiced to arrange a plurality of surveillance cameras on the station platform. For example, Patent Document 1 describes storing an image taken by a camera arranged on a station platform in a server.

特開2015−176478号公報Japanese Patent Laying-Open No. 2015-176478

駅のプラットホームに配置された複数のカメラ間の死角を小さくするには、プラットホームになるべく多数のカメラを配置することが望ましい。しかしながら、多数のカメラにより撮像された撮像画像を同時に確認しようとすれば、急病人等の緊急事態の発生を見落としてしまうという問題が生じていた。   In order to reduce the blind spot between a plurality of cameras arranged on the platform of the station, it is desirable to arrange as many cameras as possible on the platform. However, if an attempt is made to simultaneously check captured images captured by a large number of cameras, there has been a problem of overlooking the occurrence of an emergency such as a sudden illness.

そこで、本発明はこれらの点に鑑みてなされたものであり、急病人等の緊急事態の発生を見落とすことを抑制することができる表示制御装置及び表示制御方法を提供することを目的とする。   Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide a display control device and a display control method capable of suppressing the occurrence of an emergency such as a suddenly ill person.

本発明の第1の態様の表示制御装置は、駅のプラットホームに設置された撮像装置が生成した撮像画像を取得する取得部と、前記撮像画像に含まれる人の向きに基づいて、所定の数以上の人が同時に視認している視認対象物を特定する特定部と、前記特定部が特定した前記視認対象物を含む画像を表示装置に表示させる表示制御部と、を有する。   The display control device according to the first aspect of the present invention includes a predetermined number based on an acquisition unit that acquires a captured image generated by an imaging device installed on a platform of a station, and a direction of a person included in the captured image. It has a specific part which specifies the visual recognition object which the above person is visually recognizing simultaneously, and a display control part which displays an image including the visual recognition object which the specific part specified on a display device.

前記特定部は、前記撮像画像に含まれる複数の人に対する、前記視認対象物を視認している人の割合を特定し、前記表示制御部は、前記特定部が特定した前記割合が所定値以上である場合に、前記視認対象物を含む画像を前記表示装置に表示させてもよい。   The specifying unit specifies a ratio of people who are viewing the object to be viewed with respect to a plurality of people included in the captured image, and the display control unit is configured such that the ratio specified by the specifying unit is equal to or greater than a predetermined value. In this case, an image including the visual recognition object may be displayed on the display device.

前記取得部は、複数の前記撮像画像を取得し、前記特定部は、前記複数の撮像画像に基づいて、前記撮像画像に含まれている人が前記視認対象物を継続して視認している時間である継続視認時間を特定し、前記表示制御部は、前記継続視認時間が所定の時間以上である場合に、前記視認対象物を含む画像を前記表示装置に表示させてもよい。   The acquisition unit acquires a plurality of the captured images, and the specifying unit continuously recognizes the visual target object by a person included in the captured image based on the plurality of captured images. The continuous visual recognition time which is time may be specified, and the display control unit may display an image including the visual recognition object on the display device when the continuous visual recognition time is equal to or longer than a predetermined time.

前記表示制御部は、前記特定部が前記視認対象物を特定した後に、前記視認対象物から複数の人が離れたことを検出した場合、又は前記視認対象物に複数の人が集まったことを検出した場合に、警告情報を出力してもよい。   The display control unit detects that a plurality of people have left the viewing object after the identifying unit identifies the viewing object, or that a plurality of people gathered in the viewing object. If detected, warning information may be output.

前記取得部は、前記撮像装置から所定の範囲内で収集された音を示す音情報をさらに取得し、前記特定部は、前記音情報が所定の条件を満たす場合に前記視認対象物を特定する処理を開始してもよい。   The acquisition unit further acquires sound information indicating sound collected within a predetermined range from the imaging device, and the specifying unit specifies the visual target object when the sound information satisfies a predetermined condition Processing may be started.

本発明の第2の態様の表示制御方法は、コンピュータが実行する、駅のプラットホームに設置された撮像装置が生成した撮像画像を取得するステップと、前記撮像画像に含まれる人の向きに基づいて、所定の数以上の人が同時に視認している視認対象物を特定するステップと、特定した前記視認対象物を含む画像を表示装置に表示させるステップと、を有する。   The display control method according to the second aspect of the present invention is based on the step of acquiring a captured image generated by an imaging device installed on a platform of a station, which is executed by a computer, and the orientation of a person included in the captured image. And a step of specifying a visual recognition object that is simultaneously viewed by a predetermined number of people and a step of displaying an image including the specified visual recognition object on a display device.

本発明によれば、急病人等の緊急事態の発生を見落とすことを抑制することができるという効果を奏する。   According to the present invention, it is possible to suppress the occurrence of an emergency such as a suddenly ill person from being overlooked.

監視システムの構成を示す図である。It is a figure which shows the structure of a monitoring system. 撮像装置により生成された撮像画像を示す。The captured image produced | generated by the imaging device is shown. 撮像装置の構成を示す図である。It is a figure which shows the structure of an imaging device. サーバの構成を示す図である。It is a figure which shows the structure of a server. 撮像装置により乗客を撮像した様子を示す。The state which imaged the passenger with the imaging device is shown. 撮像装置により生成された撮像画像における複数の乗客の向きを示す。The directions of a plurality of passengers in a captured image generated by the imaging device are shown. 表示制御装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of a display control apparatus.

<実施の形態>
[監視システムSの構成の概要]
図1は、監視システムSの構成を示す図である。監視システムSは、鉄道の駅に設けられており、複数のカメラの撮像画像に基づいて、鉄道の乗客の急病や乗客同士のケンカ等の緊急事態を特定する。監視システムSは、複数のカメラの撮像画像のうち、特定した緊急事態を撮像しているカメラの撮像画像を表示する。
<Embodiment>
[Overview of monitoring system S configuration]
FIG. 1 is a diagram illustrating a configuration of the monitoring system S. The monitoring system S is provided at a railway station, and identifies an emergency such as a sudden illness of a passenger on a railway or a fight between passengers based on images captured by a plurality of cameras. The monitoring system S displays the captured image of the camera capturing the identified emergency situation among the captured images of the plurality of cameras.

監視システムSは、複数の撮像装置1と、ハブ2と、サーバ3と、モニタ4とを備える。撮像装置1は、例えば複数の撮像部を有するステレオカメラであり、プラットホームに停車した列車のドア付近を撮像できる位置に設置されている。複数の撮像装置1は、それぞれが列車の一つのドア付近を撮像できる位置に設置されており、デイジーチェーン接続されている。   The monitoring system S includes a plurality of imaging devices 1, a hub 2, a server 3, and a monitor 4. The imaging device 1 is, for example, a stereo camera having a plurality of imaging units, and is installed at a position where the vicinity of a train door stopped on the platform can be imaged. Each of the plurality of imaging devices 1 is installed at a position where the vicinity of one door of the train can be imaged, and is connected in a daisy chain.

デイジーチェーン接続された複数の撮像装置1から構成される撮像装置群は、プラットホームごとに設けられている。複数のプラットホーム(例えば、図1におけるホームA〜C)に設置された複数の撮像装置群は、ハブ2に接続されており、複数の撮像装置群の各撮像装置1が生成した撮像画像は、ハブ2を介してサーバ3に送信される。   An imaging device group including a plurality of imaging devices 1 connected in a daisy chain is provided for each platform. A plurality of imaging device groups installed on a plurality of platforms (for example, homes A to C in FIG. 1) are connected to the hub 2, and captured images generated by the imaging devices 1 of the plurality of imaging device groups are: It is transmitted to the server 3 via the hub 2.

サーバ3は、モニタ4に表示するための画像データを生成する表示制御装置である。サーバ3は、複数の撮像装置1から撮像画像を取得する。サーバ3は、撮像画像を解析する。具体的には、サーバ3は、撮像画像に写っている乗客の向きを検出することにより、所定の数以上の乗客に視認されている視認対象物を特定する。所定の数は、例えば2人又は3人以上の任意の数である。サーバ3は、複数の撮像装置1に対応する撮像画像のうち、特定した視認対象物を含む撮像画像をモニタ4に表示させる。モニタ4は、駅員室等に配置された表示装置である。   The server 3 is a display control device that generates image data to be displayed on the monitor 4. The server 3 acquires captured images from the plurality of imaging devices 1. The server 3 analyzes the captured image. Specifically, the server 3 specifies a visual target that is visually recognized by a predetermined number or more of passengers by detecting the direction of the passengers reflected in the captured image. The predetermined number is, for example, an arbitrary number of two or three or more. The server 3 causes the monitor 4 to display a captured image including the identified visual recognition object among the captured images corresponding to the plurality of imaging devices 1. The monitor 4 is a display device arranged in a station staff room or the like.

[監視システムSの動作の概要]
図2を参照して、監視システムSの動作の概要を説明する。図2(a)及び(b)は、撮像装置1により生成された撮像画像を示す。図2(a)及び(b)において乗客P1の向きを矢印で示す。監視システムSにおいて向きを検出できなかった乗客P1には、矢印を付していない。図2(a)は、通常時の撮像装置1による撮像画像であり、鉄道車両のドア付近における多数の乗客P1を示している。一部の乗客P1は、鉄道車両のドアの方向を向いており、移動中の乗客P1は、移動方向を向いている。
[Overview of operation of monitoring system S]
With reference to FIG. 2, the outline | summary of operation | movement of the monitoring system S is demonstrated. 2A and 2B show captured images generated by the imaging device 1. FIG. In FIGS. 2A and 2B, the direction of the passenger P1 is indicated by an arrow. The passenger P1 whose direction could not be detected in the monitoring system S is not attached with an arrow. FIG. 2A is a captured image by the imaging device 1 in a normal state, and shows a large number of passengers P1 in the vicinity of the door of the railway vehicle. Some passengers P1 are facing the direction of the door of the railway vehicle, and the moving passengers P1 are facing the moving direction.

図2(b)は、緊急事態の発生時における撮像装置1による撮像画像である。例えば、急病人等の緊急事態が発生した場合、多数の乗客P1は、この緊急事態の当事者の方向を向く。そこで、監視システムSでは、複数の乗客P1の向きを検出することにより、緊急事態の発生を特定する。以下、撮像装置1及びサーバ3の構成を詳細に説明する。   FIG. 2B is a captured image by the imaging device 1 when an emergency situation occurs. For example, when an emergency such as a sudden illness occurs, a large number of passengers P1 face the parties of the emergency. Therefore, in the monitoring system S, occurrence of an emergency situation is specified by detecting the directions of the plurality of passengers P1. Hereinafter, the configuration of the imaging device 1 and the server 3 will be described in detail.

[撮像装置1の構成]
図3は、撮像装置1の構成を示す図である。撮像装置1は、第1撮像部11、第2撮像部12、マイクロホン13、通信部14、記憶部15及び制御部16を有する。
[Configuration of Imaging Device 1]
FIG. 3 is a diagram illustrating a configuration of the imaging apparatus 1. The imaging device 1 includes a first imaging unit 11, a second imaging unit 12, a microphone 13, a communication unit 14, a storage unit 15, and a control unit 16.

第1撮像部11及び第2撮像部12のそれぞれは、レンズ及び撮像素子を有しており、撮像画像を生成する。第1撮像部11及び第2撮像部12は、プラットホームの表面と平行な方向に並んで設けられており、第1撮像部11と第2撮像部12との間には視差が存在する。したがって、サーバ3は、第1撮像部11が生成した撮像画像及び第2撮像部12が生成した撮像画像を用いることで、三次元画像を生成することができる。サーバ3は、三次元画像を解析することにより、乗客P1の向き及び動きを高い精度で検出することができる。   Each of the first imaging unit 11 and the second imaging unit 12 includes a lens and an imaging element, and generates a captured image. The first imaging unit 11 and the second imaging unit 12 are provided side by side in a direction parallel to the surface of the platform, and parallax exists between the first imaging unit 11 and the second imaging unit 12. Therefore, the server 3 can generate a three-dimensional image by using the captured image generated by the first imaging unit 11 and the captured image generated by the second imaging unit 12. The server 3 can detect the direction and movement of the passenger P1 with high accuracy by analyzing the three-dimensional image.

マイクロホン13は、撮像装置1から所定の範囲内において音を収集し、収集した音を示す音情報を制御部16に入力する。通信部14は、第1撮像部11及び第2撮像部12が生成した撮像画像と、マイクロホン13が収集した音情報とを送信するための通信インターフェースである。通信部14は、撮像画像及び音情報を隣の撮像装置1に対して送信する。複数の撮像装置1の通信部14が、それぞれ隣の撮像装置1に対して撮像画像及び音情報を送信することにより、全ての撮像装置1が生成した撮像画像及び音情報がサーバ3に届く。   The microphone 13 collects sound within a predetermined range from the imaging device 1 and inputs sound information indicating the collected sound to the control unit 16. The communication unit 14 is a communication interface for transmitting captured images generated by the first imaging unit 11 and the second imaging unit 12 and sound information collected by the microphone 13. The communication unit 14 transmits the captured image and sound information to the adjacent imaging device 1. The communication units 14 of the plurality of imaging devices 1 transmit captured images and sound information to the adjacent imaging devices 1, respectively, so that the captured images and sound information generated by all the imaging devices 1 reach the server 3.

記憶部15は、ハードディスク、ROM(Read Only Memory)、及びRAM(Random Access Memory)等の記憶媒体を有する。記憶部15は、第1撮像部11及び第2撮像部12が生成した撮像画像を一時的に記憶する。また、記憶部15は、制御部16が実行するプログラムを記憶している。   The storage unit 15 includes a storage medium such as a hard disk, a ROM (Read Only Memory), and a RAM (Random Access Memory). The storage unit 15 temporarily stores captured images generated by the first imaging unit 11 and the second imaging unit 12. The storage unit 15 stores a program executed by the control unit 16.

制御部16は、例えばCPU(Central Processing Unit)であり、記憶部15に記憶されたプログラムを実行することにより、撮像装置1の各部を制御する。制御部16は、例えば、第1撮像部11及び第2撮像部12に撮像画像を生成させる。また、制御部16は、第1撮像部11及び第2撮像部12により生成された撮像画像をサーバ3へ通信部14を介して送信する。また、制御部16は、マイクロホン13により収集された音情報をサーバ3へ通信部14を介して送信する。   The control unit 16 is, for example, a CPU (Central Processing Unit), and controls each unit of the imaging apparatus 1 by executing a program stored in the storage unit 15. For example, the control unit 16 causes the first imaging unit 11 and the second imaging unit 12 to generate a captured image. Further, the control unit 16 transmits the captured images generated by the first imaging unit 11 and the second imaging unit 12 to the server 3 via the communication unit 14. Further, the control unit 16 transmits the sound information collected by the microphone 13 to the server 3 via the communication unit 14.

[サーバ3の構成]
図4は、サーバ3の構成を示す図である。サーバ3は、モニタ接続部31、通信部32、記憶部33及び制御部34を備える。モニタ接続部31は、制御部34において生成された画像データをモニタ4に表示させるための通信インターフェースである。通信部32は、複数の撮像装置1との間でデータを送受信するための通信インターフェースである。通信部32は、例えば、ハブ2を介して撮像装置1が生成した撮像画像及び音情報を受信する。
[Configuration of Server 3]
FIG. 4 is a diagram illustrating a configuration of the server 3. The server 3 includes a monitor connection unit 31, a communication unit 32, a storage unit 33, and a control unit 34. The monitor connection unit 31 is a communication interface for causing the monitor 4 to display the image data generated by the control unit 34. The communication unit 32 is a communication interface for transmitting and receiving data to and from the plurality of imaging devices 1. The communication unit 32 receives, for example, a captured image and sound information generated by the imaging device 1 via the hub 2.

記憶部33は、ハードディスク、ROM及びRAM等の記憶媒体を有する。記憶部33は、複数の撮像装置1のそれぞれから受信した複数の撮像画像を一時的に記憶する。記憶部33は、制御部34が実行するプログラムを記憶している。   The storage unit 33 includes a storage medium such as a hard disk, a ROM, and a RAM. The storage unit 33 temporarily stores a plurality of captured images received from each of the plurality of imaging devices 1. The storage unit 33 stores a program executed by the control unit 34.

制御部34は、例えばCPUである。制御部34は、記憶部33が記憶しているプログラムを実行することにより、取得部341、特定部342及び表示制御部343として機能する。取得部341は、撮像装置1が生成した撮像画像及び音情報を通信部32により取得する。取得部341は、各撮像装置1に対応する複数の撮像画像及び音情報を取得する。   The control unit 34 is, for example, a CPU. The control unit 34 functions as an acquisition unit 341, a specification unit 342, and a display control unit 343 by executing a program stored in the storage unit 33. The acquisition unit 341 acquires the captured image and sound information generated by the imaging device 1 by the communication unit 32. The acquisition unit 341 acquires a plurality of captured images and sound information corresponding to each imaging device 1.

特定部342は、撮像画像に含まれる乗客P1の向きに基づいて、所定の数以上の乗客P1が同時に視認している視認対象物を特定する。所定の数は、例えば2人、又は3人以上の任意の数である。特定部342は、例えば、乗客P1の向きとして顔の向きを検出する。特定部342は、特定した視認対象物を含む撮影画像をモニタ4に表示する必要のある要注意画像として表示制御部343に入力する。   Based on the orientation of the passenger P1 included in the captured image, the specifying unit 342 specifies a visual target object that is simultaneously viewed by a predetermined number or more of the passengers P1. The predetermined number is, for example, an arbitrary number of two or three or more. For example, the identifying unit 342 detects the orientation of the face as the orientation of the passenger P1. The identification unit 342 inputs a captured image including the identified visual target object to the display control unit 343 as a caution image that needs to be displayed on the monitor 4.

[特定部342による乗客の向きの検出]
図5を参照することにより、特定部342による乗客P1の向きの検出方法を説明する。図5は、撮像装置1により乗客P1を撮像した様子を示す。撮像装置1は、混雑時にも撮像範囲に支障を生じないことを考慮して、プラットホームの比較的高い位置に取り付けられており、例えば、乗客P1の頭部及び肩を上方から撮像する。特定部342は、まず、乗客P1の肩幅の方向を特定し、肩幅の方向に垂直な向きのうち、毛髪により黒くなっている側が向かっている背面方向とする。また、特定部342は、矢印で示すように、毛髪により黒くなっていない顔部分の向きを乗客P1の向きとして検出する。
[Detection of passenger direction by specific unit 342]
With reference to FIG. 5, the detection method of the direction of the passenger P1 by the specific | specification part 342 is demonstrated. FIG. 5 shows a state where the passenger P1 is imaged by the imaging device 1. The imaging device 1 is attached to a relatively high position of the platform in consideration of not causing any trouble in the imaging range even when it is congested. For example, the imaging device 1 images the head and shoulders of the passenger P1 from above. First, the specification unit 342 specifies the direction of the shoulder width of the passenger P1 and sets the direction to the back direction in which the side blackened by the hair is facing in the direction perpendicular to the direction of the shoulder width. Moreover, the specific | specification part 342 detects the direction of the face part which is not black with hair as a direction of the passenger P1, as shown by the arrow.

[特定部342による乗客P1の視認対象物の特定]
図6を参照することにより、特定部342による複数の乗客P1の視認対象物の特定方法について説明する。図6は、撮像装置1により生成された撮像画像における複数の乗客P1を示す。矢印は、各乗客P1の向きに沿って延びる顔向き線である。特定部342は、撮像画像において顔向き線を描画し、単位面積当たりにおいて顔向き線が通過する本数が多い視認領域Cを視認対象物として特定する。図6の例において特定された視認領域Cを破線で示す。
[Identification of object to be visually recognized by passenger P1 by specifying unit 342]
With reference to FIG. 6, the identification method of the visual recognition target object of the several passengers P1 by the specific | specification part 342 is demonstrated. FIG. 6 shows a plurality of passengers P1 in the captured image generated by the imaging device 1. The arrow is a face direction line extending along the direction of each passenger P1. The identifying unit 342 draws a face-facing line in the captured image, and identifies a viewing area C through which the face-facing line passes per unit area as a viewing object. The visual recognition area C specified in the example of FIG. 6 is indicated by a broken line.

なお、特定部342は、異なる撮像装置1に対応する複数の撮像画像を用いて、視認対象物を特定する構成であってもよい。例えば、特定部342は、既知の画像合成技術により、複数の撮像装置1により生成された撮像画像を互いに合成した合成画像を生成し、生成した合成画像において顔向き線を描画することにより視認対象物を特定してもよい。   Note that the specifying unit 342 may be configured to specify a visual recognition object using a plurality of captured images corresponding to different imaging devices 1. For example, the specifying unit 342 generates a composite image obtained by combining the captured images generated by the plurality of imaging devices 1 with a known image composition technique, and draws a face-facing line in the generated composite image, thereby visually recognizing the target. You may identify things.

また、特定部342は、特定した視認対象物をモニタ4に表示する必要があるか否かを判定する。モニタ4に表示する必要のある視認対象物の例としては、急病人、乗客同士のケンカ、不審物、火災等が挙げられる。特定部342は、撮像画像に含まれる複数の乗客に対する、視認対象物を視認している乗客の割合を特定する。緊急事態が発生した場合、周囲の多数の乗客が同じ視認対象物を視認する可能性が高い。そこで、特定部342は、視認対象物を視認している乗客の割合を特定することにより、視認対象物の緊急性を判定する。特定部342は、撮像画像に含まれる複数の乗客P1の数から、向きを検出できない乗客の数を除外して割合を特定してもよい。   Further, the specifying unit 342 determines whether or not the specified visual target object needs to be displayed on the monitor 4. Examples of objects to be visually recognized that need to be displayed on the monitor 4 include suddenly ill people, fights between passengers, suspicious objects, and fires. The identifying unit 342 identifies the proportion of passengers who are viewing the visual target object with respect to a plurality of passengers included in the captured image. When an emergency situation occurs, there is a high possibility that a large number of passengers in the vicinity will see the same object to be viewed. Therefore, the specifying unit 342 determines the urgency of the visual target object by specifying the proportion of passengers who are viewing the visual target object. The specifying unit 342 may specify the ratio by excluding the number of passengers whose directions cannot be detected from the number of the plurality of passengers P1 included in the captured image.

特定部342は、特定した割合が所定値以上である場合に、視認対象物を含む撮像画像をモニタ4に表示する必要がある要注意画像として表示制御部343に入力する。所定値は、緊急事態を判別するための値であり、例えば、3〜4割である。特定部342は、特定した割合が所定値未満である場合に、視認対象物を含む撮像画像を要注意画像でないと判定し、この撮像画像を表示制御部343に入力しない。   When the specified ratio is equal to or greater than a predetermined value, the specifying unit 342 inputs a captured image including the visual recognition target object to the display control unit 343 as a caution image that needs to be displayed on the monitor 4. The predetermined value is a value for determining an emergency and is, for example, 30 to 40%. When the specified ratio is less than the predetermined value, the specifying unit 342 determines that the captured image including the visual target object is not a caution image, and does not input the captured image to the display control unit 343.

ところで、乗客P1は、一般的には、視認対象物の緊急性が高いほど視認対象物を長時間視認する傾向がある。そこで、特定部342は、複数の撮像画像に基づいて、撮像画像に含まれている乗客P1が視認対象物を継続して視認している時間である継続視認時間を特定する。この複数の撮像画像は、同一の撮像装置1により撮影タイミングをずらして生成した撮影画像である。継続視認時間は、例えば、特定部342における視認対象物の特定時から、乗客P1が視認対象物を視認しなくなったと特定部342が最初に判定した撮影画像の生成時までの時間である。   By the way, generally passenger P1 tends to visually recognize a visual recognition object for a long time, so that the urgency of a visual recognition object is high. Therefore, the specifying unit 342 specifies the continuous viewing time, which is the time during which the passenger P1 included in the captured image is continuously viewing the visual target object, based on the plurality of captured images. The plurality of captured images are captured images that are generated by the same image capturing apparatus 1 while shifting the capturing timing. The continuous visual recognition time is, for example, the time from the time when the visual target is identified by the identifying unit 342 to the time when the captured image is first determined by the identifying unit 342 that the passenger P1 no longer visually recognizes the visual object.

特定部342は、継続視認時間が所定の基準時間以上である場合に、視認対象物を含む撮像画像が要注意画像であると判定し、当該撮像画像を表示制御部343に入力する。基準時間は、視認対象物の緊急性を判定するための値であり、例えば、3〜4秒である。一方、特定部342は、継続視認時間が基準時間未満である場合に、視認対象物を含む撮像画像が要注意画像でないと判定し、当該撮像画像を表示制御部343に入力しない。   When the continuous visual recognition time is equal to or longer than a predetermined reference time, the specifying unit 342 determines that the captured image including the visual target object is a caution image, and inputs the captured image to the display control unit 343. The reference time is a value for determining the urgency of the visual target object, and is, for example, 3 to 4 seconds. On the other hand, when the continuous visual recognition time is less than the reference time, the specifying unit 342 determines that the captured image including the visual target object is not a caution image and does not input the captured image to the display control unit 343.

また、特定部342は、視認対象物を特定した後に、視認対象物に起因する乗客P1の動きを検出することにより、視認対象物の緊急性を推測する。例えば、視認対象物が乗客P1同士のケンカである場合には、複数の乗客P1が危険回避のために視認対象物から離れる動きを特定部342において検出することが想定される。また、視認対象物が急病人である場合には、複数の乗客P1が救助のために視認対象物に集まる動きを特定部342において検出することが想定される。そこで、特定部342は、視認対象物を検出した後に乗客P1の動きを監視し、視認対象物から離れる乗客P1と、視認対象物を検出した後に視認対象物に集まる乗客P1とをそれぞれ検出する。   Moreover, the specific | specification part 342 estimates the urgency of a visual recognition object by detecting the motion of the passenger P1 resulting from a visual recognition object, after specifying a visual recognition object. For example, when the visually recognized object is a fight between the passengers P1, it is assumed that a plurality of passengers P1 detect a movement away from the visually recognized object in the identifying unit 342 in order to avoid danger. Moreover, when the visual recognition target object is a sudden illness person, it is assumed in the specific | specification part 342 that the movement where several passengers P1 gather on a visual recognition target object for rescue is detected. Therefore, the specifying unit 342 monitors the movement of the passenger P1 after detecting the visual recognition object, and detects the passenger P1 that is away from the visual recognition object and the passenger P1 that gathers at the visual recognition object after detecting the visual recognition object. .

特定部342は、視認対象物を特定した後に視認対象物から離れる複数の乗客、あるいは、視認対象物を特定した後に視認対象物に集まる複数の乗客を検出した場合には、視認対象物を含む撮像画像が要注意画像よりも緊急性がさらに高い緊急画像であると判定し、当該撮像画像を表示制御部343に入力する。一方、特定部342は、視認対象物を特定した後に視認対象物から離れる複数の乗客を検出せず、且つ、視認対象物を特定した後に視認対象物に集まる複数の乗客を検出していない場合には、視認対象物を含む撮像画像が緊急画像でないと判定する。   The identification unit 342 includes a visual recognition object when detecting a plurality of passengers who move away from the visual recognition object after identifying the visual recognition object or a plurality of passengers gathering in the visual recognition object after specifying the visual recognition object. It is determined that the captured image is an emergency image that is even more urgent than the image that requires attention, and the captured image is input to the display control unit 343. On the other hand, the specifying unit 342 does not detect a plurality of passengers who are separated from the visual target object after specifying the visual target object, and does not detect a plurality of passengers gathering in the visual target object after specifying the visual target object It is determined that the captured image including the visual recognition object is not an emergency image.

本実施の形態では、特定部342は、取得部341が取得した音情報が所定の条件を満たす場合に、視認対象物を特定する処理を開始する。所定の条件とは、例えば、撮像装置1のマイクロホン13が人の叫び声等の大声を検出したこと、あるいは、プラットホームにおいて通常聞こえ得る音よりも大きく且つ駅構内のアナウンスや鉄道車両の走行音とは異なる音を検出したことである。   In the present embodiment, the specifying unit 342 starts the process of specifying the visual target object when the sound information acquired by the acquiring unit 341 satisfies a predetermined condition. The predetermined condition is, for example, that the microphone 13 of the imaging apparatus 1 detects a loud voice such as a person's scream, or an announcement that is louder than a sound normally audible on a platform and an announcement in a station premises or a running sound of a railway vehicle. It means that a different sound was detected.

なお、乗客P1がプラットホームから見える位置に電光掲示板等がある場合、多数の乗客P1が電光掲示板を視認するという点では、急病人等の緊急事態が発生した場合と近い状況になる。しかしながら、この電光掲示板を含む撮影画像をモニタ4に表示することは、緊急事態を特定するという観点から好ましくない。そこで、記憶部33は、乗客P1が注目する可能性があり、且つ緊急性の低い物品として予め登録された物品を記憶している。また、特定部342は、視認対象物が緊急性の低い物品として予め記憶部33に記憶された物品である場合に、視認対象物を含む撮像画像を要注意画像及び緊急画像のいずれにも該当しないと判定し、当該撮像画像を表示制御部343に入力しない。   In addition, when there exists an electronic bulletin board etc. in the position which the passenger P1 can see from a platform, it will be in the situation close | similar to the case where emergency situations, such as a suddenly ill person, occur in that many passengers P1 visually recognizes an electronic bulletin board. However, displaying the captured image including the electronic bulletin board on the monitor 4 is not preferable from the viewpoint of specifying an emergency situation. Then, the memory | storage part 33 has memorize | stored the article | item registered beforehand as an article | item with the possibility that the passenger P1 may pay attention and low urgency. In addition, when the visual recognition target is an article stored in advance in the storage unit 33 as an article with low urgency, the specifying unit 342 corresponds to the captured image including the visual recognition object as both a caution image and an emergency image. It is determined that the captured image is not input, and the captured image is not input to the display control unit 343.

表示制御部343は、特定部342から入力された要注意画像及び緊急画像をモニタ接続部31によりモニタ4に表示させる。表示制御部343は、要注意画像と、緊急画像とを態様を異ならせてモニタ4に表示させる。例えば、表示制御部343は、緊急画像をモニタ4に表示する場合には、緊急事態の発生を示す警告情報とともにモニタ4に表示させる。一方、要注意画像をモニタ4に表示する場合には、警告情報を表示しないが、警告情報とは異なる情報を要注意画像とともに表示する構成であってもよい。また、表示制御部343は、警告情報を音声出力させてもよい。   The display control unit 343 causes the monitor connection unit 31 to display the caution image and the emergency image input from the specifying unit 342 on the monitor 4. The display control unit 343 displays the caution image and the emergency image on the monitor 4 with different modes. For example, when displaying an emergency image on the monitor 4, the display control unit 343 causes the monitor 4 to display it together with warning information indicating the occurrence of an emergency. On the other hand, when displaying a caution image on the monitor 4, warning information is not displayed, but information different from the warning information may be displayed together with the caution image. Further, the display control unit 343 may output the warning information by voice.

また、特定部342は、撮像画像に含まれる複数の乗客に対する、視認対象物を視認している乗客の割合を特定する。表示制御部343は、特定部342が特定した割合に対応する画質で視認対象物を含む画像をモニタ4に表示させてもよい。「画質」は、拡大率、フレームレート、解像度等である。このような構成を採用することにより、緊急性が高い事態が発生した場合に、モニタ4を確認する者が視認対象物の状態をより正確に把握できる。   In addition, the specifying unit 342 specifies the proportion of passengers who are visually recognizing the visual target object with respect to a plurality of passengers included in the captured image. The display control unit 343 may cause the monitor 4 to display an image including the visual recognition object with an image quality corresponding to the ratio specified by the specifying unit 342. “Image quality” includes an enlargement ratio, a frame rate, a resolution, and the like. By adopting such a configuration, when a highly urgent situation occurs, a person who confirms the monitor 4 can grasp the state of the visual target object more accurately.

[サーバ3の動作のフローチャート]
図7は、サーバ3の動作の一例を示すフローチャートである。この処理手順は、取得部341が取得した音情報が所定の条件を満たす場合、例えば、撮像装置1のマイクロホン13が人の叫び声等の大声を検出した場合に開始する。
[Flowchart of Server 3 Operation]
FIG. 7 is a flowchart illustrating an example of the operation of the server 3. This processing procedure starts when the sound information acquired by the acquisition unit 341 satisfies a predetermined condition, for example, when the microphone 13 of the imaging device 1 detects a loud voice such as a human scream.

まず、取得部341は、撮像装置1が生成した撮像画像を通信部14により取得する(S11)。特定部342は、撮像画像に含まれる乗客P1の向きを検出する(S12)。特定部342は、検出した乗客P1の向きに基づいて、所定の数以上の乗客P1が同時に視認している視認対象物を特定する(S13)。   First, the acquisition unit 341 acquires the captured image generated by the imaging device 1 by the communication unit 14 (S11). The identifying unit 342 detects the direction of the passenger P1 included in the captured image (S12). Based on the detected direction of the passenger P1, the specifying unit 342 specifies a visual recognition object that is simultaneously viewed by a predetermined number of passengers P1 (S13).

特定部342は、乗客P1が視認対象物を継続して視認している時間である継続視認時間と、所定の基準時間とを比較する(S14)。特定部342は、継続視認時間が所定の基準時間以上である場合に(S14のYES)、撮像画像に含まれる複数の乗客に対する、視認対象物を視認している乗客の割合を特定する。特定部342は、特定した割合を所定値と比較する(S15)。特定部342は、特定した割合が所定値以上である場合に(S15のYES)、乗客P1が注目する可能性があり且つ緊急性の低い物品として予め登録された物品を記憶部33から読み出す。さらに、特定部342は、視認対象物と、登録された物品とを比較する(S16)。   The identifying unit 342 compares the continuous viewing time, which is the time during which the passenger P1 is continuously viewing the visually recognized object, with a predetermined reference time (S14). When the continuous visual recognition time is equal to or longer than the predetermined reference time (YES in S14), the identifying unit 342 identifies the proportion of passengers viewing the visual target object with respect to a plurality of passengers included in the captured image. The specifying unit 342 compares the specified ratio with a predetermined value (S15). When the specified ratio is equal to or greater than the predetermined value (YES in S15), the specifying unit 342 reads out from the storage unit 33 an article that is likely to be noticed by the passenger P1 and registered in advance as an article having low urgency. Furthermore, the specifying unit 342 compares the visual recognition object with the registered article (S16).

表示制御部343は、特定部342において視認対象物が登録された物品でないと判定した場合には(S16のNO)、視認対象物を含む撮像画像をモニタ4に表示させる(S17)。特定部342は、視認対象物を特定した後に視認対象物から離れる複数の乗客、あるいは、視認対象物を特定した後に視認対象物に集まる複数の乗客を検出したか否かを判定する(S18)。表示制御部343は、特定部342において視認対象物を特定した後に視認対象物から離れる複数の乗客、あるいは、視認対象物を特定した後に視認対象物に集まる複数の乗客を検出した場合には(S18のYES)、緊急事態の発生を示す警告情報をモニタ4に表示させ(S19)、処理を終了する。   If the display control unit 343 determines that the visual target is not an article registered in the specifying unit 342 (NO in S16), the display control unit 343 displays a captured image including the visual target on the monitor 4 (S17). The identifying unit 342 determines whether or not a plurality of passengers leaving the visually recognized object after identifying the visually recognized object or a plurality of passengers gathering in the visually recognized object after identifying the visually recognized object are detected (S18). . When the display control unit 343 detects a plurality of passengers who move away from the visual recognition object after specifying the visual recognition object in the specification unit 342 or a plurality of passengers gathering in the visual recognition object after specifying the visual recognition object ( Warning information indicating the occurrence of an emergency situation is displayed on the monitor 4 (S19), and the process ends.

表示制御部343は、ステップS14の判定において継続視認時間が基準時間未満である場合(S14のNO)、撮像画像をモニタ4に表示させることなく、処理を終了する。また、表示制御部343は、ステップS15の判定において撮像画像に含まれる複数の乗客に対する、視認対象物を視認している乗客の割合が所定値未満である場合に(S15のNO)、撮像画像をモニタ4に表示させることなく、処理を終了する。   If the continuous viewing time is less than the reference time in the determination in step S14 (NO in S14), the display control unit 343 ends the process without displaying the captured image on the monitor 4. Further, the display control unit 343 determines that the ratio of the number of passengers viewing the visual target object to the plurality of passengers included in the captured image in the determination in step S15 is less than a predetermined value (NO in S15). Is not displayed on the monitor 4 and the process is terminated.

表示制御部343は、ステップS16の判定において特定部342が視認対象物を登録された物品であると判定した場合には(S16のYES)、撮像画像をモニタ4に表示させることなく、処理を終了する。表示制御部343は、特定部342において視認対象物を特定した後に視認対象物から離れる複数の乗客、及び、視認対象物を特定した後に視認対象物に集まる複数の乗客のいずれも検出していない場合には(S18のNO)、警告情報をモニタ4に表示させることなく、処理を終了する。   If the specifying unit 342 determines in step S16 that the object to be viewed is a registered article (YES in S16), the display control unit 343 performs processing without displaying the captured image on the monitor 4. finish. The display control unit 343 has not detected any of a plurality of passengers leaving the visual recognition object after specifying the visual recognition object in the specifying unit 342 and a plurality of passengers gathering in the visual recognition object after specifying the visual recognition object. In this case (NO in S18), the process is terminated without displaying the warning information on the monitor 4.

本実施の形態によれば、特定部342は、所定の数以上の乗客P1が同時に視認している視認対象物を特定し、表示制御部343は、特定部342において特定した視認対象物をモニタ4に表示させる。このため、急病人等の緊急事態が発生した場合に、緊急事態の当事者等の視認対象物を含む撮像画像をモニタ4に表示することができるので、モニタ4を確認する者に緊急事態の発生を察知させることができる。   According to the present embodiment, the specifying unit 342 specifies a visual target object that is simultaneously viewed by a predetermined number or more of passengers P1, and the display control unit 343 monitors the visual target object specified by the specifying unit 342. 4 is displayed. For this reason, when an emergency situation such as a sudden illness occurs, a captured image including a visual target object such as a party in an emergency situation can be displayed on the monitor 4. Can be detected.

また、本実施の形態によれば、表示制御部343は、撮像画像に含まれる複数の乗客P1に対する、視認対象物を視認している乗客P1の割合が所定値以上である場合に、視認対象物を含む画像をモニタ4に表示させる。緊急事態が発生した場合、周囲の多数の乗客が同じ視認対象物を視認する可能性が高い。表示制御部343は、視認対象物を視認している乗客の割合が所定値以上の視認対象物をモニタ4に表示させるので、緊急性の高い視認対象物を精度よく表示させることができる。   Moreover, according to this Embodiment, the display control part 343 is a visual recognition object, when the ratio of the passenger P1 who is visually recognizing the visual recognition object with respect to the several passenger P1 contained in a captured image is more than predetermined value. An image including an object is displayed on the monitor 4. When an emergency situation occurs, there is a high possibility that a large number of passengers in the vicinity will see the same object to be viewed. Since the display control unit 343 causes the monitor 4 to display a visual object having a predetermined percentage or more of the passengers who are viewing the visual object, it is possible to accurately display the visual object having high urgency.

また、本実施の形態によれば、表示制御部343は、継続視認時間が所定の基準時間以上である場合に、視認対象物を含む撮像画像をモニタ4に表示させる。乗客P1は、視認対象物の緊急性が高いほど視認対象物を長時間視認する傾向がある。表示制御部343は、継続視認時間が所定の基準時間以上である視認対象物をモニタ4に表示させるので、緊急性の高い視認対象物を精度よく表示させることができる。   Moreover, according to this Embodiment, the display control part 343 displays the captured image containing a visual recognition target object on the monitor 4, when continuous visual recognition time is more than predetermined reference time. Passenger P1 tends to visually recognize a visual recognition object for a long time, so that the urgency of a visual recognition object is high. Since the display control unit 343 displays the visual recognition object whose continuous visual recognition time is equal to or longer than the predetermined reference time on the monitor 4, it is possible to display the visual object having high urgency with high accuracy.

また、本実施の形態によれば、表示制御部343は、視認対象物が予め定められた物品である場合に、視認対象物を含む撮像画像をモニタ4に表示させない。表示制御部343は、乗客P1が注目する可能性があり、且つ緊急性の低い物品を予め指定することにより、当該物品を視認対象物として含む撮像画像をモニタ4に表示させることを抑制することができる。   Further, according to the present embodiment, the display control unit 343 does not display the captured image including the visual recognition object on the monitor 4 when the visual recognition object is a predetermined article. The display control unit 343 suppresses display on the monitor 4 of a captured image that includes the article as a visual target object by specifying in advance an article that is likely to be noticed by the passenger P1 and is less urgent. Can do.

また、本実施の形態によれば、表示制御部343は、特定部342が視認対象物を特定した後に、視認対象物から複数の乗客が離れたことを特定部342において検出した場合、又は視認対象物に複数の乗客が集まったことを検出した場合に、警告情報を出力する。視認対象物から複数の乗客が離れた場合には、乗客同士のケンカ等の危険な状況が発生している可能性がある。また、視認対象物に複数の乗客が集まった場合には、急病人等の救助が必要な状況が発生している可能性がある。このため、表示制御部343は、視認対象物の周囲の乗客の動きに応じて警告情報を出力することにより、モニタ4を確認する者に注意喚起をすることができる。   In addition, according to the present embodiment, the display control unit 343 detects when the identifying unit 342 detects that a plurality of passengers have left the viewing object after the identifying unit 342 identifies the viewing object, or visually When it is detected that a plurality of passengers gathered on the object, warning information is output. When a plurality of passengers are separated from the visual target object, a dangerous situation such as a fight between passengers may occur. In addition, when a plurality of passengers gather on the object to be visually recognized, there is a possibility that a situation requiring rescue such as a sudden illness has occurred. For this reason, the display control part 343 can alert the person who confirms the monitor 4 by outputting warning information according to the motion of the passenger around the visual recognition object.

また、本実施の形態によれば、取得部341は、撮像装置から所定の範囲内で収集された音を示す音情報をさらに取得し、特定部342は、音情報が所定の条件を満たす場合に視認対象物を特定する処理を開始する。特定部342は、音情報が所定の条件を満たす場合に視認対象物を特定するので、視認対象物を誤って特定することを抑制することができる。   In addition, according to the present embodiment, the acquisition unit 341 further acquires sound information indicating sound collected within a predetermined range from the imaging device, and the specifying unit 342 is configured when the sound information satisfies a predetermined condition. The process for specifying the visual recognition object is started. Since the identification unit 342 identifies the visual recognition object when the sound information satisfies a predetermined condition, it is possible to prevent the visual recognition object from being erroneously identified.

なお、本実施の形態では、表示制御部343が視認対象物を含む撮像画像をモニタ4に表示させる場合の例について説明した。しかしながら、本発明は撮像画像全体をモニタ4に表示させるものに限定されない。例えば、表示制御部343は、視認対象物を含む撮像画像のうち、視認対象物の周辺部分をモニタ4に拡大表示する構成であってもよい。   In the present embodiment, an example has been described in which the display control unit 343 displays a captured image including a visual target object on the monitor 4. However, the present invention is not limited to displaying the entire captured image on the monitor 4. For example, the display control unit 343 may be configured to enlarge and display the peripheral portion of the visual recognition object on the monitor 4 among the captured images including the visual recognition object.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment, A various deformation | transformation and change are possible within the range of the summary. is there. For example, the specific embodiments of device distribution / integration are not limited to the above-described embodiments, and all or a part of them may be configured to be functionally or physically distributed / integrated in arbitrary units. Can do. In addition, new embodiments generated by any combination of a plurality of embodiments are also included in the embodiments of the present invention. The effect of the new embodiment produced by the combination has the effect of the original embodiment.

1 撮像装置
2 ハブ
3 サーバ
4 モニタ
11 第1撮像部
12 第2撮像部
13 マイクロホン
14 通信部
15 記憶部
16 制御部
31 モニタ接続部
32 通信部
33 記憶部
34 制御部
341 取得部
342 特定部
343 表示制御部
C 視認領域
P1 乗客
S 監視システム
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Hub 3 Server 4 Monitor 11 1st imaging part 12 2nd imaging part 13 Microphone 14 Communication part 15 Storage part 16 Control part 31 Monitor connection part 32 Communication part 33 Storage part 34 Control part 341 Acquisition part 342 Identification part 343 Display control unit C Viewing area P1 Passenger S Monitoring system

Claims (6)

駅のプラットホームに設置された撮像装置が生成した撮像画像を取得する取得部と、
前記撮像画像に含まれる人の向きに基づいて、所定の数以上の人が同時に視認している視認対象物を特定する特定部と、
前記特定部が特定した前記視認対象物を含む画像を表示装置に表示させる表示制御部と、
を有する表示制御装置。
An acquisition unit that acquires a captured image generated by an imaging device installed on a platform of the station;
Based on the orientation of the person included in the captured image, a specifying unit that specifies a visual target that is simultaneously viewed by a predetermined number of persons,
A display control unit that causes a display device to display an image including the visual recognition object specified by the specifying unit;
A display control device.
前記特定部は、前記撮像画像に含まれる複数の人に対する、前記視認対象物を視認している人の割合を特定し、
前記表示制御部は、前記特定部が特定した前記割合が所定値以上である場合に、前記視認対象物を含む画像を前記表示装置に表示させる、
請求項1に記載の表示制御装置。
The specifying unit specifies a ratio of people viewing the object to be viewed with respect to a plurality of people included in the captured image,
The display control unit causes the display device to display an image including the visual recognition object when the ratio specified by the specifying unit is a predetermined value or more.
The display control apparatus according to claim 1.
前記取得部は、複数の前記撮像画像を取得し、
前記特定部は、前記複数の撮像画像に基づいて、前記撮像画像に含まれている人が前記視認対象物を継続して視認している時間である継続視認時間を特定し、
前記表示制御部は、前記継続視認時間が所定の時間以上である場合に、前記視認対象物を含む画像を前記表示装置に表示させる、
請求項1又は2に記載の表示制御装置。
The acquisition unit acquires a plurality of the captured images,
The identifying unit identifies a continuous viewing time, which is a time during which a person included in the captured image is continuously viewing the visual object based on the plurality of captured images,
The display control unit causes the display device to display an image including the visual recognition object when the continuous visual recognition time is a predetermined time or more.
The display control apparatus according to claim 1 or 2.
前記表示制御部は、前記特定部が前記視認対象物を特定した後に、前記視認対象物から複数の人が離れたことを検出した場合、又は前記視認対象物に複数の人が集まったことを検出した場合に、警告情報を出力する、
請求項1から3のいずれか一項に記載の表示制御装置。
The display control unit detects that a plurality of people have left the viewing object after the identifying unit identifies the viewing object, or that a plurality of people gathered in the viewing object. Output warning information when detected,
The display control apparatus as described in any one of Claim 1 to 3.
前記取得部は、前記撮像装置から所定の範囲内で収集された音を示す音情報をさらに取得し、
前記特定部は、前記音情報が所定の条件を満たす場合に前記視認対象物を特定する処理を開始する、
請求項1から4のいずれか一項に記載の表示制御装置。
The acquisition unit further acquires sound information indicating sound collected within a predetermined range from the imaging device,
The specifying unit starts a process of specifying the visual recognition object when the sound information satisfies a predetermined condition.
The display control apparatus as described in any one of Claim 1 to 4.
コンピュータが実行する、
駅のプラットホームに設置された撮像装置が生成した撮像画像を取得するステップと、
前記撮像画像に含まれる人の向きに基づいて、所定の数以上の人が同時に視認している視認対象物を特定するステップと、
特定した前記視認対象物を含む画像を表示装置に表示させるステップと、
を有する表示制御方法。
The computer runs,
Obtaining a captured image generated by an imaging device installed on a station platform;
Based on the orientation of the person included in the captured image, identifying a visual recognition object that is simultaneously viewed by a predetermined number of people,
Displaying an image including the identified visual recognition object on a display device;
A display control method.
JP2017070628A 2017-03-31 2017-03-31 Display control device and display control method Active JP7062879B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070628A JP7062879B2 (en) 2017-03-31 2017-03-31 Display control device and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070628A JP7062879B2 (en) 2017-03-31 2017-03-31 Display control device and display control method

Publications (2)

Publication Number Publication Date
JP2018173501A true JP2018173501A (en) 2018-11-08
JP7062879B2 JP7062879B2 (en) 2022-05-09

Family

ID=64107361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070628A Active JP7062879B2 (en) 2017-03-31 2017-03-31 Display control device and display control method

Country Status (1)

Country Link
JP (1) JP7062879B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106112A1 (en) * 2019-11-27 2021-06-03 株式会社日立製作所 Vehicle state monitoring device and state monitoring method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002021441A1 (en) * 2000-09-06 2002-03-14 Hitachi, Ltd. Abnormal behavior detector
JP2005117542A (en) * 2003-10-10 2005-04-28 Konica Minolta Holdings Inc Monitoring system
JP2008040758A (en) * 2006-08-04 2008-02-21 Sogo Keibi Hosho Co Ltd Guard device, monitoring system, abnormality determination method, and abnormality determination program
JP2009506468A (en) * 2006-10-16 2009-02-12 ビ−エイイ− システムズ パブリック リミテッド カンパニ− Improved event detection
WO2016157327A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Video surveillance system and video surveillance method
JP2017062349A (en) * 2015-09-24 2017-03-30 キヤノン株式会社 Detection device and control method for the same, and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002021441A1 (en) * 2000-09-06 2002-03-14 Hitachi, Ltd. Abnormal behavior detector
JP2005117542A (en) * 2003-10-10 2005-04-28 Konica Minolta Holdings Inc Monitoring system
JP2008040758A (en) * 2006-08-04 2008-02-21 Sogo Keibi Hosho Co Ltd Guard device, monitoring system, abnormality determination method, and abnormality determination program
JP2009506468A (en) * 2006-10-16 2009-02-12 ビ−エイイ− システムズ パブリック リミテッド カンパニ− Improved event detection
WO2016157327A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Video surveillance system and video surveillance method
JP2017062349A (en) * 2015-09-24 2017-03-30 キヤノン株式会社 Detection device and control method for the same, and computer program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106112A1 (en) * 2019-11-27 2021-06-03 株式会社日立製作所 Vehicle state monitoring device and state monitoring method
JPWO2021106112A1 (en) * 2019-11-27 2021-12-02 株式会社日立製作所 Vehicle condition monitoring device and condition monitoring method
JP6990327B2 (en) 2019-11-27 2022-01-12 株式会社日立製作所 Vehicle condition monitoring device and condition monitoring method

Also Published As

Publication number Publication date
JP7062879B2 (en) 2022-05-09

Similar Documents

Publication Publication Date Title
JP4617269B2 (en) Monitoring system
US20200175838A1 (en) Eyeglasses-type wearable terminal, control method thereof, and control program
JP6845307B2 (en) Monitoring system and monitoring method
KR102367399B1 (en) Device and method to inform the condition of infants and toddlers
JP2018151834A (en) Lost child detection apparatus and lost child detection method
JP2011192157A (en) Emergency report device
JP5088463B2 (en) Monitoring system
JP7062879B2 (en) Display control device and display control method
CN106448055A (en) Method and device for monitoring and alarming
JP7138547B2 (en) store equipment
KR101629219B1 (en) An elevator monitor that restricts access through face recognition
JP2020194227A (en) Face hiding determination device, face hiding determination method, face hiding determination program, and occupant monitoring system
WO2023175829A1 (en) Monitoring system, monitoring device, monitoring method, and recording medium
KR101223606B1 (en) System for intelligently monitoring image for monitoring elevator
WO2024009526A1 (en) Digital intrusion detection system
WO2022176402A1 (en) Server device, image processing method, and program
JP7248040B2 (en) MONITORING DEVICE, MONITORING METHOD, AND PROGRAM
US11830335B2 (en) Method to identify watchers of objects
TWI814576B (en) Non-contact vital sign detection system with privacy protection
JP2023121599A (en) Display system and display method
JP2023121598A (en) Notification system and notification method
JP2012003596A (en) Notification device
JP2012003595A (en) Notification device
JP2022138975A (en) Crowd sensing system
JP2024039118A (en) Evacuation instruction device, evacuation instruction method, and evacuation instruction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7062879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150