WO2021191998A1 - 監視システム及びカメラ - Google Patents

監視システム及びカメラ Download PDF

Info

Publication number
WO2021191998A1
WO2021191998A1 PCT/JP2020/012868 JP2020012868W WO2021191998A1 WO 2021191998 A1 WO2021191998 A1 WO 2021191998A1 JP 2020012868 W JP2020012868 W JP 2020012868W WO 2021191998 A1 WO2021191998 A1 WO 2021191998A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
train
dirt
monitoring system
dirt detection
Prior art date
Application number
PCT/JP2020/012868
Other languages
English (en)
French (fr)
Inventor
惠太 中山
Original Assignee
株式会社日立国際電気
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立国際電気 filed Critical 株式会社日立国際電気
Priority to US17/932,169 priority Critical patent/US20230362349A1/en
Priority to JP2022509803A priority patent/JP7253111B2/ja
Priority to PCT/JP2020/012868 priority patent/WO2021191998A1/ja
Priority to GB2213353.2A priority patent/GB2608319B/en
Publication of WO2021191998A1 publication Critical patent/WO2021191998A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61BRAILWAY SYSTEMS; EQUIPMENT THEREFOR NOT OTHERWISE PROVIDED FOR
    • B61B1/00General arrangement of stations, platforms, or sidings; Railway networks; Rail vehicle marshalling systems
    • B61B1/02General arrangement of stations and platforms including protection devices for the passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61DBODY DETAILS OR KINDS OF RAILWAY VEHICLES
    • B61D25/00Window arrangements peculiar to rail vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61DBODY DETAILS OR KINDS OF RAILWAY VEHICLES
    • B61D19/00Door arrangements specially adapted for rail vehicles
    • B61D19/02Door arrangements specially adapted for rail vehicles for carriages
    • B61D19/026Safety devices for preventing passengers from being injured by movements of doors or variations in air pressure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or train for signalling purposes
    • B61L15/0081On-board diagnosis or maintenance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or train for signalling purposes
    • B61L15/009On-board display devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to a monitoring system that monitors the vicinity of a train door with a camera image.
  • the driver or crew (hereinafter referred to simply as “crew”) checks the passengers moving on the platform with images, confirms the safety of the passengers, and then controls the opening and closing of the doors.
  • Passenger images are captured by a camera installed on the train body or platform and displayed on the monitor in the train cab or platform.
  • the difference in camera installation location is mainly due to the difference in whether the train operation and infrastructure are managed by the same operator or different operators.
  • Patent Document 1 discloses a system in which cameras are arranged adjacent to each door of a vehicle.
  • the present invention has been made in view of the above-mentioned conventional circumstances, and an object of the present invention is to enable efficient detection of dirt on the windshield of a camera.
  • the monitoring system is configured as follows. That is, the monitoring system according to the present invention is attached to the outside of the train vehicle, a camera that images the vicinity of the door of the vehicle, a monitor that displays the camera image captured by the camera, and the front of the camera using the camera image. It is equipped with a dirt detection unit that executes the dirt detection process of the glass, and the dirt detection unit determines the execution timing of the detection process based on the train information indicating the train operation status, and captures the camera image obtained at the execution timing. It is characterized in that the detection process is executed by using it.
  • the train information includes the train speed information and the door opening / closing information
  • the dirt detection unit determines the timing when the train speed is equal to or less than a predetermined value and the door is closed as the execution timing. You may.
  • the dirt detection unit may execute the detection process on the region of the vehicle body portion in the camera image.
  • the dirt detection unit may add the dirt detection information to the metadata of the camera image when the dirt on the windshield is detected.
  • the dirt detection unit may determine the execution timing on the condition that the train is in a preset time zone or the train is present at a preset position.
  • the dirt detection unit may detect the dirt on the windshield by comparing the peak value of the edge component extracted from the camera image with the threshold value.
  • the threshold value may be changed according to the time zone when the detection process is performed or the position of the train.
  • the dirt detection unit may be built in the camera or may be provided in another device capable of acquiring the camera image.
  • FIG. 1 It is a figure which shows the schematic configuration example of the monitoring system which concerns on one Embodiment of this invention. It is a figure which shows an example of the camera image by the monitoring system of FIG. It is a figure which shows the configuration example of the camera which built-in the dirt detection function. It is a figure which shows the flowchart example of the dirt detection processing.
  • FIG. 1 shows a schematic configuration example of a train-mounted monitoring system according to an embodiment of the present invention.
  • FIG. 1 shows a 4-car train consisting of four cars, No. 1 car 10-1, No. 2 car 10-2, No. 3 car 10-3, and No. 4 car 10-4.
  • One switching hub 11 is arranged in each vehicle 10-1 to 10-4, and an in-train network is constructed by connecting these in cascade. Further, on the outer side surface of each vehicle 10-1 to 10-4, a camera 13 is attached toward the door 12 of the vehicle so that a passenger can take an image of getting on and off the train. That is, the camera 13 is configured to photograph the vicinity of the door.
  • a monitor 14 for displaying a camera image taken by a camera 13 of each vehicle is installed in the crew room in the car No. 1 10-1 and the car No. 4 10-4.
  • the crew can confirm the state of the passengers near the door of each vehicle through the image on the monitor 14.
  • a control device 16 that controls the system in an integrated manner and a recording device 15 that records camera images are also installed in the first car 10-1.
  • the main feature of this system is that the camera 13 has a built-in function to detect dirt on the windshield of the camera 13. That is, the camera 13 executes the dirt detection process for detecting the dirt on the windshield by using the camera image taken by itself. At this time, the camera 13 determines the execution timing of the dirt detection process based on the train information indicating the operating state of the train, and executes the dirt detection process using the camera image obtained at the execution timing.
  • the camera 13 of this example includes hardware resources such as a memory and a processor, and is described later by reading a program stored in a data storage device such as a hard disk or a flash memory onto the main memory and executing the program by the processor. It is configured to realize the processing to be performed.
  • the function of the camera 13 is not limited to the configuration realized by such software, and may be realized by dedicated hardware.
  • FIG. 2 shows an example of a camera image taken by the camera 13.
  • the camera image 21 used in this system has a composition in which a part of the train body 22 (specifically, near the door of the body 22) is always reflected in the area on one end side in the horizontal direction. It has become.
  • different landscapes are projected depending on the traveling place of the train, such as the outside scenery and the platform of the station.
  • a part of the vehicle body 22 is projected on the right side of the camera image 21, but it may appear on the left side depending on the installation position of the camera 13.
  • the determination area 23 to be the target of the dirt detection process is set so as to include the area where the vehicle body 22 always appears.
  • FIG. 3 shows a configuration example of the camera 13 used in this system.
  • the camera 13 has a sensor unit 31, a video processing unit 32, a dirt detection unit 33, an additional processing unit 34, and a video output unit 35.
  • the sensor unit 31 is a so-called image sensor, and converts an optical image incident through the windshield and the lens into a video signal (electrical signal).
  • the video processing unit 32 performs video processing until the video signal output from the sensor unit 31 has the final image quality, and outputs the video signal to the dirt detection unit 33 and the video output unit 35.
  • train information is input to the dirt detection unit 33 from the vehicle side of the train.
  • This train information includes at least train speed information and door opening / closing information.
  • the dirt detection unit 33 determines whether the speed of the train is equal to or less than a predetermined value and the door is closed. Then, the timing when the train speed is equal to or less than a predetermined value and the door is closed is determined as the execution timing of the dirt detection process.
  • the dirt detection unit 33 executes the dirt detection process using the video signal obtained at the execution timing of the dirt detection process. Specifically, an edge extraction filter is applied to the video signal to extract the edge component in the determination region 23, and the peak value of the edge component is compared with a predetermined threshold value (fixed value in this example). .. As a result, if the peak value of the edge component is equal to or less than the threshold value, it is determined that the contrast is lowered and the windshield is dirty. Then, the alarm information indicating that the windshield is dirty is output, and the additional processing unit 34 is instructed to perform additional image processing.
  • a predetermined threshold value fixed value in this example
  • the additional processing unit 34 executes additional image processing on the video signal output from the video processing unit 32 in accordance with the instruction from the dirt detection unit 33.
  • the additional image processing may be any processing capable of improving the visibility of the image, and an example thereof is a haze removal process for extending the contrast of the image.
  • the video signal after the additional image processing by the additional processing unit 34 is output to the video output unit 35.
  • the video output unit 35 normally outputs a video signal from the video processing unit 32 to the outside of the camera. However, when the dirt detection unit 33 detects that the windshield is dirty, the video signal from the additional processing unit 34 is output to the outside of the camera instead of the video signal from the video processing unit 32.
  • the video output unit 35 may output both the video signal from the video processing unit 32 and the video signal from the additional processing unit 34.
  • the video signal (camera video) output from the video output unit 35 is transmitted to the monitor 14 through the in-train network and displayed on the monitor 14. Further, the alarm information output from the dirt detection unit 33 is also transmitted to the monitor 14 through the in-train network and displayed on the monitor 14 together with the camera image. Therefore, the crew member who sees the display on the monitor 14 can not only confirm the state of the passengers but also quickly grasp the fact when the windshield of the camera 13 becomes dirty. Since a large number of cameras 13 are attached to the train, it is preferable to display a mode that allows the windshield of which camera 13 to be grasped to be dirty.
  • FIG. 4 shows a flowchart of the dirt detection process.
  • a video signal from the video processing unit 32 is input to the dirt detection unit 33 (step S1).
  • the dirt detection unit 33 determines whether the speed of the train is equal to or less than a predetermined value and the door is closed based on the train information separately input from the vehicle side of the train (step S2).
  • the video signal from the video processing unit 32 is output from the video output unit 35 (step S6).
  • the dirt detection unit 33 applies an edge extraction filter to the video signal from the video processing unit 32, and determines the edge component in the determination region 23. Extract (step S3).
  • the dirt detection unit 33 determines whether the peak value of the edge component in the determination region 23 is equal to or less than the threshold value (step S4). When it is determined that this condition is not satisfied (step S4; No), the video signal from the video processing unit 32 is output from the video output unit 35 (step S6). On the other hand, when it is determined that this condition is satisfied (step S4; Yes), alarm information is output from the dirt detection unit 33, and additional image processing (for example, haze removal processing) is executed by the additional processing unit 34. (Step S5). After that, the video signal after image processing by the additional processing unit 34 is output from the video output unit 35 (step S6).
  • additional image processing for example, haze removal processing
  • the monitoring system of this example is attached to the outside of the train car, and has a camera 13 that captures the vicinity of the vehicle door, a monitor 14 that displays a camera image captured by the camera 13, and a camera 13. It is provided with a dirt detection unit 33 that executes a dirt detection process for detecting dirt on the windshield. Then, the dirt detection unit 33 determines the execution timing of the dirt detection process based on the train information indicating the operating state of the train, and executes the dirt detection process using the camera image obtained at the execution timing. There is.
  • the dirt detection unit 33 of this example is configured to determine the timing when the train speed is equal to or less than a predetermined value and the door is closed as the execution timing of the dirt detection process.
  • the dirt detection process can be executed using the camera image in the state where the train is entering the platform and the passengers are not reflected around the door, so that highly accurate dirt detection can be realized. ..
  • the dirt detection unit 33 of this example is configured so that the area of the vehicle body portion in the camera image is set as the determination area 23 and the dirt detection process is executed in this determination area 23. As a result, it is only necessary to analyze the state of the region where there is little visual fluctuation, and unnecessary processing for other regions can be omitted, so that the processing load of the stain detection processing can be reduced.
  • the dirt detection unit 33 may add the dirt detection information to the metadata of the camera image when the dirt on the windshield is detected.
  • Metadata is data that stores train information that accompanies the camera image, and is stored as data stored in a data area that does not affect the image display of the camera image, or as separate data that can be linked to the camera image. This is the data.
  • the dirt detection information include a dirt detection flag indicating that dirt has been detected, a dirt detection time, and a dirt detection position.
  • the dirt detection position can be acquired using, for example, GPS (Global Positioning System).
  • GPS Global Positioning System
  • the execution timing of the dirt detection process is determined based on the train speed information and the door opening / closing information, but other information may be further considered.
  • the execution timing of the dirt detection process may be determined on condition that the time zone is set in advance. As a result, for example, it is not necessary to execute the dirt detection process during the time when it is difficult to obtain a clear image (for example, in the evening), so that it is possible to suppress the output of unnecessary alarm information due to false detection of dirt. ..
  • the execution timing of the dirt detection process may be determined on the condition that the train exists at a preset position.
  • the peak value of the edge component extracted from the camera image is compared with the fixed threshold value, but the threshold value may be variable.
  • the threshold value may be changed according to the time zone when the detection process is performed.
  • the stain detection process can be executed in consideration of the fact that the contrast of the camera image differs depending on the shooting time zone, so that the stain on the windshield of the camera can be detected more accurately.
  • the threshold value may be changed according to the position of the train when performing the detection process.
  • the stain detection process can be executed in consideration of the difference in the contrast of the camera image between the station with a roof on the platform and the station without a roof, so that the stain on the windshield of the camera can be detected more accurately. Will be.
  • the dirt detection unit 33 built in the camera 13 executes the dirt detection process, but another device (for example, the control device 16) connected to the in-train network performs the dirt detection process. You may execute. That is, the dirt detection process can be executed by any device capable of acquiring the camera image.
  • the present invention has been described in detail above, it goes without saying that the present invention is not limited to the above configuration and may be realized by a configuration other than the above.
  • the present invention can be applied to various types of trains such as monorails and trams, in addition to trains traveling on railways.
  • the present invention also provides, for example, a method including a technical procedure relating to the above processing, a program for executing the above processing by a processor, a storage medium for storing such a program in a computer-readable manner, and the like. Is also possible.
  • the present invention can be used in a monitoring system that monitors the vicinity of a train door with a camera image.
  • 10-1, 10-2, 10-3, 10-4 Vehicle, 11: Switching hub, 12: Door, 13: Camera, 14: Monitor, 15: Recording device, 16: Control device, 31: Sensor unit, 32: Video processing unit, 33: Dirt detection unit, 34: Additional processing unit, 35: Video output unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

列車の車両の外側に取り付けられ、車両のドア付近を撮像するカメラ13と、カメラ13により撮像されたカメラ映像を表示するモニタ14と、カメラ13のフロントガラスの汚れを検知するための汚れ検知処理を実行する汚れ検知部33とを備える。汚れ検知部33は、例えば、カメラ13に内蔵される。汚れ検知部33は、列車の運行状態を示す列車情報に基づいて、汚れ検知処理の実行タイミングを決定し、実行タイミングで得られたカメラ映像を用いて、汚れ検知処理を実行する。

Description

監視システム及びカメラ
 本発明は、列車のドア付近をカメラ映像で監視する監視システムに関する。
 列車システムでは、運転士又は乗務員(以下では、これらを単に「乗務員」と称する)が、プラットホームを移動する乗客を映像でチェックし、乗客の安全を確認した後にドアの開閉制御を行う。乗客の映像は、列車の車両本体又はプラットホームに設置したカメラによって撮像され、列車の運転室のモニタ又はプラットホームのモニタに表示される。カメラの設置場所の相違は、主に、列車の運行とインフラを同じ事業者が管理しているか、別々の事業者が管理しているかの違いに起因している。
 以下では、列車の車両本体に設置されたカメラの映像を運転室のモニタに表示する監視システムについて言及する。例えば、特許文献1には、車両の各ドアにカメラを隣接させて配置したシステムが開示されている。
国際公開第2015/135736号
 上記のシステムでは、乗務員が安全かつ効率的のドアの開閉制御を行うためには、視認性の高いカメラ映像を撮像することが重要となる。しかしながら、列車の運行を継続していく中で、カメラのフロントガラスに土埃などの汚れが付着すると、カメラ映像が正常時に比べて霞がかったような見え方になる。つまり、列車の運用中にカメラ映像のコントラストが低下し、それにより視認性が低下することが確認されている。カメラ映像の視認性の低下は、多くの場合、カメラのフロントガラスの清掃を行うことで解消することができる。しかしながら、列車には多くのカメラが取り付けられているため、清掃作業を含むメンテナンスの負担が増大してしまう。このため、カメラのフロントガラスの清掃を効率化する仕組みが求められている。
 本発明は、上記のような従来の事情に鑑みて為されたものであり、カメラのフロントガラスの汚れを効率的に検知できるようにすることを目的とする。
 上記の目的を達成するために、本発明では、監視システムを以下のように構成した。
 すなわち、本発明に係る監視システムは、列車の車両の外側に取り付けられ、車両のドア付近を撮像するカメラと、カメラにより撮像されたカメラ映像を表示するモニタと、カメラ映像を用いてカメラのフロントガラスの汚れの検知処理を実行する汚れ検知部とを備え、汚れ検知部は、列車の運行状態を示す列車情報に基づいて検知処理の実行タイミングを決定し、実行タイミングで得られたカメラ映像を用いて検知処理を実行することを特徴とする。
 ここで、列車情報は、列車の速度情報及びドアの開閉情報を含み、汚れ検知部は、列車の速度が所定値以下で且つドアが閉じられた状態のタイミングを、実行タイミングに決定するようにしてもよい。
 また、汚れ検知部は、カメラ映像における車体部分の領域に対して検知処理を実行するようにしてもよい。
 また、汚れ検知部は、フロントガラスの汚れが検知された場合に、カメラ映像のメタデータに汚れ検知情報を付加するようにしてもよい。
 また、汚れ検知部は、予め設定された時間帯であること、又は予め設定された位置に列車が存することを条件に、実行タイミングの決定を行うようにしてもよい。
 また、汚れ検知部は、カメラ映像から抽出したエッジ成分のピーク値を閾値と比較することで、フロントガラスの汚れの検知を行うようにしてもよい。この場合、閾値は、検知処理を行う際の時間帯又は列車の位置に応じて変更されてもよい。
 また、汚れ検知部は、カメラに内蔵されてもよいし、カメラ映像を取得することが可能な別の装置に設けられてもよい。
 本発明によれば、カメラのフロントガラスの汚れを効率的に検知できるようにすることが可能となる。
本発明の一実施形態に係る監視システムの概略的な構成例を示す図である。 図1の監視システムによるカメラ映像の一例を示す図である。 汚れ検知機能を内蔵したカメラの構成例を示す図である。 汚れ検知処理のフローチャート例を示す図である。
 本発明の一実施形態に係るについて、図面を参照して説明する。
 図1には、本発明の一実施形態に係る列車搭載型の監視システムの概略的な構成例を示してある。図1は、1号車10-1、2号車10-2、3号車10-3、4号車10-4の4台を連結した4両編成の列車を示している。
 各車両10-1~10-4にはスイッチングハブ11が1台ずつ配置されており、これらをカスケード接続することで列車内ネットワークを構築している。また、各車両10-1~10-4の外側の側面には、乗客が列車に乗降する様子を撮像できるように、その車両のドア12に向けてカメラ13を取り付けてある。すなわち、カメラ13でドア付近を撮影するように構成されている。
 1号車10-1及び4号車10-4にある乗務員室には、各車両のカメラ13で撮影されたカメラ映像を表示するモニタ14が設置されている。乗務員は、モニタ14の映像を介して、各車両のドア付近の乗客の様子を確認することができる。また、1号車10-1には、本システムを統括的に制御する制御装置16と、カメラ映像を記録する録画装置15も設置されている。
 本システムの主な特徴は、カメラ13が、カメラ13のフロントガラスの汚れを検知する機能を内蔵していることである。すなわち、カメラ13は、自身が撮影したカメラ映像を用いて、フロントガラスの汚れを検知するための汚れ検知処理を実行する。このとき、カメラ13は、列車の運行状態を示す列車情報に基づいて、汚れ検知処理の実行タイミングを決定し、その実行タイミングで得られたカメラ映像を用いて、汚れ検知処理を実行する。
 本例のカメラ13は、メモリやプロセッサなどのハードウェア資源を備えており、ハードディスクやフラッシュメモリ等のデータ記憶装置に記憶されているプログラムをメインメモリ上に読み出してプロセッサにより実行することで、後述する処理を実現するように構成されている。なお、カメラ13の機能は、このようなソフトウェアにより実現する構成に限定されず、専用ハードウェアにより実現してもよい。
 以下、図2~図4を参照して、カメラ13により実行される汚れ検知処理について説明する。
 図2には、カメラ13により撮影されたカメラ映像の一例を示してある。同図に示すように、本システムで用いるカメラ映像21は、水平方向の一方の端側の領域に、列車の車体22の一部(具体的には、車体22のドア付近)が常に映る構図となっている。また、カメラ映像21のその他の部分には、外の景色や駅のプラットホームなどのように、列車の走行場所に応じて異なる風景が映るようになっている。図2では、カメラ映像21の右側に車体22の一部が映る構図になっているが、カメラ13の設置位置によっては左側に現れる場合もある。本システムでは、車体22が常に現れる領域を含むように、汚れ検知処理の対象となる判定領域23を設定してある。
 図3には、本システムで使用されるカメラ13の構成例を示してある。カメラ13は、センサ部31と、映像処理部32と、汚れ検知部33と、追加処理部34と、映像出力部35とを有している。
 センサ部31は、いわゆる撮像素子であり、フロントガラス及びレンズを通じて入射してきた光学像を映像信号(電気信号)に変換する。映像処理部32は、センサ部31から出力される映像信号を最終画質にするまでの映像処理を行い、汚れ検知部33及び映像出力部35に出力する。
 汚れ検知部33には、映像処理部32から出力される映像信号のほかに、列車の車両側から列車情報が入力される。この列車情報には、少なくとも、列車の速度情報及びドアの開閉情報が含まれている。汚れ検知部33は、この列車情報に基づいて、列車の速度が所定値以下で且つドアが閉じられた状態であるかを判定する。そして、列車の速度が所定値以下で且つドアが閉じられた状態のタイミングを、汚れ検知処理の実行タイミングに決定する。
 汚れ検知部33は、汚れ検知処理の実行タイミングで得られた映像信号を用いて汚れ検知処理を実行する。具体的には、映像信号に対してエッジ抽出フィルタを適用して上記の判定領域23内のエッジ成分を抽出し、エッジ成分のピーク値を所定の閾値(本例では、固定値)と比較する。その結果、エッジ成分のピーク値が閾値以下であれば、コントラストが低下した状態であり、フロントガラスが汚れていると判定する。そして、フロントガラスの汚れが検知された旨のアラーム情報を出力すると共に、追加処理部34に対して追加の画像処理を指示する。
 追加処理部34は、汚れ検知部33からの指示に従い、映像処理部32から出力される映像信号に対して追加の画像処理を実行する。追加の画像処理は、映像の視認性を向上させることが可能な処理であればよく、一例として、映像のコントラストを伸長する霞除去処理が挙げられる。追加処理部34による追加の画像処理後の映像信号は、映像出力部35へ出力される。
 映像出力部35は通常、映像処理部32からの映像信号をカメラ外部へ出力する。ただし、汚れ検知部33によりフロントガラスの汚れが検知された場合には、映像処理部32からの映像信号に代えて、追加処理部34からの映像信号をカメラ外部へ出力する。なお、映像出力部35は、映像処理部32からの映像信号と追加処理部34からの映像信号の両方を出力してもよい。
 映像出力部35から出力された映像信号(カメラ映像)は、列車内ネットワークを通じてモニタ14へ伝送され、モニタ14に表示される。また、汚れ検知部33から出力されたアラーム情報も、列車内ネットワークを通じてモニタ14へ伝送され、カメラ映像と共にモニタ14に表示される。したがって、モニタ14の表示を見た乗務員は、乗客の様子を確認できるだけでなく、カメラ13のフロントガラスが汚れた場合に、その旨を速やかに把握することが可能となる。なお、列車には多数のカメラ13が取り付けられているので、どのカメラ13のフロントガラスが汚れているかを把握できるような態様の表示を行うことが好ましい。
 図4には、汚れ検知処理のフローチャートを示してある。
 汚れ検知部33には、映像処理部32からの映像信号が入力される(ステップS1)。汚れ検知部33は、列車の車両側から別途入力される列車情報に基づいて、列車の速度が所定値以下で且つドアが閉じられた状態であるかを判定する(ステップS2)。本条件を満たさないと判定された場合(ステップS2;No)、映像処理部32からの映像信号が、映像出力部35から出力される(ステップS6)。一方、本条件を満たすと判定された場合(ステップS2;Yes)、汚れ検知部33は、映像処理部32からの映像信号に対してエッジ抽出フィルタを適用し、判定領域23内のエッジ成分を抽出する(ステップS3)。
 その後、汚れ検知部33は、判定領域23内のエッジ成分のピーク値が閾値以下であるかを判定する(ステップS4)。本条件を満たさないと判定された場合(ステップS4;No)、映像処理部32からの映像信号が、映像出力部35から出力される(ステップS6)。一方、本条件を満たすと判定された場合(ステップS4;Yes)、汚れ検知部33からアラーム情報が出力されると共に、追加処理部34により追加の画像処理(例えば、霞除去処理)が実行される(ステップS5)。その後、追加処理部34による画像処理後の映像信号が、映像出力部35から出力される(ステップS6)。
 以上のように、本例の監視システムは、列車の車両の外側に取り付けられ、車両のドア付近を撮像するカメラ13と、カメラ13により撮像されたカメラ映像を表示するモニタ14と、カメラ13のフロントガラスの汚れを検知するための汚れ検知処理を実行する汚れ検知部33とを備える。そして、汚れ検知部33が、列車の運行状態を示す列車情報に基づいて汚れ検知処理の実行タイミングを決定し、実行タイミングで得られたカメラ映像を用いて汚れ検知処理を実行する構成となっている。
 このような構成によれば、汚れ検知処理を実行するのに適切なカメラ映像が得られるタイミングを、列車の運行状態を考慮して決定することができるので、カメラのフロントガラスの汚れを効率的に検知できるようになる。
 また、本例の汚れ検知部33は、列車の速度が所定値以下で且つドアが閉じられた状態のタイミングを、汚れ検知処理の実行タイミングに決定するように構成されている。これにより、プラットホーム内に列車が進入しており、且つ、ドア周辺に乗客が映り込んでいない状態のカメラ映像を用いて汚れ検知処理を実行できるので、精度の高い汚れ検知を実現することができる。
 また、本例の汚れ検知部33は、カメラ映像における車体部分の領域を判定領域23とし、この判定領域23に対して汚れ検知処理を実行するように構成されている。これにより、映像的な変動の少ない領域の状態を分析するだけで済み、他の領域に対する無駄な処理を省略できるので、汚れ検知処理の処理負担を軽減することができる。
 ここで、上記の説明では、カメラのフロントガラスの汚れが検知された場合に、アラーム情報の出力及び追加の画像処理(例えば、霞除去処理)を行うだけであったが、これらの処理に代えて/又は追加で、別の処理を行うようにしてもよい。
 例えば、汚れ検知部33は、フロントガラスの汚れが検知された場合に、カメラ映像のメタデータに汚れ検知情報を付加するようにしてもよい。メタデータとは、カメラ映像に付随する列車情報を格納したデータであり、カメラ映像の映像表示に影響しないデータ領域に格納されたデータ、もしくは、カメラ映像と紐づけが可能な別データとして格納されたデータである。汚れ検知情報としては、汚れが検知された旨を示す汚れ検知フラグ、汚れの検知時間、汚れの検知位置などが挙げられる。汚れの検知位置は、例えば、GPS(Global Positioning System)を使用して取得することができる。このような汚れ検知情報をカメラ映像のメタデータに付加することで、いつ、どこでカメラのフロントガラスが汚れたか等を、事後的に把握できるようになる。また、例えば、汚れを防止する対策を講じる際の検討材料とすることができる。
 また、上記の説明では、列車の速度情報及びドアの開閉情報に基づいて汚れ検知処理の実行タイミングを決定しているが、別の情報を更に考慮してもよい。一例として、予め設定された時間帯であることを条件に、汚れ検知処理の実行タイミングを決定してもよい。これにより、例えば、鮮明な映像が得られにくい時間帯(例えば、夕方)は汚れ検知処理を実行せずに済むので、汚れの誤検知による無駄なアラーム情報の出力を抑制することが可能となる。また、別の例として、予め設定された位置に列車が存することを条件に、汚れ検知処理の実行タイミングを決定してもよい。これにより、例えば、カメラのフロントガラスの清掃が困難な駅(清掃員のいない駅や停車時間の短い駅など)では汚れ検知処理を実行せずに済むので、カメラのフロントガラスを清掃する作業負担を軽減することが可能となる。
 また、上記の説明では、カメラ映像から抽出したエッジ成分のピーク値を固定の閾値と比較していたが、閾値を可変にしてもよい。一例として、検知処理を行う際の時間帯に応じて閾値を変更してもよい。これにより、例えば、撮影時間帯によってカメラ映像のコントラストが相違することを考慮して汚れ検知処理を実行できるので、より正確にカメラのフロントガラスの汚れを検知できるようになる。また、別の例として、検知処理を行う際の列車の位置に応じて閾値を変更してもよい。これにより、例えば、プラットホームに屋根のある駅と屋根のない駅とでカメラ映像のコントラストが相違することを考慮して汚れ検知処理を実行できるので、より正確にカメラのフロントガラスの汚れを検知できるようになる。
 また、上記の説明では、カメラ13に内蔵された汚れ検知部33が汚れ検知処理を実行しているが、列車内ネットワークに接続された別の装置(例えば、制御装置16)が、汚れ検知処理を実行しても構わない。すなわち、汚れ検知処理は、カメラ映像を取得することが可能な任意の装置に実行させることができる。
 以上、本発明について詳細に説明したが、本発明は上記のような構成に限定されるものではなく、上記以外の構成により実現してもよいことは言うまでもない。例えば、本発明は、鉄道上を走行する列車のほか、モノレールや路面電車など、種々の形式の列車に適用することが可能である。
 また、本発明は、例えば、上記の処理に関する技術的手順を含む方法や、上記の処理をプロセッサにより実行させるためのプログラム、そのようなプログラムをコンピュータ読み取り可能に記憶する記憶媒体などとして提供することも可能である。
 なお、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらす全ての実施形態をも含む。更に、本発明の範囲は、全ての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画され得る。
 本発明は、列車のドア付近をカメラ映像で監視する監視システムに利用することが可能である。
 10-1,10-2,10-3,10-4:車両、 11:スイッチングハブ、 12:ドア、 13:カメラ、 14:モニタ、 15:録画装置、 16:制御装置、 31:センサ部、 32:映像処理部、 33:汚れ検知部、 34:追加処理部、 35:映像出力部

Claims (8)

  1.  列車の車両の外側に取り付けられ、前記車両のドア付近を撮像するカメラと、
     前記カメラにより撮像されたカメラ映像を表示するモニタと、
     前記カメラ映像を用いて前記カメラのフロントガラスの汚れの検知処理を実行する汚れ検知部とを備え、
     前記汚れ検知部は、前記列車の運行状態を示す列車情報に基づいて前記検知処理の実行タイミングを決定し、前記実行タイミングで得られた前記カメラ映像を用いて前記検知処理を実行することを特徴とする列車搭載型の監視システム。
  2.  請求項1に記載の監視システムにおいて、
     前記列車情報は、列車の速度情報及びドアの開閉情報を含み、
     前記汚れ検知部は、列車の速度が所定値以下で且つドアが閉じられた状態のタイミングを、前記実行タイミングに決定することを特徴とする監視システム。
  3.  請求項1又は請求項2に記載の監視システムにおいて、
     前記汚れ検知部は、前記カメラ映像における車体部分の領域に対して前記検知処理を実行することを特徴とする監視システム。
  4.  請求項1乃至請求項3のいずれかに記載の監視システムにおいて、
     前記汚れ検知部は、前記フロントガラスの汚れが検知された場合に、前記カメラ映像のメタデータに汚れ検知情報を付加することを特徴とする監視システム。
  5.  請求項1乃至請求項4のいずれかに記載の監視システムにおいて、
     前記汚れ検知部は、予め設定された時間帯であること、又は予め設定された位置に前記列車が存することを条件に、前記実行タイミングの決定を行うことを特徴とする監視システム。
  6.  請求項1乃至請求項5のいずれかに記載の監視システムにおいて、
     前記汚れ検知部は、前記カメラ映像から抽出したエッジ成分のピーク値を閾値と比較することで、前記フロントガラスの汚れの検知を行い、
     前記閾値は、前記検知処理を行う際の時間帯又は前記列車の位置に応じて変更されることを特徴とする監視システム。
  7.  請求項1乃至請求項6のいずれかに記載の監視システムにおいて、
     前記汚れ検知部は、前記カメラに内蔵されていることを特徴とする監視システム。
  8.  列車の車両の外側に取り付けられ、前記車両のドア付近を撮像するカメラであって、
     前記カメラ映像を用いて前記カメラのフロントガラスの汚れの検知処理を実行する汚れ検知部を内蔵し、
     前記汚れ検知部は、前記列車の運行状態を示す列車情報に基づいて前記検知処理の実行タイミングを決定し、前記実行タイミングで得られた前記カメラ映像を用いて前記検知処理を実行し、前記フロントガラスの汚れが検知された場合に、前記カメラ映像のメタデータに汚れ検知情報を付加することを特徴とするカメラ。
PCT/JP2020/012868 2020-03-24 2020-03-24 監視システム及びカメラ WO2021191998A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/932,169 US20230362349A1 (en) 2020-03-24 2020-03-24 Monitoring system and camera
JP2022509803A JP7253111B2 (ja) 2020-03-24 2020-03-24 監視システム及びカメラ
PCT/JP2020/012868 WO2021191998A1 (ja) 2020-03-24 2020-03-24 監視システム及びカメラ
GB2213353.2A GB2608319B (en) 2020-03-24 2020-03-24 Monitoring system and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/012868 WO2021191998A1 (ja) 2020-03-24 2020-03-24 監視システム及びカメラ

Publications (1)

Publication Number Publication Date
WO2021191998A1 true WO2021191998A1 (ja) 2021-09-30

Family

ID=77891595

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/012868 WO2021191998A1 (ja) 2020-03-24 2020-03-24 監視システム及びカメラ

Country Status (4)

Country Link
US (1) US20230362349A1 (ja)
JP (1) JP7253111B2 (ja)
GB (1) GB2608319B (ja)
WO (1) WO2021191998A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011016421A (ja) * 2009-07-08 2011-01-27 Higashi Nippon Transportec Kk 支障物検知装置及びこれを備えたプラットホームドアシステム並びに支障物検知方法
WO2015068249A1 (ja) * 2013-11-08 2015-05-14 株式会社日立製作所 自律走行車両、及び自律走行システム
WO2018180310A1 (ja) * 2017-03-28 2018-10-04 株式会社日立国際電気 監視システム及び監視方法
JP2020016862A (ja) * 2018-07-27 2020-01-30 京セラ株式会社 カメラ装置、カメラシステム、移動体およびカメラ装置の製造方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10518751B2 (en) * 2017-09-18 2019-12-31 Ford Global Technologies, Llc Vehicle image sensor cleaning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011016421A (ja) * 2009-07-08 2011-01-27 Higashi Nippon Transportec Kk 支障物検知装置及びこれを備えたプラットホームドアシステム並びに支障物検知方法
WO2015068249A1 (ja) * 2013-11-08 2015-05-14 株式会社日立製作所 自律走行車両、及び自律走行システム
WO2018180310A1 (ja) * 2017-03-28 2018-10-04 株式会社日立国際電気 監視システム及び監視方法
JP2020016862A (ja) * 2018-07-27 2020-01-30 京セラ株式会社 カメラ装置、カメラシステム、移動体およびカメラ装置の製造方法

Also Published As

Publication number Publication date
JPWO2021191998A1 (ja) 2021-09-30
GB2608319B (en) 2024-01-17
US20230362349A1 (en) 2023-11-09
GB2608319A (en) 2022-12-28
GB202213353D0 (en) 2022-10-26
JP7253111B2 (ja) 2023-04-05

Similar Documents

Publication Publication Date Title
JP5674857B2 (ja) 乗降者計数装置
WO2018180311A1 (ja) 監視システム及び監視方法
JP3902531B2 (ja) 列車の定位置停止支援装置
JP2004533964A (ja) 車両ドアの開放状態の光学的識別方法および装置
JP6257379B2 (ja) エレベータシステム
WO2021191998A1 (ja) 監視システム及びカメラ
JP6955584B2 (ja) ドア映像表示システムおよびモニタ
JP6553249B1 (ja) エレベータの注意喚起システム
CN112298036B (zh) 车辆用电子镜系统
JP5114101B2 (ja) 車載カメラシステム
JP6281435B2 (ja) 駐車支援システム
JP2023144233A (ja) 車室内監視システム
CN110920517A (zh) 检测机动车辆前部发动机罩的状态的方法和装置
JP6952929B2 (ja) 列車監視システム
KR101917808B1 (ko) 승강기 영상 감시 시스템 및 승강기 영상 감시 방법
KR101802388B1 (ko) 승강기 블랙박스 및 승강기 영상녹화 방법
KR102644145B1 (ko) 차량의 운행정보를 반영한 차량용 실시간 avm 시스템 및 그 방법
KR102644146B1 (ko) 차량의 운행정보를 반영한 영상 관제 기능을 갖는 avm 시스템 및 그 방법
WO2022138479A1 (ja) 監視システム及び監視方法
JP7365590B2 (ja) エレベータの復旧システム
JP6967729B2 (ja) 運転支援システム、情報処理装置及び情報処理方法
US20240005675A1 (en) Method for Determining a Current Status of a Window
CN114643934B (zh) 车辆车门倚靠检测系统
WO2023188528A1 (ja) 列車走行支援装置及び列車走行支援方法
WO2023188557A1 (ja) 列車走行支援装置及び列車走行支援方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20927806

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022509803

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20927806

Country of ref document: EP

Kind code of ref document: A1