JPWO2021106112A1 - Vehicle condition monitoring device and condition monitoring method - Google Patents

Vehicle condition monitoring device and condition monitoring method Download PDF

Info

Publication number
JPWO2021106112A1
JPWO2021106112A1 JP2020559586A JP2020559586A JPWO2021106112A1 JP WO2021106112 A1 JPWO2021106112 A1 JP WO2021106112A1 JP 2020559586 A JP2020559586 A JP 2020559586A JP 2020559586 A JP2020559586 A JP 2020559586A JP WO2021106112 A1 JPWO2021106112 A1 JP WO2021106112A1
Authority
JP
Japan
Prior art keywords
vehicle
human
incident
condition monitoring
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020559586A
Other languages
Japanese (ja)
Other versions
JP6990327B2 (en
Inventor
了 古谷
淳 渡邊
健太 小西
寛太 濱崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2021106112A1 publication Critical patent/JPWO2021106112A1/en
Application granted granted Critical
Publication of JP6990327B2 publication Critical patent/JP6990327B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Emergency Alarm Devices (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Abstract

乗り物にヒトが存在する状況下において、発生した何らかの異常を検出し、さらには、その異常が乗り物の問題か否か、ヒトの問題か否かを推定する乗り物の状態監視装置を提供する。そのために、乗り物の状態監視装置は、乗り物に設置されたマイクロフォンの音声信号を用いて音声を解析する音声信号解析処理部と、前記乗り物に設置されたカメラの映像信号を用いてヒトの状態量を抽出する状態量抽出処理部と、前記ヒトの状態量と、前記音声信号の解析結果と、前記乗り物を構成する機器の稼働情報を用いてインシデントを推定し、推定インシデント情報を生成するインシデント推定処理部と、前記推定インシデント情報を状態監視装置の外部に伝送するインシデント情報伝送処理部と、を備える。Provided is a vehicle condition monitoring device that detects some abnormality that has occurred in a situation where a human is present in the vehicle, and further estimates whether the abnormality is a vehicle problem or a human problem. Therefore, the vehicle condition monitoring device is a human condition quantity using a voice signal analysis processing unit that analyzes voice using the voice signal of a microphone installed in the vehicle and a video signal of a camera installed in the vehicle. Incident estimation is performed using the state amount extraction processing unit for extracting the image, the human state amount, the analysis result of the voice signal, and the operation information of the equipment constituting the vehicle, and the incident estimation is generated. It includes a processing unit and an incident information transmission processing unit that transmits the estimated incident information to the outside of the state monitoring device.

Description

本発明は、乗り物の状態監視装置および状態監視方法に関する。 The present invention relates to a vehicle condition monitoring device and a condition monitoring method.

鉄道車両といった乗り物は、乗り物内に在るヒトやモノを目的地まで安全に移動させることが求められる。このため、乗り物では、移動そのものを阻害する異常(例えば、乗り物を構成する機器(例えば、ドアなど)の故障など)や機械系の摩耗によって経時的に生じる異常(例えば、鉄道車両の車輪摩耗に起因して発生する振動現象)をできる限り発生させないようにすることが必要である。そのため、異常発生時には、直ちに当該異常を検出して、対策を打つこと、或いは、何かしらの異常が発生しないように、定期的な保守作業を実施することが一般的である。 Vehicles such as railroad vehicles are required to safely move people and things inside the vehicle to their destinations. For this reason, in a vehicle, an abnormality that hinders movement itself (for example, a failure of equipment constituting the vehicle (for example, a door)) or an abnormality that occurs over time due to wear of a mechanical system (for example, wheel wear of a railroad vehicle). It is necessary to prevent the occurrence of vibration phenomenon) as much as possible. Therefore, when an abnormality occurs, it is common to immediately detect the abnormality and take countermeasures, or to carry out regular maintenance work so that some abnormality does not occur.

例えば、特許文献1には、「エレベータ乗りかごの異常確認システム」について、乗りかご内を撮影する監視カメラと、監視カメラの撮影画像を記憶する記憶部と、撮影画像を表示する表示部と、異常検知部が異常を検知したときにおける所定時間幅の監視カメラの撮影画像を保守時に表示部に表示させる制御部とを備え、所定時間幅は、異常検知部が異常を検知した時点よりも時間的に遡った時点における監視カメラの撮影画像を含むように設定されており、記憶部は、記憶済みの撮影画像の画像データのうち撮影から所定期間が経過した撮影画像の画像データに新たに撮影される撮影画像の画像データを上書きして記憶し、制御部は、異常を検知したときにおける所定時間幅の監視カメラの撮影画像に対する上書きを禁止することが記載されている。 For example, in Patent Document 1, regarding the "elevator car abnormality confirmation system", a surveillance camera for photographing the inside of the vehicle, a storage unit for storing the captured image of the surveillance camera, and a display unit for displaying the captured image are provided. It is equipped with a control unit that displays the captured image of the monitoring camera with a predetermined time width when the abnormality detection unit detects an abnormality on the display unit during maintenance, and the predetermined time width is longer than the time when the abnormality detection unit detects the abnormality. It is set to include the captured image of the surveillance camera at the time retroactively, and the storage unit newly captures the image data of the captured image after a predetermined period has passed from the image data of the stored captured image. It is described that the image data of the captured image to be captured is overwritten and stored, and the control unit prohibits overwriting of the captured image of the monitoring camera having a predetermined time width when an abnormality is detected.

特開2016−141522号公報Japanese Unexamined Patent Publication No. 2016-141522

特許文献1の異常確認システムは、乗り物であるエレベータの乗りかごの動作不良を検知して事後的に異常を確認するものの、ヒトそのものが異常を起こすケースを検知するといった点は考慮されていなかった。また、特許文献1の異常確認システムは、発生した異常に対して、乗り物の問題なのか、ヒトの問題なのかを分離することが難しいという問題点があった。 The abnormality confirmation system of Patent Document 1 detects an abnormality in the car of an elevator, which is a vehicle, and confirms the abnormality after the fact, but does not consider the case where a human being itself causes an abnormality. .. Further, the abnormality confirmation system of Patent Document 1 has a problem that it is difficult to distinguish whether the problem is a vehicle problem or a human problem with respect to the generated abnormality.

そこで、本発明は、乗り物にヒトが存在する状況下において、発生した何らかの異常を検出し、さらには、その異常が乗り物の問題か否か、ヒトの問題か否かを推定する乗り物の状態監視システムを提供することを目的とする。 Therefore, the present invention detects a certain abnormality that has occurred in a situation where a human is present in the vehicle, and further, monitors the state of the vehicle to estimate whether the abnormality is a problem of the vehicle or a human problem. The purpose is to provide a system.

上記課題を解決するために、代表的な本発明の乗り物の状態監視装置の一つは、乗り物に設置されているマイクロフォンの音声信号を用いて音声を解析する音声信号解析処理部と、前記乗り物に設置されているカメラの映像信号を用いてヒトの状態量を抽出する状態量抽出処理部と、前記ヒトの状態量と、前記音声信号の解析結果と、前記乗り物を構成する機器の稼働情報を用いてインシデントを推定し、推定インシデント情報を生成するインシデント推定処理部と、前記推定インシデント情報を状態監視装置の外部に伝送するインシデント情報伝送処理部と、を備える。 In order to solve the above problems, one of the typical vehicle state monitoring devices of the present invention is a voice signal analysis processing unit that analyzes voice using the voice signal of a microphone installed in the vehicle, and the vehicle. The state amount extraction processing unit that extracts the human state amount using the video signal of the camera installed in the vehicle, the human state amount, the analysis result of the voice signal, and the operation information of the equipment constituting the vehicle. It is provided with an incident estimation processing unit that estimates an incident using the above and generates estimated incident information, and an incident information transmission processing unit that transmits the estimated incident information to the outside of the state monitoring device.

本発明によれば、乗り物にヒトが存在する状況下において、発生した何らかの異常を検出し、さらには、その異常が乗り物の問題か否か、ヒトの問題か否かを推定する乗り物の状態監視装置を提供することが可能になる。 According to the present invention, in a situation where a human is present in a vehicle, some abnormality that has occurred is detected, and further, whether the abnormality is a vehicle problem or a human problem is estimated, and the vehicle condition monitoring is performed. It becomes possible to provide the device.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments.

鉄道車両の状態監視システムの構成を示す図である。It is a figure which shows the structure of the condition monitoring system of a railroad vehicle. 状態監視装置の動作を説明する流れ図である。It is a flow chart explaining the operation of the state monitoring apparatus. ヒトの状態量を抽出する一例の図である。It is a figure of an example which extracts a human state quantity. 状態監視装置の動作を説明する流れ図である。It is a flow chart explaining the operation of the state monitoring apparatus. 状態監視装置の動作を説明する流れ図である。It is a flow chart explaining the operation of the state monitoring apparatus. 図5に続く状態監視装置の動作を説明する流れ図である。It is a flow chart explaining the operation of the state monitoring apparatus following FIG.

本開示において、ヒトやモノを輸送する物を「乗り物」と呼ぶ。「乗り物」には、例えば、鉄道車両、航空機、エレベータが含まれる。
以下、図面を参照しながら実施例を説明する。なお、各図において、共通な機能を有する構成要素には同一の番号を付与し、その重複する説明を省略する。
In the present disclosure, a vehicle that transports people or goods is referred to as a "vehicle". "Vehicles" include, for example, railroad vehicles, aircraft, and elevators.
Hereinafter, examples will be described with reference to the drawings. In each figure, the same numbers are assigned to the components having a common function, and the duplicated description thereof will be omitted.

実施例1は、鉄道車両に搭載されたマイクロフォンとカメラのそれぞれの情報を利用して、鉄道車両で発生したインシデントを検出し、その内容を推定する状態監視装置および状態監視方法である。 The first embodiment is a condition monitoring device and a condition monitoring method for detecting an incident generated in a railway vehicle and estimating the content thereof by using the information of a microphone and a camera mounted on the railway vehicle.

<実施例1の構成>
図1は、実施例1の状態監視システムの構成を示す図である。
<Structure of Example 1>
FIG. 1 is a diagram showing a configuration of a condition monitoring system according to the first embodiment.

同図において、鉄道車両1はヒト8やモノを輸送する車体2と軌道3の上を走行する台車4から構成され、車体2の内部には、状態を監視するマイクロフォン5と監視カメラ6が搭載される。なお、マイクロフォン5と監視カメラ6は、車体2の天井、あるいは、側面に設置されていればよく、複数台設置されていてもよい。また、マイクロフォンと監視カメラが一体となっていてもよい。また、鉄道車両1は、走行位置や走行速度、乗車率などの車両運行情報を管理する車両情報制御装置7を搭載する。さらに、鉄道車両1は、音声信号検出処理部11と映像信号検出処理部13と音声信号解析処理部12と状態量抽出処理部14とインシデント推定処理部15とインシデント情報伝送処理部16と車両情報検出処理部17とインシデント情報データベース18からなる状態監視装置10を搭載している。 In the figure, the railroad vehicle 1 is composed of a vehicle body 2 for transporting people 8 and goods and a bogie 4 traveling on a track 3, and a microphone 5 for monitoring the state and a surveillance camera 6 are mounted inside the vehicle body 2. Will be done. The microphone 5 and the surveillance camera 6 may be installed on the ceiling or the side surface of the vehicle body 2, and a plurality of microphones 5 may be installed. Further, the microphone and the surveillance camera may be integrated. Further, the railway vehicle 1 is equipped with a vehicle information control device 7 that manages vehicle operation information such as a traveling position, a traveling speed, and a occupancy rate. Further, the railroad vehicle 1 includes a voice signal detection processing unit 11, a video signal detection processing unit 13, a voice signal analysis processing unit 12, a state quantity extraction processing unit 14, an incident estimation processing unit 15, an incident information transmission processing unit 16, and vehicle information. It is equipped with a status monitoring device 10 including a detection processing unit 17 and an incident information database 18.

状態監視装置10は、マイクロフォン5から音声信号31aと、監視カメラ6から映像信号34aを入力し、車両情報制御装置7から車両情報信号37aを入力し、車両情報制御装置7へ推定インシデント情報40aを出力する。 The state monitoring device 10 inputs an audio signal 31a from the microphone 5 and a video signal 34a from the monitoring camera 6, inputs a vehicle information signal 37a from the vehicle information control device 7, and outputs estimated incident information 40a to the vehicle information control device 7. Output.

音声信号検出処理部11は、マイクロフォン5で得られた音声信号31aを入力し、解析処理するための音声デジタル信号32aへ変換して、音声信号解析処理部12へ出力する。 The audio signal detection processing unit 11 inputs the audio signal 31a obtained by the microphone 5, converts it into an audio digital signal 32a for analysis processing, and outputs it to the audio signal analysis processing unit 12.

映像信号検出処理部13は、監視カメラ6で得られた映像信号34aを入力し、ヒトの状態量を抽出するための映像デジタル信号35aへ変換して、状態量抽出処理部14へ出力する。 The video signal detection processing unit 13 inputs the video signal 34a obtained by the surveillance camera 6, converts it into a video digital signal 35a for extracting a human state quantity, and outputs it to the state quantity extraction processing unit 14.

音声信号解析処理部12は、音声デジタル信号32aを入力し、ヒトから生じる音、例えば、悲鳴などや、車両が発生する音、例えば、空調の稼働音などの音声信号解析結果33aをインシデント推定処理部15へ出力する。 The audio signal analysis processing unit 12 inputs an audio digital signal 32a, and performs incident estimation processing of an audio signal analysis result 33a such as a sound generated by a human, for example, a scream, or a sound generated by a vehicle, for example, an operating sound of an air conditioner. Output to unit 15.

状態量抽出処理部14は、映像デジタル信号35aを入力し、ヒトの動きなどの状態量36aをインシデント推定処理部15へ出力する。 The state quantity extraction processing unit 14 inputs the video digital signal 35a and outputs the state quantity 36a such as human movement to the incident estimation processing unit 15.

車両情報検出処理部17は、車両情報信号37aを入力し、ドアや床下機器の稼働データなどの車両情報38aをインシデント推定処理部15へ出力する。 The vehicle information detection processing unit 17 inputs a vehicle information signal 37a and outputs vehicle information 38a such as operation data of doors and underfloor equipment to the incident estimation processing unit 15.

インシデント推定処理部15は、音声信号解析結果33aと状態量36aと車両情報38aとインシデント情報42aを入力し、推定インシデント情報39a、41aをそれぞれインシデント情報伝送処理部16とインシデント情報データベース18へ出力する。 The incident estimation processing unit 15 inputs the voice signal analysis result 33a, the state quantity 36a, the vehicle information 38a, and the incident information 42a, and outputs the estimated incident information 39a and 41a to the incident information transmission processing unit 16 and the incident information database 18, respectively. ..

インシデント情報データベース18は、推定インシデント情報41aを入力し、インシデント情報42aをインシデント推定処理部15へ出力し、インシデント情報43aをインシデント情報伝送処理部16へ出力する。 The incident information database 18 inputs estimated incident information 41a, outputs incident information 42a to incident estimation processing unit 15, and outputs incident information 43a to incident information transmission processing unit 16.

インシデント情報伝送処理部16は、推定インシデント情報39aとインシデント情報43aを入力し、推定インシデント情報40aを車両情報制御装置7へ出力する。 The incident information transmission processing unit 16 inputs the estimated incident information 39a and the incident information 43a, and outputs the estimated incident information 40a to the vehicle information control device 7.

上記の処理内容の詳細は、以降で別途説明する。 The details of the above processing contents will be described separately below.

<実施例1の検出フロー(ヒトが起こすインシデント)>
図2は、状態監視装置の動作を説明するフロー図であり、特にヒトが発生させるインシデントを検出する流れである。なお、図2では、状態監視対象となる車両について、ヒトが存在することを把握した上でのフローとなっている。本把握について、例えば、車両内に設置された監視カメラを利用して、当該車両を入出するヒトの数を計算し、当該車両にどれくらいの人数が存在するかを把握すれば良い。同図のステップ番号に沿って、状態監視装置10の動作を説明する。
<Detection flow of Example 1 (incident caused by human)>
FIG. 2 is a flow chart for explaining the operation of the condition monitoring device, and is a flow for detecting an incident generated by a human in particular. It should be noted that FIG. 2 shows the flow after grasping that there are humans in the vehicle to be the condition monitoring target. Regarding this grasp, for example, a surveillance camera installed in the vehicle may be used to calculate the number of people entering and exiting the vehicle, and the number of people in the vehicle may be grasped. The operation of the condition monitoring device 10 will be described with reference to the step numbers in the figure.

ステップS101:マイクロフォンの音声信号からヒトの声を抽出する。例えば、ヒトの声が顕著な周波数帯域に着目し、ヒト不在時の音声信号との差分処理にてヒトの声を抽出する。なお、本処理は音声信号解析処理部12で実施する。 Step S101: Extract a human voice from the voice signal of the microphone. For example, focusing on the frequency band in which the human voice is prominent, the human voice is extracted by the difference processing with the audio signal when the human voice is absent. This process is performed by the audio signal analysis processing unit 12.

ステップS102:事前に設定された音声閾値に対して、ステップS101で抽出された音声が超過したか否かを判定する。本判定には、例えば、音声レベルだけでなく、閾値超過した音声がどの程度継続しているかをみてもよい。なお、本処理は音声信号解析処理部12、あるいは、インシデント推定処理部15で実施する。 Step S102: It is determined whether or not the voice extracted in step S101 exceeds the voice threshold set in advance. In this determination, for example, not only the voice level but also how long the voice exceeding the threshold value continues. This processing is performed by the audio signal analysis processing unit 12 or the incident estimation processing unit 15.

ステップS103:閾値超過した場合に、映像信号から、車両内の個々のヒトの状態量を抽出する。例えば、図3に車両内の個々のヒトの状態量抽出の一例を示す。図3では、車内に設置された監視カメラ6の映像信号から個々のヒト8を移動体50として認識する。車両内での各移動体50の移動量から移動速度(スカラ値)を算出することで、車両内の移動体50全体の平均速度を算出する。この時、鉄道車両が走行中で乗客が着席状態であれば、一部の乗客が通路を移動したとしても、移動体50の平均速度はほぼゼロに等しい。また、駅発着時の乗客移動が発生した場合には、移動体50の平均速度はある速度域に収まる。一方で、車内異常でヒト8が逃げ出すような状況下では、移動体50の平均速度が高くなると推測される。また、ヒトの状態量として、併せて乗車率を考慮しても良い。さらには、各移動体50の移動速度を算出する際に、移動ベクトルを考慮して、通路を各方向にそれぞれ移動する移動体50を個別に分離して平均速度を算出し、ヒトの状態量として抽出しても良い。また、車体の上面から俯瞰して個々の移動体の位置情報から移動体の密集度をヒトの状態量として抽出しても良い。なお、本処理は状態量抽出処理部14で実施する。 Step S103: When the threshold value is exceeded, the state quantity of each person in the vehicle is extracted from the video signal. For example, FIG. 3 shows an example of extracting the state quantity of each human in a vehicle. In FIG. 3, each human 8 is recognized as a moving body 50 from the video signal of the surveillance camera 6 installed in the vehicle. By calculating the moving speed (scalar value) from the amount of movement of each moving body 50 in the vehicle, the average speed of the entire moving body 50 in the vehicle is calculated. At this time, if the railroad vehicle is running and the passengers are seated, the average speed of the moving body 50 is almost equal to zero even if some passengers move in the aisle. Further, when passengers move when departing from or arriving at a station, the average speed of the moving body 50 falls within a certain speed range. On the other hand, it is presumed that the average speed of the moving body 50 will be high under the situation where the human 8 escapes due to an abnormality in the vehicle. In addition, the occupancy rate may be taken into consideration as the amount of human condition. Furthermore, when calculating the moving speed of each moving body 50, the moving body 50 moving in each direction in each direction is individually separated to calculate the average speed in consideration of the moving vector, and the human state quantity. It may be extracted as. Further, the density of the moving body may be extracted as a human state quantity from the position information of each moving body from a bird's-eye view from the upper surface of the vehicle body. This process is carried out by the state quantity extraction process unit 14.

ステップS104:閾値超過したヒトの声とヒトの状態量の間にみられる関係を把握する。例えば、ステップ101で得られるヒトの声の特性値と、ステップ103で得られるヒトの状態量との組み合わせが、それぞれを軸とした空間内で、どの場所に位置しているのかを把握しておく。また、ヒトの声とヒトの平均移動速度のみならず、乗車率を考慮した空間における位置を把握しておいても良く、ヒトから得られる状態量を考慮すればよい。なお、本処理はインシデント推定処理部15で実施する。 Step S104: To grasp the relationship seen between the human voice exceeding the threshold value and the human state quantity. For example, grasping where the combination of the characteristic value of the human voice obtained in step 101 and the human state quantity obtained in step 103 is located in the space about each of them. back. Further, not only the human voice and the average moving speed of the human but also the position in the space in consideration of the occupancy rate may be grasped, and the state quantity obtained from the human may be considered. This process is performed by the incident estimation processing unit 15.

ステップS105:ステップ104にて把握した関係を基にインシデント有無を判定できる場合、どのインシデントに該当するのか選定する。例えば、ステップ104のヒトの声とヒトの状態量の関係に対応したインシデントレベルを数値として事前に設定しておき、どのインシデントレベルに該当するのか選定すればよい。また、ステップ104のヒトの声とヒトの状態量の関係から、過去のインシデントデータベースを基に、発生しているインシデントを推定できる場合は、インシデントレベルだけでなく、推定インシデントも併せて選定すればよい。例えば、ヒトが暴れているなどである。なお、本処理はインシデント推定処理部15とインシデント情報データベース18を用いて実施する。 Step S105: If the presence or absence of an incident can be determined based on the relationship grasped in step 104, which incident corresponds to is selected. For example, an incident level corresponding to the relationship between the human voice and the human state quantity in step 104 may be set in advance as a numerical value, and which incident level corresponds to may be selected. If the incident that has occurred can be estimated from the relationship between the human voice and the human state quantity in step 104 based on the past incident database, not only the incident level but also the estimated incident can be selected. good. For example, humans are rampaging. This process is performed using the incident estimation processing unit 15 and the incident information database 18.

ステップS106:上記ステップS105の結果を基に、インシデント情報を伝送する。例えば、車両情報制御装置に対して情報を伝送し、車内にいる運転士や乗務員、或いは、地上側の管理センターへ連絡する。この時、インシデントレベルに応じて、その時の音声信号や映像信号を併せて提示する。さらに、その際に、推定されたインシデント情報を示しておいてもよい。なお、これらのインシデント情報に関して、運転士には、運転台の画面へ情報を表示し、乗務員には、例えばタブレットなどのスマートデバイスへ情報を提示し、地上の管理センターには、管理センターにある画面へ情報を表示すればよい。なお、本処理はインシデント情報伝送処理部16で実施する。 Step S106: Incident information is transmitted based on the result of step S105. For example, information is transmitted to the vehicle information control device, and the driver or crew in the vehicle or the management center on the ground side is contacted. At this time, the audio signal and the video signal at that time are also presented according to the incident level. Further, at that time, the estimated incident information may be shown. Regarding these incident information, the driver is displayed on the screen of the driver's cab, the crew is presented with the information on a smart device such as a tablet, and the ground management center is in the management center. All you have to do is display the information on the screen. This process is performed by the incident information transmission processing unit 16.

<実施例1の検出フロー(車両側で発生したインシデント)>
図4は、状態監視装置の動作を説明するフロー図であり、特に車両内にヒトが不在の場合に、車両側のインシデントを検出する流れである。なお、図4では、状態監視対象となる車両について、ヒトが不在であることを把握した上でのフローとなっている。本把握について、前記同様に、例えば、車両内に設置された監視カメラを利用して、当該車両を入出するヒトの数を計算し、当該車両にどれくらいの人数が存在するかを把握すれば良い。同図のステップ番号に沿って、状態監視装置10の動作を説明する。
<Detection flow of Example 1 (incident generated on the vehicle side)>
FIG. 4 is a flow chart for explaining the operation of the condition monitoring device, and is a flow for detecting an incident on the vehicle side, particularly when a person is absent in the vehicle. It should be noted that FIG. 4 shows the flow after grasping that a human is absent from the vehicle to be the condition monitoring target. Regarding this grasp, in the same manner as described above, for example, a surveillance camera installed in the vehicle may be used to calculate the number of people entering and exiting the vehicle, and the number of people in the vehicle may be grasped. .. The operation of the condition monitoring device 10 will be described with reference to the step numbers in the figure.

ステップS111:マイクロフォンの音声信号を解析する。例えば、1/3オクターブ分析を実施して、各周波数帯域における騒音レベルを検出すればよい。なお、本処理は音声信号解析処理部12で実施する。 Step S111: Analyzing the voice signal of the microphone. For example, a 1/3 octave analysis may be performed to detect the noise level in each frequency band. This process is performed by the audio signal analysis processing unit 12.

ステップS112:事前に設定された閾値に対して、ステップS111で抽出された音が超過したか否かを判定すればよい。本判定には、例えば、音のレベルだけでなく、閾値超過した音がどの程度継続しているかをみてもよい。また、閾値には、仕様で定められた騒音値を設定すればよい。なお、本処理は音声信号解析処理部12、あるいは、インシデント推定処理部15で実施する。 Step S112: It may be determined whether or not the sound extracted in step S111 exceeds the preset threshold value. In this determination, for example, not only the sound level but also how long the sound exceeding the threshold value continues. Further, the noise value specified in the specifications may be set as the threshold value. This processing is performed by the audio signal analysis processing unit 12 or the incident estimation processing unit 15.

ステップS113:閾値超過した場合に、発生音と機器データベースとの関係を照合する。例えば、1/3オクターブ分析結果を基に、事前にデータベースとして、空調などの機器類、及び、稼働周波数を登録しておけばよい。閾値超過した騒音レベルの周波数帯域において、登録した機器類の稼働周波数が該当する場合、その該当結果を出力できるようにしておく。なお、本処理はインシデント推定処理部15で実施し、インシデント情報データベース18を利用する。 Step S113: When the threshold value is exceeded, the relationship between the generated sound and the device database is collated. For example, based on the 1/3 octave analysis result, equipment such as air conditioners and operating frequencies may be registered in advance as a database. If the operating frequency of the registered equipment is applicable in the frequency band of the noise level that exceeds the threshold value, the corresponding result can be output. This process is performed by the incident estimation processing unit 15, and the incident information database 18 is used.

ステップS114:ステップS113にて、閾値超過音に関連するデータベースの登録データが存在する場合、当該音と機器の稼働情報との関連性を分析する。例えば、登録データにある機器の稼働情報を車両情報制御装置から受け取る。この時、過去データで得られている機器の稼働情報と発生音との関係性が、今回得られた関係性と、どの程度異なるかを検出する。なお、本処理はインシデント推定処理部15、車両情報検出処理部17で実施し、インシデント情報データベース18を利用する。 Step S114: In step S113, when the registration data of the database related to the threshold value exceeding sound exists, the relationship between the sound and the operation information of the device is analyzed. For example, the operation information of the device in the registration data is received from the vehicle information control device. At this time, it is detected how much the relationship between the device operation information obtained from the past data and the generated sound is different from the relationship obtained this time. This process is performed by the incident estimation processing unit 15 and the vehicle information detection processing unit 17, and the incident information database 18 is used.

ステップS115:ステップ114にて、機器の稼働情報と閾値超過音に関連がある場合、当該音と機器の稼働情報との関係性を選定する。例えば、過去データで得られている関係性と、今回得られた関係性の差異が大きい場合に、機器を当該音の要因として選定する。なお、本処理はインシデント推定処理部15、車両情報検出処理部17で実施し、インシデント情報データベース18を利用する。 Step S115: In step 114, when the operation information of the device and the threshold value exceeding sound are related, the relationship between the sound and the operation information of the device is selected. For example, when the difference between the relationship obtained from the past data and the relationship obtained this time is large, the device is selected as the factor of the sound. This process is performed by the incident estimation processing unit 15 and the vehicle information detection processing unit 17, and the incident information database 18 is used.

ステップS116:ステップ113とステップ114とステップ115の結果を踏まえて、車両側で発生したインシデントを選定する。例えば、閾値超過音に関連する機器データベースの情報がなければ、そもそもデータベースに存在しないインシデントであることを選定する。また、閾値超過音に関連する機器データベースの情報があるにも関わらず、関連性がみられない場合、対象となっているデータベースの機器を示したうえで、関連がみられないインシデントであることを選定する。また、閾値超過音に関連する機器データベースの情報があり、関連性がみられる場合、当該対象機器をインシデントとして選定する。なお、本処理はインシデント推定処理部15とインシデント情報データベース18を用いて実施する。 Step S116: An incident that occurred on the vehicle side is selected based on the results of step 113, step 114, and step 115. For example, if there is no information in the device database related to the threshold excess sound, it is selected that the incident does not exist in the database in the first place. In addition, if there is information in the device database related to the threshold overtone but no relevance is found, the incident indicates the device in the target database and no relevance is found. To select. In addition, if there is information in the device database related to the threshold overtone and there is a relevance, the target device is selected as an incident. This process is performed using the incident estimation processing unit 15 and the incident information database 18.

<実施例1の検出フロー(ヒトが居る場合に車両側で発生するインシデント)>
図5、図6は、状態監視装置の動作を説明するフロー図であり、特にヒトが発生させる音やヒトの動きをサポート情報として利用し、車両側のインシデントを検出する流れである。なお、図5、図6では、状態監視対象となる車両について、ヒトが存在することを把握している上でのフローとなっている。同図のステップ番号のうち、既に重複するステップ番号について省略し、状態監視装置10の動作を説明する。
<Detection flow of Example 1 (incident that occurs on the vehicle side when there is a human)>
5 and 6 are flow charts for explaining the operation of the condition monitoring device, and in particular, are a flow of detecting an incident on the vehicle side by using a sound generated by a human or a human movement as support information. It should be noted that FIGS. 5 and 6 show the flow after grasping the existence of a human being for the vehicle to be the condition monitoring target. Of the step numbers in the figure, the duplicate step numbers are omitted, and the operation of the condition monitoring device 10 will be described.

ステップS121:マイクロフォンの音声信号からヒトの声以外の音を抽出する。例えば、ヒトの声との差分処理により、ヒトの声以外の音として抽出すればよい。なお、本処理は音声信号解析処理部12で実施する。 Step S121: Extract a sound other than the human voice from the voice signal of the microphone. For example, it may be extracted as a sound other than the human voice by the difference processing with the human voice. This process is performed by the audio signal analysis processing unit 12.

ステップS122:ステップS113とステップS114でデータの存在や関連がみられない場合に、車両内で個々のヒトの状態量を抽出する。車両内の個々のヒトの状態量抽出の一例として、車内に設置された監視カメラ6の映像信号から個々のヒト8を認識する。この時、ヒトの頭部分に着目し、ヒトの顔がどこに向いているのかを抽出する。これにより、複数のヒトが、顔を向けている方向から、どの箇所に着目しているのかを抽出する。なお、本処理は状態量抽出処理部14で実施する。 Step S122: When the existence or association of data is not found in step S113 and step S114, the state quantity of each person in the vehicle is extracted. As an example of extracting the state quantity of each human in the vehicle, the individual human 8 is recognized from the video signal of the surveillance camera 6 installed in the vehicle. At this time, pay attention to the human head part and extract where the human face is facing. In this way, it is possible to extract which part the plurality of humans are paying attention to from the direction in which they are facing their faces. This process is carried out by the state quantity extraction process unit 14.

ステップS123:ステップ122までの結果を踏まえて、特徴に基づく車両側のインシデントを選定する。例えば、閾値超過音に関連する機器データベースの情報がなければ、そもそもデータベースに存在しないインシデントであることを選定する。また、閾値超過音に関連する機器データベースの情報があるにも関わらず、関連性がみられない場合、対象となっているデータベースの機器を示したうえで、関連がみられないインシデントであることを選定する。さらに、ステップS122により得られた特徴からヒトがどこに着目していたのかを併せて選定する。なお、本処理はインシデント推定処理部15とインシデント情報データベース18を用いて実施する。 Step S123: Based on the results up to step 122, an incident on the vehicle side based on the characteristics is selected. For example, if there is no information in the device database related to the threshold excess sound, it is selected that the incident does not exist in the database in the first place. In addition, if there is information in the device database related to the threshold overtone but no relevance is found, the incident indicates the device in the target database and no relevance is found. To select. Further, from the characteristics obtained in step S122, where the human was paying attention is also selected. This process is performed using the incident estimation processing unit 15 and the incident information database 18.

ステップS124:ステップ113とステップ114とステップ115の結果を踏まえて、車両インシデントを選定する。例えば、閾値超過音に関連する機器データベースの情報があり、関連性がみられる場合、当該対象機器をインシデントとして選定する。なお、本処理はインシデント推定処理部15とインシデント情報データベース18を用いて実施する。 Step S124: A vehicle incident is selected based on the results of step 113, step 114, and step 115. For example, if there is information in the device database related to the threshold overtone and the relevance is found, the target device is selected as an incident. This process is performed using the incident estimation processing unit 15 and the incident information database 18.

<実施例1の効果>
(1)上述したように実施例1では、車両内にヒトが不在の場合に、車両側の発生音と機器データベースの照合により、問題となる音の要因推定が可能となり、また、乗務員等の関係者に対して、即座に要因候補や、発生音、車内の映像情報などの情報を提示することが可能になる。
<Effect of Example 1>
(1) As described above, in the first embodiment, when a person is absent in the vehicle, the cause of the problematic sound can be estimated by collating the generated sound on the vehicle side with the device database, and the crew member or the like can estimate the cause. It will be possible to immediately present information such as factor candidates, generated sounds, and video information inside the vehicle to the parties concerned.

(2)さらに、実施例1では、車両内にヒトが存在する場合に、ヒトの声とヒトの状態量との関係性を利用して、ヒトが発生させるインシデントを検出することが可能となり、また、乗務員等の関係者に対して、即座にそのインシデント内容や、発生音、車内の映像情報などの情報を提示することが可能になる。 (2) Further, in Example 1, when a human is present in the vehicle, it becomes possible to detect an incident generated by the human by utilizing the relationship between the human voice and the human state quantity. In addition, it becomes possible to immediately present information such as the content of the incident, the generated sound, and the video information in the vehicle to the related persons such as the crew.

(3)また、実施例1では、車両内にヒトが存在する場合に、ヒトの声以外の音と機器データベースの照合に加えて、ヒトの音声やヒトの状態量から、問題となる車両側の要因推定が可能となり、また、乗務員等の関係者に対して、即座に要因候補や、発生音、車内の映像情報などの情報を提示することが可能になる。 (3) Further, in the first embodiment, when a human is present in the vehicle, in addition to collating the sound other than the human voice with the device database, the vehicle side which becomes a problem from the human voice and the human state quantity. It is possible to estimate the factors of the above, and to immediately present information such as factor candidates, generated sounds, and video information in the vehicle to related persons such as crew members.

<実施形態の補足事項>
上述した実施形態では、鉄道車両の状態監視用途について述べたが、本発明の用途はこれに限定されない。例えば、航空機の状態監視や、エレベータの状態監視やその他の用途に適用することができる。
<Supplementary matters of the embodiment>
In the above-described embodiment, the use for condition monitoring of a railway vehicle has been described, but the use of the present invention is not limited to this. For example, it can be applied to aircraft condition monitoring, elevator condition monitoring and other uses.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、状態監視装置10が行う処理の一部又は全部を人工知能が行うようにしてもよい。上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, artificial intelligence may perform part or all of the processing performed by the condition monitoring device 10. The above-mentioned examples have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.

さらに、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。例えば、車体の内部に臭気センサ又は振動加速度検知センサを設置することにより、車体の内部における臭気又は振動を加味して要因を推定することができるようにしてもよい。また、台車付近にマイクロフォン、臭気センサ又は振動加速度検知センサを設置することにより、床下に設置された機器が発生する音、臭気又は振動を検知できるようにしてもよい。 Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration. For example, by installing an odor sensor or a vibration acceleration detection sensor inside the vehicle body, the factor may be estimated in consideration of the odor or vibration inside the vehicle body. Further, by installing a microphone, an odor sensor, or a vibration acceleration detection sensor in the vicinity of the trolley, it may be possible to detect the sound, odor, or vibration generated by the device installed under the floor.

1…鉄道車両、2…車体(半車体分)、3…軌道、4…台車、5…マイクロフォン、6…監視カメラ、7…車両情報制御装置、8…ヒト、10…状態監視装置、11…音声信号検出処理部、12…音声信号解析処理部、13…映像信号検出処理部、14…状態量抽出処理部、15…インシデント推定処理部、16…インシデント情報伝送処理部、17…車両情報検出処理部、18…インシデント情報データベース 1 ... railroad car, 2 ... car body (half car body), 3 ... track, 4 ... trolley, 5 ... microphone, 6 ... surveillance camera, 7 ... vehicle information control device, 8 ... human, 10 ... state monitoring device, 11 ... Audio signal detection processing unit, 12 ... Audio signal analysis processing unit, 13 ... Video signal detection processing unit, 14 ... State quantity extraction processing unit, 15 ... Incident estimation processing unit, 16 ... Incident information transmission processing unit, 17 ... Vehicle information detection Processing unit, 18 ... Incident information database

Claims (7)

乗り物に設置されたマイクロフォンの音声信号を用いて音声を解析する音声信号解析処理部と、
前記乗り物に設置されたカメラの映像信号を用いてヒトの状態量を抽出する状態量抽出処理部と、
前記ヒトの状態量と、前記音声信号の解析結果と、前記乗り物を構成する機器の稼働情報を用いてインシデントを推定し、推定インシデント情報を生成するインシデント推定処理部と、
前記推定インシデント情報を状態監視装置の外部に伝送するインシデント情報伝送処理部と、
を備える乗り物の状態監視装置。
A voice signal analysis processing unit that analyzes voice using the voice signal of a microphone installed in a vehicle, and
A state quantity extraction processing unit that extracts a human state quantity using the video signal of a camera installed on the vehicle, and a state quantity extraction processing unit.
An incident estimation processing unit that estimates an incident using the human state quantity, the analysis result of the voice signal, and the operation information of the equipment constituting the vehicle, and generates the estimated incident information.
An incident information transmission processing unit that transmits the estimated incident information to the outside of the condition monitoring device, and
Vehicle condition monitoring device.
請求項1に記載の乗り物の状態監視装置において、
前記音声信号から、前記ヒトが発生する音と、前記乗り物が発生する音を分離し、それぞれの音がそれぞれの閾値を超過した場合にインシデントが発生したと判定する乗り物の状態監視装置。
In the vehicle condition monitoring device according to claim 1,
A vehicle condition monitoring device that separates the sound generated by the human and the sound generated by the vehicle from the audio signal, and determines that an incident has occurred when each sound exceeds the respective threshold value.
請求項2に記載の乗り物の状態監視装置において、
前記映像信号から前記ヒトを検出し、前記ヒトの移動量から、前記ヒトの個々の移動速度、前記ヒト全体の平均移動速度、又は、前記ヒトの場所と密集度を求めて、前記ヒトの状態量として検出する乗り物の状態監視装置。
In the vehicle condition monitoring device according to claim 2,
The human is detected from the video signal, and the individual movement speed of the human, the average movement speed of the entire human, or the location and density of the human are obtained from the movement amount of the human, and the state of the human is obtained. A vehicle condition monitoring device that detects as a quantity.
請求項3に記載の乗り物の状態監視装置において、
前記ヒトの状態量と前記ヒトが発生する音の特性値との組み合わせに対応するインシデントを推定し、前記推定インシデント情報を生成する乗り物の状態監視装置。
In the vehicle condition monitoring device according to claim 3,
A vehicle condition monitoring device that estimates an incident corresponding to a combination of the human state quantity and the characteristic value of the sound generated by the human, and generates the estimated incident information.
請求項2に記載の乗り物の状態監視装置において、
前記乗り物が発生する音の分析結果と、前記乗り物を構成する機器の稼働情報からインシデントを推定し、前記推定インシデント情報を生成する乗り物の状態監視装置。
In the vehicle condition monitoring device according to claim 2,
A vehicle condition monitoring device that estimates an incident from the analysis result of the sound generated by the vehicle and the operation information of the equipment constituting the vehicle, and generates the estimated incident information.
請求項4又は請求項5に記載の乗り物の状態監視装置において、
前記推定インシデント情報と推定に用いた前記音声信号と前記映像信号を併せて、状態監視装置の外部に伝送する乗り物の状態監視装置。
In the vehicle condition monitoring device according to claim 4 or 5.
A vehicle condition monitoring device that transmits the estimated incident information, the audio signal used for estimation, and the video signal to the outside of the condition monitoring device.
乗り物に設置されたマイクロフォンの音声信号を用いて音声を解析する音声信号解析処理ステップと、
前記乗り物に設置されたカメラの映像信号を用いてヒトの状態量を抽出する状態量抽出処理ステップと、
前記ヒトの状態量と、前記音声信号の解析結果と、前記乗り物を構成する機器の稼働情報を用いてインシデントを推定し、推定インシデント情報を生成するインシデント推定処理ステップと、
前記推定インシデント情報を伝送するインシデント情報伝送処理ステップと、
を備える乗り物の状態監視方法。
A voice signal analysis processing step that analyzes voice using the voice signal of a microphone installed in a vehicle, and
A state quantity extraction processing step for extracting a human state quantity using the video signal of a camera installed on the vehicle, and a state quantity extraction processing step.
An incident estimation processing step that estimates an incident using the human state quantity, the analysis result of the voice signal, and the operation information of the equipment constituting the vehicle, and generates the estimated incident information.
The incident information transmission processing step for transmitting the estimated incident information, and
Vehicle condition monitoring method.
JP2020559586A 2019-11-27 2019-11-27 Vehicle condition monitoring device and condition monitoring method Active JP6990327B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/046412 WO2021106112A1 (en) 2019-11-27 2019-11-27 Vehicle state monitoring device and state monitoring method

Publications (2)

Publication Number Publication Date
JPWO2021106112A1 true JPWO2021106112A1 (en) 2021-12-02
JP6990327B2 JP6990327B2 (en) 2022-01-12

Family

ID=76129342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559586A Active JP6990327B2 (en) 2019-11-27 2019-11-27 Vehicle condition monitoring device and condition monitoring method

Country Status (2)

Country Link
JP (1) JP6990327B2 (en)
WO (1) WO2021106112A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012001191A (en) * 2010-06-21 2012-01-05 Hitachi Ltd Status monitoring apparatus of railway vehicle
JP2014232084A (en) * 2013-05-30 2014-12-11 公益財団法人鉄道総合技術研究所 Abnormal sound detection device and program
WO2016181543A1 (en) * 2015-05-14 2016-11-17 株式会社日立製作所 Status-monitoring device for railroad vehicle, status-monitoring system, and train vehicle
JP2018173501A (en) * 2017-03-31 2018-11-08 サクサ株式会社 Display controller and method for display control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012001191A (en) * 2010-06-21 2012-01-05 Hitachi Ltd Status monitoring apparatus of railway vehicle
JP2014232084A (en) * 2013-05-30 2014-12-11 公益財団法人鉄道総合技術研究所 Abnormal sound detection device and program
WO2016181543A1 (en) * 2015-05-14 2016-11-17 株式会社日立製作所 Status-monitoring device for railroad vehicle, status-monitoring system, and train vehicle
JP2018173501A (en) * 2017-03-31 2018-11-08 サクサ株式会社 Display controller and method for display control

Also Published As

Publication number Publication date
WO2021106112A1 (en) 2021-06-03
JP6990327B2 (en) 2022-01-12

Similar Documents

Publication Publication Date Title
CN109205426B (en) Elevator health monitoring system
JP6141035B2 (en) Train control system and automatic train operation device
JP6845307B2 (en) Monitoring system and monitoring method
KR101718806B1 (en) Automatic calculation server for platform stop time of train, system and method thereof
WO2009157227A1 (en) In-train monitor system
JP6960946B2 (en) Door anomaly detection system and elevator system
CN109205427B (en) Elevator destruction monitoring system
WO2017219655A1 (en) Rail vehicle system
US20170050652A1 (en) Method for providing a diagnostic message in a rail vehicle
JP2015000807A (en) Elevator control system and elevator control method
KR100876661B1 (en) Vision based monitoring system in railway station
JP6990327B2 (en) Vehicle condition monitoring device and condition monitoring method
KR100869835B1 (en) Multi sensor based railway platform monitoring system
KR20080061034A (en) Emergency control system and methode for the platform screen door system
KR20130033589A (en) Monitoring system for safety line and railroad track of platform
KR20160125763A (en) Security and surveillance system and method for elevator
WO2021186505A1 (en) Status notification device, status notification system, status notification method, and program storage medium
KR102086811B1 (en) Apparatus and method for providing emergency information
JP7179576B2 (en) Operation control device, operation control system and operation control method
JP2015198317A (en) Collision preventive detection system for one-man operation
JP7281550B2 (en) Train monitoring system and train monitoring method
KR101802388B1 (en) An Elevator Black Box And A Method For Vedio Recoding
WO2022239049A1 (en) Elevator and elevator control method
KR20170082998A (en) An Elevator Video Monitoring System And An Elevator Video Monitoring System
JP7253111B2 (en) Surveillance system and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211203

R150 Certificate of patent or registration of utility model

Ref document number: 6990327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150