JP2018118843A - Remote monitoring system for elevator - Google Patents

Remote monitoring system for elevator Download PDF

Info

Publication number
JP2018118843A
JP2018118843A JP2017013390A JP2017013390A JP2018118843A JP 2018118843 A JP2018118843 A JP 2018118843A JP 2017013390 A JP2017013390 A JP 2017013390A JP 2017013390 A JP2017013390 A JP 2017013390A JP 2018118843 A JP2018118843 A JP 2018118843A
Authority
JP
Japan
Prior art keywords
model pattern
image
person
car
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017013390A
Other languages
Japanese (ja)
Other versions
JP6667144B2 (en
Inventor
行宏 宮川
Yukihiro Miyagawa
行宏 宮川
正一 若林
Shoichi Wakabayashi
正一 若林
文隆 赤坂
Fumitaka Akasaka
文隆 赤坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP2017013390A priority Critical patent/JP6667144B2/en
Publication of JP2018118843A publication Critical patent/JP2018118843A/en
Application granted granted Critical
Publication of JP6667144B2 publication Critical patent/JP6667144B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring system for an elevator capable of preventing a notification resulting from a position and a behavior of at least one of a person and an object.SOLUTION: A remote monitoring system 1 includes a control microcomputer 20, a monitoring terminal 3, a camera 210 for photographing inside of a car 21 with time, a processing unit 23 for processing captured images, and a storage unit 221 for storing model patterns of persons. The processing unit 23 performs: first processing for extracting each edge from an image; second processing for applying a model pattern of each person to an edge extracted from the image; and third processing for preventing transmission of abnormality information resulting from a behavior of a person from the control microcomputer 20 to the monitoring terminal 3 when coordinates of the model pattern of the person applied in the second processing are at the first specific coordinates or when a change in coordinates of model patterns in images before and after the image applied with the model pattern of the person in the second processing shows the first specific behavior.SELECTED DRAWING: Figure 1

Description

本発明は、エレベータを遠隔監視する遠隔監視システムに関する。   The present invention relates to a remote monitoring system for remotely monitoring an elevator.

従来から、エレベータの動作状況を監視する遠隔監視システムが提供されている。遠隔監視システムは、動作を制御するための制御マイコンを含むエレベータと、エレベータの制御マイコンに通信可能に接続され且つエレベータの動作を遠隔で監視するための端末とを備える(特許文献1参照)。   Conventionally, a remote monitoring system for monitoring an operation state of an elevator has been provided. The remote monitoring system includes an elevator including a control microcomputer for controlling the operation, and a terminal that is communicably connected to the control microcomputer of the elevator and remotely monitors the operation of the elevator (see Patent Document 1).

かかるシステムでは、エレベータに異常等が発生した場合、エレベータ(制御マイコン)からの信号を基に、監視センターの端末(監視端末)が監視センターの監視員にエレベータの動作状況を報知する。この監視端末の報知により、監視員は、エレベータに異常等が発生したことを認識し、技術員にエレベータへの出向を要請する。   In such a system, when an abnormality or the like occurs in the elevator, the monitoring center terminal (monitoring terminal) notifies the monitoring center monitoring staff of the operation status of the elevator based on a signal from the elevator (control microcomputer). The supervisor recognizes that an abnormality or the like has occurred in the elevator by notifying the monitoring terminal, and requests the technician to go to the elevator.

しかし、上記システムでは、監視端末が、エレベータの異常等が発生したことを報知するにすぎないため、監視員はエレベータの異常等の発生原因を把握することができない。   However, in the above system, since the monitoring terminal only informs that an abnormality or the like of the elevator has occurred, the monitoring person cannot grasp the cause of the occurrence of the abnormality or the like of the elevator.

エレベータの報知の原因には、人為的なもの、例えば、荷物の積み下ろし時に戸閉動作を阻止する行為等が含まれる。そのため、上記の人為的なものが原因で報知があった場合、監視員から出向要請を受けた技術員が、エレベータの異常等の発生原因を確認するために現場に向かっても、技術員が現場に到着した時点では報知の原因が解消していることがあり、技術員の出向が無駄になることがある。   The causes of the elevator notification include human artifacts, such as an act of preventing the door closing operation when loading and unloading luggage. Therefore, when there is a notification due to the above-mentioned artificial factors, the technician who receives a request for seconding from the monitoring staff goes to the site in order to confirm the cause of the abnormality of the elevator. At the time of arrival, the cause of the notification may be resolved, and the dispatch of technicians may be wasted.

特開2003−212447号公報JP 2003-212447 A

そこで、本発明は、人及び物の少なくとも一方の位置や挙動に起因する報知を防ぐことのできるエレベータの監視システムを提供する。   Therefore, the present invention provides an elevator monitoring system capable of preventing notification resulting from the position or behavior of at least one of a person and an object.

本発明のエレベータの遠隔監視システムは、エレベータに配置された制御マイコンと、前記制御マイコンに接続され且つ該制御マイコンからの異常情報を受信可能な監視端末と、前記エレベータのかご内を経時的に撮像する撮像装置と、前記撮像装置が撮像した画像を処理する処理部と、前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、前記モデルデータは、少なくとも一つの人のモデルパターンを含み、前記処理部は、前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、前記少なくとも二つの画像から抽出されたエッジのうちの人に対する像のエッジに、それぞれ前記人のモデルパターンを当てはめる第二処理と、前記第二処理で当てはめた人のモデルパターンの座標が第一の特定の座標にあるとき、又は、前記第二処理において人のモデルパターンを当てはめた画像における前後の画像での人のモデルパターンの座標の変化が第一の特定の挙動を示したときに、前記制御マイコンから前記監視端末への異常情報の送信であって前記人のモデルパターンが当てはめられた人の挙動に起因する異常情報の送信を阻止する第三処理と、を行う、ことを特徴とする。   An elevator remote monitoring system according to the present invention includes a control microcomputer disposed in an elevator, a monitoring terminal connected to the control microcomputer and capable of receiving abnormality information from the control microcomputer, and the inside of the elevator car over time. An imaging device that captures an image; a processing unit that processes an image captured by the imaging device; and a storage unit that stores model data to be compared with an image captured by the imaging device. , Including at least one human model pattern, and the processing unit extracts a first process for extracting edges from at least two images of the plurality of images captured by the imaging device, and the at least two images. A second process of applying the model pattern of the person to each of the extracted edges of the image for the person, and the second process. When the coordinates of the model pattern of the fitted person are at the first specific coordinates, or when the coordinates of the model pattern of the person in the images before and after the image fitted with the model pattern of the person in the second processing are changed When the first specific behavior is shown, transmission of abnormal information from the control microcomputer to the monitoring terminal and blocking transmission of abnormal information due to the behavior of the person to which the person's model pattern is applied And performing a third process.

上記エレベータの遠隔監視システムでは、人のモデルパターンによって人の位置や挙動が適正に認識できる。そのため、異常情報が出力される可能性の高い位置に人が滞在しているとき、及び、異常情報が出力される可能性の高い挙動を人が行っているとき、即ち、人がその位置から移動したり、人がこの挙動を停止したりすることで、異常情報の出力される原因が解消されるような場合に、これらの人の位置や挙動に起因する(人為的な原因での)報知(制御マイコンから監視端末への異常情報の送信)を防ぐことができる。   In the elevator remote monitoring system, the position and behavior of a person can be properly recognized by the model pattern of the person. Therefore, when a person is staying at a position where there is a high possibility that abnormal information will be output, and when a person is performing a behavior where there is a high possibility that abnormal information will be output, that is, from the position of the person When the cause of the output of abnormal information is resolved by moving or stopping this behavior by a person, it is caused by the position and behavior of these people (for human causes) Notification (transmission of abnormal information from the control microcomputer to the monitoring terminal) can be prevented.

前記エレベータの遠隔監視システムでは、前記モデルデータは、少なくとも一つのかごの内部構造のモデルパターンも含み、前記第二処理は、前記少なくとも二つの画像のうちの一つの画像から抽出されたエッジにおけるかごの内部構造に対する像のエッジに前記かごの内部構造のモデルパターンを当てはめる第一ステップと、前記一つの画像から抽出されたエッジのうちの前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記人のモデルパターンを当てはめる第二ステップと、前記少なくとも二つの画像のうち前記一つの画像以外の画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記第二ステップにおいて当てはめた人のモデルパターンを当てはめる第三ステップとを有してもよい。   In the elevator remote monitoring system, the model data also includes a model pattern of an internal structure of at least one car, and the second processing includes a car at an edge extracted from one of the at least two images. A first step of applying a model pattern of the internal structure of the car to an edge of an image of the internal structure of the car, and an edge other than an edge that overlaps the model pattern of the internal structure of the car among the edges extracted from the one image A second step of applying the model pattern of the person, and an edge other than an edge that overlaps a model pattern of the internal structure of the car in an edge extracted from an image other than the one image of the at least two images, The third step to apply the model pattern of the person applied in the second step Tsu may have a flop.

かかる構成によれば、撮像画像から抽出されたエッジのうちかごの内部構造のモデルパターンに重なるエッジ以外のエッジに対して人のモデルパターンを当てはめることで、より適正に人のモデルパターンの当てはめることができるため、人の位置や挙動がさらに適正に認識できる。これにより、人の位置や挙動に起因する報知をより適正に防ぐことができる。   According to such a configuration, the human model pattern can be more appropriately applied by applying the human model pattern to edges other than the edge that overlaps the model pattern of the internal structure of the cage among the edges extracted from the captured image. Therefore, the position and behavior of a person can be recognized more appropriately. Thereby, the alerting | reporting resulting from a person's position and behavior can be prevented more appropriately.

本発明の別のエレベータの遠隔監視システムでは、エレベータに配置された制御マイコンと、前記制御マイコンに接続され且つ該制御マイコンからの異常情報を受信可能な監視端末と、前記エレベータのかご内を経時的に撮像する撮像装置と、前記撮像装置が撮像した画像を処理する処理部と、前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、前記モデルデータは、少なくとも一つの物のモデルパターンを含み、前記処理部は、前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、前記少なくとも二つの画像から抽出されたエッジのうちの物に対する像のエッジに、それぞれ前記物のモデルパターンを当てはめる第二処理と、前記第二処理で当てはめた物のモデルパターンの座標が第二の特定の座標にあるとき、又は、前記第二処理において物のモデルパターンを当てはめた画像における前後の画像での物のモデルパターンの座標の変化が第二の特定の挙動を示したときに、前記制御マイコンから前記監視端末への異常情報の送信であって前記物のモデルパターンが当てはめられた物の位置又は挙動に起因する異常情報の送信を阻止する第三処理と、を行う、ことを特徴とする。   In another elevator remote monitoring system of the present invention, a control microcomputer disposed in an elevator, a monitoring terminal connected to the control microcomputer and capable of receiving abnormality information from the control microcomputer, and the elevator car over time An image pickup apparatus that picks up images, a processing section that processes an image picked up by the image pickup apparatus, and a storage section that stores model data to be compared with an image picked up by the image pickup apparatus. The data includes a model pattern of at least one object, and the processing unit extracts a first process for extracting edges from at least two images out of a plurality of images captured by the imaging device, and the at least two models. A second process of applying a model pattern of the object to each edge of the image of the edge extracted from the image; Changes in the coordinates of the object model pattern in the preceding and succeeding images when the coordinates of the object model pattern applied in theory are at the second specific coordinates, or in the image in which the object model pattern is applied in the second processing. Transmission of abnormality information from the control microcomputer to the monitoring terminal when the second specific behavior is indicated, transmission of abnormality information due to the position or behavior of the object to which the model pattern of the object is applied And performing a third process for preventing the above.

上記エレベータの遠隔監視システムでは、物のモデルパターンによって物の位置や挙動が適正に認識できる。そのため、異常情報が出力される可能性の高い位置に物が滞在しているとき、及び、異常情報が出力される可能性の高い挙動を物が行っているとき、即ち、物がその位置から移動したり、物がこの挙動を停止したりすることで、異常情報の出力される原因が解消されるような場合に、これらの物の位置や挙動に起因する報知(制御マイコンから監視端末への異常情報の送信)を防ぐことができる。   In the elevator remote monitoring system, the position and behavior of an object can be properly recognized by the model pattern of the object. Therefore, when an object stays at a position where anomaly information is likely to be output, and when an object is performing a behavior that is likely to be anomalous information output, that is, an object from the position. When the cause of the output of abnormal information is resolved by moving or stopping the behavior of an object, a notification (from the control microcomputer to the monitoring terminal) caused by the position or behavior of these objects Transmission of abnormal information).

前記エレベータの遠隔監視システムでは、前記モデルデータは、少なくとも一つのかごの内部構造のモデルパターンも含み、前記第二処理は、前記少なくとも二つの画像のうちの一つの画像から抽出されたエッジにおけるかごの内部構造に対する像のエッジに前記かごの内部構造のモデルパターンを当てはめる第一ステップと、前記一つの画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記物のモデルパターンを当てはめる第二ステップと、前記少なくとも二つの画像のうち前記一つの画像以外の画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記第二ステップにおいて当てはめた物のモデルパターンを当てはめる第三ステップとを有してもよい。   In the elevator remote monitoring system, the model data also includes a model pattern of an internal structure of at least one car, and the second processing includes a car at an edge extracted from one of the at least two images. Applying a model pattern of the internal structure of the car to an edge of an image of the internal structure of the car, and an edge other than an edge overlapping the model pattern of the internal structure of the car in an edge extracted from the one image, A second step of applying a model pattern of an object, and an edge other than an edge that overlaps a model pattern of an internal structure of the cage in an edge extracted from an image other than the one image of the at least two images. The third step to apply the model pattern of the fitted object in the step Tsu may have a flop.

かかる構成によれば、撮像画像から抽出されたエッジのうちかごの内部構造のモデルパターンに重なるエッジ以外のエッジに対して物のモデルパターンを当てはめることで、より適正に物のモデルパターンの当てはめることができるため、物の位置や挙動がさらに適正に認識できる。これにより、物の位置や挙動に起因する報知をより適正に防ぐことができる。   According to such a configuration, the object model pattern can be more appropriately applied by applying the object model pattern to edges other than the edge that overlaps the model pattern of the internal structure of the cage among the edges extracted from the captured image. Because of this, the position and behavior of objects can be recognized more appropriately. Thereby, the alerting | reporting resulting from the position and behavior of an object can be prevented more appropriately.

前記エレベータの遠隔監視システムでは、モデルデータは、少なくとも一つの物のモデルパターンも含み、前記第二処理において、前記少なくとも二つの画像から抽出されたエッジのうちの物に対する像のエッジに、それぞれ前記物のモデルパターンを当てはめ、前記第三処理において、前記第二処理で当てはめた前記物のモデルパターンの座標が第二の特定の座標にあるとき、又は、前記第二処理において物のモデルパターンを当てはめた画像における前後の画像での前記物のモデルパターンの座標の変化が第二の特定の挙動を示したときに、前記制御マイコンから前記監視端末への前記異常情報の送信であって前記物のモデルパターンが当てはめられた物の位置又は挙動に起因する前記異常情報の送信を阻止してもよい。   In the elevator remote monitoring system, the model data also includes a model pattern of at least one object, and in the second process, the edge of the image with respect to the object among the edges extracted from the at least two images, respectively. In the third process, when the coordinates of the model pattern of the object applied in the second process are at the second specific coordinates, or in the second process, the model pattern of the object is applied in the second process. The abnormality information is transmitted from the control microcomputer to the monitoring terminal when the change in the coordinates of the model pattern of the object in the images before and after the fitted image shows a second specific behavior, and the object The transmission of the abnormal information due to the position or behavior of the object to which the model pattern is applied may be prevented.

かかる構成によれば、人のモデルパターンによって人の位置や挙動が適正に認識できることに加えて、物のモデルパターンによって物の位置や挙動が適正に認識できる。そのため、人の位置や挙動に起因する報知に加えて、物の位置や挙動に起因する報知も防ぐことができる。   According to this configuration, in addition to being able to properly recognize the position and behavior of a person based on the person's model pattern, it is possible to properly recognize the position and behavior of the thing based on the model pattern of the object. Therefore, in addition to the notification caused by the position and behavior of the person, the notification caused by the position and behavior of the object can be prevented.

前記エレベータの遠隔監視システムでは、前記かごは、開閉するドアを含み、前記第二の特定の座標は、前記ドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にあってもよい。   In the elevator remote monitoring system, the car includes a door that opens and closes, and the second specific coordinate is in at least one of an area on the surface of the door and an area on the track of the door. May be.

かかる構成によれば、物のモデルパターンの座標がドアの表面の存在する領域と重なるとき(物とドアとが接触したとき)、及び、物のモデルパターンの座標がドアの軌道上の領域と重なるとき(物がドアと接触する見込みであるとき)の少なくとも一方に該当するとき、異常情報の制御マイコンから監視端末への送信が阻止されるため、物によってドアの開閉が阻害されたこと等に起因する報知(技術員がエレベータに到着した時点で報知の原因が解消している可能性の高い場合での報知)を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。   According to such a configuration, when the coordinates of the object model pattern overlap with an area where the surface of the door exists (when the object and the door are in contact), and the coordinates of the object model pattern are When it corresponds to at least one of the times when it overlaps (when an object is expected to come into contact with the door), transmission of abnormal information from the control microcomputer to the monitoring terminal is blocked, so that the opening / closing of the door is blocked by the object, etc. Can be prevented (notification when there is a high possibility that the cause of the notification is resolved when the technician arrives at the elevator). As a result, it is possible to prevent the dispatch of technicians from being wasted.

前記エレベータの遠隔監視システムでは、前記第二の特定の挙動での前記第二処理における前記前後の画像での前記物のモデルパターンの座標の変化は、上下方向又は水平方向の往復動であってもよい。   In the elevator remote monitoring system, the change in the coordinate of the model pattern of the object in the front and back images in the second processing in the second specific behavior is a reciprocating motion in the vertical direction or the horizontal direction. Also good.

かかる構成によれば、物の上下方向又は水平方向の往復動が生じているとき、例えば、人が運んでいる荷物が落下したり、人がボールをバウンドさせたり、人がボールを壁に投げたりしているとき、異常情報の制御マイコンから監視端末への送信が阻止されるため、このような事象等に起因する報知(技術員がエレベータに到着した時点で報知の原因が解消している可能性の高い場合での報知)を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。   According to such a configuration, when a vertical or horizontal reciprocation of an object occurs, for example, a load carried by a person falls, a person bounces a ball, or a person throws a ball on a wall. Because the transmission of abnormal information from the control microcomputer to the monitoring terminal is blocked, notification caused by such an event (the cause of the notification may be resolved when the technician arrives at the elevator) Notification in the case of high probability) can be prevented. As a result, it is possible to prevent the dispatch of technicians from being wasted.

前記エレベータの遠隔監視システムでは、前記かごは、開閉するドアを含み、前記第一の特定の座標は、前記ドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にあってもよい。   In the elevator remote monitoring system, the car includes a door that opens and closes, and the first specific coordinate is in at least one of an area where the surface of the door exists and an area on the track of the door. May be.

かかる構成によれば、人のモデルパターンの座標がドアの表面の存在する領域と重なるとき(人がドアと接触したとき)、及び、人のモデルパターンの座標がドアの軌道上の領域と重なるとき(人がドアと接触する見込みであるとき)の少なくとも一方に該当するとき、異常情報の制御マイコンから監視端末への送信が阻止されるため、人がドアの挙動を阻害すること等に起因する報知(技術員がエレベータに到着した時点で報知の原因が解消している可能性の高い場合での報知)を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。   According to this configuration, when the coordinates of the person's model pattern overlap with an area where the surface of the door exists (when the person contacts the door), and the coordinates of the person's model pattern overlap with the area on the orbit of the door. When it falls into at least one of the times (when a person is expected to come into contact with the door), the transmission of abnormal information from the control microcomputer to the monitoring terminal is blocked, resulting in the person's obstruction of the door behavior It is possible to prevent the notification (the notification when the cause of the notification is likely to be eliminated when the technician arrives at the elevator). As a result, it is possible to prevent the dispatch of technicians from being wasted.

前記エレベータの遠隔監視システムでは、前記第一の特定の挙動での前記第二処理における前記前後の画像での前記人のモデルパターンの座標の変化は、上下方向又は水平方向の往復動であってもよい。   In the elevator remote monitoring system, the change in the coordinate of the human model pattern in the front and back images in the second process in the first specific behavior is a reciprocating motion in the vertical direction or the horizontal direction. Also good.

かかる構成によれば、人の上下方向又は水平方向の往復動が生じているとき、例えば、人がかごを揺らす動作を行っているとき(例えば、人が飛び跳ねているとき)、異常情報の制御マイコンから監視端末への送信が阻止されるため、人の飛び跳ね等に起因する報知(技術員がエレベータに到着した時点で報知の原因が解消している可能性の高い場合での報知)を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。   According to this configuration, when the person is reciprocating in the vertical direction or the horizontal direction, for example, when the person is swinging the car (for example, when the person is jumping), the control of the abnormality information is performed. Since transmission from the microcomputer to the monitoring terminal is blocked, preventing notifications caused by people jumping (notification when the cause of the notification is likely to be resolved when the technician arrives at the elevator) Can do. As a result, it is possible to prevent the dispatch of technicians from being wasted.

以上より、本発明によれば、人及び物の少なくとも一方の位置や挙動に起因する報知を防ぐことができる。   As mentioned above, according to this invention, the alerting | reporting resulting from the position and behavior of at least one of a person and a thing can be prevented.

図1は、本発明の一実施形態に係るエレベータの遠隔監視システムのブロック図である。FIG. 1 is a block diagram of an elevator remote monitoring system according to an embodiment of the present invention. 図2は、同実施形態に係るエレベータの遠隔監視システムで用いられる人のモデルパターンを示す図である。FIG. 2 is a diagram showing a model pattern of a person used in the elevator remote monitoring system according to the embodiment. 図3は、同実施形態に係るエレベータの遠隔監視システムで用いられる物のモデルパターンを示す図である。FIG. 3 is a diagram showing a model pattern of an object used in the elevator remote monitoring system according to the embodiment. 図4は、同実施形態に係るエレベータの遠隔監視システムで用いられるかごの内部構造のモデルパターンを示す図である。FIG. 4 is a diagram showing a model pattern of an internal structure of a car used in the elevator remote monitoring system according to the embodiment. 図5は、同実施形態に係るエレベータの遠隔監視システムの処理を示すフローチャート図である。FIG. 5 is a flowchart showing processing of the elevator remote monitoring system according to the embodiment. 図6は、同実施形態に係るエレベータの遠隔監視システムの処理を示すフローチャート図である。FIG. 6 is a flowchart showing processing of the elevator remote monitoring system according to the embodiment. 図7は、本発明の変形例に係るエレベータの遠隔監視システムのブロック図である。FIG. 7 is a block diagram of an elevator remote monitoring system according to a modification of the present invention.

以下、本発明に係るエレベータの遠隔監視システム(以下、単に遠隔監視システムという)について説明する。遠隔監視システムは、エレベータの動作状況を遠隔で監視すると共に、監視センターの監視員にエレベータの動作状況を報知するシステムである。この遠隔監視システムでは、監視員は、監視端末による報知を確認することで、エレベータに異常等が発生したことを認識し、技術員にエレベータへの出向を要請することができる。   Hereinafter, a remote monitoring system for an elevator according to the present invention (hereinafter simply referred to as a remote monitoring system) will be described. The remote monitoring system is a system that remotely monitors the operation status of the elevator and notifies the monitoring center monitor of the operation status of the elevator. In this remote monitoring system, the supervisor can recognize that an abnormality or the like has occurred in the elevator by confirming the notification by the monitoring terminal, and can request the technician to go to the elevator.

遠隔監視システムは、図1に示すように、エレベータ2に配置された制御マイコン20と、エレベータ2のかご21内を撮像するカメラ(撮像装置)210と、カメラ210が撮像した画像(撮像画像)を処理する処理部23と、撮像画像との比較の対象となるモデルデータを記憶する記憶部221と、制御マイコン20に接続された監視端末3と、を備える。   As shown in FIG. 1, the remote monitoring system includes a control microcomputer 20 disposed in the elevator 2, a camera (imaging device) 210 that images the car 21 of the elevator 2, and an image (captured image) captured by the camera 210. , A storage unit 221 that stores model data to be compared with the captured image, and a monitoring terminal 3 connected to the control microcomputer 20.

本実施形態の遠隔監視システム1では、カメラ210に画像認識装置22が接続されている。記憶部221は、画像認識装置22に備えられている。また、処理部23は、画像認識装置22に備えられた画像認識処理部220と、制御マイコン20に備えられたマイコン処理部200とを含む。   In the remote monitoring system 1 of the present embodiment, the image recognition device 22 is connected to the camera 210. The storage unit 221 is provided in the image recognition device 22. The processing unit 23 includes an image recognition processing unit 220 provided in the image recognition device 22 and a microcomputer processing unit 200 provided in the control microcomputer 20.

本実施形態の遠隔監視システム1は、監視端末3に接続された第一サーバー4と、第一サーバー4に接続された第二サーバー5とを備える。また、本実施形態の遠隔監視システム1は、制御マイコン20と監視端末3との間に接続された遠隔監視ユニット6を備える。さらに、本実施形態の遠隔監視システム1は、第一サーバー4にそれぞれ接続可能な管理者端末7と技術員端末8とを備える。   The remote monitoring system 1 of this embodiment includes a first server 4 connected to the monitoring terminal 3 and a second server 5 connected to the first server 4. The remote monitoring system 1 according to this embodiment includes a remote monitoring unit 6 connected between the control microcomputer 20 and the monitoring terminal 3. Furthermore, the remote monitoring system 1 of the present embodiment includes an administrator terminal 7 and a technician terminal 8 that can be connected to the first server 4.

尚、図1では一台のエレベータ2が示されているが、本実施形態の遠隔監視システム1は、複数のエレベータを備える。また、図1では一台の管理者端末7及び技術員端末8が示されているが、本実施形態の遠隔監視システム1は、複数の管理者端末7及び複数の技術員端末8を備える。   In addition, although the one elevator 2 is shown in FIG. 1, the remote monitoring system 1 of this embodiment is provided with a some elevator. Moreover, although one administrator terminal 7 and technician terminal 8 are shown in FIG. 1, the remote monitoring system 1 of the present embodiment includes a plurality of administrator terminals 7 and a plurality of technician terminals 8.

エレベータ2は、昇降路を昇降するかご21、エレベータ2の動作状況に関する情報を出力する制御マイコン20、及び、制御マイコン20とカメラ210との間に接続された画像認識装置22に加えて、制御マイコン20にそれぞれ接続された音声認識装置24と音声案内装置25と表示案内装置26とを有する。   The elevator 2 is controlled in addition to the car 21 that moves up and down the hoistway, the control microcomputer 20 that outputs information on the operation status of the elevator 2, and the image recognition device 22 connected between the control microcomputer 20 and the camera 210. A voice recognition device 24, a voice guidance device 25, and a display guidance device 26 are connected to the microcomputer 20, respectively.

かご21は、カメラ210に加えて、例えば、天井と壁と床とを含むかご枠、開閉するドア、階床釦等を含む操作盤、音声認識装置24に接続され且つかご21内の音声を集音するマイク(集音器)211、音声案内装置25に接続され且つかご21内に音声を出力するスピーカー212、及び、表示案内装置26に接続され且つかご21内に文字情報等を表示するディスプレイ(表示部)213等を含む。本実施形態の遠隔監視システム1では、かご21には、エレベータ2の動作状況に関する情報を出力可能な各種センサが設けられている。   In addition to the camera 210, the car 21 is connected to, for example, a car frame including a ceiling, a wall, and a floor, a door that opens and closes, a floor button, a voice recognition device 24, and the voice in the car 21. A microphone (sound collector) 211 that collects sound, a speaker 212 that is connected to the voice guide device 25 and outputs sound into the car 21, and a character information that is connected to the display guide device 26 and is displayed in the car 21. A display (display unit) 213 and the like are included. In the remote monitoring system 1 of the present embodiment, the car 21 is provided with various sensors that can output information on the operation status of the elevator 2.

カメラ210は、例えば、かご21内の天井に配置され、かご21内を経時的に撮像する。また、カメラ210は、かご21内の撮像画像(複数の撮像画像)を画像認識装置22に出力可能である。かご21内には、例えば、かご21内を監視するために一台の監視カメラが設けられており、本実施形態の遠隔監視システム1では、カメラ210として、この監視カメラが用いられる。   For example, the camera 210 is disposed on a ceiling in the car 21 and images the inside of the car 21 over time. Further, the camera 210 can output captured images (a plurality of captured images) in the car 21 to the image recognition device 22. In the car 21, for example, one monitoring camera is provided to monitor the inside of the car 21. In the remote monitoring system 1 of the present embodiment, this monitoring camera is used as the camera 210.

具体的に、カメラ210は、断続的に(所定時間毎(例えば、1秒毎)に)かご21内の撮影を繰り返し行う。尚、カメラ210は、連続的にかご21内の撮影を行ってもよい。   Specifically, the camera 210 repeatedly performs shooting in the car 21 intermittently (every predetermined time (for example, every second)). Note that the camera 210 may continuously take images in the car 21.

画像認識装置22、音声認識装置24、音声案内装置25、及び、表示案内装置26は、例えば、かご21の外側に設けられたマイコンである。具体的に、音声認識装置24は、マイク211で集音された音声を解析して、制御マイコン20を介して遠隔監視ユニット6に出力可能である。音声案内装置25は、制御マイコン20を介して遠隔監視ユニット6から入力された情報に基づき、スピーカー212から音声を出力可能である。表示案内装置26は、制御マイコン20を介して遠隔監視ユニット6から入力された情報に基づき、ディスプレイ213から、例えば、文字情報を出力可能である。   The image recognition device 22, the voice recognition device 24, the voice guidance device 25, and the display guidance device 26 are, for example, microcomputers provided outside the car 21. Specifically, the voice recognition device 24 can analyze the voice collected by the microphone 211 and output it to the remote monitoring unit 6 via the control microcomputer 20. The voice guidance device 25 can output voice from the speaker 212 based on information input from the remote monitoring unit 6 via the control microcomputer 20. The display guide device 26 can output, for example, character information from the display 213 based on information input from the remote monitoring unit 6 via the control microcomputer 20.

制御マイコン20は、監視端末3に通信系統R1を介して接続されている。通信系統R1は、例えば、制御マイコン20から順に遠隔監視ユニット6と電話回線とを介して監視端末3に通信可能であり、且つ、監視端末3から逆に電話回線と遠隔監視ユニット6とを介して制御マイコン20に通信可能な通信系統である。   The control microcomputer 20 is connected to the monitoring terminal 3 via the communication system R1. For example, the communication system R1 can communicate with the monitoring terminal 3 via the remote monitoring unit 6 and the telephone line in order from the control microcomputer 20, and conversely from the monitoring terminal 3 via the telephone line and the remote monitoring unit 6. The communication system can communicate with the control microcomputer 20.

マイコン処理部200は、エレベータ2の動作状況に関する情報として、例えば、イベントコードを遠隔監視ユニット6に出力可能である。マイコン処理部200から出力されるイベントコードは、エレベータ2自身の動作状況に対応づけられたコードである。具体的に、イベントコードは、かごの位置情報、かごのドアの開閉情報、かごを昇降させるモーターの駆動情報、及び、停電等を示す。尚、イベントコードは、エレベータ2の異常情報を示すコードを含む。   The microcomputer processing unit 200 can output, for example, an event code to the remote monitoring unit 6 as information related to the operation status of the elevator 2. The event code output from the microcomputer processing unit 200 is a code associated with the operation status of the elevator 2 itself. Specifically, the event code indicates car position information, car door opening / closing information, motor driving information for raising and lowering the car, power failure, and the like. The event code includes a code indicating the abnormality information of the elevator 2.

本実施形態の遠隔監視システム1では、マイコン処理部200は、エレベータ2の動作状況が正常である場合、この旨のイベントコードを遠隔監視ユニット6に出力する。また、マイコン処理部200は、エレベータ2の動作状況が異常である場合、この旨の情報を画像認識装置22に出力し、画像認識装置22による判定結果に応じて、エレベータ2の動作状況が異常である旨のイベントコード、又は、エレベータ2の動作状況が異常でない旨のイベントコードを出力する。   In the remote monitoring system 1 of the present embodiment, the microcomputer processing unit 200 outputs an event code indicating this to the remote monitoring unit 6 when the operation state of the elevator 2 is normal. In addition, when the operation status of the elevator 2 is abnormal, the microcomputer processing unit 200 outputs information indicating this to the image recognition device 22, and the operation status of the elevator 2 is abnormal according to the determination result by the image recognition device 22. Or an event code indicating that the operation status of the elevator 2 is not abnormal.

例えば、マイコン処理部200は、かご21に設けられた各種センサにより出力された情報に基づいて、エレベータ2の動作状況が異常であるか否かを検知する。本実施形態の遠隔監視システム1では、マイコン処理部200は、エレベータ2の動作状況が異常であることを検知すると、この動作状況が異常である旨の情報を画像認識装置22に出力する。   For example, the microcomputer processing unit 200 detects whether or not the operation state of the elevator 2 is abnormal based on information output by various sensors provided in the car 21. In the remote monitoring system 1 of the present embodiment, when detecting that the operation state of the elevator 2 is abnormal, the microcomputer processing unit 200 outputs information indicating that the operation state is abnormal to the image recognition device 22.

また、マイコン処理部200は、エレベータ2の動作状況が異常である旨の情報を画像認識装置22に出力した後、人や物がかご21のドアに接触している、又は、人や物の一部分が上下方向又は水平方向に往復動しているとの判定結果が画像認識処理部220から入力されると、エレベータ2の動作状況が異常でない旨のイベントコードを遠隔監視ユニット6に出力し、人や物がかご21のドアに接触しておらず、人や物が上下方向又は水平方向に往復動していないとの判定結果が画像認識処理部220から入力されると、エレベータ2の動作状況が異常である旨のイベントコードを遠隔監視ユニット6に出力する。   Further, the microcomputer processing unit 200 outputs information indicating that the operation state of the elevator 2 is abnormal to the image recognition device 22, and then a person or an object is in contact with the door of the car 21, or When the determination result that a part is reciprocating vertically or horizontally is input from the image recognition processing unit 220, an event code indicating that the operation status of the elevator 2 is not abnormal is output to the remote monitoring unit 6, When the determination result that the person or object is not in contact with the door of the car 21 and the person or object is not reciprocating vertically or horizontally is input from the image recognition processing unit 220, the operation of the elevator 2 An event code indicating that the situation is abnormal is output to the remote monitoring unit 6.

本実施形態の遠隔監視システム1では、マイコン処理部200は、人の一部(例えば、膝)が上下方向又は水平方向に往復動しているとの判定結果が画像認識処理部220から入力されると、エレベータ2の動作状況が異常でない旨のイベントコードとして、例えば、かご21内で人の悪戯が発生している可能性がある旨のイベントコードを出力する。   In the remote monitoring system 1 of the present embodiment, the microcomputer processing unit 200 receives a determination result from the image recognition processing unit 220 that a part of a person (for example, a knee) is reciprocating vertically or horizontally. Then, as an event code indicating that the operation state of the elevator 2 is not abnormal, for example, an event code indicating that there is a possibility of human mischief in the car 21 is output.

尚、本実施形態の遠隔監視システム1では、マイコン処理部200は、エレベータ2の動作状況が異常でないことを検知すると、この動作状況が異常で無い旨のイベントコードを遠隔監視ユニット6に出力する。   In the remote monitoring system 1 of the present embodiment, when the microcomputer processing unit 200 detects that the operation state of the elevator 2 is not abnormal, the microcomputer processing unit 200 outputs an event code indicating that the operation state is not abnormal to the remote monitoring unit 6. .

本実施形態の遠隔監視システム1では、画像認識装置22は、撮像画像から人を検知する処理を行う画像認識処理部220と、撮像画像との比較の対象となるモデルデータとして、人及び物のモデルパターンと、エレベータ2のかご21の内部構造のモデルパターンとを記憶している記憶部221とを含む。   In the remote monitoring system 1 of the present embodiment, the image recognition apparatus 22 uses human and object models as model data to be compared with the image recognition processing unit 220 that performs processing for detecting a person from a captured image and the captured image. A storage unit 221 that stores the model pattern and the model pattern of the internal structure of the car 21 of the elevator 2 is included.

記憶部221は、人、物、及びかご21の内部構造のモデルパターンとして、それぞれ、人、物、及びかご21の輪郭(エッジ)を記憶している。人及び物のモデルパターンは、例えば、各エレベータに共通したモデルパターンとして設定されている。かごの内部構造のモデルパターンは、例えば、各エレベータに個別に設定されている。尚、ここで対象となる物は、荷物等の物体、動物等である。   The storage unit 221 stores the outlines (edges) of the person, the object, and the car 21 as model patterns of the internal structure of the person, the object, and the car 21, respectively. The model pattern of people and things is set as a model pattern common to each elevator, for example. The model pattern of the internal structure of the car is set individually for each elevator, for example. Note that the target objects here are objects such as luggage, animals, and the like.

例えば、記憶部221は、人のモデルパターンとして、シルエットが異なる人のモデルパターンを記憶している。具体的には、記憶部221は、一般的なシルエット(一般的な服装)の人のモデルパターン、帽子を着用した人のモデルパターン、着物を着用した人のモデルパターン等を記憶している。   For example, the storage unit 221 stores a model pattern of a person having a different silhouette as a model pattern of the person. Specifically, the storage unit 221 stores a model pattern of a person with a general silhouette (general clothes), a model pattern of a person wearing a hat, a model pattern of a person wearing a kimono, and the like.

より具体的に、記憶部221に記憶されている一般的な人のモデルパターンは、図2に示すように、人における頭部、両耳、胴部、両腕、及び両脚を簡略化したものの輪郭を結ぶ線(ワイヤーフレーム)で構成される。また、記憶部221に記憶されている物のモデルパターンは、図3に示すように、立方体の各辺を結ぶ線で構成される。   More specifically, the general human model pattern stored in the storage unit 221 is a simplified human head, ears, torso, arms, and legs as shown in FIG. Consists of lines (wire frames) connecting the contours. Moreover, the model pattern of the thing memorize | stored in the memory | storage part 221 is comprised with the line which connects each edge | side of a cube, as shown in FIG.

本実施形態の遠隔監視システム1では、記憶部221は、第一サーバー4より出力されたかごの内部構造のモデルパターンを記憶している。より具体的に、記憶部221に記憶されているかごの内部構造のモデルパターンは、図4に示すように、天井と壁と床とを含むかご枠214の輪郭を結ぶ線、開閉するドア215の輪郭を結ぶ線、及び、階床釦等を含む操作盤216の輪郭を結ぶ線で構成される。   In the remote monitoring system 1 of the present embodiment, the storage unit 221 stores a model pattern of the internal structure of the car output from the first server 4. More specifically, as shown in FIG. 4, the model pattern of the internal structure of the car stored in the storage unit 221 is a line connecting the outline of the car frame 214 including the ceiling, the wall, and the floor, and the door 215 that opens and closes. And a line connecting the contours of the operation panel 216 including floor buttons and the like.

本実施形態の遠隔監視システム1では、記憶部221は、人の位置及び人の挙動に関する情報として、第一の特定の座標及び第一の特定の挙動に関する情報を記憶し、物の位置及び物の挙動に関する情報として、第二の特定の座標及び第二の特定の挙動に関する情報を記憶している。ここでいう座標は、かご内における一点を原点とした三次元空間での座標である。   In the remote monitoring system 1 of the present embodiment, the storage unit 221 stores information on the first specific coordinates and the first specific behavior as information on the position of the person and the behavior of the person, As the information regarding the behavior of the second, the second specific coordinates and the information regarding the second specific behavior are stored. The coordinates here are coordinates in a three-dimensional space with one point in the car as the origin.

第一の特定の座標は、かご21のドアの表面の存在する領域及びこのドアの軌道(このドアの開閉の軌道)上の領域の少なくとも一方の領域にある。第二の特定の座標も同様に、かご21のドアの表面の存在する領域及びこのドアの軌道(このドアの開閉の軌道)上の領域の少なくとも一方の領域にある。   The first specific coordinate is in at least one of the region on the surface of the door of the car 21 and the region on the door track (the opening / closing track of the door). Similarly, the second specific coordinates are also in at least one of the region on the surface of the door of the car 21 and the region on the door track (the opening / closing track of the door).

第一の特定の座標は、例えば、人によるドア押さえ、ドアのこじ開け、ドアへの体のぶつかり等の人によるドアの挙動の阻害が生じているか否かを判定するための指標である。第二の特定の座標も同様に、ドアへの物のぶつかり、ドア開口部に障害物が存在すること等の物によるドアの挙動の阻害が生じているか否かを判定するための指標である。   The first specific coordinate is an index for determining whether or not the movement of the door by the person such as the door pressing by the person, the opening of the door, and the collision of the body with the door has occurred. Similarly, the second specific coordinate is an index for determining whether or not the obstacle of the door is obstructed by an object such as an object hitting the door or an obstacle present in the door opening. .

第一の特定の挙動は、人が上下方向又は水平方向(縦方向又は横方向)に往復動する際の人のモデルパターンの座標の変化に対応している。第二の特定の挙動も同様に、物が上下方向又は水平方向(縦方向又は横方向)に往復動する際の物のモデルパターンの座標の変化に対応している。第一の特定の挙動は、例えば、人の飛び跳ねによるかご21の揺らしが生じているか否かを判定するための指標である。第二の特定の挙動は、例えば、人が運んでいた荷物の落下や、人がボールをバウンドさせることによるかご21の揺らしが生じているか否かを判定するための指標である。   The first specific behavior corresponds to a change in the coordinates of the person's model pattern when the person reciprocates vertically or horizontally (vertically or horizontally). Similarly, the second specific behavior corresponds to a change in the coordinates of the model pattern of the object when the object reciprocates in the vertical direction or the horizontal direction (vertical direction or horizontal direction). The first specific behavior is, for example, an index for determining whether or not the car 21 is shaken due to a person jumping. The second specific behavior is, for example, an index for determining whether a load that a person was carrying or a swing of the car 21 caused by a person bouncing a ball has occurred.

画像認識処理部220は、制御マイコン20からエレベータ2の動作状況が異常である旨の情報を入力されると、一定期間においてカメラ210が経時的に撮像したかご21内の撮像画像(複数の撮像画像)を取得し、この撮像画像から人を検出する処理を行う。この人を検出する処理(第一処理及び第二処理)について、以下、詳細に説明する。   When the information indicating that the operation state of the elevator 2 is abnormal is input from the control microcomputer 20, the image recognition processing unit 220 captures images (a plurality of imaging images) in the car 21 captured by the camera 210 over time in a certain period. Image) is acquired, and processing for detecting a person from this captured image is performed. This person detection process (first process and second process) will be described in detail below.

まず、画像認識処理部220は、取得した複数の撮像画像のうち少なくとも二つの画像から、それぞれエッジを抽出する第一処理を行う。具体的に、画像認識処理部220は、取得した複数の画像の各々に対して、濃度の補正、歪みの補正、及び、ノイズの除去等の前処理を行った後、各画像において輝度が急激に変わる境界をエッジとして抽出する。   First, the image recognition processing unit 220 performs a first process of extracting edges from at least two images among a plurality of acquired captured images. Specifically, the image recognition processing unit 220 performs preprocessing such as density correction, distortion correction, and noise removal on each of the plurality of acquired images. The boundary that changes to is extracted as an edge.

画像認識処理部220は、先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)から抽出されたエッジのうちの人に対する像のエッジに、それぞれ人のモデルパターンを当てはめる第二処理を行う。尚、画像認識処理部220は、抽出されたエッジに、各モデルパターン(かごの内部構造のモデルパターン、人のモデルパターン、及び、物のモデルパターン)のサイズとカメラ210の視野(カメラ210の座標)とを整合させて当てはめることで、撮像画像から抽出されたエッジに対して各モデルパターンを当てはめる。   The image recognition processing unit 220 applies the person's model pattern to each of the edges of the image for the person among the edges extracted from the at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment). The second process is performed. The image recognition processing unit 220 applies the size of each model pattern (the model pattern of the internal structure of the cage, the model pattern of the person, and the model pattern of the object) and the field of view of the camera 210 (the camera 210) to the extracted edge. The model pattern is applied to the edge extracted from the captured image by matching the coordinates).

具体的に、画像認識処理部220は、第二処理において、取得した複数の画像のうちの一つの画像(以下、第一の画像と言う)から抽出されたエッジにおけるかご21の内部構造に対する像のエッジに、かご21の内部構造のモデルパターンを当てはめる第一ステップを行う。次に、画像認識処理部220は、第二処理において、この一つの画像から抽出されたエッジのうちのかご21の内部構造のモデルパターンに重なるエッジ以外のエッジのうち人に対する像のエッジに、人のモデルパターンを当てはめる第二ステップを行う。   Specifically, the image recognition processing unit 220 is an image of the internal structure of the car 21 at the edge extracted from one of the plurality of acquired images (hereinafter referred to as the first image) in the second process. The first step of fitting the model pattern of the internal structure of the car 21 to the edge of the car 21 is performed. Next, in the second process, the image recognition processing unit 220 uses the edge extracted from the one image as the edge of the image of the person among the edges other than the edge overlapping the model pattern of the internal structure of the car 21. The second step is to apply a human model pattern.

その後、画像認識処理部220は、第二処理において、先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)のうちの第二ステップで人のモデルパターンを当てはめた画像以外の画像(先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)のうちの第一の画像以外の画像)から抽出されたエッジにおけるかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、第二ステップにおいて当てはめた人のモデルパターンを当てはめる第三ステップを行う。   Thereafter, in the second process, the image recognition processing unit 220 applies a human model pattern in the second step of the at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment). Of the car 21 at the edge extracted from an image other than the image (image other than the first image of at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment)). A third step is performed in which the model pattern of the person applied in the second step is applied to edges other than the edge that overlaps the structural model pattern.

さらに、本実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において、先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)から抽出されたエッジのうちの物に対する像のエッジに、それぞれ物のモデルパターンを当てはめる。   Further, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 is extracted from at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment) in the second process. The model pattern of the object is applied to the edge of the image for the object among the edges.

具体的に、本実施形態の遠隔監視システム1において、画像認識処理部220は、第三ステップの後に、第一の画像から抽出されたエッジのうち、かご21の内部構造のモデルパターンに重ならず且つ人のモデルパターンに重ならないエッジ(第三ステップにおいて、人のモデルパターンが当てはまらなかったエッジ)に、物のモデルパターンを当てはめる第四ステップを行う。さらに、画像認識処理部220は、第四ステップの後に、先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)のうちの第一の画像以外の画像から抽出されたエッジにおけるかご21の内部構造のモデルパターンに重ならず且つ人のモデルパターンに重ならないエッジに、第四ステップにおいて当てはめた物のモデルパターンを当てはめる第五ステップを行う。   Specifically, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 overlaps the model pattern of the internal structure of the car 21 among the edges extracted from the first image after the third step. The fourth step of applying an object model pattern to an edge that does not overlap with the human model pattern (the edge where the human model pattern did not apply in the third step) is performed. Further, after the fourth step, the image recognition processing unit 220 extracts from the images other than the first image among at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment). The fifth step of applying the model pattern of the object applied in the fourth step to the edge that does not overlap the model pattern of the internal structure of the car 21 at the edge and does not overlap the human model pattern is performed.

以下、上述した第二処理における第一ステップから第五ステップについて、より詳細に説明する。画像認識処理部220は、第一ステップにおいて、第一の画像から抽出されたエッジに、かごの内部構造のモデルパターンを重ねて、この重なった部分(かごの内部構造のモデルパターンに重なるエッジ)を取り除き、人体特徴があるか否か(例えば、人の頭部に重なる円形状のエッジがあるか否か、胴体に重なる筒状のエッジがあるか否か、及び、四肢に重なる形状のエッジがあるか否か)を判断する。画像認識処理部220は、円形状のエッジ等があると判断した場合、かご21内が有人である(かご21内に人を検出した)として、この円形状のエッジと、人のモデルパターンの頭部に対応する箇所が重なるよう、人のモデルパターンのサイズとカメラ210の視野とを整合させて、第一の画像から抽出されたエッジに人のモデルパターンを当てはめる。   Hereinafter, the first step to the fifth step in the second process described above will be described in more detail. In the first step, the image recognition processing unit 220 superimposes the model pattern of the internal structure of the car on the edge extracted from the first image, and this overlapped part (the edge overlapping the model pattern of the internal structure of the car). Whether there is a human body feature (for example, whether there is a circular edge that overlaps the human head, whether there is a cylindrical edge that overlaps the torso, and an edge that overlaps the extremities) Or not). When the image recognition processing unit 220 determines that there is a circular edge or the like, it is assumed that the car 21 is manned (a person is detected in the car 21), and the circular edge and the human model pattern The size of the human model pattern and the field of view of the camera 210 are matched so that the portion corresponding to the head overlaps, and the human model pattern is applied to the edge extracted from the first image.

画像認識処理部220は、第二ステップにおいて、第一の画像における当てはめた人のモデルパターンの接地位置(具体的には、人のモデルパターンとかご21の床面との接地位置)に基づいて、空間における人の存在位置と、人の占有する空間とを認識する。尚、画像認識処理部220は、第一の画像における当てはめた人のモデルパターンの接地位置が確認できない場合には、推定した接地位置に基づいて、人の存在位置と人の占有する空間とを認識する。次に、画像認識処理部220は、第一の画像から抽出されたエッジに当てはめた人のモデルパターンから、各ポイントの座標を算出する。人のモデルパターンの座標は、例えば、図2のP1で示すように、頭部頂点、両耳、両肩、両肘、両手の先、両腰、両膝、両踵、両脚の爪先等の座標である。   In the second step, the image recognition processing unit 220 is based on the grounding position of the fitted model pattern of the person in the first image (specifically, the grounding position of the person's model pattern and the floor of the car 21). Recognize the position of a person in the space and the space occupied by the person. In addition, when the contact position of the model pattern of the fitted person in the first image cannot be confirmed, the image recognition processing unit 220 determines the position of the person and the space occupied by the person based on the estimated contact position. recognize. Next, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the person applied to the edge extracted from the first image. The coordinates of the human model pattern are, for example, the head apex, both ears, both shoulders, both elbows, the tips of both hands, both hips, both knees, both knees, and the toes of both legs as shown by P1 in FIG. Coordinates.

画像認識処理部220は、第三ステップにおいて、先ほどの少なくとも二つの画像のうち第一の画像以外の画像に対して、第二ステップで当てはめた人のモデルパターンを当てはめる。より具体的に、画像認識処理部220が、第三ステップにおいて、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジから、第一の画像のかご21の内部構造のモデルパターンに重なったエッジを除き、このエッジに第二ステップにおいて当てはめた人のモデルパターンを当てはめる。その後、画像認識処理部220は、この第一の画像以外の画像に当てはめた人のモデルパターンから各ポイントの座標を算出する。   In the third step, the image recognition processing unit 220 applies the model pattern of the person applied in the second step to an image other than the first image among the at least two images. More specifically, in the third step, the image recognition processing unit 220 determines the internal structure of the cage 21 of the first image from the edges extracted from the images other than the first image among the plurality of acquired images. Except for the edge that overlaps the model pattern, the model pattern of the person applied in the second step is applied to this edge. Thereafter, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of a person applied to an image other than the first image.

画像認識処理部220は、第四ステップにおいて、第一の画像から抽出されたエッジから、かごの内部構造のモデルパターンに重なるエッジ、及び、人のモデルパターンに重なるエッジを取り除いた上で、残ったエッジを物に対する像のエッジであると判断する。画像認識処理部220は、物に対する像のエッジがあると判断した場合(かご21内に物があると判断した場合)、物のモデルパターンのサイズとカメラ210の視野とを整合させて、第一の画像から抽出されたエッジに物のモデルパターンを当てはめる。また、画像認識処理部220は、第一の画像から抽出されたエッジに当てはめた物のモデルパターンから、各ポイントの座標を算出する。物のモデルパターンにおける各ポイントの座標は、例えば、図3のP2に示すように、立方体の八つの角である。   In the fourth step, the image recognition processing unit 220 removes the edge that overlaps the model pattern of the internal structure of the car and the edge that overlaps the human model pattern from the edge extracted from the first image, and then remains. The determined edge is determined to be the edge of the image with respect to the object. When the image recognition processing unit 220 determines that there is an edge of an image with respect to the object (when it is determined that there is an object in the car 21), the size of the model pattern of the object is matched with the field of view of the camera 210, An object model pattern is applied to an edge extracted from one image. Further, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the object applied to the edge extracted from the first image. The coordinates of each point in the object model pattern are, for example, eight corners of a cube, as indicated by P2 in FIG.

画像認識処理部220は、第五ステップにおいて、先ほどの少なくとも二つの画像のうち第一の画像以外の画像に対して、第四ステップで当てはめた物のモデルパターンを当てはめる。より具体的に、画像認識処理部220は、第五ステップにおいて、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジから、第一の画像のかご21の内部構造のモデルパターンに重なったエッジを除き、さらに、第一の画像の人のモデルパターンに重なったエッジを除き、このエッジに第二ステップにおいて当てはめた人のモデルパターンを当てはめる。その後、画像認識処理部220は、この第一の画像以外の画像に当てはめた物のモデルパターンから各ポイントの座標を算出する。   In the fifth step, the image recognition processing unit 220 applies the model pattern of the object applied in the fourth step to an image other than the first image among the at least two images. More specifically, in the fifth step, the image recognition processing unit 220 determines the internal structure of the car 21 of the first image from the edges extracted from the images other than the first image among the plurality of acquired images. Except for the edge that overlaps the model pattern, and further excludes the edge that overlaps the model pattern of the person in the first image, the model pattern of the person applied in the second step is applied to this edge. Thereafter, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the object applied to the image other than the first image.

尚、画像認識処理部220は、各画像から抽出したエッジに円形状のエッジ等が無いと判断した場合、かご21内が無人であるとして、各画像から抽出したエッジに対する人のモデルパターンの当てはめの処理を終了し、各画像から抽出したエッジに物のモデルパターンの当てはめを行う。また、画像認識処理部220は、各画像から抽出したエッジに物に対する像のエッジが無いと判断した場合(かご21内に物が無いと判断した場合)、各画像から抽出したエッジに対する物のモデルパターンの当てはめの処理を終了する。   When the image recognition processing unit 220 determines that the edge extracted from each image does not have a circular edge or the like, it is assumed that the car 21 is unoccupied and the human model pattern is applied to the edge extracted from each image. Then, the model pattern of the object is applied to the edge extracted from each image. In addition, when the image recognition processing unit 220 determines that the edge extracted from each image has no image edge with respect to the object (when it is determined that there is no object in the car 21), the image recognition processing unit 220 detects the object with respect to the edge extracted from each image. The model pattern fitting process ends.

以下、第一処理及び第二処理の後に行う第三処理について説明する。画像認識処理部220は、第二処理で当てはめた人のモデルパターンの座標が第一の特定の座標にあるとき(例えば、人がかご21のドアに接触しているとき)、又は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像での人のモデルパターンの座標の変化が第一の特定の挙動を示したとき(即ち、人がかご21を揺らす動作を行っているとき)に、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2の動作状況が異常である旨のイベントコード)の送信を阻止する第三処理を行う。第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像は、第二処理で人のモデルパターンを当てはめた撮像画像のうち、その撮像時刻が前後する撮像画像である。また、ここで阻止される送信は、人のモデルパターンが当てはめられた人の挙動に起因する異常情報の送信である。   Hereinafter, the third process performed after the first process and the second process will be described. The image recognition processing unit 220 has the model pattern coordinates of the person applied in the second process at the first specific coordinates (for example, when the person is in contact with the door of the car 21), or the second When a change in the coordinates of the person's model pattern in the captured images before and after the captured image in which the person's model pattern is applied in the processing shows the first specific behavior (that is, the person swings the car 21) A third process for preventing transmission of abnormality information (for example, an event code indicating that the operation state of the elevator 2 is abnormal) from the control microcomputer 20 to the monitoring terminal 3 is performed. The captured images before and after the captured image in which the human model pattern is applied in the second process are captured images whose imaging times are before and after the captured image in which the human model pattern is applied in the second process. Further, the transmission blocked here is transmission of abnormal information caused by the behavior of the person to which the human model pattern is applied.

さらに、本実施形態の遠隔監視システム1では、第三処理において、画像認識処理部220は、第二処理で当てはめた物のモデルパターンの座標が第二の特定の座標にあるとき(即ち、物がかご21のドアに接触しているとき)、又は、第二処理において物のモデルパターンを当てはめた撮像画像における前後の撮像画像での物のモデルパターンの座標の変化が第二の特定の挙動を示したとき(即ち、物がかご21を揺らすように移動しているとき)に、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2の動作状況が異常である旨のイベントコード)の送信を阻止する。この阻止される送信は、物のモデルパターンが当てはめられた物の挙動に起因する異常情報の送信である。第二処理において物のモデルパターンを当てはめた撮像画像における前後の撮像画像は、第二処理で物のモデルパターンを当てはめた撮像画像のうち、その撮像時刻が前後する撮像画像である。   Furthermore, in the remote monitoring system 1 according to the present embodiment, in the third process, the image recognition processing unit 220 has the coordinates of the model pattern of the object applied in the second process at the second specific coordinates (that is, the object). Or when the coordinate of the object model pattern in the captured images before and after the captured image in which the object model pattern is applied in the second processing is the second specific behavior. (I.e., when an object is moving so as to shake the car 21), the abnormal information from the control microcomputer 20 to the monitoring terminal 3 (for example, an event code indicating that the operation status of the elevator 2 is abnormal) ) Transmission. This blocked transmission is the transmission of anomaly information resulting from the behavior of the object to which the object model pattern is applied. The captured images before and after the captured image in which the object model pattern is applied in the second process are captured images whose imaging times are before and after the captured image in which the object model pattern is applied in the second process.

尚、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像が三枚以上ある場合、「第二処理で当てはめた人のモデルパターンの座標が第一の特定の座標にあるとき」は、人のモデルパターンの座標が第一の特定の座標と重なるときに加えて、人のモデルパターンの座標が移動により到達すると予測される座標(動線予測による座標)が第一の特定の座標と重なるときも含む。また、第二処理において物のモデルパターンを当てはめた撮像画像における前後の撮像画像が三枚以上ある場合、「第二処理で当てはめた物のモデルパターンの座標が第二の特定の座標にあるとき」は、物のモデルパターンの座標が移動により到達すると予測される座標(動線予測による座標)が第二の特定の座標と重なるときも含む。   In addition, when there are three or more captured images before and after the captured image in which the human model pattern is applied in the second processing, “when the coordinates of the human model pattern applied in the second processing are at the first specific coordinates. "In addition to when the coordinates of the human model pattern overlap with the first specific coordinates, the coordinates that the human model pattern coordinates are predicted to reach by movement (coordinates by the flow line prediction) are the first specific coordinates. Including when it overlaps with the coordinates of. In addition, when there are three or more captured images before and after the captured image in which the object model pattern is applied in the second process, “when the coordinate of the model pattern of the object applied in the second process is at the second specific coordinate "Also includes the case where the coordinates of the object model pattern predicted to arrive by movement (coordinates by the flow line prediction) overlap with the second specific coordinates.

また、第二処理で当てはめた人や物のモデルパターンの座標(第一の画像、又は、第一の画像以外の画像から抽出したエッジに当てはめた人や物のモデルパターンにおける各ポイントの座標)が第一、第二特定の座標にあるときとは、ある一定の期間において、各モデルパターンの座標が、第一、第二の特定の座標と重なるときである。   Also, the coordinates of the model pattern of the person or object applied in the second process (the coordinates of each point in the model pattern of the person or object applied to the edge extracted from the first image or an image other than the first image) Is in the first and second specific coordinates when the coordinates of each model pattern overlap the first and second specific coordinates in a certain period.

以上のように、画像認識処理部220は、第二処理において、画像(第一の画像又は第一の画像以外の画像)に人や物のモデルパターンを当てはめることで、人や物の位置を把握できる。また、画像認識処理部220は、第二処理において、異なる画像(第一の画像及び第一の画像以外の画像)に人や物のモデルパターンを当てはめることで、人や物の挙動(人や物の動きの変化)を把握できる。また、本実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において物のモデルパターンを当てはめた撮像画像における三枚以上の前後の撮像画像について人や物のモデルパターンの各ポイントの座標を算出するため、第二処理において算出した人や物のモデルパターンの座標の変化により人や物の挙動を把握することに加えて、人や物の挙動を予測できる、即ち、人や物の動線予測を行うことができる。   As described above, in the second process, the image recognition processing unit 220 applies the model pattern of the person or the object to the image (the first image or the image other than the first image), thereby determining the position of the person or the object. I can grasp. In the second process, the image recognition processing unit 220 applies the model pattern of the person or the object to different images (the first image and the image other than the first image), so that the behavior of the person or the object (the person or the object) Change in the movement of objects). Further, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 uses each of the human and object model patterns for three or more captured images in the captured image in which the object model pattern is applied in the second process. In order to calculate the coordinates of the point, in addition to grasping the behavior of the person and the object by the change in the coordinates of the model pattern of the person and the object calculated in the second process, the behavior of the person and the object can be predicted. It is possible to predict the flow line of objects and objects.

さらに、本実施形態の遠隔監視システム1では、画像認識処理部220が、第三処理において、人や物がかご21のドアに接触している、又は、人や物がかご21を揺らすように移動していると判定した際に、マイコン処理部200にこの旨の判定結果を出力することで、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2の動作状況が異常である旨のイベントコード)の送信を阻止する。尚、画像認識処理部220は、第三処理において、人や物がかご21のドアに接触していない、又は、人や物がかご21を揺らすような移動をしていないと判定すると、マイコン処理部200にこの旨の判定結果を出力する。   Furthermore, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 causes the person or object to contact the door of the car 21 or the person or object shakes the car 21 in the third process. When it is determined that the vehicle is moving, a determination result to this effect is output to the microcomputer processing unit 200, whereby abnormality information from the control microcomputer 20 to the monitoring terminal 3 (for example, that the operation status of the elevator 2 is abnormal) Transmission of the event code). If the image recognition processing unit 220 determines in the third process that the person or object is not in contact with the door of the car 21 or the person or object does not move so as to shake the car 21, the microcomputer A determination result to this effect is output to the processing unit 200.

本実施形態の遠隔監視システム1では、画像認識処理部220は、このような判定結果を第一サーバー4にも出力することで、第一サーバー4から管理者端末7及び技術員端末8にこの判定結果に関する情報を出力させることができる。   In the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 outputs such a determination result also to the first server 4, so that the determination is made from the first server 4 to the administrator terminal 7 and the technician terminal 8. Information about the result can be output.

監視端末3は、例えば、複数の地域に設置された多数のエレベータの監視を行う。また、監視端末3は、対象となるエレベータと離れた建物である監視センター等に設置されている。さらに、監視端末3には、制御マイコン20が異常情報(例えば、エレベータ2の動作状況が異常である旨のイベントコード)を入力することができる。本実施形態の遠隔監視システム1では、監視端末3は、入力されたイベントコード等の情報を表示する表示部を有する。   For example, the monitoring terminal 3 monitors a large number of elevators installed in a plurality of regions. The monitoring terminal 3 is installed in a monitoring center or the like that is a building away from the target elevator. Furthermore, the control microcomputer 20 can input abnormality information (for example, an event code indicating that the operation state of the elevator 2 is abnormal) to the monitoring terminal 3. In the remote monitoring system 1 of the present embodiment, the monitoring terminal 3 has a display unit that displays information such as an input event code.

本実施形態の監視センターには、監視員(オペレータ)が常駐している。監視員は、監視端末3の表示部におけるイベントコード等の表示を確認することで、エレベータ2の動作状況を監視することができる。   A supervisor (operator) is resident in the monitoring center of this embodiment. The monitor can monitor the operation status of the elevator 2 by confirming the display of the event code or the like on the display unit of the monitoring terminal 3.

第二サーバー5は、例えば、有線回線により第一サーバー4に接続され、例えば、P2P(Peer to Peer)により接続されている。また、第二サーバー5は、データベース50を有する。データベース50は、各エレベータにおけるかごの設計値等の情報を記憶している。具体的に、データベース50は、かごの設計値として、かごにおけるかご枠のサイズ(かご内の寸法)、かごにおけるドアの位置、及びかごにおける制御盤の位置等を、エレベータの識別番号(例えば、エレベータの機番)に関連付けて記憶している。データベース50は、書き換え可能である。データベース50には、例えば、新たなエレベータの設置時に該エレベータにおけるかごの設計値等の情報を追加することができる。   The second server 5 is connected to the first server 4 by, for example, a wired line, and is connected by, for example, P2P (Peer to Peer). The second server 5 has a database 50. The database 50 stores information such as car design values for each elevator. Specifically, the database 50 includes, as design values of the car, the size of the car frame in the car (dimensions in the car), the position of the door in the car, the position of the control panel in the car, and the like. It is stored in association with the elevator machine number). The database 50 can be rewritten. For example, information such as a design value of a car in the elevator can be added to the database 50 when a new elevator is installed.

本実施形態の遠隔監視システム1では、データベース50は、各エレベータにそれぞれ対応する管理者端末7及び技術員端末8に関する情報(管理者の連絡先及び技術員の連絡先)を記憶している。例えば、データベース50は、インターネットを介して管理者端末7及び技術員端末8に出力するため、管理者端末7及び技術員端末8に関する情報として、管理者端末7のIPアドレス及び技術員端末8のIPアドレスを記憶している。尚、データベース50は、これらの情報を、人や物の挙動と関連付けて記憶していてもよい。   In the remote monitoring system 1 of the present embodiment, the database 50 stores information (administrator contact information and technician contact information) regarding the administrator terminal 7 and the technician terminal 8 respectively corresponding to each elevator. For example, since the database 50 outputs the information to the administrator terminal 7 and the technician terminal 8 via the Internet, the IP address of the administrator terminal 7 and the IP address of the technician terminal 8 are used as information regarding the administrator terminal 7 and the technician terminal 8. I remember it. Note that the database 50 may store such information in association with the behavior of a person or an object.

第一サーバー4は、例えば、インターネットを介して監視端末3に接続されている。また、第一サーバー4は、インターネットと監視端末3と通信系統R1とを介して、制御マイコン20に接続されている。   The first server 4 is connected to the monitoring terminal 3 via the Internet, for example. The first server 4 is connected to the control microcomputer 20 via the Internet, the monitoring terminal 3 and the communication system R1.

第一サーバー4は、通信系統R2を介して、管理者端末7に接続可能である。通信系統R2は、例えば、第一サーバー4からインターネットを介して管理者端末7に通信可能であり、且つ、管理者端末7からインターネットを介して第一サーバー4に通信可能な通信系統である。また、第一サーバー4は、通信系統R3を介して、技術員端末8に接続可能である。通信系統R3は、例えば、第一サーバー4からインターネットを介して技術員端末8に通信可能であり、且つ、技術員端末8からインターネットを介して第一サーバー4に通信可能な通信系統である。通信系統R2、R3は、一部(インターネット)で共通している。   The first server 4 can be connected to the administrator terminal 7 via the communication system R2. The communication system R2 is, for example, a communication system that can communicate from the first server 4 to the administrator terminal 7 via the Internet and can communicate from the administrator terminal 7 to the first server 4 via the Internet. The first server 4 can be connected to the engineer terminal 8 via the communication system R3. The communication system R3 is a communication system that can communicate with the technician terminal 8 from the first server 4 via the Internet and can communicate with the first server 4 from the technician terminal 8 via the Internet, for example. The communication systems R2 and R3 are common in part (Internet).

第一サーバー4は、かごの内部構造のモデルパターンを作成するサーバー処理部40を含む。例えば、サーバー処理部40は、画像認識処理部220による最初の処理前(上述の第一処理から第三処理までの一連の処理を最初に行う前)、又は、かごの仕様の変更時に、データベース50に記憶されたかごの設計値等の情報に基づいて、かごの内部構造のモデルパターンを作成し、作成したモデルパターンを画像認識装置22に出力する。   The first server 4 includes a server processing unit 40 that creates a model pattern of the internal structure of the car. For example, the server processing unit 40 may execute the database before the first processing by the image recognition processing unit 220 (before the first series of processing from the first processing to the third processing described above is performed for the first time) or when the specification of the car is changed. Based on the information such as the design value of the car stored in 50, a model pattern of the internal structure of the car is created, and the created model pattern is output to the image recognition device 22.

具体的に、サーバー処理部40は、データベース50からかご21の設計値等の情報を取得すると共に、カメラ210から画像認識装置22等を介して無人の状態(空かご状態)のかご内の撮像画像を取得する。サーバー処理部40は、例えば、無人の状態のかご内の撮像画像を一枚取得する。   Specifically, the server processing unit 40 acquires information such as the design value of the car 21 from the database 50 and images the car in an unmanned state (empty car state) from the camera 210 via the image recognition device 22 or the like. Get an image. For example, the server processing unit 40 acquires one captured image in a car in an unattended state.

サーバー処理部40は、取得した無人の状態のかご内の撮像画像に対してノイズの除去等の前処理を行い、前処理後の撮像画像からエッジを抽出する。サーバー処理部40は、かご21の設計値等から得られるかご21の壁、ドア、床、及び天井の形状特徴に基づいて、撮像画像から抽出したエッジから、かご21の壁、ドア、床、及び天井の位置関係の認識を行う。また、サーバー処理部40は、撮像画像から認識したかご21の壁等の位置関係等に基づいて、かご21内におけるカメラの位置を特定する。さらに、サーバー処理部40は、特定したカメラの位置に基づき、かごの壁等の位置関係等を再認識し、かご枠の輪郭とドアの輪郭に重なる箇所を判断し、カメラ視点の座標(図4におけるP)を算出すると共に、かごの内部構造のモデルパターンを作成する(例えば、床の四隅、天井の四隅、ドア、及び操作盤それぞれの座標(図4におけるP3)を算出してこれらの座標を結ぶ線で構成されるモデルパターンを作成する)。 The server processing unit 40 performs preprocessing such as noise removal on the acquired image in the unmanned car, and extracts edges from the preprocessed image. The server processing unit 40 determines the walls, doors, floors of the car 21 from the edges extracted from the captured image based on the shape characteristics of the walls, doors, floors, and ceiling of the car 21 obtained from the design values of the car 21. And recognizing the position of the ceiling. In addition, the server processing unit 40 identifies the position of the camera in the car 21 based on the positional relationship of the wall of the car 21 recognized from the captured image. Further, the server processing unit 40 re-recognizes the positional relationship of the car wall and the like based on the specified camera position, determines the location overlapping the car frame contour and the door contour, and coordinates of the camera viewpoint (see FIG. calculates the P C) at 4, to create a model pattern of the internal structure of the car (for example, the floor of the four corners, ceiling corners, door and control panel respective coordinates (P3 in FIG. 4) to calculate these Create a model pattern consisting of lines connecting the coordinates of).

サーバー処理部40は、かご内におけるカメラの視野として、例えば、カメラ視点の座標を画像認識装置22に送信すると共に、かごの内部構造のモデルパターンとして、例えば、かご内における、床の四隅、天井の四隅、ドア、及び操作盤それぞれの座標を画像認識装置22に出力する。   The server processing unit 40 transmits, for example, the coordinates of the camera viewpoint to the image recognition device 22 as the field of view of the camera in the car, and as the model pattern of the internal structure of the car, for example, the four corners of the floor and the ceiling in the car The coordinates of the four corners, doors, and operation panel are output to the image recognition device 22.

サーバー処理部40は、第三処理における画像認識処理部220による判定結果(人や物がかご21のドアに接触しているか否か、又は、人や物がかご21を揺らすように移動しているか否かの判定結果)が、マイコン処理部200から通信系統R1と監視端末3とインターネットとを介して入力されると、データベース50から、通知元(エレベータ2)に応じた管理者端末7及び技術員端末8に関する情報(管理者の連絡先及び技術員の連絡先)を取得し、例えば、この判定結果をそれぞれ文字情報として、管理者端末7に出力すると共に技術員端末8に出力する。出力される判定結果は、例えば、「人がかご内で飛び跳ねています。エレベータ2自体に問題はありません。」といったメッセージである。   The server processing unit 40 determines whether the image recognition processing unit 220 determines whether the person or the object is in contact with the door of the car 21 or the person or the object shakes the car 21 in the third process. When the determination result of whether or not) is input from the microcomputer processing unit 200 via the communication system R1, the monitoring terminal 3, and the Internet, the administrator terminal 7 corresponding to the notification source (elevator 2) and the database 50 Information regarding the engineer terminal 8 (contact information of the administrator and contact information of the engineer) is acquired, and for example, the determination result is output as character information to the administrator terminal 7 and output to the engineer terminal 8. The determination result to be output is, for example, a message such as “A person is jumping in the car. There is no problem in the elevator 2 itself”.

管理者端末7及び技術員端末8は、それぞれ、例えば、PDA(Personal Digital Assistant)、ノートパソコン等の持ち運び可能な端末や、据え置き型のパソコン等の端末である。管理者端末7及び技術員端末8は、それぞれ、例えば、入力された情報を出力する出力部を有する。出力部は、出力する情報が画像情報や文字情報である場合にはディスプレイであり、出力する情報が音声情報である場合にはスピーカーである。本実施形態の遠隔監視システム1では、管理者端末7及び技術員端末8の出力部はディスプレイであり、このディスプレイは、サーバー処理部40から入力された判定結果を出力する。   The administrator terminal 7 and the technician terminal 8 are each a portable terminal such as a PDA (Personal Digital Assistant) or a notebook personal computer, or a terminal such as a stationary personal computer. Each of the administrator terminal 7 and the engineer terminal 8 includes an output unit that outputs input information, for example. The output unit is a display when the output information is image information or text information, and is a speaker when the output information is audio information. In the remote monitoring system 1 of this embodiment, the output units of the administrator terminal 7 and the technician terminal 8 are displays, and this display outputs the determination result input from the server processing unit 40.

管理者端末7は、例えば、エレベータ2を管理する管理者により所持される。技術員端末8は、例えば、出向の要請を受けると、エレベータ2のトラブルに対応するためにエレベータ2に出向する技術員により所持される。   The administrator terminal 7 is possessed by, for example, an administrator who manages the elevator 2. The technician terminal 8 is, for example, carried by a technician who goes to the elevator 2 in order to deal with the trouble of the elevator 2 when a request for transfer is received.

以下、図5のフローチャート図を用いて、サーバー処理部40によるかごの内部構造のモデルパターンの作成に関する処理の流れを説明する。   Hereinafter, the flow of processing related to the creation of the model pattern of the internal structure of the car by the server processing unit 40 will be described with reference to the flowchart of FIG.

サーバー処理部40は、画像認識処理部220による最初の処理前(上述の第一処理から第三処理までの一連の処理を最初に行う前)、又は、かご21の仕様の変更時に、データベース50からかごの設計値を取得する(S01)。また、サーバー処理部40は、カメラ210から画像認識装置22等を介してかご21内の撮像画像(無人の状態(空かご状態)のかご内の撮像画像)を取得する(S02)。サーバー処理部40は、取得した撮像画像からかごの内部構造のエッジを抽出する(S03)。   The server processing unit 40 performs the database 50 before the first processing by the image recognition processing unit 220 (before the first series of processing from the first processing to the third processing described above is performed for the first time) or when the specification of the car 21 is changed. The design value of the car is acquired (S01). Further, the server processing unit 40 acquires a captured image (captured image in a car in an unattended state (empty car state)) from the camera 210 via the image recognition device 22 or the like (S02). The server processing unit 40 extracts the edge of the internal structure of the car from the acquired captured image (S03).

サーバー処理部40は、撮像画像から抽出したエッジと、データベース50から取得したかごの設計値に基づいて、かご内におけるカメラ210の位置を特定すると共に、かごの内部構造のモデルパターンを作成する(S04)。   Based on the edge extracted from the captured image and the design value of the car acquired from the database 50, the server processing unit 40 specifies the position of the camera 210 in the car and creates a model pattern of the internal structure of the car ( S04).

その後、サーバー処理部40は、かご21内におけるカメラ210の位置に関する情報、及び、かごの内部構造のモデルパターンに関する情報を、画像認識装置22(画像認識処理部220)に出力する(S05)。具体的に、サーバー処理部40は、カメラ視点の座標を画像認識装置22に送信すると共に、かごの内部構造のモデルパターンとして、例えば、かご内における、床の四隅、天井の四隅、ドア、及び操作盤それぞれの輪郭を結ぶ線(ワイヤーフレーム)で構成されたモデルパターンを画像認識装置22に出力する。記憶部221は、出力されたカメラ210の位置に関する情報、及び、かごの内部構造のモデルパターンに関する情報を記憶する。   Thereafter, the server processing unit 40 outputs information on the position of the camera 210 in the car 21 and information on the model pattern of the internal structure of the car to the image recognition device 22 (image recognition processing unit 220) (S05). Specifically, the server processing unit 40 transmits the coordinates of the camera viewpoint to the image recognition device 22 and, as a model pattern of the internal structure of the car, for example, four corners of the floor, four corners of the ceiling, doors, and A model pattern composed of lines (wire frames) connecting the contours of the operation panels is output to the image recognition device 22. The storage unit 221 stores information regarding the output position of the camera 210 and information regarding the model pattern of the internal structure of the car.

次に、図6のフローチャート図を用いて、画像認識処理部220による判定処理を説明する。尚、以下、画像から抽出したエッジに、人及び物の像のエッジが含まれている場合を説明する。   Next, determination processing by the image recognition processing unit 220 will be described with reference to the flowchart of FIG. Hereinafter, the case where the edge extracted from the image includes the edge of an image of a person or an object will be described.

画像認識処理部220は、制御マイコン20からエレベータ2の動作状況が異常である旨の情報が入力されると(S10)、カメラ210により経時的に撮像されたかご21内の撮像画像(複数の撮像画像)を取得する(S11)。   When the information indicating that the operation state of the elevator 2 is abnormal is input from the control microcomputer 20 (S10), the image recognition processing unit 220 captures images (a plurality of images) in the car 21 captured over time by the camera 210. (Captured image) is acquired (S11).

画像認識処理部220は、取得した複数の撮像画像のうち少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)から、それぞれエッジを抽出する第一処理を行う(S12)。具体的に、画像認識処理部220は、取得した複数の画像に対して、それぞれ、ノイズ除去等の前処理を行った後、エッジを抽出する。   The image recognition processing unit 220 performs a first process of extracting edges from at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment) among a plurality of acquired images (S12). ). Specifically, the image recognition processing unit 220 extracts edges after performing preprocessing such as noise removal on each of the plurality of acquired images.

画像認識処理部220は、第一処理(S12)でエッジを抽出した複数の画像から抽出されたエッジに、人のモデルパターンを当てはめる(S13)。   The image recognition processing unit 220 applies a human model pattern to the edges extracted from the plurality of images extracted in the first process (S12) (S13).

具体的に、画像認識処理部220は、取得した複数の画像のうちの第一の画像から抽出されたエッジにおけるかご21の内部構造に対する像のエッジに、かご21の内部構造のモデルパターンを当てはめ(第一ステップ)、この一つの画像から抽出されたエッジのうちのかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、人のモデルパターンを当てはめた(第二ステップ)後、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジにおけるかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、第二ステップにおいて当てはめた人のモデルパターンを当てはめる(第三ステップ)。さらに、画像認識処理部220は、取得した複数の画像から抽出されたエッジに当てはめた人のモデルパターンから、人のモデルパターンにおける各ポイントの座標を算出する。   Specifically, the image recognition processing unit 220 applies the model pattern of the internal structure of the car 21 to the edge of the image with respect to the internal structure of the car 21 at the edge extracted from the first image among the plurality of acquired images. (First step), obtained by applying a human model pattern to an edge other than the edge that overlaps the model pattern of the internal structure of the car 21 among the edges extracted from this one image (second step) The model pattern of the person applied in the second step is applied to the edge other than the edge overlapping the model pattern of the internal structure of the car 21 in the edge extracted from the image other than the first image among the plurality of images (third Step). Further, the image recognition processing unit 220 calculates the coordinates of each point in the human model pattern from the human model pattern applied to the edges extracted from the plurality of acquired images.

次に、画像認識処理部220は、第一処理(S12)でエッジを抽出した複数の画像から抽出されたエッジに、それぞれ物のモデルパターンを当てはめる(S14)。   Next, the image recognition processing unit 220 applies an object model pattern to each of the edges extracted from the plurality of images from which the edges have been extracted in the first process (S12) (S14).

具体的に、画像認識処理部220は、第一の画像から抽出されたエッジのうち、かご21の内部構造のモデルパターンに重ならず且つ人のモデルパターンに重ならないエッジに、物のモデルパターンを当てはめ(第四ステップ)、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジにおける、かご21の内部構造のモデルパターンに重ならず且つ人のモデルパターンに重ならないエッジに、第四ステップにおいて当てはめた物のモデルパターンを当てはめる(第五ステップ)。さらに、画像認識処理部220は、取得した複数の画像から抽出されたエッジに当てはめた物のモデルパターンから、物のモデルパターンにおける各ポイントの座標を算出する。   Specifically, the image recognition processing unit 220 applies the object model pattern to the edge extracted from the first image that does not overlap the model pattern of the internal structure of the car 21 and does not overlap the human model pattern. Is applied (fourth step), and does not overlap with the model pattern of the internal structure of the car 21 at the edge extracted from the image other than the first image among the plurality of acquired images and does not overlap with the model pattern of the person. The model pattern of the object applied in the fourth step is applied to the edge (fifth step). Further, the image recognition processing unit 220 calculates the coordinates of each point in the object model pattern from the object model pattern applied to the edge extracted from the plurality of acquired images.

以上のS13、S14の処理が、第二処理に相当する。   The processes of S13 and S14 described above correspond to the second process.

画像認識処理部220は、取得した複数の画像から抽出したエッジに当てはめた人のモデルパターンにおける各ポイントの座標に基づき、人の位置、及び、人の挙動について判定する(S15)。例えば、画像認識処理部220は、ある一定の期間において、第二処理で当てはめた人のモデルパターンの座標(第一の画像、又は、第一の画像以外の画像から抽出したエッジに当てはめた人のモデルパターンにおける各ポイントの座標)が第一の特定の座標にあるときに、人とドアとが接触しているとみなし、エレベータ2に人の位置に起因する異常が生じていると判定する。   The image recognition processing unit 220 determines the position of the person and the behavior of the person based on the coordinates of each point in the model pattern of the person applied to the edge extracted from the plurality of acquired images (S15). For example, in a certain period, the image recognition processing unit 220 may apply the coordinates of the model pattern of the person applied in the second process (the person applied to the edge extracted from the first image or an image other than the first image). When the coordinates of each point in the model pattern) are at the first specific coordinates, it is considered that the person and the door are in contact, and it is determined that the elevator 2 has an abnormality caused by the position of the person. .

また、画像認識処理部220は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の画像での人のモデルパターンの座標の変化が第一の特定の挙動を示したとき、人がかご21を揺らすような動作を行っているとみなし、エレベータ2に人の挙動に起因する異常が生じていると判定する。   In addition, when the change in the coordinates of the person's model pattern in the preceding and succeeding images in the captured image in which the person's model pattern is applied in the second process shows the first specific behavior, the image recognition processing unit 220 It is determined that an operation that shakes the car 21 is performed, and it is determined that an abnormality caused by a person's behavior has occurred in the elevator 2.

画像認識処理部220は、S15と同様に、取得した複数の画像から抽出したエッジに当てはめた物のモデルパターンにおける各ポイントの座標に基づき、物の位置、及び、物の挙動について判定する(S16)。例えば、画像認識処理部220は、ある一定の期間において、第二処理又は第三処理で当てはめた物のモデルパターンの座標(第一の画像、又は、第一の画像以外の画像から抽出したエッジに当てはまる物のモデルパターンの各ポイントの座標)が第二の特定の座標にあるときに、物とドアとが接触しているとみなし、エレベータ2に物の位置に起因する異常が生じている判定する。   Similar to S15, the image recognition processing unit 220 determines the position of the object and the behavior of the object based on the coordinates of each point in the model pattern of the object applied to the edge extracted from the plurality of acquired images (S16). ). For example, in a certain period, the image recognition processing unit 220 has the coordinates of the model pattern of the object applied in the second process or the third process (the edge extracted from the first image or an image other than the first image). When the coordinates of each point of the model pattern of the object that applies to is at the second specific coordinate, it is considered that the object and the door are in contact, and the elevator 2 has an abnormality caused by the position of the object. judge.

また、画像認識処理部220は、第二処理において物のモデルパターンを当てはめた撮像画像における前後の画像での物のモデルパターンの座標の変化が第二の特定の挙動を示したとき、物がかご21を揺らすように移動しているとみなし、エレベータ2に物の挙動に起因する異常が生じていると判定する。   In addition, the image recognition processing unit 220, when the change in the coordinates of the object model pattern in the preceding and succeeding images in the captured image in which the object model pattern is applied in the second process exhibits the second specific behavior, It is determined that the car 21 is moving so as to be shaken, and it is determined that an abnormality due to the behavior of the object has occurred in the elevator 2.

画像認識処理部220は、マイコン処理部200及びサーバー処理部40に、S15,S16における判定結果を出力する(S17)。具体的に、画像認識処理部220は、エレベータ2に、人の位置に起因する異常、人の挙動に起因する異常、物の位置に起因する異常、及び物の挙動に起因する異常のうち少なくとも一つが生じていると判定した際には、この旨をマイコン処理部200及びサーバー処理部40に出力する。尚、本実施形態の遠隔監視システム1では、画像認識処理部220は、このような判定結果を第一サーバー4のサーバー処理部40にも出力することで、サーバー処理部40から管理者端末7及び技術員端末8にこの判定結果を出力させる。   The image recognition processing unit 220 outputs the determination results in S15 and S16 to the microcomputer processing unit 200 and the server processing unit 40 (S17). Specifically, the image recognition processing unit 220 includes at least one of an abnormality caused by the position of the person, an abnormality caused by the behavior of the person, an abnormality caused by the position of the object, and an abnormality caused by the behavior of the object. When it is determined that one has occurred, this fact is output to the microcomputer processing unit 200 and the server processing unit 40. In the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 outputs such a determination result to the server processing unit 40 of the first server 4, so that the administrator terminal 7 The engineer terminal 8 is made to output this determination result.

マイコン処理部200は、エレベータ2において人の位置に起因する異常、又は、人の挙動に起因する異常が生じている旨入力されると(S18においてYes)、エレベータ2に異常が無い旨のイベントコードを監視端末3に出力する(S19)。   When the microcomputer processing unit 200 receives an input indicating that an abnormality caused by a person's position or an abnormality caused by a person's behavior has occurred in the elevator 2 (Yes in S18), an event indicating that there is no abnormality in the elevator 2 The code is output to the monitoring terminal 3 (S19).

マイコン処理部200は、エレベータ2において人の位置に起因する異常、及び、人の挙動に起因する異常が生じている旨入力されず(S18においてNo)、且つ、エレベータ2において物の位置に起因する異常、又は、物の挙動に起因する異常が生じている旨入力された場合(S20においてYes)、エレベータ2において異常が無い旨のイベントコードを監視端末3に出力する(S19)。   The microcomputer processing unit 200 does not input that the abnormality caused by the position of the person in the elevator 2 or the abnormality caused by the behavior of the person has occurred (No in S18), and is caused by the position of the object in the elevator 2. When an error indicating that there is an abnormality due to the behavior of the object or an abnormality due to the behavior of the object is input (Yes in S20), an event code indicating that there is no abnormality in the elevator 2 is output to the monitoring terminal 3 (S19).

マイコン処理部200は、エレベータ2において人の位置に起因する異常、及び、人の挙動に起因する異常が生じている旨が入力されず(S18においてNo)、エレベータ2において物の位置に起因する異常、及び、物の挙動に起因する異常が生じている旨が入力されない場合(S20においてNo)、エレベータ2において異常がある旨のイベントコードを監視端末3に出力する(S21)。   The microcomputer processing unit 200 does not input that the abnormality caused by the position of the person in the elevator 2 or the abnormality caused by the behavior of the person has occurred (No in S18), and is caused by the position of the object in the elevator 2. When it is not input that an abnormality or abnormality due to the behavior of an object has occurred (No in S20), an event code indicating that there is an abnormality in the elevator 2 is output to the monitoring terminal 3 (S21).

S15〜S21の一連の処理が、第三処理に相当する。第三処理により、エレベータ2に人や物の位置に起因する異常、又は、人や物の挙動に起因する異常が生じているときには、異常情報(エレベータ2に異常がある旨のイベントコード)を監視端末3に出力することを阻止できる。   A series of processes from S15 to S21 corresponds to a third process. When an abnormality caused by the position of a person or an object or an abnormality caused by the behavior of a person or an object occurs in the elevator 2 by the third process, abnormality information (an event code indicating that the elevator 2 is abnormal) is displayed. Output to the monitoring terminal 3 can be prevented.

以上の遠隔監視システム1では、カメラ210による撮像画像のうち少なくとも二つの画像からエッジを抽出し、この抽出したエッジに人のモデルパターンを当てはめることで、当てはめた人のモデルパターンの座標により人の位置や挙動が適正に認識できる。そのため、エレベータ2の異常を示すイベントコードが出力される可能性の高い位置に人が滞在しているとき、及び、異常を示すイベントコードが出力される可能性の高い挙動を人が行っているとき(人がその位置から移動したり、人がこの挙動を停止したりすることで、異常を示すイベントコードの出力される原因が解消されるような場合)、人の位置や挙動に起因する(人為的な原因での)報知(制御マイコン20から監視端末3への異常を示すイベントコードの送信)を防ぐことができる。   In the remote monitoring system 1 described above, an edge is extracted from at least two images captured by the camera 210, and a human model pattern is applied to the extracted edge. Position and behavior can be recognized properly. Therefore, when a person stays at a position where an event code indicating an abnormality of the elevator 2 is likely to be output, and a person is performing a behavior that is likely to output an event code indicating an abnormality. When (when a person moves from that position or when a person stops this behavior, the cause of the output of an event code indicating an abnormality is eliminated) It is possible to prevent notification (due to an artificial cause) (transmission of an event code indicating an abnormality from the control microcomputer 20 to the monitoring terminal 3).

第一の特定の座標は、かご21のドアの表面の存在する領域及びこのドアの軌道上の領域の少なくとも一方の領域にあるため、人のモデルパターンにおける各ポイントの座標が、第一の特定の座標にあるとき、即ち、人がドアと接触したとき及び人がドアと接触する見込みであるとき(人がドアの挙動を阻害するとき)、人によるドアの挙動の阻害に起因する報知を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。   Since the first specific coordinates are in at least one of the area on the surface of the door of the car 21 and the area on the track of the door, the coordinates of each point in the human model pattern are the first specific coordinates. When the person is in contact with the door, that is, when the person contacts the door and when the person is expected to contact the door (when the person obstructs the door behavior), the notification caused by the obstruction of the door behavior by the person is issued. Can be prevented. As a result, it is possible to prevent the dispatch of technicians from being wasted.

第一の特定の挙動での人のモデルパターンの座標の変化は、上下方向又は水平方向の往復動であるため、人の上下方向又は水平方向の往復動が生じているとき、即ち、人がかごを揺らすような動作を行っているとき(例えば、人が飛び跳ねているとき)、人の飛び跳ね等に起因する報知を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。   Since the change in the coordinates of the person's model pattern in the first specific behavior is a reciprocating movement in the vertical direction or the horizontal direction, when the vertical reciprocating movement of the person in the vertical direction or the horizontal direction occurs, that is, When an operation that shakes the car is performed (for example, when a person is jumping), it is possible to prevent notification caused by the person jumping. As a result, it is possible to prevent the dispatch of technicians from being wasted.

遠隔監視システム1によれば、カメラ210による撮像画像のうち少なくとも二つの画像からエッジを抽出し、この抽出したエッジに物のモデルパターンを当てはめることで、当てはめた物のモデルパターンの座標により人の位置や挙動が適正に認識できる。そのため、エレベータ2の異常を示すイベントコードが出力される可能性の高い位置に物が存在しているとき、及び、異常を示すイベントコードが出力される可能性の高い挙動を物が行っているとき(物がその位置から移動したり、物がこの挙動を停止したりすることで、異常を示すイベントコードの出力される原因が解消されるような場合)、物の位置や挙動に起因する報知(制御マイコン20から監視端末3への異常を示すイベントコードの送信)を防ぐことができる。   According to the remote monitoring system 1, an edge is extracted from at least two images captured by the camera 210, and a model pattern of the object is applied to the extracted edge. Position and behavior can be recognized properly. Therefore, when an object exists at a position where an event code indicating an abnormality of the elevator 2 is likely to be output, and the object is performing a behavior with a high possibility of outputting an event code indicating an abnormality. Sometimes (when an object moves from its position, or when an object stops this behavior, the cause of the output of an event code indicating an abnormality is eliminated), it depends on the position or behavior of the object Notification (transmission of an event code indicating an abnormality from the control microcomputer 20 to the monitoring terminal 3) can be prevented.

第二の特定の座標は、かご21のドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にあるため、物のモデルパターンの各ポイントの座標が、第二の特定の座標にあるとき、即ち、物がドアと接触したとき及び物がドアと接触する見込みであるとき(物がドアの挙動を阻害するとき)、物によるドアの挙動の阻害に起因する報知を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。   Since the second specific coordinates are in at least one of the area on the surface of the door of the car 21 and the area on the track of the door, the coordinates of each point of the model pattern of the object are the second specific coordinates. When the object is in contact with the door, i.e. when the object is in contact with the door and when the object is expected to contact the door (when the object impedes the door's behavior) Can be prevented. As a result, it is possible to prevent the dispatch of technicians from being wasted.

第二の特定の挙動での物のモデルパターンの座標の変化は、上下方向又は水平方向の往復動であるため、物の上下方向又は水平方向の往復動が生じているとき、例えば、人が運んでいる荷物が落下して跳ね返ったり、人がボールをバウンドさせていたり、人がボールをかご21内の壁に投げたりしているとき、物によるかご21内揺らしに起因する報知を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。   Since the change in the coordinate of the model pattern of the object in the second specific behavior is a reciprocating motion in the vertical direction or the horizontal direction, when a vertical reciprocating motion in the vertical direction or in the horizontal direction occurs, for example, a person Preventing notifications caused by shaking in the basket 21 caused by objects when the carrying baggage falls and bounces, or when a person bounces the ball or a person throws the ball against the wall in the basket 21 Can do. As a result, it is possible to prevent the dispatch of technicians from being wasted.

画像認識処理部220は、人の上下方向又は水平方向の往復動が生じているとき、例えば、人がかご21を揺らすような動作を行っている(例えば、人が飛び跳ねている等)と判定すると、この判定結果を第一サーバー4のサーバー処理部40にも出力し、サーバー処理部40から管理者端末7及び技術員端末8にこの判定結果を出力させる。これにより、画像認識処理部220は、管理者や技術員に、かご21内での人の悪戯について注意喚起を行うことができる。   The image recognition processing unit 220 determines that, for example, the person swings the car 21 (for example, the person is jumping) when the person is reciprocating vertically or horizontally. Then, this determination result is also output to the server processing unit 40 of the first server 4, and this determination result is output from the server processing unit 40 to the administrator terminal 7 and the technician terminal 8. As a result, the image recognition processing unit 220 can alert the manager or the technician about the mischief of the person in the car 21.

本実施形態の遠隔監視システム1では、処理部23が人や物のモデルパターンとして簡略化したモデルパターンを用いているため、処理部23が扱うモデルパターンのデータ容量が、詳細なモデルパターンを用いる場合と比べて小さい。そのため、エレベータ2の制御に用いられる処理速度のあまり大きくないマイコン(制御マイコン20)によっても処理が可能である、即ち、別途処理速度の大きなマイコンを設置しなくても、既存の制御マイコン20を用いて処理を行うことができる。   In the remote monitoring system 1 of the present embodiment, since the processing unit 23 uses a simplified model pattern as a model pattern of a person or an object, the model pattern handled by the processing unit 23 uses a detailed model pattern. Smaller than the case. Therefore, processing is possible even with a microcomputer (control microcomputer 20) that is not very high in processing speed used for controlling the elevator 2, that is, the existing control microcomputer 20 can be installed without installing a microcomputer with high processing speed. Can be used to process.

また、本実施形態の遠隔監視システム1では、画像認識処理部220は、ある一定の期間、人や物のモデルパターンの座標が、第一、第二の特定の座標にあるかを判断するため、例えば、人や物が一時的にドアと接触したとしても、制御マイコン20から監視端末3への異常情報(エレベータ2に異常が生じている旨のイベントコード)の出力が阻止されることはない。   In the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 determines whether the coordinates of the model pattern of a person or an object are at the first and second specific coordinates for a certain period. For example, even if a person or an object temporarily contacts the door, the output of abnormality information (an event code indicating that an abnormality has occurred in the elevator 2) from the control microcomputer 20 to the monitoring terminal 3 is prevented. Absent.

さらに、本実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において人や物のモデルパターンを当てはめた撮像画像における前後の画像として、三枚以上の複数の画像についての人や物のモデルパターンの座標の変化を判断するため、より正確な人や物の挙動を把握することができる。   Furthermore, in the remote monitoring system 1 according to the present embodiment, the image recognition processing unit 220 uses a human for three or more images as images before and after a captured image in which a model pattern of a person or an object is applied in the second process. Since the change in the coordinates of the model pattern of the object or the object is determined, the behavior of the person or the object can be grasped more accurately.

本実施形態の遠隔監視システム1では、サーバー処理部40は、第三処理における画像認識処理部220による判定結果(例えば、人倒れ等)を、管理者端末7に送信しているため、例えば、技術員が現場(エレベータ2)から遠い場所に滞在している場合であっても、管理者が人倒れ等に対して迅速に対応することができる。   In the remote monitoring system 1 according to the present embodiment, the server processing unit 40 transmits the determination result (for example, person fallen) by the image recognition processing unit 220 in the third process to the administrator terminal 7. Even when the engineer is staying at a place far from the site (elevator 2), the manager can quickly cope with the fall of the person.

尚、本発明の遠隔監視システムは、上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、ある実施形態の構成に他の実施形態の構成を追加することができ、また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることができる。さらに、ある実施形態の構成の一部を削除することができる。   The remote monitoring system of the present invention is not limited to the above-described embodiment, and it is needless to say that various changes can be made without departing from the gist of the present invention. For example, the configuration of another embodiment can be added to the configuration of a certain embodiment, and a part of the configuration of a certain embodiment can be replaced with the configuration of another embodiment. Furthermore, a part of the configuration of an embodiment can be deleted.

上記実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において、撮像画像のうちの少なくとも二つの画像から抽出されたエッジにおけるかごの内部構造のモデルパターンに重なるエッジ以外のエッジに、人のモデルパターン及び物のモデルパターンの両方を当てはめていたが、第二処理において人のモデルパターン及び物のモデルパターンのうち一方のみを当てはめてもよい。   In the remote monitoring system 1 of the above embodiment, the image recognition processing unit 220 in the second process, the edges other than the edges that overlap the model pattern of the internal structure of the car at the edges extracted from at least two of the captured images. Although both the human model pattern and the object model pattern are applied, only one of the human model pattern or the object model pattern may be applied in the second process.

このように処理を行っても、人のモデルパターンを当てはめた場合には、人の位置や挙動に起因する異常情報の制御マイコンから監視端末への送信を阻止し、これらに起因する報知を防ぐことができる。また、物のモデルパターンを当てはめた場合には、物の位置や挙動に起因する異常情報の制御マイコンから監視端末への送信を阻止し、これらに起因する報知を防ぐことができる。   Even if processing is performed in this way, if a person's model pattern is applied, transmission of abnormal information due to the position and behavior of the person from the control microcomputer to the monitoring terminal is blocked, and notifications due to these are prevented. be able to. In addition, when a model pattern of an object is applied, it is possible to prevent transmission of abnormal information due to the position and behavior of the object from the control microcomputer to the monitoring terminal, thereby preventing notification due to these.

また、上記実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において、撮像画像のうち少なくとも二つの画像のうちの一つの画像から抽出されたエッジにかごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめ(第一ステップ及び第二ステップ)、撮像画像のうち少なくとも二つの画像のうちの一つの画像以外の画像から抽出されたエッジにはかごの内部構造のモデルパターンを当てはめずに人のモデルパターンを当てはめていたが(第三ステップ)、撮像画像のうち少なくとも二つの画像のうちの一つの画像以外の画像から抽出されたエッジにも、かごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめてもよい。即ち、撮像画像のうち少なくとも二つの画像から抽出されたエッジに人のモデルパターンを当てはめる際、毎回、かごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめてもよい。   Moreover, in the remote monitoring system 1 of the said embodiment, the image recognition process part 220 is a model of the internal structure of a cage | basket | car at the edge extracted from one image of at least two images among the captured images in a 2nd process. After applying the pattern, the human model pattern is applied (first step and second step), and at the edges extracted from images other than one of at least two of the captured images, the internal structure of the cage is Although the model pattern of the person was applied without applying the model pattern (third step), the internal structure of the car was also applied to the edges extracted from images other than one of the two images. The model pattern of the person may be applied after applying the model pattern. That is, when applying the human model pattern to the edges extracted from at least two images of the captured images, the human model pattern may be applied after applying the model pattern of the internal structure of the car each time.

さらに、上記実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において、撮像画像のうち少なくとも二つの画像から抽出されたエッジのうちのかごの内部構造のモデルパターンに重なるエッジ以外のエッジに、人のモデルパターン及び物のモデルパターンを当てはめていたが、かごの内部構造のモデルパターンを用いずに、この少なくとも二つの画像から抽出されたエッジに、人のモデルパターン及び物のモデルパターンを当てはめてもよい。   Furthermore, in the remote monitoring system 1 according to the above-described embodiment, the image recognition processing unit 220 in the second process overlaps the model pattern of the internal structure of the cage among the edges extracted from at least two of the captured images. The human model pattern and the object model pattern were applied to the other edges, but without using the model pattern of the internal structure of the car, the human model pattern and the object were extracted to the edges extracted from the at least two images. The model pattern may be applied.

例えば、画像認識処理部220は、カメラ210から取得した複数の画像のうち少なくとも二つの画像と無人のかご内の撮像画像との差分、及び、これらの画像の変化から、何らかの物体がかご内にある、又は、何らかの物体がかご内に乗り降りすると予測されることを検出してもよい。   For example, the image recognition processing unit 220 determines that an object is in the car based on the difference between at least two of the plurality of images acquired from the camera 210 and the captured image in the unmanned car and the change in these images. It may be detected that some or some object is predicted to get in and out of the car.

また、画像認識処理部220は、かごの内部構造のモデルパターンを作成する代わりに、カメラ210から取得した無人のかご内の撮像画像からエッジを抽出し、記憶部221は、モデルデータに加えて、無人のかご内の撮像画像から抽出したエッジを記憶していてもよい。尚、この場合、記憶部221は、かご21の内部構造のモデルパターンを記憶していなくてもよい。   Further, instead of creating a model pattern of the internal structure of the car, the image recognition processing unit 220 extracts an edge from the captured image in the unmanned car acquired from the camera 210, and the storage unit 221 adds to the model data. The edge extracted from the captured image in the unmanned cage may be stored. In this case, the storage unit 221 may not store the model pattern of the internal structure of the car 21.

この場合、画像認識処理部220は、第一の画像から抽出されたエッジと無人のかご内の撮像画像から抽出されるエッジとの差分に人や物のモデルパターンを当てはめれば、人や物のモデルパターンによって人や物の位置や挙動が適正に認識できるため、人の位置や挙動に起因する異常情報の制御マイコンから監視端末への送信を阻止し、これらに起因する報知を防ぐことができる。   In this case, the image recognition processing unit 220 applies the model pattern of the person or object to the difference between the edge extracted from the first image and the edge extracted from the captured image in the unmanned cage. The position and behavior of people and objects can be properly recognized by the model pattern of the machine, so that transmission of abnormal information caused by the person's position and behavior from the control microcomputer to the monitoring terminal can be prevented, and notifications caused by these can be prevented. it can.

上記実施形態の遠隔監視システム1では、第二処理において、エッジを抽出した少なくとも二つの画像のうち第一の画像から抽出したエッジに人のモデルパターンを当てはめる処理(第二ステップ)を行い、次に、この少なくとも二つの画像のうち第一の画像以外の画像から抽出したエッジに人のモデルパターンを当てはめる処理(第三ステップ)を行い、さらに、先ほどの少なくとも二つの画像のうち第一の画像から抽出したエッジに物のモデルパターンを当てはめる処理(第四ステップ)を行い、最後に、先ほどの少なくとも二つの画像のうち第一の画像以外の画像から抽出したエッジに物のモデルパターンを当てはめる処理(第五ステップ)を行っていたが、これらステップを行う順序はこれに限らない。例えば、第二ステップの後に第四ステップを行い、さらに第三ステップと第五ステップとを順に行ってもよい。   In the remote monitoring system 1 of the above embodiment, in the second process, a process (second step) of applying a human model pattern to the edge extracted from the first image among at least two images from which the edge has been extracted is performed, In addition, a process (third step) of applying a human model pattern to an edge extracted from an image other than the first image among the at least two images is performed, and further, the first image of the at least two images is performed. Applying the object model pattern to the edge extracted from (4th step), and finally applying the object model pattern to the edge extracted from the image other than the first image of the previous two images Although (fifth step) was performed, the order of performing these steps is not limited to this. For example, the fourth step may be performed after the second step, and the third step and the fifth step may be performed in order.

また、上述のように、エッジを抽出した少なくとも二つの画像から抽出したエッジに対する人のモデルパターンの当てはめと物のモデルパターンの当てはめは、それぞれ個別の処理として順番に行ってもよいし、モデルパターンの当てはめ及び物のモデルパターンの当てはめを同時に行ってもよい。   In addition, as described above, the fitting of the human model pattern and the fitting of the object model pattern to the edges extracted from at least two images from which the edges have been extracted may be performed in order as individual processes, respectively. The fitting of the object model pattern and the object model pattern may be performed simultaneously.

処理部23は、第一処理で取得した複数の撮像画像から抽出したエッジに対して、人や物のモデルパターンの当てはめを行っていたが、これに限らず、第一処理で取得した複数の撮像画像のうち少なくとも二つの画像から抽出したエッジに対して、人や物のモデルパターンの当てはめを行ってもよい。この場合においても、処理部23は、人や物の位置や挙動を把握することができる。   The processing unit 23 applied the model pattern of the person or the object to the edges extracted from the plurality of captured images acquired in the first process. A model pattern of a person or an object may be applied to edges extracted from at least two images of the captured images. Even in this case, the processing unit 23 can grasp the position and behavior of a person or an object.

処理部23は、人のモデルパターン及び物のモデルパターンとして、各エレベータに共通して設定されたモデルパターンを用いていたが、各エレベータに個別に設定されたモデルパターンを用いてもよい。例えば、各エレベータが設置されている建物内での利用者のシルエットに応じて、個別の人のモデルパターンを追加してもよい。   Although the processing unit 23 uses the model pattern set in common for each elevator as the human model pattern and the object model pattern, the processing unit 23 may use a model pattern set individually for each elevator. For example, a model pattern of an individual person may be added according to the silhouette of the user in a building where each elevator is installed.

人のモデルパターンは、人のパーツ(頭部及び胴部等)を簡略化したもの輪郭を結ぶ線(ワイヤーフレーム)で構成されるモデルパターンであったが、人のパーツをある程度詳細に描いたものの輪郭を結ぶ線(ワイヤーフレーム)で構成されるモデルパターンであってもよい。詳細な人のモデルパターンを用いることで、人の位置や挙動をより詳細に把握することができる。例えば、詳細な人のモデルパターンが、人の瞳、鼻、及び口などの輪郭を結ぶ線を含む場合、撮像画像から抽出されたエッジに対して、人のモデルパターンのうち人の瞳、鼻、及び口に対応する部分をそれぞれ当てはめることで、かご21内が有人であるか否かをより確実に判断することができる。   The human model pattern is a simplified model of human parts (head and torso, etc.) consisting of lines (wire frames) connecting the outlines, but the human parts are drawn in some detail. It may be a model pattern composed of lines (wire frames) connecting the outlines of things. By using a detailed person model pattern, the position and behavior of the person can be grasped in more detail. For example, when the detailed human model pattern includes a line connecting outlines such as the human pupil, nose, and mouth, the human pupil and nose of the human model pattern with respect to the edge extracted from the captured image. By applying the parts corresponding to the mouth and the mouth, it is possible to more reliably determine whether or not the inside of the car 21 is manned.

また、物のモデルパターンは、立方体の各辺を結ぶ線で構成されるモデルパターンであったが、より詳細なモデルパターンを用いてもよい。物のモデルパターンは、例えば、鞄、ベビーカー等の輪郭を結ぶ線で構成されるモデルパターンを含んでもよい。   Further, the model pattern of the object is a model pattern composed of lines connecting the sides of the cube, but a more detailed model pattern may be used. The object model pattern may include, for example, a model pattern constituted by lines connecting outlines of bags, strollers, and the like.

モデルデータ(かごの内部構造のモデルパターン、人のモデルパターン、及び物のモデルパターン等)は、画像認識装置22の記憶部221以外、例えば、エレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバー等に記憶されていてもよい。   Model data (such as a car interior structure model pattern, a person model pattern, and an object model pattern) other than the storage unit 221 of the image recognition device 22, for example, a place different from the elevator 2 (separated from the elevator 2) It may be stored in a server or the like installed at (location).

処理部23は、画像認識装置22に備えられた画像認識処理部220と、制御マイコン20に備えられたマイコン処理部200とを含んでいたが、これに限らず、処理部23の全てが、制御マイコン20に設けられてもよいし、画像認識装置22に設けられてもよい。また、処理部23の少なくとも一部が、エレベータ2以外の構成(例えば、第一サーバー4や、エレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバー)に含まれていてもよい。   The processing unit 23 includes the image recognition processing unit 220 provided in the image recognition device 22 and the microcomputer processing unit 200 provided in the control microcomputer 20, but not limited thereto, all of the processing units 23 are It may be provided in the control microcomputer 20 or may be provided in the image recognition device 22. Further, at least a part of the processing unit 23 is included in a configuration other than the elevator 2 (for example, a server installed in a place different from the elevator 2 (a place away from the elevator 2) from the elevator 2). May be.

例えば、処理部23は、詳細な人のモデルパターンを用いる場合、簡略化した人のモデルパターンを用いる場合と比べて、高い処理能力が必要であるため、処理部23や記憶部221をエレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバーに設けてもよい。   For example, when the processing unit 23 uses a detailed human model pattern, the processing unit 23 and the storage unit 221 are not connected to the elevator 2 because a higher processing capability is required than when a simplified human model pattern is used. You may provide in the server installed in a different place (a place away from the elevator 2).

カメラ210は、かご21内に複数設けられていてもよい。また、カメラ210として、監視カメラを用いる代わりに、監視カメラ以外の別のカメラを用いてもよい。このようなカメラとして、例えば、周囲全体を同時に撮影可能な360°カメラを用いてもよい。   A plurality of cameras 210 may be provided in the car 21. Further, as the camera 210, another camera other than the monitoring camera may be used instead of using the monitoring camera. As such a camera, for example, a 360 ° camera capable of simultaneously photographing the entire periphery may be used.

画像認識処理部220は、第三処理において、人のモデルパターンの座標に基づいて、人とかご21のドアとの接触を判定して、異常情報の出力の送信を阻止していたが、人とドアとの位置関係(人とドアとの距離等)、人とかご21の壁との位置関係、人とかご21の天井との位置関係、人とかご21の床との位置関係、及び、人と操作パネルとの位置関係等を判断して、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2に異常が生じている旨のイベントコード)の出力の送信を阻止してもよい。例えば、人のモデルパターンの両肩や両肘等の座標が、ある一定の期間、かご21の床と接触していると判断した場合、人が倒れているものと判断し、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2に異常が生じている旨のイベントコード)の出力の送信を阻止すると共に、人倒れに関する情報の出力を送信してもよい。   In the third process, the image recognition processing unit 220 determines contact between the person and the door of the car 21 based on the coordinates of the person's model pattern, and prevents transmission of output of abnormality information. The positional relationship between the door and the door (the distance between the person and the door), the positional relationship between the person and the wall of the car 21, the positional relationship between the person and the ceiling of the car 21, the positional relationship between the person and the floor of the car 21, and By judging the positional relationship between the person and the operation panel, the transmission of output of abnormality information (for example, an event code indicating that abnormality has occurred in the elevator 2) from the control microcomputer 20 to the monitoring terminal 3 is prevented. Also good. For example, if it is determined that the coordinates of both shoulders and both elbows of the person's model pattern are in contact with the floor of the car 21 for a certain period, it is determined that the person has fallen and the control microcomputer 20 While transmitting the output of abnormal information (for example, an event code indicating that an abnormality has occurred in the elevator 2) to the monitoring terminal 3 may be blocked, an output of information related to a person falling may be transmitted.

サーバー処理部40は、画像認識処理部220による判定結果を文字情報として管理者端末7及び技術員端末8に出力していたが、音声情報として出力してもよい。   The server processing unit 40 outputs the determination result by the image recognition processing unit 220 to the administrator terminal 7 and the technician terminal 8 as character information, but may output it as voice information.

また、サーバー処理部40は、画像認識処理部220による判定結果を、管理者端末7及び技術員端末8の一方に出力してもよい。例えば、かご21内での悪戯の可能性について管理者端末7のみに送信することで、管理者への注意喚起を行うと共に、他のエレベータに対応している技術員の作業の中断を抑制できる。   Further, the server processing unit 40 may output the determination result by the image recognition processing unit 220 to one of the administrator terminal 7 and the technician terminal 8. For example, by sending only the manager terminal 7 about the possibility of mischief in the car 21, it is possible to alert the manager and to suppress the interruption of the work of technicians corresponding to other elevators.

上記実施形態の遠隔監視システム1は、複数台のエレベータを備えていたが、一台のエレベータを備えていてもよい。また、遠隔監視システム1は、複数台の管理者端末7及び複数台の技術員端末8を備えていたが、一台の管理者端末7及び複数台の技術員端末8を備えていてもよいし、複数台の管理者端末7及び一台の技術員端末8を備えていてもよい。   The remote monitoring system 1 of the above embodiment includes a plurality of elevators, but may include a single elevator. Moreover, although the remote monitoring system 1 was provided with a plurality of administrator terminals 7 and a plurality of technician terminals 8, it may be provided with a single administrator terminal 7 and a plurality of technician terminals 8. A plurality of administrator terminals 7 and one engineer terminal 8 may be provided.

さらに、遠隔監視システム1は、第一サーバー4に接続可能な客先端末を備えていてもよい。客先端末は、例えば、病院や養護老人施設等に設置される。この場合、サーバー処理部40は、画像認識処理部220による判定結果を、客先端末に出力してもよい。例えば、人倒れについての情報を、病院や養護老人施設等に設置された客先端末に送信することで、看護師や介護士等が人倒れに対して適切に対応することができる。尚、このような送信を行うために、データベース50は、エレベータに対応する客先端末に関する情報を人や物の挙動と関連付けて記憶していてもよい(例えば、各エレベータの最寄りの病院の連絡先と人倒れについての情報とを関連付けて記憶していてもよい)。   Further, the remote monitoring system 1 may include a customer terminal that can be connected to the first server 4. The customer terminal is installed in, for example, a hospital or a nursing home for the elderly. In this case, the server processing unit 40 may output the determination result by the image recognition processing unit 220 to the customer terminal. For example, by transmitting information about a person falling to a customer terminal installed in a hospital or a nursing home for the elderly, a nurse or a caregiver can appropriately respond to the person falling. In order to perform such transmission, the database 50 may store information related to the customer terminal corresponding to the elevator in association with the behavior of a person or an object (for example, contact with the nearest hospital of each elevator). You may store the information related to the person's fall with the other party).

通信系統R1は、電話回線を含んでいたが、図7に示すように、電話回線の代わりにインターネットを含んでいてもよい。通信系統R1は、例えば、制御マイコン20から順に遠隔監視ユニット6とインターネットとを介して監視端末3に通信可能であり、且つ、監視端末3から逆にインターネットと遠隔監視ユニット6とを介して制御マイコン20に通信可能な通信系統である。この場合、通信系統R1,R2,R3は、一部(インターネット)で共通している。   The communication system R1 includes a telephone line. However, as shown in FIG. 7, the communication system R1 may include the Internet instead of the telephone line. For example, the communication system R1 can communicate with the monitoring terminal 3 sequentially from the control microcomputer 20 via the remote monitoring unit 6 and the Internet, and is controlled from the monitoring terminal 3 via the Internet and the remote monitoring unit 6 in reverse. This is a communication system capable of communicating with the microcomputer 20. In this case, the communication systems R1, R2, and R3 are common in part (Internet).

また、通信系統R1は、遠隔監視ユニット6を含んでいたが、これを含んでいなくてもよい。この場合、制御マイコン20は、インターネットを介して第一サーバー4に接続される。   Moreover, although communication system R1 included the remote monitoring unit 6, it does not need to include this. In this case, the control microcomputer 20 is connected to the first server 4 via the Internet.

1…遠隔監視システム、2…エレベータ、20…制御マイコン、200…マイコン処理部、21…かご、210…カメラ、211…マイク、212…スピーカー、213…ディスプレイ、22…画像認識装置、220…画像認識処理部、221…記憶部、23…処理部、24…音声認識装置、25…音声案内装置、26…表示案内装置、3…監視端末、4…第一サーバー、40…サーバー処理部、5…第二サーバー、50…データベース、6…遠隔監視ユニット、7…管理者端末、8…技術員端末(技術員携帯端末)、R1,R2,R3…通信系統、P1,P2,P3,P…座標 DESCRIPTION OF SYMBOLS 1 ... Remote monitoring system, 2 ... Elevator, 20 ... Control microcomputer, 200 ... Microcomputer process part, 21 ... Car, 210 ... Camera, 211 ... Microphone, 212 ... Speaker, 213 ... Display, 22 ... Image recognition apparatus, 220 ... Image Recognition processing unit, 221 ... storage unit, 23 ... processing unit, 24 ... voice recognition device, 25 ... voice guidance device, 26 ... display guidance device, 3 ... monitoring terminal, 4 ... first server, 40 ... server processing unit, 5 ... second server 50 ... database, 6 ... remote monitoring unit, 7 ... manager terminal, 8 ... technician terminal (technician mobile terminal), R1, R2, R3 ... communication line, P1, P2, P3, P C ... coordinates

Claims (9)

エレベータに配置された制御マイコンと、
前記制御マイコンに接続され且つ該制御マイコンからの異常情報を受信可能な監視端末と、
前記エレベータのかご内を経時的に撮像する撮像装置と、
前記撮像装置が撮像した画像を処理する処理部と、
前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、
前記モデルデータは、少なくとも一つの人のモデルパターンを含み、
前記処理部は、
前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、
前記少なくとも二つの画像から抽出されたエッジのうちの人に対する像のエッジに、それぞれ前記人のモデルパターンを当てはめる第二処理と、
前記第二処理で当てはめた人のモデルパターンの座標が第一の特定の座標にあるとき、又は、前記第二処理において人のモデルパターンを当てはめた画像における前後の画像での人のモデルパターンの座標の変化が第一の特定の挙動を示したときに、前記制御マイコンから前記監視端末への異常情報の送信であって前記人のモデルパターンが当てはめられた人の挙動に起因する異常情報の送信を阻止する第三処理と、を行う、
ことを特徴とするエレベータの遠隔監視システム。
A control microcomputer located in the elevator;
A monitoring terminal connected to the control microcomputer and capable of receiving abnormality information from the control microcomputer;
An imaging device that images the interior of the elevator car over time;
A processing unit for processing an image captured by the imaging device;
A storage unit that stores model data to be compared with an image captured by the imaging device;
The model data includes a model pattern of at least one person,
The processor is
A first process of extracting edges from at least two images out of a plurality of images captured by the imaging device;
A second process of applying the model pattern of the person to each of the edges of the image for the person among the edges extracted from the at least two images;
When the coordinates of the human model pattern applied in the second process are at the first specific coordinates, or in the images before and after the image applied with the human model pattern in the second process When the change in coordinates indicates the first specific behavior, the abnormal information is transmitted from the control microcomputer to the monitoring terminal and the abnormal information caused by the behavior of the person to which the human model pattern is applied. And a third process for blocking transmission,
An elevator remote monitoring system characterized by that.
前記モデルデータは、少なくとも一つのかごの内部構造のモデルパターンも含み、
前記第二処理は、
前記少なくとも二つの画像のうちの一つの画像から抽出されたエッジにおけるかごの内部構造に対する像のエッジに前記かごの内部構造のモデルパターンを当てはめる第一ステップと、
前記一つの画像から抽出されたエッジのうちの前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記人のモデルパターンを当てはめる第二ステップと、
前記少なくとも二つの画像のうちの前記一つの画像以外の画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記第二ステップにおいて当てはめた人のモデルパターンを当てはめる第三ステップとを有する、請求項1に記載のエレベータの遠隔監視システム。
The model data also includes a model pattern of the internal structure of at least one car,
The second process includes
Applying a model pattern of the internal structure of the car to an edge of the image relative to the internal structure of the car at an edge extracted from one of the at least two images;
A second step of applying the person's model pattern to an edge other than the edge that overlaps the model pattern of the internal structure of the cage among the edges extracted from the one image;
The model pattern of the person applied in the second step is applied to an edge other than the edge that overlaps the model pattern of the internal structure of the cage in the edge extracted from the image other than the one image of the at least two images. The elevator remote monitoring system according to claim 1, further comprising a third step.
エレベータに配置された制御マイコンと、
前記制御マイコンに接続され且つ該制御マイコンからの異常情報を受信可能な監視端末と、
前記エレベータのかご内を経時的に撮像する撮像装置と、
前記撮像装置が撮像した画像を処理する処理部と、
前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、
前記モデルデータは、少なくとも一つの物のモデルパターンを含み、
前記処理部は、
前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、
前記少なくとも二つの画像から抽出されたエッジのうちの物に対する像のエッジに、それぞれ前記物のモデルパターンを当てはめる第二処理と、
前記第二処理で当てはめた物のモデルパターンの座標が第二の特定の座標にあるとき、又は、前記第二処理において物のモデルパターンを当てはめた画像における前後の画像での物のモデルパターンの座標の変化が第二の特定の挙動を示したときに、前記制御マイコンから前記監視端末への異常情報の送信であって前記物のモデルパターンが当てはめられた物の位置又は挙動に起因する異常情報の送信を阻止する第三処理と、を行う、
ことを特徴とするエレベータの遠隔監視システム。
A control microcomputer located in the elevator,
A monitoring terminal connected to the control microcomputer and capable of receiving abnormality information from the control microcomputer;
An imaging device that images the interior of the elevator car over time;
A processing unit for processing an image captured by the imaging device;
A storage unit that stores model data to be compared with an image captured by the imaging device;
The model data includes a model pattern of at least one object,
The processor is
A first process of extracting edges from at least two images out of a plurality of images captured by the imaging device;
A second process of applying a model pattern of the object to an edge of an image for the object among the edges extracted from the at least two images;
When the coordinates of the model pattern of the object applied in the second process are at the second specific coordinates, or the model pattern of the object in the preceding and succeeding images in the image applied with the model pattern of the object in the second process Abnormality caused by the position or behavior of the object to which the model pattern of the object is applied when the change in coordinates indicates a second specific behavior, which is transmission of abnormality information from the control microcomputer to the monitoring terminal Performing a third process for preventing transmission of information,
An elevator remote monitoring system characterized by that.
前記モデルデータは、少なくとも一つのかごの内部構造のモデルパターンも含み、
前記第二処理は、
前記少なくとも二つの画像のうちの一つの画像から抽出されたエッジにおけるかごの内部構造に対する像のエッジに前記かごの内部構造のモデルパターンを当てはめる第一ステップと、
前記一つの画像から抽出されたエッジのうちの前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記物のモデルパターンを当てはめる第二ステップと、
前記少なくとも二つの画像のうちの前記一つの画像以外の画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記第二ステップにおいて当てはめた物のモデルパターンを当てはめる第三ステップとを有する、請求項3に記載のエレベータの遠隔監視システム。
The model data also includes a model pattern of the internal structure of at least one car,
The second process includes
Applying a model pattern of the internal structure of the car to an edge of the image relative to the internal structure of the car at an edge extracted from one of the at least two images;
A second step of applying the model pattern of the object to an edge other than the edge that overlaps the model pattern of the internal structure of the cage among the edges extracted from the one image;
The model pattern of the object applied in the second step is applied to an edge other than an edge that overlaps a model pattern of the internal structure of the cage in an edge extracted from an image other than the one image of the at least two images. The elevator remote monitoring system according to claim 3, further comprising a third step.
前記モデルデータは、少なくとも一つの物のモデルパターンも含み、
前記処理部は、
前記第二処理において、前記少なくとも二つの画像から抽出されたエッジのうちの物に対する像のエッジに、それぞれ前記物のモデルパターンを当てはめ、
前記第三処理において、前記第二処理で当てはめた前記物のモデルパターンの座標が第二の特定の座標にあるとき、又は、前記第二処理において物のモデルパターンを当てはめた画像における前後の画像での前記物のモデルパターンの座標の変化が第二の特定の挙動を示したときに、前記制御マイコンから前記監視端末への前記異常情報の送信であって前記物のモデルパターンが当てはめられた物の位置又は挙動に起因する前記異常情報の送信を阻止する、請求項1に記載のエレベータの遠隔監視システム。
The model data also includes a model pattern of at least one object,
The processor is
In the second process, a model pattern of the object is applied to each edge of the image for the object among the edges extracted from the at least two images,
In the third process, when the coordinates of the model pattern of the object applied in the second process are at the second specific coordinates, or before and after the image in which the model pattern of the object is applied in the second process When the change in the coordinates of the model pattern of the object at the second time shows a second specific behavior, the abnormal information is transmitted from the control microcomputer to the monitoring terminal, and the model pattern of the object is applied. The elevator remote monitoring system according to claim 1, wherein transmission of the abnormality information due to an object position or behavior is prevented.
前記かごは、開閉するドアを含み、
前記第二の特定の座標は、前記ドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にある、請求項3〜5のうちいずれか1項に記載のエレベータの遠隔監視システム。
The car includes a door that opens and closes,
The remote of the elevator according to any one of claims 3 to 5, wherein the second specific coordinates are in at least one of an area where the surface of the door exists and an area on the track of the door. Monitoring system.
前記第二の特定の挙動での前記第二処理における前記前後の画像での前記物のモデルパターンの座標の変化は、上下方向又は水平方向の往復動である、請求項3〜6のいずれか1項に記載のエレベータの遠隔監視システム。   The change in the coordinate of the model pattern of the object in the front and back images in the second processing in the second specific behavior is a reciprocating motion in the vertical direction or the horizontal direction. The elevator remote monitoring system according to claim 1. 前記かごは、開閉するドアを含み、
前記第一の特定の座標は、前記ドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にある、請求項1、2、5のいずれか1項に記載のエレベータの遠隔監視システム。
The car includes a door that opens and closes,
6. The elevator according to claim 1, wherein the first specific coordinates are in at least one of an area where the surface of the door exists and an area on the track of the door. Remote monitoring system.
前記第一の特定の挙動での前記第二処理における前記前後の画像での前記人のモデルパターンの座標の変化は、上下方向又は水平方向の往復動である、請求項1、2、5、8のいずれか1項に記載のエレベータの遠隔監視システム。   The change in the coordinates of the model pattern of the person in the front and back images in the second processing in the first specific behavior is a reciprocating motion in the vertical direction or the horizontal direction. The elevator remote monitoring system according to claim 8.
JP2017013390A 2017-01-27 2017-01-27 Elevator remote monitoring system Active JP6667144B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017013390A JP6667144B2 (en) 2017-01-27 2017-01-27 Elevator remote monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017013390A JP6667144B2 (en) 2017-01-27 2017-01-27 Elevator remote monitoring system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019230105A Division JP6810914B2 (en) 2019-12-20 2019-12-20 Elevator remote monitoring system

Publications (2)

Publication Number Publication Date
JP2018118843A true JP2018118843A (en) 2018-08-02
JP6667144B2 JP6667144B2 (en) 2020-03-18

Family

ID=63044759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017013390A Active JP6667144B2 (en) 2017-01-27 2017-01-27 Elevator remote monitoring system

Country Status (1)

Country Link
JP (1) JP6667144B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018122979A (en) * 2017-02-02 2018-08-09 フジテック株式会社 User support system of elevator

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007031018A (en) * 2005-07-22 2007-02-08 Mitsubishi Electric Building Techno Service Co Ltd Crime prevention operation device for elevator and crime prevention operation setting changing method
JP2012133665A (en) * 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd Held object recognition device, held object recognition method and held object recognition program
JP2017043462A (en) * 2015-08-27 2017-03-02 株式会社日立ビルシステム Opening/closing abnormality determination device of elevator
JP2017069748A (en) * 2015-09-30 2017-04-06 グローリー株式会社 Monitor camera system and monitoring method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007031018A (en) * 2005-07-22 2007-02-08 Mitsubishi Electric Building Techno Service Co Ltd Crime prevention operation device for elevator and crime prevention operation setting changing method
JP2012133665A (en) * 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd Held object recognition device, held object recognition method and held object recognition program
JP2017043462A (en) * 2015-08-27 2017-03-02 株式会社日立ビルシステム Opening/closing abnormality determination device of elevator
JP2017069748A (en) * 2015-09-30 2017-04-06 グローリー株式会社 Monitor camera system and monitoring method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018122979A (en) * 2017-02-02 2018-08-09 フジテック株式会社 User support system of elevator

Also Published As

Publication number Publication date
JP6667144B2 (en) 2020-03-18

Similar Documents

Publication Publication Date Title
EP2885777B1 (en) Surveillance system
JP6115692B1 (en) Behavior detecting device, method and program, and monitored person monitoring device
JP7243110B2 (en) Information processing device and information processing method, computer program, and package reception support system
JP4797720B2 (en) Monitoring device and method, image processing device and method, and program
JP6810914B2 (en) Elevator remote monitoring system
JP2011128911A (en) Target detection system, target detection method, target detecting apparatus and mobile information acquisition device
JP2019106631A (en) Image monitoring device
WO2020110879A1 (en) Suspicious and abnormal object detector
CN110540116A (en) Elevator monitoring method, device and system
JP6557853B2 (en) Abnormal state notification system, abnormal state notification program, abnormal state notification method, and abnormal state notification device
JP6667144B2 (en) Elevator remote monitoring system
JP2018094683A (en) Watching type pet robot
JP2018127349A (en) Door control system for elevator
JP6886645B2 (en) Elevator user support system
JP6722408B2 (en) Elevator user support system
JP2020013185A (en) Watching device and watching device control program
WO2022196214A1 (en) Monitoring system
WO2023095196A1 (en) Passenger monitoring device, passenger monitoring method, and non-transitory computer-readable medium
JP7430088B2 (en) speech control device
KR20120053096A (en) Network robot system, robot control apparatus, robot control method and robot control program
JP2022016979A (en) Casualty detection device, casualty detection system, and casualty detection method
JP2012208850A (en) Abnormality detection apparatus
JP5669648B2 (en) Anomaly detection device
KR101159941B1 (en) Elevator monitoring system and operating method thereof
CN116189238B (en) Human shape detection and identification fall detection method based on neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200206

R150 Certificate of patent or registration of utility model

Ref document number: 6667144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250