JP6810914B2 - Elevator remote monitoring system - Google Patents

Elevator remote monitoring system Download PDF

Info

Publication number
JP6810914B2
JP6810914B2 JP2019230105A JP2019230105A JP6810914B2 JP 6810914 B2 JP6810914 B2 JP 6810914B2 JP 2019230105 A JP2019230105 A JP 2019230105A JP 2019230105 A JP2019230105 A JP 2019230105A JP 6810914 B2 JP6810914 B2 JP 6810914B2
Authority
JP
Japan
Prior art keywords
model pattern
person
image
car
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019230105A
Other languages
Japanese (ja)
Other versions
JP2020040839A (en
Inventor
行宏 宮川
行宏 宮川
正一 若林
正一 若林
文隆 赤坂
文隆 赤坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP2019230105A priority Critical patent/JP6810914B2/en
Publication of JP2020040839A publication Critical patent/JP2020040839A/en
Application granted granted Critical
Publication of JP6810914B2 publication Critical patent/JP6810914B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、エレベータを遠隔監視する遠隔監視システムに関する。 The present invention relates to a remote monitoring system that remotely monitors an elevator.

従来から、エレベータの動作状況を監視する遠隔監視システムが提供されている。遠隔監視システムは、動作を制御するための制御マイコンを含むエレベータと、エレベータの制御マイコンに通信可能に接続され且つエレベータの動作を遠隔で監視するための端末とを備える(特許文献1参照)。 Conventionally, a remote monitoring system for monitoring the operating status of an elevator has been provided. The remote monitoring system includes an elevator including a control microcomputer for controlling the operation, and a terminal communicably connected to the control microcomputer of the elevator and for remotely monitoring the operation of the elevator (see Patent Document 1).

かかるシステムでは、エレベータに異常等が発生した場合、エレベータ(制御マイコン)からの信号を基に、監視センターの端末(監視端末)が監視センターの監視員にエレベータの動作状況を報知する。この監視端末の報知により、監視員は、エレベータに異常等が発生したことを認識し、技術員にエレベータへの出向を要請する。 In such a system, when an abnormality occurs in the elevator, the terminal (monitoring terminal) of the monitoring center notifies the monitoring staff of the monitoring center of the operating status of the elevator based on the signal from the elevator (control microcomputer). By the notification of this monitoring terminal, the observer recognizes that an abnormality has occurred in the elevator and requests the technician to be seconded to the elevator.

しかし、上記システムでは、監視端末が、エレベータの異常等が発生したことを報知するにすぎないため、監視員はエレベータの異常等の発生原因を把握することができない。 However, in the above system, since the monitoring terminal only notifies that an elevator abnormality or the like has occurred, the observer cannot grasp the cause of the elevator abnormality or the like.

エレベータの報知の原因には、人為的なもの、例えば、荷物の積み下ろし時に戸閉動作を阻止する行為等が含まれる。そのため、上記の人為的なものが原因で報知があった場合、監視員から出向要請を受けた技術員が、エレベータの異常等の発生原因を確認するために現場に向かっても、技術員が現場に到着した時点では報知の原因が解消していることがあり、技術員の出向が無駄になることがある。 Causes of elevator notifications include artificial ones, such as the act of blocking the door closing operation when loading and unloading cargo. Therefore, if there is a notification due to the above-mentioned artificial things, the technician who received the secondment request from the observer goes to the site to check the cause of the elevator abnormality, etc. At the time of arrival, the cause of the notification may have been resolved, and the secondment of the technician may be wasted.

特開2003−212447号公報Japanese Unexamined Patent Publication No. 2003-212447

そこで、本発明は、人及び物の少なくとも一方の位置や挙動に起因する報知を防ぐことのできるエレベータの監視システムを提供する。 Therefore, the present invention provides an elevator monitoring system capable of preventing notification due to the position or behavior of at least one of a person and an object.

本発明のエレベータの遠隔監視システムは、エレベータに配置された制御マイコンと、前記制御マイコンに接続され且つ該制御マイコンからの異常情報を受信可能な監視端末と、前記エレベータのかご内を経時的に撮像する撮像装置と、前記撮像装置が撮像した画像を処理する処理部と、前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、前記モデルデータは、少なくとも一つの人のモデルパターンを含み、前記処理部は、前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、前記少なくとも二つの画像から抽出されたエッジのうちの人に対する像のエッジに、それぞれ前記人のモデルパターンを当てはめる第二処理と、前記第二処理で当てはめた人のモデルパターンの座標が第一の特定の座標にあるとき、又は、前記第二処理において人のモデルパターンを当てはめた画像における前後の画像での人のモデルパターンの座標の変化が第一の特定の挙動を示したときに、前記制御マイコンから前記監視端末への異常情報の送信であって前記人のモデルパターンが当てはめられた人の挙動に起因する異常情報の送信を阻止する第三処理と、を行う、ことを特徴とする。 The remote monitoring system for an elevator of the present invention has a control microcomputer arranged in the elevator, a monitoring terminal connected to the control microcomputer and capable of receiving abnormality information from the control microcomputer, and the inside of the elevator car over time. The model data includes an image pickup device for imaging, a processing unit for processing an image captured by the image pickup device, and a storage unit for storing model data to be compared with the image captured by the image pickup device. The processing unit includes a first process of extracting edges from at least two images of a plurality of images captured by the image pickup apparatus, and a first process of extracting edges from the at least two images, respectively, including a model pattern of at least one person. When the second process of applying the model pattern of the person to the edge of the image for the person among the extracted edges and the coordinates of the model pattern of the person applied in the second process are at the first specific coordinates, or When the change in the coordinates of the human model pattern in the images before and after the image to which the human model pattern is applied in the second process shows the first specific behavior, the control microcomputer is transferred to the monitoring terminal. It is characterized in that it performs a third process of transmitting anomalous information and preventing transmission of anomalous information due to the behavior of the person to which the model pattern of the person is applied.

上記エレベータの遠隔監視システムでは、人のモデルパターンによって人の位置や挙動が適正に認識できる。そのため、異常情報が出力される可能性の高い位置に人が滞在しているとき、及び、異常情報が出力される可能性の高い挙動を人が行っているとき、即ち、人がその位置から移動したり、人がこの挙動を停止したりすることで、異常情報の出力される原因が解消されるような場合に、これらの人の位置や挙動に起因する(人為的な原因での)報知(制御マイコンから監視端末への異常情報の送信)を防ぐことができる。 In the remote monitoring system of the elevator, the position and behavior of a person can be properly recognized by the model pattern of the person. Therefore, when a person is staying at a position where the abnormality information is likely to be output, and when the person is performing a behavior with a high possibility that the abnormality information is output, that is, the person is from that position. When the cause of the output of abnormal information is eliminated by moving or stopping this behavior, it is caused by the position and behavior of these people (due to artificial causes). Notification (transmission of abnormal information from the control microcomputer to the monitoring terminal) can be prevented.

前記エレベータの遠隔監視システムでは、前記モデルデータは、少なくとも一つのかごの内部構造のモデルパターンも含み、前記第二処理は、前記少なくとも二つの画像のうちの一つの画像から抽出されたエッジにおけるかごの内部構造に対する像のエッジに前記かごの内部構造のモデルパターンを当てはめる第一ステップと、前記一つの画像から抽出されたエッジのうちの前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記人のモデルパターンを当てはめる第二ステップと、前記少なくとも二つの画像のうち前記一つの画像以外の画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記第二ステップにおいて当てはめた人のモデルパターンを当てはめる第三ステップとを有してもよい。 In the remote monitoring system of the elevator, the model data also includes a model pattern of the internal structure of at least one car, and the second process is a car at the edge extracted from one of the at least two images. The first step of applying the model pattern of the internal structure of the car to the edge of the image with respect to the internal structure of the above, and the edge other than the edge overlapping the model pattern of the internal structure of the car among the edges extracted from the one image. The second step of applying the model pattern of the person, and the edge other than the edge overlapping the model pattern of the internal structure of the car in the edge extracted from the image other than the one image of the at least two images. It may have a third step of fitting the model pattern of the person who fitted it in the second step.

かかる構成によれば、撮像画像から抽出されたエッジのうちかごの内部構造のモデルパターンに重なるエッジ以外のエッジに対して人のモデルパターンを当てはめることで、より適正に人のモデルパターンの当てはめることができるため、人の位置や挙動がさらに適正に認識できる。これにより、人の位置や挙動に起因する報知をより適正に防ぐことができる。 According to this configuration, the human model pattern can be applied more appropriately by applying the human model pattern to the edges other than the edges that overlap the model pattern of the internal structure of the car among the edges extracted from the captured image. Because of this, the position and behavior of a person can be recognized more appropriately. As a result, it is possible to more appropriately prevent notifications caused by the position and behavior of a person.

本発明の別のエレベータの遠隔監視システムでは、エレベータに配置された制御マイコンと、前記制御マイコンに接続され且つ該制御マイコンからの異常情報を受信可能な監視端末と、前記エレベータのかご内を経時的に撮像する撮像装置と、前記撮像装置が撮像した画像を処理する処理部と、前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、前記モデルデータは、少なくとも一つの物のモデルパターンを含み、前記処理部は、前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、前記少なくとも二つの画像から抽出されたエッジのうちの物に対する像のエッジに、それぞれ前記物のモデルパターンを当てはめる第二処理と、前記第二処理で当てはめた物のモデルパターンの座標が第二の特定の座標にあるとき、又は、前記第二処理において物のモデルパターンを当てはめた画像における前後の画像での物のモデルパターンの座標の変化が第二の特定の挙動を示したときに、前記制御マイコンから前記監視端末への異常情報の送信であって前記物のモデルパターンが当てはめられた物の位置又は挙動に起因する異常情報の送信を阻止する第三処理と、を行う、ことを特徴とする。 In another elevator remote monitoring system of the present invention, a control microcomputer arranged in the elevator, a monitoring terminal connected to the control microcomputer and capable of receiving abnormality information from the control microcomputer, and the inside of the elevator car over time. The model includes an image pickup device that specifically captures an image, a processing unit that processes an image captured by the image pickup device, and a storage unit that stores model data to be compared with the image captured by the image pickup device. The data includes a model pattern of at least one object, and the processing unit includes a first process of extracting edges from at least two images out of a plurality of images captured by the image pickup apparatus, and at least two of the images. The second process of applying the model pattern of the object to the edge of the image with respect to the object among the edges extracted from the image, and the coordinates of the model pattern of the object applied in the second process become the second specific coordinates. At one time, or when the change in the coordinates of the model pattern of the object in the images before and after the image to which the model pattern of the object is applied in the second process shows the second specific behavior, the control microcomputer causes the above. It is characterized in that it performs a third process of transmitting anomalous information to a monitoring terminal and preventing transmission of anomalous information due to the position or behavior of the object to which the model pattern of the object is applied.

上記エレベータの遠隔監視システムでは、物のモデルパターンによって物の位置や挙動が適正に認識できる。そのため、異常情報が出力される可能性の高い位置に物が滞在しているとき、及び、異常情報が出力される可能性の高い挙動を物が行っているとき、即ち、物がその位置から移動したり、物がこの挙動を停止したりすることで、異常情報の出力される原因が解消されるような場合に、これらの物の位置や挙動に起因する報知(制御マイコンから監視端末への異常情報の送信)を防ぐことができる。 In the remote monitoring system of the elevator, the position and behavior of the object can be properly recognized by the model pattern of the object. Therefore, when the object is staying at a position where the abnormality information is likely to be output, and when the object is performing the behavior with which the abnormality information is likely to be output, that is, the object is from that position. When the cause of the output of abnormal information is resolved by moving or stopping this behavior, notification (from the control microcomputer to the monitoring terminal) caused by the position and behavior of these objects (Transmission of abnormal information) can be prevented.

前記エレベータの遠隔監視システムでは、前記モデルデータは、少なくとも一つのかごの内部構造のモデルパターンも含み、前記第二処理は、前記少なくとも二つの画像のうちの一つの画像から抽出されたエッジにおけるかごの内部構造に対する像のエッジに前記かごの内部構造のモデルパターンを当てはめる第一ステップと、前記一つの画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記物のモデルパターンを当てはめる第二ステップと、前記少なくとも二つの画像のうち前記一つの画像以外の画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記第二ステップにおいて当てはめた物のモデルパターンを当てはめる第三ステップとを有してもよい。 In the remote monitoring system of the elevator, the model data also includes a model pattern of the internal structure of at least one car, and the second process is a car at the edge extracted from one of the at least two images. The first step of applying the model pattern of the internal structure of the car to the edge of the image with respect to the internal structure of the above, and the edge other than the edge overlapping the model pattern of the internal structure of the car in the edge extracted from the one image. The second step of applying the model pattern of the object and the second step of the edge other than the edge overlapping the model pattern of the internal structure of the car in the edge extracted from the image other than the one image of the at least two images. It may have a third step of fitting the model pattern of the fitted object in the step.

かかる構成によれば、撮像画像から抽出されたエッジのうちかごの内部構造のモデルパターンに重なるエッジ以外のエッジに対して物のモデルパターンを当てはめることで、より適正に物のモデルパターンの当てはめることができるため、物の位置や挙動がさらに適正に認識できる。これにより、物の位置や挙動に起因する報知をより適正に防ぐことができる。 According to this configuration, by applying the model pattern of the object to the edges other than the edges that overlap the model pattern of the internal structure of the car among the edges extracted from the captured image, the model pattern of the object can be applied more appropriately. Therefore, the position and behavior of an object can be recognized more appropriately. As a result, it is possible to more appropriately prevent notification due to the position and behavior of the object.

前記エレベータの遠隔監視システムでは、モデルデータは、少なくとも一つの物のモデルパターンも含み、前記第二処理において、前記少なくとも二つの画像から抽出されたエッジのうちの物に対する像のエッジに、それぞれ前記物のモデルパターンを当てはめ、前記第三処理において、前記第二処理で当てはめた前記物のモデルパターンの座標が第二の特定の座標にあるとき、又は、前記第二処理において物のモデルパターンを当てはめた画像における前後の画像での前記物のモデルパターンの座標の変化が第二の特定の挙動を示したときに、前記制御マイコンから前記監視端末への前記異常情報の送信であって前記物のモデルパターンが当てはめられた物の位置又は挙動に起因する前記異常情報の送信を阻止してもよい。 In the remote monitoring system of the elevator, the model data also includes a model pattern of at least one object, and in the second process, the edge of the image with respect to the object among the edges extracted from the at least two images, respectively. When the model pattern of the object is applied and the coordinates of the model pattern of the object applied in the second process are at the second specific coordinates in the third process, or the model pattern of the object is applied in the second process. When the change in the coordinates of the model pattern of the object in the images before and after the fitted image shows the second specific behavior, the abnormality information is transmitted from the control microcomputer to the monitoring terminal. The transmission of the anomaly information due to the position or behavior of the object to which the model pattern of is applied may be blocked.

かかる構成によれば、人のモデルパターンによって人の位置や挙動が適正に認識できることに加えて、物のモデルパターンによって物の位置や挙動が適正に認識できる。そのため、人の位置や挙動に起因する報知に加えて、物の位置や挙動に起因する報知も防ぐことができる。 According to such a configuration, in addition to being able to properly recognize the position and behavior of a person by the model pattern of a person, the position and behavior of an object can be properly recognized by the model pattern of an object. Therefore, in addition to the notification caused by the position and behavior of a person, the notification caused by the position and behavior of an object can be prevented.

前記エレベータの遠隔監視システムでは、前記かごは、開閉するドアを含み、前記第二の特定の座標は、前記ドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にあってもよい。 In the elevator remote monitoring system, the car comprises a door that opens and closes, and the second particular coordinate is in at least one region of the surface of the door and the region of the door in orbit. You may.

かかる構成によれば、物のモデルパターンの座標がドアの表面の存在する領域と重なるとき(物とドアとが接触したとき)、及び、物のモデルパターンの座標がドアの軌道上の領域と重なるとき(物がドアと接触する見込みであるとき)の少なくとも一方に該当するとき、異常情報の制御マイコンから監視端末への送信が阻止されるため、物によってドアの開閉が阻害されたこと等に起因する報知(技術員がエレベータに到着した時点で報知の原因が解消している可能性の高い場合での報知)を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。 According to this configuration, when the coordinates of the model pattern of the object overlap with the area where the surface of the door exists (when the object and the door come into contact with each other), and when the coordinates of the model pattern of the object overlap with the area on the orbit of the door. When at least one of the overlapping cases (when an object is expected to come into contact with the door) is applicable, the transmission of abnormal information from the control microcomputer to the monitoring terminal is blocked, so that the opening and closing of the door is hindered by the object, etc. It is possible to prevent the notification caused by the above (notification when there is a high possibility that the cause of the notification has been resolved when the engineer arrives at the elevator). As a result, it is possible to prevent the secondment of technicians from being wasted.

前記エレベータの遠隔監視システムでは、前記第二の特定の挙動での前記第二処理における前記前後の画像での前記物のモデルパターンの座標の変化は、上下方向又は水平方向の往復動であってもよい。 In the remote monitoring system of the elevator, the change in the coordinates of the model pattern of the object in the images before and after the second process in the second specific behavior is a reciprocating motion in the vertical direction or the horizontal direction. May be good.

かかる構成によれば、物の上下方向又は水平方向の往復動が生じているとき、例えば、人が運んでいる荷物が落下したり、人がボールをバウンドさせたり、人がボールを壁に投げたりしているとき、異常情報の制御マイコンから監視端末への送信が阻止されるため、このような事象等に起因する報知(技術員がエレベータに到着した時点で報知の原因が解消している可能性の高い場合での報知)を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。 According to this configuration, when an object is reciprocating vertically or horizontally, for example, a load carried by a person falls, a person bounces a ball, or a person throws a ball at a wall. Since the transmission of abnormal information from the control microcomputer to the monitoring terminal is blocked during this time, the cause of the notification due to such an event (the cause of the notification may be eliminated when the technician arrives at the elevator). Notification in the case of high sex) can be prevented. As a result, it is possible to prevent the secondment of technicians from being wasted.

前記エレベータの遠隔監視システムでは、前記かごは、開閉するドアを含み、前記第一の特定の座標は、前記ドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にあってもよい。 In the elevator remote monitoring system, the car comprises a door that opens and closes, and the first particular coordinate is in at least one region of the surface of the door and the region of the door in orbit. You may.

かかる構成によれば、人のモデルパターンの座標がドアの表面の存在する領域と重なるとき(人がドアと接触したとき)、及び、人のモデルパターンの座標がドアの軌道上の領域と重なるとき(人がドアと接触する見込みであるとき)の少なくとも一方に該当するとき、異常情報の制御マイコンから監視端末への送信が阻止されるため、人がドアの挙動を阻害すること等に起因する報知(技術員がエレベータに到着した時点で報知の原因が解消している可能性の高い場合での報知)を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。 According to this configuration, when the coordinates of the human model pattern overlap with the area where the surface of the door exists (when the person comes into contact with the door), and when the coordinates of the human model pattern overlap with the area on the orbit of the door. When at least one of the times (when a person is expected to come into contact with the door) is applicable, the transmission of abnormal information from the control microcomputer to the monitoring terminal is blocked, which causes the person to obstruct the behavior of the door. It is possible to prevent the notification (notification when there is a high possibility that the cause of the notification has been resolved when the engineer arrives at the elevator). As a result, it is possible to prevent the secondment of technicians from being wasted.

前記エレベータの遠隔監視システムでは、前記第一の特定の挙動での前記第二処理における前記前後の画像での前記人のモデルパターンの座標の変化は、上下方向又は水平方向の往復動であってもよい。 In the remote monitoring system of the elevator, the change in the coordinates of the model pattern of the person in the images before and after the second process in the first specific behavior is a reciprocating motion in the vertical direction or the horizontal direction. May be good.

かかる構成によれば、人の上下方向又は水平方向の往復動が生じているとき、例えば、人がかごを揺らす動作を行っているとき(例えば、人が飛び跳ねているとき)、異常情報の制御マイコンから監視端末への送信が阻止されるため、人の飛び跳ね等に起因する報知(技術員がエレベータに到着した時点で報知の原因が解消している可能性の高い場合での報知)を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。 According to such a configuration, when a person is reciprocating in the vertical or horizontal direction, for example, when the person is shaking the car (for example, when the person is jumping), abnormality information is controlled. Since transmission from the microcomputer to the monitoring terminal is blocked, it is necessary to prevent notifications caused by jumping people (notifications when the cause of the notification is likely to have been resolved when the technician arrives at the elevator). Can be done. As a result, it is possible to prevent the secondment of technicians from being wasted.

以上より、本発明によれば、人及び物の少なくとも一方の位置や挙動に起因する報知を防ぐことができる。 From the above, according to the present invention, it is possible to prevent notification caused by the position and behavior of at least one of a person and an object.

図1は、本発明の一実施形態に係るエレベータの遠隔監視システムのブロック図である。FIG. 1 is a block diagram of an elevator remote monitoring system according to an embodiment of the present invention. 図2は、同実施形態に係るエレベータの遠隔監視システムで用いられる人のモデルパターンを示す図である。FIG. 2 is a diagram showing a model pattern of a person used in the remote monitoring system of the elevator according to the embodiment. 図3は、同実施形態に係るエレベータの遠隔監視システムで用いられる物のモデルパターンを示す図である。FIG. 3 is a diagram showing a model pattern of an object used in the remote monitoring system of the elevator according to the embodiment. 図4は、同実施形態に係るエレベータの遠隔監視システムで用いられるかごの内部構造のモデルパターンを示す図である。FIG. 4 is a diagram showing a model pattern of the internal structure of the car used in the remote monitoring system of the elevator according to the same embodiment. 図5は、同実施形態に係るエレベータの遠隔監視システムの処理を示すフローチャート図である。FIG. 5 is a flowchart showing the processing of the remote monitoring system for the elevator according to the embodiment. 図6は、同実施形態に係るエレベータの遠隔監視システムの処理を示すフローチャート図である。FIG. 6 is a flowchart showing the processing of the remote monitoring system for the elevator according to the embodiment. 図7は、本発明の変形例に係るエレベータの遠隔監視システムのブロック図である。FIG. 7 is a block diagram of an elevator remote monitoring system according to a modified example of the present invention.

以下、本発明に係るエレベータの遠隔監視システム(以下、単に遠隔監視システムという)について説明する。遠隔監視システムは、エレベータの動作状況を遠隔で監視すると共に、監視センターの監視員にエレベータの動作状況を報知するシステムである。この遠隔監視システムでは、監視員は、監視端末による報知を確認することで、エレベータに異常等が発生したことを認識し、技術員にエレベータへの出向を要請することができる。 Hereinafter, a remote monitoring system for an elevator according to the present invention (hereinafter, simply referred to as a remote monitoring system) will be described. The remote monitoring system is a system that remotely monitors the operating status of the elevator and notifies the monitoring staff of the monitoring center of the operating status of the elevator. In this remote monitoring system, the observer can recognize that an abnormality has occurred in the elevator by confirming the notification by the monitoring terminal, and can request the technician to be seconded to the elevator.

遠隔監視システムは、図1に示すように、エレベータ2に配置された制御マイコン20と、エレベータ2のかご21内を撮像するカメラ(撮像装置)210と、カメラ210が撮像した画像(撮像画像)を処理する処理部23と、撮像画像との比較の対象となるモデルデータを記憶する記憶部221と、制御マイコン20に接続された監視端末3と、を備える。 As shown in FIG. 1, the remote monitoring system includes a control microcomputer 20 arranged in the elevator 2, a camera (imaging device) 210 that images the inside of the car 21 of the elevator 2, and an image (captured image) captured by the camera 210. A processing unit 23 for processing the above, a storage unit 221 for storing model data to be compared with the captured image, and a monitoring terminal 3 connected to the control microcomputer 20 are provided.

本実施形態の遠隔監視システム1では、カメラ210に画像認識装置22が接続されている。記憶部221は、画像認識装置22に備えられている。また、処理部23は、画像認識装置22に備えられた画像認識処理部220と、制御マイコン20に備えられたマイコン処理部200とを含む。 In the remote monitoring system 1 of the present embodiment, the image recognition device 22 is connected to the camera 210. The storage unit 221 is provided in the image recognition device 22. Further, the processing unit 23 includes an image recognition processing unit 220 provided in the image recognition device 22, and a microcomputer processing unit 200 provided in the control microcomputer 20.

本実施形態の遠隔監視システム1は、監視端末3に接続された第一サーバー4と、第一サーバー4に接続された第二サーバー5とを備える。また、本実施形態の遠隔監視システム1は、制御マイコン20と監視端末3との間に接続された遠隔監視ユニット6を備える。さらに、本実施形態の遠隔監視システム1は、第一サーバー4にそれぞれ接続可能な管理者端末7と技術員端末8とを備える。 The remote monitoring system 1 of the present embodiment includes a first server 4 connected to the monitoring terminal 3 and a second server 5 connected to the first server 4. Further, the remote monitoring system 1 of the present embodiment includes a remote monitoring unit 6 connected between the control microcomputer 20 and the monitoring terminal 3. Further, the remote monitoring system 1 of the present embodiment includes an administrator terminal 7 and a technician terminal 8 that can be connected to the first server 4, respectively.

尚、図1では一台のエレベータ2が示されているが、本実施形態の遠隔監視システム1は、複数のエレベータを備える。また、図1では一台の管理者端末7及び技術員端末8が示されているが、本実施形態の遠隔監視システム1は、複数の管理者端末7及び複数の技術員端末8を備える。 Although one elevator 2 is shown in FIG. 1, the remote monitoring system 1 of the present embodiment includes a plurality of elevators. Further, although one administrator terminal 7 and a technician terminal 8 are shown in FIG. 1, the remote monitoring system 1 of the present embodiment includes a plurality of administrator terminals 7 and a plurality of technician terminals 8.

エレベータ2は、昇降路を昇降するかご21、エレベータ2の動作状況に関する情報を出力する制御マイコン20、及び、制御マイコン20とカメラ210との間に接続された画像認識装置22に加えて、制御マイコン20にそれぞれ接続された音声認識装置24と音声案内装置25と表示案内装置26とを有する。 The elevator 2 controls in addition to a car 21 that goes up and down the hoistway, a control microcomputer 20 that outputs information on the operating status of the elevator 2, and an image recognition device 22 that is connected between the control microcomputer 20 and the camera 210. It has a voice recognition device 24, a voice guidance device 25, and a display guidance device 26, which are connected to the microcomputer 20, respectively.

かご21は、カメラ210に加えて、例えば、天井と壁と床とを含むかご枠、開閉するドア、階床釦等を含む操作盤、音声認識装置24に接続され且つかご21内の音声を集音するマイク(集音器)211、音声案内装置25に接続され且つかご21内に音声を出力するスピーカー212、及び、表示案内装置26に接続され且つかご21内に文字情報等を表示するディスプレイ(表示部)213等を含む。本実施形態の遠隔監視システム1では、かご21には、エレベータ2の動作状況に関する情報を出力可能な各種センサが設けられている。 In addition to the camera 210, the car 21 is connected to, for example, a car frame including a ceiling, a wall, and a floor, a door that opens and closes, an operation panel including a floor button, and a voice recognition device 24, and sounds in the car 21. A microphone (sound collector) 211 that collects sound, a speaker 212 that is connected to the voice guidance device 25 and outputs sound in the car 21, and a display guidance device 26 that is connected to display character information and the like in the car 21. A display (display unit) 213 and the like are included. In the remote monitoring system 1 of the present embodiment, the car 21 is provided with various sensors capable of outputting information on the operating status of the elevator 2.

カメラ210は、例えば、かご21内の天井に配置され、かご21内を経時的に撮像する。また、カメラ210は、かご21内の撮像画像(複数の撮像画像)を画像認識装置22に出力可能である。かご21内には、例えば、かご21内を監視するために一台の監視カメラが設けられており、本実施形態の遠隔監視システム1では、カメラ210として、この監視カメラが用いられる。 The camera 210 is arranged on the ceiling in the car 21, for example, and images the inside of the car 21 over time. Further, the camera 210 can output the captured images (a plurality of captured images) in the car 21 to the image recognition device 22. For example, one surveillance camera is provided in the car 21 for monitoring the inside of the car 21, and in the remote monitoring system 1 of the present embodiment, this surveillance camera is used as the camera 210.

具体的に、カメラ210は、断続的に(所定時間毎(例えば、1秒毎)に)かご21内の撮影を繰り返し行う。尚、カメラ210は、連続的にかご21内の撮影を行ってもよい。 Specifically, the camera 210 intermittently (for example, every second) repeatedly takes pictures in the car 21. The camera 210 may continuously take pictures in the car 21.

画像認識装置22、音声認識装置24、音声案内装置25、及び、表示案内装置26は、例えば、かご21の外側に設けられたマイコンである。具体的に、音声認識装置24は、マイク211で集音された音声を解析して、制御マイコン20を介して遠隔監視ユニット6に出力可能である。音声案内装置25は、制御マイコン20を介して遠隔監視ユニット6から入力された情報に基づき、スピーカー212から音声を出力可能である。表示案内装置26は、制御マイコン20を介して遠隔監視ユニット6から入力された情報に基づき、ディスプレイ213から、例えば、文字情報を出力可能である。 The image recognition device 22, the voice recognition device 24, the voice guidance device 25, and the display guidance device 26 are, for example, microcomputers provided outside the car 21. Specifically, the voice recognition device 24 can analyze the voice collected by the microphone 211 and output it to the remote monitoring unit 6 via the control microcomputer 20. The voice guidance device 25 can output voice from the speaker 212 based on the information input from the remote monitoring unit 6 via the control microcomputer 20. The display guidance device 26 can output, for example, character information from the display 213 based on the information input from the remote monitoring unit 6 via the control microcomputer 20.

制御マイコン20は、監視端末3に通信系統R1を介して接続されている。通信系統R1は、例えば、制御マイコン20から順に遠隔監視ユニット6と電話回線とを介して監視端末3に通信可能であり、且つ、監視端末3から逆に電話回線と遠隔監視ユニット6とを介して制御マイコン20に通信可能な通信系統である。 The control microcomputer 20 is connected to the monitoring terminal 3 via the communication system R1. For example, the communication system R1 can communicate with the monitoring terminal 3 in order from the control microcomputer 20 via the remote monitoring unit 6 and the telephone line, and conversely from the monitoring terminal 3 via the telephone line and the remote monitoring unit 6. It is a communication system capable of communicating with the control microcomputer 20.

マイコン処理部200は、エレベータ2の動作状況に関する情報として、例えば、イベントコードを遠隔監視ユニット6に出力可能である。マイコン処理部200から出力されるイベントコードは、エレベータ2自身の動作状況に対応づけられたコードである。具体的に、イベントコードは、かごの位置情報、かごのドアの開閉情報、かごを昇降させるモーターの駆動情報、及び、停電等を示す。尚、イベントコードは、エレベータ2の異常情報を示すコードを含む。 The microcomputer processing unit 200 can output, for example, an event code to the remote monitoring unit 6 as information regarding the operating status of the elevator 2. The event code output from the microcomputer processing unit 200 is a code associated with the operating status of the elevator 2 itself. Specifically, the event code indicates the position information of the car, the opening / closing information of the door of the car, the driving information of the motor for raising and lowering the car, the power failure, and the like. The event code includes a code indicating abnormality information of the elevator 2.

本実施形態の遠隔監視システム1では、マイコン処理部200は、エレベータ2の動作状況が正常である場合、この旨のイベントコードを遠隔監視ユニット6に出力する。また、マイコン処理部200は、エレベータ2の動作状況が異常である場合、この旨の情報を画像認識装置22に出力し、画像認識装置22による判定結果に応じて、エレベータ2の動作状況が異常である旨のイベントコード、又は、エレベータ2の動作状況が異常でない旨のイベントコードを出力する。 In the remote monitoring system 1 of the present embodiment, when the operating status of the elevator 2 is normal, the microcomputer processing unit 200 outputs an event code to that effect to the remote monitoring unit 6. Further, when the operating status of the elevator 2 is abnormal, the microcomputer processing unit 200 outputs information to that effect to the image recognition device 22, and the operating status of the elevator 2 is abnormal according to the determination result by the image recognition device 22. The event code indicating that the above is true, or the event code indicating that the operating status of the elevator 2 is not abnormal is output.

例えば、マイコン処理部200は、かご21に設けられた各種センサにより出力された情報に基づいて、エレベータ2の動作状況が異常であるか否かを検知する。本実施形態の遠隔監視システム1では、マイコン処理部200は、エレベータ2の動作状況が異常であることを検知すると、この動作状況が異常である旨の情報を画像認識装置22に出力する。 For example, the microcomputer processing unit 200 detects whether or not the operating status of the elevator 2 is abnormal based on the information output by various sensors provided in the car 21. In the remote monitoring system 1 of the present embodiment, when the microcomputer processing unit 200 detects that the operating status of the elevator 2 is abnormal, it outputs information to the effect that the operating status is abnormal to the image recognition device 22.

また、マイコン処理部200は、エレベータ2の動作状況が異常である旨の情報を画像認識装置22に出力した後、人や物がかご21のドアに接触している、又は、人や物の一部分が上下方向又は水平方向に往復動しているとの判定結果が画像認識処理部220から入力されると、エレベータ2の動作状況が異常でない旨のイベントコードを遠隔監視ユニット6に出力し、人や物がかご21のドアに接触しておらず、人や物が上下方向又は水平方向に往復動していないとの判定結果が画像認識処理部220から入力されると、エレベータ2の動作状況が異常である旨のイベントコードを遠隔監視ユニット6に出力する。 Further, after the microcomputer processing unit 200 outputs information to the image recognition device 22 that the operating status of the elevator 2 is abnormal, a person or an object is in contact with the door of the car 21, or the person or the object is in contact with the door. When the image recognition processing unit 220 inputs a determination result that a part of the elevator is reciprocating in the vertical direction or the horizontal direction, an event code indicating that the operating status of the elevator 2 is not abnormal is output to the remote monitoring unit 6. When the image recognition processing unit 220 inputs a determination result that the person or object is not in contact with the door of the car 21 and the person or object is not reciprocating in the vertical or horizontal direction, the elevator 2 operates. The event code indicating that the situation is abnormal is output to the remote monitoring unit 6.

本実施形態の遠隔監視システム1では、マイコン処理部200は、人の一部(例えば、膝)が上下方向又は水平方向に往復動しているとの判定結果が画像認識処理部220から入力されると、エレベータ2の動作状況が異常でない旨のイベントコードとして、例えば、かご21内で人の悪戯が発生している可能性がある旨のイベントコードを出力する。 In the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 inputs the determination result that a part of the person (for example, the knee) is reciprocating in the vertical direction or the horizontal direction in the microcomputer processing unit 200. Then, as an event code indicating that the operating status of the elevator 2 is not abnormal, for example, an event code indicating that a person's mischief may have occurred in the car 21 is output.

尚、本実施形態の遠隔監視システム1では、マイコン処理部200は、エレベータ2の動作状況が異常でないことを検知すると、この動作状況が異常で無い旨のイベントコードを遠隔監視ユニット6に出力する。 In the remote monitoring system 1 of the present embodiment, when the microcomputer processing unit 200 detects that the operating status of the elevator 2 is not abnormal, it outputs an event code indicating that the operating status is not abnormal to the remote monitoring unit 6. ..

本実施形態の遠隔監視システム1では、画像認識装置22は、撮像画像から人を検知する処理を行う画像認識処理部220と、撮像画像との比較の対象となるモデルデータとして、人及び物のモデルパターンと、エレベータ2のかご21の内部構造のモデルパターンとを記憶している記憶部221とを含む。 In the remote monitoring system 1 of the present embodiment, the image recognition device 22 uses the image recognition processing unit 220 that detects a person from the captured image as model data to be compared with the captured image of a person and an object. The storage unit 221 that stores the model pattern and the model pattern of the internal structure of the car 21 of the elevator 2 is included.

記憶部221は、人、物、及びかご21の内部構造のモデルパターンとして、それぞれ、人、物、及びかご21の輪郭(エッジ)を記憶している。人及び物のモデルパターンは、例えば、各エレベータに共通したモデルパターンとして設定されている。かごの内部構造のモデルパターンは、例えば、各エレベータに個別に設定されている。尚、ここで対象となる物は、荷物等の物体、動物等である。 The storage unit 221 stores the contours (edges) of the person, the object, and the car 21 as a model pattern of the internal structure of the person, the object, and the car 21, respectively. The model patterns of people and objects are set as, for example, model patterns common to each elevator. The model pattern of the internal structure of the car is set individually for each elevator, for example. The objects to be targeted here are objects such as luggage, animals and the like.

例えば、記憶部221は、人のモデルパターンとして、シルエットが異なる人のモデルパターンを記憶している。具体的には、記憶部221は、一般的なシルエット(一般的な服装)の人のモデルパターン、帽子を着用した人のモデルパターン、着物を着用した人のモデルパターン等を記憶している。 For example, the storage unit 221 stores a model pattern of a person having a different silhouette as a model pattern of the person. Specifically, the storage unit 221 stores a model pattern of a person with a general silhouette (general clothes), a model pattern of a person wearing a hat, a model pattern of a person wearing a kimono, and the like.

より具体的に、記憶部221に記憶されている一般的な人のモデルパターンは、図2に示すように、人における頭部、両耳、胴部、両腕、及び両脚を簡略化したものの輪郭を結ぶ線(ワイヤーフレーム)で構成される。また、記憶部221に記憶されている物のモデルパターンは、図3に示すように、立方体の各辺を結ぶ線で構成される。 More specifically, the general human model pattern stored in the storage unit 221 is a simplified version of the human head, ears, torso, arms, and legs, as shown in FIG. It consists of lines (wire frames) connecting the contours. Further, as shown in FIG. 3, the model pattern of the object stored in the storage unit 221 is composed of lines connecting each side of the cube.

本実施形態の遠隔監視システム1では、記憶部221は、第一サーバー4より出力されたかごの内部構造のモデルパターンを記憶している。より具体的に、記憶部221に記憶されているかごの内部構造のモデルパターンは、図4に示すように、天井と壁と床とを含むかご枠214の輪郭を結ぶ線、開閉するドア215の輪郭を結ぶ線、及び、階床釦等を含む操作盤216の輪郭を結ぶ線で構成される。 In the remote monitoring system 1 of the present embodiment, the storage unit 221 stores the model pattern of the internal structure of the car output from the first server 4. More specifically, as shown in FIG. 4, the model pattern of the internal structure of the car stored in the storage unit 221 is a line connecting the contours of the car frame 214 including the ceiling, the wall, and the floor, and the door 215 that opens and closes. It is composed of a line connecting the contours of the above and a line connecting the contours of the operation panel 216 including the floor button and the like.

本実施形態の遠隔監視システム1では、記憶部221は、人の位置及び人の挙動に関する情報として、第一の特定の座標及び第一の特定の挙動に関する情報を記憶し、物の位置及び物の挙動に関する情報として、第二の特定の座標及び第二の特定の挙動に関する情報を記憶している。ここでいう座標は、かご内における一点を原点とした三次元空間での座標である。 In the remote monitoring system 1 of the present embodiment, the storage unit 221 stores information on the first specific coordinates and the first specific behavior as information on the position and behavior of the person, and stores the position and the object on the object. As information on the behavior of the second, the information on the second specific coordinates and the second specific behavior is stored. The coordinates here are the coordinates in the three-dimensional space with one point in the car as the origin.

第一の特定の座標は、かご21のドアの表面の存在する領域及びこのドアの軌道(このドアの開閉の軌道)上の領域の少なくとも一方の領域にある。第二の特定の座標も同様に、かご21のドアの表面の存在する領域及びこのドアの軌道(このドアの開閉の軌道)上の領域の少なくとも一方の領域にある。 The first specific coordinates are in at least one region of the surface of the door of the car 21 and the region on the trajectory of the door (the trajectory of opening and closing the door). The second specific coordinate is also in at least one region of the region where the surface of the door of the car 21 exists and the region on the trajectory of the door (the trajectory of opening and closing the door).

第一の特定の座標は、例えば、人によるドア押さえ、ドアのこじ開け、ドアへの体のぶつかり等の人によるドアの挙動の阻害が生じているか否かを判定するための指標である。第二の特定の座標も同様に、ドアへの物のぶつかり、ドア開口部に障害物が存在すること等の物によるドアの挙動の阻害が生じているか否かを判定するための指標である。 The first specific coordinate is an index for determining whether or not the behavior of the door is hindered by a person such as holding the door by a person, prying open the door, or hitting the door with the body. Similarly, the second specific coordinate is an index for determining whether or not an object collides with the door, an obstacle exists at the door opening, or the like causes obstruction of the door behavior. ..

第一の特定の挙動は、人が上下方向又は水平方向(縦方向又は横方向)に往復動する際の人のモデルパターンの座標の変化に対応している。第二の特定の挙動も同様に、物が上下方向又は水平方向(縦方向又は横方向)に往復動する際の物のモデルパターンの座標の変化に対応している。第一の特定の挙動は、例えば、人の飛び跳ねによるかご21の揺らしが生じているか否かを判定するための指標である。第二の特定の挙動は、例えば、人が運んでいた荷物の落下や、人がボールをバウンドさせることによるかご21の揺らしが生じているか否かを判定するための指標である。 The first particular behavior corresponds to a change in the coordinates of a person's model pattern as the person reciprocates in the vertical or horizontal direction (vertical or horizontal). The second particular behavior also corresponds to changes in the coordinates of the model pattern of the object as it reciprocates in the vertical or horizontal direction (vertical or horizontal). The first specific behavior is, for example, an index for determining whether or not the car 21 is shaken due to a person's jumping. The second specific behavior is, for example, an index for determining whether or not a load carried by a person has fallen or the car 21 has been shaken due to the person bouncing the ball.

画像認識処理部220は、制御マイコン20からエレベータ2の動作状況が異常である旨の情報を入力されると、一定期間においてカメラ210が経時的に撮像したかご21内の撮像画像(複数の撮像画像)を取得し、この撮像画像から人を検出する処理を行う。この人を検出する処理(第一処理及び第二処理)について、以下、詳細に説明する。 When the image recognition processing unit 220 receives information from the control microcomputer 20 that the operating status of the elevator 2 is abnormal, the image recognition processing unit 220 captures images (a plurality of images) in the car 21 captured by the camera 210 over time in a certain period of time. An image) is acquired, and a process of detecting a person from this captured image is performed. The processes for detecting this person (first process and second process) will be described in detail below.

まず、画像認識処理部220は、取得した複数の撮像画像のうち少なくとも二つの画像から、それぞれエッジを抽出する第一処理を行う。具体的に、画像認識処理部220は、取得した複数の画像の各々に対して、濃度の補正、歪みの補正、及び、ノイズの除去等の前処理を行った後、各画像において輝度が急激に変わる境界をエッジとして抽出する。 First, the image recognition processing unit 220 performs a first process of extracting edges from at least two of the acquired plurality of captured images. Specifically, the image recognition processing unit 220 performs preprocessing such as density correction, distortion correction, and noise removal for each of the acquired plurality of images, and then the brightness of each image suddenly increases. The boundary that changes to is extracted as an edge.

画像認識処理部220は、先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)から抽出されたエッジのうちの人に対する像のエッジに、それぞれ人のモデルパターンを当てはめる第二処理を行う。尚、画像認識処理部220は、抽出されたエッジに、各モデルパターン(かごの内部構造のモデルパターン、人のモデルパターン、及び、物のモデルパターン)のサイズとカメラ210の視野(カメラ210の座標)とを整合させて当てはめることで、撮像画像から抽出されたエッジに対して各モデルパターンを当てはめる。 The image recognition processing unit 220 applies a person's model pattern to the edge of the image for a person among the edges extracted from at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment). Perform the second process. The image recognition processing unit 220 sets the size of each model pattern (model pattern of the internal structure of the car, the model pattern of a person, and the model pattern of an object) and the field of view of the camera 210 (of the camera 210) on the extracted edges. Each model pattern is applied to the edges extracted from the captured image by matching with the coordinates).

具体的に、画像認識処理部220は、第二処理において、取得した複数の画像のうちの一つの画像(以下、第一の画像と言う)から抽出されたエッジにおけるかご21の内部構造に対する像のエッジに、かご21の内部構造のモデルパターンを当てはめる第一ステップを行う。次に、画像認識処理部220は、第二処理において、この一つの画像から抽出されたエッジのうちのかご21の内部構造のモデルパターンに重なるエッジ以外のエッジのうち人に対する像のエッジに、人のモデルパターンを当てはめる第二ステップを行う。 Specifically, the image recognition processing unit 220 is an image of the internal structure of the car 21 at the edge extracted from one image (hereinafter referred to as the first image) of the plurality of acquired images in the second process. The first step of applying the model pattern of the internal structure of the car 21 to the edge of the car 21 is performed. Next, in the second process, the image recognition processing unit 220 sets the edge of the image extracted from this one image as the edge of the image for a person among the edges other than the edge overlapping the model pattern of the internal structure of the car 21. Perform the second step of applying a human model pattern.

その後、画像認識処理部220は、第二処理において、先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)のうちの第二ステップで人のモデルパターンを当てはめた画像以外の画像(先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)のうちの第一の画像以外の画像)から抽出されたエッジにおけるかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、第二ステップにおいて当てはめた人のモデルパターンを当てはめる第三ステップを行う。 After that, in the second process, the image recognition processing unit 220 applies a human model pattern in the second step of at least two images (a plurality of acquired images in the remote monitoring system 1 of the present embodiment). Inside the cage 21 at the edge extracted from an image other than the first image (an image other than the first image among at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment)). The third step of applying the model pattern of the person applied in the second step to the edges other than the edges overlapping the model pattern of the structure is performed.

さらに、本実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において、先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)から抽出されたエッジのうちの物に対する像のエッジに、それぞれ物のモデルパターンを当てはめる。 Further, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 is extracted from at least two images (a plurality of acquired images in the remote monitoring system 1 of the present embodiment) in the second processing. The model pattern of each object is applied to the edge of the image with respect to the object among the edges.

具体的に、本実施形態の遠隔監視システム1において、画像認識処理部220は、第三ステップの後に、第一の画像から抽出されたエッジのうち、かご21の内部構造のモデルパターンに重ならず且つ人のモデルパターンに重ならないエッジ(第三ステップにおいて、人のモデルパターンが当てはまらなかったエッジ)に、物のモデルパターンを当てはめる第四ステップを行う。さらに、画像認識処理部220は、第四ステップの後に、先ほどの少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)のうちの第一の画像以外の画像から抽出されたエッジにおけるかご21の内部構造のモデルパターンに重ならず且つ人のモデルパターンに重ならないエッジに、第四ステップにおいて当てはめた物のモデルパターンを当てはめる第五ステップを行う。 Specifically, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 overlaps with the model pattern of the internal structure of the car 21 among the edges extracted from the first image after the third step. The fourth step of applying the model pattern of the object to the edge that does not overlap the human model pattern (the edge to which the human model pattern does not apply in the third step) is performed. Further, after the fourth step, the image recognition processing unit 220 extracts from images other than the first image among at least two images (a plurality of images acquired in the remote monitoring system 1 of the present embodiment). The fifth step of applying the model pattern of the object applied in the fourth step to the edge that does not overlap with the model pattern of the internal structure of the car 21 and does not overlap with the human model pattern at the edge is performed.

以下、上述した第二処理における第一ステップから第五ステップについて、より詳細に説明する。画像認識処理部220は、第一ステップにおいて、第一の画像から抽出されたエッジに、かごの内部構造のモデルパターンを重ねて、この重なった部分(かごの内部構造のモデルパターンに重なるエッジ)を取り除き、人体特徴があるか否か(例えば、人の頭部に重なる円形状のエッジがあるか否か、胴体に重なる筒状のエッジがあるか否か、及び、四肢に重なる形状のエッジがあるか否か)を判断する。画像認識処理部220は、円形状のエッジ等があると判断した場合、かご21内が有人である(かご21内に人を検出した)として、この円形状のエッジと、人のモデルパターンの頭部に対応する箇所が重なるよう、人のモデルパターンのサイズとカメラ210の視野とを整合させて、第一の画像から抽出されたエッジに人のモデルパターンを当てはめる。 Hereinafter, the first to fifth steps in the second process described above will be described in more detail. In the first step, the image recognition processing unit 220 superimposes the model pattern of the internal structure of the car on the edge extracted from the first image, and this overlapping portion (edge overlapping the model pattern of the internal structure of the car). Whether or not there is a human body characteristic (for example, whether or not there is a circular edge that overlaps the human head, whether or not there is a tubular edge that overlaps the torso, and whether or not there is an edge that overlaps the limbs. Whether or not there is) is judged. When the image recognition processing unit 220 determines that there is a circular edge or the like, it is assumed that the inside of the car 21 is manned (a person is detected in the car 21), and the circular edge and the model pattern of the person are displayed. The size of the human model pattern and the field of view of the camera 210 are matched so that the portions corresponding to the heads overlap, and the human model pattern is applied to the edges extracted from the first image.

画像認識処理部220は、第二ステップにおいて、第一の画像における当てはめた人のモデルパターンの接地位置(具体的には、人のモデルパターンとかご21の床面との接地位置)に基づいて、空間における人の存在位置と、人の占有する空間とを認識する。尚、画像認識処理部220は、第一の画像における当てはめた人のモデルパターンの接地位置が確認できない場合には、推定した接地位置に基づいて、人の存在位置と人の占有する空間とを認識する。次に、画像認識処理部220は、第一の画像から抽出されたエッジに当てはめた人のモデルパターンから、各ポイントの座標を算出する。人のモデルパターンの座標は、例えば、図2のP1で示すように、頭部頂点、両耳、両肩、両肘、両手の先、両腰、両膝、両踵、両脚の爪先等の座標である。 In the second step, the image recognition processing unit 220 is based on the ground contact position of the model pattern of the person applied in the first image (specifically, the ground contact position between the model pattern of the person and the floor surface of the car 21). , Recognize the position of a person in the space and the space occupied by the person. When the ground contact position of the model pattern of the applied person in the first image cannot be confirmed, the image recognition processing unit 220 determines the existence position of the person and the space occupied by the person based on the estimated ground contact position. recognize. Next, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the person applied to the edge extracted from the first image. The coordinates of the human model pattern are, for example, as shown in P1 of FIG. 2, such as the apex of the head, both ears, both shoulders, both elbows, the tips of both hands, both hips, both knees, both heels, and the toes of both legs. The coordinates.

画像認識処理部220は、第三ステップにおいて、先ほどの少なくとも二つの画像のうち第一の画像以外の画像に対して、第二ステップで当てはめた人のモデルパターンを当てはめる。より具体的に、画像認識処理部220が、第三ステップにおいて、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジから、第一の画像のかご21の内部構造のモデルパターンに重なったエッジを除き、このエッジに第二ステップにおいて当てはめた人のモデルパターンを当てはめる。その後、画像認識処理部220は、この第一の画像以外の画像に当てはめた人のモデルパターンから各ポイントの座標を算出する。 In the third step, the image recognition processing unit 220 applies the model pattern of the person applied in the second step to the images other than the first image among at least the two images mentioned above. More specifically, in the third step, the image recognition processing unit 220 describes the internal structure of the basket 21 of the first image from the edges extracted from the images other than the first image among the plurality of acquired images. Except for the edge that overlaps the model pattern, the model pattern of the person who applied in the second step is applied to this edge. After that, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the person applied to the image other than the first image.

画像認識処理部220は、第四ステップにおいて、第一の画像から抽出されたエッジから、かごの内部構造のモデルパターンに重なるエッジ、及び、人のモデルパターンに重なるエッジを取り除いた上で、残ったエッジを物に対する像のエッジであると判断する。画像認識処理部220は、物に対する像のエッジがあると判断した場合(かご21内に物があると判断した場合)、物のモデルパターンのサイズとカメラ210の視野とを整合させて、第一の画像から抽出されたエッジに物のモデルパターンを当てはめる。また、画像認識処理部220は、第一の画像から抽出されたエッジに当てはめた物のモデルパターンから、各ポイントの座標を算出する。物のモデルパターンにおける各ポイントの座標は、例えば、図3のP2に示すように、立方体の八つの角である。 In the fourth step, the image recognition processing unit 220 removes the edge that overlaps the model pattern of the internal structure of the car and the edge that overlaps the model pattern of the person from the edge extracted from the first image, and then remains. The edge is judged to be the edge of the image with respect to the object. When the image recognition processing unit 220 determines that there is an edge of the image with respect to the object (when it is determined that there is an object in the car 21), the image recognition processing unit 220 matches the size of the model pattern of the object with the field of view of the camera 210, and the second Apply the model pattern of the object to the edges extracted from one image. Further, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the object applied to the edge extracted from the first image. The coordinates of each point in the model pattern of the object are, for example, the eight corners of the cube, as shown in P2 of FIG.

画像認識処理部220は、第五ステップにおいて、先ほどの少なくとも二つの画像のうち第一の画像以外の画像に対して、第四ステップで当てはめた物のモデルパターンを当てはめる。より具体的に、画像認識処理部220は、第五ステップにおいて、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジから、第一の画像のかご21の内部構造のモデルパターンに重なったエッジを除き、さらに、第一の画像の人のモデルパターンに重なったエッジを除き、このエッジに第二ステップにおいて当てはめた人のモデルパターンを当てはめる。その後、画像認識処理部220は、この第一の画像以外の画像に当てはめた物のモデルパターンから各ポイントの座標を算出する。 In the fifth step, the image recognition processing unit 220 applies the model pattern of the object applied in the fourth step to the images other than the first image among at least the two images mentioned above. More specifically, in the fifth step, the image recognition processing unit 220 describes the internal structure of the basket 21 of the first image from the edges extracted from the images other than the first image among the acquired plurality of images. The edge that overlaps the model pattern is removed, and the edge that overlaps the model pattern of the person in the first image is removed, and the model pattern of the person fitted in the second step is applied to this edge. After that, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the object applied to the image other than the first image.

尚、画像認識処理部220は、各画像から抽出したエッジに円形状のエッジ等が無いと判断した場合、かご21内が無人であるとして、各画像から抽出したエッジに対する人のモデルパターンの当てはめの処理を終了し、各画像から抽出したエッジに物のモデルパターンの当てはめを行う。また、画像認識処理部220は、各画像から抽出したエッジに物に対する像のエッジが無いと判断した場合(かご21内に物が無いと判断した場合)、各画像から抽出したエッジに対する物のモデルパターンの当てはめの処理を終了する。 When the image recognition processing unit 220 determines that the edges extracted from each image do not have circular edges or the like, the image recognition processing unit 220 assumes that the inside of the car 21 is unmanned and applies a human model pattern to the edges extracted from each image. The process of is completed, and the model pattern of the object is applied to the edges extracted from each image. Further, when the image recognition processing unit 220 determines that the edge extracted from each image does not have an edge of the image for the object (when it is determined that there is no object in the car 21), the object for the edge extracted from each image. Finish the process of fitting the model pattern.

以下、第一処理及び第二処理の後に行う第三処理について説明する。画像認識処理部220は、第二処理で当てはめた人のモデルパターンの座標が第一の特定の座標にあるとき(例えば、人がかご21のドアに接触しているとき)、又は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像での人のモデルパターンの座標の変化が第一の特定の挙動を示したとき(即ち、人がかご21を揺らす動作を行っているとき)に、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2の動作状況が異常である旨のイベントコード)の送信を阻止する第三処理を行う。第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像は、第二処理で人のモデルパターンを当てはめた撮像画像のうち、その撮像時刻が前後する撮像画像である。また、ここで阻止される送信は、人のモデルパターンが当てはめられた人の挙動に起因する異常情報の送信である。 Hereinafter, the third process performed after the first process and the second process will be described. The image recognition processing unit 220 may use the second process when the coordinates of the model pattern of the person applied in the second process are at the first specific coordinates (for example, when the person is in contact with the door of the car 21) or the second. When the change in the coordinates of the human model pattern in the captured images before and after the captured image to which the human model pattern is applied in the processing shows the first specific behavior (that is, the person performs the action of shaking the car 21). At that time), a third process is performed to prevent transmission of abnormality information (for example, an event code indicating that the operating status of the elevator 2 is abnormal) from the control microcomputer 20 to the monitoring terminal 3. The captured images before and after the captured image to which the human model pattern is applied in the second process are the captured images to which the captured time is before and after the captured images to which the human model pattern is applied in the second process. Further, the transmission blocked here is the transmission of anomalous information due to the behavior of the person to which the human model pattern is applied.

さらに、本実施形態の遠隔監視システム1では、第三処理において、画像認識処理部220は、第二処理で当てはめた物のモデルパターンの座標が第二の特定の座標にあるとき(即ち、物がかご21のドアに接触しているとき)、又は、第二処理において物のモデルパターンを当てはめた撮像画像における前後の撮像画像での物のモデルパターンの座標の変化が第二の特定の挙動を示したとき(即ち、物がかご21を揺らすように移動しているとき)に、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2の動作状況が異常である旨のイベントコード)の送信を阻止する。この阻止される送信は、物のモデルパターンが当てはめられた物の挙動に起因する異常情報の送信である。第二処理において物のモデルパターンを当てはめた撮像画像における前後の撮像画像は、第二処理で物のモデルパターンを当てはめた撮像画像のうち、その撮像時刻が前後する撮像画像である。 Further, in the remote monitoring system 1 of the present embodiment, in the third process, the image recognition processing unit 220 indicates that the coordinates of the model pattern of the object applied in the second process are at the second specific coordinates (that is, the object). (When the door of the car 21 is in contact), or the change in the coordinates of the model pattern of the object in the captured images before and after the image captured by applying the model pattern of the object in the second process is the second specific behavior. (That is, when an object is moving so as to shake the car 21), abnormality information from the control microcomputer 20 to the monitoring terminal 3 (for example, an event code indicating that the operating status of the elevator 2 is abnormal). ) Is blocked. This blocked transmission is the transmission of anomalous information due to the behavior of the object to which the model pattern of the object is applied. The images captured before and after the captured image to which the model pattern of the object is applied in the second process are the captured images to which the model pattern of the object is applied in the second process and whose imaging times are before and after.

尚、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像が三枚以上ある場合、「第二処理で当てはめた人のモデルパターンの座標が第一の特定の座標にあるとき」は、人のモデルパターンの座標が第一の特定の座標と重なるときに加えて、人のモデルパターンの座標が移動により到達すると予測される座標(動線予測による座標)が第一の特定の座標と重なるときも含む。また、第二処理において物のモデルパターンを当てはめた撮像画像における前後の撮像画像が三枚以上ある場合、「第二処理で当てはめた物のモデルパターンの座標が第二の特定の座標にあるとき」は、物のモデルパターンの座標が移動により到達すると予測される座標(動線予測による座標)が第二の特定の座標と重なるときも含む。 When there are three or more captured images before and after the captured image to which the human model pattern is applied in the second process, "when the coordinates of the human model pattern applied in the second process are at the first specific coordinates. In addition to when the coordinates of the human model pattern overlap with the first specific coordinates, the coordinates predicted to reach by movement (coordinates by motion line prediction) are the first identification. Including when it overlaps with the coordinates of. In addition, when there are three or more captured images before and after the captured image to which the model pattern of the object is applied in the second process, "when the coordinates of the model pattern of the object applied in the second process are at the second specific coordinates. ”Includes the case where the coordinates of the model pattern of the object are predicted to be reached by movement (coordinates by motion line prediction) overlap with the second specific coordinates.

また、第二処理で当てはめた人や物のモデルパターンの座標(第一の画像、又は、第一の画像以外の画像から抽出したエッジに当てはめた人や物のモデルパターンにおける各ポイントの座標)が第一、第二特定の座標にあるときとは、ある一定の期間において、各モデルパターンの座標が、第一、第二の特定の座標と重なるときである。 In addition, the coordinates of the model pattern of the person or object applied in the second process (coordinates of each point in the model pattern of the person or object applied to the edge extracted from the first image or an image other than the first image). Is at the first and second specific coordinates is when the coordinates of each model pattern overlap with the first and second specific coordinates in a certain period of time.

以上のように、画像認識処理部220は、第二処理において、画像(第一の画像又は第一の画像以外の画像)に人や物のモデルパターンを当てはめることで、人や物の位置を把握できる。また、画像認識処理部220は、第二処理において、異なる画像(第一の画像及び第一の画像以外の画像)に人や物のモデルパターンを当てはめることで、人や物の挙動(人や物の動きの変化)を把握できる。また、本実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において物のモデルパターンを当てはめた撮像画像における三枚以上の前後の撮像画像について人や物のモデルパターンの各ポイントの座標を算出するため、第二処理において算出した人や物のモデルパターンの座標の変化により人や物の挙動を把握することに加えて、人や物の挙動を予測できる、即ち、人や物の動線予測を行うことができる。 As described above, in the second processing, the image recognition processing unit 220 applies the model pattern of the person or object to the image (the first image or the image other than the first image) to determine the position of the person or object. I can grasp it. In addition, the image recognition processing unit 220 applies a model pattern of a person or an object to different images (an image other than the first image and an image other than the first image) in the second process, so that the behavior of the person or the object (the person or the object) Changes in the movement of objects) can be grasped. Further, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 has a model pattern of a person or an object for three or more images captured before and after the captured image to which the model pattern of the object is applied in the second process. In order to calculate the coordinates of the points, in addition to grasping the behavior of the person or object by changing the coordinates of the model pattern of the person or object calculated in the second process, the behavior of the person or object can be predicted, that is, the person. It is possible to predict the flow line of objects and objects.

さらに、本実施形態の遠隔監視システム1では、画像認識処理部220が、第三処理において、人や物がかご21のドアに接触している、又は、人や物がかご21を揺らすように移動していると判定した際に、マイコン処理部200にこの旨の判定結果を出力することで、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2の動作状況が異常である旨のイベントコード)の送信を阻止する。尚、画像認識処理部220は、第三処理において、人や物がかご21のドアに接触していない、又は、人や物がかご21を揺らすような移動をしていないと判定すると、マイコン処理部200にこの旨の判定結果を出力する。 Further, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 makes the person or object in contact with the door of the car 21 or the person or object shake the car 21 in the third process. When it is determined that the device is moving, the determination result to that effect is output to the microcomputer processing unit 200, so that the abnormality information from the control microcomputer 20 to the monitoring terminal 3 (for example, the operating status of the elevator 2 is abnormal). Event code) is blocked. When the image recognition processing unit 220 determines in the third process that no person or object is in contact with the door of the car 21, or that the person or object is not moving in such a way as to shake the car 21, the microcomputer A determination result to this effect is output to the processing unit 200.

本実施形態の遠隔監視システム1では、画像認識処理部220は、このような判定結果を第一サーバー4にも出力することで、第一サーバー4から管理者端末7及び技術員端末8にこの判定結果に関する情報を出力させることができる。 In the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 outputs such a determination result to the first server 4, and the first server 4 sends this determination to the administrator terminal 7 and the technician terminal 8. Information about the result can be output.

監視端末3は、例えば、複数の地域に設置された多数のエレベータの監視を行う。また、監視端末3は、対象となるエレベータと離れた建物である監視センター等に設置されている。さらに、監視端末3には、制御マイコン20が異常情報(例えば、エレベータ2の動作状況が異常である旨のイベントコード)を入力することができる。本実施形態の遠隔監視システム1では、監視端末3は、入力されたイベントコード等の情報を表示する表示部を有する。 The monitoring terminal 3 monitors, for example, a large number of elevators installed in a plurality of areas. Further, the monitoring terminal 3 is installed in a monitoring center or the like, which is a building away from the target elevator. Further, the control microcomputer 20 can input abnormality information (for example, an event code indicating that the operating status of the elevator 2 is abnormal) to the monitoring terminal 3. In the remote monitoring system 1 of the present embodiment, the monitoring terminal 3 has a display unit that displays information such as an input event code.

本実施形態の監視センターには、監視員(オペレータ)が常駐している。監視員は、監視端末3の表示部におけるイベントコード等の表示を確認することで、エレベータ2の動作状況を監視することができる。 An observer (operator) is stationed at the monitoring center of this embodiment. The observer can monitor the operating status of the elevator 2 by confirming the display of the event code or the like on the display unit of the monitoring terminal 3.

第二サーバー5は、例えば、有線回線により第一サーバー4に接続され、例えば、P2P(Peer to Peer)により接続されている。また、第二サーバー5は、データベース50を有する。データベース50は、各エレベータにおけるかごの設計値等の情報を記憶している。具体的に、データベース50は、かごの設計値として、かごにおけるかご枠のサイズ(かご内の寸法)、かごにおけるドアの位置、及びかごにおける制御盤の位置等を、エレベータの識別番号(例えば、エレベータの機番)に関連付けて記憶している。データベース50は、書き換え可能である。データベース50には、例えば、新たなエレベータの設置時に該エレベータにおけるかごの設計値等の情報を追加することができる。 The second server 5 is connected to the first server 4 by, for example, a wired line, and is connected by, for example, P2P (Peer to Peer). Further, the second server 5 has a database 50. The database 50 stores information such as car design values in each elevator. Specifically, the database 50 sets the size of the car frame (dimensions inside the car) in the car, the position of the door in the car, the position of the control panel in the car, and the like as the design values of the car as the elevator identification number (for example,). It is stored in association with the elevator model number). The database 50 is rewritable. For example, when a new elevator is installed, information such as a car design value in the elevator can be added to the database 50.

本実施形態の遠隔監視システム1では、データベース50は、各エレベータにそれぞれ対応する管理者端末7及び技術員端末8に関する情報(管理者の連絡先及び技術員の連絡先)を記憶している。例えば、データベース50は、インターネットを介して管理者端末7及び技術員端末8に出力するため、管理者端末7及び技術員端末8に関する情報として、管理者端末7のIPアドレス及び技術員端末8のIPアドレスを記憶している。尚、データベース50は、これらの情報を、人や物の挙動と関連付けて記憶していてもよい。 In the remote monitoring system 1 of the present embodiment, the database 50 stores information (administrator's contact information and technician's contact information) regarding the administrator terminal 7 and the technician terminal 8 corresponding to each elevator. For example, since the database 50 outputs to the administrator terminal 7 and the engineer terminal 8 via the Internet, the IP address of the administrator terminal 7 and the IP address of the engineer terminal 8 are used as information about the administrator terminal 7 and the engineer terminal 8. I remember. The database 50 may store such information in association with the behavior of a person or an object.

第一サーバー4は、例えば、インターネットを介して監視端末3に接続されている。また、第一サーバー4は、インターネットと監視端末3と通信系統R1とを介して、制御マイコン20に接続されている。 The first server 4 is connected to the monitoring terminal 3 via the Internet, for example. Further, the first server 4 is connected to the control microcomputer 20 via the Internet, the monitoring terminal 3, and the communication system R1.

第一サーバー4は、通信系統R2を介して、管理者端末7に接続可能である。通信系統R2は、例えば、第一サーバー4からインターネットを介して管理者端末7に通信可能であり、且つ、管理者端末7からインターネットを介して第一サーバー4に通信可能な通信系統である。また、第一サーバー4は、通信系統R3を介して、技術員端末8に接続可能である。通信系統R3は、例えば、第一サーバー4からインターネットを介して技術員端末8に通信可能であり、且つ、技術員端末8からインターネットを介して第一サーバー4に通信可能な通信系統である。通信系統R2、R3は、一部(インターネット)で共通している。 The first server 4 can be connected to the administrator terminal 7 via the communication system R2. The communication system R2 is, for example, a communication system in which the first server 4 can communicate with the administrator terminal 7 via the Internet, and the administrator terminal 7 can communicate with the first server 4 via the Internet. Further, the first server 4 can be connected to the technician terminal 8 via the communication system R3. The communication system R3 is, for example, a communication system capable of communicating from the first server 4 to the technician terminal 8 via the Internet and communicating from the technician terminal 8 to the first server 4 via the Internet. The communication systems R2 and R3 are common to some (Internet).

第一サーバー4は、かごの内部構造のモデルパターンを作成するサーバー処理部40を含む。例えば、サーバー処理部40は、画像認識処理部220による最初の処理前(上述の第一処理から第三処理までの一連の処理を最初に行う前)、又は、かごの仕様の変更時に、データベース50に記憶されたかごの設計値等の情報に基づいて、かごの内部構造のモデルパターンを作成し、作成したモデルパターンを画像認識装置22に出力する。 The first server 4 includes a server processing unit 40 that creates a model pattern of the internal structure of the car. For example, the server processing unit 40 may use the database before the first processing by the image recognition processing unit 220 (before the first series of processing from the first processing to the third processing described above) or when the car specifications are changed. A model pattern of the internal structure of the car is created based on the information such as the design value of the car stored in the car 50, and the created model pattern is output to the image recognition device 22.

具体的に、サーバー処理部40は、データベース50からかご21の設計値等の情報を取得すると共に、カメラ210から画像認識装置22等を介して無人の状態(空かご状態)のかご内の撮像画像を取得する。サーバー処理部40は、例えば、無人の状態のかご内の撮像画像を一枚取得する。 Specifically, the server processing unit 40 acquires information such as design values of the car 21 from the database 50, and images the inside of the car in an unmanned state (empty car state) from the camera 210 via the image recognition device 22 or the like. Get an image. The server processing unit 40 acquires, for example, one captured image in an unmanned car.

サーバー処理部40は、取得した無人の状態のかご内の撮像画像に対してノイズの除去等の前処理を行い、前処理後の撮像画像からエッジを抽出する。サーバー処理部40は、かご21の設計値等から得られるかご21の壁、ドア、床、及び天井の形状特徴に基づいて、撮像画像から抽出したエッジから、かご21の壁、ドア、床、及び天井の位置関係の認識を行う。また、サーバー処理部40は、撮像画像から認識したかご21の壁等の位置関係等に基づいて、かご21内におけるカメラの位置を特定する。さらに、サーバー処理部40は、特定したカメラの位置に基づき、かごの壁等の位置関係等を再認識し、かご枠の輪郭とドアの輪郭に重なる箇所を判断し、カメラ視点の座標(図4におけるP)を算出すると共に、かごの内部構造のモデルパターンを作成する(例えば、床の四隅、天井の四隅、ドア、及び操作盤それぞれの座標(図4におけるP3)を算出してこれらの座標を結ぶ線で構成されるモデルパターンを作成する)。 The server processing unit 40 performs preprocessing such as noise removal on the acquired image captured in the unmanned car, and extracts edges from the captured image after the preprocessing. The server processing unit 40 uses the edges extracted from the captured image based on the shape characteristics of the walls, doors, floors, and ceilings of the car 21 obtained from the design values of the car 21, and the walls, doors, floors of the car 21. And recognize the positional relationship of the ceiling. Further, the server processing unit 40 specifies the position of the camera in the car 21 based on the positional relationship of the wall of the car 21 and the like recognized from the captured image. Further, the server processing unit 40 re-recognizes the positional relationship of the car wall and the like based on the specified camera position, determines the portion overlapping the outline of the car frame and the outline of the door, and coordinates the camera viewpoint (FIG. It calculates the P C) at 4, to create a model pattern of the internal structure of the car (for example, the floor of the four corners, ceiling corners, door and control panel respective coordinates (P3 in FIG. 4) to calculate these Create a model pattern consisting of lines connecting the coordinates of).

サーバー処理部40は、かご内におけるカメラの視野として、例えば、カメラ視点の座標を画像認識装置22に送信すると共に、かごの内部構造のモデルパターンとして、例えば、かご内における、床の四隅、天井の四隅、ドア、及び操作盤それぞれの座標を画像認識装置22に出力する。 The server processing unit 40 transmits the coordinates of the camera viewpoint to the image recognition device 22 as the field of view of the camera in the car, and as a model pattern of the internal structure of the car, for example, the four corners of the floor and the ceiling in the car. The coordinates of each of the four corners, the door, and the operation panel are output to the image recognition device 22.

サーバー処理部40は、第三処理における画像認識処理部220による判定結果(人や物がかご21のドアに接触しているか否か、又は、人や物がかご21を揺らすように移動しているか否かの判定結果)が、マイコン処理部200から通信系統R1と監視端末3とインターネットとを介して入力されると、データベース50から、通知元(エレベータ2)に応じた管理者端末7及び技術員端末8に関する情報(管理者の連絡先及び技術員の連絡先)を取得し、例えば、この判定結果をそれぞれ文字情報として、管理者端末7に出力すると共に技術員端末8に出力する。出力される判定結果は、例えば、「人がかご内で飛び跳ねています。エレベータ2自体に問題はありません。」といったメッセージである。 The server processing unit 40 moves the determination result by the image recognition processing unit 220 in the third processing (whether or not a person or an object is in contact with the door of the car 21 or the person or the object moves so as to shake the car 21. When the determination result) is input from the microcomputer processing unit 200 via the communication system R1, the monitoring terminal 3, and the Internet, the administrator terminal 7 and the administrator terminal 7 according to the notification source (elevator 2) are transmitted from the database 50. Information about the technician terminal 8 (administrator's contact information and technician's contact information) is acquired, and for example, the determination results are output as character information to the administrator terminal 7 and output to the technician terminal 8. The output judgment result is, for example, a message such as "A person is jumping in the car. There is no problem with the elevator 2 itself."

管理者端末7及び技術員端末8は、それぞれ、例えば、PDA(Personal Digital Assistant)、ノートパソコン等の持ち運び可能な端末や、据え置き型のパソコン等の端末である。管理者端末7及び技術員端末8は、それぞれ、例えば、入力された情報を出力する出力部を有する。出力部は、出力する情報が画像情報や文字情報である場合にはディスプレイであり、出力する情報が音声情報である場合にはスピーカーである。本実施形態の遠隔監視システム1では、管理者端末7及び技術員端末8の出力部はディスプレイであり、このディスプレイは、サーバー処理部40から入力された判定結果を出力する。 The administrator terminal 7 and the technician terminal 8 are, for example, portable terminals such as PDAs (Personal Digital Assistants) and laptop computers, and terminals such as stationary personal computers, respectively. Each of the administrator terminal 7 and the technician terminal 8 has, for example, an output unit that outputs the input information. The output unit is a display when the output information is image information or character information, and is a speaker when the output information is audio information. In the remote monitoring system 1 of the present embodiment, the output units of the administrator terminal 7 and the technician terminal 8 are displays, and this display outputs the determination result input from the server processing unit 40.

管理者端末7は、例えば、エレベータ2を管理する管理者により所持される。技術員端末8は、例えば、出向の要請を受けると、エレベータ2のトラブルに対応するためにエレベータ2に出向する技術員により所持される。 The administrator terminal 7 is possessed by, for example, an administrator who manages the elevator 2. The technician terminal 8 is possessed by a technician who is seconded to the elevator 2 in order to deal with a trouble in the elevator 2, for example, when a request for secondment is received.

以下、図5のフローチャート図を用いて、サーバー処理部40によるかごの内部構造のモデルパターンの作成に関する処理の流れを説明する。 Hereinafter, the flow of processing related to the creation of the model pattern of the internal structure of the car by the server processing unit 40 will be described with reference to the flowchart of FIG.

サーバー処理部40は、画像認識処理部220による最初の処理前(上述の第一処理から第三処理までの一連の処理を最初に行う前)、又は、かご21の仕様の変更時に、データベース50からかごの設計値を取得する(S01)。また、サーバー処理部40は、カメラ210から画像認識装置22等を介してかご21内の撮像画像(無人の状態(空かご状態)のかご内の撮像画像)を取得する(S02)。サーバー処理部40は、取得した撮像画像からかごの内部構造のエッジを抽出する(S03)。 The server processing unit 40 may use the database 50 before the first processing by the image recognition processing unit 220 (before the first series of processing from the first processing to the third processing described above) or when the specifications of the car 21 are changed. Acquire the design value of the basket (S01). Further, the server processing unit 40 acquires an image captured in the car 21 (an image captured in the car in an unmanned state (empty car state)) from the camera 210 via the image recognition device 22 or the like (S02). The server processing unit 40 extracts the edge of the internal structure of the car from the acquired captured image (S03).

サーバー処理部40は、撮像画像から抽出したエッジと、データベース50から取得したかごの設計値に基づいて、かご内におけるカメラ210の位置を特定すると共に、かごの内部構造のモデルパターンを作成する(S04)。 The server processing unit 40 identifies the position of the camera 210 in the car based on the edge extracted from the captured image and the design value of the car acquired from the database 50, and creates a model pattern of the internal structure of the car ( S04).

その後、サーバー処理部40は、かご21内におけるカメラ210の位置に関する情報、及び、かごの内部構造のモデルパターンに関する情報を、画像認識装置22(画像認識処理部220)に出力する(S05)。具体的に、サーバー処理部40は、カメラ視点の座標を画像認識装置22に送信すると共に、かごの内部構造のモデルパターンとして、例えば、かご内における、床の四隅、天井の四隅、ドア、及び操作盤それぞれの輪郭を結ぶ線(ワイヤーフレーム)で構成されたモデルパターンを画像認識装置22に出力する。記憶部221は、出力されたカメラ210の位置に関する情報、及び、かごの内部構造のモデルパターンに関する情報を記憶する。 After that, the server processing unit 40 outputs the information regarding the position of the camera 210 in the car 21 and the information regarding the model pattern of the internal structure of the car to the image recognition device 22 (image recognition processing unit 220) (S05). Specifically, the server processing unit 40 transmits the coordinates of the camera viewpoint to the image recognition device 22, and as a model pattern of the internal structure of the car, for example, the four corners of the floor, the four corners of the ceiling, the door, and the inside of the car. A model pattern composed of lines (wire frames) connecting the contours of each operation panel is output to the image recognition device 22. The storage unit 221 stores the output information regarding the position of the camera 210 and the information regarding the model pattern of the internal structure of the car.

次に、図6のフローチャート図を用いて、画像認識処理部220による判定処理を説明する。尚、以下、画像から抽出したエッジに、人及び物の像のエッジが含まれている場合を説明する。 Next, the determination process by the image recognition processing unit 220 will be described with reference to the flowchart of FIG. Hereinafter, a case where the edges extracted from the image include the edges of images of people and objects will be described.

画像認識処理部220は、制御マイコン20からエレベータ2の動作状況が異常である旨の情報が入力されると(S10)、カメラ210により経時的に撮像されたかご21内の撮像画像(複数の撮像画像)を取得する(S11)。 When the control microcomputer 20 inputs information indicating that the operating status of the elevator 2 is abnormal (S10), the image recognition processing unit 220 captures images (plurality of images) in the car 21 captured over time by the camera 210. (Captured image) is acquired (S11).

画像認識処理部220は、取得した複数の撮像画像のうち少なくとも二つの画像(本実施形態の遠隔監視システム1では、取得した複数の画像)から、それぞれエッジを抽出する第一処理を行う(S12)。具体的に、画像認識処理部220は、取得した複数の画像に対して、それぞれ、ノイズ除去等の前処理を行った後、エッジを抽出する。 The image recognition processing unit 220 performs a first process of extracting edges from at least two of the acquired plurality of captured images (in the remote monitoring system 1 of the present embodiment, the acquired plurality of images) (S12). ). Specifically, the image recognition processing unit 220 extracts edges after performing preprocessing such as noise removal on each of the acquired plurality of images.

画像認識処理部220は、第一処理(S12)でエッジを抽出した複数の画像から抽出されたエッジに、人のモデルパターンを当てはめる(S13)。 The image recognition processing unit 220 applies a human model pattern to the edges extracted from the plurality of images whose edges have been extracted in the first process (S12) (S13).

具体的に、画像認識処理部220は、取得した複数の画像のうちの第一の画像から抽出されたエッジにおけるかご21の内部構造に対する像のエッジに、かご21の内部構造のモデルパターンを当てはめ(第一ステップ)、この一つの画像から抽出されたエッジのうちのかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、人のモデルパターンを当てはめた(第二ステップ)後、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジにおけるかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、第二ステップにおいて当てはめた人のモデルパターンを当てはめる(第三ステップ)。さらに、画像認識処理部220は、取得した複数の画像から抽出されたエッジに当てはめた人のモデルパターンから、人のモデルパターンにおける各ポイントの座標を算出する。 Specifically, the image recognition processing unit 220 applies a model pattern of the internal structure of the car 21 to the edge of the image with respect to the internal structure of the car 21 at the edge extracted from the first image of the acquired plurality of images. (First step), the human model pattern was applied to the edges other than the edges that overlap the model pattern of the internal structure of the car 21 among the edges extracted from this one image (second step), and then acquired. The model pattern of the person applied in the second step is applied to the edges other than the edges that overlap the model pattern of the internal structure of the car 21 in the edges extracted from the images other than the first image among the plurality of images (third). Step). Further, the image recognition processing unit 220 calculates the coordinates of each point in the human model pattern from the human model pattern applied to the edges extracted from the acquired plurality of images.

次に、画像認識処理部220は、第一処理(S12)でエッジを抽出した複数の画像から抽出されたエッジに、それぞれ物のモデルパターンを当てはめる(S14)。 Next, the image recognition processing unit 220 applies a model pattern of an object to the edges extracted from the plurality of images whose edges have been extracted in the first process (S12) (S14).

具体的に、画像認識処理部220は、第一の画像から抽出されたエッジのうち、かご21の内部構造のモデルパターンに重ならず且つ人のモデルパターンに重ならないエッジに、物のモデルパターンを当てはめ(第四ステップ)、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジにおける、かご21の内部構造のモデルパターンに重ならず且つ人のモデルパターンに重ならないエッジに、第四ステップにおいて当てはめた物のモデルパターンを当てはめる(第五ステップ)。さらに、画像認識処理部220は、取得した複数の画像から抽出されたエッジに当てはめた物のモデルパターンから、物のモデルパターンにおける各ポイントの座標を算出する。 Specifically, the image recognition processing unit 220 sets the model pattern of the object on the edge extracted from the first image, which does not overlap the model pattern of the internal structure of the car 21 and does not overlap the model pattern of the person. (Fourth step), it does not overlap with the model pattern of the internal structure of the car 21 and does not overlap with the model pattern of the person at the edge extracted from the images other than the first image among the acquired multiple images. Apply the model pattern of the object applied in the 4th step to the edge (5th step). Further, the image recognition processing unit 220 calculates the coordinates of each point in the model pattern of the object from the model pattern of the object applied to the edges extracted from the plurality of acquired images.

以上のS13、S14の処理が、第二処理に相当する。 The above processes S13 and S14 correspond to the second process.

画像認識処理部220は、取得した複数の画像から抽出したエッジに当てはめた人のモデルパターンにおける各ポイントの座標に基づき、人の位置、及び、人の挙動について判定する(S15)。例えば、画像認識処理部220は、ある一定の期間において、第二処理で当てはめた人のモデルパターンの座標(第一の画像、又は、第一の画像以外の画像から抽出したエッジに当てはめた人のモデルパターンにおける各ポイントの座標)が第一の特定の座標にあるときに、人とドアとが接触しているとみなし、エレベータ2に人の位置に起因する異常が生じていると判定する。 The image recognition processing unit 220 determines the position of the person and the behavior of the person based on the coordinates of each point in the model pattern of the person applied to the edges extracted from the plurality of acquired images (S15). For example, the image recognition processing unit 220 uses the image recognition processing unit 220 to apply the coordinates of the model pattern of the person applied in the second process (the person applied to the edge extracted from the first image or an image other than the first image) in a certain period of time. When the coordinates of each point in the model pattern of the above are at the first specific coordinates, it is considered that the person and the door are in contact with each other, and it is determined that the elevator 2 has an abnormality due to the position of the person. ..

また、画像認識処理部220は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の画像での人のモデルパターンの座標の変化が第一の特定の挙動を示したとき、人がかご21を揺らすような動作を行っているとみなし、エレベータ2に人の挙動に起因する異常が生じていると判定する。 Further, in the image recognition processing unit 220, when the change in the coordinates of the human model pattern in the images before and after the captured image to which the human model pattern is applied in the second process shows the first specific behavior, the person It is considered that the car 21 is shaking, and it is determined that the elevator 2 has an abnormality caused by human behavior.

画像認識処理部220は、S15と同様に、取得した複数の画像から抽出したエッジに当てはめた物のモデルパターンにおける各ポイントの座標に基づき、物の位置、及び、物の挙動について判定する(S16)。例えば、画像認識処理部220は、ある一定の期間において、第二処理又は第三処理で当てはめた物のモデルパターンの座標(第一の画像、又は、第一の画像以外の画像から抽出したエッジに当てはまる物のモデルパターンの各ポイントの座標)が第二の特定の座標にあるときに、物とドアとが接触しているとみなし、エレベータ2に物の位置に起因する異常が生じている判定する。 Similar to S15, the image recognition processing unit 220 determines the position of the object and the behavior of the object based on the coordinates of each point in the model pattern of the object applied to the edges extracted from the acquired plurality of images (S16). ). For example, the image recognition processing unit 220 sets the coordinates of the model pattern of the object applied in the second processing or the third processing (edges extracted from the first image or an image other than the first image) in a certain period. When the coordinates of each point of the model pattern of the object that applies to) are at the second specific coordinates, it is considered that the object and the door are in contact, and the elevator 2 has an abnormality due to the position of the object. judge.

また、画像認識処理部220は、第二処理において物のモデルパターンを当てはめた撮像画像における前後の画像での物のモデルパターンの座標の変化が第二の特定の挙動を示したとき、物がかご21を揺らすように移動しているとみなし、エレベータ2に物の挙動に起因する異常が生じていると判定する。 Further, in the image recognition processing unit 220, when the change in the coordinates of the model pattern of the object in the images before and after the captured image to which the model pattern of the object is applied in the second process shows the second specific behavior, the object is moved. It is considered that the car 21 is moving so as to shake, and it is determined that the elevator 2 has an abnormality due to the behavior of an object.

画像認識処理部220は、マイコン処理部200及びサーバー処理部40に、S15,S16における判定結果を出力する(S17)。具体的に、画像認識処理部220は、エレベータ2に、人の位置に起因する異常、人の挙動に起因する異常、物の位置に起因する異常、及び物の挙動に起因する異常のうち少なくとも一つが生じていると判定した際には、この旨をマイコン処理部200及びサーバー処理部40に出力する。尚、本実施形態の遠隔監視システム1では、画像認識処理部220は、このような判定結果を第一サーバー4のサーバー処理部40にも出力することで、サーバー処理部40から管理者端末7及び技術員端末8にこの判定結果を出力させる。 The image recognition processing unit 220 outputs the determination results in S15 and S16 to the microcomputer processing unit 200 and the server processing unit 40 (S17). Specifically, the image recognition processing unit 220 causes the elevator 2 to have at least one of an abnormality caused by the position of a person, an abnormality caused by the behavior of a person, an abnormality caused by the position of an object, and an abnormality caused by the behavior of an object. When it is determined that one has occurred, this is output to the microcomputer processing unit 200 and the server processing unit 40. In the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 outputs such a determination result to the server processing unit 40 of the first server 4 from the server processing unit 40 to the administrator terminal 7. And the technician terminal 8 is made to output this determination result.

マイコン処理部200は、エレベータ2において人の位置に起因する異常、又は、人の挙動に起因する異常が生じている旨入力されると(S18においてYes)、エレベータ2に異常が無い旨のイベントコードを監視端末3に出力する(S19)。 When the microcomputer processing unit 200 is input that an abnormality caused by the position of a person or an abnormality caused by the behavior of a person has occurred in the elevator 2 (Yes in S18), an event indicating that there is no abnormality in the elevator 2 occurs. The code is output to the monitoring terminal 3 (S19).

マイコン処理部200は、エレベータ2において人の位置に起因する異常、及び、人の挙動に起因する異常が生じている旨入力されず(S18においてNo)、且つ、エレベータ2において物の位置に起因する異常、又は、物の挙動に起因する異常が生じている旨入力された場合(S20においてYes)、エレベータ2において異常が無い旨のイベントコードを監視端末3に出力する(S19)。 The microcomputer processing unit 200 does not input that an abnormality caused by the position of a person and an abnormality caused by the behavior of a person have occurred in the elevator 2 (No in S18), and is caused by the position of an object in the elevator 2. When it is input that an abnormality has occurred or an abnormality due to the behavior of an object has occurred (Yes in S20), an event code indicating that there is no abnormality in the elevator 2 is output to the monitoring terminal 3 (S19).

マイコン処理部200は、エレベータ2において人の位置に起因する異常、及び、人の挙動に起因する異常が生じている旨が入力されず(S18においてNo)、エレベータ2において物の位置に起因する異常、及び、物の挙動に起因する異常が生じている旨が入力されない場合(S20においてNo)、エレベータ2において異常がある旨のイベントコードを監視端末3に出力する(S21)。 The microcomputer processing unit 200 does not input that an abnormality caused by the position of a person and an abnormality caused by the behavior of a person have occurred in the elevator 2 (No in S18), and is caused by the position of an object in the elevator 2. When it is not input that an abnormality or an abnormality caused by the behavior of an object has occurred (No in S20), an event code indicating that there is an abnormality in the elevator 2 is output to the monitoring terminal 3 (S21).

S15〜S21の一連の処理が、第三処理に相当する。第三処理により、エレベータ2に人や物の位置に起因する異常、又は、人や物の挙動に起因する異常が生じているときには、異常情報(エレベータ2に異常がある旨のイベントコード)を監視端末3に出力することを阻止できる。 The series of processes S15 to S21 corresponds to the third process. When an abnormality caused by the position of a person or an object or an abnormality caused by the behavior of a person or an object occurs in the elevator 2 by the third process, the abnormality information (event code indicating that the elevator 2 has an abnormality) is provided. It is possible to prevent the output to the monitoring terminal 3.

以上の遠隔監視システム1では、カメラ210による撮像画像のうち少なくとも二つの画像からエッジを抽出し、この抽出したエッジに人のモデルパターンを当てはめることで、当てはめた人のモデルパターンの座標により人の位置や挙動が適正に認識できる。そのため、エレベータ2の異常を示すイベントコードが出力される可能性の高い位置に人が滞在しているとき、及び、異常を示すイベントコードが出力される可能性の高い挙動を人が行っているとき(人がその位置から移動したり、人がこの挙動を停止したりすることで、異常を示すイベントコードの出力される原因が解消されるような場合)、人の位置や挙動に起因する(人為的な原因での)報知(制御マイコン20から監視端末3への異常を示すイベントコードの送信)を防ぐことができる。 In the above remote monitoring system 1, edges are extracted from at least two images captured by the camera 210, and a human model pattern is applied to the extracted edges, so that the coordinates of the applied person's model pattern are used to obtain a person's model pattern. The position and behavior can be recognized properly. Therefore, when a person is staying at a position where an event code indicating an abnormality of the elevator 2 is likely to be output, and when a person is performing a behavior with a high possibility of outputting an event code indicating an abnormality. When (when a person moves from that position or a person stops this behavior eliminates the cause of the output of the event code indicating an abnormality), it is caused by the position or behavior of the person. It is possible to prevent notification (due to an artificial cause) (transmission of an event code indicating an abnormality from the control microcomputer 20 to the monitoring terminal 3).

第一の特定の座標は、かご21のドアの表面の存在する領域及びこのドアの軌道上の領域の少なくとも一方の領域にあるため、人のモデルパターンにおける各ポイントの座標が、第一の特定の座標にあるとき、即ち、人がドアと接触したとき及び人がドアと接触する見込みであるとき(人がドアの挙動を阻害するとき)、人によるドアの挙動の阻害に起因する報知を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。 Since the first specific coordinates are in at least one area of the surface of the door of the car 21 and the area in the orbit of the door, the coordinates of each point in the human model pattern are the first specific. When it is at the coordinates of, that is, when a person comes into contact with the door and when a person is expected to come into contact with the door (when the person obstructs the behavior of the door), the notification caused by the obstruction of the behavior of the door by the person is sent. Can be prevented. As a result, it is possible to prevent the secondment of technicians from being wasted.

第一の特定の挙動での人のモデルパターンの座標の変化は、上下方向又は水平方向の往復動であるため、人の上下方向又は水平方向の往復動が生じているとき、即ち、人がかごを揺らすような動作を行っているとき(例えば、人が飛び跳ねているとき)、人の飛び跳ね等に起因する報知を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。 The change in the coordinates of the person's model pattern in the first specific behavior is a vertical or horizontal reciprocating movement, so that when the person's vertical or horizontal reciprocating movement occurs, that is, the person When the car is shaking (for example, when a person is jumping), it is possible to prevent notification caused by the person jumping or the like. As a result, it is possible to prevent the secondment of technicians from being wasted.

遠隔監視システム1によれば、カメラ210による撮像画像のうち少なくとも二つの画像からエッジを抽出し、この抽出したエッジに物のモデルパターンを当てはめることで、当てはめた物のモデルパターンの座標により人の位置や挙動が適正に認識できる。そのため、エレベータ2の異常を示すイベントコードが出力される可能性の高い位置に物が存在しているとき、及び、異常を示すイベントコードが出力される可能性の高い挙動を物が行っているとき(物がその位置から移動したり、物がこの挙動を停止したりすることで、異常を示すイベントコードの出力される原因が解消されるような場合)、物の位置や挙動に起因する報知(制御マイコン20から監視端末3への異常を示すイベントコードの送信)を防ぐことができる。 According to the remote monitoring system 1, edges are extracted from at least two images captured by the camera 210, and an object model pattern is applied to the extracted edges, so that the coordinates of the model pattern of the applied object can be used for a person. The position and behavior can be recognized properly. Therefore, when the object exists at a position where the event code indicating the abnormality of the elevator 2 is likely to be output, and the object is performing the behavior with which the event code indicating the abnormality is likely to be output. When (when an object moves from its position or an object stops this behavior, the cause of the output of the event code indicating an abnormality is eliminated), it is caused by the position or behavior of the object. Notification (transmission of an event code indicating an abnormality from the control microcomputer 20 to the monitoring terminal 3) can be prevented.

第二の特定の座標は、かご21のドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にあるため、物のモデルパターンの各ポイントの座標が、第二の特定の座標にあるとき、即ち、物がドアと接触したとき及び物がドアと接触する見込みであるとき(物がドアの挙動を阻害するとき)、物によるドアの挙動の阻害に起因する報知を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。 Since the second specific coordinates are in at least one of the area where the surface of the door of the car 21 exists and the area in the orbit of the door, the coordinates of each point of the model pattern of the object are the second specific. When the coordinates are, that is, when an object comes into contact with the door and when the object is expected to come into contact with the door (when the object obstructs the behavior of the door), the notification caused by the obstruction of the door behavior by the object is sent. Can be prevented. As a result, it is possible to prevent the secondment of technicians from being wasted.

第二の特定の挙動での物のモデルパターンの座標の変化は、上下方向又は水平方向の往復動であるため、物の上下方向又は水平方向の往復動が生じているとき、例えば、人が運んでいる荷物が落下して跳ね返ったり、人がボールをバウンドさせていたり、人がボールをかご21内の壁に投げたりしているとき、物によるかご21内揺らしに起因する報知を防ぐことができる。これにより、技術員の出向が無駄になることを防止できる。 Since the change in the coordinates of the model pattern of the object in the second specific behavior is a reciprocating motion in the vertical or horizontal direction, when the reciprocating motion in the vertical or horizontal direction of the object occurs, for example, a person Prevent notifications caused by shaking the car 21 due to objects when the baggage you are carrying falls and bounces, a person is bouncing the ball, or a person is throwing the ball at the wall inside the car 21. Can be done. As a result, it is possible to prevent the secondment of technicians from being wasted.

画像認識処理部220は、人の上下方向又は水平方向の往復動が生じているとき、例えば、人がかご21を揺らすような動作を行っている(例えば、人が飛び跳ねている等)と判定すると、この判定結果を第一サーバー4のサーバー処理部40にも出力し、サーバー処理部40から管理者端末7及び技術員端末8にこの判定結果を出力させる。これにより、画像認識処理部220は、管理者や技術員に、かご21内での人の悪戯について注意喚起を行うことができる。 The image recognition processing unit 220 determines that, for example, when a person is reciprocating in the vertical or horizontal direction, the person is performing an operation such as shaking the car 21 (for example, the person is jumping). Then, this determination result is also output to the server processing unit 40 of the first server 4, and the server processing unit 40 causes the administrator terminal 7 and the engineer terminal 8 to output this determination result. As a result, the image recognition processing unit 220 can alert the administrator and the technician about the mischief of a person in the car 21.

本実施形態の遠隔監視システム1では、処理部23が人や物のモデルパターンとして簡略化したモデルパターンを用いているため、処理部23が扱うモデルパターンのデータ容量が、詳細なモデルパターンを用いる場合と比べて小さい。そのため、エレベータ2の制御に用いられる処理速度のあまり大きくないマイコン(制御マイコン20)によっても処理が可能である、即ち、別途処理速度の大きなマイコンを設置しなくても、既存の制御マイコン20を用いて処理を行うことができる。 In the remote monitoring system 1 of the present embodiment, since the processing unit 23 uses a simplified model pattern as a model pattern of a person or an object, the data capacity of the model pattern handled by the processing unit 23 uses a detailed model pattern. Smaller than the case. Therefore, processing can be performed by a microcomputer (control microcomputer 20) whose processing speed is not so high, which is used for controlling the elevator 2, that is, the existing control microcomputer 20 can be used without separately installing a microcomputer having a high processing speed. Can be used for processing.

また、本実施形態の遠隔監視システム1では、画像認識処理部220は、ある一定の期間、人や物のモデルパターンの座標が、第一、第二の特定の座標にあるかを判断するため、例えば、人や物が一時的にドアと接触したとしても、制御マイコン20から監視端末3への異常情報(エレベータ2に異常が生じている旨のイベントコード)の出力が阻止されることはない。 Further, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 determines whether the coordinates of the model pattern of a person or an object are at the first and second specific coordinates for a certain period of time. For example, even if a person or an object temporarily comes into contact with the door, the output of abnormality information (event code indicating that an abnormality has occurred in the elevator 2) from the control microcomputer 20 to the monitoring terminal 3 may be blocked. Absent.

さらに、本実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において人や物のモデルパターンを当てはめた撮像画像における前後の画像として、三枚以上の複数の画像についての人や物のモデルパターンの座標の変化を判断するため、より正確な人や物の挙動を把握することができる。 Further, in the remote monitoring system 1 of the present embodiment, the image recognition processing unit 220 is a person for a plurality of three or more images as the images before and after the captured image to which the model pattern of a person or an object is applied in the second processing. Since the change in the coordinates of the model pattern of the object can be determined, more accurate behavior of the person or object can be grasped.

本実施形態の遠隔監視システム1では、サーバー処理部40は、第三処理における画像認識処理部220による判定結果(例えば、人倒れ等)を、管理者端末7に送信しているため、例えば、技術員が現場(エレベータ2)から遠い場所に滞在している場合であっても、管理者が人倒れ等に対して迅速に対応することができる。 In the remote monitoring system 1 of the present embodiment, the server processing unit 40 transmits the determination result (for example, a fallen person) by the image recognition processing unit 220 in the third processing to the administrator terminal 7, so that, for example, Even when the technician is staying in a place far from the site (elevator 2), the administrator can quickly respond to a fall or the like.

尚、本発明の遠隔監視システムは、上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、ある実施形態の構成に他の実施形態の構成を追加することができ、また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることができる。さらに、ある実施形態の構成の一部を削除することができる。 It should be noted that the remote monitoring system of the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the gist of the present invention. For example, the configuration of one embodiment can be added to the configuration of another embodiment, and a part of the configuration of one embodiment can be replaced with the configuration of another embodiment. In addition, some of the configurations of certain embodiments can be deleted.

上記実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において、撮像画像のうちの少なくとも二つの画像から抽出されたエッジにおけるかごの内部構造のモデルパターンに重なるエッジ以外のエッジに、人のモデルパターン及び物のモデルパターンの両方を当てはめていたが、第二処理において人のモデルパターン及び物のモデルパターンのうち一方のみを当てはめてもよい。 In the remote monitoring system 1 of the above embodiment, in the second processing, the image recognition processing unit 220 has an edge other than the edge that overlaps the model pattern of the internal structure of the car at the edge extracted from at least two images of the captured image. Although both the human model pattern and the object model pattern have been applied to, only one of the human model pattern and the object model pattern may be applied in the second process.

このように処理を行っても、人のモデルパターンを当てはめた場合には、人の位置や挙動に起因する異常情報の制御マイコンから監視端末への送信を阻止し、これらに起因する報知を防ぐことができる。また、物のモデルパターンを当てはめた場合には、物の位置や挙動に起因する異常情報の制御マイコンから監視端末への送信を阻止し、これらに起因する報知を防ぐことができる。 Even if the processing is performed in this way, when the human model pattern is applied, the transmission of abnormal information caused by the position and behavior of the person from the control microcomputer to the monitoring terminal is blocked, and the notification caused by these is prevented. be able to. Further, when the model pattern of the object is applied, it is possible to prevent the control microcomputer from transmitting the abnormality information due to the position and behavior of the object to the monitoring terminal, and prevent the notification caused by these.

また、上記実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において、撮像画像のうち少なくとも二つの画像のうちの一つの画像から抽出されたエッジにかごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめ(第一ステップ及び第二ステップ)、撮像画像のうち少なくとも二つの画像のうちの一つの画像以外の画像から抽出されたエッジにはかごの内部構造のモデルパターンを当てはめずに人のモデルパターンを当てはめていたが(第三ステップ)、撮像画像のうち少なくとも二つの画像のうちの一つの画像以外の画像から抽出されたエッジにも、かごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめてもよい。即ち、撮像画像のうち少なくとも二つの画像から抽出されたエッジに人のモデルパターンを当てはめる際、毎回、かごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめてもよい。 Further, in the remote monitoring system 1 of the above embodiment, the image recognition processing unit 220 is a model of the internal structure of the cage at the edge extracted from at least one of two images in the second processing. After applying the pattern, apply the human model pattern (first step and second step), and the internal structure of the cage is applied to the edges extracted from images other than one of at least two of the captured images. Although the human model pattern was applied without applying the model pattern (third step), the internal structure of the cage was also applied to the edges extracted from images other than one of at least two of the captured images. You may apply a person's model pattern after applying the model pattern of. That is, every time a person's model pattern is applied to the edges extracted from at least two of the captured images, the person's model pattern may be applied after applying the model pattern of the internal structure of the car.

さらに、上記実施形態の遠隔監視システム1では、画像認識処理部220は、第二処理において、撮像画像のうち少なくとも二つの画像から抽出されたエッジのうちのかごの内部構造のモデルパターンに重なるエッジ以外のエッジに、人のモデルパターン及び物のモデルパターンを当てはめていたが、かごの内部構造のモデルパターンを用いずに、この少なくとも二つの画像から抽出されたエッジに、人のモデルパターン及び物のモデルパターンを当てはめてもよい。 Further, in the remote monitoring system 1 of the above embodiment, in the second processing, the image recognition processing unit 220 overlaps the model pattern of the internal structure of the car among the edges extracted from at least two images of the captured images. The human model pattern and the object model pattern were applied to the edges other than the above, but the human model pattern and the object were applied to the edges extracted from at least two images without using the model pattern of the internal structure of the car. The model pattern of may be applied.

例えば、画像認識処理部220は、カメラ210から取得した複数の画像のうち少なくとも二つの画像と無人のかご内の撮像画像との差分、及び、これらの画像の変化から、何らかの物体がかご内にある、又は、何らかの物体がかご内に乗り降りすると予測されることを検出してもよい。 For example, the image recognition processing unit 220 causes some object to move into the car from the difference between at least two images of the plurality of images acquired from the camera 210 and the captured image in the unmanned car, and changes in these images. It may be detected that some or some object is expected to get in and out of the car.

また、画像認識処理部220は、かごの内部構造のモデルパターンを作成する代わりに、カメラ210から取得した無人のかご内の撮像画像からエッジを抽出し、記憶部221は、モデルデータに加えて、無人のかご内の撮像画像から抽出したエッジを記憶していてもよい。尚、この場合、記憶部221は、かご21の内部構造のモデルパターンを記憶していなくてもよい。 Further, the image recognition processing unit 220 extracts an edge from the captured image in the unmanned car acquired from the camera 210 instead of creating a model pattern of the internal structure of the car, and the storage unit 221 adds the model data to the image. , The edge extracted from the captured image in the unmanned car may be stored. In this case, the storage unit 221 does not have to store the model pattern of the internal structure of the car 21.

この場合、画像認識処理部220は、第一の画像から抽出されたエッジと無人のかご内の撮像画像から抽出されるエッジとの差分に人や物のモデルパターンを当てはめれば、人や物のモデルパターンによって人や物の位置や挙動が適正に認識できるため、人の位置や挙動に起因する異常情報の制御マイコンから監視端末への送信を阻止し、これらに起因する報知を防ぐことができる。 In this case, if the image recognition processing unit 220 applies the model pattern of the person or object to the difference between the edge extracted from the first image and the edge extracted from the captured image in the unmanned car, the person or object Since the position and behavior of a person or object can be properly recognized by the model pattern of, it is possible to prevent the transmission of abnormal information caused by the position and behavior of a person from the control microcomputer to the monitoring terminal and prevent the notification caused by these. it can.

上記実施形態の遠隔監視システム1では、第二処理において、エッジを抽出した少なくとも二つの画像のうち第一の画像から抽出したエッジに人のモデルパターンを当てはめる処理(第二ステップ)を行い、次に、この少なくとも二つの画像のうち第一の画像以外の画像から抽出したエッジに人のモデルパターンを当てはめる処理(第三ステップ)を行い、さらに、先ほどの少なくとも二つの画像のうち第一の画像から抽出したエッジに物のモデルパターンを当てはめる処理(第四ステップ)を行い、最後に、先ほどの少なくとも二つの画像のうち第一の画像以外の画像から抽出したエッジに物のモデルパターンを当てはめる処理(第五ステップ)を行っていたが、これらステップを行う順序はこれに限らない。例えば、第二ステップの後に第四ステップを行い、さらに第三ステップと第五ステップとを順に行ってもよい。 In the remote monitoring system 1 of the above embodiment, in the second process, a process (second step) of applying a human model pattern to the edge extracted from the first image out of at least two images from which the edge is extracted is performed, and then the process is performed. Then, a process of applying a human model pattern to the edges extracted from images other than the first image of the at least two images (third step) is performed, and further, the first image of the at least two images mentioned above is performed. The process of applying the model pattern of the object to the edge extracted from (fourth step) is performed, and finally, the process of applying the model pattern of the object to the edge extracted from the image other than the first image of at least the two images mentioned above. (Fifth step) was performed, but the order in which these steps are performed is not limited to this. For example, the fourth step may be performed after the second step, and then the third step and the fifth step may be performed in order.

また、上述のように、エッジを抽出した少なくとも二つの画像から抽出したエッジに対する人のモデルパターンの当てはめと物のモデルパターンの当てはめは、それぞれ個別の処理として順番に行ってもよいし、モデルパターンの当てはめ及び物のモデルパターンの当てはめを同時に行ってもよい。 Further, as described above, the fitting of the human model pattern and the fitting of the object model pattern to the edges extracted from at least two images from which the edges are extracted may be sequentially performed as separate processes, or the model patterns may be applied in order. The fitting of the model and the fitting of the model pattern of the object may be performed at the same time.

処理部23は、第一処理で取得した複数の撮像画像から抽出したエッジに対して、人や物のモデルパターンの当てはめを行っていたが、これに限らず、第一処理で取得した複数の撮像画像のうち少なくとも二つの画像から抽出したエッジに対して、人や物のモデルパターンの当てはめを行ってもよい。この場合においても、処理部23は、人や物の位置や挙動を把握することができる。 The processing unit 23 fits the model patterns of people and objects to the edges extracted from the plurality of captured images acquired in the first processing, but the present invention is not limited to this, and a plurality of edges acquired in the first processing are applied. The model pattern of a person or an object may be applied to the edges extracted from at least two of the captured images. Even in this case, the processing unit 23 can grasp the position and behavior of a person or an object.

処理部23は、人のモデルパターン及び物のモデルパターンとして、各エレベータに共通して設定されたモデルパターンを用いていたが、各エレベータに個別に設定されたモデルパターンを用いてもよい。例えば、各エレベータが設置されている建物内での利用者のシルエットに応じて、個別の人のモデルパターンを追加してもよい。 The processing unit 23 used a model pattern commonly set for each elevator as a model pattern for a person and a model pattern for an object, but a model pattern individually set for each elevator may be used. For example, individual person model patterns may be added according to the silhouette of the user in the building where each elevator is installed.

人のモデルパターンは、人のパーツ(頭部及び胴部等)を簡略化したもの輪郭を結ぶ線(ワイヤーフレーム)で構成されるモデルパターンであったが、人のパーツをある程度詳細に描いたものの輪郭を結ぶ線(ワイヤーフレーム)で構成されるモデルパターンであってもよい。詳細な人のモデルパターンを用いることで、人の位置や挙動をより詳細に把握することができる。例えば、詳細な人のモデルパターンが、人の瞳、鼻、及び口などの輪郭を結ぶ線を含む場合、撮像画像から抽出されたエッジに対して、人のモデルパターンのうち人の瞳、鼻、及び口に対応する部分をそれぞれ当てはめることで、かご21内が有人であるか否かをより確実に判断することができる。 The human model pattern was a simplified version of the human parts (head, body, etc.) and consisted of lines (wireframes) connecting the contours, but the human parts were drawn in some detail. It may be a model pattern composed of lines (wireframes) connecting the contours of objects. By using a detailed model pattern of a person, the position and behavior of the person can be grasped in more detail. For example, when a detailed human model pattern includes lines connecting contours such as the human pupil, nose, and mouth, the human pupil, nose, and the human eye, nose, among the human model patterns, are relative to the edges extracted from the captured image. By applying the parts corresponding to the and the mouth, it is possible to more reliably determine whether or not the inside of the car 21 is manned.

また、物のモデルパターンは、立方体の各辺を結ぶ線で構成されるモデルパターンであったが、より詳細なモデルパターンを用いてもよい。物のモデルパターンは、例えば、鞄、ベビーカー等の輪郭を結ぶ線で構成されるモデルパターンを含んでもよい。 Further, although the model pattern of the object is a model pattern composed of lines connecting each side of the cube, a more detailed model pattern may be used. The model pattern of the object may include, for example, a model pattern composed of lines connecting the contours of a bag, a stroller, or the like.

モデルデータ(かごの内部構造のモデルパターン、人のモデルパターン、及び物のモデルパターン等)は、画像認識装置22の記憶部221以外、例えば、エレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバー等に記憶されていてもよい。 The model data (model pattern of the internal structure of the car, model pattern of a person, model pattern of an object, etc.) is stored in a place other than the storage unit 221 of the image recognition device 22, for example, a place different from the elevator 2 (away from the elevator 2). It may be stored in a server or the like installed in the place).

処理部23は、画像認識装置22に備えられた画像認識処理部220と、制御マイコン20に備えられたマイコン処理部200とを含んでいたが、これに限らず、処理部23の全てが、制御マイコン20に設けられてもよいし、画像認識装置22に設けられてもよい。また、処理部23の少なくとも一部が、エレベータ2以外の構成(例えば、第一サーバー4や、エレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバー)に含まれていてもよい。 The processing unit 23 includes an image recognition processing unit 220 provided in the image recognition device 22, and a microcomputer processing unit 200 provided in the control microcomputer 20, but the processing unit 23 is not limited to this, and all of the processing units 23 include. It may be provided in the control microcomputer 20 or in the image recognition device 22. Further, at least a part of the processing unit 23 is included in a configuration other than the elevator 2 (for example, a first server 4 or a server installed in a place different from the elevator 2 (a place away from the elevator 2)). You may.

例えば、処理部23は、詳細な人のモデルパターンを用いる場合、簡略化した人のモデルパターンを用いる場合と比べて、高い処理能力が必要であるため、処理部23や記憶部221をエレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバーに設けてもよい。 For example, when the processing unit 23 uses a detailed human model pattern, a higher processing capacity is required as compared with the case where a simplified human model pattern is used. Therefore, the processing unit 23 and the storage unit 221 are combined with the elevator 2 It may be installed in a server installed in a place different from the above (a place away from the elevator 2).

カメラ210は、かご21内に複数設けられていてもよい。また、カメラ210として、監視カメラを用いる代わりに、監視カメラ以外の別のカメラを用いてもよい。このようなカメラとして、例えば、周囲全体を同時に撮影可能な360°カメラを用いてもよい。 A plurality of cameras 210 may be provided in the car 21. Further, as the camera 210, instead of using the surveillance camera, another camera other than the surveillance camera may be used. As such a camera, for example, a 360 ° camera capable of simultaneously photographing the entire surroundings may be used.

画像認識処理部220は、第三処理において、人のモデルパターンの座標に基づいて、人とかご21のドアとの接触を判定して、異常情報の出力の送信を阻止していたが、人とドアとの位置関係(人とドアとの距離等)、人とかご21の壁との位置関係、人とかご21の天井との位置関係、人とかご21の床との位置関係、及び、人と操作パネルとの位置関係等を判断して、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2に異常が生じている旨のイベントコード)の出力の送信を阻止してもよい。例えば、人のモデルパターンの両肩や両肘等の座標が、ある一定の期間、かご21の床と接触していると判断した場合、人が倒れているものと判断し、制御マイコン20から監視端末3への異常情報(例えば、エレベータ2に異常が生じている旨のイベントコード)の出力の送信を阻止すると共に、人倒れに関する情報の出力を送信してもよい。 In the third process, the image recognition processing unit 220 determines the contact between the person and the door of the car 21 based on the coordinates of the model pattern of the person, and blocks the transmission of the output of the abnormal information. The positional relationship between the person and the door (distance between the person and the door, etc.), the positional relationship between the person and the wall of the car 21, the positional relationship between the person and the ceiling of the car 21, the positional relationship between the person and the floor of the car 21, and , Judging the positional relationship between the person and the operation panel, blocking the transmission of the output of abnormality information (for example, an event code indicating that an abnormality has occurred in the elevator 2) from the control microcomputer 20 to the monitoring terminal 3. May be good. For example, when it is determined that the coordinates of both shoulders and elbows of a person's model pattern are in contact with the floor of the car 21 for a certain period of time, it is determined that the person is lying down, and the control microcomputer 20 determines that the person is lying down. The transmission of the output of abnormality information (for example, an event code indicating that an abnormality has occurred in the elevator 2) to the monitoring terminal 3 may be blocked, and the output of information regarding a fall may be transmitted.

サーバー処理部40は、画像認識処理部220による判定結果を文字情報として管理者端末7及び技術員端末8に出力していたが、音声情報として出力してもよい。 Although the server processing unit 40 has output the determination result by the image recognition processing unit 220 as character information to the administrator terminal 7 and the technician terminal 8, it may be output as voice information.

また、サーバー処理部40は、画像認識処理部220による判定結果を、管理者端末7及び技術員端末8の一方に出力してもよい。例えば、かご21内での悪戯の可能性について管理者端末7のみに送信することで、管理者への注意喚起を行うと共に、他のエレベータに対応している技術員の作業の中断を抑制できる。 Further, the server processing unit 40 may output the determination result by the image recognition processing unit 220 to one of the administrator terminal 7 and the technician terminal 8. For example, by transmitting the possibility of mischief in the car 21 only to the administrator terminal 7, it is possible to call attention to the administrator and suppress interruption of work of a technician corresponding to another elevator.

上記実施形態の遠隔監視システム1は、複数台のエレベータを備えていたが、一台のエレベータを備えていてもよい。また、遠隔監視システム1は、複数台の管理者端末7及び複数台の技術員端末8を備えていたが、一台の管理者端末7及び複数台の技術員端末8を備えていてもよいし、複数台の管理者端末7及び一台の技術員端末8を備えていてもよい。 The remote monitoring system 1 of the above embodiment includes a plurality of elevators, but may include one elevator. Further, although the remote monitoring system 1 includes a plurality of administrator terminals 7 and a plurality of technician terminals 8, it may be provided with one administrator terminal 7 and a plurality of technician terminals 8. A plurality of administrator terminals 7 and one technician terminal 8 may be provided.

さらに、遠隔監視システム1は、第一サーバー4に接続可能な客先端末を備えていてもよい。客先端末は、例えば、病院や養護老人施設等に設置される。この場合、サーバー処理部40は、画像認識処理部220による判定結果を、客先端末に出力してもよい。例えば、人倒れについての情報を、病院や養護老人施設等に設置された客先端末に送信することで、看護師や介護士等が人倒れに対して適切に対応することができる。尚、このような送信を行うために、データベース50は、エレベータに対応する客先端末に関する情報を人や物の挙動と関連付けて記憶していてもよい(例えば、各エレベータの最寄りの病院の連絡先と人倒れについての情報とを関連付けて記憶していてもよい)。 Further, the remote monitoring system 1 may include a customer terminal that can be connected to the first server 4. The customer terminal is installed in, for example, a hospital or a nursing home for the elderly. In this case, the server processing unit 40 may output the determination result by the image recognition processing unit 220 to the customer terminal. For example, by transmitting information about a person's fall to a customer terminal installed in a hospital, a nursing home for the elderly, or the like, a nurse, a caregiver, or the like can appropriately respond to the person's fall. In order to perform such transmission, the database 50 may store information about the customer terminal corresponding to the elevator in association with the behavior of a person or an object (for example, contact of the nearest hospital of each elevator). You may remember the destination in association with the information about the fall).

通信系統R1は、電話回線を含んでいたが、図7に示すように、電話回線の代わりにインターネットを含んでいてもよい。通信系統R1は、例えば、制御マイコン20から順に遠隔監視ユニット6とインターネットとを介して監視端末3に通信可能であり、且つ、監視端末3から逆にインターネットと遠隔監視ユニット6とを介して制御マイコン20に通信可能な通信系統である。この場合、通信系統R1,R2,R3は、一部(インターネット)で共通している。 Although the communication system R1 includes a telephone line, as shown in FIG. 7, the communication system R1 may include the Internet instead of the telephone line. For example, the communication system R1 can communicate with the monitoring terminal 3 from the control microcomputer 20 in order via the remote monitoring unit 6 and the Internet, and is controlled from the monitoring terminal 3 via the Internet and the remote monitoring unit 6. It is a communication system capable of communicating with the microcomputer 20. In this case, the communication systems R1, R2, and R3 are partly common (Internet).

また、通信系統R1は、遠隔監視ユニット6を含んでいたが、これを含んでいなくてもよい。この場合、制御マイコン20は、インターネットを介して第一サーバー4に接続される。 Further, although the communication system R1 includes the remote monitoring unit 6, it may not be included. In this case, the control microcomputer 20 is connected to the first server 4 via the Internet.

1…遠隔監視システム、2…エレベータ、20…制御マイコン、200…マイコン処理部、21…かご、210…カメラ、211…マイク、212…スピーカー、213…ディスプレイ、22…画像認識装置、220…画像認識処理部、221…記憶部、23…処理部、24…音声認識装置、25…音声案内装置、26…表示案内装置、3…監視端末、4…第一サーバー、40…サーバー処理部、5…第二サーバー、50…データベース、6…遠隔監視ユニット、7…管理者端末、8…技術員端末(技術員携帯端末)、R1,R2,R3…通信系統、P1,P2,P3,P…座標 1 ... remote monitoring system, 2 ... elevator, 20 ... control microcomputer, 200 ... microcomputer processing unit, 21 ... basket, 210 ... camera, 211 ... microphone, 212 ... speaker, 213 ... display, 22 ... image recognition device, 220 ... image Recognition processing unit, 221 ... storage unit, 23 ... processing unit, 24 ... voice recognition device, 25 ... voice guidance device, 26 ... display guidance device, 3 ... monitoring terminal, 4 ... first server, 40 ... server processing unit, 5 ... second server 50 ... database, 6 ... remote monitoring unit, 7 ... manager terminal, 8 ... technician terminal (technician mobile terminal), R1, R2, R3 ... communication line, P1, P2, P3, P C ... coordinates

Claims (2)

エレベータに配置された制御マイコンと、
前記制御マイコンに接続され且つ該制御マイコンからの異常情報を受信可能な監視端末と、
前記エレベータのかご内を経時的に撮像する撮像装置と、
前記撮像装置が撮像した画像を処理する処理部と、
前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、
前記かごは、開閉するドアを含み、
前記モデルデータは、少なくとも一つの人のモデルパターンを含み、
前記処理部は、
前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、
前記少なくとも二つの画像から抽出されたエッジのうちの人に対する像のエッジに、それぞれ前記人のモデルパターンを当てはめる第二処理と、
前記第二処理で当てはめた人のモデルパターンの座標が第一の特定の座標にあるときに、前記制御マイコンから前記監視端末への異常情報の送信であって前記人のモデルパターンが当てはめられた人の位置に起因する異常情報の送信を阻止する第三処理と、を行い、
前記第一の特定の座標は、前記ドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にある、
ことを特徴とするエレベータの遠隔監視システム。
The control microcomputer placed in the elevator and
A monitoring terminal connected to the control microcomputer and capable of receiving abnormality information from the control microcomputer,
An image pickup device that images the inside of the elevator car over time,
A processing unit that processes the image captured by the image pickup device, and
A storage unit for storing model data to be compared with an image captured by the imaging device is provided.
The car includes a door that opens and closes
The model data includes a model pattern of at least one person.
The processing unit
The first process of extracting edges from at least two images out of a plurality of images captured by the image pickup apparatus, and
The second process of applying the model pattern of the person to the edge of the image for the person among the edges extracted from the at least two images, respectively.
When the coordinates of the model pattern of the person applied in the second process are at the first specific coordinates, the abnormal information is transmitted from the control microcomputer to the monitoring terminal, and the model pattern of the person is applied. Perform the third process to prevent the transmission of abnormal information due to the position of the person,
The first specific coordinate is in at least one region of the surface of the door and the region of the door in orbit.
A remote monitoring system for elevators that features this.
エレベータに配置された制御マイコンと、
前記制御マイコンに接続され且つ該制御マイコンからの異常情報を受信可能な監視端末と、
前記エレベータのかご内を経時的に撮像する撮像装置と、
前記撮像装置が撮像した画像を処理する処理部と、
前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、
前記モデルデータは、少なくとも一つの物のモデルパターンを含み、
前記かごは、開閉するドアを含み、
前記処理部は、
前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、
前記少なくとも二つの画像から抽出されたエッジのうちの物に対する像のエッジに、それぞれ前記物のモデルパターンを当てはめる第二処理と、
前記第二処理で当てはめた物のモデルパターンの座標が第二の特定の座標にあるときに、前記制御マイコンから前記監視端末への異常情報の送信であって前記物のモデルパターンが当てはめられた物の位置に起因する異常情報の送信を阻止する第三処理と、を行い、
前記第二の特定の座標は、前記ドアの表面の存在する領域及び前記ドアの軌道上の領域の少なくとも一方の領域にある、
ことを特徴とするエレベータの遠隔監視システム。
The control microcomputer placed in the elevator and
A monitoring terminal connected to the control microcomputer and capable of receiving abnormality information from the control microcomputer,
An image pickup device that images the inside of the elevator car over time,
A processing unit that processes the image captured by the image pickup device, and
A storage unit for storing model data to be compared with an image captured by the imaging device is provided.
The model data includes a model pattern of at least one object.
The car includes a door that opens and closes
The processing unit
The first process of extracting edges from at least two images out of a plurality of images captured by the image pickup apparatus, and
A second process of applying the model pattern of the object to the edge of the image with respect to the object among the edges extracted from at least two images.
When the coordinates of the model pattern of the object applied in the second process are at the second specific coordinates, the model pattern of the object is applied by transmitting the abnormality information from the control microcomputer to the monitoring terminal. Perform the third process to prevent the transmission of abnormal information due to the position of the object,
The second specific coordinate is in at least one region of the surface of the door and the region of the door in orbit.
A remote monitoring system for elevators that features this.
JP2019230105A 2019-12-20 2019-12-20 Elevator remote monitoring system Active JP6810914B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019230105A JP6810914B2 (en) 2019-12-20 2019-12-20 Elevator remote monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019230105A JP6810914B2 (en) 2019-12-20 2019-12-20 Elevator remote monitoring system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017013390A Division JP6667144B2 (en) 2017-01-27 2017-01-27 Elevator remote monitoring system

Publications (2)

Publication Number Publication Date
JP2020040839A JP2020040839A (en) 2020-03-19
JP6810914B2 true JP6810914B2 (en) 2021-01-13

Family

ID=69797513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019230105A Active JP6810914B2 (en) 2019-12-20 2019-12-20 Elevator remote monitoring system

Country Status (1)

Country Link
JP (1) JP6810914B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114436087A (en) * 2022-02-15 2022-05-06 浙江新再灵科技股份有限公司 Elevator passenger door-opening detection method and system based on deep learning

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115258869B (en) * 2022-07-08 2023-10-20 江苏飞耐科技有限公司 Elevator early warning method and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5483702B2 (en) * 2010-02-09 2014-05-07 東芝エレベータ株式会社 Elevator stagnant detector
JP5718632B2 (en) * 2010-12-22 2015-05-13 綜合警備保障株式会社 Part recognition device, part recognition method, and part recognition program
JP6482988B2 (en) * 2015-08-27 2019-03-13 株式会社日立ビルシステム Elevator door open / close abnormality judgment device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114436087A (en) * 2022-02-15 2022-05-06 浙江新再灵科技股份有限公司 Elevator passenger door-opening detection method and system based on deep learning
CN114436087B (en) * 2022-02-15 2023-09-19 浙江新再灵科技股份有限公司 Deep learning-based elevator passenger door-pulling detection method and system

Also Published As

Publication number Publication date
JP2020040839A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
US10896599B1 (en) Immersive virtual reality detection and alerting technology
JP6810914B2 (en) Elevator remote monitoring system
JP4797720B2 (en) Monitoring device and method, image processing device and method, and program
JP6158517B2 (en) Alarm system
JP5674307B2 (en) Subject detection system and subject detection method
US20220185625A1 (en) Camera-based sensing devices for performing offline machine learning inference and computer vision
JP7243110B2 (en) Information processing device and information processing method, computer program, and package reception support system
WO2015099882A1 (en) Elevator control system
JP6845307B2 (en) Monitoring system and monitoring method
JP2019219736A (en) Monitoring system
JP2018181159A (en) Security system, crime prevention method, and robot
JP2012212236A (en) Left person detection device
JP6667144B2 (en) Elevator remote monitoring system
JP2018094683A (en) Watching type pet robot
JP2007221693A (en) Video monitor system and video concentrator
JP6754099B2 (en) Elevator door control system
JP6886645B2 (en) Elevator user support system
JP6722408B2 (en) Elevator user support system
JP2014119900A (en) Photographing system
JP6941458B2 (en) Monitoring system
JP2019198041A (en) Camera image inspection system and camera image inspection method
JP2020013185A (en) Watching device and watching device control program
JP7430088B2 (en) speech control device
JP7198052B2 (en) image surveillance system
JP7220057B2 (en) image surveillance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201126

R150 Certificate of patent or registration of utility model

Ref document number: 6810914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250