JP6886645B2 - Elevator user support system - Google Patents

Elevator user support system Download PDF

Info

Publication number
JP6886645B2
JP6886645B2 JP2019232419A JP2019232419A JP6886645B2 JP 6886645 B2 JP6886645 B2 JP 6886645B2 JP 2019232419 A JP2019232419 A JP 2019232419A JP 2019232419 A JP2019232419 A JP 2019232419A JP 6886645 B2 JP6886645 B2 JP 6886645B2
Authority
JP
Japan
Prior art keywords
car
person
processing unit
model pattern
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019232419A
Other languages
Japanese (ja)
Other versions
JP2020059607A (en
Inventor
行宏 宮川
行宏 宮川
正一 若林
正一 若林
文隆 赤坂
文隆 赤坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP2019232419A priority Critical patent/JP6886645B2/en
Publication of JP2020059607A publication Critical patent/JP2020059607A/en
Application granted granted Critical
Publication of JP6886645B2 publication Critical patent/JP6886645B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indicating And Signalling Devices For Elevators (AREA)
  • Elevator Door Apparatuses (AREA)
  • Image Analysis (AREA)

Description

本発明は、エレベータの利用者をサポートするエレベータの利用者サポートシステムに関する。 The present invention relates to an elevator user support system that supports elevator users.

従来から、エレベータのかご内に監視カメラを設置し、監視カメラによりかご内の状況を撮像して記録し、この記録内容を事後的に確認できるエレベータ用防犯カメラシステムが提供されている。かかる防犯カメラシステムでは、記録したカメラの画像を表示させてかご内の状況を確認することができる。 Conventionally, a security camera system for an elevator has been provided in which a surveillance camera is installed in an elevator car, the situation inside the car is imaged and recorded by the surveillance camera, and the recorded contents can be confirmed after the fact. In such a security camera system, the recorded camera image can be displayed to check the situation inside the car.

しかし、従来の防犯カメラシステムでは、監視カメラの撮像画像を事後的に表示部に表示させるため、かご内の現状を確認することができず、かご内に居る利用者がトラブル(例えば、急病、操作の戸惑い)に見舞われていても、そのトラブルに対して迅速な対応を取ることもできない。 However, in the conventional security camera system, since the image captured by the surveillance camera is displayed on the display after the fact, it is not possible to check the current state of the car, and the user in the car has trouble (for example, sudden illness, sudden illness, etc.). Even if you are confused about the operation, you cannot take prompt action against the trouble.

特開2006−151581号公報Japanese Unexamined Patent Publication No. 2006-151581

そこで、本発明は、エレベータの利用者の状況に応じて利用者をサポートすることができるエレベータの利用者サポートシステムを提供する。 Therefore, the present invention provides an elevator user support system that can support users according to the situation of elevator users.

本発明のエレベータの利用者サポートシステムは、エレベータに配置された制御マイコンと、前記エレベータのかご内を経時的に撮像する撮像装置と、前記制御マイコンと接続され且つ前記撮像装置が撮像した画像を処理する処理部と、前記処理部の指示に基づき前記エレベータの利用者の状況に応じた所定の動作を実行する実行部と、前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、前記モデルデータは、少なくとも一つの人のモデルパターンを含み、前記処理部は、前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、前記少なくとも二つの画像から抽出されたエッジのうちの人に対する像のエッジに、それぞれ前記人のモデルパターンを当てはめる第二処理と、前記第二処理における前記少なくとも二つの画像に対する前記人のモデルパターンの当てはめに基づいて、人の状況を把握する第三処理と、前記第三処理で把握した人の状況に応じて所定の動作を前記実行部に実行させる第四処理と、を行うことを特徴とする。 The elevator user support system of the present invention captures a control microcomputer arranged in the elevator, an image pickup device that images the inside of the elevator car over time, and an image that is connected to the control microcomputer and captured by the image pickup device. Model data to be compared between the processing unit to be processed, the execution unit that executes a predetermined operation according to the situation of the user of the elevator based on the instruction of the processing unit, and the image captured by the imaging device. The model data includes a storage unit for storing, and the model data includes a model pattern of at least one person, and the processing unit captures edges from at least two images out of a plurality of images captured by the image pickup apparatus. The first process of extracting, the second process of applying the model pattern of the person to the edge of the image for the person among the edges extracted from the at least two images, and the second process of applying the model pattern of the person to the edge of the image for the person, and the said for the at least two images in the second process. Based on the fitting of the human model pattern, the third process of grasping the situation of the person and the fourth process of causing the execution unit to execute a predetermined operation according to the situation of the person grasped in the third process. It is characterized by doing.

上記エレベータの利用者サポートシステムでは、人のモデルパターンを用いた画像認識によって、かご内の人の状況が適正に認識され、この認識に基づいて、実行部が所定の動作(利用者の状況に応じたサポート)を行う。これにより、エレベータの利用者の状況に応じたサポートが行われる。 In the user support system of the elevator, the situation of the person in the car is properly recognized by the image recognition using the model pattern of the person, and based on this recognition, the execution unit performs a predetermined operation (to the user's situation). Support according to the situation). As a result, support is provided according to the situation of the elevator user.

前記エレベータの利用者サポートシステムでは、前記モデルデータは、少なくとも一つのかごの内部構造のモデルパターンも含み、前記第二処理は、前記少なくとも二つの画像のうちの一つの画像から抽出されたエッジにおけるかごの内部構造に対する像のエッジに前記かごの内部構造のモデルパターンを当てはめる第一ステップと、前記一つの画像から抽出されたエッジのうちの前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記人のモデルパターンを当てはめる第二ステップと、前記少なくとも二つの画像のうち前記一つの画像以外の画像から抽出されたエッジにおける前記かごの内部構造のモデルパターンに重なるエッジ以外のエッジに、前記第二ステップにおいて当てはめた人のモデルパターンを当てはめる第三ステップとを有してもよい。 In the elevator user support system, the model data also includes a model pattern of the internal structure of at least one car, and the second process is performed on an edge extracted from one of the at least two images. The first step of applying the model pattern of the internal structure of the car to the edge of the image with respect to the internal structure of the car, and the edges other than the edges that overlap the model pattern of the internal structure of the car among the edges extracted from the one image. In the second step of applying the model pattern of the person, and to the edge other than the edge overlapping the model pattern of the internal structure of the car in the edge extracted from the image other than the one image among the at least two images. It may have a third step of fitting the model pattern of the person who fits in the second step.

かかる構成によれば、撮像画像から抽出されたエッジのうちかごの内部構造のモデルパターンに重なるエッジ以外のエッジに対して人のモデルパターンを当てはめることで、より適正に人のモデルパターンの当てはめることができるため、かご内の人の状況がさらに適正に認識できる。これにより、エレベータの利用者の状況に応じたサポートがより適正に行われる。 According to this configuration, the human model pattern can be applied more appropriately by applying the human model pattern to the edges other than the edges that overlap the model pattern of the internal structure of the car among the edges extracted from the captured image. Therefore, the situation of the person in the car can be recognized more appropriately. As a result, support according to the situation of the elevator user is provided more appropriately.

前記エレベータの利用者サポートシステムでは、前記実行部は、前記エレベータの前記かご内に配置される報知装置を有し、前記処理部は、前記第四処理において、前記報知装置に前記所定の動作として、前記把握した人の状況に応じた情報を報知させてもよい。 In the user support system of the elevator, the execution unit has a notification device arranged in the car of the elevator, and the processing unit performs the predetermined operation on the notification device in the fourth process. , The information according to the situation of the grasped person may be notified.

かかる構成によれば、報知装置が、かご内の利用者の状況に応じた情報を報知するため、利用者の状況に応じた情報(利用者にとって必要な情報)を提供できる。 According to such a configuration, since the notification device notifies the information according to the situation of the user in the car, it is possible to provide the information according to the situation of the user (information necessary for the user).

前記エレベータの利用者サポートシステムでは、前記実行部は、公衆回線に接続される通信部を有し、前記処理部は、前記第四処理において、前記通信部に前記所定の動作として、前記把握した人の状況についての情報を送信させてもよい。 In the user support system of the elevator, the execution unit has a communication unit connected to a public line, and the processing unit has grasped the communication unit as the predetermined operation in the fourth process. Information about a person's situation may be sent.

かかる構成によれば、かご内の利用者の状況についての情報を通信部によって外部(公衆回線)に送信させるため、例えば、公衆回線に接続された外部のセンター等のシステム外の端末等を利用して、利用者の状況に応じた対応を行わせることができる。 According to this configuration, in order for the communication unit to transmit information about the status of the user in the car to the outside (public line), for example, a terminal outside the system such as an external center connected to the public line is used. Then, it is possible to make a response according to the situation of the user.

前記エレベータの利用者サポートシステムでは、前記画像は、前記かごの出入り口から見える乗り場も含み、前記実行部は、前記かごのドアを開閉する開閉装置であり、前記処理部は、前記第三処理において、前記乗り場を含む画像に基づいて前記かごに対する人の乗り降りを把握し、前記第四処理において、前記開閉装置に前記所定の動作として、前記把握した人の乗り降りに応じてドアを開閉させてもよい。 In the elevator user support system, the image includes a landing that can be seen from the entrance and exit of the car, the execution unit is a switchgear that opens and closes the door of the car, and the processing unit is the third processing. Even if a person's getting on and off the car is grasped based on the image including the landing, and in the fourth process, the opening / closing device opens and closes the door according to the grasped person's getting on and off as the predetermined operation. Good.

かかる構成によれば、開閉装置が、人の乗り降りに応じてドアの開閉を制御するため、例えば、人のかごへの乗り降りしている最中にドアが人の乗り降りを妨げることを防止し、人のかごへの乗り降りのタイミングに応じてドアを開閉することができる。 According to such a configuration, the switchgear controls the opening and closing of the door according to the entry and exit of a person, so that, for example, the door prevents the person from getting in and out of the car while getting in and out of the car. The door can be opened and closed according to the timing of getting in and out of the car.

前記エレベータの利用者サポートシステムでは、前記実行部は、前記かごを昇降駆動する駆動装置を有し、前記処理部は、前記第三処理において、前記かご内の画像に基づいて前記かごの揺れにつながる人の挙動を把握し、前記第四処理において、前記駆動装置に前記所定の動作として、前記把握した人の挙動に応じた前記かごの運転を行わせてもよい。 In the user support system of the elevator, the execution unit has a drive device for raising and lowering the car, and the processing unit causes the car to shake based on an image in the car in the third process. The behavior of the connected person may be grasped, and in the fourth process, the driving device may be made to operate the car according to the grasped behavior of the person as the predetermined operation.

かかる構成によれば、かごの揺れにつながる人の挙動が把握されると、この挙動に応じたかごの運転が行われる、例えば、かごが揺れている場合にかごの速度を抑えることで、かごの揺れによるかご内への利用者の閉じ込め等が抑制され、その結果、利用者をより適正にサポートすることができる。 According to such a configuration, when the behavior of a person leading to the shaking of the car is grasped, the car is operated according to this behavior, for example, by suppressing the speed of the car when the car is shaking, the car is operated. Confinement of the user in the car due to the shaking of the car is suppressed, and as a result, the user can be supported more appropriately.

以上より、本発明によれば、エレベータの利用者の状況に応じて利用者をサポートすることができる。 From the above, according to the present invention, it is possible to support the user according to the situation of the user of the elevator.

図1は、本発明の一実施形態に係るエレベータの利用者サポートシステムのブロック図である。FIG. 1 is a block diagram of an elevator user support system according to an embodiment of the present invention. 図2は、同実施形態に係るエレベータの利用者サポートシステムで用いられる人のモデルパターンを示す図である。FIG. 2 is a diagram showing a model pattern of a person used in the user support system of the elevator according to the embodiment. 図3は、同実施形態に係るエレベータの利用者サポートシステムで用いられるかごの内部構造のモデルパターンを示す図である。FIG. 3 is a diagram showing a model pattern of the internal structure of the car used in the user support system of the elevator according to the embodiment. 図4は、同実施形態に係るエレベータの利用者サポートシステムの処理を示すフローチャート図である。FIG. 4 is a flowchart showing the processing of the elevator user support system according to the embodiment. 図5は、同実施形態に係るエレベータの利用者サポートシステムの処理を示すフローチャート図である。FIG. 5 is a flowchart showing the processing of the elevator user support system according to the embodiment. 図6は、本発明の変形例に係るエレベータの利用者サポートシステムのブロック図である。FIG. 6 is a block diagram of an elevator user support system according to a modified example of the present invention.

以下、本発明に係るエレベータの利用者サポートシステム(以下、単に利用者サポートシステムという)について説明する。利用者サポートシステムは、かご内の撮像画像に基づき利用者の状況を把握し、この状況に応じて利用者をサポートするシステムである。 Hereinafter, the elevator user support system according to the present invention (hereinafter, simply referred to as a user support system) will be described. The user support system is a system that grasps the user's situation based on the captured image in the car and supports the user according to this situation.

利用者サポートシステムは、図1に示すように、エレベータ2に配置される制御マイコン20と、エレベータ2のかご21内を経時的に撮像するカメラ(撮像装置)210と、カメラ210による撮像画像を処理する処理部23と、撮像画像との比較の対象となるモデルデータを記憶する記憶部221と、エレベータ2の利用者の状況に応じた所定の動作を実行する実行部10と、を備える。 As shown in FIG. 1, the user support system captures a control microcomputer 20 arranged in the elevator 2, a camera (imaging device) 210 that images the inside of the car 21 of the elevator 2 over time, and an image captured by the camera 210. The processing unit 23 for processing, the storage unit 221 for storing model data to be compared with the captured image, and the execution unit 10 for executing a predetermined operation according to the situation of the user of the elevator 2 are provided.

本実施形態の利用者サポートシステム1では、カメラ210に画像認識装置22が接続されている。記憶部221は、画像認識装置22に備えられている。また、処理部23は、画像認識装置22に備えられた画像認識処理部220と、制御マイコン20に備えられたマイコン処理部200とを含む。 In the user support system 1 of the present embodiment, the image recognition device 22 is connected to the camera 210. The storage unit 221 is provided in the image recognition device 22. Further, the processing unit 23 includes an image recognition processing unit 220 provided in the image recognition device 22, and a microcomputer processing unit 200 provided in the control microcomputer 20.

例えば、エレベータ2は、昇降路を昇降するかご21、エレベータ2の動作状況に関する情報を出力する制御マイコン20、及び、制御マイコン20とカメラ210との間に接続された画像認識装置22に加えて、制御マイコン20にそれぞれ接続された音声認識装置24と音声案内装置25と表示案内装置26と駆動装置27とを有する。 For example, the elevator 2 includes a car 21 that goes up and down the hoistway, a control microcomputer 20 that outputs information on the operating status of the elevator 2, and an image recognition device 22 that is connected between the control microcomputer 20 and the camera 210. The control microcomputer 20 has a voice recognition device 24, a voice guidance device 25, a display guidance device 26, and a drive device 27, respectively.

かご21は、カメラ210に加えて、例えば、それぞれかご21内に配置され、且つ、音声認識装置24に接続され且つかご21内の音声を集音するマイク(集音器)211、音声案内装置25に接続され且つかご21内に音声を出力するスピーカー212、及び、表示案内装置26に接続され且つかご21内に文字情報等を表示するディスプレイ(表示部)213と、開閉するドア214と、ドア214を開閉する開閉装置215と、天井と壁と床とを含むかご枠と、階床釦等を含む操作盤と、を含む。 In addition to the camera 210, the car 21 is, for example, a microphone (sound collector) 211, which is arranged in the car 21 and is connected to the voice recognition device 24 and collects the voice in the car 21, and a voice guidance device. A speaker 212 connected to 25 and outputting voice in the car 21, a display (display unit) 213 connected to the display guidance device 26 and displaying character information and the like in the car 21, a door 214 that opens and closes, and the like. It includes an opening / closing device 215 for opening / closing the door 214, a car frame including a ceiling, a wall, and a floor, and an operation panel including a floor button and the like.

本実施形態の利用者サポートシステム1は、制御マイコン20に接続された監視端末3と、監視端末3に接続された第一サーバー(通信部)4と、第一サーバー4に接続された第二サーバー5とを備える。また、本実施形態の利用者サポートシステム1は、第一サーバー4にそれぞれ接続可能な管理者端末6と技術員端末7とを備える。 The user support system 1 of the present embodiment has a monitoring terminal 3 connected to the control microcomputer 20, a first server (communication unit) 4 connected to the monitoring terminal 3, and a second server connected to the first server 4. It includes a server 5. Further, the user support system 1 of the present embodiment includes an administrator terminal 6 and a technician terminal 7 that can be connected to the first server 4, respectively.

例えば、実行部10は、スピーカー(報知装置)212と、ディスプレイ(報知装置)213と、制御マイコン20に接続された第一サーバー(通信部)4と、開閉装置215と、かご21を昇降駆動する駆動装置27とを含む。 For example, the execution unit 10 drives the speaker (notification device) 212, the display (notification device) 213, the first server (communication unit) 4 connected to the control microcomputer 20, the opening / closing device 215, and the car 21 up and down. The drive device 27 and the like.

尚、図1では一台のエレベータ2が示されているが、本実施形態の利用者サポートシステム1は、複数のエレベータを備える。また、図1では一台の管理者端末6及び技術員端末7が示されているが、本実施形態の利用者サポートシステム1は、複数の管理者端末6及び複数の技術員端末7を備える。 Although one elevator 2 is shown in FIG. 1, the user support system 1 of the present embodiment includes a plurality of elevators. Further, although one administrator terminal 6 and a technician terminal 7 are shown in FIG. 1, the user support system 1 of the present embodiment includes a plurality of administrator terminals 6 and a plurality of technician terminals 7.

カメラ210は、例えば、かご21内の天井に配置され、かご21内を経時的に撮像する。また、カメラ210は、かご21内の撮像画像(複数の撮像画像)を画像認識装置22に出力可能である。かご21内には、例えば、かご21内を監視するために一台の監視カメラが設けられており、本実施形態の利用者サポートシステム1では、カメラ210として、この監視カメラが用いられる。 The camera 210 is arranged on the ceiling in the car 21, for example, and images the inside of the car 21 over time. Further, the camera 210 can output the captured images (a plurality of captured images) in the car 21 to the image recognition device 22. For example, one surveillance camera is provided in the car 21 to monitor the inside of the car 21, and in the user support system 1 of the present embodiment, this surveillance camera is used as the camera 210.

具体的に、カメラ210は、断続的に(所定時間毎(例えば、1秒毎)に)かご21内の撮影を繰り返し行う。尚、カメラ210は、連続的にかご21内の撮影を行ってもよい。また、本実施形態の利用者サポートシステム1では、カメラ210が、かご出入口から見える乗り場を撮影可能な位置に設置されている。このため、カメラ210で撮影される撮像画像は、この乗り場も含む場合(ドアの戸開時等)がある。 Specifically, the camera 210 intermittently (for example, every second) repeatedly takes pictures in the car 21. The camera 210 may continuously take pictures in the car 21. Further, in the user support system 1 of the present embodiment, the camera 210 is installed at a position where the landing seen from the car entrance / exit can be photographed. Therefore, the captured image taken by the camera 210 may include this platform (when the door is opened, etc.).

画像認識装置22、音声認識装置24、音声案内装置25、及び、表示案内装置26は、例えば、かご21の外側に設けられたマイコンである。具体的に、音声認識装置24は、マイク211で集音された音声を解析して、制御マイコン20を介して監視端末3に出力可能である。音声案内装置25は、制御マイコン20を介して監視端末3から入力された情報に基づき、スピーカー212から音声を出力可能である。表示案内装置26は、制御マイコン20を介して監視端末3から入力された情報に基づき、ディスプレイ213から、例えば、文字情報を出力可能である。 The image recognition device 22, the voice recognition device 24, the voice guidance device 25, and the display guidance device 26 are, for example, microcomputers provided outside the car 21. Specifically, the voice recognition device 24 can analyze the voice collected by the microphone 211 and output it to the monitoring terminal 3 via the control microcomputer 20. The voice guidance device 25 can output voice from the speaker 212 based on the information input from the monitoring terminal 3 via the control microcomputer 20. The display guidance device 26 can output, for example, character information from the display 213 based on the information input from the monitoring terminal 3 via the control microcomputer 20.

制御マイコン20は、監視端末3に通信系統R1を介して接続されている。通信系統R1は、例えば、制御マイコン20から公衆回線(電話回線)を介して監視端末3に通信可能であり、且つ、監視端末3から公衆回線(電話回線)を介して制御マイコン20に通信可能な通信系統である。 The control microcomputer 20 is connected to the monitoring terminal 3 via the communication system R1. For example, the communication system R1 can communicate from the control microcomputer 20 to the monitoring terminal 3 via the public line (telephone line), and can communicate from the monitoring terminal 3 to the control microcomputer 20 via the public line (telephone line). Communication system.

本実施形態の利用者サポートシステム1では、画像認識装置22は、撮像画像から人を検知する処理を行うと共に人の状況を把握し且つこの状況に応じた所定の動作を実行部10に実行させる画像認識処理部220と、撮像画像との比較の対象となるモデルデータとして、少なくとも一つの人のモデルパターンを記憶している記憶部221とを含む。 In the user support system 1 of the present embodiment, the image recognition device 22 performs a process of detecting a person from the captured image, grasps the situation of the person, and causes the execution unit 10 to execute a predetermined operation according to the situation. The image recognition processing unit 220 and a storage unit 221 that stores a model pattern of at least one person as model data to be compared with the captured image are included.

本実施形態の利用者サポートシステム1では、記憶部221は、かご21の内部構造のモデルパターン、及び、複数の人のモデルパターンを記憶している。また、記憶部221は、かご21の内部構造及び人のモデルパターンとして、それぞれ、かご21及び人の輪郭(エッジ)を記憶している。人のモデルパターンは、例えば、各エレベータに共通したモデルパターンとして設定されている。かごの内部構造のモデルパターンは、例えば、各エレベータに個別に設定されている。 In the user support system 1 of the present embodiment, the storage unit 221 stores a model pattern of the internal structure of the car 21 and a model pattern of a plurality of people. Further, the storage unit 221 stores the outline (edge) of the car 21 and the person as the internal structure of the car 21 and the model pattern of the person, respectively. The human model pattern is set as, for example, a model pattern common to each elevator. The model pattern of the internal structure of the car is set individually for each elevator, for example.

例えば、記憶部221は、人のモデルパターンとして、シルエットが異なる人のモデルパターンを記憶している。具体的には、記憶部221は、一般的なシルエット(一般的な服装)の人のモデルパターン、帽子を着用した人のモデルパターン、着物を着用した人のモデルパターン等を記憶している。より具体的に、記憶部221に記憶されている一般的な人のモデルパターンは、図2に示すように、人における頭部、両耳、胴部、両腕、及び両脚を簡略化したものの輪郭を結ぶ線(ワイヤーフレーム)で構成される。 For example, the storage unit 221 stores a model pattern of a person having a different silhouette as a model pattern of the person. Specifically, the storage unit 221 stores a model pattern of a person wearing a general silhouette (general clothes), a model pattern of a person wearing a hat, a model pattern of a person wearing a kimono, and the like. More specifically, the general human model pattern stored in the storage unit 221 is a simplified version of the human head, ears, torso, arms, and legs, as shown in FIG. It consists of lines (wireframes) connecting the contours.

本実施形態の利用者サポートシステム1では、記憶部221は、第一サーバー4より出力されたかご21の内部構造のモデルパターンを記憶している。より具体的に、記憶部221に記憶されているかご21の内部構造のモデルパターンは、図3に示すように、開閉するドア214の輪郭を結ぶ線、天井と壁と床とを含むかご枠216の輪郭を結ぶ線、及び、階床釦等を含む操作盤217の輪郭を結ぶ線で構成される。 In the user support system 1 of the present embodiment, the storage unit 221 stores the model pattern of the internal structure of the car 21 output from the first server 4. More specifically, as shown in FIG. 3, the model pattern of the internal structure of the car 21 stored in the storage unit 221 is a car frame including a line connecting the contours of the door 214 that opens and closes, and a ceiling, a wall, and a floor. It is composed of a line connecting the contours of 216 and a line connecting the contours of the operation panel 217 including the floor button and the like.

また、本実施形態の利用者サポートシステム1では、記憶部221は、かご21内の人の状況(かご21内での人為的トラブル)に関連付けて、この状況に応じた所定の動作を記憶している。尚、人為的なトラブルとは、かご21の揺れにつながる人の挙動(飛び跳ね、屈伸、足踏み、喧嘩、及び、暴れ等)、人倒れ、昇降釦の操作が無い状況、人がゆっくりとかご21への乗り降りを行っている状況、及び、人によるドア214の押さえ等である。 Further, in the user support system 1 of the present embodiment, the storage unit 221 stores a predetermined operation according to the situation in association with the situation of the person in the car 21 (human trouble in the car 21). ing. Artificial troubles include human behavior (jumping, bending and stretching, stepping, fighting, and rampage, etc.) that leads to the shaking of the car 21, people falling down, situations where there is no lift button operation, and people slowly moving the car 21. The situation of getting on and off the door, and the holding of the door 214 by a person.

より具体的に、記憶部221は、人の飛び跳ね等によりかご21が揺れている状況と、スピーカー212によるアナウンス、ディスプレイ213による情報の表示、及びかごの走行速度の制限といった動作とを関連付けて記憶すると共に、かご21内で人が倒れている状況と、スピーカー212によるアナウンス及び第一サーバー4による通報とを関連付けて記憶している。また、記憶部221は、かご21内が有人であり且つ一定時間昇降釦が操作されていない状況と、スピーカー212によるアナウンス及びディスプレイ213による情報の表示とを関連付けて記憶する。さらに、記憶部221は、人がゆっくりとかご21への乗り降りを行っている状況と、ドア214の戸開状態での維持とを関連付けて記憶すると共に、人がかご21のドアを押さえている状況と、スピーカー212によるアナウンス及びドア214の戸開状態での維持とを関連付けて記憶している。尚、記憶部221は、かご21内の人の状況を判定するための条件も記憶している。この具体的な条件については、処理部23による処理と共に後述する。 More specifically, the storage unit 221 stores the situation in which the car 21 is swaying due to a person jumping or the like in association with an announcement by the speaker 212, information display by the display 213, and an operation such as limiting the running speed of the car. At the same time, the situation where a person is lying down in the car 21 is stored in association with the announcement by the speaker 212 and the report by the first server 4. Further, the storage unit 221 stores the situation in which the car 21 is manned and the elevating button is not operated for a certain period of time in association with the announcement by the speaker 212 and the display of information by the display 213. Further, the storage unit 221 stores the situation in which the person is slowly getting in and out of the car 21 and the maintenance of the door 214 in the open state, and the person is holding the door of the car 21. The situation is associated with the announcement by the speaker 212 and the maintenance of the door 214 in the open state. The storage unit 221 also stores conditions for determining the situation of a person in the car 21. This specific condition will be described later together with the processing by the processing unit 23.

さらに、本実施形態の利用者サポートシステム1では、記憶部221は、かごが運転休止対象となるかご内の人為的なトラブルも記憶している。かごの運転休止とは、かごが複数あるエレベータについて、運転休止対象となったかごを呼び当て対象のかご(エレベータの乗り場における呼び出し釦が押されたとき、呼び出し階に向かう対象のかご)から除外することである。運転休止対象となるかご内の人為的なトラブルは、例えば、かご内での人の暴れである。 Further, in the user support system 1 of the present embodiment, the storage unit 221 also stores human troubles in the car in which the car is subject to operation suspension. Car suspension means that for elevators with multiple cars, the car that is subject to suspension is excluded from the target car (the target car that goes to the calling floor when the call button at the elevator platform is pressed). It is to be. An artificial trouble in a car that is subject to suspension of operation is, for example, a rampage of a person in the car.

処理部23は、かご21内に人を検出すると、かご21内での人為的トラブルの有無を判定し、このトラブルの内容に応じた所定の動作を実行部10に実行させるという一連の処理を繰り返す。例えば、処理部23は、一定期間カメラ210が経時的に撮像したかご21内の撮像画像(複数の撮像画像)を取得し、この撮像画像から人が検出された場合に、かご21内の人の状況を把握し(かご21内での人為的トラブルの有無を判定し)、この状況(トラブル)に応じて所定の動作を実行部10に実行させるという一連の処理を繰り返す。この処理(第一、第二、第三処理)について、以下、詳細に説明する。 When the processing unit 23 detects a person in the car 21, it determines whether or not there is an artificial trouble in the car 21, and causes the execution unit 10 to execute a predetermined operation according to the content of the trouble. repeat. For example, the processing unit 23 acquires captured images (a plurality of captured images) in the car 21 captured by the camera 210 over time for a certain period of time, and when a person is detected from the captured images, the person in the car 21 (The presence or absence of an artificial trouble in the car 21 is determined), and a series of processes of causing the execution unit 10 to execute a predetermined operation according to this situation (trouble) are repeated. This process (first, second, third process) will be described in detail below.

まず、画像認識処理部220は、取得した複数の撮像画像のうち少なくとも二つの画像から、それぞれエッジを抽出する第一処理を行う。具体的に、画像認識処理部220は、取得した複数の画像の各々に対して、濃度の補正、歪みの補正、及び、ノイズの除去等の前処理を行った後、各画像において輝度が急激に変わる境界をエッジとして抽出する。 First, the image recognition processing unit 220 performs a first process of extracting edges from at least two of the acquired plurality of captured images. Specifically, the image recognition processing unit 220 performs preprocessing such as density correction, distortion correction, and noise removal for each of the acquired plurality of images, and then the brightness of each image suddenly increases. The boundary that changes to is extracted as an edge.

画像認識処理部220は、先ほどの少なくとも二つの画像(本実施形態の利用者サポートシステム1では、取得した複数の画像)から抽出されたエッジのうちの人に対する像のエッジに、それぞれ人のモデルパターンを当てはめる第二処理を行う。尚、画像認識処理部220は、抽出されたエッジに、各モデルパターン(かごの内部構造のモデルパターン、及び、人のモデルパターン)のサイズとカメラ210の視野(カメラ210の座標)とを整合させて当てはめることで、撮像画像から抽出されたエッジに対して各モデルパターンを当てはめる。 The image recognition processing unit 220 sets a model pattern of a person on the edge of the image for a person among the edges extracted from at least two images (a plurality of images acquired in the user support system 1 of the present embodiment). Perform the second process to apply. The image recognition processing unit 220 matches the size of each model pattern (model pattern of the internal structure of the car and the model pattern of a person) with the field of view of the camera 210 (coordinates of the camera 210) on the extracted edges. By letting and fitting, each model pattern is fitted to the edge extracted from the captured image.

具体的に、画像認識処理部220は、第二処理において、取得した複数の画像のうちの一つの画像(以下、第一の画像と言う)から抽出されたエッジにおけるかご21の内部構造に対する像のエッジに、かご21の内部構造のモデルパターンを当てはめる第一ステップを行う。次に、画像認識処理部220は、第二処理において、この一つの画像から抽出されたエッジのうちのかご21の内部構造のモデルパターンに重なるエッジ以外のエッジのうち人に対する像のエッジに、人のモデルパターンを当てはめる第二ステップを行う。 Specifically, the image recognition processing unit 220 is an image of the internal structure of the car 21 at the edge extracted from one image (hereinafter referred to as the first image) of the plurality of acquired images in the second process. The first step of applying the model pattern of the internal structure of the car 21 to the edge of the car 21 is performed. Next, in the second process, the image recognition processing unit 220 sets the edge of the image extracted from this one image as the edge of the image for a person among the edges other than the edge overlapping the model pattern of the internal structure of the car 21. Perform the second step of applying a human model pattern.

その後、画像認識処理部220は、第二処理において、先ほどの少なくとも二つの画像(本実施形態の利用者サポートシステム1では、取得した複数の画像)のうちの第二ステップで人のモデルパターンを当てはめた画像以外の画像(先ほどの少なくとも二つの画像(本実施形態の利用者サポートシステム1では、取得した複数の画像)のうちの第一の画像以外の画像)から抽出されたエッジにおけるかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、第二ステップにおいて当てはめた人のモデルパターンを当てはめる第三ステップを行う。 After that, in the second process, the image recognition processing unit 220 performs a human model pattern in the second step of at least two images (a plurality of acquired images in the user support system 1 of the present embodiment). The basket 21 at the edge extracted from an image other than the fitted image (an image other than the first image among at least two images (a plurality of images acquired in the user support system 1 of the present embodiment)). The third step of applying the model pattern of the person who applied in the second step to the edges other than the edges overlapping the model pattern of the internal structure of is performed.

以下、上述した第二処理における第一ステップから第三ステップについて、より詳細に説明する。画像認識処理部220は、第一ステップにおいて、第一の画像から抽出されたエッジに、かごの内部構造のモデルパターンを重ねて、この重なった部分(かごの内部構造のモデルパターンに重なるエッジ)を取り除き、人体特徴があるか否か(例えば、人の頭部に重なる円形状のエッジがあるか否か、胴体に重なる筒状のエッジがあるか否か、及び、四肢に重なる形状のエッジがあるか否か)を判定する。
画像認識処理部220は、円形状のエッジ等があると判定した場合、かご21内が有人である(かご21内に人を検出した)として、第二ステップにおいて、この円形状のエッジと、人のモデルパターンの頭部に対応する箇所が重なるよう、人のモデルパターンのサイズとカメラ210の視野とを整合させて、第一の画像から抽出されたエッジに人のモデルパターンを当てはめる。また、画像認識処理部220は、第二ステップにおいて、第一の画像における当てはめた人のモデルパターンの接地位置(具体的には、人のモデルパターンとかご21の床面との接地位置)に基づいて、空間における人の存在位置と、人の占有する空間とを認識する。尚、画像認識処理部220は、第一の画像における当てはめた人のモデルパターンの接地位置が確認できない場合には、推定した接地位置に基づいて、人の存在位置と人の占有する空間とを認識する。次に、画像認識処理部220は、第一の画像から抽出されたエッジに当てはめた人のモデルパターンから、各ポイントの座標を算出する。人のモデルパターンの座標は、例えば、図2のP1で示すように、頭部頂点、両耳、両肩、両肘、両手の先、両腰、両膝、両踵、両脚の爪先等の座標である。
Hereinafter, the first to third steps in the second process described above will be described in more detail. In the first step, the image recognition processing unit 220 superimposes a model pattern of the internal structure of the car on the edge extracted from the first image, and this overlapped portion (edge overlapping the model pattern of the internal structure of the car). Whether or not there is a human body characteristic (for example, whether or not there is a circular edge that overlaps the human head, whether or not there is a tubular edge that overlaps the torso, and whether or not there is an edge that overlaps the limbs. Whether or not there is) is determined.
When the image recognition processing unit 220 determines that there is a circular edge or the like, the image recognition processing unit 220 determines that the inside of the car 21 is manned (a person is detected in the car 21), and in the second step, the circular edge and the like. The size of the human model pattern and the field of view of the camera 210 are matched so that the parts corresponding to the heads of the human model pattern overlap, and the human model pattern is applied to the edges extracted from the first image. Further, in the second step, the image recognition processing unit 220 sets the ground contact position of the fitted person's model pattern in the first image (specifically, the ground contact position between the person's model pattern and the floor surface of the car 21). Based on this, the position of the person in the space and the space occupied by the person are recognized. When the ground contact position of the model pattern of the applied person in the first image cannot be confirmed, the image recognition processing unit 220 determines the existence position of the person and the space occupied by the person based on the estimated ground contact position. recognize. Next, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the person applied to the edge extracted from the first image. The coordinates of the human model pattern are, for example, as shown in P1 of FIG. 2, such as the apex of the head, both ears, both shoulders, both elbows, the tips of both hands, both hips, both knees, both heels, and the toes of both legs. The coordinates.

画像認識処理部220は、第三ステップにおいて、先ほどの少なくとも二つの画像のうち第一の画像以外の画像に対して、第二ステップで当てはめた人のモデルパターンを当てはめる。より具体的に、画像認識処理部220が、第三ステップにおいて、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジから、第一の画像のかご21の内部構造のモデルパターンに重なったエッジを除き、このエッジに第二ステップにおいて当てはめた人のモデルパターンを当てはめる。その後、画像認識処理部220は、この第一の画像以外の画像に当てはめた人のモデルパターンから各ポイントの座標を算出する。 In the third step, the image recognition processing unit 220 applies the model pattern of the person applied in the second step to the images other than the first image among at least the two images mentioned above. More specifically, in the third step, the image recognition processing unit 220 describes the internal structure of the basket 21 of the first image from the edges extracted from the images other than the first image among the plurality of acquired images. Except for the edge that overlaps the model pattern, the model pattern of the person who applied in the second step is applied to this edge. After that, the image recognition processing unit 220 calculates the coordinates of each point from the model pattern of the person applied to the image other than the first image.

尚、画像認識処理部220は、各画像から抽出したエッジに円形状のエッジ等が無いと判定した場合、かご21内が無人であるとして、各画像から抽出したエッジに対する人のモデルパターンの当てはめの処理を終了する。 When the image recognition processing unit 220 determines that the edges extracted from each image do not have circular edges or the like, the image recognition processing unit 220 assumes that the inside of the car 21 is unmanned and applies a human model pattern to the edges extracted from each image. Ends the processing of.

以下、第一処理及び第二処理の後に行う第三処理及び第四処理について説明する。 Hereinafter, the third process and the fourth process performed after the first process and the second process will be described.

画像認識処理部220は、先ほどの少なくとも二つの画像(本実施形態の利用者サポートシステム1では、取得した複数の画像)に対して第二処理で当てはめた人のモデルパターンに基づき、かご21内の人の状況を把握する第三処理を行う。具体的に、画像認識処理部220は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像での人のモデルパターンの座標が一定の期間において特定の位置にあるか否か、及び、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像での人のモデルパターンの座標の変化が特定の挙動を示しているか否かにより、かご21内の人の状況を把握する。 The image recognition processing unit 220 is in the car 21 based on the model pattern of the person applied in the second processing to at least two images (a plurality of images acquired in the user support system 1 of the present embodiment). Perform the third process to grasp the situation of the person. Specifically, the image recognition processing unit 220 determines whether or not the coordinates of the human model pattern in the captured images before and after the captured image to which the human model pattern is applied in the second process are at a specific position in a certain period of time. And, depending on whether or not the change in the coordinates of the human model pattern in the captured images before and after the captured image to which the human model pattern is applied in the second process shows a specific behavior, the situation of the person in the car 21 To grasp.

尚、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像は、第二処理で人のモデルパターンを当てはめた撮像画像のうち、その撮像時刻が前後する撮像画像である。また、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像が三枚以上ある場合、「第二処理で当てはめた人のモデルパターンの座標が特定の座標にあるとき」は、人のモデルパターンの座標が特定の座標と重なるときに加えて、人のモデルパターンの座標が移動により到達すると予測される座標(動線予測による座標)が特定の座標と重なるときも含む。第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像が三枚以上ある場合、「人のモデルパターンの座標の変化が特定の挙動を示しているとき」は、同様に、人のモデルパターンの座標の変化が特定の挙動を示すときに加えて、人のモデルパターンの座標が移動により到達すると予測される座標(動線予測による座標)の変化が特定の挙動を示しているときも含む。 The captured images before and after the captured image to which the human model pattern is applied in the second process are the captured images to which the imaging time is before and after the captured images to which the human model pattern is applied in the second process. In addition, when there are three or more captured images before and after the captured image to which the human model pattern is applied in the second process, "when the coordinates of the model pattern of the person applied in the second process are at specific coordinates", In addition to the case where the coordinates of the human model pattern overlap with the specific coordinates, the case where the coordinates predicted to be reached by the movement (coordinates by the movement line prediction) overlap with the specific coordinates is also included. In the second process, when there are three or more captured images before and after the captured image to which the human model pattern is applied, "when the change in the coordinates of the human model pattern shows a specific behavior", the same applies to the person. In addition to when the change in the coordinates of the model pattern of the model shows a specific behavior, the change in the coordinates predicted to reach by the movement of the human model pattern (coordinates by motion line prediction) shows the specific behavior. Including when.

より具体的に、画像認識処理部220は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像での人のモデルパターンの座標が、上下方向又は水平方向の往復動するように変化している場合、人の飛び跳ね等によりかご21が揺れている状況であると判定し、この人のモデルパターンの両肩や両肘等の座標が、ある一定の期間、かご21の床と接触している場合、かご21内で人が倒れている状況であると判定する。また、画像認識処理部220は、かご21内に人を検知し且つ一定期間において昇降釦の操作が制御マイコン20に入力されていない場合、かご21内が有人であり且つ昇降釦の操作が無い状況であると判定する。 More specifically, the image recognition processing unit 220 causes the coordinates of the human model pattern in the captured images before and after the captured image to which the human model pattern is applied in the second process to reciprocate in the vertical direction or the horizontal direction. If it changes to, it is determined that the car 21 is shaking due to a person's jumping, etc., and the coordinates of both shoulders, elbows, etc. of this person's model pattern are on the floor of the car 21 for a certain period of time. If it is in contact with, it is determined that a person is lying down in the car 21. Further, when the image recognition processing unit 220 detects a person in the car 21 and the operation of the elevating button is not input to the control microcomputer 20 for a certain period of time, the inside of the car 21 is manned and there is no operation of the elevating button. Judge as a situation.

画像認識処理部220は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像(乗り場を含む画像)での人のモデルパターンの座標が、ドア214が開いた状態でかご出入口を通るようにゆっくりと変化する場合、人のかご21に対する乗り降りがゆっくりと行われていると判断する。さらに、画像認識処理部220は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像での人のモデルパターンの両手の先の座標のうち少なくとも一方がある一定の期間ドア214と重なっており、且つ、ドア214が一定時間において戸開状態で維持されている場合、人がかご21のドア214を押さえている状況であると判定する。これらの判定条件は、上述のように、記憶部221に記憶されている。 The image recognition processing unit 220 has the car entrance / exit with the coordinates of the human model pattern in the front and rear captured images (image including the landing) in the captured image to which the human model pattern is applied in the second processing with the door 214 open. When it changes slowly so as to pass through, it is determined that the person is slowly getting on and off the car 21. Further, the image recognition processing unit 220 uses the door 214 for a certain period of time at least one of the coordinates of the tips of both hands of the human model pattern in the images captured before and after the image captured by applying the human model pattern in the second process. When the door 214 is maintained in the open state for a certain period of time, it is determined that a person is holding the door 214 of the car 21. These determination conditions are stored in the storage unit 221 as described above.

このように、かご21内での人の検知の直後に、カメラ210による撮像画像から抽出したエッジに、人のモデルパターンを当てはめることで、かご21内の人の状況を判定することができる。そのため、本実施形態の利用者サポートシステム1では、人の状況をリアルタイムで把握することができる。 In this way, immediately after the detection of a person in the car 21, the situation of the person in the car 21 can be determined by applying the model pattern of the person to the edge extracted from the image captured by the camera 210. Therefore, in the user support system 1 of the present embodiment, the situation of a person can be grasped in real time.

画像認識処理部220は、第三処理による判定結果(人為的なトラブル)をマイコン処理部200に出力する。尚、本実施形態の利用者サポートシステム1では、画像認識処理部220は、この判定結果(人為的なトラブル)を第一サーバー4にも出力する。これにより、制御マイコン20は、後述のように、人為的なトラブルの内容に対応した所定の動作を実行部10に実行させることができる。 The image recognition processing unit 220 outputs the determination result (human trouble) by the third processing to the microcomputer processing unit 200. In the user support system 1 of the present embodiment, the image recognition processing unit 220 also outputs this determination result (human trouble) to the first server 4. As a result, the control microcomputer 20 can cause the execution unit 10 to execute a predetermined operation corresponding to the content of the human trouble, as will be described later.

マイコン処理部200は、画像認識処理部220から人為的なトラブルがある旨入力されると、この入力されたかご21内の人の状況(かご21内の人為的なトラブル)に応じて、記憶部221に記憶されている所定の動作のうち少なくとも一つを実行部10に実行させる第四処理を行う。具体的に、マイコン処理部200は、スピーカー212及びディスプレイ213に、所定の動作として把握した人の状況に応じた情報を報知させることができる。マイコン処理部200は、第一サーバー4に所定の動作として把握した人の状況についての情報を送信させることができる。また、マイコン処理部200は、開閉装置215に所定の動作として、把握した人の乗り降りに応じてドア214を開閉させることができる。さらに、マイコン処理部200は、駆動装置27に所定の動作として、把握した人の挙動に応じたかご21の運転を行わせることができる。 When the image recognition processing unit 220 inputs that there is an artificial trouble, the microcomputer processing unit 200 stores the input according to the situation of the person in the car 21 (human trouble in the car 21). The fourth process of causing the execution unit 10 to execute at least one of the predetermined operations stored in the unit 221 is performed. Specifically, the microcomputer processing unit 200 can make the speaker 212 and the display 213 notify the information according to the situation of the person grasped as a predetermined operation. The microcomputer processing unit 200 can cause the first server 4 to transmit information about the situation of a person grasped as a predetermined operation. In addition, the microcomputer processing unit 200 can open and close the door 214 according to the grasped person getting on and off as a predetermined operation of the opening / closing device 215. Further, the microcomputer processing unit 200 can cause the drive device 27 to operate the car 21 according to the grasped behavior of the person as a predetermined operation.

より具体的に、マイコン処理部200は、人の飛び跳ね等によりかご21が揺れている場合に、スピーカー212に「かごが揺れて危険ですので、飛び跳ねを止めてください」とのアナウンスを流すよう音声案内装置25に指示信号を出力し、且つ、ディスプレイ213が「かごが揺れて危険ですので、飛び跳ねを止めてください」と表示するよう表示案内装置26に指示信号を出力すると共に、駆動装置27がかご21の速度を制限するよう駆動装置27に指示信号を出力する。 More specifically, when the car 21 is swaying due to a person jumping or the like, the microcomputer processing unit 200 makes a sound to the speaker 212 to give an announcement saying "The car is swaying and dangerous, so please stop the jumping". An instruction signal is output to the guidance device 25, and an instruction signal is output to the display guidance device 26 so that the display 213 displays "The car is swaying and dangerous, so please stop jumping." An instruction signal is output to the drive device 27 so as to limit the speed of the car 21.

また、マイコン処理部200は、かご21内で人が倒れている場合に、スピーカー212に「かご内で人が倒れていると検知しましたが大丈夫ですか。大丈夫であれば返事をしてください。」とのアナウンスを流すよう音声案内装置25に指示信号を出力し、さらに、このアナウンスから一定時間が経過してもマイク211及び音声認識装置24を介して音声情報が入力されない場合には、第一サーバー4が管理者端末6及び技術員端末7に通報するよう第一サーバー4に指示信号を出力する。 In addition, when a person is lying down in the car 21, the microcomputer processing unit 200 tells the speaker 212, "I have detected that a person is falling down in the car. Is it okay? If it is okay, please reply. An instruction signal is output to the voice guidance device 25 so as to send an announcement saying ".", And if no voice information is input via the microphone 211 and the voice recognition device 24 even after a certain period of time has passed from this announcement, The first server 4 outputs an instruction signal to the first server 4 so as to notify the administrator terminal 6 and the engineer terminal 7.

さらに、マイコン処理部200は、かご21内が有人であり且つ一定時間において昇降釦が操作されていない場合に、スピーカー212に「階床釦を押してください」とのアナウンスを流すよう音声案内装置25に指示信号を出力すると共に、ディスプレイ213が「階床釦を押してください」と表示するよう表示案内装置26に指示信号を出力する。マイコン処理部200は、人がかご21のドアを押さえている場合に、スピーカー212に「ドアから離れてください」とのアナウンスを流すよう音声案内装置25に指示信号を出力すると共に、ドア214を戸開状態で維持するよう開閉装置215に指示信号を出力する。 Further, the microcomputer processing unit 200 sends a voice guidance device 25 to the speaker 212 to announce "Please press the floor button" when the inside of the car 21 is manned and the elevating button is not operated for a certain period of time. The instruction signal is output to the display guide device 26 so that the display 213 displays "Please press the floor button". When a person is holding the door of the car 21, the microcomputer processing unit 200 outputs an instruction signal to the voice guidance device 25 so as to send an announcement "Please move away from the door" to the speaker 212, and also outputs the instruction signal to the door 214. An instruction signal is output to the opening / closing device 215 so as to keep the door open.

本実施形態の利用者サポートシステム1では、マイコン処理部200は、記憶部221に記憶されている情報に基づき、画像認識処理部220から入力されたかご21内の人の状況(かご21内の人為的なトラブル)が運転休止対象か否かを判断し、このトラブルが運転休止対象である場合にかご21を運転休止とし、このトラブルが運転休止対象でない場合にかご21を正常運転のままとする。 In the user support system 1 of the present embodiment, the microcomputer processing unit 200 has the situation of a person in the car 21 (in the car 21) input from the image recognition processing unit 220 based on the information stored in the storage unit 221. It is determined whether or not (artificial trouble) is subject to suspension, and if this trouble is subject to suspension, the car 21 is suspended, and if this trouble is not subject to suspension, the car 21 is left in normal operation. To do.

例えば、マイコン処理部200は、かご21内の人為的なトラブルが運転休止対象である場合、最寄りの階にかご21を停止させて、ドア214を戸開状態で維持するよう開閉装置215に指示信号を出力する。 For example, the microcomputer processing unit 200 instructs the opening / closing device 215 to stop the car 21 on the nearest floor and keep the door 214 in the open state when the operation is suspended due to human trouble in the car 21. Output a signal.

監視端末3は、例えば、複数の地域に設置された多数のエレベータの監視を行う。また、監視端末3は、対象となるエレベータと離れた建物である監視センター等に設置されている。本実施形態の監視センターには、監視員(オペレータ)が常駐している。 The monitoring terminal 3 monitors, for example, a large number of elevators installed in a plurality of areas. Further, the monitoring terminal 3 is installed in a monitoring center or the like, which is a building away from the target elevator. An observer (operator) is stationed at the monitoring center of the present embodiment.

第二サーバー5は、例えば、有線回線により第一サーバー4に接続され、例えば、P2P(Peer to Peer)により接続されている。また、第二サーバー5は、データベース50を有する。データベース50は、各エレベータにおけるかごの設計値等の情報を記憶している。具体的に、データベース50は、かごの設計値として、かごにおけるかご枠のサイズ(かご内の寸法)、かごにおけるドアの位置、及びかごにおける制御盤の位置等を、エレベータの識別番号(例えば、エレベータの機番)に関連付けて記憶している。データベース50は、書き換え可能である。データベース50には、例えば、新たなエレベータの設置時に該エレベータにおけるかごの設計値等の情報を追加することができる。 The second server 5 is connected to the first server 4 by, for example, a wired line, and is connected by, for example, P2P (Peer to Peer). Further, the second server 5 has a database 50. The database 50 stores information such as car design values in each elevator. Specifically, the database 50 sets the size of the car frame in the car (dimensions inside the car), the position of the door in the car, the position of the control panel in the car, and the like as the design values of the car as the elevator identification number (for example,). It is stored in association with the elevator model number). The database 50 is rewritable. For example, when a new elevator is installed, information such as a car design value in the elevator can be added to the database 50.

本実施形態の利用者サポートシステム1では、データベース50は、各エレベータにそれぞれ対応する管理者端末6及び技術員端末7に関する情報(管理者の連絡先及び技術員の連絡先)を記憶している。例えば、データベース50は、第一サーバー4からインターネットを介して管理者端末6及び技術員端末7に出力するため、管理者端末6及び技術員端末7に関する情報として、管理者端末6のIPアドレス及び技術員端末7のIPアドレスを記憶している。尚、データベース50は、これらの情報を、人や物の挙動と関連付けて記憶していてもよい。 In the user support system 1 of the present embodiment, the database 50 stores information (administrator's contact information and technician's contact information) regarding the administrator terminal 6 and the technician terminal 7 corresponding to each elevator. For example, since the database 50 outputs from the first server 4 to the administrator terminal 6 and the engineer terminal 7 via the Internet, the IP address of the administrator terminal 6 and the engineer terminal are used as information about the administrator terminal 6 and the engineer terminal 7. It stores the IP address of 7. The database 50 may store such information in association with the behavior of a person or an object.

第一サーバー4は、例えば、インターネットを介して監視端末3に接続されている。また、第一サーバー4は、インターネットと監視端末3と通信系統R1とを介して、制御マイコン20に接続されている。 The first server 4 is connected to the monitoring terminal 3 via the Internet, for example. Further, the first server 4 is connected to the control microcomputer 20 via the Internet, the monitoring terminal 3, and the communication system R1.

第一サーバー4は、通信系統R2を介して、管理者端末6に接続可能である。通信系統R2は、例えば、第一サーバー4からインターネットを介して管理者端末6に通信可能であり、且つ、管理者端末6からインターネットを介して第一サーバー4に通信可能な通信系統である。また、第一サーバー4は、通信系統R3を介して、技術員端末7に接続可能である。通信系統R3は、例えば、第一サーバー4からインターネットを介して技術員端末7に通信可能であり、且つ、技術員端末7からインターネットを介して第一サーバー4に通信可能な通信系統である。通信系統R2、R3は、一部(インターネット)で共通している。 The first server 4 can be connected to the administrator terminal 6 via the communication system R2. The communication system R2 is, for example, a communication system capable of communicating from the first server 4 to the administrator terminal 6 via the Internet and communicating from the administrator terminal 6 to the first server 4 via the Internet. Further, the first server 4 can be connected to the technician terminal 7 via the communication system R3. The communication system R3 is, for example, a communication system capable of communicating from the first server 4 to the technician terminal 7 via the Internet and communicating from the technician terminal 7 to the first server 4 via the Internet. The communication systems R2 and R3 are common to some (Internet).

第一サーバー4は、かごの内部構造のモデルパターンを作成するサーバー処理部40を含む。例えば、サーバー処理部40は、処理部23による最初の処理前(上述の第一処理から第四処理の一連の処理を最初に行う前)、又は、かごの仕様の変更時に、データベース50に記憶されたかごの設計値等の情報に基づいて、かごの内部構造のモデルパターンを作成し、作成したモデルパターンを画像認識装置22に出力する。 The first server 4 includes a server processing unit 40 that creates a model pattern of the internal structure of the car. For example, the server processing unit 40 stores in the database 50 before the first processing by the processing unit 23 (before the first series of processing from the first processing to the fourth processing described above) or when the specifications of the car are changed. A model pattern of the internal structure of the car is created based on the information such as the design value of the car, and the created model pattern is output to the image recognition device 22.

具体的に、サーバー処理部40は、データベース50からかご21の設計値等の情報を取得すると共に、カメラ210から画像認識装置22等を介して無人の状態(空かご状態)のかご21内の撮像画像を取得する。サーバー処理部40は、例えば、無人の状態のかご21内の撮像画像を一枚取得する。 Specifically, the server processing unit 40 acquires information such as design values of the car 21 from the database 50, and also enters the car 21 in an unmanned state (empty car state) from the camera 210 via the image recognition device 22 or the like. Acquire the captured image. The server processing unit 40 acquires, for example, one captured image in the unmanned car 21.

サーバー処理部40は、取得した無人の状態のかご21内の撮像画像に対してノイズの除去等の前処理を行い、前処理後の撮像画像からエッジを抽出する。サーバー処理部40は、かご21の設計値等から得られるかご21の壁、ドア、床、及び天井の形状特徴に基づいて、撮像画像から抽出したエッジから、かご21の壁、ドア、床、及び天井の位置関係の認識を行う。また、サーバー処理部40は、撮像画像から認識したかご21の壁等の位置関係等に基づいて、かご21内におけるカメラの位置を特定する。さらに、サーバー処理部40は、特定したカメラの位置に基づき、かごの壁等の位置関係等を再認識し、かご枠の輪郭とドアの輪郭に重なる箇所を判断し、カメラ視点の座標(図3におけるP)を算出すると共に、かごの内部構造のモデルパターンを作成する(例えば、床の四隅、天井の四隅、ドア、及び操作盤それぞれの座標(図3におけるP2)を算出してこれらの座標を結ぶ線で構成されるモデルパターンを作成する)。 The server processing unit 40 performs preprocessing such as noise removal on the acquired image captured in the unmanned car 21, and extracts edges from the captured image after the preprocessing. The server processing unit 40 uses the edges extracted from the captured image based on the shape characteristics of the walls, doors, floors, and ceilings of the car 21 obtained from the design values of the car 21, and the walls, doors, floors of the car 21. And recognize the positional relationship of the ceiling. Further, the server processing unit 40 specifies the position of the camera in the car 21 based on the positional relationship of the walls and the like of the car 21 recognized from the captured image. Further, the server processing unit 40 re-recognizes the positional relationship of the car wall and the like based on the specified camera position, determines the portion overlapping the outline of the car frame and the outline of the door, and coordinates the camera viewpoint (FIG. It calculates the P C) at 3, to create a model pattern of the internal structure of the car (for example, the floor of the four corners, ceiling corners, door and control panel respective coordinates (P2 in FIG. 3) to calculate these Create a model pattern consisting of lines connecting the coordinates of).

サーバー処理部40は、かご内におけるカメラの視野として、例えば、カメラ視点の座標を画像認識装置22に送信すると共に、かごの内部構造のモデルパターンとして、例えば、かご内における、床の四隅、天井の四隅、ドア、及び操作盤それぞれの座標を画像認識装置22に出力する。 The server processing unit 40 transmits the coordinates of the camera viewpoint to the image recognition device 22 as the field of view of the camera in the car, and as a model pattern of the internal structure of the car, for example, the four corners of the floor and the ceiling in the car. The coordinates of each of the four corners, the door, and the operation panel are output to the image recognition device 22.

サーバー処理部40は、第三処理における画像認識処理部220による判定結果(人がかご21のドアに接触しているか否か、又は、人がかご21を揺らすような動作を行っているか否かの判定結果)を、マイコン処理部200から通信系統R1と監視端末3とインターネットとを介して入力されると、データベース50から、通知元(エレベータ2)に応じた管理者端末6及び技術員端末7に関する情報(管理者の連絡先及び技術員の連絡先)を取得し、例えば、この判定結果をそれぞれ文字情報として、管理者端末6に出力すると共に技術員端末7に出力する。出力される判定結果は、例えば、「人がかご内で飛び跳ねています。エレベータ2自体に問題はありません。」といったメッセージである。 The server processing unit 40 determines the result of the determination by the image recognition processing unit 220 in the third processing (whether or not a person is in contact with the door of the car 21 or whether or not the person is performing an operation that shakes the car 21. When the determination result) is input from the microcomputer processing unit 200 via the communication system R1, the monitoring terminal 3, and the Internet, the administrator terminal 6 and the technician terminal 7 according to the notification source (elevator 2) are input from the database 50. Information (contact information of the administrator and contact information of the technician) is acquired, and for example, the determination results are output as character information to the administrator terminal 6 and output to the technician terminal 7. The output judgment result is, for example, a message such as "A person is jumping in the car. There is no problem with the elevator 2 itself."

管理者端末6及び技術員端末7は、それぞれ、例えば、PDA(Personal Digital Assistant)、ノートパソコン等の持ち運び可能な端末や、据え置き型のパソコン等の端末である。管理者端末6及び技術員端末7は、それぞれ、例えば、入力された情報を出力する出力部を有する。出力部は、出力する情報が画像情報や文字情報である場合にはディスプレイであり、出力する情報が音声情報である場合にはスピーカーである。本実施形態の利用者サポートシステム1では、管理者端末6及び技術員端末7の出力部はディスプレイであり、このディスプレイはサーバー処理部40から入力された報知内容を出力する。 The administrator terminal 6 and the engineer terminal 7 are, for example, a portable terminal such as a PDA (Personal Digital Assistant) and a laptop computer, and a terminal such as a stationary personal computer, respectively. Each of the administrator terminal 6 and the technician terminal 7 has, for example, an output unit that outputs input information. The output unit is a display when the information to be output is image information or character information, and is a speaker when the information to be output is audio information. In the user support system 1 of the present embodiment, the output unit of the administrator terminal 6 and the technician terminal 7 is a display, and this display outputs the notification content input from the server processing unit 40.

管理者端末6及び技術員端末7は、それぞれ、上述のように、第一サーバー4を介して通信系統R1に接続されているため、第一サーバー4を介して公衆回線(電話回線)に接続されていることになる。 Since the administrator terminal 6 and the technician terminal 7 are each connected to the communication system R1 via the first server 4 as described above, they are connected to the public line (telephone line) via the first server 4. It will be.

管理者端末6は、例えば、エレベータ2を管理する管理者により所持される。技術員端末7は、例えば、出向の要請を受けると、エレベータ2のトラブルに対応するためにエレベータ2に出向する技術員により所持される。 The administrator terminal 6 is possessed by, for example, an administrator who manages the elevator 2. The technician terminal 7 is possessed by a technician who is seconded to the elevator 2 in order to deal with a trouble in the elevator 2, for example, when a request for secondment is received.

以下、図4のフローチャート図を用いて、サーバー処理部40によるかごの内部構造のモデルパターンの作成に関する処理の流れを説明する。 Hereinafter, the flow of processing related to the creation of the model pattern of the internal structure of the car by the server processing unit 40 will be described with reference to the flowchart of FIG.

サーバー処理部40は、処理部23による最初の処理前(上述の第一処理から第四処理の一連の処理を最初に行う前)、又は、かご21の仕様の変更時に、データベース50からかごの設計値を取得する(S01)。また、サーバー処理部40は、カメラ210から画像認識装置22等を介してかご21内の撮像画像(無人の状態(空かご状態)のかご内の撮像画像)を取得する(S02)。サーバー処理部40は、取得した撮像画像からかごの内部構造のエッジを抽出する(S03)。 The server processing unit 40 transfers the car from the database 50 before the first processing by the processing unit 23 (before the first series of processing from the first processing to the fourth processing described above) or when the specifications of the car 21 are changed. Acquire the design value (S01). Further, the server processing unit 40 acquires an image captured in the car 21 (an image captured in the car in an unmanned state (empty car state)) from the camera 210 via the image recognition device 22 or the like (S02). The server processing unit 40 extracts the edge of the internal structure of the car from the acquired captured image (S03).

サーバー処理部40は、撮像画像から抽出したエッジと、データベース50から取得したかごの設計値に基づいて、かご内におけるカメラ210の位置を特定すると共に、かごの内部構造のモデルパターンを作成する(S04)。 The server processing unit 40 identifies the position of the camera 210 in the car based on the edge extracted from the captured image and the design value of the car acquired from the database 50, and creates a model pattern of the internal structure of the car ( S04).

その後、サーバー処理部40は、かご21内におけるカメラ210の位置に関する情報、及び、かごの内部構造のモデルパターンに関する情報を、画像認識装置22(画像認識処理部220)に出力する(S05)。具体的に、サーバー処理部40は、カメラ視点の座標を画像認識装置22に送信すると共に、かごの内部構造のモデルパターンとして、例えば、かご内における、床の四隅、天井の四隅、ドア、及び操作盤それぞれの輪郭を結ぶ線(ワイヤーフレーム)で構成されたモデルパターンを画像認識装置22に出力する。記憶部221は、出力されたカメラ210の位置に関する情報、及び、かごの内部構造のモデルパターンに関する情報を記憶する。 After that, the server processing unit 40 outputs the information regarding the position of the camera 210 in the car 21 and the information regarding the model pattern of the internal structure of the car to the image recognition device 22 (image recognition processing unit 220) (S05). Specifically, the server processing unit 40 transmits the coordinates of the camera viewpoint to the image recognition device 22, and as a model pattern of the internal structure of the car, for example, the four corners of the floor, the four corners of the ceiling, the door, and the inside of the car. A model pattern composed of lines (wire frames) connecting the contours of the operation panels is output to the image recognition device 22. The storage unit 221 stores the output information regarding the position of the camera 210 and the information regarding the model pattern of the internal structure of the car.

次に、図5のフローチャート図を用いて、処理部23による一連の処理を説明する。尚、処理部23は、このフローチャート図で示される一連の処理を常時繰り返している。 Next, a series of processes by the processing unit 23 will be described with reference to the flowchart of FIG. The processing unit 23 constantly repeats a series of processes shown in the flowchart.

画像認識処理部220は、かご21内に人を検出すると(S10においてYes)、かご21内での人為的トラブルの有無を判定する(S11)。 When the image recognition processing unit 220 detects a person in the car 21 (Yes in S10), the image recognition processing unit 220 determines whether or not there is a human trouble in the car 21 (S11).

例えば、画像認識処理部220は、カメラ210により経時的に撮像されたかご21内の撮像画像(複数の撮像画像)を取得し、取得した複数の撮像画像のうち少なくとも二つの画像(本実施形態の利用者サポートシステム1では、取得した複数の画像)から、それぞれエッジを抽出する第一処理を行う。さらに、画像認識処理部220は、第一処理でエッジを抽出した複数の画像から抽出されたエッジに、人のモデルパターンを当てはめる。 For example, the image recognition processing unit 220 acquires captured images (plurality of captured images) in the car 21 captured over time by the camera 210, and at least two of the acquired plurality of captured images (the present embodiment). In the user support system 1 of the above, the first process of extracting an edge from each of a plurality of acquired images) is performed. Further, the image recognition processing unit 220 applies a human model pattern to the edges extracted from the plurality of images whose edges have been extracted in the first process.

具体的に、画像認識処理部220は、取得した複数の画像のうちの第一の画像から抽出されたエッジにおけるかご21の内部構造に対する像のエッジに、かご21の内部構造のモデルパターンを当てはめ(第一ステップ)、この一つの画像から抽出されたエッジのうちのかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、人のモデルパターンを当てはめた(第二ステップ)後、取得した複数の画像のうちの第一の画像以外の画像から抽出されたエッジにおけるかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに、第二ステップにおいて当てはめた人のモデルパターンを当てはめる(第三ステップ)。 Specifically, the image recognition processing unit 220 applies a model pattern of the internal structure of the car 21 to the edge of the image with respect to the internal structure of the car 21 at the edge extracted from the first image of the acquired plurality of images. (First step), the human model pattern was applied to the edges other than the edges that overlap the model pattern of the internal structure of the car 21 among the edges extracted from this one image (second step), and then acquired. The model pattern of the person applied in the second step is applied to the edges other than the edges that overlap the model pattern of the internal structure of the car 21 in the edges extracted from the images other than the first image among the plurality of images (third). Step).

このように、画像認識処理部220は、取得した複数の画像に人のモデルパターンを当てはめることができた場合に、かご21内に人を検出したものとする。具体的に、処理部23は、取得した複数の画像から抽出したエッジのうち、かごの内部構造のモデルパターンに重なるエッジ以外のエッジに人体特徴がある場合に、かご21内に人を検出したものとする。 In this way, it is assumed that the image recognition processing unit 220 detects a person in the car 21 when the model pattern of the person can be applied to the plurality of acquired images. Specifically, the processing unit 23 detects a person in the car 21 when there is a human body feature in an edge other than the edge that overlaps the model pattern of the internal structure of the car among the edges extracted from the acquired plurality of images. It shall be.

さらに、画像認識処理部220は、取得した複数の画像から抽出されたエッジに当てはめた人のモデルパターンから、人のモデルパターンにおける各ポイントの座標を算出し、この座標に基づき、かご21内での人為的トラブルの有無を判定する。例えば、画像認識処理部220は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像での人のモデルパターンの座標が一定の期間において特定の位置にあるか否か、及び、第二処理において人のモデルパターンを当てはめた撮像画像における前後の撮像画像での人のモデルパターンの座標の変化が特定の挙動を示しているか否かにより、かご21内の人為的トラブルの有無を判定する(かご21内の人の状況を把握する)。 Further, the image recognition processing unit 220 calculates the coordinates of each point in the human model pattern from the human model patterns applied to the edges extracted from the acquired plurality of images, and based on these coordinates, in the car 21. Judge the presence or absence of human trouble. For example, the image recognition processing unit 220 determines whether or not the coordinates of the human model pattern in the captured images before and after the captured image to which the human model pattern is applied in the second process are at a specific position in a certain period of time. , Whether or not there is an artificial trouble in the car 21 depending on whether or not the change in the coordinates of the human model pattern in the captured images before and after the captured image to which the human model pattern is applied in the second process shows a specific behavior. (Understand the situation of the person in the car 21).

画像認識処理部220は、かご21内に人為的トラブルがあると判定した場合(S12においてYes)、第一サーバー4及び制御マイコン20にトラブル(S11における判定結果)に関する情報を出力する(S13)。 When the image recognition processing unit 220 determines that there is an artificial trouble in the car 21 (Yes in S12), the image recognition processing unit 220 outputs information about the trouble (determination result in S11) to the first server 4 and the control microcomputer 20 (S13). ..

マイコン処理部200は、トラブルに関する情報が入力されると、このトラブルに応じた所定の動作を記憶部221から抽出し(S14)、実行部10(本実施形態の利用者サポートシステム1では、制御マイコン20、駆動装置27、スピーカー212、ディスプレイ213、開閉装置215、及び、サーバー処理部40のうち少なくとも一つ)に、所定の動作を実行させるような指示信号を出力する。これにより実行部10は、指示信号に基づき所定の動作を実行する(S15)。 When the information about the trouble is input, the microcomputer processing unit 200 extracts a predetermined operation corresponding to the trouble from the storage unit 221 (S14), and controls the execution unit 10 (in the user support system 1 of the present embodiment). An instruction signal for executing a predetermined operation is output to at least one of the microcomputer 20, the drive device 27, the speaker 212, the display 213, the switchgear 215, and the server processing unit 40). As a result, the execution unit 10 executes a predetermined operation based on the instruction signal (S15).

さらに、本実施形態の利用者サポートシステム1では、マイコン処理部200は、記憶部221に記憶されている情報に基づき、トラブルが運転休止対象か否かを判断する(S16)。マイコン処理部200は、トラブルが運転休止対象であると判断した場合(S17においてYes)、このかご21を運転休止対象とし(S18)、かご内の人の検出処理を行う(S10に戻る)。 Further, in the user support system 1 of the present embodiment, the microcomputer processing unit 200 determines whether or not the trouble is an operation suspension target based on the information stored in the storage unit 221 (S16). When the microcomputer processing unit 200 determines that the trouble is the operation suspension target (Yes in S17), the microcomputer processing unit 200 sets the car 21 as the operation suspension target (S18), and performs detection processing of a person in the car (returns to S10).

マイコン処理部200は、トラブルが運転休止対象でないと判断した場合(S17においてNo)、及び、かご21内に人為的トラブルが無いと判定した場合(S12においてNo)、運転休止対象とするような指示信号を出力せず、かご21を正常運転とし(S19)、かご内の人の検出処理を行う(S10に戻る)。 When the microcomputer processing unit 200 determines that the trouble is not the operation suspension target (No in S17) and determines that there is no human trouble in the car 21 (No in S12), the microcomputer processing unit 200 sets the operation suspension target. The instruction signal is not output, the car 21 is set to normal operation (S19), and the detection process of a person in the car is performed (returns to S10).

尚、画像認識処理部220は、かご21内に人を検出しなかった場合(S10においてNo)、処理を終了する。 If the image recognition processing unit 220 does not detect a person in the car 21 (No in S10), the image recognition processing unit 220 ends the processing.

以上の利用者サポートシステム1では、処理部23が、人のモデルパターンを用いた画像認識によって、かご21内の人の状況がリアルタイムで適正に認識できる。処理部23は、記憶部221からこの認識(利用者の状況)に基づいて所定の動作を抽出し、この所定の動作に関する指示信号を実行部10に出力する。その結果、実行部10が、所定の動作(利用者の状況に応じたサポート)を行う。これにより、利用者サポートシステム1では、利用者を状況に応じたサポートが行われる。 In the above user support system 1, the processing unit 23 can appropriately recognize the situation of a person in the car 21 in real time by image recognition using a person's model pattern. The processing unit 23 extracts a predetermined operation from the storage unit 221 based on this recognition (user's situation), and outputs an instruction signal related to the predetermined operation to the execution unit 10. As a result, the execution unit 10 performs a predetermined operation (support according to the user's situation). As a result, the user support system 1 provides support to the user according to the situation.

また、利用者サポートシステム1では、処理部23は、撮像画像から抽出されたエッジのうちかご21の内部構造のモデルパターンに重なるエッジ以外のエッジに対して、人のモデルパターンを当てはめることで、より適正に人のモデルパターンを当てはめることができる。これにより、かご21内の利用者の状況がさらに適正に認識できるため、エレベータ2の利用者の状況に応じたサポートがより適正に行われる。 Further, in the user support system 1, the processing unit 23 applies a human model pattern to an edge other than the edge that overlaps the model pattern of the internal structure of the car 21 among the edges extracted from the captured image. It is possible to apply a person's model pattern more appropriately. As a result, the situation of the user in the car 21 can be recognized more appropriately, so that the support according to the situation of the user of the elevator 2 is provided more appropriately.

さらに、利用者サポートシステム1では、報知装置(本実施形態の利用者サポートシステム1では、スピーカー212及びディスプレイ213の少なくとも一方)が、かご内の利用者の状況に応じた情報を報知するため、利用者の状況に応じた情報(利用者にとって必要な情報)を提供できる。 Further, in the user support system 1, the notification device (in the user support system 1 of the present embodiment, at least one of the speaker 212 and the display 213) notifies information according to the situation of the user in the car. Information according to the user's situation (information necessary for the user) can be provided.

利用者サポートシステム1では、処理部23が、かご21内の利用者の状況についての情報を通信部(本実施形態の利用者サポートシステム1では、サーバー処理部40)によって外部(公衆回線)に送信させるため、例えば、公衆回線に接続された外部のセンター等の利用者サポートシステム1外の端末等を利用して、利用者の状況に応じた対応を行わせることができる。 In the user support system 1, the processing unit 23 sends information about the status of the user in the car 21 to the outside (public line) by the communication unit (in the user support system 1 of the present embodiment, the server processing unit 40). In order to transmit the information, for example, a terminal or the like outside the user support system 1 such as an external center connected to the public line can be used to take measures according to the situation of the user.

また、利用者サポートシステム1では、開閉装置215が、人の乗り降りに応じてドア214を開閉するため、例えば、人がかご21へ乗り降りしている最中にドア214が人の乗り降りを妨げることを防止し、人のかご21への乗り降りのタイミングに応じてドア214を開閉することができる。 Further, in the user support system 1, the opening / closing device 215 opens / closes the door 214 according to the getting on / off of the person. Therefore, for example, the door 214 prevents the person from getting on / off while the person is getting on / off the car 21. The door 214 can be opened and closed according to the timing of getting on and off the car 21.

さらに、利用者サポートシステム1では、かご21の揺れにつながる人の挙動が把握されると、この挙動に応じたかご21の運転が行われる、例えば、かご21が揺れている場合に、駆動装置27がかご21の速度を抑えることで、かご21の揺れによるかご21内への利用者の閉じ込めが抑制され、その結果、利用者をより適正にサポートすることができる。 Further, in the user support system 1, when the behavior of the person leading to the shaking of the car 21 is grasped, the car 21 is operated according to this behavior, for example, when the car 21 is shaking, the driving device By suppressing the speed of the car 21 by 27, the confinement of the user in the car 21 due to the shaking of the car 21 is suppressed, and as a result, the user can be supported more appropriately.

本実施形態の利用者サポートシステム1では、処理部23が人のモデルパターンとして簡略化したモデルパターンを用いているため、処理部23が扱うモデルパターンのデータ容量が、詳細なモデルパターンを用いる場合と比べて小さい。そのため、エレベータ2の制御に用いられる処理速度のあまり大きくないマイコン(制御マイコン20)によっても処理が可能である、即ち、別途処理速度の大きなマイコンを設置しなくても、既存の制御マイコン20を用いて処理を行うことができる。 In the user support system 1 of the present embodiment, since the processing unit 23 uses a simplified model pattern as a human model pattern, the data capacity of the model pattern handled by the processing unit 23 uses a detailed model pattern. Smaller than. Therefore, processing can be performed by a microcomputer (control microcomputer 20) whose processing speed is not so high, which is used for controlling the elevator 2, that is, the existing control microcomputer 20 can be used without separately installing a microcomputer having a high processing speed. Can be used for processing.

また、本実施形態の利用者サポートシステム1では、画像認識処理部220は、ある一定の期間、人のモデルパターンの座標が、かご21の床やドア214にあるかを判断するため、例えば、人が一時的に床やドア214と接触した場合等に、かご21内に人為的なトラブルが生じていると判断されることを防ぐことができる。このように、処理部23が、人の状況をさらに適正に判断することができる。 Further, in the user support system 1 of the present embodiment, the image recognition processing unit 220 determines, for example, whether the coordinates of the model pattern of the person are on the floor or the door 214 of the car 21 for a certain period of time. It is possible to prevent it from being determined that an artificial trouble has occurred in the car 21 when the car temporarily comes into contact with the floor or the door 214. In this way, the processing unit 23 can more appropriately determine the situation of a person.

さらに、本実施形態の利用者サポートシステム1では、画像認識処理部220は、第二処理において人のモデルパターンを当てはめた撮像画像における前後の画像として、三枚以上の複数の画像についての人のモデルパターンの座標や、この座標の変化を判定するため、より正確な人の状況を把握することができる。 Further, in the user support system 1 of the present embodiment, the image recognition processing unit 220 uses the image recognition processing unit 220 for three or more images of a person as the images before and after the captured image to which the model pattern of the person is applied in the second processing. Since the coordinates of the model pattern and the changes in these coordinates are determined, it is possible to grasp the situation of a person more accurately.

本実施形態の利用者サポートシステム1では、サーバー処理部40が必要に応じて画像認識処理部220による判定結果(かご21内の人為的トラブルの内容)を管理者端末6等に出力することにより、例えば、技術員が現場(エレベータ2)から遠い場所に滞在している場合であっても、管理者がトラブルに迅速に対応することができる。また、この場合に、このトラブルに起因するさらなる事故やトラブル等が起きることを未然に防ぐことができ、
また、本実施形態の利用者サポートシステム1では、マイコン処理部200が必要に応じてかご21を運転休止させたりすることにより、このトラブルに起因するさらなる事故やトラブル等が起きることを未然に防ぐことができる。
In the user support system 1 of the present embodiment, the server processing unit 40 outputs the determination result (contents of human trouble in the car 21) by the image recognition processing unit 220 to the administrator terminal 6 or the like as necessary. For example, even when the technician is staying at a place far from the site (elevator 2), the manager can quickly respond to the trouble. Further, in this case, it is possible to prevent further accidents and troubles caused by this trouble from occurring.
Further, in the user support system 1 of the present embodiment, the microcomputer processing unit 200 suspends the operation of the car 21 as necessary to prevent further accidents and troubles caused by this trouble. be able to.

尚、本発明の利用者サポートシステム1は、上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、ある実施形態の構成に他の実施形態の構成を追加することができ、また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることができる。さらに、ある実施形態の構成の一部を削除することができる。 The user support system 1 of the present invention is not limited to the above embodiment, and it goes without saying that various modifications can be made without departing from the gist of the present invention. For example, the configuration of one embodiment can be added to the configuration of another embodiment, and a part of the configuration of one embodiment can be replaced with the configuration of another embodiment. In addition, some of the configurations of certain embodiments can be deleted.

例えば、画像認識処理部220は、第二処理において、撮像画像のうち少なくとも二つの画像のうちの一つの画像から抽出されたエッジにかごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめ(第一ステップ及び第二ステップ)、撮像画像のうち少なくとも二つの画像のうちの一つの画像以外の画像から抽出されたエッジにはかごの内部構造のモデルパターンを当てはめずに人のモデルパターンを当てはめていたが(第三ステップ)、撮像画像のうち少なくとも二つの画像のうちの一つの画像以外の画像から抽出されたエッジにも、かごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめてもよい。即ち、撮像画像のうち少なくとも二つの画像から抽出されたエッジに人のモデルパターンを当てはめる際、毎回、かごの内部構造のモデルパターンを当てはめてから人のモデルパターンを当てはめてもよい。 For example, in the second process, the image recognition processing unit 220 applies the model pattern of the internal structure of the car to the edge extracted from at least one of the two images of the captured image, and then applies the model pattern of the person. Fitting (first step and second step), human model pattern without applying the model pattern of the internal structure of the car to the edges extracted from images other than one of at least two images of the captured image (Third step), but after applying the model pattern of the internal structure of the car to the edges extracted from images other than one of at least two of the captured images, the human model You may apply a pattern. That is, every time a person's model pattern is applied to the edges extracted from at least two of the captured images, the person's model pattern may be applied after applying the model pattern of the internal structure of the car.

上記実施形態の利用者サポートシステム1では、画像認識処理部220は、第二処理において、撮像画像のうち少なくとも二つの画像から抽出されたエッジのうちのかごの内部構造のモデルパターンに重なるエッジ以外のエッジに、人のモデルパターンを当てはめていたが、かごの内部構造のモデルパターンを用いずに、この少なくとも二つの画像から抽出されたエッジに、人のモデルパターンを当てはめてもよい。 In the user support system 1 of the above embodiment, in the second processing, the image recognition processing unit 220 other than the edge overlapping the model pattern of the internal structure of the car among the edges extracted from at least two images of the captured image. Although the human model pattern was applied to the edge of the car, the human model pattern may be applied to the edge extracted from at least two images without using the model pattern of the internal structure of the car.

例えば、画像認識処理部220は、カメラ210から取得した複数の画像のうち少なくとも二つの画像と無人のかご21内の撮像画像との差分、及び、これらの画像の変化から、何らかの物体がかご21内にある、又は、何らかの物体がかご21内に乗り降りすると予測されることを検出し、この物体が人体特徴を有している場合に、かご21内に人がいたり人がかご21内に乗り降りしたりしていると把握してもよい。 For example, the image recognition processing unit 220 determines that some object is in the car 21 from the difference between at least two images out of the plurality of images acquired from the camera 210 and the captured image in the unmanned car 21 and changes in these images. Detects that an object inside or is expected to get in and out of the car 21, and if this object has human features, there is a person in the car 21 or a person gets in and out of the car 21. You may understand that you are doing it.

この場合、画像認識処理部220は、かごの内部構造のモデルパターンを作成する代わりに、カメラ210から取得した無人のかご21内の撮像画像からエッジを抽出し、記憶部221は、モデルデータに加えて、無人のかご21内の撮像画像から抽出したエッジを記憶していてもよい。尚、この場合、記憶部221は、かご21の内部構造のモデルパターンを記憶していなくてもよい。 In this case, the image recognition processing unit 220 extracts an edge from the captured image in the unmanned car 21 acquired from the camera 210 instead of creating a model pattern of the internal structure of the car, and the storage unit 221 uses the storage unit 221 as model data. In addition, the edges extracted from the captured image in the unmanned car 21 may be stored. In this case, the storage unit 221 does not have to store the model pattern of the internal structure of the car 21.

また、この場合、画像認識処理部220は、第一の画像から抽出されたエッジと無人のかご内の撮像画像から抽出されるエッジとの差分に人のモデルパターンを当てはめれば、人のモデルパターンによって人の状況を適正に把握できるため、人の状況に応じた所定の動作を実行部10に実行させることができる。 Further, in this case, if the image recognition processing unit 220 applies the human model pattern to the difference between the edge extracted from the first image and the edge extracted from the captured image in the unmanned car, the human model Since the situation of a person can be properly grasped by the pattern, it is possible to cause the execution unit 10 to execute a predetermined operation according to the situation of the person.

処理部23は、人の飛び跳ね等によりかご21が揺れていると判断した場合、駆動装置27がかご21の走行速度を制限するよう指示信号を出力していたが、走行速度の制限の代わりに、例えば、異なるかご21の運転(かご21を最寄り階で停止させる等)を行ってもよい。 When the processing unit 23 determines that the car 21 is shaking due to a person jumping or the like, the drive device 27 outputs an instruction signal to limit the traveling speed of the car 21, but instead of limiting the traveling speed, the processing unit 23 outputs an instruction signal. For example, different car 21 may be operated (such as stopping the car 21 on the nearest floor).

処理部23は、人のモデルパターンとして、各エレベータに共通して設定されたモデルパターンを用いていたが、各エレベータに個別に設定されたモデルパターンを用いてもよい。例えば、各エレベータが設置されている建物内での利用者のシルエットに応じて、個別の人のモデルパターンを追加してもよい。 Although the processing unit 23 uses a model pattern commonly set for each elevator as a human model pattern, a model pattern individually set for each elevator may be used. For example, individual person model patterns may be added according to the silhouette of the user in the building where each elevator is installed.

人のモデルパターンは、人のパーツ(頭部及び胴部等)を簡略化したものの輪郭を結ぶ線(ワイヤーフレーム)で構成されるモデルパターンであったが、人のパーツをある程度詳細に描いたものの輪郭を結ぶ線(ワイヤーフレーム)で構成されるモデルパターンであってもよい。詳細な人のモデルパターンを用いることで、人の位置や挙動をより詳細に把握することができる。例えば、詳細な人のモデルパターンが、人の瞳、鼻、及び口などの輪郭を結ぶ線を含む場合、撮像画像から抽出されたエッジに対して、人のモデルパターンのうち人の瞳、鼻、及び口に対応する部分をそれぞれ当てはめることで、かご21内が有人であるか否かをより確実に判断することができる。 The human model pattern was a model pattern consisting of lines (wireframes) connecting the contours of simplified human parts (head, torso, etc.), but the human parts were drawn in some detail. It may be a model pattern composed of lines (wireframes) connecting the contours of objects. By using a detailed human model pattern, it is possible to grasp the position and behavior of a person in more detail. For example, when a detailed human model pattern includes lines connecting contours such as the human pupil, nose, and mouth, the human pupil, nose, and the human eye, nose, among the human model patterns, are relative to the edges extracted from the captured image. By applying the parts corresponding to the mouth and the mouth, it is possible to more reliably determine whether or not the inside of the car 21 is manned.

上記実施形態の利用者サポートシステム1では、記憶部221は、モデルデータとして、かごの内部構造のモデルパターン及び人のモデルパターンを記憶していたが、さらに、物(人の運んでいる荷物や所持品、及び、動物等)のモデルパターンを記憶していてもよい。例えば、記憶部221が刃物等のモデルパターンを記憶していれば、処理部23は、かご21内に滞在している人が刃物等を所持していると判断した場合、サーバー処理部40が管理者端末6にこの旨を通報するようサーバー処理部40に指示信号を出力する、及び、開閉装置215にドア214を開けた状態で維持させる等の動作を実行させることができる。また、この場合、かご21内に報知装置として非常ベルが設けられていれば、サーバー処理部40は、かご21内の非常ベルを鳴らす等の動作を実行させることができる。 In the user support system 1 of the above embodiment, the storage unit 221 stores the model pattern of the internal structure of the car and the model pattern of the person as model data. You may memorize the model pattern of your belongings, animals, etc.). For example, if the storage unit 221 stores a model pattern of a blade or the like, the processing unit 23 determines that the person staying in the car 21 possesses the blade or the like, and the server processing unit 40 causes the server processing unit 40 to store the model pattern. It is possible to output an instruction signal to the server processing unit 40 so as to notify the administrator terminal 6 to this effect, and to cause the switchgear 215 to perform operations such as keeping the door 214 open. Further, in this case, if an emergency bell is provided as a notification device in the car 21, the server processing unit 40 can execute an operation such as ringing the emergency bell in the car 21.

モデルデータ(かごの内部構造のモデルパターン及び人のモデルパターン等)は、画像認識装置22の記憶部221以外、例えば、エレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバー等に記憶されていてもよい。 The model data (model pattern of the internal structure of the car, model pattern of a person, etc.) was installed in a place other than the storage unit 221 of the image recognition device 22, for example, a place different from the elevator 2 (a place away from the elevator 2). It may be stored in a server or the like.

サーバー処理部40は、マイコン処理部200からの指示信号を受けて、画像認識処理部220による判定結果を文字情報として管理者端末6及び技術員端末7に出力していたが、サーバー処理部40は、画像認識装置220からの判定結果の入力を受けた時点で、画像認識処理部220による判定結果を、文字情報として管理者端末6及び技術員端末7に出力してもよい。 The server processing unit 40 received the instruction signal from the microcomputer processing unit 200 and output the determination result by the image recognition processing unit 220 as character information to the administrator terminal 6 and the engineer terminal 7, but the server processing unit 40 When the determination result is input from the image recognition device 220, the determination result by the image recognition processing unit 220 may be output to the administrator terminal 6 and the engineer terminal 7 as character information.

また、サーバー処理部40は、画像認識処理部220による判定結果を、文字情報として管理者端末6及び技術員端末7に出力していたが、音声情報として出力してもよい。また、サーバー処理部40は、画像認識処理部220による判定結果を、管理者端末6及び技術員端末7の一方に出力してもよい。例えば、かご21内での人の飛び跳ね等の悪戯の可能性について管理者端末6のみに送信することで、管理者への注意喚起を行うと共に、他のエレベータに対応している技術員の作業の中断を抑制できる。 Further, although the server processing unit 40 has output the determination result by the image recognition processing unit 220 to the administrator terminal 6 and the technician terminal 7 as character information, it may be output as voice information. Further, the server processing unit 40 may output the determination result by the image recognition processing unit 220 to one of the administrator terminal 6 and the technician terminal 7. For example, by transmitting the possibility of mischief such as jumping of a person in the car 21 only to the administrator terminal 6, the administrator is alerted and the work of a technician who supports other elevators is performed. Interruption can be suppressed.

マイコン処理部200は、かご21内で人が倒れている場合に、スピーカー212からのアナウンスに対する返答に応じて(このアナウンスに対して返事が無かった場合に)、第一サーバー4が管理者端末6及び技術員端末7に通報するよう第一サーバー4に指示信号を出力していたが、この代わりに、スピーカー212に「人が倒れていると検知しましたのでビル管理者に通報します」とアナウンスさせ、第一サーバー4が管理者端末6に通報するよう第一サーバー4に指示信号を出力してもよい。 In the microcomputer processing unit 200, when a person is lying down in the car 21, the first server 4 is the administrator terminal in response to the response to the announcement from the speaker 212 (when there is no reply to this announcement). An instruction signal was output to the first server 4 to notify 6 and the engineer terminal 7, but instead, the speaker 212 said, "We have detected that a person has fallen, so we will notify the building manager." An instruction signal may be output to the first server 4 so that the first server 4 makes an announcement and notifies the administrator terminal 6.

また、かご21内で人が倒れている場合における第一サーバー4からの通報は、管理者端末6及び技術員端末7以外に、監視端末3に対して行ってもよい。この場合、監視センターに滞在している監視員が、かご21内で倒れている人に呼びかける等の対応を行うことができる。
さらに、利用者サポートシステム1は、第一サーバー4に接続された客先端末を備えていてもよい。客先端末は、例えば、病院や養護老人施設等に設置される。この場合、マイコン処理部200は、第一サーバー4が判定結果を客先端末に通報するよう第一サーバー4に指示信号を出力してもよい。例えば、人倒れについての情報を、病院や養護老人施設等に設置された客先端末に送信することで、看護師や介護士等が人倒れに対して適切に対応することができる。尚、このような送信を行うために、データベース50は、各エレベータに対応する客先端末に関する情報を人や物の挙動と関連付けて記憶していてもよい(例えば、各エレベータの最寄りの病院の連絡先と人倒れについての情報とを関連付けて記憶していてもよい)。
Further, when a person is lying down in the car 21, the first server 4 may make a report to the monitoring terminal 3 in addition to the administrator terminal 6 and the technician terminal 7. In this case, the observer staying at the monitoring center can take measures such as calling out to a person who has fallen in the car 21.
Further, the user support system 1 may include a customer terminal connected to the first server 4. The customer terminal is installed in, for example, a hospital or a nursing home for the elderly. In this case, the microcomputer processing unit 200 may output an instruction signal to the first server 4 so that the first server 4 notifies the customer terminal of the determination result. For example, by transmitting information about a person's fall to a customer terminal installed in a hospital, a nursing home for the elderly, or the like, a nurse, a caregiver, or the like can appropriately respond to the person's fall. In order to perform such transmission, the database 50 may store information about the customer terminal corresponding to each elevator in association with the behavior of a person or an object (for example, the nearest hospital of each elevator). You may remember the contact and the information about the fallen person in association with each other).

処理部23は、画像認識装置22に備えられた画像認識処理部220と、制御マイコン20に備えられたマイコン処理部200とを含んでいたが、これに限らず、処理部23の全てが、制御マイコン20に設けられてもよいし、画像認識装置22に設けられてもよい。また、処理部23の少なくとも一部が、エレベータ2以外の構成(例えば、第一サーバー4や、エレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバー)に含まれていてもよい。 The processing unit 23 includes an image recognition processing unit 220 provided in the image recognition device 22, and a microcomputer processing unit 200 provided in the control microcomputer 20, but the processing unit 23 is not limited to this, and all of the processing units 23 include. It may be provided in the control microcomputer 20 or in the image recognition device 22. Further, at least a part of the processing unit 23 is included in a configuration other than the elevator 2 (for example, a first server 4 or a server installed in a place different from the elevator 2 (a place away from the elevator 2)). You may.

例えば、処理部23は、詳細な人のモデルパターンを用いる場合、簡略化した人のモデルパターンを用いる場合と比べて、高い処理能力が必要であるため、処理部23や記憶部221をエレベータ2とは異なる場所(エレベータ2とは離れた場所)に設置されたサーバーに設けてもよい。 For example, when the processing unit 23 uses a detailed human model pattern, a higher processing capacity is required as compared with the case where a simplified human model pattern is used. Therefore, the processing unit 23 and the storage unit 221 are combined with the elevator 2 It may be installed in a server installed in a place different from the above (a place away from the elevator 2).

また、処理部23は、撮像画像に基づいて把握した人の状況に応じて、上述した所定の動作以外の動作を行ってもよい。 Further, the processing unit 23 may perform an operation other than the above-mentioned predetermined operation according to the situation of the person grasped based on the captured image.

例えば、処理部23は、階床釦の操作に応じた階にかご21が停止し且つドア214が一旦戸開閉後に所定時間閉じた状態で停止しているにもかかわらず、かご21内から人が検知され続けている場合、スピーカー212に「戸開釦を押して、開いたドアからエレベータを降りるか、階床釦を押してください」とのアナウンスを流すよう音声案内装置25に指示信号を出力すると共に、ディスプレイ213が「戸開釦を押して、開いたドアからエレベータを降りるか、階床釦を押してください」と表示するよう表示案内装置26に指示信号を出力してもよい。 For example, the processing unit 23 is a person from inside the car 21 even though the car 21 is stopped on the floor corresponding to the operation of the floor button and the door 214 is stopped once closed for a predetermined time after opening and closing the door. Is continuously detected, an instruction signal is output to the voice guidance device 25 so that the speaker 212 announces "Please press the door open button and exit the elevator from the open door or press the floor button". At the same time, an instruction signal may be output to the display guide device 26 so that the display 213 displays "Please press the door open button and exit the elevator from the opened door or press the floor button".

また、処理部23は、階床釦の操作に応じた階にかご21が停止し且つ人がドア214に背を向けた状態でドア214の近くに滞在している場合、スピーカー212に「背面側のドアが開きます」とのアナウンスを流すよう音声案内装置25に指示信号を出力してもよい。 Further, when the car 21 is stopped on the floor corresponding to the operation of the floor button and the person is staying near the door 214 with his / her back to the door 214, the processing unit 23 tells the speaker 212 “backward”. An instruction signal may be output to the voice guidance device 25 so as to make an announcement that "the door on the side will open".

さらに、処理部23は、人がドア214を抉じ開けようとしている場合「ドアに近づかないようにしてください」とのアナウンスを流したり、人がドア214を押さえている場合「ドア開閉の障害に気を付けてください」とのアナウンスを流したり、人がドアにぶつかっている場合「ドアへのぶつかりに気をつけてください」とのアナウンスを流したりするよう、音声案内装置25に指示信号を出力してもよい。 Further, the processing unit 23 makes an announcement that "Keep away from the door" when a person is trying to open the door 214, or "Failure to open / close the door" when a person is holding the door 214. An instruction signal is given to the voice guidance device 25 to make an announcement saying "Please be careful about the door" or when a person is hitting the door, make an announcement saying "Please be careful about hitting the door". May be output.

カメラ210は、かご21内に複数設けられていてもよい。また、カメラ210として、監視カメラを用いる代わりに、監視カメラ以外の別のカメラを用いてもよい。このようなカメラとしては、例えば、周囲全体を同時に撮影可能な360°カメラを用いてもよい。 A plurality of cameras 210 may be provided in the car 21. Further, as the camera 210, instead of using the surveillance camera, another camera other than the surveillance camera may be used. As such a camera, for example, a 360 ° camera capable of simultaneously photographing the entire surroundings may be used.

上記実施形態の利用者サポートシステム1では、エレベータ2のかご21内に配置される報知装置として、スピーカー212及びディスプレイ213が用いられていたが、これらの一方のみが用いられてもよい。また、報知装置は、乗り場に配置された非常ベル等を含んでもよい。 In the user support system 1 of the above embodiment, the speaker 212 and the display 213 are used as the notification device arranged in the car 21 of the elevator 2, but only one of these may be used. Further, the notification device may include an emergency bell or the like arranged at the landing.

また、上記実施形態の利用者サポートシステム1では、公衆回線に接続される通信部として、第一サーバー4が用いられていたが、例えば、監視端末3等が通信部として用いられてもよい。 Further, in the user support system 1 of the above embodiment, the first server 4 is used as the communication unit connected to the public line, but for example, the monitoring terminal 3 or the like may be used as the communication unit.

上記実施形態の利用者サポートシステム1は、複数台のエレベータを備えていたが、一台のエレベータを備えていてもよい。また、利用者サポートシステム1は、複数台の管理者端末6及び複数台の技術員端末7を備えていたが、一台の管理者端末6及び複数台の技術員端末7を備えていてもよいし、複数台の管理者端末6及び一台の技術員端末7を備えていてもよい。 The user support system 1 of the above embodiment includes a plurality of elevators, but may include one elevator. Further, although the user support system 1 includes a plurality of administrator terminals 6 and a plurality of technician terminals 7, one administrator terminal 6 and a plurality of technician terminals 7 may be provided. , A plurality of administrator terminals 6 and one technician terminal 7 may be provided.

通信系統R1は、電話回線を含んでいたが、図6に示すように、電話回線の代わりにインターネットを含んでいてもよい。通信系統R1は、例えば、制御マイコン20から順にインターネットを介して監視端末3に通信可能であり、且つ、監視端末3からインターネットを介して制御マイコン20に通信可能な通信系統である。この場合、通信系統R1,R2,R3は、一部(インターネット)で共通している。 Although the communication system R1 includes a telephone line, as shown in FIG. 6, the communication system R1 may include the Internet instead of the telephone line. The communication system R1 is, for example, a communication system capable of communicating with the monitoring terminal 3 via the Internet in order from the control microcomputer 20, and capable of communicating with the control microcomputer 20 from the monitoring terminal 3 via the Internet. In this case, the communication systems R1, R2, and R3 are partly common (Internet).

1…利用者サポートシステム、2…エレベータ、10…実行部、20…制御マイコン、200…マイコン処理部、21…かご、210…カメラ、211…マイク、212…スピーカー、212…ディスプレイ、214…ドア、215…開閉装置、22…画像認識装置、220…画像認識処理部、221…記憶部、22…画像認識装置、23…処理部、24…音声認識装置、25…音声案内装置、26…表示案内装置、27…駆動装置、3…監視端末、4…第一サーバー、40…サーバー処理部、5…第二サーバー、50…データベース、6…管理者端末、7…技術員端末(技術員携帯端末)、R1,R2,R3…通信系統、P1,P2,P…座標 1 ... User support system, 2 ... Elevator, 10 ... Execution unit, 20 ... Control microcomputer, 200 ... Microcomputer processing unit, 21 ... Basket, 210 ... Camera, 211 ... Microphone, 212 ... Speaker, 212 ... Display, 214 ... Door , 215 ... switchgear, 22 ... image recognition device, 220 ... image recognition processing unit, 221 ... storage unit, 22 ... image recognition device, 23 ... processing unit, 24 ... voice recognition device, 25 ... voice guidance device, 26 ... display Guidance device, 27 ... drive device, 3 ... monitoring terminal, 4 ... first server, 40 ... server processing unit, 5 ... second server, 50 ... database, 6 ... administrator terminal, 7 ... engineer terminal (engineer mobile terminal) , R1, R2, R3 ... communication line, P1, P2, P C ... coordinates

Claims (5)

エレベータに配置された制御マイコンと、
前記エレベータのかご内を経時的に撮像する撮像装置と、
前記制御マイコンと接続され且つ前記撮像装置が撮像した画像を処理する処理部と、
前記処理部の指示に基づき前記エレベータの利用者の状況に応じた所定の動作を実行する実行部と、
前記撮像装置が撮像した画像との比較の対象となるモデルデータを記憶する記憶部と、を備え、
前記モデルデータは、複数人のモデルパターンを含み、
前記処理部は、
前記撮像装置が撮像した複数の画像のうちの少なくとも二つの画像から、それぞれエッジを抽出する第一処理と、
前記少なくとも二つの画像から抽出されたエッジのうちの人に対する像のエッジに、それぞれ前記複数人のモデルパターンのうちいずれかの人のモデルパターンを当てはめる第二処理と、
前記第二処理における前記少なくとも二つの画像に対する前記人のモデルパターンの当てはめに基づいて、人の状況を把握する第三処理と、
前記第三処理で把握した人の状況に応じて所定の動作を前記実行部に実行させる第四処理と、
を行い、
前記複数人のモデルパターンのそれぞれは、人のエッジによって構成され、
前記第二処理は、
前記抽出されたエッジに、人の頭部に重なる円形状のエッジがあるか否か、人の胴体に重なる筒状のエッジが有るか否か、及び、人の四肢に重なる形状のエッジが有るか否かを判定することにより、該抽出されたエッジに人体特徴があるか否かを判定するステップと、
前記抽出されたエッジに前記人体特徴があると判定したとき、前記円形状のエッジと、前記いずれかの人のモデルパターンの頭部に対応する箇所が重なるよう、前記抽出されたエッジに前記いずれかの人のモデルパターンを当てはめるステップと、を含む、
ことを特徴とするエレベータの利用者サポートシステム。
The control microcomputer placed in the elevator and
An image pickup device that images the inside of the elevator car over time,
A processing unit that is connected to the control microcomputer and processes an image captured by the image pickup apparatus.
An execution unit that executes a predetermined operation according to the situation of the user of the elevator based on the instruction of the processing unit, and an execution unit.
A storage unit for storing model data to be compared with an image captured by the image pickup device is provided.
The model data includes a model pattern of a plurality of people.
The processing unit
The first process of extracting edges from at least two images out of a plurality of images captured by the image pickup apparatus, and
A second process of applying the model pattern of any one of the plurality of people to the edge of the image for a person among the edges extracted from at least two images.
The third process of grasping the situation of the person based on the fitting of the model pattern of the person to the at least two images in the second process, and the third process.
The fourth process of causing the execution unit to execute a predetermined operation according to the situation of the person grasped in the third process, and
And
Each of the plurality of model patterns is composed of human edges .
The second treatment is
The extracted edges have a circular edge that overlaps the human head, a tubular edge that overlaps the human torso, and an edge that overlaps the human limbs. A step of determining whether or not the extracted edge has human body characteristics by determining whether or not the extracted edge has a human body feature.
When it is determined that the extracted edge has the human body characteristic, the extracted edge is overlapped with the portion corresponding to the head of the model pattern of any of the persons. Including steps to apply that person's model pattern,
Elevator user support system featuring this.
前記実行部は、前記エレベータの前記かご内に配置される報知装置を有し、
前記処理部は、前記第四処理において、前記報知装置に前記所定の動作として、前記把握した人の状況に応じた情報を報知させる、請求項1に記載のエレベータの利用者サポートシステム。
The execution unit has a notification device arranged in the car of the elevator.
The elevator user support system according to claim 1, wherein in the fourth process, the processing unit causes the notification device to notify the information according to the situation of the grasped person as the predetermined operation.
前記実行部は、公衆回線に接続される通信部を有し、
前記処理部は、前記第四処理において、前記通信部に前記所定の動作として、前記把握した人の状況についての情報を送信させる、請求項1又は請求項2に記載のエレベータの利用者サポートシステム。
The execution unit has a communication unit connected to a public line, and has a communication unit.
The elevator user support system according to claim 1 or 2, wherein in the fourth process, the processing unit causes the communication unit to transmit information about the situation of the grasped person as the predetermined operation. ..
前記画像は、前記かごの出入り口から見える乗り場も含み、
前記実行部は、前記かごのドアを開閉する開閉装置であり、
前記処理部は、前記第三処理において、前記乗り場を含む画像に基づいて前記かごに対する人の乗り降りを把握し、前記第四処理において、前記開閉装置に前記所定の動作として、把握した人の乗り降りに応じてドアを開閉させる、請求項1〜3のいずれか1項に記載のエレベータの利用者サポートシステム。
The image also includes a platform that can be seen from the doorway of the car.
The execution unit is an opening / closing device that opens / closes the door of the car.
In the third process, the processing unit grasps the getting on and off of the car with respect to the car based on the image including the landing, and in the fourth process, the opening and closing device grasps the getting on and off of the person as the predetermined operation. The elevator user support system according to any one of claims 1 to 3, which opens and closes a door according to the above.
前記実行部は、前記かごを昇降駆動する駆動装置を有し、
前記処理部は、前記第三処理において、前記かご内の画像に基づいて前記かごの揺れにつながる人の挙動を把握し、前記第四処理において、前記駆動装置に前記所定の動作として、前記把握した人の挙動に応じた前記かごの運転を行わせる、請求項1〜4のいずれか1項に記載のエレベータの利用者サポートシステム。
The execution unit has a drive device for raising and lowering the car.
In the third process, the processing unit grasps the behavior of a person leading to the shaking of the car based on the image in the car, and in the fourth process, the driving device performs the grasp as the predetermined operation. The elevator user support system according to any one of claims 1 to 4, wherein the car is operated according to the behavior of the person who has made the car.
JP2019232419A 2019-12-24 2019-12-24 Elevator user support system Active JP6886645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019232419A JP6886645B2 (en) 2019-12-24 2019-12-24 Elevator user support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019232419A JP6886645B2 (en) 2019-12-24 2019-12-24 Elevator user support system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017017553A Division JP6722408B2 (en) 2017-02-02 2017-02-02 Elevator user support system

Publications (2)

Publication Number Publication Date
JP2020059607A JP2020059607A (en) 2020-04-16
JP6886645B2 true JP6886645B2 (en) 2021-06-16

Family

ID=70220014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019232419A Active JP6886645B2 (en) 2019-12-24 2019-12-24 Elevator user support system

Country Status (1)

Country Link
JP (1) JP6886645B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006092854A1 (en) * 2005-03-02 2008-08-07 三菱電機株式会社 Elevator image monitoring device
JP4321471B2 (en) * 2005-03-28 2009-08-26 三菱電機株式会社 Rampage detection device
JP4935014B2 (en) * 2005-07-22 2012-05-23 三菱電機ビルテクノサービス株式会社 Elevator crime prevention driving apparatus and crime prevention driving setting changing method
JP4672658B2 (en) * 2006-04-26 2011-04-20 三菱電機株式会社 Object detection device and elevator object detection device
JP2011113313A (en) * 2009-11-26 2011-06-09 Secom Co Ltd Attitude estimation device
JP5788843B2 (en) * 2012-08-30 2015-10-07 株式会社日立製作所 Elevator door system and elevator with elevator door system
JP2013035690A (en) * 2012-09-05 2013-02-21 Mega Chips Corp Display device and display method in elevator car
JP2016169067A (en) * 2015-03-11 2016-09-23 三菱電機株式会社 Elevator system

Also Published As

Publication number Publication date
JP2020059607A (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP6619760B2 (en) Elevator apparatus, elevator system, and autonomous robot control method
JP6845307B2 (en) Monitoring system and monitoring method
JP4797720B2 (en) Monitoring device and method, image processing device and method, and program
JP2011236036A (en) Reporting system for abnormality in elevator cage
CN110540116A (en) Elevator monitoring method, device and system
JP6810914B2 (en) Elevator remote monitoring system
JP7340063B2 (en) Security system and surveillance display
JP5765153B2 (en) Person monitoring system, robot, person monitoring method, and robot control program
JP2019055838A (en) Elevator system and detection method of lost child in elevator
JP6886645B2 (en) Elevator user support system
JP5279229B2 (en) Elevator control device
JP6722408B2 (en) Elevator user support system
JP6117404B1 (en) Elevator system
JP2016210567A (en) Monitoring system of passenger conveyor and monitoring method of passenger conveyor
JP6754099B2 (en) Elevator door control system
JP6667144B2 (en) Elevator remote monitoring system
JP2007091462A (en) Monitoring device of elevator
JP6553251B1 (en) Elevator control method and elevator using the same
KR101159941B1 (en) Elevator monitoring system and operating method thereof
JP2021144292A (en) Information processing system
CN116189238B (en) Human shape detection and identification fall detection method based on neural network
JP7308068B2 (en) Security system and surveillance display
JP7476965B2 (en) Notification control device, control method, and program
JP4615299B2 (en) Apartment house intercom system
JP6682589B2 (en) Elevator monitoring device and elevator monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210429

R150 Certificate of patent or registration of utility model

Ref document number: 6886645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250